DE19754909A1 - Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes - Google Patents
Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen GewebesInfo
- Publication number
- DE19754909A1 DE19754909A1 DE19754909A DE19754909A DE19754909A1 DE 19754909 A1 DE19754909 A1 DE 19754909A1 DE 19754909 A DE19754909 A DE 19754909A DE 19754909 A DE19754909 A DE 19754909A DE 19754909 A1 DE19754909 A1 DE 19754909A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- color
- mask
- tissue section
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000012545 processing Methods 0.000 title claims abstract description 49
- 238000012937 correction Methods 0.000 claims abstract description 30
- 238000009826 distribution Methods 0.000 claims abstract description 26
- 238000001454 recorded image Methods 0.000 claims abstract description 12
- 238000005259 measurement Methods 0.000 claims abstract description 10
- 238000010191 image analysis Methods 0.000 claims description 27
- 238000007781 pre-processing Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 12
- 239000003086 colorant Substances 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 7
- 239000000049 pigment Substances 0.000 claims description 7
- 238000013139 quantization Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000000926 separation method Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 3
- 230000003902 lesion Effects 0.000 description 38
- 230000008901 benefit Effects 0.000 description 9
- 238000012800 visualization Methods 0.000 description 8
- 201000001441 melanoma Diseases 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004140 cleaning Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 4
- 208000035250 cutaneous malignant susceptibility to 1 melanoma Diseases 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 238000000844 transformation Methods 0.000 description 4
- 238000003705 background correction Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 206010040882 skin lesion Diseases 0.000 description 3
- 231100000444 skin lesion Toxicity 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000002405 diagnostic procedure Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000029663 wound healing Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 239000008406 cosmetic ingredient Substances 0.000 description 1
- 238000012774 diagnostic algorithm Methods 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000019612 pigmentation Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 238000010972 statistical evaluation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20008—Globally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
Die Erfindung betrifft Verfahren zur Erfassung und Bearbeitung
von Abbildungen biologischen Gewebes, insbesondere zur Ver
arbeitung von Gewebebildern, z. B. dermatoskopischen Bildern, um
Gewebemerkmale zu erkennen oder Gewebeveränderungen zu
identifizieren und/oder zu bewerten. Die Erfindung betrifft auch
Vorrichtungen zur Implementierung derartiger Verfahren.
Es ist allgemein bekannt, digitale Bildverarbeitungstechniken
im Bereich der Erfassung und Bewertung von Abbildungen
biologischer Gewebe einzusetzen. Dabei erfolgt üblicherweise
nach einer digitalen Bildaufnahme eine Speicherung des Aufnahme
bildes und dessen Vorverarbeitung zur Bildbereinigung und
Trennung eines interessierenden Bildausschnittes. Anschließend
erfolgt eine Bildanalyse zur Ermittlung bestimmter Bildparameter.
Die Nachteile dieser Vorgehensweise wird im folgenden am Beispiel
allgemein bekannter herkömmlicher Systeme zur Verarbeitung
dermatoskopischer Bilder zur frühzeitigen Erkennung bösartiger
Pigmentveränderungen der Haut erläutert.
In herkömmlichen Systemen zur Melanomerfassung werden zur Bild
aufnahme gewöhnlich Videokameras mit automatischer Helligkeits-
und Farbeinstellung verwendet. Dadurch erfolgt die Bildaufnahme
in Abhängigkeit von der Färbung oder Pigmentierung eines zu
untersuchenden Hautabschnittes unter jeweils verschiedenen
Aufnahmebedingungen, so daß anschließend ein Vergleich von
Helligkeits- oder Farbmerkmalen mit Referenzbildern unzuverlässig
oder ausgeschlossen ist. Ein weiterer Nachteil besteht darin, daß
bei der herkömmlichen Bildaufnahme gewöhnlich übliche Licht
quellen aus der Medizintechnik eingesetzt werden. Diese Licht
quellen (z. B. Kombinationen aus Halogenlampen mit Lichtleitern)
unterliegen je nach den Betriebsbedingungen lang- und kurz
fristigen Schwankungen der Helligkeit und der Farbtemperatur.
Dies ist wiederum nachteilig für die Vergleichbarkeit der
aufgenommenen Hautabbildungen.
Weitere Nachteile ergeben sich aus der bisher üblichen
Bildvorverarbeitung. Gewöhnlich werden die digitalen Aufnahme
bilder im Erfassungssystem gespeichert, um anschließend
je nach den Untersuchungsanforderungen einer Vorverarbeitung
unterzogen zu werden. Diese umfaßt beispielsweise eine Bild
bereinigung zur Entfernung von Bildstörungen in Form von Haaren
oder Blasen in einer Immersionsflüssigkeit, eine geometrische
Abgrenzung zum Beispiel einer abgebildeten Hautläsion vom
umgebenden Areal oder eine Falschfarbendarstellung zur Anzeige
von Läsionsbereichen, die sich durch besondere Färbungen aus
zeichnen. Durch die nicht reproduzierbare Aufnahmebedingung ist
aber eine weitergehende Vorverarbeitung zur Bereitstellung von
Bildparametern, die bei einem sich anschließenden Untersuchungs
verfahren eine Aussage über die Dignität der Hautläsion zulassen,
bislang nicht oder mit einer für praktische Anwendungen nur
unzureichenden Zuverlässigkeit möglich. Generell ist die Zahl und
Zuverlässigkeit der erzielbaren Aussagen beschränkt und meist
nicht mit Erfahrungswerten vergleichbar.
Schließlich erlauben es die herkömmlichen Bildverarbeitungs
verfahren wegen der fehlenden Vergleichbarkeit von Abbildungen,
die zu verschiedenen Zeitpunkten aufgenommen wurden, nicht, die
zeitliche Entwicklung von Hautveränderungen anhand der Ver
änderung charakteristischer Bildparameter zu erfassen.
Die genannten Probleme treten nicht nur bei der Erfassung von
Hautläsionen zur Früherkennung maligner Melanome auf, sondern
generell bei der Beobachtung von oberflächlichem oder innerem
biologischen Gewebe wie beispielsweise bei der Verlaufskontrolle
bei einer Wundheilung, bei kosmetischen oder pharmazeutischen
Tests oder bei endoskopischen Untersuchungen. Bei all diesen und
ähnlichen Techniken zur Erfassung und Bearbeitung von Abbildungen
biologischen Gewebes besteht ein großer Bedarf nach einer
verbesserten Bildverarbeitungstechnik.
Aus DE-OS 43 17 746 ist ein Verfahren zur Raumfilterung einer
Punkteverteilung bekannt, die eine von Störungen überlagerte
Struktur darstellt und deren Punkte durch n Koordinatenwerte
eines n-dimensionalen Raumes definiert sind. Bei dem Verfahren,
das auf der sogenannten Skalierungsindexmethode (im folgenden:
SIM) basiert, werden für jeden Punkt die Funktion, die die
Abhängigkeit der Anzahl der Punkte in einer Umgebung des
betreffenden Punktes vom Durchmesser der Umgebung darstellt,
sowie ein Skalierungskoeffizient, der gleich dem Exponenten (a)
einer einfachen Potenzfunktion ist, welche die genannte Funktion
möglichst gut annähert, ermittelt. Ein Vergleich der Skalierungs
koeffizienten der zu untersuchenden Struktur und einer äqui
valenten n-dimensionalen stochastischen Punkteverteilung liefert
die Untermenge der Punkte der zu untersuchenden Struktur, die die
von Störungen befreite Struktur repräsentieren. Hiermit werden
alle Einzelheiten von SIM, die aus DE-OS 43 17 746 bekannt sind
und die Anwendung des Raumfilterverfahrens auf die Untersuchung
beliebiger Punkteverteilungen in n-dimensionalen Räumen be
treffen, ausdrücklich in die Offenbarung der vorliegenden
Patentanmeldung einbezogen.
In der bisher nicht veröffentlichten deutschen Patentanmeldung
196 33 693 wird eine als Skalierungsvektormethode (im folgenden
SVM) bezeichnete Erweiterung von SIM beschrieben. SVM ist ein
Verfahren zur Erfassung von Targetmustern in einer Textur, mit
der ein Systemzustand als Verteilung von Punkten in n-dimen
sionalem Raum darstellbar ist. Im Unterschied zur isotropen SIM
werden bei SVM anisotrope Skalierungsindizes bestimmt, die
charakteristisch für die Abhängigkeit der Projektion der Punkt
dichte auf eine bestimmte Koordinate vom Abstand zu einem
betrachteten Punkt ist. SVM enthält ebenfalls einen Vergleich der
Verteilung der anisotropen Skalierungsindizes mit vorbestimmten
Vergleichsverteilungen. Hiermit wird auch der gesamte Offen
barungsgehalt der DE 196 33 693 ausdrücklich in die vorliegende
Patentanmeldung einbezogen.
Die Aufgabe der Erfindung ist es, verbesserte Bildaufnahme- und
Verarbeitungsverfahren zur Abbildung biologischen Gewebes anzu
geben, die sich durch eine hohe Reproduzierbarkeit auszeichnen,
die eine Standardisierung ermöglichen und mit denen der An
wendungsbereich der genannten herkömmlichen Techniken erweitert
wird. Die Aufgabe der Erfindung ist es ferner, Vorrichtungen zur
Implementierung derartiger verbesserter Bildverarbeitungs
verfahren anzugeben.
Die Aufgaben der Erfindung werden mit Verfahren bzw. Vor
richtungen mit den Merkmalen entsprechend den Patentansprüchen 1,
2 und 20 gelöst. Vorteilhafte Ausführungsformen der Erfindung
ergeben sich aus den abhängigen Ansprüchen.
Die Lösung der genannten Aufgabe basiert auf der Idee, bei
einem Verfahren zur Bilderfassung und -bearbeitung je nach den
konkreten Anforderungen an das Verarbeitungsergebnis bei
einzelnen oder allen Schritten der Bildaufnahme, Bildvorver
arbeitung und Bildanalyse die Erfassung digitaler Bilder und/oder
charakteristischer Bildparameter der digitalen Bilder unter
normierten, eine zeit- und geräteunabhängige Vergleichbarkeit
gewährleistenden Bedingungen durchzuführen. Hierzu werden eine
Reihe von Korrekturen der Bildaufnahmebedingungen sowie
Normierungen, Transformationen und/oder Projektionen der auf
genommenen Bilder in Punkträume durchgeführt, in denen Para
meteranalysen in normier- und reproduzierbarer Weise durchführbar
sind. Es wird unterstrichen, daß die erfindungsgemäßen Maßnahmen
zur Verbesserung der Aufnahme einerseits und der Bildverarbeitung
(Bildvorverarbeitung- und Bildanalyse) andererseits je nach den
Anforderungen einer konkreten Anwendung einzeln oder gemeinsam
bereitgestellt werden können. Auch wenn bei der unten im
einzelnen erläuterten Anwendung der Erfindung bei der Erfassung
und Bearbeitung von dermatoskopischen Bildern die Korrektur
schritte bei der Bildaufnahme besonders vorteilhaft mit den
Normierungs- und Transformationsschritten bei der Bildver
arbeitung zusammenwirken, so ist es bei anderen, ebenfalls weiter
unten genannten Anwendungen auch möglich, entweder eine
erfindungsgemäße Verbesserung der Bildaufnahme oder eine
erfindungsgemäße Verbesserung der Bildverarbeitung vorzusehen.
Ein besonderer Vorteil der Erfindung ergibt sich aus der
neuartigen Bildverarbeitung, insbesondere aus der Maskenbe
arbeitung, die reproduzierbare und mit praktischen Erfahrungs
werten aus der nicht-automatischen Gewebeerkennung kompatible
Ergebnisse liefert.
Weitere Vorteile der Erfindung und Einzelheiten erfindungsgemäßer
Verfahrensweisen und Vorrichtungen werden im folgenden unter
Bezug auf die beigefügten Zeichnungen beschrieben. Es zeigen:
Fig. 1 ein Flußdiagramm zur Illustration der
erfindungsgemäßen Bildaufnahmeverfahren;
Fig. 2 eine Übersichtsdarstellung zur Illustration der
erfindungsgemäßen Bildverarbeitung;
Fig. 3 Histogrammdarstellungen (N(a)-Spektren) zur Anwendung der
Skalierungsindexmethode bei der Bildbereinigung;
Fig. 4 eine schematische Darstellung einer Artefaktmaske;
Fig. 5 Histogrammdarstellungen zur iterativen Histogrammanalyse
in einem Farbunterraum zur Trennung von Läsion und
Hauthintergrund;
Fig. 6 eine schematische Darstellung einer Randmaske;
Fig. 7 Übersichtsdarstellungen zur Vorgehensweise bei der
Ermittlung von Bildparametern, die für Randeigenschaften
eines untersuchten Gewebeabschnittes charakteristisch
sind;
Fig. 8a, 8b Schematische Randdarstellungen zur Illustration
der Analyse der Bildparameter, die für Randeigenschaften
charakteristisch sind;
Fig. 9 Übersichtsdarstellungen zur Vorgehensweise bei der
Ermittlung von Bildparametern, die für Farbeigen
schaften eines untersuchten Gewebeabschnittes
charakteristisch sind;
Fig. 10 Übersichtsdarstellungen zur Vorgehensweise bei der
Ermittlung von Bildparametern, die für Struktureigen
schaften eines untersuchten Gewebeabschnittes
charakteristisch sind; und
Fig. 11 Übersichtsdarstellungen zur Vorgehensweise bei der
Ermittlung von Bildparametern, die für Symmetrie
eigenschaften eines untersuchten Gewebeabschnittes
charakteristisch sind.
Die Erfindung wird im folgenden am Beispiel der Aufnahme (a)
und Verarbeitung (b) digitaler dermatoskopischer Bilder der
Haut beschrieben.
Die Bildaufnahme umfaßt die Verfahrensschritte, die zur Lieferung
eines helligkeits- und farbkompensierten Digitalbildes oder
Aufnahmebildes (z. B. RGB-Bild) durchgeführt werden, das
Ausgangspunkt der unten beschriebenen Bildverarbeitung ist. Die
Bildaufnahme umfaßt insbesondere Abgleichsmessungen zur Ermitt
lung von Helligkeits- und Farbkorrekturgrößen, die Erfassung der
Aufnahme von Bildern eines zu untersuchenden Gegenstandes und
Korrekturschritte zur dynamischen Korrektur des erfaßten Roh
bildes auf der Grundlage der Helligkeits- und Farbkorrektur
größen. Die Abgleichsmessungen sind jeweils einmal für eine
bestimmte Meßkonfiguration erforderlich, die sich durch unver
änderte Kamerabedingungen, Beleuchtungsbedingungen und einen
konstanten Abbildungsmaßstab auszeichnet. Einzelheiten der Bild
aufnahme sind schematisch in Fig. 1 dargestellt.
Die Abgleichsmessungen 10 umfassen nach einer Abschaltung
aller vorhandenen automatischen Kameraeinstellungen (wie z. B.
eine automatische Verstärkungssteuerung, AGC, eine automatische
Weißwertbestimmung, Shutter, Fokusautomatik usw.) eine Schwarz
bildaufnahme 11, eine Weißbildaufnahme 12, eine Farbreferenz
aufnahme 13 und die Korrekturgrößenermittlung 14. Vor den
genannten Schritten der Abgleichsmessungen 10 erfolgt zunächst
eine Signalanpassung der Schwarz- und Weiß-Pegel an das ver
wendete Videosystem. Bei eingeschalteter Beleuchtung und
fokussiertem Bild wird während der Erfassung eines Weißbildes die
Blende oder eine entsprechende Shutter-Einrichtung so weit
geöffnet, daß der Kanalpegel voll ausgelastet wird. Alle
Beleuchtungs-, Fokussierungs-Blenden und Verstärkungsein
stellungen des Aufnahmesystems werden als Konfigurationsdatei
gespeichert. Diese Signalanpassung wird immer dann wiederholt,
wenn sich eine der Einstellungen durch betriebsbedingte
Veränderungen oder durch Instabilitäten ändert.
Zur Schwarzbildaufnahme 11 wird das Kameraobjektiv vollständig
abgedunkelt und eine Signalpegeleinstellung für den Schwarzwert
vorgenommen. Die Signalpegeleinstellung erfolgt derart, daß die
Grauwertverteilungen in den drei Farbkanälen einander gleich sind
und unterhalb vorbestimmter Grenzen liegen. Erfolgt die Bild
aufnahme beispielsweise mit einem digitalen Videosystem mit einer
Signalauflösung über 256 Pegelstufen, so kann die vorbestimmte
Grenze innerhalb der unteren Stufen 0 bis 15 gewählt werden. Die
mit den ermittelten Signalpegeleinstellungen aufgenommenen
Schwarzbilder S(x, y) der Farbkanäle dienen als Schwarzreferenz
bilder.
Bei der Weißbildaufnahme 12 wird entsprechend ein weißes oder
graues Referenzbild aufgenommen und die Blende und/oder die
Kameraverstärkung so eingestellt, daß wiederum die Signalpegel
in den drei Farbkanälen einander gleichen und oberhalb einer
vorbestimmten Weißgrenze liegen. Die Weißgrenze kann entsprechend
dem obigen Beispiel im Bereich der oberen Signalpegelstufen 200
bis 255 liegen. Die mit den ermittelten Blenden- und/oder
Verstärkungswerten aufgenommenen Weißbilder der Farbkanäle dienen
als Weißreferenzbild W(x, y). Die Weißbildaufnahme 12 wird für
jede Vergrößerungseinstellung durchgeführt, bei der später die
eigentliche Bilderfassung erfolgt.
Anschließend werden aus den Schwarz- und Weißbildern jeweils
entsprechend ein mittlerer Schwarzwert Sm und ein mittlerer
Weißwert Sm (jeweils ein mittlerer Weißwert für jede Ver
größerungseinstellung) ermittelt. Aus den Schwarz- und Weiß
bildern wird eine sogenannte Shading-Matrix gebildet, die bei den
späteren Korrekturschritten 20 zur Shading-Korrektur vorgesehen
ist.
Die Farbreferenzaufnahme 13 ist vorgesehen, um kameraspezifische
Farbfehler der aufgenommenen Rohbilder korrigieren zu können. Die
Farbreferenzaufnahme 13 ist somit nicht zwingend erforderlich,
falls bei einer angestrebten Anwendung eine Vergleichbarkeit der
mit verschiedenen Kameras aufgenommenen Bilder nicht von
Interesse ist. Die Farbreferenzaufnahme 13 erfolgt derart, daß
zunächst Farbreferenzen als Sollwerte nach einer Referenzkarte
mit vorbestimmten, bekannten Farbwerten erfaßt werden. Die
Erfassung erfolgt beispielsweise durch eine Abspeicherung der
Sollwerte im Kamerasystem. Anschließend wird die Referenzkarte
der tatsächlich verwendeten Kamera aufgenommen. Die dabei
erhaltenen Farbwerte dienen als Ist-Werte, deren Abweichung von
den Soll-Werten ermittelt wird. Der Soll-Ist-Vergleich erfolgt mit
einer oder mehreren an sich bekannten Regressionsmethoden (z. B.
auf Grundlage der Fehlerquadratsrechnung) oder mittels neuronaler
Netze. Das Ergebnis der Berechnung ist eine 3.3-Korrekturmatrix
K (k11, k12, k13, k21, . . ., k33), mit der ein aufgenommenes
RGB-Bild in ein korrigiertes R'G'B'-Bild gemäß
(R', G', B') = K (R, G, B)
umgewandelt wird.
Die Referenzkarte, auf deren Grundlage die Farbreferenzaufnahme
13 erfolgt, kann eine an sich bekannte, standardmäßige Referenz
karte sein. Es ist jedoch ersatzweise auch möglich, die Farb
referenzkarte anwendungsspezifisch in das Aufnahmesystem zu
integrieren. So ist es beispielsweise möglich, bei den dermato
logischen Untersuchungen, bei denen der zu untersuchende Haut
bereich an einer transparenten Platte anliegt, durch die die
Bildaufnahme erfolgt, Farbreferenzmarkierungen auf der Platte
anzubringen. Dies ist besonders vorteilhaft, da die Farbreferenz
aufnahme 13 unter genau denselben Bedingungen durchgeführt werden
kann, wie die eigentliche Bilderfassung 20.
Die Korrekturgrößenermittlung 14 (s. Fig. 1) umfaßt die
Ermittlung der Shading-Matrix und der Farbkorrekturmatrix K in
einem für die weitere Bearbeitung geeigneten Datenformat.
Die Bilderfassung 20 umfaßt alle Schritte der Aufnahme eines
digitalen Videobildes des zu untersuchenden Objekts. Im Falle
von Gewebeuntersuchungen wird eine Ein-Chip- oder Drei-Chip-CCD-Kamera
mit einem geeigneten Aufsatzadapter auf das Gewebe
gesetzt, wie es beispielsweise von W. Stolz et al. in "Journal of
the American Academy of Dermatology" (Band 35, Seite 202, 1996)
beschrieben ist. Das Kamerasystem soll unter Remotekontrolle
betrieben werden, um alle Einstellungen mit einem Computer
gesteuert vornehmen zu können. Nach der Bilderfassung 20 wird
das aufgenommene Rohbild den Korrekturschritten 30 zur Bereit
stellung des Aufnahmebildes unterzogen, das Gegenstand der Bild
verarbeitung ist.
Die Korrekturschritte 30 umfassen eine Shadingkorrektur oder
Untergrundkompensation 31 und ggf. eine Farbkorrektur 32. Die
Shadingkorrektur 31 umfaßt eine additive Korrektur, die
bevorzugt eingesetzt wird, falls Beleuchtungsinhomogenitäten
überwiegen, oder eine multiplikative Korrektur, die bevorzugt
eingesetzt wird, falls Inhomogenitäten der Sensorik überwiegen.
Die Untergrundkompensation zur Ermittlung des additiv (BA) bzw.
multiplikativ (BN) korrigierten Bildes aus dem Rohbild (B)
erfolgt gemäß:
BA(x, y) = B(x, y)-W(x, y) + Wm-Sm (additiv)
BM(x) = B(x, y) Wm/W(x, y)-Sm (multiplikativ)
Das korrigierte Bild BA bzw. BM wird entsprechend der oben
angegebenen Farbkorrekturform mit der Korrekturmatrix K
multipliziert (Farbkorrektur 32).
Das nach der erfindungsgemäßen Shading- und Farbkorrektur
vorliegende Aufnahmebild besitzt den Vorteil, daß die Pixelwerte
(Helligkeit, Farben) unabhängig von spezifischen Eigenschaften
des Kamerasystems und der Aufnahmebedingungen sind, so daß die
Vergleichbarkeit des Aufnahmebildes mit zeitlich und örtlich
unabhängig aufgenommenen Aufnahmebildern gewährleistet ist und
das Aufnahmebild eine reproduzierbare, normierte Eingangsgröße
für die sich anschließende Bildverarbeitung darstellt. Durch die
Verwendung von CCD-Kameras mit Remotesteuerung werden alle
Einstellungen unter Computerkontrolle durchgeführt und re
gistriert. Abweichungen von den Sollwerteinstellungen werden
damit erkannt.
Die Bildverarbeitung liefert Bildmerkmale, die Ausgangspunkt
für eine sich anschließende Identifikation und Bewertung von
Hautveränderungen bezüglich ihrer Dignität und Entwicklung
sind.
Die erfindungsgemäße Bildverarbeitung umfaßt gemäß Fig. 2
nach der Aufnahme eines Digitalbildes oder Aufnahmebildes, die
unter Bezug auf die Fig. 1 beschrieben worden ist, eine
Bildvorverarbeitung 100 und eine bewertungsrelevante Bildver
arbeitung (Bildanalyse) 200. Weitere Verarbeitungsschritte
schließen sich mit der Visualisierung 300 und Klassifizierung 400
an. Die Bildvorverarbeitung 100 ist allgemein darauf gerichtet,
Auszüge von merkmalsspezifischen Regionen ("region of interest")
des Digitalbildes (sogenannte "Masken") zu erstellen, die
dazu vorgesehen sind, Eingangsgrößen für lineare oder nicht
lineare Methoden der Bildverarbeitung zu bilden, die im Rahmen
der sich anschließenden Bildanalyse 200 durchgeführt werden. Die
erforderlichen Maskentypen richten sich je nach den zu
analysierenden Merkmalen und den vorgesehenen linearen oder
nichtlinearen Bildverarbeitungsmethoden wie z. B. der Skalierungs
indexmethode, der Bestimmung der fraktalen Dimension von Bild
strukturen, der Ermittlung generalisierter oder lokaler
Entropiemaße, der Anwendung statistischer Verfahren oder
dergleichen. Die Masken liegen in binärer Form vor. Bei der
dargestellten Ausführungsform umfassen die im Ergebnis der Bild
vorverarbeitung 100 gelieferten Masken eine Artefaktmaske zur
Markierung von Störungen im Aufnahmebild des untersuchten
biologischen Gewebes, eine Objektmaske zur binären Markierung
eines bestimmten Gewebeabschnittes innerhalb des Aufnahmebildes,
eine Konturmaske, die den eindimensionalen oder linienhaften
Grenzverlauf der Objektmaske repräsentiert, eine Randmaske zur
zweidimensionalen Darstellung des Randbereiches des untersuchten
Gewebeabschnittes und ein auf prototypische Farben (sogenannte
"Farbsymbole") reduziertes Farbbild mit einer quantisierten
Farbdarstellung des Aufnahmebildes. Weitere Ergebnisse der Bild
vorverarbeitung 100 sind der Größennormierungsfaktor f (auch
Skalierungsfaktor) und Farbtransformationen des Aufnahmebildes.
Es ist ein besonderes Merkmal der Erfindung, daß eine Zerlegung
der Bildbewertung in elementare voneinander unabhängige Klassen
von Bildcharakteristika, namentlich von Geometrie-, Farb- und
Struktureigenschaften, erfolgt. Die Masken und übrigen
Normierungs- oder Transformationsgrößen werden für die spätere
Bildanalyse gespeichert. Ein besonderer Vorteil dieser Vorgehens
weise besteht darin, daß durch die Maskenbildung und Normierung
(Größe, Farbe) jedem Aufnahmebild ein abgeleitetes Bild zuge
ordnet wird, mit dem dann die Bildanalyse für alle Aufnahme- und
Referenzbilder unter vergleichbaren, normierten Bedingungen
erfolgt.
Die Bildvorverarbeitung 100 enthält gemäß Fig. 2 eine Bild
bereinigung 101. Die Bildbereinigung 101 ist dazu vorgesehen,
gewebefremde Bildelemente aus dem Aufnahmebild zu entfernen.
Derartige Störungen (oder: Artefakte) durch gewebefremde Elemente
werden beispielsweise durch Haare, Lichtreflexe bei der Bild
aufnahme, Blasen in einer Immersionsflüssigkeit, sonstige
gewebefremde Partikel oder dergleichen gebildet. Nach der Bild
bereinigung 101, die im einzelnen weiter unten beschrieben wird,
erfolgt die Segmentierung 102 des Aufnahmebildes. Die Segmen
tierung 102 ist darauf gerichtet, einen bestimmten, interes
sierenden Gewebeabschnitt (Bildausschnitt) vom übrigen Gewebe zu
trennen. Bei der Erkennung von Pigmentveränderungen ist die
Segmentierung beispielsweise darauf gerichtet, die Punkte (Pixel)
des digitalen Aufnahmebildes zu ermitteln und zur Weiterver
arbeitung bereit zustellen, die zur Hautveränderung gehören, und
die übrigen Punkte, die die umgebende Hautoberfläche abbilden,
aus dem Aufnahmebild zu trennen. Im Ergebnis der Segmentierung
102, die im einzelnen weiter unten beschrieben wird, werden die
Objektmaske, nach einer Konturberechnung 103 die Konturmaske,
nach einer Normierung 104 der Größennormierungsfaktor f und nach
einer Randbestimmung 105 die Randmaske ermittelt.
Die Farbbearbeitung 106, 107 erfolgt vor der Bildbereinigung
101 und Segmentierung 102 oder parallel zu diesen Schritten und
umfaßt eine Farbquantisierung 106 sowie eine Farbtransformation
107. Die Farbtransformation ist nicht notwendig Teil der Bild
vorverarbeitung 100, sondern kann vielmehr auch im Rahmen der
Bildanalyse durchgeführt werden.
Die Bildvorverarbeitung 100 kann weitere Schritte beinhalten,
die anwendungsabhängig oder zielorientiert realisierte Maßnahmen
zur normierten Darstellung des Aufnahmebildes umfassen. So können
beispielsweise zusätzlich geometrische Transformationen vor
gesehen sein, mit denen aufnahmebedingte Verzerrungen beseitigt
werden. So ist bei der Verarbeitung von Bildern innerer Gewebe
(z. B. Augenuntersuchungen, endoskopische Untersuchungen) ein
Entzerrungsschritt vorgesehen, bei dem ein gewölbter Gewebe
bereich unter Berücksichtigung der Wölbungseigenschaften und
optischen Aufnahmeparameter auf eine zweidimensionale Ebene
projiziert wird.
Im folgenden werden Einzelheiten der Schritte der Bildvorver
arbeitung 100 erläutert. Es werden die Verarbeitungsschritte
genannt, ohne daß auf Details der an sich bekannten Bild
bearbeitungstechniken eingegangen wird.
Zur Bildbereinigung 101 wird zunächst das Aufnahmebild in ein
Grauwertbild umgewandelt, das dann entsprechend einer der
folgenden Verfahrensweisen weiterbearbeitet wird.
Gemäß einer ersten Alternative erfolgt eine Bearbeitung des
Grauwertbildes mit einem an sich bekannten Liniendetektor
(Algorithmus zur Verbindung von Grauwertgradienten-Maxima) der
Informationen über die Lagerichtung und Breite von Linien im
Aufnahmebild liefert. Anschließend werden sehr kurze und in
der Richtungsinformation stark variierende Linien (sogenannte
Phantome) durch Vergleich der ermittelten Linien mit vorbe
stimmten Grenzwerten erfaßt und von der weiteren Bildbereinigung
ausgeschlossen. Abschließend werden Lücken zwischen Linien
fragmenten geschlossen und das ermittelte Linienbild als
Artefaktmaske gespeichert. Gemäß einer zweiten Alternative
erfolgt nach einer Kontrasterhöhung des Grauwertbildes eine
Anwendung der oben erwähnten Skalierungsindexmethode (SIM). Bei
der Kontrasterhöhung werden helle Bereiche einer erhöhten
Helligkeit und dunkle Bereiche einer weiter erniedrigten
Helligkeit durch Multiplikation mit der Sigmoid-Funktion unter
Bezug auf einen mittleren Grauwert zugeordnet.
Anschließend werden die neun Grauwerte der 3.3-Umgebung
jedes Bildpunktes (Pixel) zusammen mit den zwei Ortskoordinaten
des Bildpunktes zu einem 11-dimensionalen Raum vereint. In
diesem Merkmalsraum werden die Skalierungsindizes mittels SIM
bestimmt, aus dem Spektrum der Indizes das liniencharakteri
sierende Band extrahiert und die dazu gehörenden Pixel in einem
Digitalbild markiert.
Ein Beispiel einer Spektrendarstellung nach der SIM ist in
Fig. 3 abgebildet. Es ist erkennbar, daß eine große Häufung
für Skalierungsindices besteht, die größer als drei sind
(rechtes Maximum). Die Pixel mit Skalierungsindizes im Bereich
zwischen 1 und 2 sind von dieser Häufung deutlich getrennt und
werden den Linienstrukturen zugeordnet.
Anschließend wird das mit der SIM ermittelte Digitalbild der
Linienstrukturen einer standardmäßigen Erosion unterzogen. Das
erodierte Digitalbild der Linienstrukturen wird mittels einer
UND-Operation mit einem binarisierten Grauwertbild des Aufnahme
bildes addiert, woraus sich die Artefaktmaske ergibt. Das
binarisierte Grauwertbild wird erzeugt, indem das Aufnahmebild
einem binären Medianfilter unterzogen wird, der ein Pixel in
Abhängigkeit davon auf Schwarz oder Weiß setzt, ob sein Grauwert
unter oder über dem Median der Umgebungspixel liegt.
Die Artefaktmaske kann schließlich noch einer Phantombereinigung
unterzogen werden. Mit einem sogenannten Scrabbling werden
besonders kleine Linienstrukturen aus der Artefaktmaske entfernt.
Das erläuterte Bildbereinigungsverfahren kann auch aufandere
Bildstörungen angewendet werden, deren Skalierungsindizes sich
deutlich von denen des Gewebebildes unterscheiden, so daß durch
einfache Spektrenbetrachtung die entsprechenden Pixel aus dem
Aufnahmebild erfaßt werden können.
Fig. 4 zeigt ein Beispiel einer Artefaktmaske für ein Hautbild,
bei dem Haare um die zu untersuchende Läsion (mittlerer Bildteil)
angeordnet sind.
Die erfindungsgemäße Bildbereinigung 101 ist besonders vorteil
haft, da Bildstörungen mit hoher Geschwindigkeit, Selektivität
und Vollständigkeit erfaßt werden. Ferner wird mit der Artefakt
maske eine exakte Positionsbestimmung der Bildstörungen geliefert.
Die Segmentierung 102 (s. Fig. 2) dient der Trennung der abge
bildeten Läsion vom unversehrten Hauthintergrund. Hierzu erfolgt
zunächst eine Transformation des Aufnahmebildes aus dem RGB-Raum
(Bildaufnahme) in einen geeigneten anderen Farbraum (z. B. über
eine Hauptachsentransformation) . Der Zielfarbraum wird so aus
gewählt, daß nach der Farbtransformation eine Projektion
(Reduktion) des transformierten Bildes auf eine Farbebene
erfolgen kann, in der die Segmentierung durch eine Schwellwert
trennung besonders effektiv und zuverlässig durchgeführt werden
kann. Im Falle der Erfassung von Pigmentveränderungen der Haut
wird das transformierte Bild vorzugsweise auf eine Blauebene
reduziert.
Anschließend wird das von Artefakt-Elementen (hier zum Beispiel:
Blauwerte) bereinigte Histogramm des farbtransformierten Bildes
erstellt und durch iterative Histogrammanalyse ein Farb-Schwell
wert ermittelt, der den zu segmentierenden Bildausschnitt (die
Läsion) vom Bildhintergrund (unversehrte Haut) trennt. Das
Histogramm ist eine Häufigkeitsverteilung der Blauwerte, die in
bestimmte Bezugsintervalle fallen. Bei der iterativen Histo
grammanalyse erfolgt gemäß Fig. 5 zunächst eine Darstellung
mit relativ breiten Bezugsintervallen (Fig. 5a). Bei diesem
Histogramm wird das Bezugsintervall mit der minimalen Blau
werthäufigkeit ermittelt. Bei den anschließend gebildeten
Histogrammen mit schrittweise kleineren Bezugsintervallen wird
das Minimum mit der minimalen Häufigkeit jeweils innerhalb des
Bezugsintervalls gesucht, das beim jeweils vorhergehenden
Histogramm den Minimalwert repräsentierte (Fig. 5b-5d). So
zeigt das Histogramm gemäß Fig. 5d mit feiner Bezugsintervall
breite ein erstes Maximum bei niedrigen Blauwerten (ent
sprechend: niedrige Helligkeiten), das dem dunklen Läsions
bereich entspricht, und ein zweites Maximum bei höheren
Blauwerten (höhere Helligkeiten), das der umgebenden Haut
entspricht.
Die Histogrammanalyse kann beim Auftreten einer Mehrzahl von
Objekten mit einer Bestimmung der Objektanzahl und der
Auswahl des im Bildmittelpunkt am nächsten gelegenen Objekts
kombiniert werden.
Die Objektmaske (s. Fig. 2) wird ermittelt, indem alle Punkte
des transformierten Bildes mit einem Blauwert, der kleiner
oder gleich dem ermittelten Schwellwert ist, zusammengefaßt
und einem Bereichswachstumsverfahren unterzogen werden. Dies
bedeutet, daß in der Nachbarschaft der ermittelten Bildpunkte
entsprechend einem vorbestimmten Homogenitätskriterium
innerhalb von Toleranzgrenzen zusätzlich Bildpunkte angelagert
werden. Ein weiterer Nachbearbeitungsschritt kann die
Schließung von Lücken und eine Glättung der äußeren Begrenzung
der ermittelten Bildpunkte umfassen. Das Ergebnis des nach dem
Bereichswachstum (ggf. mit Nachbearbeitung) erhaltenen
Digitalbildes ist die Objektmaske gemäß Fig. 2.
Die erfindungsgemäße iterative Histogrammanalyse ist besonders
vorteilhaft, da mit einer einfachen Grundannahme (dunkles
Objekt (Läsion), helle Umgebung (Haut)) zuverlässig eine
reproduzierbare Segmentierungsgrenze als Minimum zwischen
hellen und dunklen Bereichen ermittelt wird, wobei durch die
Realisierung mit einer iterativen Histogrammerzeugung mit
steigender Auflösung die Bestimmung der Segmentierungsgrenze
(Schwellwert) am Ort lokaler Minima vermieden wird. Ein
weiterer Vorteil besteht darin, daß die Schwellwerttrennung
nach diesem Algorithmus vollständig automatisierbar und mit
hoher Geschwindigkeit durchführbar ist.
Aus der Objektmaske wird bei der Konturberechnung 103
(s. Fig. 2) durch eine einfache Bestimmung der Randpixel der
linienhafte Rand (Segmentierungsgrenze, Konturmaske) bestimmt.
Neben der geometrischen Lage der Konturmaske wird erfindungs
gemäß auch eine Randmaske ermittelt, aus der charakteristische
Eigenschaften der Randbreite und Homogenität bei einer nach
folgenden Bildanalyse ableitbar sind. Die Randbestimmung 105
(s. Fig. 2) zur Ermittlung der Randmaske umfaßt einen ersten
Schritt der Randdefinition und einen zweiten Schritt der
Randskalierung. Beide Schritte werden unter der generellen
Normierbarkeitsanforderung zur Herstellung der Vergleichbarkeit
mit Referenzbildern durchgeführt.
Die Randdefinition erfolgt auf der Grundlage der oben
genannten Histogrammanalyse, indem um den ermittelten
Schwellwert (Segmentierungsgrenze) herum ein Randintervall
definiert wird und alle Bildpunkte ermittelt werden, deren
Blauwerte in dieses Randintervall fallen. Alternativ ist es
möglich, ein Hautähnlichkeitsmaß für jeden Bildpunkt der
ermittelten Läsion zu berechnen, die Läsionsbildpunkte darauf
hin nach ihrer Hautähnlichkeit zu sortieren und einen bestimm
ten Anteil der hautähnlichsten Punkte als Läsionsrand zu
definieren. Das Hautähnlichkeitsmaß ist wiederum durch den
Farbwert (z. B. Blauwert) gegeben. Der Anteil der als Rand
definierten Bildpunkte kann beispielsweise 10% der hautähn
lichsten Pixel umfassen, wobei jedoch dieser Wert je nach der
Anwendung und den Ergebnissen der Bildverarbeitung optimiert
werden kann.
Anschließend kann der ermittelte Randbereich zur Erzielung der
Randmaske einer Größennormierung unterzogen werden, indem das
durch die Randdefinition bestimmte binäre Berandungsbild mit
dem Größennormierungsfaktor f skaliert wird. Der Größen
normierungsfaktor f ergibt sich aus dem Normierungsschritt 104
(s. Fig. 2), bei dem die Objektmaske der Läsion in Bezug auf
eine bestimmte, für Referenzzwecke einheitliche Fläche (mit
einer bestimmten Bildpunktzahl), skaliert wird.
Ein Beispiel einer Randmaske aus einem erfindungsgemäß
verarbeiteten Bild einer Pigmentveränderung ist in Fig. 6
dargestellt. Es zeigt sich, daß durch die Ermittlung der
Randmaske ein zweidimensionales Gebilde entsteht, das neben
der rein geometrischen Position des Läsionsrandes zusätzliche
Informationen über dessen Ausdehnung und Struktur enthält,
worauf im einzelnen weiter unten eingegangen wird.
Beim Normierungsschritt 104 (s. Fig. 2) erfolgt eine Größen
skalierung im Ortsraum der Objektmaske. Der Normierungs
faktor f wird durch (Aref/Aa)½ bestimmt, wobei Aref eine
Objektreferenzfläche und Aa die Fläche des aktuellen Objektes
bezeichnen.
Die Farbquantisierung 106 (s. Fig. 2) ist darauf gerichtet,
aus dem Aufnahmebild ein in Bezug auf prototypische Farben
quantisiertes Bild (Farbsymbol) zu erzeugen, aus dem Farbmerk
male ableitbar sind, die in reproduzierbarer Weise mit
entsprechenden Farbmerkmalen von Referenzbildern vergleichbar
sind. Die Bildung des Farbsymbols stellt eine Codierung dar
und umfaßt die Projektion des farbigen Aufnahmebildes auf
einen Satz prototypischer Farben. Die prototypischen Farben
ergeben sich aus einer gesonderten anwendungsspezifischen
Definition von Farbclustern in einem geeigneten Farbraum. Die
Farbcluster bilden einen partitionierten Merkmalsraum und
werden durch Anwendung einer hierarchischen Fuzzy-Clustering-
Methode aus einem Trainingssatz einer Vielzahl aufgenommener
Farbbilder ermittelt. Als geeigneter Farbraum wird ein solcher
Farbraum ausgewählt, der für die spätere Ableitung von Farb
merkmalen in Bezug auf die Auswertungsgenauigkeit besonders
gute klasseneinheitliche Ergebnisse liefert. So hat sich für
die Verarbeitung von Hautbildern zum Beispiel der sogenannte
YUV-Farbraum als geeignet erwiesen, bei dem zwei Achsen durch
Farbdifferenzen und eine Achse durch ein Helligkeitsmaß
gebildet werden. Es kann vorgesehen sein, das Aufnahmebild vor
der Farbquantisierung 106 zunächst in den gewählten Farbraum
zu transformieren, um eine bessere Farbdifferenzierung zu
erzielen. Die Farbpalette des Aufnahmebildes wird mit der
Methode der Vektorquantisierung vorzugsweise auf rd. 10 bis 30
prototypische Farbcluster reduziert. Die Projektion auf die
Cluster erfolgt, indem für jeden Bildpunkt der euklidische
Abstand zu sämtlichen Clustern bestimmt, der minimale Abstand
zu einem nächsten Cluster ermittelt und der jeweilige Bild
punkt diesem nächsten Cluster zugeordnet wird (sogenanntes
"next neighbour matching").
Die Vorteile der beschriebenen Bildvorverarbeitungsschritte
bestehen in der Verbesserung der inter- und intraindividuellen
Vergleichbarkeit der Bilddaten, der erhöhten Stabilität sich
anschließender diagnostischer Verfahren gegenüber Hauttyp
schwankungen oder jahreszeitlichen Hauttönungs-Schwankungen
durch die Farbquantisierung und die Möglichkeit der Verlaufs
kontrolle von Hautveränderungen.
Zusätzlich zu den in Fig. 2 dargestellten Schritten der
Bildvorverarbeitung 100 kann erfindungsgemäß vorgesehen
sein, daß die Maskenbearbeitung in Abhängigkeit von Korrektur
größen erfolgt, die aus der Bildanalyse 200 der Visualisierung
300 und/oder der Klassifizierung 400 abgeleitet sind.
Im folgenden werden Einzelheiten der Bildanalyse oder
bewertungsrelevanten Bildverarbeitung 200 erläutert, die
darauf gerichtet ist, aus den ermittelten Masken, Trans
formationen und Größennormierungen mit Methoden der linearen
oder nichtlinearen Bildverarbeitung, wie z. B. der SIM und
statistischen Methoden reproduzierbare und vergleichbare
Bildparameter des betrachteten Bildausschnittes (maskierter
Gewebeabschnitt) abzuleiten. Im folgenden wird beispielhaft
auf die A-, B-, C- und D-Parameter Bezug genommen, die nach
einer dermatoskopischen Beurteilungsregel (ABCD-Regel) benannt
sind und die Symmetrie (A), den sogenannten Border- Bereich
(B, auch Randbereich), die Color-Merkmale (C, auch Farbmerk
male) und die strukturellen Differenzierungen (D) einer
untersuchten Läsion bezeichnen. Die Bezeichnung dient
lediglich der Illustration. Im Unterschied zu den herkömmlich
als Diagnoseergebnis ermittelten Parametern der ABCD-Regel
sind die im folgenden beschriebenen A-, B-, C-, und D-Kompo
nenten der erfindungsgemäß ermittelten Bildparameter keine
Diagnoseendergebnisse. Es ist möglich, bei anderen Anwendungen
der Erfindung als der beispielhaft angegebenen Melanomunter
suchung nur einzelne der im folgenden beschriebenen Parameter
oder weitere, aus diesen abgeleitete Bildparameter bei der
Bildanalyse 200 zu ermitteln. Zu jeder der genannten
Komponenten können globale Komponenten (Index in den Figuren:
G), die sich auf Bildparameter der gesamten Läsion beziehen,
und lokale Komponenten (Index in den Figuren: L) abgeleitet
werden, die sich auflokale Bildeigenschaften der untersuchten
Läsion beziehen.
Die Ermittlung der B-Komponente(n) (Schritt 220 Fig. 2) zur
Bewertung des Läsionsüberganges oder -randes wird im
folgenden unter Bezug auf Fig. 7 beschrieben. Fig. 7 zeigt
schematisch Einzelheiten der Border-Bestimmung 220 auf der
Grundlage der Merkmale der Randmaske, der Konturmaske und des
Größennormierungsfaktor f. Die Border-Bestimmung 220 umfaßt
eine Randpunkteklassifikation 221, bei der die Bildpunkte der
Randmaske in Abhängigkeit vom jeweiligen Skalierungsindex
klassifiziert und verschiedenen Untermasken zugeordnet werden,
eine Homogenitätsbestimmung 222, bei der aus der räumlichen
Anordnung der Randmaske ein Parameter der Berandungshomogenität
abgeleitet wird, eine Randprofilbestimmung 223, bei der Merk
male der Abruptheit des Läsionsüberganges abgeleitet werden,
eine Erfassung der Randrichtungsstetigkeit 224 mittels Varianz
merkmalen der Randmaske und eine Erfassung der Konturrauhig
keit 225 mittels der fraktalen Dimension der Konturmaske.
Die Randpunkteklassifikation 221 ist darauf gerichtet,
Läsionen mit einem flächig ausgedehnten Randbereich, wie dies
für Melanome typisch ist, von Läsionen mit einem scharf
begrenzten Randbereich zu trennen. Das Ergebnis der Randpunkte
klassifikation 221 wird wie folgt visuell dargestellt oder
durch einen Parameter B1 repräsentiert. Zunächst wird für
jeden Punkt der Randmaske der Skalierungsindex berechnet.
Anschließend wird die Zahl der Pixel, deren Skalierungsindex
oberhalb einer vorbestimmten Grenze liegt, und die Zahl der
übrigen Pixel bestimmt. Die Grenze kann beispielsweise mit dem
Skalierungsindex a0 = 1 gegeben werden. Zur visuellen Darstellung
werden die Bildpunkte jeweils unter bzw. oberhalb der Grenze
Submasken zugeordnet, die dann zur weiteren Beurteilung auf
einem Anzeigemittel visualisiert werden. Die Fig. 8A und 8B
zeigen jeweils entsprechend Randmasken von Läsionen und die
zugehörigen Submasken bei einem Grenzwert a0 = 1. Im Fall von
Fig. 8A umfassen die Submasken, die jeweils die Bildpunkte mit
a ≦ 1 bzw. a < 1 repräsentieren, nahezu gleichgroße Areale, wohin
gegen im Fall von Fig. 8B die Submaske mit a < 1 wesentlich
ausgeprägter ist. Dies bedeutet, daß die in Fig. 8B darge
stellte Läsion eine größere Anzahl von Bildpunkten im Rand
bereich aufweist, die einen relativ großen Skalierungsindex
besitzen. Dies bedeutet eine flächige Ausbildung des Rand
bereiches, so daß die Läsion gemäß Fig. 8B einem malignen
Melanom zugeordnet werden kann. Der Randbereich gemäß Fig. 8A
ist hingegen schärfer begrenzt, so daß die Läsion nicht einem
malignen Melanom, sondern einer benignen Pigmentveränderung
zugeordnet wird.
Das visualisierte Ergebnis kann auch mit dem B1-Parameter
gemäß:
B1 = na<1/NRand (1)
dargestellt werden, wobei na<1 die Zahl der Bildpunkte mit
einem Skalierungsindex a < 1 und NRand die Gesamtzahl der
Bildpunkte der Randmaske repräsentieren.
Zur Homogenitätsbestimmung 222 (s. Fig. 7) wird ein Maß B2
zur Erfassung der Schwankungen der Umrandungsdicke entlang
des Läsionsumfanges ermittelt. Der Parameter B2 ergibt sich
gemäß Gleichung (2) aus dem Parameter B1 gemäß Gleichung (1)
und einer Vielzahl lokaler Parameter b1i:
B2 = (1/n).Σi(B1-b1i)2 (2)
Die lokalen Parameter b1i ergeben sich, indem die Randmaske
mit einem Gitter überzogen und für alle n Gitterfenster, die
eine Mindestzahl von Bildpunkten enthalten, der lokale
Parameter b1i analog zu Gleichung (1) berechnet wird. Die
Gittergröße und die Mindestbildpunktzahl werden in Abhängigkeit
von der Läsionsgröße geeignet gewählt. Der Parameter für die
Berandungshomogenität B2 wächst, falls entlang des Rand
umfanges große Schwankungen des Parameters b1 in Bezug auf den
globalen Parameter B1 auftreten. Somit bedeutet ein größerer
Parameter B2 eine größere Berandungsinhomogenität.
Die Randprofilbestimmung 223 dient der weiteren Charakteri
sierung der Abruptheit des Läsionsüberganges. Für jeden Bild
punkt der Randmaske wird eine lokale Umgebung (Fenster)
definiert und die Ausrichtung des Randes in dieser lokalen
Umgebung ermittelt. Die Ausrichtung ergibt sich aus einer
linearen Regression der Nachbarpunkte innerhalb des Fensters.
Der Randwinkel der Regressionsgerade in Bezug auf die Horizon
tale wird ermittelt und die Bildpunktmenge im betrachteten
Fenster um diesen Randwinkel in die Horizontale gerichtet.
Dies ist beispielhaft in Fig. 6 illustriert. Anschließend
werden die Anisotropieskalierungsindizes ay i in y-Richtung
mittels der Skalierungsvektormethode (SVM), wie sie in
DE 196 33 693 beschrieben ist, bestimmt. Der für die Rand
breite oder -dicke charakteristische Bildparameter B3 ergibt
sich gemäß Gleichung (3)
B3 = n(ay < 0.3)/NRand (3)
n(ay < 0.3) bezeichnet die Zahl der Bildpunkte mit einem
anisotropen Skalierungsindex ay < 0.3. Je nach Anwendungsfall
kann statt des Grenzwertes 0.3 auch ein anderer geeigneter
Grenzwert gewählt werden. Die Größe n bezieht sich auf den
Gesamtrand. Die Berechnung des Parameters B3 stellt einen
wesentlichen Vorteil gegenüber herkömmlichen Verfahren zur
Beurteilung der Berandungsdicke dar, die in der Regel mit
einer Randglättung verbunden sind, da bei den herkömmlichen
Verfahren eine Zerklüftung der Rampenkante unberücksichtigt
bleibt und somit Information verloren geht.
Es ist ersatzweise auch möglich, die Drehung der lokalen
Umgebung jeweils um den Randwinkel wegzulassen und die Bild
punktmenge der ungedrehten Umgebung der anisotropen SVM zu
unterziehen, wobei dann in die Bestimmung eines modifizierten
B3' Parameters die Skalierungsindices in x- und y-Richtung
eingehen.
Für die Erfassung der Randrichtungsstetigkeit 224 (s. Fig. 7)
können eine oder mehrere der folgenden Alternativmöglichkeiten
I, II und III realisiert werden.
Entsprechend der ersten Alternativmöglichkeit I wird wie bei
der Randprofilbestimmung 223 zunächst für jeden Bildpunkt der
Randmaske ein Randwinkel entsprechend seiner lokalen Umgebung
berechnet. Jedem Bildpunkt wird der jeweilige Randwinkelwert
zugeordnet. Anschließend werden die Skalierungsindizes ai des
Winkelwertbildes entsprechend der isotropen SIM berechnet,
wie sie aus DE 43 17 746 bekannt ist. Der B-Parameter B4
ergibt sich dann analog zu Gleichung (3), wobei hier jeweils
die Skalierungsindices des Winkelwertbildes berücksichtigt
werden.
Die Verteilung der lokalen Winkelvarianzen wird bei II und III
durch deren statistische Momente (Mittelwert, Varianz etc.)
und/oder durch ein Entropiemaß quantifiziert und durch den
Parameter B4 ausgedrückt. Gemäß der alternativen Möglichkeit II
wird, wie oben erläutert, der Randwinkel für jeden Bildpunkt
in seiner lokalen Umgebung (Fenster) berechnet. Für die Gesamt
zahl der Punkte wird die Varianz der Randwinkel in einem
Fenster ("sliding window"), zentriert an dem betrachteten
Punkt, berechnet. Der Parameter B4 ergibt sich dann als
Entropie der normierten Häufigkeitsverteilung der Winkel
varianzen für alle Bildpunkte der Randmaske. Der Parameter B4
(die Entropie) ist hierbei ein Maß für die Besetzung der
Intervalle des Histogramms der Winkelvarianzen und wächst mit
der Breite der Winkelverteilungen.
Letzteres wird bei der Realisierung der Alternative III
dahingehend modifiziert, daß für jeden Bildpunkt Randwinkel
für zwei unterschiedlich große lokale Umgebungen und die
Winkeldifferenz der Randwinkel berechnet werden. Der
Parameter B4 ergibt sich in diesem Fall als Entropie der
normierten Häufigkeitsverteilung der Winkeidifferenzen für
alle Bildpunkte der Randmaske. Je zerklüfteter die Randmaske
ist, desto stärker unterscheiden sich die zu einem Bildpunkt
gehörigen Winkel, so daß der Parameter B4 wiederum ein
statistisches Maß für die Berandungsregelmäßigkeit ist.
Die Rauhigkeitsbestimmung 225 (s. Fig. 7) bezieht sich nicht
auf die Randmaske, sondern die Konturmaske (eindimensionaler
Rand der Objektmaske (s. Fig. 2)). Der Parameter B5 ergibt sich
aus der Ermittlung der fraktalen Dimension (im folgenden: FD)
der Konturmaske. Hierzu kann zunächst das Bild der Konturmaske
unter Berücksichtigung des Normierungsfaktors f einer Größen
normierung unterzogen. Die FD der Kontur wird nach dem
Verfahren von Flook berechnet, wie es im einzelnen in von
A.G. Flook in "Powder Technology" (Bd. 21, 1978, S. 295 ff.)
beschrieben wird (vgl. auch E. Claridge et al, "Shape analysis
for classification of malignant melanoma", J. Biomed. Eng.
1992, Vol. 14, S. 229). Die FD ist ein Maß für die Komplexität
des Konturverlaufs: Wird der Kurvenverlauf der Konturmaske
durch ein Polygon angenähert, so ist die Anzahl der erforder
lichen Schritte abhängig von der jeweiligen Schrittweite. Die
FD ist ein Maß für diese Abhängigkeit. Je nach den Parametern
bei der Methode von Flook kann eine texturelle und/oder eine
strukturelle FD ermittelt werden. Die texturelle FD beschreibt
feine Unregelmäßigkeiten der Kontur, während die strukturelle
FD größere Schwankungen erfaßt.
Ersatzweise ist es möglich, die Rauhigkeit der Konturmaske
wiederum mit der SIM oder SVM zu ermitteln.
Im unteren Teil von Fig. 7 ist erkennbar, wie die Parameter
B1-B5 zur Klassifizierung 400 weitergegeben werden, bei der
ein Diagnosealgorithmus abgewickelt werden kann. Ferner werden
die Parameter B1-B4 gemeinsam mit der Randmaske visualisiert,
so daß ein Bediener des Bildverarbeitungssystems ggf. manuell
Randbedingungen und Parameter der statistischen Bearbeitung
wie Gitter oder Fenstergrößen oder Skalierungsgrenzwerte
verändern kann.
Der Schritt der Farbbeurteilung 230 (s. Fig. 2) ist im
einzelnen in Fig. 9 dargestellt. Die Farbbeurteilung 230
umfaßt eine Farbvielfaltsbestimmung 231 und eine Farbver
teilungsbestimmung 232. Die Farbvielfaltsbestimmung 231 ist
darauf gerichtet, das Vorhandensein und die Häufigkeits
verteilung der bei der Farbquantisierung 106 (s. Fig. 2)
definierten prototypischen Farben in der Läsion zu ermitteln.
Die Farbverteilungsbestimmung 232 hingegen ist auf die
Ermittlung der geometrischen Anordnung der prototypischen
Farben in der Läsion gerichtet.
Der Parameter C1 ergibt sich aus der Farbvielfaltsbestimmung
231 durch eine Bestimmung der statistischen Gewichte pi der M
prototypischen Farben gemäß Gleichung (4) und der daraus
abgeleiteten Farbcodierungsentropie gemäß Gleichung (5). Das
statistische Gewicht pi des Farbclusters i entspricht dem
Verhältnis der Anzahl der Pixel ni des Farbclusters i zur
Gesamtzahl N der Läsionspixel (N entspricht der Menge der
Bildpunkte der Objektmaske).
pi = ni/N (4)
Das Maß C1 für die Farbvielfalt der Pigmentveränderung ergibt
sich aus der Farbcodierungsentropie gemäß:
C1 = (-1/ln(M)).Σipiln(pi) (5).
C1 ist somit ein Maß für die Häufigkeitsverteilung, mit der
die einzelnen Cluster besetzt sind.
Für die Farbverteilungsbestimmung 232 wird zunächst als
globales Merkmal die Farbcodierungsentropie C1 entsprechend
Gleichung (5) berechnet. Dann wird die untersuchte Läsion mit
einem regelmäßigen Gitter überzogen, wobei die Gittergröße in
Abhängigkeit von der Läsionsgröße gewählt wird. Für alle n
Gitterfenster, die zumindest zu einem Drittel mit Läsionspixeln
(Bildpunkte der Objektmaske) gefüllt sind, wird die jeweilige
lokale Farbcodierungsentropie ci analog zu Gleichung (5)
berechnet. Der Parameter C2 ergibt sich dann als Farb
codierungsvarianz aus Gleichung (6)
C2 = (1/n).Σi(C1-ci)2 (6).
Im unteren Teil von Fig. 9 ist wiederum dargestellt, daß die
Parameter C1 und C2 zur Visualisierung 300 und Klassifizierung
400 (s. Fig. 2) geleitet werden.
Die Bildanalyse 200 umfaßt eine Strukturbeschreibung 240
(s. Fig. 2), deren Einzelheiten in Fig. 10 dargestellt sind.
Die Strukturbeschreibung 240 enthält Strukturerkennungs
verfahren 241, 242 und eine Positionsbestimmung 243, bei der
die räumliche Anordnung der bei der Strukturerkennung ermit
telten Strukturen erfaßt wird. Die Strukturerkennungsverfahren
241, 242 stellen alternative Bildbearbeitungen dar, die
einzeln oder gemeinsam realisiert sein können.
Das erste Strukturerkennungsverfahren 241 beinhaltet zunächst
eine Farbtransformation 107, sofern diese nicht bereits im
Rahmen der Bildvorverarbeitung (s. Fig. 2) erfolgt ist. Mit
der Farbtransformation wird das Aufnahmebild in einen ge
eigneten Farbraum transformiert, der eine Projektion auf eine
Farbebene erlaubt, in der die zu erfassenden Strukturen einen
besonders hohen Kontrast besitzen. So erfolgt beispielsweise
bei der Melanomuntersuchung eine Projektion des Aufnahmebildes
(ggf. in bereinigter Form) auf die Rotebene zur Erkennung
punktartiger Strukturen oder auf eine Grauwert-Helligkeits
ebene zur Erkennung netzartiger Strukturen. Für sämtliche
Bildpunkte des transformierten Bildes werden die Skalierungs
indices a und für die Gesamtpunktmenge das Häufigkeitsspektrum
N (a) ermittelt. Unter Ausnutzung der strukturordnenden Eigen
schaften des N(a)-Spektrums werden die zu bestimmten Strukturen
gehörigen Bildpunkte identifiziert und quantitativ erfaßt.
Bei dem zweiten Strukturerkennungsverfahren 242 erfolgt die
Strukturerkennung mit herkömmlichen Methoden der Bildbe
arbeitung. Zur Punkterkennung wird das Aufnahmebild beispiels
weise in die Rotebene transformiert und einer Kontrasterhöhung
und einer selektiven Glättung unterzogen. Die selektive
Glättung bedeutet, daß eine Mittelwertsberechnung der Rotwerte
stattfindet, in die jedoch nur Bildpunkte einbezogen werden,
die einen Rotwert innerhalb eines bestimmten Intervalls um den
Mittelwert besitzen. Anschließend werden Rotwert-Dichten
(allgemein: Grauwert-Dichten) ermittelt, binarisiert und einer
Phantombereinigung unterzogen. Im Falle der Erfassung netz
artiger Strukturen erfolgt eine Umwandlung des Farbbildes in
ein Grauwertbild, eine Kontrasterhöhung, eine Liniendetektion
und eine sich anschließende Phantombereinigung.
Im Ergebnis der Strukturerkennungsverfahren 241 oder 242
lassen sich bestimmte Bildpunkte innerhalb der Läsion Struktur
elementen wie Punkten, Netzstrukturen oder Schollen zuordnen.
Die Unterscheidung zwischen Punkten und Schollen erfolgt durch
die Ermittlung der Anzahl von Bildpunkten, die zu der
jeweiligen Struktur gehören.
Die D-Komponenten D1 und D2, die bei den Strukturerkennungs
verfahren 241, 242 ermittelt werden, können beispielsweise
jeweils entsprechend den Flächenteil der jeweiligen Struktur
klasse (Punkt, Netz, oder Scholle) an der Gesamtläsionsfläche
und die Anzahl der Strukturen in den verschiedenen Struktur
klassen umfassen. Zusätzlich kann bei Punkten oder Schollen
eine Berechnung der Kompaktheit c in Abhängigkeit von einem
Längenmaß (z. B. Maximalausdehnung) der Struktur und der Fläche
der Struktur erfolgen.
Schließlich werden die ermittelten Strukturen bei der
Positionsbestimmung 243 einer statistischen Bewertung
unterzogen. So wird die lokale Verteilung der Strukturelemente
mit einem skalenabhängigen Entropiemaß beschrieben, das den
Parameter D3 ergibt.
Die Einzelheiten der Symmetriebewertung 210 innerhalb der
Bildanalyse 200 (s. Fig. 2) werden im einzelnen unter Bezug
auf Fig. 11 beschrieben. Die Symmetriebewertungen 211-215
beziehen sich jeweils auf die geometrischen Eigenschaften
der Kontur, der Berandung, der Objektmaske, der Farbverteilung
und der Strukturverteilung. Dies bedeutet, daß einzelne
Analyseschritte aus den Analyseverfahren 220, 230 und 240,
wie sie oben beschrieben wurden, bei der Symmetriebestimmung
210 identisch oder in abgewandelter Form übernommen werden.
Dies bedeutet, daß alle Quantitäten aus der übrigen Bild
analyse verwendet werden.
Die Kontursymmetriebestimmung 211 ergibt als Parameter einen
Winkel Φ gegenüber einer Bezugsachse (z. B. die Horizontale),
der der Neigung der Symmetrieachse der äußeren Kontur der
Läsion in Bezug auf die Bezugsachse entspricht. Hierzu wird
die Konturmaske in einer Vielzahl von Schritten jeweils in
zwei gleichgroße Segmente unterteilt und die fraktalen
Dimensionen FD1, FD2 der Segmente wie oben beschrieben
berechnet. Zu jedem Segment wird ein Zwischenparameter Bi
gemäß Gleichung (7) berechnet.
Bi = (min(FD1, FD2))/(max(FD1, FD2)) (7)
Zwischen zwei Segmentaufteilungen der Konturmaske wird diese
jeweils um einen Winkelschritt gedreht. Der Drehwinkel, der
unter der Menge der Zwischenparameter Bi einem Minimalwert
entspricht, liefert die Neigung der Achse maximaler Asymmetrie
gegenüber der Bezugsachse bezüglich der FD1,2.
Die Berandungssymmetriebestimmung 212 und die Maskensymmetrie
bestimmung 213 werden auf der Grundlage von Symmetrieeigen
schaften der lokalen Parameter aus dem Verfahrensschritt 220
abgeleitet. Die Farbsymmetriebestimmung 214 umfaßt eine Farb
raumtransformation des Aufnahmebildes, die Bestimmung von
Symmetrieachsen des transformierten Bildes und die Ableitung
von Farbparametern der Bildpunkte in Bezug auf die Symmetrie
achsen.
Die Farbsymmetrie wird aus der mittleren Farbdifferenz
achsensymmetrischer Bildpunkte bezüglich der Objektsymmetrie
achse berechnet.
Die Textursymmetriebestimmung 215 erfolgt wiederum aufgrund
von lokalen Merkmalen, die beim Verfahrensschritt 240 der
Bildanalyse ermittelt wurden.
Die erläuterten Verfahrensschritte der Bildanalyse 200 sind
besonders vorteilhaft, da alle Vorgänge vollständig automati
sierbar sind, eine hohe Genauigkeit und Reproduzierbarkeit
besitzen und gut an sich anschließende diagnostische Verfahren
angepaßt werden können. Die Parametererfassungen sind ferner
objektiviert und normiert und können mit hoher Geschwindigkeit
durchgeführt werden.
Die Visualisierung 300 (s. Fig. 1) ist bei allen Phasen der
Bildvorverarbeitung 100 und der Bildanalyse 200 vorgesehen.
Bei der Bildvorverarbeitung ist die Visualisierung 300 eine
Falschfarbendarstellung, eine Artefaktmarkierung, eine
Objektmarkierung, eine Randmarkierung (jeweils im Overlay-
Verfahren) und bei der Bildanalyse 200 die Markierung von
Randelementen, die Darstellung der Farbvielfalt und Farb
homogenität mit Falschfarbendarstellungen entsprechend der
Zugehörigkeit zu den prototypischen Farbclustern, die Sichtbar
machung von Strukturelementen (Overlay-Verfahren) und
Symmetriemerkmalen (z. B. der Symmetrieachsen). Diese
Visualisierung hat den Vorteil, daß durch den Bediener der
Bildverarbeitungsanordnung Parameter der statistischen
Bearbeitungsverfahren manuell optimiert werden können und die
Bildverarbeitung transparent und nachvollziehbar gemacht
wird.
Die oben erläuterten Schritte der Bildvorverarbeitung,
Bildanalyse, Visualisierung und Klassifizierung sind nicht
auf die beispielhaft angegebene Verarbeitung von Hautbildern
beschränkt, sondern allgemein bei der Untersuchung von
Gewebebildern (z. B. Wundheilbilder zur Untersuchung von
kosmetischen Wirkstoffen, Bilder von Gewebespuren bei krimina
listischen Anwendungen und dergl.) anwendbar. Die Erfindung
ist ferner nicht auf optisch aufgenommene Gewebebilder
beschränkt, sondern allgemein bei allen Ergebnissen bild
gebender Verfahren mit komplex strukturierten Abbildungen
vorteilhaft anwendbar.
Gegenstand der Erfindung ist auch eine Vorrichtung zur
Implementierung des oben beschriebenen Verfahrens, die im
einzelnen eine Aufnahme- und Beleuchtungseinrichtung, eine
Kameraeinrichtung, Speichereinrichtungen, Datenverarbeitungs
einrichtungen und eine Anzeigeeinrichtung umfaßt.
Die Vorteile der Erfindung ergeben sich aus der Bereitstellung
einer qualitativ hochwertigen und standardisierten Bild
erfassung. Es ist insbesondere eine quantitative Erfassung von
Bildparametern möglich, die den Bildparametern eines visuell
bewertenden Experten entsprechen und an dessen Seh- und Inter
pretationsgewohnheiten angelehnt sind. Die Bildinformations
inhalte werden in elementare, reproduzierbare Kategorien
zerlegt, wobei eine hohe intra- und interindividuelle
Vergleichbarkeit gegeben ist. Die beschriebenen Schritte der
Bildaufnahme und Bildverarbeitung werden erstmalig bei der
Beurteilung biologischen Gewebes angewendet.
Claims (21)
1. Verfahren zur Erfassung und Bearbeitung von Abbildungen
biologischen Gewebes, wobei nach einer Bildaufnahme zur
Erzeugung eines digitalen Aufnahmebildes das Aufnahmebild
einer Bildvorverarbeitung mit einer Bildbereinigung und einer
Segmentierung eines zu untersuchenden Gewebeabschnittes und
einer Bildanalyse zur Ermittlung vorbestimmter Bildparameter
unterzogen wird,
dadurch gekennzeichnet, daß
bei der Bildaufnahme ein aufgenommenes, digitalisiertes Bild
zur Erzeugung des Aufnahmebildes Korrekturschritten (30)
unterzogen wird, die eine Shading- und/oder Farb-Korrektur auf
der Grundlage von Helligkeits- und/oder Farbkorrekturgrößen
umfaßt, die aus Abgleichsmessungen (10) ermittelt werden.
2. Verfahren zur Erfassung und Bearbeitung von Abbildungen
biologischen Gewebes, wobei nach einer Bildaufnahme zur
Erzeugung eines digitalen Aufnahmebildes das Aufnahmebild
einer Bildvorverarbeitung mit einer Bildbereinigung und einer
Segmentierung eines zu untersuchenden Gewebeabschnittes und
einer Bildanalyse zur Ermittlung vorbestimmter Bildparameter
unterzogen wird,
dadurch gekennzeichnet, daß
bei der Bildvorverarbeitung binäre Masken erzeugt werden, die
eine Objektmaske, die den Gewebeabschnitt darstellt, eine
Artefaktmaske, die Störungen im Aufnahmebild darstellt, und
zur Randdarstellung eine linienhafte Konturmaske, die die
Grenze der Objektmaske darstellt, und/oder eine flächige
Randmaske umfassen, die einen Randbereich des Gewebeab
schnittes darstellt, und bei der Bildanalyse mit Hilfe der
Masken die Bildparameter des Gewebeabschnitts ermittelt werden,
die für die Randbreite, die Randregelmäßigkeit und/oder das
Auftreten von Texturen charakteristisch sind.
3. Verfahren gemäß Anspruch 2, bei dem
bei der Bildaufnahme ein aufgenommenes, digitalisiertes Bild
zur Erzeugung des Aufnahmebildes Korrekturschritten (30)
unterzogen wird, die eine Shading- und/oder Farb-Korrektur auf
der Grundlage von Helligkeits- und/oder Farbkorrekturgrößen
umfaßt, die aus Abgleichsmessungen (10) ermittelt werden.
4. Verfahren gemäß Anspruch 1 oder 3, bei dem die Abgleichs
messung (10) eine Schwarzbildaufnahme (11), eine Weißbild
aufnahme (12), eine Farbreferenzaufnahme (13) und eine
Korrekturgrößenermittlung (14) mit Berechnung einer Shading-
Matrix umfaßt.
5. Verfahren gemäß Anspruch 4, bei dem die Abgleichsmessung
jeweils einmal vor Aufnahme einer Vielzahl von Bildern
unter konstanten Aufnahmebedingungen erfolgt.
6. Verfahren gemäß Anspruch 4 oder 5, bei dem die Farbreferenz
aufnahme (13) die Erfassung einer Referenzfarbkarte umfaßt,
die im Bereich des Gewebeabschnittes angeordnet ist.
7. Verfahren gemäß einem der Ansprüche 1 bis 6, bei dem bei
der Bildvorverarbeitung eine Farbquantisierung (106) zur
Erzeugung eines in Bezug auf prototypische Farben reduzierten
Farbbildes (Farbsymbol) des Aufnahmebildes erfolgt und bei dem
bei der Bildanalyse aus dem Farbsymbol Bildparameter des
Gewebeabschnittes ermittelt werden, die für die Farbvielfalt
und Farbverteilung des Aufnahmebildes charakteristisch sind.
8. Verfahren gemäß Anspruch 7, bei dem die Farbquantisierung
eine Projektion der Farben des Aufnahmebildes auf die
prototypischen Farben umfaßt.
9. Verfahren gemäß Anspruch 8, bei dem der Satz von
prototypischen Farben aus einer Vielzahl von Referenzbildern
ermittelt wird, deren Farbwerte den Farbwerten des untersuchten
Gewebeabschnittes äquivalent sind.
10. Verfahren gemäß einem der Ansprüche 2 bis 9, bei dem bei
der Bildanalyse aus der Artefaktmaske, der Objektmaske, der
Konturmaske, der Randmaske und dem Farbsymbol Bildparameter
des Gewebeabschnittes ermittelt werden, die für die Symmetrie
des Gewebeabschnittes charakteristisch sind.
11. Verfahren gemäß einem der Ansprüche 2 bis 10, bei dem
eine Farbtransformation (107) des Aufnahmebildes zur Erzeugung
eines farbtransformierten Bildes erfolgt, aus dem bei der
Bildanalyse Bildparameter des Gewebeabschnittes ermittelt
werden, die für das Auftreten von Texturen charakteristisch
sind.
12. Verfahren gemäß einem der Ansprüche 2 bis 11, bei dem zur
Erzeugung der Artefaktmaske ein Grauwertbild des Aufnahmebildes
erzeugt und mit einem Liniendetektorverfahren und/oder einem
Skalierungsindexverfahren bearbeitet wird.
13. Verfahren gemäß einem der Ansprüche 2 bis 12, bei dem zur
Erzeugung der Objektmaske das Aufnahmebild einer Schwellwert
trennung durch iterative Histogrammanalyse unterzogen wird, um
den Gewebeabschnitt von einem Hintergrund zu trennen.
14. Verfahren gemäß Anspruch 13, bei dem zur Erzeugung der
Konturmaske die Randpunkte der Objektmaske erfaßt werden.
15. Verfahren gemäß Anspruch 13, bei dem zur Erzeugung der
Randmaske die Objektmaske einer Schwellwerttrennung durch
Histogrammanalyse unterzogen wird.
16. Verfahren gemäß einem der Ansprüche 1 bis 15, bei dem ein
Größennormierungsfaktor (f) des Gewebeabschnittes ermittelt
wird.
17. Verfahren gemäß einem der Ansprüche 1 bis 16, bei dem zur
Bestimmung von Bildparametern, die für den Rand und seine
Komplexität charakteristisch sind, eine Randpunkteklassifikation
(221), eine Homogenitätsbestimmung (222), eine Randprofil
bestimmung (223), eine Erfassung der Randrichtungsstetigkeit
(224) und/oder eine Erfassung der Konturrauhigkeit (225)
durchgeführt werden.
18. Verfahren gemäß einem der Ansprüche 2 bis 17, bei dem zur
Ermittlung von Bildparametern, die für das Auftreten von
Texturen im Gewebeabschnitt charakteristisch sind, Struktur
erkennungsverfahren (241, 242) und/oder eine Strukturver
teilungsbestimmung (243) durchgeführt werden.
19. Verfahren gemäß einem der Ansprüche 2 bis 18, bei dem zur
Ermittlung von Bildparametern, die für die Symmetrie des
Gewebeabschnittes charakteristisch sind, Symmetriebewertungs
verfahren (211-215) durchgeführt werden, die sich auf die
geometrischen Eigenschaften der Kontur, der Berandung, der
Objektmaske, der Farbverteilung und/oder der Strukturverteilung
beziehen.
20. Verfahren gemäß einem der vorhergehenden Ansprüche, bei
dem der zu untersuchende Gewebeabschnitt eine Hautpigment
veränderung ist.
21. Vorrichtung zur Implementierung eines Verfahrens gemäß
einem der Ansprüche 1 bis 20, die umfaßt:
- - eine Aufnahme- und Beleuchtungseinrichtung,
- - eine Kameraeinrichtung,
- - Speichereinrichtungen,
- - Recheneinrichtungen und
- - Anzeigeeinrichtungen.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19754909A DE19754909C2 (de) | 1997-12-10 | 1997-12-10 | Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes |
AU21599/99A AU2159999A (en) | 1997-12-10 | 1998-12-09 | Method and device for detecting and processing images of biological tissue |
PCT/EP1998/008020 WO1999030278A1 (de) | 1997-12-10 | 1998-12-09 | Verfahren und vorrichtung zur erfassung und bearbeitung von abbildungen biologischen gewebes |
EP98965797A EP1038267A1 (de) | 1997-12-10 | 1998-12-09 | Verfahren und vorrichtung zur erfassung und bearbeitung von abbildungen biologischen gewebes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19754909A DE19754909C2 (de) | 1997-12-10 | 1997-12-10 | Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19754909A1 true DE19754909A1 (de) | 1999-06-24 |
DE19754909C2 DE19754909C2 (de) | 2001-06-28 |
Family
ID=7851454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19754909A Expired - Fee Related DE19754909C2 (de) | 1997-12-10 | 1997-12-10 | Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1038267A1 (de) |
AU (1) | AU2159999A (de) |
DE (1) | DE19754909C2 (de) |
WO (1) | WO1999030278A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1231565A1 (de) * | 2001-02-09 | 2002-08-14 | GRETAG IMAGING Trading AG | Bildfarbkorrektur, basierend auf Bildmustererkennung, wobei das Bildmuster eine Referenzfarbe beinhaltet |
WO2004074822A1 (de) * | 2003-02-21 | 2004-09-02 | Leica Microsystems Semiconductor Gmbh | Verfahren, vorrichtung und software zur optischen inspektion eines halbleitersubstrats |
DE102005045907A1 (de) * | 2005-09-26 | 2007-04-05 | Siemens Ag | Vorrichtung zur Darstellung eines einen Fluoreszenzfarbstoff enthaltenden Gewebes |
DE102008059788A1 (de) | 2008-12-01 | 2010-08-19 | Olympus Soft Imaging Solutions Gmbh | Analyse und Klassifizierung insbesondere biologischer oder biochemischer Objekte auf Basis von Zeitreihen-Bildern, anwendbar bei der zytometrischen Time-Lapse-Zellanalyse in der bildbasierten Zytometrie |
DE102017107348A1 (de) * | 2017-04-05 | 2018-10-11 | Olympus Soft Imaging Solutions Gmbh | Verfahren zur zytometrischen Analyse von Zellproben |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10021431C2 (de) * | 2000-05-03 | 2002-08-22 | Inst Neurosimulation Und Bildt | Verfahren und Einrichtung zur Klassifizierung von optisch beobachtbaren Haut- oder Schleimhaut-Veränderungen |
DE102004002918B4 (de) | 2004-01-20 | 2016-11-10 | Siemens Healthcare Gmbh | Vorrichtung zur Untersuchung der Haut |
EP2335221B8 (de) | 2008-09-16 | 2016-05-25 | Novartis AG | Reproduzierbare quantifizierung einer biomarkerexpression |
US20220237810A1 (en) * | 2019-05-09 | 2022-07-28 | H. Lee Moffitt Cancer Center And Research Institute, Inc. | Systems and methods for slide image alignment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4317746A1 (de) * | 1993-05-27 | 1994-12-01 | Max Planck Gesellschaft | Verfahren und Einrichtung zur Raumfilterung |
DE4329672C1 (de) * | 1993-09-02 | 1994-12-01 | Siemens Ag | Verfahren zur Rauschunterdrückung in digitalen Bildern |
DE19633693C1 (de) * | 1996-08-21 | 1997-11-20 | Max Planck Gesellschaft | Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5016173A (en) * | 1989-04-13 | 1991-05-14 | Vanguard Imaging Ltd. | Apparatus and method for monitoring visually accessible surfaces of the body |
JPH06169395A (ja) * | 1992-11-27 | 1994-06-14 | Sharp Corp | 画像形成装置 |
EP1011446A1 (de) * | 1997-02-28 | 2000-06-28 | Electro-Optical Sciences, Inc. | Anordnung und verfahren zur multispektralen abbildung und kennzeichnung von hautgewebe |
-
1997
- 1997-12-10 DE DE19754909A patent/DE19754909C2/de not_active Expired - Fee Related
-
1998
- 1998-12-09 AU AU21599/99A patent/AU2159999A/en not_active Abandoned
- 1998-12-09 WO PCT/EP1998/008020 patent/WO1999030278A1/de not_active Application Discontinuation
- 1998-12-09 EP EP98965797A patent/EP1038267A1/de not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4317746A1 (de) * | 1993-05-27 | 1994-12-01 | Max Planck Gesellschaft | Verfahren und Einrichtung zur Raumfilterung |
DE4329672C1 (de) * | 1993-09-02 | 1994-12-01 | Siemens Ag | Verfahren zur Rauschunterdrückung in digitalen Bildern |
DE19633693C1 (de) * | 1996-08-21 | 1997-11-20 | Max Planck Gesellschaft | Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur |
Non-Patent Citations (1)
Title |
---|
S.J. PÖPPL, H. HANDELS: "Früherkennung von Hautkrebs durch Farbbildverarbeitung", Musterer- kennung 1993, 15. DAGM-Symposium Lübeck, S. 407-414, Springer-Verlag * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1231565A1 (de) * | 2001-02-09 | 2002-08-14 | GRETAG IMAGING Trading AG | Bildfarbkorrektur, basierend auf Bildmustererkennung, wobei das Bildmuster eine Referenzfarbe beinhaltet |
WO2004074822A1 (de) * | 2003-02-21 | 2004-09-02 | Leica Microsystems Semiconductor Gmbh | Verfahren, vorrichtung und software zur optischen inspektion eines halbleitersubstrats |
DE10307454B4 (de) * | 2003-02-21 | 2010-10-28 | Vistec Semiconductor Systems Gmbh | Verfahren zur optischen Inspektion eines Halbleitersubstrats |
DE102005045907A1 (de) * | 2005-09-26 | 2007-04-05 | Siemens Ag | Vorrichtung zur Darstellung eines einen Fluoreszenzfarbstoff enthaltenden Gewebes |
US7925331B2 (en) | 2005-09-26 | 2011-04-12 | Siemens Aktiengesellschaft | Apparatus for displaying a tissue containing a fluorescent dye |
DE102005045907B4 (de) * | 2005-09-26 | 2014-05-22 | Siemens Aktiengesellschaft | Vorrichtung zur Darstellung eines einen Fluoreszenzfarbstoff enthaltenden Gewebes |
DE102008059788A1 (de) | 2008-12-01 | 2010-08-19 | Olympus Soft Imaging Solutions Gmbh | Analyse und Klassifizierung insbesondere biologischer oder biochemischer Objekte auf Basis von Zeitreihen-Bildern, anwendbar bei der zytometrischen Time-Lapse-Zellanalyse in der bildbasierten Zytometrie |
DE102008059788B4 (de) | 2008-12-01 | 2018-03-08 | Olympus Soft Imaging Solutions Gmbh | Analyse und Klassifizierung insbesondere biologischer oder biochemischer Objekte auf Basis von Zeitreihen-Bildern, anwendbar bei der zytometrischen Time-Lapse-Zellanalyse in der bildbasierten Zytometrie |
DE102017107348A1 (de) * | 2017-04-05 | 2018-10-11 | Olympus Soft Imaging Solutions Gmbh | Verfahren zur zytometrischen Analyse von Zellproben |
DE102017107348B4 (de) * | 2017-04-05 | 2019-03-14 | Olympus Soft Imaging Solutions Gmbh | Verfahren zur zytometrischen Analyse von Zellproben |
US11023705B2 (en) | 2017-04-05 | 2021-06-01 | Olympus Soft Imaging Solutions Gmbh | Method for the cytometric analysis of cell samples |
US11776283B2 (en) | 2017-04-05 | 2023-10-03 | Olympus Soft Imaging Solutions Gmbh | Method for the cytometric analysis of cell samples |
Also Published As
Publication number | Publication date |
---|---|
EP1038267A1 (de) | 2000-09-27 |
DE19754909C2 (de) | 2001-06-28 |
WO1999030278A1 (de) | 1999-06-17 |
AU2159999A (en) | 1999-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60123378T2 (de) | Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen | |
DE60307583T2 (de) | Auswertung der Schärfe eines Bildes der Iris eines Auges | |
DE102007013971B4 (de) | Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle | |
EP1797533B1 (de) | Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen | |
EP1413972A1 (de) | Prüfung von Bildaufnahmen von Personen | |
EP1288858A1 (de) | Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotographischen Bilddaten | |
EP1104570A1 (de) | Verfahren zum erkennen von objekten in digitalisierten abbildungen | |
EP1293933A1 (de) | Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten | |
DE2903625C2 (de) | ||
DE112019005143T5 (de) | System zur co-registrierung medizinischer bilder unter verwendung eines klassifikators | |
DE102010024859B3 (de) | Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme | |
DE60313662T2 (de) | Histologische bewertung des nuklearpleomorphismus | |
DE19754909C2 (de) | Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes | |
DE102021100444A1 (de) | Mikroskopiesystem und verfahren zum bewerten von bildverarbeitungsergebnissen | |
DE19928231A1 (de) | Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung | |
DE102005049017B4 (de) | Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum | |
DE10313019B4 (de) | Einhandbedienung von Endgeräten per Gestikerkennung | |
DE112019004112T5 (de) | System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren | |
DE10214114A1 (de) | Verfahren und Vorrichtung zur Filterung eines mittels eines medizinischen Gerätes gewonnenen digitalen Bildes mittels eines Ortsfrequenzoperators | |
DE102010028382A1 (de) | Verfahren und Computersystem zur Bearbeitung tomographischer Bilddaten aus einer Röntgen-CT-Untersuchung eines Untersuchungsobjektes | |
DE19834718C2 (de) | Digitale Bildverarbeitung für ein Qualitätskontrollsystem | |
DE19726226C2 (de) | Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe | |
DE102016105102A1 (de) | Verfahren zur Untersuchung verteilter Objekte | |
EP2581878A2 (de) | Verfahren und Vorrichtung zur Quantifizierung einer Schädigung eines Hautgewebeschnittes | |
EP3663976A1 (de) | Verfahren zur erfassung von fingerabdrücken |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20140701 |