Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes
Die Erfindung betrifft Verfahren zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes, insbesondere zur Verarbeitung von Gewebebildern, z.B. dermatoskopischen Bildern, um Gewebemerkmale zu erkennen oder Gewebeveranderungen zu identifizieren und/oder zu bewerten. Die Erfindung betrifft auch Vorrichtungen zur Implementierung derartiger Verfahren.
Es ist allgemein bekannt, digitale Bildverarbeitungstechniken im Bereich der Erfassung und Bewertung von Abbildungen biologischer Gewebe einzusetzen. Dabei erfolgt üblicherweise nach einer digitalen Bildaufnahme eine Speicherung des Aufnahmebildes und dessen Vorverarbeitung zur Bildbereinigung und Trennung eines interessierenden Bildausschnittes. Anschließend erfolgt eine Bildanalyse zur Ermittlung bestimmter Bildparameter. Die Nachteile dieser Vorgehensweise wird im folgenden am Beispiel allgemein bekannter herkömmlicher Systeme zur Verarbeitung dermatoskopischer Bilder zur frühzeitigen Erkennung bösartiger Pigmentveranderungen der Haut erläutert.
In herkömmlichen Systemen zur Melanomerfassung werden zur Bildaufnahme gewöhnlich Videokameras mit automatischer Helligkeits- und Farbeinstellung verwendet. Dadurch erfolgt die Bildaufnahme in Abhängigkeit von der Färbung oder Pigmentie- rung eines zu untersuchenden Hautabschnittes unter jeweils verschiedenen Aufnahmebedingungen, so daß anschließend ein Vergleich von Helligkeits- oder Farbmerkmalen mit Referenzbil- dern unzuverlässig oder ausgeschlossen ist. Ein weiterer Nachteil besteht darin, daß bei der herkömmlichen Bildaufnahme gewöhnlich übliche Lichtquellen aus der Medizintechnik eingesetzt werden. Diese Lichtquellen (z.B. Kombinationen aus Halo-
genlampen mit Lichtleitern) unterliegen je nach den Betriebsbedingungen lang- und kurzfristigen Schwankungen der Helligkeit und der Farbtemperatur. Dies ist wiederum nachteilig für die Vergleichbarkeit der aufgenommenen Hautabbildungen .
Weitere Nachteile ergeben sich aus der bisher üblichen Bild- vorverarbeitung . Gewöhnlich werden die digitalen Aufnahmebil- der im Erfassungssystem gespeichert, um anschließend je nach den Untersuchungsanforderungen einer Vorverarbeitung unterzogen zu werden. Diese umfaßt beispielsweise eine Bildberemi- gung zur Entfernung von Bildstörungen in Form von Haaren oder Blasen m einer Immersionsflussigkeit, eine geometrische Abgrenzung zum Beispiel einer abgebildeten Hautlasion vom umgebenden Areal oder eine Falschfarbendarstellung zur Anzeige von Lasionsbereichen, die sich durch besondere Färbungen auszeichnen. Durch die nicht reproduzierbaren Aufnahmebedingungen ist aber eine weitergehende Vorverarbeitung zur Bereitstellung von Bildparametern, die bei einem sich anschließenden Untersuchungsverfahren eine Aussage über die Dignitat der Hautlasion zulassen, bislang nicht oder mit einer für praktische Anwendungen nur unzureichenden Zuverlässigkeit möglich. Generell ist die Zahl und Zuverlässigkeit der erzielbaren Aussagen beschrankt und meist nicht mit Erfahrungswerten vergleichbar.
Schließlich erlauben es die herkömmlichen Bildverarbeitungs- verfahren wegen der fehlenden Vergleichbarkeit von Abbildungen, die zu verschiedenen Zeitpunkten aufgenommen wurden, nicht, die zeitliche Entwicklung von Hautveranderungen anhand der Veränderung charakteristischer Bildparameter zu erfassen.
Die genannten Probleme treten nicht nur bei der Erfassung von Hautlasionen zur Fruherkennung maligner Melanome auf, sondern generell bei der Beobachtung von oberflächlichem oder innerem biologischen Gewebe wie beispielsweise bei der Verlaufskontrolle bei einer Wundheilung, bei kosmetischen oder pharmazeu-
tischen Tests oder bei endoskopischen Untersuchungen. Bei all diesen und ähnlichen Techniken zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes besteht ein großer Bedarf nach einer verbesserten Bildverarbeitungstechnik .
Aus DE-OS 43 17 746 ist ein Verfahren zur Raumfilterung einer Punkteverteilung bekannt, die eine von Störungen überlagerte Struktur darstellt und deren Punkte durch n Koordinatenwerte eines n-dimensionalen Raumes definiert sind. Bei dem Verfahren, das auf der sogenannten Skalierungsmdexmethode (im folgenden: SIM) basiert, werden für jeden Punkt die Funktion, die die Abhängigkeit der Anzahl der Punkte in einer Umgebung des betreffenden Punktes vom Durchmesser der Umgebung darstellt, sowie ein Skalierungskoefflzient , der gleich dem Exponenten (a) einer einfachen Potenzfunktion ist, welche die genannte Funktion möglichst gut annähert, ermittelt. Ein Vergleich der Skalierungskoeffizienten der zu untersuchenden Struktur und einer äquivalenten n-dimensionalen stochastischen Punkteverteilung liefert die Untermenge der Punkte der zu untersuchenden Struktur, die die von Störungen befreite Struktur repräsentieren. Hiermit werden alle Einzelheiten von SIM, die aus DE-OS 43 17 746 bekannt sind und die Anwendung des Raumfllter- verfahrens auf die Untersuchung beliebiger Punkteverteilungen in n-dimensionalen Räumen betreffen, ausdrücklich in die Offenbarung der vorliegenden Patentanmeldung einbezogen.
In der deutschen Patentanmeldung 196 33 693 wird eine als Ska- lierungsvektormethode (im folgenden SVM) bezeichnete Erweiterung von SIM beschrieben. SVM ist ein Verfahren zur Erfassung von Targetmustern in einer Textur, mit der ein Systemzustand als Verteilung von Punkten m einem n-dimensionalen Raum darstellbar ist. Im Unterschied zur isotropen SIM werden bei SVM anisotrope Skalierungsmdizes bestimmt, die charakteristisch für die Abhängigkeit der Projektion der Punktdichte auf eine bestimmte Koordinate vom Abstand zu einem betrachteten Punkt
ist. SVM enthalt ebenfalls einen Vergleich der Verteilung der anisotropen Skalierungsindizes mit vorbestimmten Vergleichs- verteilungen . Hiermit wird auch der gesamte Offenbarungsgehalt der DE 196 33 693 ausdrucklich in die vorliegende Patentanmeldung einbezogen.
Die Aufgabe der Erfindung ist es, verbesserte Bildaufnahme- und Bildverarbeitungsverfahren zur Abbildung biologischen Gewebes anzugeben, die sich durch eine hohe Reproduzierbarkeit auszeichnen, die eine Standardisierung ermöglichen und mit denen der Anwendungsbereich der genannten herkömmlichen Techniken erweitert wird. Die Aufgabe der Erfindung ist es ferner, Vorrichtungen zur Implementierung derartiger verbesserter Bildverarbeitungsverfahren anzugeben .
Die Aufgaben der Erfindung werden mit Verfahren bzw. Vorrichtungen mit den Merkmalen entsprechend den Patentansprüchen 1, 2 und 21 gelost. Vorteilhafte Ausfuhrungsformen der Erfindung ergeben sich aus den abhangigen Ansprüchen.
Die Losung der genannten Aufgabe basiert auf der Idee, bei einem Verfahren zur Bilderfassung und -bearbeitung je nach den konkreten Anforderungen an das Verarbeitungsergebnis bei einzelnen oder allen Schritten der Bildaufnahme, Bildvorverarbei- tung und Bildanalyse die Erfassung digitaler Bilder und/oder charakteristischer Bildparameter der digitalen Bilder unter normierten, eine zeit- und geräteunabhängige Vergleichbarkeit gewährleistenden Bedingungen durchzufuhren. Hierzu werden eine Reihe von Korrekturen der Bildaufnahmebedmgungen sowie Normierungen, Transformationen und/oder Projektionen der aufgenommenen Bilder in Punktraume durchgeführt, in denen Parameteranalysen in normier- und reproduzierbarer Weise durchfuhrbar sind. Es wird unterstrichen, daß die erfmdungsgemaßen Maßnahmen zur Verbesserung der Aufnahme einerseits und der Bildverarbeitung (Bildvorverarbeitung- und Bildanalyse) ande-
rerseits je nach den Anforderungen einer konkreten Anwendung einzeln oder gemeinsam bereitgestellt werden können. Auch wenn bei der unten im einzelnen erläuterten Anwendung der Erfindung bei der Erfassung und Bearbeitung von dermatoskopischen Bildern die Korrekturschritte bei der Bildaufnahme besonders vorteilhaft mit den Normierungs- und Transformationsschritten bei der Bildverarbeitung zusammenwirken, so ist es bei anderen, ebenfalls weiter unten genannten Anwendungen auch möglich, entweder eine erfmdungsgemaße Verbesserung der Bildaufnahme oder eine erfmdungsgemaße Verbesserung der Bildverarbeitung vorzusehen. Ein besonderer Vorteil der Erfindung ergibt sich aus der neuartigen Bildverarbeitung, insbesondere aus der Maskenbearbeitung, die reproduzierbare und mit praktischen Erfahrungswerten aus der nicht-automatischen Gewebeerkennung kompatible Ergebnisse liefert.
Weitere Vorteile der Erfindung und Einzelheiten erfmdungsge- maßer Verfahrensweisen und Vorrichtungen werden im folgenden unter Bezug auf die beigefugten Zeichnungen beschrieben.
Es zeigen:
Fig. 1: ein Flußdiagramm zur Illustration der erfin- dungsgemaßen Bildaufnähme erfahren;
Fig. 2: eine Ubersichtsdarstellung zur Illustration der erfmdungsgemäßen Bildverarbeitung;
Fig. 3: Histogrammdarstellungen (N (a) -Spektren) zur Anwendung der Skalierungsmdexmethode bei der Bildbereinigung;
Fig. 4: eine Beispieldarstellung einer Artefaktmakse;
Fig. 5: Histogrammdarstellungen zur iterativen Histogrammanalyse in einem Farbunterraum zur Trennung von Lasion und Hauthintergrund;
Fig. 6: eine schematische Darstellung einer Randmaske;
Fig. 7: Ubersichtsdarstellungen zur Vorgehensweise bei der Ermittlung von Bildparametern, die für Randeigenschaften eines untersuchten Gewebeabschnittes charakteristisch sind;
Fign. 8a, 8b: Schematische Randdarstellungen zur Illustration der Analyse der Bildparameter , die für Randeigenschaften charakteristisch sind;
Fign. 9a, 9b: Ubersichtsdarstellungen zur Vorgehensweise bei der Ermittlung von Bildparametern, die für Farbeigenschaften eines untersuchten Gewebeabschnittes charakteristisch sind;
Fig. 10: Ubersichtsdarstellungen zur Vorgehensweise bei der Ermittlung von Bildparametern, die für Struktureigenschaften eines untersuchten Gewebeabschnittes charakteristisch sind;
Fig. 11: Ubersichtsdarstellungen zur Vorgehensweise bei der Ermittlung von Bildparametern, die für Symmetrie eigenschaften eines untersuchten Gewebeabschnittes charakteristisch sind;
Fig. 12a-12f: schematisch beispielhaft ein Aufnahmebild und zugehörige Masken; und
Fig. 13a-13d: beispielhafte Illustrationen zur Erfassung und
Darstellung lokaler Bildparameter.
Die Erfindung wird im folgenden am Beispiel αer Aufnahme (a) und Verarbeitung (b) digitaler dermatoskopischer Bilder der Haut beschrieben.
(a) Bildaufnahme
Die Bildaufnahme umfaßt die Verfahrensschritte, die zur Lieferung eines helligkeits- und farbkompensierten Digitalbildes oder Aufnahmebildes (z.B. RGB-Bild) durchgeführt werden, das Ausgangspunkt der unten beschriebenen Bildverarbeitung ist. Die Bildaufnahme umfaßt insbesondere Abgleichsmessungen zur Ermittlung von Helligkeits- und Farbkorrekturgroßen, die Erfassung der Aufnahme von Bildern eines zu untersuchenden Gegenstandes und Korrekturschritte zur dynamischen Korrektur des erfaßten Rohbildes auf der Grundlage der Helligkeits- und Farbkorrektur großen. Die Abgleichsmessungen sind jeweils einmal für eine bestimmte Meßkonfiguration erforderlich, die sich durch unveränderte Kamerabedingungen, Beleuchtungsbedingungen und einen konstanten Abbildungsmaßstab auszeichnet. Einzelheiten der Bildaufnahme sind schematisch in Fig. 1 dargestellt.
Die Abgleichsmessungen 10 umfassen nach einer Abschaltung aller vorhandenen automatischen Kameraeinstellungen (wie z.B. eine automatische Verstarkungssteuerung, AGC, eine automatische Weißwertbestimmung, Shutter, Fokusautomatik usw.) eine Schwarzbildaufnahme 11, eine Weißbildaufnahme 12, eine Farbreferenzaufnahme 13 und die Korrekturgroßenermittlung 14. Vor den genannten Schritten der Abgleichsmessungen 10 erfolgt zunächst eine Signalanpassung der Schwarz- und Weiß-Pegel an das verwendete Videosystem. Bei eingeschalteter Beleuchtung und fokussiertem Bild wird wahrend der Erfassung eines Weißbildes die Blende oder eine entsprechende Shutter-Einrichtung so weit geöffnet, daß der Kanalpegel voll ausgelastet wird. Alle Be- leuchtungs-, Fokussierungs-Blenden und Verstarkungsemstellun-
gen des Aufnahmesystems werden als Konfigurationsdatei gespeichert. Diese Signalanpassung wird immer dann wiederholt, wenn sich eine der Einstellungen durch betriebsbedingte Veränderungen oder durch Instabilitäten ändert.
Zur Schwarzbildaufnahme 11 wird das Kameraobjektiv vollständig abgedunkelt und eine Signalpegelemstellung für den Schwarzwert vorgenommen. Die Signalpegelemstellung erfolgt derart, daß die Grauwertverteilungen in den drei Farbkanalen einander gleich sind und unterhalb vorbestimmter Grenzen liegen. Erfolgt die Bildaufnahme beispielsweise mit einem digitalen Videosystem mit einer Signalauflosung über 256 Pegelstufen, so kann die vorbestimmte Grenze innerhalb der unteren Stufen 0 bis 15 gewählt werden. Die mit den ermittelten Signalpegelem- stellungen aufgenommenen Schwarzbilder S(x, y) der Farbkanale dienen als Schwarzreferenzbilder.
Bei der Weißbildaufnähme 12 wird entsprechend ein weißes oder graues Referenzbild aufgenommen und die Blende und/oder die Kameraverstarkung so eingestellt, daß wiederum die Signalpegel in den drei Farbkanalen einander gleichen und oberhalb einer vorbestimmten Weißgrenze liegen. Die Weißgrenze kann entsprechend dem obigen Beispiel im Bereich der oberen Signalpegelstufen 200 bis 255 liegen. Die mit den ermittelten Blenden- und/oder Verstarkungswerten aufgenommenen Weißbilder der Farbkanale dienen als Weißreferenzbild W(x, y) . Die Weißbildauf- nahme 12 wird für jede Vergroßerungsemstellung durchgeführt, bei der spater die eigentliche Bilderfassung erfolgt.
Anschließend werden aus den Schwarz- und Weißbildern jeweils entsprechend ein mittlerer Schwarzwert Sm und ein mittlerer Weißwert Sm (jeweils ein mittlerer Weißwert für jede Vergroßerungsemstellung) ermittelt. Aus den Schwarz- und Weißbildern wird eine sogenannte Shadmg-Matrix gebildet, die bei den spa-
teren Korrekturschritten 20 zur Shadmg-Korrektur vorgesehen
Die Farbreferenzaufnahme 13 ist vorgesehen, um kameraspezifI- sche Farbfehler der aufgenommenen Rohbilder korrigieren zu können. Die Farbreferenzaufnahme 13 ist somit nicht zwingend erforderlich, falls bei einer angestrebten Anwendung eine Vergleichbarkeit der mit verschiedenen Kameras aufgenommenen Bilder nicht von Interesse ist. Die Farbreferenzaufnahme 13 erfolgt derart, daß zunächst Farbreferenzen als Sollwerte nach einer Referenzkarte mit vorbestimmten, bekannten Farbwerten erfaßt werden. Die Erfassung erfolgt beispielsweise durch eine Abspeicherung der Sollwerte im Kamerasystem. Anschließend wird die Referenzkarte der tatsächlich verwendeten Kamera aufgenommen. Die dabei erhaltenen Farbwerte dienen als Ist-Werte, deren Abweichung von den Soll-Werten ermittelt wird. Der Soll- Ist-Vergleich erfolgt mit einer oder mehreren an sich bekannten Regressionsmethoden (z.B. auf Grundlage der Fehlerquadratsrechnung) oder mittels neuronaler Netze. Das Ergebnis der Berechnung ist eine 3*3 - Korrekturmatrix K (kll, kl2, kl3, k21, ... , k33 ) , mit der ein aufgenommenes RGB-Bild in ein korrigiertes R'G'B'-Bild gemäß
(R', G', B') = K (R, G, B)
umgewandelt wird.
Die Referenzkarte, auf deren Grundlage die Farbreferenzaufnahme 13 erfolgt, kann eine an sich bekannte, standardmäßige Referenzkarte sein. Es ist jedoch ersatzweise auch möglich, die Farbreferenzkarte anwendungsspezifisch das Aufnahmesystem zu integrieren. So ist es beispielsweise möglich, bei den dermatologischen Untersuchungen, bei denen der zu untersuchende Hautbereich an einer transparenten Platte anliegt, durch die die Bildaufnahme erfolgt, Farbreferenzmarkierungen auf der
Platte anzubringen. Dies ist besonders vorteilhaft, da die Farbreferenzaufnahme 13 unter genau denselben Bedingungen durchgeführt werden kann, wie die eigentliche Bilderfassung 20.
Die Korrekturgroßenermittlung 14 (s. Fig. 1) umfaßt die Ermittlung der Shadmg-Matrix und der Farbkorrekturmatrix K in einem für die weitere Bearbeitung geeigneten Datenformat.
Die Bilderfassung 20 umfaßt alle Schritte der Aufnahme eines digitalen Videobildes des zu untersuchenden Objekts. Die Objektbeleuchtung erfolgt auf der Basis an sich bekannter Halogenbeleuchtungssysteme (gegebenenfalls in Kombination mit Lichtleitern) oder auch auf der Basis von Leuchtdioden. Im letzteren Fall werden beispielsweise ringförmig angeordnete LED-Systeme verwendet. Diese sogenannten LED-Ringe umfassen beispielsweise 4 oder aber auch bis zu über 100 LED's. Die Vorteile der LED-Ringe bestehen in der vereinfachten Handhabung, der erhöhten Lebensdauer und Stabilität, in den verminderten Problemen bei der Lichtzufuhrung, da keine empfindlichen Lichtleiter erforderlich sind, in der problemlosen Spannungssteuerung und den deutlich vermindert auftretenden Temperatureffekten .
Die Aufnahme des Videobildes erfolgt mit einem Kamerasystem, das für eine Bildvergroßerung im Bereich von rd. 1- bis 20- fach eingerichtet ist. Die Vergrößerung wird abwendungsabhan- gig gewählt und liegt bei der Untersuchung von Melanomen vorzugsweise im Bereich von 3 bis 5. Zur Untersuchung melanozyta- rer Hautveranderungen, die vollständig auf einem CCD-Chip abgebildet werden sollen, wird die Vergrößerung beispielsweise so gewählt, daß eine Flache von 11,8 11,8 mm (Hautausschnitt) ganz auf dem Kamerachip m einem quadratischen Pixelfeld von 512 512 Pixeln erfaßt werden kann. Die Pixelgroße 0,023 mm definiert die Auflosung des digitalen Videobildes. Wird die
Vergrößerung als Verhältnis des Auflösungsvermögens des Auges ohne optische Hilfsmittel zum Auflösungsvermögen mit dem optischen Hilfsmittel (entsprechend der Pixel) abgeschätzt, so ergibt sich ein Wert für die Vergrößerung von rd. 4. Wird das digitale Videobild auf einen typischen Monitor mit einer Pixelgroße von rd . 0,3 mm dargestellt, so liefert dies eine Bildgröße von rd . 14 cm und es ergibt sich so eine rd. 12- fache Vergrößerung. Dieses Maß besitzt den Vorteil, daß es als Darstellungsgroße für einen bewertenden Experten (z.B. Dermatologen) aus der Dermatoskopie her vertraut ist. Im Falle von Gewebeuntersuchungen wird eine Em-Chip- oderDrei-Chip-CCD- Kamera mit einem geeigneten Aufsatzadapter auf das Gewebe gesetzt, wie es beispielsweise von W. Stolz et al . in "Journal of the American Academy of Dermatology" (Band 35, Seite 202, 1996) beschrieben ist. Das Kamerasystem soll unter Remotekontrolle betrieben werden, um alle Einstellungen mit einem Computer gesteuert vornehmen zu können. Nach der Bilderfassung 20 wird das aufgenommene Rohbild den Korrekturschritten 30 zur Bereitstellung des Aufnahmebildes unterzogen, das Gegenstand der Bildverarbeitung ist.
Die Korrekturschritte 30 umfassen eine Shadmgkorrektur oder Untergrundkompensation 31 und ggf. eine Farbkorrektur 32. Die Shadmgkorrektur 31 umfaßt eine additive Korrektur, die bevorzugt eingesetzt wird, falls Beleuchtungsmhomogenitaten überwiegen, oder eine multiplikative Korrektur, die bevorzugt eingesetzt wird, falls Inhomogenitäten der Sensorik überwiegen. Die Untergrundkompensation zur Ermittlung des additiv (BA) bzw. multiplikativ (BN) korrigierten Bildes aus dem Rohbild (B) erfolgt gemäß :
BA (x, y) = B(x, y) - W(x, y) + Wm - Sm (additiv)
BM (x) = B(x, y) Wm /W(x, y) - Sm (multiplikativ).
Das korrigierte Bild B, bzw. BM wird entsprechend der oben angegebenen Farbkorrekturform mit der Korrekturmatrix K multipliziert (Farbkorrektur 32) . Obwohl die Vergrößerung bei der Aufnahme des Videobildes verhältnismäßig gering ist (s. oben), hat sich der Einsatz der Shadmgkorrektur als besonders vorteilhaftes Merkmal erwiesen, mit dem Probleme bei der Falschausleuchtung des Objekts vermieden werden. Eine gleichmäßige Ausleuchtung bzw. die entsprechende Kompensation durch die Shadmgkorrektur sind jedoch von großer Bedeutung für die Farbquantifizierung und die Bewertung von Randern und Strukturen, wie dies unten erläutert wird.
Das nach der erfmdungsgemaßen Shading- und Farbkorrektur vorliegende Aufnahmebild besitzt den Vorteil, daß die Pixelwerte (Helligkeit, Farben) unabhängig von spezifischen Eigenschaften des Kamerasystems und der Aufnahmebedingungen sind, so daß die Vergleichbarkeit des Aufnahmebildes mit zeitlich und örtlich unabhängig aufgenommenen Aufnahmebildern gewährleistet ist und das Aufnahmebild eine reproduzierbare, normierte Eingangsgroße für die sich anschließende Bildverarbeitung darstellt. Durch die Verwendung von CCD-Kameras mit Remotesteuerung werden alle Einstellungen unter Computerkontrolle durchgeführt und registriert. Abweichungen von den Sollwertemstellungen werden damit erkannt.
(b) Bildverarbeitung
Die Bildverarbeitung liefert Bildmerkmale, die Ausgangspunkt für eine sich anschließende Identifikation und Bewertung von Hautveranderungen bezüglich ihrer Dignitat und Entwicklung sind.
Die erfmdungsgemaße Bildverarbeitung umfaßt gemäß Fig. 2 nach der Aufnahme eines Digitalbildes oder Aufnahmebildes, die unter Bezug auf die Fig. 1 beschrieben worden ist, eine Bildvor-
Verarbeitung 100 und eine bewertungsrelevante Bildverarbeitung (Bildanalyse) 200. Weitere Verarbeitungsschritte schließen sich mit der Visualisierung 300 und Klassifizierung 400 an. Die Bildvorverarbeitung 100 ist allgemein darauf gerichtet, Auszuge von merkmalsspezifischen Regionen ("region of mte- rest") des Digitalbildes (sogenannte "Masken") zu erstellen, die dazu vorgesehen sind, Eingangsgroßen für lineare oder nichtlmeare Methoden der Bildverarbeitung zu bilden, die im Rahmen der sich anschließenden Bildanalyse 200 durchgeführt werden. Die erforderlichen Maskentypen richten sich je nach den zu analysierenden Merkmalen und den vorgesehenen linearen oder nichtlinearen Bildverarbeitungsmethoden wie z.B. der Ska- lierungsmdexmethode, der Bestimmung der fraktalen Dimension von Bildstrukturen, der Ermittlung generalisierter oder lokaler Entropiemaße, der Anwendung statistischer Verfahren oder dergleichen. Die Masken liegen in binarer Form vor. Bei der dargestellten Ausfuhrungsform umfassen die im Ergebnis der Bildvorverarbeitung 100 gelieferten Masken eine Artefaktmaske zur Markierung von Störungen im Aufnahmebild des untersuchten biologischen Gewebes, eine Objektmaske zur binaren Markierung eines bestimmten Gewebeabschnittes innerhalb des Aufnahmebil- des, eine Konturmaske, die den eindimensionalen oder linien- haften Grenzverlauf der Objektmaske repräsentiert, eine Randmaske zur zweidimensionalen Darstellung des Randbereiches des untersuchten Gewebeabschnittes und ein auf prototypische Farben (sogenannte "Farbsymbole" ) reduziertes Farbbild mit einer quantisierten Farbdarstellung des Aufnahmebildes . Weitere Ergebnisse der Bildvorverarbeitung 100 sind der Großennormie- rungsfaktor f (auch Skalierungsfaktor) und Farbtransformationen des Aufnahmebildes .
Es ist ein besonderes Merkmal der Erfindung, daß eine Zerlegung der Bildbewertung in elementare voneinander unabhängige Klassen von Bildcharakteπstika, namentlich von Geometrie-, Färb- und Struktureigenschaften, erfolgt. Die Masken und ubπ-
gen Normierungs- oder Transformationsgroßen werden für die spatere Bildanalyse gespeichert. Em besonderer Vorteil dieser Vorgehensweise besteht darin, daß durch die Maskenbildung und Normierung (Große, Farbe) jedem Aufnahmebild em abgeleitetes Bild zugeordnet wird, mit dem dann die Bildanalyse für alle Aufnahme- und Referenzbilder unter vergleichbaren, normierten Bedingungen erfolgt.
(bl ) BildvorVerarbeitung
Die Bildvorverarbeitung 100 enthalt gemäß Fig. 2 eine Bild be- remigung 101. Die Bildberemigung 101 ist dazu vorgesehen, gewebefremde Bildelemente aus dem Aufnahmebild zu entfernen. Derartige Störungen (oder: Artefakte) durch gewebefremde Elemente werden beispielsweise durch Haare, Lichtreflexe bei der Bild aufnähme, Blasen in einer Immersionsflussigkeit , sonstige gewebefremde Partikel oder dergleichen gebildet. Nach der Bildberemigung 101, die im einzelnen weiter unten beschrieben wird, erfolgt die Segmentierung 102 des Aufnahmebildes . Die Segmentierung 102 ist darauf gerichtet, einen bestimmten, interessierenden Gewebeabschnitt (Bildausschnitt) vom übrigen Gewebe zu trennen. Bei der Erkennung von Pigmentveranderungen ist die Segmentierung beispielsweise darauf gerichtet, die Punkte (Pixel) des digitalen Aufnahmebildes zu ermitteln und zur Weiterverarbeitung bereitzustellen, die zur Hautverande- rung gehören, und die übrigen Punkte, die die umgebende Hautoberflache abbilden, aus dem Aufnahmebild zu trennen. Im Ergebnis der Segmentierung 102, die im einzelnen weiter unten beschrieben wird, werden die Objektmaske, nach einer Konturberechnung 103 die Konturmaske, nach einer Normierung 104 der Großennormierungsfaktor f und nach einer Randbestimmung 105 die Randmaske ermittelt.
Die Farbbearbeitung 106, 107 erfolgt vor der Bildberemigung 101 und Segmentierung 102 oder parallel zu diesen Schritten
und umfaßt eine Farbquantisierung 106 sowie eine Farbtransformation 107. Die Farbtransformation ist nicht notwendig Teil der Bildvorverarbeitung 100, sondern kann vielmehr auch im Rahmen der Bildanalyse durchgeführt werden.
Die Bildvorverarbeitung 100 kann weitere Schritte beinhalten, die anwendungabhangig oder zielorientiert realisierte Maßnahmen zur normierten Darstellung des Aufnahmebildes umfassen. So können beispielsweise zusätzlich geometrische Transformationen vorgesehen sein, mit denen aufnahmebedingte Verzerrungen beseitigt werden. So ist bei der Verarbeitung von Bildern innerer Gewebe (z.B. Augenuntersuchungen, endoskopische Untersuchungen) em Entzerrungsschritt vorgesehen, bei dem em gewölbter Gewebebereich unter Berücksichtigung der Wolbungs- eigenschaften und optischen Aufnahmeparameter auf eine zweidi- mensionale Ebene projiziert wird.
Im folgenden werden Einzelheiten der Schritte der Bildvorverarbeitung 100 erläutert. Es werden die Verarbeitungsschritte genannt, ohne daß auf Details der an sich bekannten Bild bear- beitungstechniken eingegangen wird.
Zur Bildberemigung 101 wird zunächst das Aufnahmebild in em Grauwertbild umgewandelt, das dann entsprechend einer der folgenden Verfahrensweisen weiterbearbeitet wird.
Gemäß einer ersten Alternative erfolgt eine Bearbeitung des Grauwertbildes mit einem an sich bekannten Liniendetektor (Algorithmus zur Verbindung von Grauwertgradienten-Maxima) der Informationen über die Lagerichtung und Breite von Linien im Aufnahmebild liefert. Anschließend werden sehr kurze und in der Richtungsinformation stark variierende Linien (sogenannte Phantome) durch Vergleich der ermittelten Linien mit vorbestimmten Grenzwerten erfaßt und von der weiteren Bildberemigung ausgeschlossen. Abschließend werden Lucken zwischen
Linienfragmenten geschlossen und das ermittelte Lmienbild als Artefaktmaske gespeichert. Gemäß einer zweiten Alternative erfolgt nach einer Kontrasterhohung des Grauwertbildes eine Anwendung der oben erwähnten Skalierungsmdexmethode (SIM) . Bei der Kontrasterhohung werden helle Bereiche einer erhöhten Helligkeit und dunkle Bereiche einer weiter erniedrigten Helligkeit durch Multiplikation mit der Sigmoid-Funktion unter Bezug auf einen mittleren Grauwert zugeordnet.
Anschließend werden die neun Grauwerte der 3 * 3-Umgebung jedes Bildpunktes (Pixel) zusammen mit den zwei Ortskoordmaten des Bildpunktes zu einem 11-dιmensιonalen Raum vereint. In diesem Merkmalsraum werden die Skalierungsmdizes mittels SIM bestimmt, aus dem Spektrum der Indizes das liniencharakterisierende Band extrahiert und die dazu gehörenden Pixel in einem Digitalbild markiert.
Em Beispiel einer Spektrendarstellung nach der SIM ist in Fig. 3 abgebildet. Es ist erkennbar, daß eine große Häufung für Skalierungsmdizes besteht, die großer als drei sind (rechtes Maximum) . Die Pixel mit Skalierungsmdizes im Bereich zwischen 1 und 2 sind von dieser Häufung deutlich getrennt und werden den Linienstrukturen zugeordnet.
Anschließend wird das mit der SIM ermittelte Digitalbild der Linienstrukturen einer standardmäßigen Erosion unterzogen. Das erodierte Digitalbild der Linienstrukturen wird mittels einer UND-Operation mit einem bmarisierten Grauwertbild des Aufnahmebildes addiert, woraus sich die Artefaktmaske ergibt. Das bmarisierte Grauwertbild wird erzeugt, indem das Aufnahmebild einem binaren Medianfilter unterzogen wird, der em Pixel in Abhängigkeit davon auf Schwarz oder Weiß setzt, ob sein Grauwert unter oder über dem Mediän der Umgebungspixel liegt.
Die Artefaktmaske kann schließlich noch einer Phantombereinigung unterzogen werden. Mit einem sogenannten Scrabbling werden besonders kleine Linienstrukturen aus der Artefaktmaske entfernt .
Das erläuterte Bildberemigungsverfahren kann auch auf andere Bildstörungen angewendet werden, deren Skalierungsmdizes sich deutlich von denen des Gewebebildes unterscheiden, so daß durch einfache Spektrenbetrachtung die entsprechenden Pixel aus dem Aufnahmebild erfaßt werden können.
Fig. 4 zeigt em Beispiel einer Artefaktmaske für em Haut- bild, bei dem Haare um die zu untersuchende Lasion (mittlerer Bildteil) angeordnet sind.
Die erfmdungsgemaße Bildberemigung 101 ist besonders vorteilhaft, da Bildstörungen mit hoher Geschwindigkeit, Selektivität und Vollständigkeit erfaßt werden. Ferner wird mit der Artefaktmaske eine exakte Positionsbestimmung der Bildstörungen geliefert.
Die Segmentierung 102 (s. Fig. 2) dient der Trennung der abgebildeten Lasion vom unversehrten Hauthintergrund. Hierzu erfolgt zunächst eine Transformation des Aufnahmebildes aus dem RGB-Raum (Bildaufnahme) in einen geeigneten anderen Farbraum (z.B. über eine Hauptachsentransformation). Der Zielfarbraum wird so ausgewählt, daß nach der Farbtransformation eine Projektion (Reduktion) des transformierten Bildes auf eine Farbebene erfolgen kann, m der die Segmentierung durch eine Schwellwerttrennung besonders effektiv und zuverlässig durchgeführt werden kann. Im Falle der Erfassung von Pigmentveranderungen der Haut wird das transformierte Bild vorzugsweise auf eine Blauebene reduziert.
Anschließend wird das von Artefakt-Elementen (hier zum Beispiel: Blauwerte) bereinigte Histogramm des farbtransformierten Bildes erstellt und durch iterative Histogrammanalyse em Farb-Schwellwert ermittelt, der den zu segmentierenden Bild- ausschnitt (die Lasion) vom Bildhintergrund (unversehrte Haut) trennt. Das Histogramm ist eine Häufigkeitsverteilung der Blauwerte, die in bestimmte Bezugsintervalle fallen. Bei der iterativen Histogrammanalyse erfolgt gemäß Fig. 5 zunächst eine Darstellung mit relativ breiten Bezugsintervallen
(Fig. 5a) . Bei diesem Histogramm wird das Bezugsintervall mit der minimalen Blauwerthauflgkeit ermittelt. Bei den anschließend gebildeten Histogrammen mit schrittweise kleineren Bezugsintervallen wird das Minimum mit der minimalen Häufigkeit jeweils innerhalb des Bezugsintervalls gesucht, das beim jeweils vorhergehenden Histogramm den Minimalwert repräsentierte
(Fign. 5b-5d) . So zeigt das Histogramm gemäß Fig. 5d mit feiner Bezugsintervallbreite em erstes Maximum bei niedrigen Blauwerten (entsprechend: niedrige Helligkeiten), das dem dunklen Lasionsbereich entspricht, und e zweites Maximum bei höheren Blauwerten (höhere Helligkeiten) , das der umgebenden Haut entspricht.
Die Histogrammanalyse kann beim Auftreten einer Mehrzahl von Objekten mit einer Bestimmung der Objektanzahl und der Auswahl des im Bildmittelpunkt am nächsten gelegenen Objekts kombiniert werden.
Die Objektmaske (s. Fig. 2) wird ermittelt, indem alle Punkte des transformierten Bildes mit einem Blauwert, der kleiner oder gleich dem ermittelten Schwellwert ist, zusammengefaßt und einem Bereichswachstumsverfahren unterzogen werden. Dies bedeutet, daß m der Nachbarschaft der ermittelten Bildpunkte entsprechend einem vorbestimmten Homogenitatskritenum innerhalb von Toleranzgrenzen zusätzlich Bildpunkte angelagert werden. Em weiterer Nachbearbeitungsschritt kann die Schließung
von Lucken und eine Glattung der äußeren Begrenzung der ermittelten Bildpunkte umfassen. Das Ergebnis des nach dem Bereichswachstum (ggf. mit Nachbearbeitung) erhaltenen Digital- bildes ist die Objektmaske gemäß Fig. 2.
Die erfmdungsgemaße iterative Histogrammanalyse ist besonders vorteilhaft, da mit einer einfachen Grundannahme (dunkles Objekt (Lasion), helle Umgebung (Haut)) zuverlässig eine reproduzierbare Segmentierungsgrenze als Minimum zwischen hellen und dunklen Bereichen ermittelt wird, wobei durch die Realisierung mit einer iterativen Histogrammerzeugung mit steigender Auflosung die Bestimmung der Segmentierungsgrenze (Schwellwert) am Ort lokaler Mmima vermieden wird. Em weiterer Vorteil besteht darin, daß die Schwellwerttrennung nach diesem Algorithmus vollständig automatisierbar und mit hoher Geschwindigkeit durchfuhrbar ist.
Aus der Objektmaske wird bei der Konturberechnung 103 (s. Fig. 2) durch eine einfache Bestimmung der Randpixel der lmienhaf- te Rand (Segmentierungsgrenze, Konturmaske) bestimmt.
Neben der geometrischen Lage der Konturmaske wird erfindungs- gemaß auch eine Randmaske ermittelt, aus der charakteristische Eigenschaften der Randbreite und Homogenitat bei einer nach folgenden Bildanalyse ableitbar sind. Die Randbestimmung 105 (s. Fig. 2) zur Ermittlung der Randmaske umfaßt einen ersten Schritt der Randdefinition und einen zweiten Schritt der Randskalierung. Beide Schritte werden unter der generellen Normierbarkeitsanforderung zur Herstellung der Vergleichbarkeit mit Referenzbildern durchgeführt.
Die Randdefinition erfolgt auf der Grundlage der oben genannten Histogrammanalyse, indem um den ermittelten Schwellwert (Segmentierungsgrenze) herum em Randintervall definiert wird
und alle Bildpunkte ermittelt werden, deren Blauwerte in dieses Randintervall fallen. Alternativ ist es möglich, em Hautahnlichkeitsmaß für jeden Bildpunkt der ermittelten Lasion zu berechnen, die Lasionsbildpunkte darauf hm nach ihrer Hautahnlichkeit zu sortieren und einen bestimmten Anteil der hautahnlichsten Punkte als Lasionsrand zu definieren. Das Hautahnlichkeitsmaß ist wiederum durch den Farbwert (z.B. Blauwert) gegeben. Der Anteil der als Rand definierten Bild- punkte kann beispielsweise 10% der hautahnlichsten Pixel umfassen, wobei jedoch dieser Wert je nach der Anwendung und den Ergebnissen der Bildverarbeitung optimiert werden kann.
Anschließend kann der ermittelte Randbereich zur Erzielung der Randmaske einer Großennormierung unterzogen werden, indem das durch die Randdefinition bestimmte binare Berandungsbild mit dem Großennormierungsfaktor f skaliert wird. Der Großennormie- rungsfaktor f ergibt sich aus dem Normierungschritt 104 (s. Fig. 2), bei dem die Objektmaske der Lasion in Bezug auf eine bestimmte, für Referenzzwecke einheitliche Flache (mit einer bestimmten Bildpunktzahl) , skaliert wird.
Em Beispiel einer Randmaske aus einem erfmdungsgemaß verarbeiteten Bild einer Pigmentveranderung ist in Fig. 6 dargestellt. Es zeigt sich, daß durch die Ermittlung der Randmaske em zweidimensionales Gebilde entsteht, das neben der rein geometrischen Position des Lasionsrandes zusatzliche Informationen über dessen Ausdehnung und Struktur enthalt, worauf im einzelnen weiter unten eingegangen wird.
Beim Normierungsschritt 104 (s. Fig. 2) erfolgt eine Großen Skalierung im Ortsraum der Objektmaske. Der Normierungsfaktor f wird durch (Aref / Aa)^ bestimmt, wobei Aref eine Objektreferenzflache und Aa die Flache des aktuellen Objektes bezeichnen
Die Farbquantisierung 106 (s. Fig. 2) ist darauf gerichtet, aus dem Aufnahmebild ein m Bezug auf prototypische Farben quantisiertes Bild (Farbsymbol) zu erzeugen, aus dem Farbmerkmale ableitbar sind, die in reproduzierbarer Weise mit entsprechenden Farbmerkmalen von Referenzbildern vergleichbar sind. Die Bildung des Farbsymbols stellt eine Codierung dar und umfaßt die Projektion des farbigen Aufnahmebildes auf einen Satz prototypischer Farben. Die prototypischen Farben ergeben sich aus einer gesonderten anwendungsspezifischen Definition von Farbclustern in einem geeigneten Farbraum. Die Farbcluster bilden einen partitionierten Merkmalsraum und werden durch Anwendung einer hierarchischen Fuzzy-Clustering- Methode aus einem Trainingssatz einer Vielzahl aufgenommener Farbbilder ermittelt. Als geeigneter Farbraum wird ein solcher Farbraum ausgewählt, der für die spätere Ableitung von Farbmerkmalen in Bezug auf die Auswertungsgenauigkeit besonders gute klasseneinheitliche Ergebnisse liefert. So hat sich für die Verarbeitung von Hautbildern zum Beispiel der sogenannte YUV-Farbraum als geeignet erwiesen, bei dem zwei Achsen durch Farbdifferenzen und eine Achse durch ein Helligkeitsmaß gebildet werden. Es kann vorgesehen sein, das Aufnahmebild vor der Farbquantisierung 106 zunächst in den gewählten Farbraum zu transformieren, um eine bessere Farbdifferenzierung zu erzielen. Die Farbpalette des Aufnahmebildes wird mit der Methode der Vektorquantisierung vorzugsweise auf rd. 10 bis 30 prototypische Farbcluster reduziert. Die Projektion auf die Cluster erfolgt, indem für jeden Bildpunkt der euklidische Abstand zu sämtlichen Clustern bestimmt, der minimale Abstand zu einem nächsten Cluster ermittelt und der jeweilige Bildpunkt diesem nächsten Cluster zugeordnet wird (sogenanntes "next neighbour matching") .
Die Vorteile der beschriebenen Bildvorverarbeitungsschritte bestehen in der Verbesserung der inter- und intraindividuellen Vergleichbarkeit der Bilddaten, der erhöhten Stabilität sich
anschließender diagnostischer Verfahren gegenüber Hauttypschwankungen oder j hreszeitlichen Hauttonungs-Schwankungen durch die Farbquantisierung und die Möglichkeit der Verlaufs kontrolle von Hautveranderungen.
Zusätzlich zu den in Fig. 2 dargestellten Schritten der Bildvorverarbeitung 100 kann erfindungsgemäß vorgesehen sein, daß die Maskenbearbeitung in Abhängigkeit von Korrekturgrößen erfolgt, die aus der Bildanalyse 200 der Visualisierung 300 und/oder der Klassifizierung 400 abgeleitet sind.
(b2) Bildanalyse
Im folgenden werden Einzelheiten der Bildanalyse oder bewertungsrelevanten Bildverarbeitung 200 erläutert, die darauf gerichtet ist, aus den ermittelten Masken bzw. aus den Bildbereichen, die den ermittelten Masken entsprechen, Transformationen und Grόßennormierungen mit Methoden der linearen oder nichtlinearen Bildverarbeitung, wie z.B. der SIM und statistischen Methoden reproduzierbare und vergleichbare Bildparameter des betrachteten Bildausschnittes (maskierter Gewebeabschnitt) abzuleiten. Im folgenden wird beispielhaft auf die A-, B-, C- und D-Parameter Bezug genommen, die nach einer dermatoskopischen Beurteilungsregel (ABCD-Regel) benannt sind und die Symmetrie (A) , den sogenannten Border-Bereich (B, auch Randbereich) , die Color-Merkmale (C, auch Farbmerk male) und die strukturellen Differenzierungen (D) einer untersuchten Läsion bezeichnen. Die Bezeichnung dient lediglich der Illustration. Im Unterschied zu den herkömmlich als Diagnoseergebnis ermittelten Parametern der ABCD-Regel sind die im folgenden beschriebenen A-, B-, C-, und D-Komponenten der erfindungsgemäß ermittelten Bildparameter keine Diagnoseergebnisse. Es ist möglich, bei anderen Anwendungen der Erfindung als der beispielhaft angegebenen Melanomuntersuchung nur einzelne der im folgenden beschriebenen Parameter oder weitere, aus diesen ab-
geleitete Bildparameter bei der Bildanalyse 200 zu ermitteln. Zu jeder der genannten Komponenten können globale Komponenten (Index in den Figuren: G) , die sich auf Bildparameter der gesamten Lasion beziehen, und lokale Komponenten (Index in den Figuren: L) abgeleitet werden, die sich auf lokale Bildeigen- schaften der untersuchten Lasion beziehen. Lokale Komponenten sind somit ortsbezogene, quantitative Parameter, die sich mit anwendungsabhangig definierbarer Ortsauflosung auf bestimmte Bildkoordmaten beziehen. Die Ortsauflosung kann einem Bild- pixel oder auch einer Vielzahl von Bildpixeln entsprechen. So können typischerweise bis zu 100 Bildpixel zu Bildkacheln zusammengefaßt werden, wie dies auch aus Fig. 13d (s. unten) ersichtlich ist.
Die simultane Erfassung lokaler und globaler Komponenten zu den Bildparametern stellt einen besonderen Vorteil der Erfindung dar. Zu jedem globalen Parameter, der im Ergebnis der er- fmdungsgemaßen Bildverarbeitung ermittelbar ist, können auch lokale Parameter angegeben und, wie in den Figuren 7, 9, 10 und 11 illustriert, visualisiert werden. Damit kann der Nutzer des Systems (z.B. der Dermatologe) erkennen, aufgrund welcher lokalen Bildmerkmale das Bildverarbeitungssystem bestimmte globale Bild erkmale liefert und auf der Grundlage dieser Erkenntnis anschließend die Diagnose durchfuhren.
I) B-Komponente (Border-Merkmal)
Die Ermittlung der B-Komponente (n) (Schritt 220 Fig. 2) zur Bewertung des Lasionsuberganges oder -randes wird im folgenden unter Bezug auf Fig. 7 beschrieben. Fig. 7 zeigt schematisch Einzelheiten der Border-Bestimmung 220 auf der Grundlage der Merkmale der Randmaske, der Konturmaske und des Großennormie- rungsfaktor f. Die Border-Bestimmung 220 umfaßt eine Randpunk- teklassifikation 221, bei der die Bildpunkte der Randmaske in Abhängigkeit vom jeweiligen Skalierungsindex klassifiziert und
verschiedenen Untermasken zugeordnet werden, eine Homogeni- tatsbestimmung 222, bei der aus der räumlichen Anordnung der Randmaske em Parameter der Berandungshomogenitat abgeleitet wird, eine Randprofilbestimmung 223, bei der Merkmale der Abruptheit des Lasionsuberganges abgeleitet werden, eine Erfassung der Randrichtungsstetigkeit 224 mittels Varianzmerkmaien der Randmaske und eine Erfassung der Konturrauhigkeit 225 mittels der fraktalen Dimension der Konturmaske.
Die Randpunkteklassifikation 221 ist darauf gerichtet, Lasionen mit einem flachig ausgedehnten Randbereich, wie dies für Melanome typisch ist, von Lasionen mit einem scharf begrenzten Randbereich zu trennen. Das Ergebnis der Randpunkteklassifikation 221 wird wie folgt visuell dargestellt oder durch einen Parameter Bl repräsentiert. Zunächst wird für jeden Punkt der Randmaske der Skalierungsmdex berechnet. Anschließend wird die Zahl der Pixel, deren Skalierungsmdex oberhalb einer vorbestimmten Grenze liegt, und die Zahl der übrigen Pixel bestimmt. Die Grenze kann beispielsweise mit dem Skalierungsmdex a0=l gegeben werden. Zur visuellen Darstellung werden die Bildpunkte jeweils unter bzw. oberhalb der Grenze Submasken zugeordnet, die dann zur weiteren Beurteilung auf einem Anzeigemittel visualisiert werden. Die Fign. 8A und 8B zeigen jeweils entsprechend Randmasken von Lasionen und die zugehörigen Submasken bei einem Grenzwert a0=l . Im Fall von Fig. 8A umfassen die Submasken, die jeweils die Bildpunkte mit a≤l bzw. a>l repräsentieren, nahezu gleichgroße Areale, wohingegen im Fall von Fig. 8B die Submaske mit a>l wesentlich ausgeprägter ist. Dies bedeutet, daß die in Fig. 8B dargestellte Lasion eine größere Anzahl von Bildpunkten im Randbereich aufweist, die einen relativ großen Skalierungsmdex besitzen. Dies bedeutet eine flächige Ausbildung des Randbereiches, so daß die Lasion gemäß Fig. 8B einem malignen Melanom zugeordnet werden kann. Der Randbereich gemäß Fig. 8A ist hingegen scharfer begrenzt,
so daß die Lasion nicht einem malignen Melanom, sondern einer benignen Pigmentveranderung zugeordnet wird.
Das visualisierte Ergebnis kann auch mit dem Bl-Parameter gemäß :
Bl = na>1 / NRand (1)
dargestellt werden, wobei na>ι die Zahl der Bildpunkte mit einem Skalierungsmdex a>l und NRand die Gesamtzahl der Bildpunkte der Randmaske repräsentieren.
Zur Homogemtatsbestimmung 222 (s. Fig. 7) wird em Maß B2 zur Erfassung der Schwankungen der Umrandungsdicke entlang des Lasionsumfanges ermittelt. Der Parameter B2 ergibt sich gemäß Gleichung (2) aus dem Parameter Bl gemäß Gleichung (1) und einer Vielzahl lokaler Parameter bl :
B2 = (1/n) Σ- (Bl - bl,)2 (2)
Die lokalen Parameter blx ergeben sich, indem die Randmaske mit einem Gitter überzogen und für alle n Gitterfenster, die eine Mindestzahl von Bildpunkten enthalten, der lokale Parameter blx analog zu Gleichung (1) berechnet wird. Die Gittergroße und die Mmdestbildpunktzahl werden in Abhängigkeit von der Lasionsgroße geeignet gewählt. Der Parameter für die Beran- dungshomogenitat B2 wachst, falls entlang des Randumfanges große Schwankungen des Parameters bl m Bezug auf den globalen Parameter Bl auftreten. Somit bedeutet em größerer Parameter B2 eine größere Berandungsmhomogenitat .
Die Randprofllbestimmung 223 dient der weiteren Charakteri sierung der Abruptheit des Lasionsuberganges. Für jeden Bildpunkt der Randmaske wird eine lokale Umgebung (Fenster) definiert und die Ausrichtung des Randes dieser lokalen Umge-
bung ermittelt. Die Ausrichtung ergibt sich aus einer linearen Regression der Nachbarpunkte innerhalb des Fensters. Der Rand- wmkel der Regressionsgerade in Bezug auf die Horizontale wird ermittelt und die Bildpunktmenge im betrachteten Fenster um diesen Randwinkel in die Horizontale gerichtet. Dies ist beispielhaft in Fig. 6 illustriert. Anschließend werden die Ani- sotropieskalierungsmdizes ax y in y-Richtung mittels der Ska- lierungsvektormethode (SVM), wie sie m DE 196 33 693 beschrieben ist, bestimmt. Der für die Randbreite oder -dicke charakteristische Bildparameter B3 ergibt sich gemäß Gleichung (3)
B3 = n(ay<0.3) / NRand (3)
n(ay<0.3) bezeichnet die Zahl der Bildpunkte mit einem anisotropen Skalierungsmdex ay<0.3. Je nach Anwendungsfall kann statt des Grenzwertes 0.3 auch e anderer geeigneter Grenzwert gewählt werden. Die Große n bezieht sich auf den Gesamtrand. Die Berechnung des Parameters B3 stellt einen wesentlichen Vorteil gegenüber herkömmlichen Verfahren zur Beurteilung der Berandungsdicke dar, die in der Regel mit einer Randglattung verbunden sind, da bei den herkömmlichen Verfahren eine Zerklüftung der Rampenkante unberücksichtigt bleibt und somit Information verloren geht.
Es ist ersatzweise auch möglich, die Drehung der lokalen Umgebung jeweils um den Randwinkel wegzulassen und die Bildpunktmenge der ungedrehten Umgebung der anisotropen SVM zu unterziehen, wobei dann m die Bestimmung eines modifizierten B3 ' Parameters die Skalierungsmdizes m x- und y-Richtung eingehen .
Für die Erfassung der Randrichtungsstetigkeit 224 (s. Fig. 7) können eine oder mehrere der folgenden Alternativmoglichkeiten I, II und III realisiert werden.
Entsprechend der ersten Alternativmoglichkeit I wird wie bei der Randprofllbestimmung 223 zunächst für jeden Bildpunkt der Randmaske em Randwinkel entsprechend seiner lokalen Umgebung berechnet. Jedem Bildpunkt wird der jeweilige Randwinkelwert zugeordnet. Anschließend werden die Skalierungsmdizes a des Wmkelwertbildes entsprechend der isotropen SIM berechnet, wie sie aus DE 43 17 746 bekannt ist. Der B-Parameter B4 ergibt sich dann analog zu Gleichung (3), wobei hier jeweils die Skalierungsmdizes des Wmkelwertbildes berücksichtigt werden.
Die Verteilung der lokalen Winkelvarianzen wird bei II und III durch deren statistische Momente (Mittelwert, Varianz etc.) und/oder durch em Entropiemaß quantifiziert und durch den Paramter B4 ausgedruckt. Gemäß der alternativen Möglichkeit II wird, wie oben erläutert, der Randwinkel für jeden Bildpunkt in seiner lokalen Umgebung (Fenster) berechnet. Für die Gesamtzahl der Punkte wird die Varianz der Randwinkel in einem Fenster ("slidmg window"), zentriert an dem betrachteten Punkt, berechnet. Der Parameter B4 ergibt sich dann als Entropie der normierten Häufigkeitsverteilung der Winkelvarianzen für alle Bildpunkte der Randmaske. Der Parameter B4 (die Entropie) ist hierbei em Maß für die Besetzung der Intervalle des Histogramms der Wmkelvarianzen und wachst mit der Breite der Wmkelverteilungen .
Letzteres wird bei der Realisierung der Alternative III dahingehend modifiziert, daß für jeden Bildpunkt Randwinkel für zwei unterschiedlich große lokale Umgebungen und die Winkeldifferenz der Randwinkel berechnet werden. Der Parameter B4 ergibt sich in diesem Fall als Entropie der normierten Häufigkeitsverteilung der Winkeldifferenzen für alle Bildpunkte der Randmaske. Je zerklüfteter die Randmaske ist, desto starker unterscheiden sich die zu einem Bildpunkt gehörigen Winkel, so
daß der Parameter B4 wiederum em statistisches Maß für die Berandungsregelmaßigkeit ist.
Die Rauhigkeitsbestimmung 225 (s. Fig. 7) bezieht sich nicht auf die Randmaske, sondern die Konturmaske (eindimensionaler Rand der Objektmaske (s. Fig. 2) . Der Parameter B5 ergibt sich aus der Ermittlung der fraktalen Dimension (im folgenden: FD) der Konturmaske. Hierzu kann zunächst das Bild der Konturmaske unter Berücksichtigung des Normierungsfaktors f einer Großen- normierung unterzogen. Die FD der Kontur wird nach dem Verfahren von Flook berechnet, wie es im einzelnen in von A.G. Flook in "Powder Technology" (Bd. 21, 1978, S. 295 ff.) beschrieben wird (vgl. auch E. Claridge et al, "Shape analysis for classi- fication of malignant melanoma", J. Biomed. Eng. 1992, Vol. 14, S. 229). Die FD ist em Maß für die Komplexität des Konturverlaufs: Wird der Kurvenverlauf der Konturmaske durch em Polygon angenähert, so ist die Anzahl der erforderlichen Schritte abhangig von der jeweiligen Schrittweite. Die FD ist em Maß für diese Abhängigkeit. Je nach den Parametern bei der Methode von Flook kann eine textureile und/oder eine strukturelle FD ermittelt werden. Die textureile FD beschreibt ferne Unregelmäßigkeiten der Kontur, wahrend die strukturelle FD größere Schwankungen erfaßt.
Ersatzweise ist es möglich, die Rauhigkeit der Konturmaske wiederum mit der SIM oder SVM zu ermitteln.
Im unteren Teil von Fig. 7 ist erkennbar, wie die Parameter B1-B5 zur Klassifizierung 400 weitergegeben werden, bei der em Auswertungsalgoπthmus abgewickelt werden kann. Ferner werden die Parameter B1-B4 gemeinsam mit der Randmaske visua- lisiert, so daß em Bediener des Bildverarbeitungssystems die lokalen Bildparameter betrachten und ggf. manuell Randbedingungen und Parameter der statistischen Bearbeitung wie Gitter oder Fenstergroßen oder Skalierungsgrenzwerte verandern kann.
Die Betrachtung der lokalen Bildparameter erfolgt vorzugsweise mit einer Falschfarbendarstellung, mit der unterschiedliche lokale Parameter zur Kennzeichnung beispielsweise eines besonders gleichmäßigen und schmalen oder eines besonders ungleichmäßigen breiten Randes sichtbar gemacht werden.
11 ) C-Komponenten (Farbmhalte und Farbverteilungen der segmentierten Lasion) .
Der Schritt der Farbbeurteilung 230 (s. Fig. 2) ist im einzelnen in Fig. 9 dargestellt. Die Farbbeurteilung 230 umfaßt eine Farbvielfaltsbestimmung 231 und eine Farbverteilungsbestimmung 232. Die Farbvielfaltsbestimmung 231 ist darauf gerichtet, das Vorhandensein und die Häufigkeitsverteilung der bei der Farbquantisierung 106 (s. Fig. 2) definierten prototypischen Farben in der Lasion zu ermitteln. Die Farbverteilungsbestimmung 232 hingegen ist auf die Ermittlung der geometrischen Anordnung der prototypischen Farben in der Lasion gerichtet.
Der Parameter Cl ergibt sich aus der Farbvielfaltsbestimmung 231 durch eine Bestimmung der statistischen Gewichte p± der M prototypischen Farben gemäß Gleichung (4) und der daraus abgeleiteten Farbcodierungsentropie gemäß Gleichung (5) . Das statistische Gewicht pa. des Farbclusters I entspricht dem Verhältnis der Anzahl der Pixel n- des Farbclusters l zur Gesamtzahl N der Lasionspixel (N entspricht der Menge der Bildpunkte der Objektmaske) .
p. = n- / N (4)
Das Maß Cl für die Farbvielfalt der Pigmentveranderung ergibt sich aus der Farbcodierungsentropie gemäß:
Cl = (-l/ln(M) ) • ∑ip nfpx) (5)
Cl ist somit e Maß für die Häufigkeitsverteilung, mit der die einzelnen Cluster besetzt sind.
Für die Farbverteilungsbestimmung 232 wird zunächst als globales Merkmal die Farbcodierungsentropie Cl entsprechend Gleichung (5) berechnet. Dann wird die untersuchte Lasion mit einem regelmäßigen Gitter überzogen, wobei die Gittergroße in Abhängigkeit von der Lasionsgroße gew hlt wird. Für alle n Gitterfenster, die zumindest zu einem Drittel mit Lasionspi- xeln (Bildpunkte der Objektmaske) gefüllt sind, wird die jeweilige lokale Farbcodierungsentropie cλ analog zu Gleichung (5) berechnet. Der Parameter C2 ergibt sich dann als Farbco- dierungsvarianz aus Gleichung (6)
C2 ■= (1/n) Σ-J C1 - c,)2 (6) .
Im unteren Teil von Fig. 9 ist wiederum dargestellt, daß die Parameter Cl und C2 zur Visualisierung 300 lokaler Bildparameter (s. oben) und Klassifizierung 400 (s. Fig. 2) geleitet werden .
m ) D-Komponenten (Erfassung von Strukturelementen in der Lasion)
Die Bildanalyse 200 umfaßt eine Strukturbeschreibung 240 (s. Fig. 2), deren Einzelheiten m Fig. 10 dargestellt sind. Die Strukturbeschreibung 240 enthalt Strukturerkennungsverfahren 241, 242 und eine Positionsbestimmung 243, bei der die raumliche Anordnung der bei der Strukturerkennung ermittelten Strukturen erfaßt wird. Die Strukturerkennungsverfahren 241, 242 stellen alternative Bildbearbeitungen dar, die einzeln oder gemeinsam realisiert sein können.
Das erste Strukturerkennungsverfahren 241 beinhaltet zunächst eine Farbtransformation 107, sofern diese nicht bereits im
Rahmen der Bildvorverarbeitung (s. Fig. 2) erfolgt ist. Mit der Farbtransformation wird das Aufnahmebild in einen geeigneten Farbraum transformiert, der eine Projektion auf eine Farbebene erlaubt, in der die zu erfassenden Strukturen einen besonders hohen Kontrast besitzen. So erfolgt beispielsweise bei der Melanomuntersuchung eine Projektion des Aufnahmebildes (ggf. in bereinigter Form) auf die Rotebene zur Erkennung punktartiger Strukturen oder auf eine Grauwert-Helligkeits ebene zur Erkennung netzartiger Strukturen. Für samtliche Bildpunkte des transformierten Bildes werden die Skalierungs- indices a und für die Gesamtpunktmenge das Häufigkeitsspektrum N(a) ermittelt. Unter Ausnutzung der strukturordnenden Eigenschaften des N (a) -Spektrums werden die zu bestimmten Strukturen gehörigen Bildpunkte identifiziert und quantitativ erfaßt.
Bei dem zweiten Strukturerkennungsverfahren 242 erfolgt die Strukturerkennung mit herkömmlichen Methoden der Bildbearbeitung. Zur Punkterkennung wird das Aufnahmebild beispielsweise in die Rotebene transformiert und einer Kontrasterhohung und einer selektiven Glättung unterzogen. Die selektive Glattung bedeutet, daß eine Mittelwertsberechnung der Rotwerte stattfindet, in die jedoch nur Bildpunkte einbezogen werden, die einen Rotwert innerhalb eines bestimmten Intervalls um den Mittelwert besitzen. Anschließend werden Rotwert-Dichten (allgemein: Grauwert-Dichten) ermittelt, binarisiert und einer Phantombereinigung unterzogen. Im Falle der Erfassung netzartiger Strukturen erfolgt eine Umwandlung des Farbbildes in ein Grauwertbild, eine Kontrasterhohung, eine Liniendetektion und eine sich anschließende Phantombereinigung.
Im Ergebnis der Strukturerkennungsverfahren 241 oder 242 lassen sich bestimmte Bildpunkte innerhalb der Lasion Strukturelementen wie Punkten, Netzstrukturen oder Schollen zuordnen. Die Unterscheidung zwischen Punkten und Schollen erfolgt durch
die Ermittlung der Anzahl von Bildpunkten, die zu der jeweiligen Struktur gehören.
Die D-Komponenten Dl und D2 , die bei den Strukturerkennungsverfahren 241, 242 ermittelt werden, können beispielsweise jeweils entsprechend den Flachenteil der jeweiligen Strukturklasse (Punkt, Netz, oder Scholle) an der Gesamtlasionsflache und die Anzahl der Strukturen m den verschiedenen Strukturklassen umfassen. Zusätzlich kann bei Punkten oder Schollen eine Berechnung der Kompaktheit c in Abhängigkeit von einem Langenmaß (z.B. Maximalausdehnung) der Struktur und der Flache der Struktur erfolgen.
Schließlich werden die ermittelten Strukturen bei der Positionsbestimmung 243 einer statistischen Bewertung unterzogen. So wird die lokale Verteilung der Strukturelemente mit einem skalenabhangigen Entropiemaß beschrieben, das den Parameter D3 ergibt.
IV) A-Komponenten (Symmetrieeigenschaften der Lasion)
Die Einzelheiten der Symmetriebewertung 210 innerhalb der Bildanalyse 200 (s. Fig. 2) werden im einzelnen unter Bezug auf Fig. 11 beschrieben. Die Symmetriebewertungen 211-215 beziehen sich jeweils auf die geometrischen Eigenschaften der Kontur, der Berandung, der Objektmaske, der Farbverteilung und der Strukturverteilung . Dies bedeutet, daß einzelne Analyseschritte aus den Analyseverfahren 220, 230 und 240, wie sie oben beschrieben wurden, bei der Symmetriebestimmung 210 identisch oder abgewandelter Form übernommen werden. Dies bedeutet, daß alle Quantitäten aus der übrigen Bildanalyse verwendet werden.
Die Kontursymmetriebestimmung 211 ergibt als Parameter einen Winkel φ gegenüber einer Bezugsachse (z.B. die Horizontale),
der der Neigung der Symmetrieachse der äußeren Kontur der Lasion in Bezug auf die Bezugsachse entspricht. Hierzu wird die Konturmaske in einer Vielzahl von Schritten jeweils in zwei gleichgroße Segmente unterteilt und die fraktalen Dimensionen FDi , FD der Segmente wie oben beschrieben berechnet. Zu jedem Segment wird em Zwischenparameter Bλ gemäß Gleichung (7) berechnet .
Bi = (mm(FDι, FD2) ) / (max ( FDi, FD2)) (7).
Zwischen zwei Segmentaufteilungen der Konturmaske wird diese jeweils um einen Winkelschritt gedreht. Der Drehwinkel, der unter der Menge der Zwischenparameter Bλ einem Minimalwert entspricht, liefert die Neigung der Achse maximaler Asymmetrie gegenüber der Bezugsachse bezüglich der FDχf2.
Die Berandungssymmetriebestimmung 212 und die Maskensymmetrie bestimmung 213 werden auf der Grundlage von Symmetrieeigenschaften der lokalen Parameter aus dem Verfahrensschritt 220 abgeleitet. Die Farbsymmetriebestimmung 214 umfaßt eine Farb- raumtransformation des Aufnahmebildes, die Bestimmung von Symmetrieachsen des transformierten Bildes und die Ableitung von Farbparametern der Bildpunkte m Bezug auf die Symmetrieachsen .
Die Farbsymmetrie wird aus der mittleren Farbdifferenz achsensymmetrischer Bildpunkte bezüglich der Objektsymmetrieachse berechnet .
Die Textursymmetriebestimmung 215 erfolgt wiederum aufgrund von lokalen Merkmalen, die beim Verfahrensschritt 240 der Bildanalyse ermittelt wurden.
Die erläuterten Verfahrensschπtte der Bildanalyse 200 sind besonders vorteilhaft, da alle Vorgange vollständig automati-
sierbar sind, eine hohe Genauigkeit und Reproduzierbarkeit besitzen und gut an sich anschließende diagnostische Verfahren angepaßt werden können. Die Parametererfassungen sind ferner objektiviert und normiert und können mit hoher Geschwindigkeit durchgeführt werden.
Die Visualisierung 300 (s. Fig. 1) ist bei allen Phasen der Bildvorverarbeitung 100 und der Bildanalyse 200 vorgesehen. Bei der Bildvorverarbeitung ist die Visualisierung 300 eine Falschfarbendarstellung, eine Artefaktmarkierung, eine Objektmarkierung, eine Randmarkierung (jeweils im Overlay-Verfahren) und bei der Bildanalyse 200 die Markierung von Randelementen, die Darstellung der Farbvielfalt und Farbhomogenitat mit Falschfarbendarstellungen entsprechend der Zugehörigkeit zu den prototypischen Farbclustern, die Sichtbarmachung von Strukturelementen (Overlay-Verfahren) und Symmetriemerkmalen (z.B. der Symmetrieachsen). Diese Visualisierung hat den Vorteil, daß durch den Bediener der Bildverarbeitungsanordnung Parameter der statistischen Bearbeitungsverfahren manuell optimiert werden können und die Bildverarbeitung transparent und nachvollziehbar gemacht wird.
Die oben erläuterten Schritte der Bildvorverarbeitung, Bildanalyse, Visualisierung und Klassifizierung sind nicht auf die beispielhaft angegebene Verarbeitung von Hautbildern beschrankt, sondern allgemein bei der Untersuchung von Gewebe- bildern (z.B. Wundheilbilder zur Untersuchung von kosmetischen Wirkstoffen, Bilder zur Begutachtung von Ulzera, Bilder zur Quantifizierung von Haarausfall, Bilder zur Untersuchung von Wirkung von Kosmetika, Bilder von Gewebespuren bei kriminalistischen Anwendungen und dergl . ) anwendbar. Die Erfindung ist ferner nicht auf optisch aufgenommene Gewebebilder beschrankt, sondern allgemein bei allen Ergebnissen bildgebender Verfahren mit komplex strukturierten Abbildungen vorteilhaft anwendbar .
Die Fign. 12a-f und 13a-d illustrieren die Anwendung der Erfindung an einem konkreten Beispiel, nämlich der Bildverarbeitung an einem malignen Melanom. Die Abbildungen dienen lediglich der Illustration αes Beispiels, wobei aus drucktechnischen Gründen Grautone oder Farbtone nicht wiedergegeben werden. Fig. 12a ist eine schematische Wiedergabe eines Aufnahmebildes, das im Original em digitales Videobild mit Farbtonen und Helligkeitsabstufungen ist. Der eingerahmte Bereich entspricht dem mit einem CCD-Kamerachip (512 512 Pixel) aufgenommenen Bild, das eine Hautflache von 11,8 11,8 mm darstellt. Aus drucktechnischen Gründen sind bei der schematischen Wiedergabe des Aufnahmebildes lediglich eine Umgrenzung der Gesamtlasion und Umgrenzungen von besonders dunklen oder hellen Bereichen innerhalb der Lasion sowie zwei Artefakte (Haare) dargestellt.
Die Fign. 12b-f zeigen die von der Lasion abgeleitete Objektmaske, die Artefaktmaske, die lediglich die beiden Haare darstellt, die lmienhafte Konturmaske, die flächige Randmaske und das Farbsymbolbild . Die Randpunkteklassifikation 221 (s. Fig. 7) ergibt für die Randmaske gemäß Fig. 12e einen globalen Parameter Bl = 0.4826. Die Visualisierung der lokalen Bildparameter wurde m Graustufen oder Falschfarbendarstellung eine Unterscheidung von Bereichen mit größeren lokalen Bildparametern B1 , die einem breiteren und ungleichmäßigeren Rand entsprechen, und mit geringeren lokalen Bildparametern B1L erlauben, die einem gleichmäßigeren, schmaleren Rand entsprechen. Neben der Ermittlung des globalen Bildparametern wird somit durch Anzeige der lokalen Bildparameter ersichtlich, welche Randbereiche welchen Beitrag zum globalen Bildparameter liefern .
Die Ermittlung der Berandungshomogenitat 222 (s. Fig. 7) liefert einen globalen Bildparameter B2G = 0.1037. Der Parameter B2 bezieht sich auf die Schwankungen der Umrandungsdicke entlang des Lasionsumfanges . Dementsprechend werden die lokalen Bildparameter für einzelne Bildkacheln ermittelt. Dies ist m Fig. 13a illustriert. Die Kacheln mit hellerem Randbereich beziehen sich auf einen gleichmäßigen, schmalen Rand, wohingegen die Kacheln mit dunkleren Randbereichen einen ungleichmäßigen, breiteren Rand hervorheben.
Die Randprofllbestimmung 223 (s. Fig. 7) ergibt einen globalen Parameter B3G = 0.4158. Wiederum lassen sich die lokalen Bildparameter grauwert- oder farbselektiv visualisieren . Für die Ermittlung der Randrichtungsstetigkeit 224 ergeben sich als globale Bildparameter B4G entsprechend den drei Alternativen I, II und III die Werte 0.1598, 0.8823 und 0.6904. Die Unterschiede zwischen den Alternativen wurden oben erläutert. Die Wahl einer oder mehrerer dieser Bildparameter erfolgt anwen- dungsabhangig . Wiederum erfolgt die Visualisierung der lokalen Bildparameter. Die Fign. 13b-d zeigen beispielhaft Ergebnisse der Strukturerkennungsverfahren 242 und 243 (s. Fig. 10) . Der Bildauszug der detektierten Netzstrukturen ist m Fig. 13b und der der detektierten Punktstrukturen in Fig. 13c dargestellt. Bei der realen Falschfarbendarstellung lassen sich diese lokalen Bildeigenschaften auch simultan anzeigen. Der globale Parameter D2G betragt 0.1213. Die lokale Visualisierung des Bild- parameters D3 gemäß dem Verfahren zur Ermittlung der räumlichen Anordnung der Strukturen 243 (s. Fig. 10) ist in Fig. 13b dargestellt. Helle Bildkacheln bedeuten das Vorliegen eines besonders homogenen Bereiches, wahrend dunklere Bildkacheln auf strukturiertere Bildbereiche hinweisen. Der globale Bildparameter D3G betragt 0.04104.
In analoger Weise lassen sich auch die aus dem Farbsymbol gemäß Fig. 12f abgeleiteten C-Bildparameter (s. Fig. 9) global
ermitteln und lokal darstellen. Für die globalen Parameter gilt beim dargestellten Bespiel C1G = 0.8083 und C2G = 0.004011. Aus drucktechnischen Gründen sind die lokalen Parameter nicht illustriert. Bei der realen Visualisierung ergeben sich wiederum Falschfarbendarstellungen, die z.B. auf Bereiche mit wenig Farben und Bereiche mit vielen Farben hinweisen. Für die A-Parameter ergeben sich die folgenden Werte: A2G = 0.01421, A3G = 0.0677, A4G = 9.17 und A5G = 0.1476.
Bei der Visualisierung der A-Bildparameter erfolgt eine Anzeige von Symmetrieachsen und/oder Bildkacheln, die Bereiche anzeigen, die stärker oder weniger stark zur Symmetrie beitragen .
Gegenstand der Erfindung ist auch eine Vorrichtung zur Implementierung des oben beschriebenen Verfahrens, die im einzelnen eine Aufnahme- und Beleuchtungseinrichtung, eine Kameraeinrichtung, Speichereinrichtungen, Datenverarbeitungseinrichtungen und eine Anzeigeeinrichtung umfaßt.
Die Vorteile der Erfindung ergeben sich aus der Bereitstellung einer qualitativ hochwertigen und standardisierten Bilderfassung. Es ist insbesondere eine quantitative Erfassung von Bildparametern möglich, die den Bildparametern eines visuell bewertenden Experten entsprechen und an dessen Seh- und Interpretationsgewohnheiten angelehnt sind. Die Bildinformationsinhalte werden in elementare, reproduzierbare Kategorien zerlegt, wobei eine hohe intra- und interindividuelle Vergleichbarkeit gegeben ist. Die beschriebenen Schritte der Bildaufnahme und Bildverarbeitung werden erstmalig bei der Beurteilung biologischen Gewebes angewendet.