DE10017551A1 - Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens - Google Patents

Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens

Info

Publication number
DE10017551A1
DE10017551A1 DE10017551A DE10017551A DE10017551A1 DE 10017551 A1 DE10017551 A1 DE 10017551A1 DE 10017551 A DE10017551 A DE 10017551A DE 10017551 A DE10017551 A DE 10017551A DE 10017551 A1 DE10017551 A1 DE 10017551A1
Authority
DE
Germany
Prior art keywords
image
user
transformation
transformations
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10017551A
Other languages
English (en)
Other versions
DE10017551C2 (de
Inventor
Wolf-Ruediger Delong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Original Assignee
Carl Zeiss Vision International GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Vision International GmbH filed Critical Carl Zeiss Vision International GmbH
Priority to DE10017551A priority Critical patent/DE10017551C2/de
Priority to EP01106668A priority patent/EP1154369A3/de
Priority to JP2001108120A priority patent/JP2001307087A/ja
Priority to US09/828,031 priority patent/US6885772B2/en
Priority to CA002343379A priority patent/CA2343379C/en
Priority to CNB011212594A priority patent/CN100501772C/zh
Publication of DE10017551A1 publication Critical patent/DE10017551A1/de
Application granted granted Critical
Publication of DE10017551C2 publication Critical patent/DE10017551C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur zyklischen interaktiven Bildanalyse mit den Schritten DOLLAR A - Auswahl interssierter Bildbereiche im Bild durch den Benutzer, DOLLAR A - Durchführen verschiedener vorprogrammierter Transformationen am Bild in allen Bildpunkten, DOLLAR A - Durchführen des gesamten normierten Transformationsraumes in Klassen mit Hilfe von Trennvorschriften, die von den Transformationsergebniswerten in den von dem Benutzer ausgewählten Bildbereichen abgeleitet sind, DOLLAR A - Zuordnen der im Transformationsraum erhaltenen Klassifizierung zu den einzelnen Bildpunkten, und DOLLAR A - Darstellung des so klassifizierten Bildes im Bildraum.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur zyklischen, interaktiven Bildanalyse, sowie ein Computersystem und ein Computerprogramm zur Durchführung eines entsprechenden Verfahrens.
Viele heute bekannte Bildverarbeitungsverfahren arbeiten nach der sogenannten fraktalen Hierarchie, in der die Bildverarbeitung in zwei Schritten erfolgt. In einem ersten Segmentierungsschritt wird das Bild im Ortsraum segmentiert, das heißt in verschiedene Bereiche geteilt. Die Segmentierung erfolgt dabei nach Hierarchiestufen, wobei in der untersten Hierarchiestufe jedes Pixel des Bildes ein Segment darstellt. Für die jeweils nächst höhere Hierarchiestufe werden die zwei Nachbarsegmente zusammengefaßt, die den geringsten Zuwachs des Produktes aus Anzahl der Pixel und der Varianz des Farb- oder Grauwertes für das zusammengefaßte Segment erzeugen. Die Auswahl der Segmente erfolgt dabei stochastisch. Weiterhin erfolgt eine Randbehandlung der Segmente, in der für jedes Randpixel eines Segmentes überprüft wird, ob es vielleicht besser zum Nachbarsegment gehört. Gegebenenfalls wird es diesem zugeordnet. Die theoretisch höchste Hierarchiestufe besteht nur noch aus einem einzigen Segment. Die Hierarchiestufen untereinander haben die Eigenschaft, daß Segmentgrenzen einer Hierarchiestufe in der darunterliegenden Hierarchiestufe erhalten bleiben, das heißt die Segmente sind stets echte Teilmengen der darüber liegenden Segmente der höheren Hierarchiestufe.
In einem nachfolgenden Klassifizierungsschritt erfolgt eine semantische Klassifizierung, das heißt aus den gebildeten Segmenten werden Objekte mit einem Namen erzeugt. Dabei werden aus einem Satz von vordefinierten Eigenschaften der Segmente in allen Hierarchiestufen Regeln für die Bildung von Objekten angegeben. Die Regeln werden als Fuzzi-Regeln formuliert.
Entsprechende Bildverarbeitungsverfahren sind beispielsweise in der DE 196 25 906 A1, der DE 197 05 017 A1 und in der WO 99/40539 beschrieben. Die betreffenden Verfahren laufen dabei entweder mehr oder minder vollautomatisch oder interaktiv ab.
Das Hauptproblem bei der Bildanalyse ist, daß die zu analysierenden Bilder völlig unterschiedliche, im Vorfeld nicht bekannte und zum Teil hochkomplexe Bildinformationen aufweisen können und zusätzlich im Vorfeld nicht bekannt ist, welche im zu analysierenden Bild enthaltene Bildinformation dem Nutzer wichtig ist. Für eine universelle Anwendbarkeit erfordern die bekannten Bildverarbeitungsverfahren daher sowohl einen sehr großen Programmieraufwand bei deren Erstellung als auch später vom Nutzer umfangreiche Erfahrung in der Auswahl geeigneter Segmentierungs- und Klassifizierungsvorschriften.
Es ist das Ziel der vorliegenden Erfindung, ein Bildanalyseverfahren anzugeben, das sich zyklisch und interaktiv den Wünschen und Vorstellungen eines Nutzers annähern kann, ohne daß der Nutzer Detailkenntnisse über die Bildverarbeitung selbst aufweisen muß.
Dieses Ziel wird durch ein Verfahren mit den Merkmalen des Anspruches 1, durch ein Computersystem mit den Merkmalen des Anspruches 12 und Computerprogramme mit den Merkmalen der Ansprüche 13 und 14 gelöst.
Das erfindungsgemäße Verfahren gemäß Anspruch 1 ist interaktiv in dem Sinne, daß der Nutzer im Schritt a) ihn interessierende oder zu unterscheidende Bildbereiche im Bild auswählen oder kennzeichnen kann und dem Nutzer nach Durchführung der Bildanalyse im Schritt f) ein klassifiziertes Bild im Bildraum dargeboten wird. Nach dessen Begutachtung kann der Nutzer die Kriterien für die Bereiche erneut anpassen. Während des Ablaufs des erfindungsgemäßen Verfahrens ist jedoch kein Eingriff des Nutzers vorgesehen.
Das erfindungsgemäße Verfahren arbeitet zyklisch in dem Sinne, daß die Schritte a) bis f) oder b) bis f) mehrfach nacheinander durchgeführt werden können, bis der Nutzer mit dem dargebotenen Ergebnis der Bildanalyse zufrieden ist.
Beim erfindungsgemäßen Verfahren erfolgt zwar wie beim Stand der Technik auch eine Segmentierung, jedoch wird diese Segmentierung in einem Transformationsraum durchgeführt. Dazu werden zunächst verschiedene vorprogrammierte und abgespeicherte Transformationen am Bild in allen Bildpunkten oder in allen Bildpunkten eines ausgewählten Bereiches durchgeführt. Nachfolgend erfolgt eine Normierung der Ergebnisse der durchgeführten Transformationen im Transformationsraum. Im Anschluß daran wird der gesamte normierte Transformationsraum in Klassen eingeteilt, wobei die Trennvorschriften für die Klassifizierung von den Transformationsergebniswerten in den vom Benutzer ausgewählten Bildbereichen automatisch abgeleitet werden. Die im Transformationsraum erhaltene Klassifizierung wird anschließend wiederum den einzelnen Bildpunkten zugeordnet und somit nachfolgend ein dem Transformationsraum entsprechend klassifiziertes Bild im ursprünglichen Bildraum dargestellt.
Die vorliegende Erfindung geht von der Voraussetzung aus, daß der Nutzer bei einem Bild immer eine gewisse Vorstellung von dem hat, was in dem Bild für seine Zwecke als zusammengehörig aufgefaßt werden sollte. Diese eigene Vorstellung teilt der Nutzer dem Computer bzw. dem Bildanalyse-Programm durch grob eingezeichnete, beliebig umrandete Gebiete im Bild mit. Aufgrund dieser interaktiven Zielvorgaben entwickelt das Bildanalyse- Programm eine eigene Interpretation der Vorstellungen des Benutzers und zeigt dem Benutzer die entwickelte Vorstellung. Der Benutzer kann nun diese von dem Bildanalyse-Programm erstellte "Maschinenvorstellung" durch weitere interaktiven Eingriffe modifizieren, wodurch das Bildanalyse-Programm die "Maschinenvorstellung" im Sinne des Benutzers korrigiert. Auf diese Weise werden in einem Wechselspiel die Vorstellungen des Benutzers mit den "Maschinenvorstellungen" abgeglichen, so daß das Bildanalyse-Programm am Ende weiß, welche Vorstellungen der Benutzer hat. Die Grundidee des erfindungsgemäßen Verfahrens ist dementsprechend ein Zyklus innerhalb eines Kreisprozesses.
Unter den vorprogrammierten Transformationen sind vorzugsweise die Bildung des Mittelwerts und der Varianz der Bildhelligkeit oder der Bildfarbe in einer Bildpunktumgebung enthalten. Eine weitere vorteilhafterweise vorprogrammierte Transformation zur Bewertung ist eine Radontransformation zur wirksamen Darstellung von Linien und Kanten innerhalb des Bildes. Die vorprogrammierten Transformationen werden dabei beim erfindungsgemäßen Verfahren als völlig gleichwertige, komplementäre und orthogonale Größen verwendet.
Die Unterteilung des normierten Transformationsraumes kann vorzugsweise derart erfolgen, daß diejenigen Bereiche im Transformationsraum identifiziert werden, in denen die normierten Werte jeder der durchgeführten Transformationen den normierten Werten derselben Transformation in den vom Benutzer ausgewählten Bildbereichen entspricht oder nahe kommt.
Im Sinne eines zyklischen Kreisprozesses kann der Benutzer, soweit der Benutzer nach einem ersten Durchlauf des Verfahrens mit dem dargestellten Bild noch nicht zufrieden ist, weitere Bildbereiche auswählen oder die Grenzen der bereits ausgewählten Bildbereiche korrigieren, und anschließend das gesamte Verfahren erneut wiederholt durchlaufen lassen. Alternativ ist es möglich, daß - soweit der Nutzer vor der Wiederholung des Verfahrens keine neuen Bildbereiche ausgewählt oder die Grenzen der ausgewählten Bildbereiche nicht korrigiert hat - das Verfahren wiederholt am selben Bild mit unterschiedlichen Transformationen oder unterschiedlichen Parametern der Transformationen durchgeführt wird.
Die nach ein- oder mehrmaligem Durchlauf des Verfahrens festgelegten Abfolgen von Transformationen und Normierungen oder Klassifikationen können abgespeichert und nachfolgend auf andere ähnliche Bilder angewendet werden.
Bei einem weiterhin vorteilhaften Ausführungsbeispiel werden zusätzlich zu der Darstellung des klassifizierten Bildes zusätzliche Eigenschaften der gewonnenen Klassifikation unter Berücksichtigung der entsprechenden Klassifikationseigenschaften in den vom Benutzer ausgewählten Bildbereichen berechnet und dem Benutzer angezeigt. Anhand dieser zusätzlichen Eigenschaften kann der Benutzer entscheiden, inwieweit die "Maschinenvorstellung" mit seiner eigenen Vorstellung übereinstimmt. Weiterhin ist die Ausgabe numerischer Daten hinsichtlich der jeweils zusammengehörigen Bildbereiche möglich, beispielsweise die Größe oder die Anzahl bestimmter Bereiche. Entsprechende numerische Auswertungen können dann bei ähnlichen Bildern automatisch vorgenommen werden, ohne daß der Nutzer sich die ähnlichen Bilder selbst ansehen muß.
Nachfolgend werden Einzelheiten der vorliegenden Erfindung anhand der Figuren näher erläutert.
Dabei zeigen:
Fig. 1 das Blockschaltbild eines Arbeitsplatzes mit einem Computer, der zur Durchführung des erfindungsgemäßen Verfahrens geeignet ist;
Fig. 2 ein Struktogramm der beim erfindungsgemäßen Verfahren ablaufenden Schritte;
Fig. 3 bis 10 graphische Darstellungen der beim erfindungsgemäßen Verfahren in den einzelnen Zwischenschritten erzielten Zwischenergebnisse am Beispiel eines Zellbildes; und
Fig. 11 bis 13 graphische Darstellungen der Ergebnisse bei Anwendung des erfindungsgemäßen Verfahrens auf ein einfaches Graubild.
Der in der Fig. 1 dargestellte Arbeitsplatz besteht im wesentlichen aus einem Computer (2) und einer an den Computer angeschlossenen Ein- und Ausgabeeinheit (1). Die Ausgabeeinheit kann dabei ein Projektionsschirm, ein Monitor oder Display sein. Die Eingabeeinheit kann eine übliche Tastatur oder Computermaus sein.
Der Computer (2) weist als Hardwarebestandteile einen Bildspeicher (3) auf, in dem das zu analysierende Bild und nach Durchführung des erfindungsgemäßen Verfahrens die vom Computer erzeugte "Maschinenvorstellung" des analysierten Bildes abgespeichert sind. Weiterhin ist als Hardwarebestandteil ein Eingabespeicher (4), in dem die Eingaben des Benutzers abgespeichert werden, vorgesehen. Die weiteren in der Fig. 1 dargestellten Module "Abstraktionseinheit" (5), "Klassifikator" (6) und "Auswerte- und Steuereinheit" (7) sind eine Kombination aus Hard- und Software, nämlich aus einem Arbeitsspeicher, einem Computerprozessor und aus im Arbeitsspeicher des Computers gespeicherten Programmodulen.
Die einzelnen ablaufenden Schritte beim erfindungsgemäßen Verfahren werden nachfolgend an Hand des Struktogramms in Fig. 2 erläutert. Zunächst wird ein im Bildspeicher (3) abgespeichertes Bild in einem Schritt (10) über die Ausgabeeinheit (1) dem Beobachter dargeboten. Dieses 2-dimensionales Bild besteht im allgemeinem aus einer Intensitätsverteilung I als Funktion der Raumkoordinaten x, y. In einem darauf folgenden Schritt (11) wählt der Benutzer über die Eingabeeinheit (1) ihn interessierende Bildbereiche bzw. die Koordinaten der ihn interessierenden Bildbereiche aus. Die Koordinaten dieser Bildbereiche bzw. der ausgewählten Bildpixel seien (xm, ym). Dabei können sowohl einzelne kleine Bildbereiche als auch mehrere große Bildbereiche oder das Gesamtbild ausgewählt werden. Bei Auswahl des Gesamtbildes überläßt der Benutzer zumindest in einem ersten Zyklus des erfindungsgemäßen Verfahrens die weitere Auswertung vollständig dem Bildanalyse-Programm.
In einem nachfolgendem Schritt (12) führt der Computer ausgewählte Transformationen Ti am Bild in sämtlichen Bildpunkten (x, y) durch. Der Index i kennzeichnet dabei die verschiedenen Transformationen. Entsprechende Transformationen können dabei die Bildung des Mittelwerts des Grauwertes (13) des Bildes in den einzelnen Bildpunkten, oder die Bildung der Varianz (14) der Bildhelligkeit jeweils in einer Bildpunktumgebung des Bildes sein. Die Begriffe Grauwert und Varianz der Bildhelligkeit stehen dabei auch stellvertretend für Farbhelligkeit und Varianz der Farbhelligkeit in den verschiedenen Farben. Eine weitere vorprogrammierte Transformation insbesondere zur wirksamen Darstellung von Linien und Kanten ist die Radontransformation (15). Neben diesen drei genannten Transformationen können jedoch auch noch weitere Transformationen vorgesehen sein, die bei Bedarf ausgewählt werden können oder vom Rechner selbst ausgewählt werden.
Im Schritt (12) wird zu jeder der ausgewählten Transformationen eine von den Ortskoordinaten (x, y) abhängige Transformationsfunktion Ti (x, y) berechnet. In einem darauf folgenden Normierungsschritt (16) werden die Ergebniswerte der Transformationen auf den Wertebereich [0, 1] normiert. Für die Normierung können verschiedene stetige Funktionen verwendet werden. Besonders günstig hat sich die Sigmoidfunktion
y = 1/(1 + exp(-g*(x-xo)))
erwiesen, da sie einen unbegrenzten Wertevorrat auf den gewünschten Wertebereich [0, 1] abbildet. In einem darauffolgenden Schritt (17) erfolgt eine Unterteilung bzw. Klassifizierung im Transformationsraum. Solange keine weiteren Informationen, beispielsweise über eine Rückkoppelung durch eine Qualitätsfunktion, vorliegen, erfolgt dabei eine grobe Unterteilung der Zahlenbereiche der normierten Transformationsergebnisse Ti* (x, y) in drei Bereiche, nämlich klein, mittel und groß. Weiterhin werden bei der Unterteilung bzw. Klassifizierung die normierten Transformationsergebniswerte Ti* (xm, ym) in den vom Benutzer ausgewählten Bildbereichen berücksichtigt oder an Hand dieser normierten Transformationsergebnisse in den vom Benutzer ausgewählten Bildbereichen Trennvorschriften für die Trennung der Klassen abgeleitet.
In einem nachfolgenden Schritt wird die im Transformationsraum gefundene Klassifizierung den einzelnen Bildpunkten (x, y) zugeordnet und das so klassifizierte Bild in einem Schritt (19) im Bildraum dem Beobachter dargeboten, entweder als eigenständiges Bild oder als überlagerte Darstellung des klassifizierten Bildes mit dem Originalbild.
In einem weiteren Schritt (20) folgt eine Abfrage an den Benutzer, in welcher Weise das Verfahren fortgesetzt werden soll, oder ob das Ergebnis der Bildanalyse bereits mit den Vorstellungen des Benutzers übereinstimmt. In einem nachfolgendem Schritt (21) kann der Benutzer über die Eingabeeinheit (1) unterschiedliche Eingaben vornehmen. Entspricht das Ergebnis der Bildanalyse bereits den Vorstellungen des Benutzers, so werden die bei der Durchführung der Transformationen, der Normierung und der Klassifizierung vorgenommen Parametereinstellungen in einem Schritt (22) abgespeichert und stehen so für eine automatische Anwendung auf ein nachfolgendes Bild oder eine Bildserie mit ähnlichen Merkmalen zur Verfügung.
Ist hingegen der Benutzer mit dem Ergebnis der Bildanalyse noch nicht zufrieden, so kann der Benutzer entweder zusätzliche Bildbereiche im Bild auswählen oder die zuvor vorgenommene Auswahl korrigieren, wobei in diesem Fall das Auswerteverfahren zum Schritt "Auswahl von Bildbereichen" (11) zurückkehrt. Gibt hingegen der Benutzer keine neuen Bildbereiche ein oder korrigiert er die zuvor eingegebenen Bildbereiche nicht, so führt der Rechner das Verfahren erneut mit geänderten Parametereinstellungen für die einzelnen Transformationen Ti oder mit geänderten Transformationen durch. In diesem Fall kehrt das Programm zu dem oben beschriebenen Transformationsschritt (12) zurück. Nach dieser Rückkehr entweder zum Auswahlschritt (11) oder zum Transformationsschritt (12) wird das Verfahren erneut durchlaufen, solange bis der Benutzer mit dem Ergebnis der Analyse zufrieden ist.
Das in soweit bisher ziemlich abstrakt beschriebene Verfahren wird nachfolgend anhand der Fig. 3 bis 10 am Beispiel eines mikroskopischen Bildes einer Nervenzelle beschrieben. In einem allerersten, der eigentlichen Bildanalyse vorgeschalteten Schritt, lädt der Benutzer das ihn interessierendes Bild in den Bildspeicher (3) des Rechners, so daß das Bild auf der Ausgabeeinheit (1) dargestellt wird. Das auf der Ausgabeeinheit (1) dargebotene Originalbild einer beispielhaften Nervenzelle ist in Fig. 3 dargestellt.
In einem nachfolgenden Schritt (Fig. 4) wählt der Benutzer beispielhafte Bildbereiche aus. Bei Bedarf kann der Benutzer diesen ausgewählten Bildbereichen Namen zuordnen, damit für das Bildanalyseprogramm klar ist, ob bei mehreren ausgewählten Bildbereichen diese als verschiedene oder zueinander gehörige Bildbereiche zu betrachten sind. Bildbereiche mit gleichen Namen sind jeweils als zusammengehörig und Bildbereiche mit verschiedenen Namen als zu unterscheiden zu betrachten. Die Namen der Bereiche werden dann ebenfalls abgespeichert. Bei dem in der Fig. 4 dargestellten Beispiel hat der Benutzer eine Einteilung in drei Bereiche, den Bildhintergrund, den Zellkörper und die Dendriten vorgenommen. Die Auswahl der entsprechenden Bildbereiche kann dabei einfach mit einer beliebigen Eingabeeinheit für die Bildkoordinaten (z. B. Maus, Rollerball) erfolgen, indem der Benutzer die auszuwählenden Bildbereiche mit dem Cursor grob umfährt und so Grenzen zieht. Handelt es sich um Bereiche, die unterschiedlich zu klassifizieren sind, gibt der Benutzer jedem dieser Bereiche unterschiedliche Namen. Sind hingegen die Bereiche nicht unterschiedlich zu klassifizieren, gibt er diesen Bereichen denselben Namen.
Da dem System keine weiteren Benutzereingaben vorliegen und die vorliegenden Hinweise des Benutzers flächenhaft sind, weist die Auswerte- und Steuereinheit (7) die Abstraktionseinheit (5) an, auf dieses Bild translations- und rotationsinvariante Transformationen anzuwenden. Hierzu eigenen sich insbesondere die Bildung des lokalen Mittelwerts und der lokalen Varianz der Bildhelligkeit oder der Farbhelligkeit für jeden Bildpunkt des Bildes. In der Abstraktionseinheit werden demzufolge zwei transformierte Zwischenbilder erzeugt, nämlich ein Zwischenbild des gleitenden Mittelwertes der Grauwerte (Fig. 5) und ein Zwischenbild der Varianz der Grauwerte über vorgegebene Bereiche (Fig. 6). Diese Bilder im Transformationsraum werden jedoch üblicher Weise nicht dem Benutzer dargeboten.
An dieser Stelle sei darauf hingewiesen, daß je nach Hinweis des Benutzers auch andere geeignetere oder gegebenenfalls auch mehr als zwei Transformationen durchgeführt werden können. Wäre beispielsweise einer der vom Benutzer ausgewählten Bildbereiche linienhaft, würde als weitere Transformation eine Radontransformation im Transformationsschritt (12) (Fig. 2) durchgeführt.
In einem nachfolgenden Schritt erfolgt nun die automatische Normierung. Diese ist sinnvoll, da je nach Transformation und aktuellem Bildinhalt die Zahlenbereiche der Transformationsergebnisse sehr unterschiedlich sein können, die unterschiedlichen Transformationsergebnisse aber in einer einheitliche Beziehung zueinander gesetzt werden können sollen. Bei der Normierung werden die Zahlenbereiche sämtlicher Transformationen über eine Sigmoidfunktion in den Zahlenbereich zwischen 0 und 1 gebracht.
Die Ergebniswerte der einzelnen Transformationen werden nun von der Abstraktionseinheit (5) zum Klassifikator (6) übertragen, der sie in eine Beziehung zueinander setzt. Im oben beschriebenen Fall mit nur zwei Transformationen ist das eine 2-dimensionale Beziehung, die bildhaft als 2-dimensionales Histogramm darstellbar ist. Dieses Histogramm ist in der Fig. 8 dargestellt, in dem nach rechts der Mittelwert (m) und nach unten die Varianz (v) aufgetragen ist. Der Klassifikator bestimmt nun an Hand der vorliegenden Benutzerhinweise diejenigen Bereiche im Transformationsraum, die den Vorstellungen des Benutzers entsprechen. Hierzu wird beispielsweise geprüft, welche normierten Transformationsergebniswerte für die verschiedenen durchgeführten Transformationen, in diesem Fall Bildung von Mittelwert und Varianz, in den vom Benutzer ausgewählten Bildbereichen vorliegen. Es werden dann im Transformationsraum diejenigen Punkte zu Klassenzentren bestimmt, in denen die Transformationsergebniswerte mit den Transformationsergebniswerten in den vom Benutzer ausgewählten Bildbereichen übereinstimmen. Die Bildung einer Vorstellung der Maschine besteht nun darin, daß sie die Umgebung jedes Klassenzentrums so weit ausdehnt, bis die Klassengrenzen aneinander anstoßen. In diesem Sinne werden die Hinweise des Benutzers verallgemeinert, bis der gesamte Parameterraum ausgefüllt ist. In der Fig. 7 ist die "Maschinenvorstellung" ("Maschinenvorstellung" bezeichnet die Darstellung, wie sie aus der Sicht der Maschine oder von einem Beobachter mit dem Wissen der Maschine gesehen werden kann) im Transformationsraum dargestellt, wobei die jeweiligen Klassenzentren als schwarze Punkte markiert sind. Auch dieses Bild ist für die Beobachtung und Bewertung des Ergebnisses durch den Benutzer nicht notwendig und wird normalerweise nicht angezeigt, sondern liegt nur im Rechner als Zwischenbild vor.
Eine Alternative zur Definition der Klassenbereiche besteht darin, daß die aneinander stoßenden Klassengrenzen explizit durch Trennflächen (hierbei sind n-dimensionale Flächen gemeint, wobei sich die Dimension der Flächen aus der Anzahl der Transformationen ergibt) repräsentiert werden. Für solche Trennflächen werden vorzugsweise Sigmoidfunktionen verwendet, wie sie auch zur Normierung des jeweils gewählten Transformationsraums verwendet werden.
Anschließend wird die im Transformationsraum aufgebaute Klassifizierung den einzelnen Bildpunkten im Bildraum wieder zugeordnet und die so generierte "Maschinenvorstellung" vom Originalbild wird nun zum Bildspeicher (3) zurück übertragen und dem Benutzer in geeigneter Weise im Bildraum dargeboten, beispielsweise als eigenes Bild oder als Überlagerung des Originalbildes und der "Maschinenvorstellung". Die "Maschinenvorstellung" im Bildraum ist in der Fig. 9 dargestellt.
Falls die Vorstellung des Benutzers zur Klassifizierung des Objekts nicht mit der dargebotenen "Maschinenvorstellung" übereinstimmt, kann der Benutzer weitere Hinweise für seine Vorstellungen eingeben, beispielsweise indem weitere Bereiche im Bild markiert werden oder die vorgenommenen Markierungen abgeändert werden.
Vorzugsweise dienen weitere Eingaben des Benutzers der Verfeinerung oder der Verallgemeinerung von bereits eingegebenen Bildbereichen im Sinne von Hierarchien. So kann z. B. der Gesamtbereich der Dendriten nach einer allgemeinen, übergeordenten Repräsentation weiter in die einzelnen Dendriten aufgelöst werden. Dies hat den Vorteil, daß die Suche nach einzelnen Dendriten auf das Gebiet der Dendriten beschränkt werden kann, so daß a) Rechenzeit gespart werden kann und b) die Genauigkeit der Bestimmung der einzelnen Dendriten erhöht werden kann, da in diesem Fall für eine erneute, weitere Transformation der gesamte Transformationsraum allein zur Bestimmung der Dendriten ausgeschöpft werden kann.
Gibt der Benutzer keine weiteren Hinweise ein, geht das Programm davon aus, daß die "Maschinenvorstellung" mit der Vorstellung des Benutzers übereinstimmt und der Benutzer kann weitere Analyseaufgaben eingeben, beispielsweise nach der Größe des Zellkörpers. Das Analyseprogramm bestimmt darauf hin die Anzahl der Bildpunkte in der Klasse der Zellkörper und gibt das Ergebnis nach geeigneter Umrechnung des Maßstabes an den Benutzer aus.
An dieser Stelle sei ausdrücklich darauf hingewiesen, daß die oben beschriebene Vorgehensweise sowohl mit beliebiger Anzahl an Benutzerhinweisen als auch mit beliebiger Anzahl an Transformationen durchführbar ist. Weiter können beliebige Auswertefunktionen (Bestimmung der Größe von Bereichen nach Länge, Breite und Fläche, Dichte der Bereiche, usw.) auf die mit dem beschriebenen Verfahren herausgearbeiteten und klassifizierten Strukturen angewandt werden.
Im Klassifikator (6) entstehen neben der "Maschinenvorstellung" des analysierten Bildes noch weitere Informationen. Es kann auch eine Qualität dieser "Maschinenvorstellung" angegeben werden. Betrachtet man die "Maschinenvorstellung" im Transformationsraum (Fig. 7) so ist erkennbar, daß die unterschiedlichen Klassengrößen unterschiedlich sind und die Klassenzentren unterschiedliche Abstände von einander haben. Je kleiner die Abstände zwischen den Klassenzentren sind, um so eher besteht die Gefahr einer Verwechslung, bzw. je größer der Abstand zwischen den Klassenzentren ist, um so geringer ist die Gefahr einer Verwechslung. Auch diese zusätzliche Information kann in den Bildraum zurück transformiert werden, indem jedem Bildpunkt der zugehörige Klassenabstand im Transformationsraum als Parameter zugeordnet wird. Diese Qualitätsfunktion im Bildraum, die eine Aussage über die Qualität der "Maschinenvorstellung" angibt, ist für das Bild in Fig. 9 in Fig. 10 dargestellt. Dabei stehen dunkle Bildpunkte für kleine Abstände der Klassenzentren im Transformationsraum und damit für eine geringe Qualität und eine hohe Verwechslungsgefahr und helle Bildpunkte für große Abstände der Klassenzentren im Transformationsraum für eine hohe Qualität und eine geringe Verwechslungsgefahr.
Diese Qualitätsfunktion wird vom Klassifikator (6) an die Auswerte- und Steuereinheit (7) übertragen und dient dort zur automatischen Entscheidung über die günstigsten Transformationen bzw. die günstigsten Parameter für diese Transformationen. Je nach Rechenzeitbedarf oder den Reaktionswünschen bzw. Genauigkeitswünschen des Benutzers kann hier automatisch ein weiterer Optimierungszyklus eingeleitet werden, in dem das Programm erneut zum Transformationsschritt zurückkehrt und die Transformationen erneut mit geänderten Parametereinstellungen durchführt.
Ein weiteres sehr einfaches Beispiel, das jedoch die Leistungsfähigkeit des erfindungsgemäßen Verfahrens gut veranschaulicht, ist in den Fig. 11 bis 13 dargestellt. Die Fig. 11 zeigt das Originalbild, das oberhalb einer von links unten nach rechts oben verlaufenden Diagonalen eine Varianz von 1.0 und unterhalb dieser Diagonalen eine Varianz von 1.4 aufweist. Der mittlere Grauwert ist über das gesamte Bild konstant. Mit dem bloßem Auge ist demzufolge in dem Originalbild nur ein geringfügiger Unterschied in der Körnungsgröße zu erkennen. Markiert jedoch der Beobachter aufgrund entsprechender Erwartungen, daß zwischen den beiden Bildhälften ein Unterschied vorliegen muß, jeweils flächenhafte Bildbereiche oberhalb und unterhalb der Diagonalen und weist diesen beiden Bildbereichen unterschiedliche Namen zu, werden von der Maschine wiederum automatisch die Transformationen Grauwert und Varianz des Grauwertes ausgewählt und durchgeführt und die in der Fig. 13 dargestellte "Maschinenvorstellung" erzeugt und dem Benutzer dargeboten. Die Lösung derselben Aufgabe mit den bekannten Verfahren der fraktalen Hierarchie wäre hingegen nicht möglich, da die Varianz des Farb- oder Grauwertes bei der fraktalen Hierarchie nur eine Hilfs- oder Steuergröße ist, während bei dem Verfahren nach der Erfindung die einzelnen durchzuführenden Transformationen als gleichwertige, orthogonale bzw. zueinander komplementäre Größen angesehen werden.

Claims (14)

1. Verfahren zur zyklischen, interaktiven Bildanalyse mit den Schritten:
  • a) Auswahl interessierender Bildbereiche im Bild durch den Benutzer,
  • b) Durchführen vorprogrammierter Transformationen am Bild in allen Bildpunkten oder an einer Auswahl von Bildpunkten,
  • c) Durchführen einer Normierung der einzelnen Transformationsergebnisse,
  • d) Unterteilung des gesamten, normierten Transformationsraumes in Klassen mit dem Ergebniss einer Klassifizierung im Transformationsraum mit Hilfe von Trennvorschriften, die von den Transformationsergebniswerten in den vom Benutzer ausgewählten Bildbereichen abgeleitet werden,
  • e) Zuordnung der im Transformationsraum erhaltenen Klassifizierung zu den einzelnen Bildpunkten, und
  • f) Darstellung des so klassifizierten Bildes im Bildraum.
2. Verfahren nach Anspruch 1, wobei die vorprogrammierten Transformationen, die Bildung des Mittelwerts des Farb- oder Grauwertes und/oder die Bildung der Varianz des Farb- oder Grauwertes in einer Bildpunktumgebung enthalten.
3. Verfahren nach Anspruch 1 oder 2, wobei die vorprogrammierten Transformationen eine Radontransformation zur wirksamen Darstellung von Linien und Kanten enthalten.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Unterteilung des normierten Transformationsraumes derart erfolgt, daß die Bereiche im Transformationsraum identifiziert werden, in denen die normierten Werte jeder der durchgeführten Transformationen den normierten Werten derselben Transformation in den vom Benutzer ausgewählten Bildbereichen entsprechen.
5. Verfahren nach Anspruch 4, wobei für die Normierung der Werte eine Sigmoid-Funktion verwendet wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Verfahrensschritte a) bis f) wiederholt am selben Bild zur hierarchischen Verfeinerung oder Verallgemeinerung der Klassifizierung durchgeführt werden.
7. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Verfahrensschritte b) bis f) wiederholt am selben Bild mit verschiedenen Transformationen oder Parametern der Transformationen durchgeführt werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die während der Interaktion festgelegten Abfolgen von Transformationen, Normierungen und Klassifikationen abgespeichert werden.
9. Verfahren nach Anspruch 8, wobei die während der Interaktion festgelegten und abgespeicherten Abfolgen nachfolgend auf andere Bilder angewendet werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, wobei zusätzliche Eigenschaften der gewonnenen Klassifikationen unter Berücksichtigung der entsprechenden Klassifikationseigenschaften in den vom Benutzer ausgewählten Bildbereichen berechnet werden.
11. Verfahren nach Anspruch 10, wobei zusätzliche Eigenschaften die Farbwerte, die Bildhelligkeit, die Varianz und/oder die Klassenform sind.
12. Computersystem, das zur Ausführung eines Verfahrens nach einem der Ansprüche 1 bis 11 geeignet ist und Einrichtungen (1) zum interaktiven Eingeben und Auswählen von Bildbereichen aufweist.
13. Computerprogramm, das in den Speicher eines digitalen Computers ladbar ist und einen Softwarecode zur Durchführung eines Verfahrens mit den Schritten nach einem der Ansprüche 1 bis 11 aufweist, wenn das Programm auf dem Computer abläuft.
14. Computerprogramm, das in den Speicher eines digitalen Computers ladbar ist und einen Softwarecode aufweist, der den Computer bei in den Speicher geladenem Computerprogramm in die Lage versetzt, ein Verfahren mit den Schritten eines der Ansprüche 1 bis 11 auszuführen.
DE10017551A 2000-04-08 2000-04-08 Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens Expired - Fee Related DE10017551C2 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE10017551A DE10017551C2 (de) 2000-04-08 2000-04-08 Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens
EP01106668A EP1154369A3 (de) 2000-04-08 2001-03-16 Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens
JP2001108120A JP2001307087A (ja) 2000-04-08 2001-04-06 循環的対話型画像分析のための手順、並びに、その手順を実行するためのコンピュータ・システム及びコンピュータ・プログラム
US09/828,031 US6885772B2 (en) 2000-04-08 2001-04-06 Process for cyclic, interactive image analysis, and also computer system and computer program for performing the process
CA002343379A CA2343379C (en) 2000-04-08 2001-04-06 Process for cyclic, interactive image analysis, and also computer system and computer program for performing the process
CNB011212594A CN100501772C (zh) 2000-04-08 2001-04-08 周期的交互图象分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10017551A DE10017551C2 (de) 2000-04-08 2000-04-08 Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens

Publications (2)

Publication Number Publication Date
DE10017551A1 true DE10017551A1 (de) 2001-10-18
DE10017551C2 DE10017551C2 (de) 2002-10-24

Family

ID=7638072

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10017551A Expired - Fee Related DE10017551C2 (de) 2000-04-08 2000-04-08 Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens

Country Status (6)

Country Link
US (1) US6885772B2 (de)
EP (1) EP1154369A3 (de)
JP (1) JP2001307087A (de)
CN (1) CN100501772C (de)
CA (1) CA2343379C (de)
DE (1) DE10017551C2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004009541A1 (de) * 2004-02-23 2005-09-15 Iris-Gmbh Infrared & Intelligent Sensors Benutzersteuerbares Erfassungssystem
WO2007042195A2 (de) * 2005-10-11 2007-04-19 Carl Zeiss Imaging Solutions Gmbh Verfahren zur segmentierung in einem n-dimensionalen merkmalsraum und verfahren zur klassifikation auf grundlage von geometrischen eigenschaften segmentierter objekte in einem n-dimensionalen datenraum
DE112007003553B4 (de) 2007-07-02 2018-09-13 Trimble Jena Gmbh Merkmalsdetektionsvorrichtung und -verfahren zum Messen von Objektabständen

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10109130B4 (de) 2001-02-24 2015-02-19 Carl Zeiss Microscopy Gmbh Verfahren zur Aufzeichnung und Darstellung von Fluoreszenzbildern mit hoher räumlicher Auflösung
US7346215B2 (en) * 2001-12-31 2008-03-18 Transpacific Ip, Ltd. Apparatus and method for capturing a document
GB2396406A (en) * 2002-12-17 2004-06-23 Qinetiq Ltd Image analysis
DE10353785B4 (de) * 2003-11-18 2006-05-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Erfassung von verschiedenen Zelltypen von Zellen in einer biologischen Probe
EP1751628A4 (de) * 2004-05-20 2007-12-05 Univ Mcmaster Verfahren zur steuerung des aussehens von produkten und der prozessleistungsfähigkeit durch bildanalyse
EP1615170A1 (de) * 2004-07-10 2006-01-11 Evotec Technologies GmbH Verfahren der Bildsegmentierung, zur Anwendung in der Zellularbiologie
US8107695B2 (en) * 2007-06-27 2012-01-31 General Electric Company Methods and systems for assessing patient movement in diagnostic imaging
US8583209B2 (en) 2007-10-03 2013-11-12 Siemens Aktiengesellschaft Method and system for monitoring cardiac function of a patient during a magnetic resonance imaging (MRI) procedure
CN102016917A (zh) * 2007-12-20 2011-04-13 皇家飞利浦电子股份有限公司 图像数据的分割
US10466121B2 (en) * 2014-03-06 2019-11-05 Joyson Safety Systems Acquisition Llc Force-based detection systems and methods

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0769760B1 (de) * 1995-10-18 1998-05-27 Societe Nationale D'etude Et De Construction De Moteurs D'aviation "Snecma" Verfahren zur automatischen Erkennung von auswertbaren Zonen in Bildern von mechanischen Teilen
DE19730512C1 (de) * 1997-07-16 1998-08-20 Siemens Ag Bildsystem für eine medizinische Diagnostikeinrichtung und Verfahren zur gefensterten Darstellung von medizinischen Bildern

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62204393A (ja) * 1986-03-05 1987-09-09 Hitachi Ltd 画像処理エキスパ−トシステム
WO1992002000A1 (en) * 1990-07-17 1992-02-06 British Telecommunications Public Limited Company A method of processing an image
US5671294A (en) * 1994-09-15 1997-09-23 The United States Of America As Represented By The Secretary Of The Navy System and method for incorporating segmentation boundaries into the calculation of fractal dimension features for texture discrimination
US6044171A (en) * 1995-05-09 2000-03-28 Polyakov; Vladislav G. Method and apparatus for pattern recognition and representation using fourier descriptors and iterative transformation-reparametrization
US5761385A (en) * 1995-09-05 1998-06-02 Loral Defense Systems Product and method for extracting image data
DE19625906A1 (de) * 1996-06-27 1998-01-08 Delphi Systemsimulation Gmbh Verfahren zur Berechnung und/oder Analyse und/oder Erkennung eines komplexen Systems
US6408107B1 (en) * 1996-07-10 2002-06-18 Michael I. Miller Rapid convolution based large deformation image matching via landmark and volume imagery
JPH1091782A (ja) * 1996-09-10 1998-04-10 Olympus Optical Co Ltd 濃淡画像用特定部位抽出方法
DE19705017A1 (de) * 1997-02-10 1998-08-13 Delphi Systemsimulation Gmbh Verfahren zum Segmentieren eines digitalen Bildes
US6078680A (en) * 1997-07-25 2000-06-20 Arch Development Corporation Method, apparatus, and storage medium for detection of nodules in biological tissue using wavelet snakes to characterize features in radiographic images
FR2774493B1 (fr) * 1998-02-04 2000-09-15 Univ Paris Curie Procede de segmentation spatiale d'une image en objets visuels et application
JP2002502648A (ja) 1998-02-09 2002-01-29 オーディン・メディカル・テクノロジーズ・リミテッド Mri又はmrtプローブで使用するための開いた磁石及び開いた磁気装置を設計するための方法
US6175658B1 (en) * 1998-07-10 2001-01-16 General Electric Company Spatially-selective edge enhancement for discrete pixel images
US6496560B1 (en) * 2001-11-21 2002-12-17 Koninklijke Philips Electronics, N.V. Motion correction for perfusion measurements

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0769760B1 (de) * 1995-10-18 1998-05-27 Societe Nationale D'etude Et De Construction De Moteurs D'aviation "Snecma" Verfahren zur automatischen Erkennung von auswertbaren Zonen in Bildern von mechanischen Teilen
DE19730512C1 (de) * 1997-07-16 1998-08-20 Siemens Ag Bildsystem für eine medizinische Diagnostikeinrichtung und Verfahren zur gefensterten Darstellung von medizinischen Bildern

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
R.A. ROBB, C. BARILLOT, "Interactive Display and Analysis of 3-D Medical Images" IEEE Trans. on Medical Imaging, Vol. 8, No. 3, Sept. 1989, S. 217-226 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004009541A1 (de) * 2004-02-23 2005-09-15 Iris-Gmbh Infrared & Intelligent Sensors Benutzersteuerbares Erfassungssystem
WO2007042195A2 (de) * 2005-10-11 2007-04-19 Carl Zeiss Imaging Solutions Gmbh Verfahren zur segmentierung in einem n-dimensionalen merkmalsraum und verfahren zur klassifikation auf grundlage von geometrischen eigenschaften segmentierter objekte in einem n-dimensionalen datenraum
WO2007042195A3 (de) * 2005-10-11 2007-09-07 Carl Zeiss Imaging Solutions G Verfahren zur segmentierung in einem n-dimensionalen merkmalsraum und verfahren zur klassifikation auf grundlage von geometrischen eigenschaften segmentierter objekte in einem n-dimensionalen datenraum
DE102005049017B4 (de) * 2005-10-11 2010-09-23 Carl Zeiss Imaging Solutions Gmbh Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
DE112007003553B4 (de) 2007-07-02 2018-09-13 Trimble Jena Gmbh Merkmalsdetektionsvorrichtung und -verfahren zum Messen von Objektabständen

Also Published As

Publication number Publication date
CA2343379A1 (en) 2001-10-08
EP1154369A3 (de) 2004-06-30
US6885772B2 (en) 2005-04-26
DE10017551C2 (de) 2002-10-24
JP2001307087A (ja) 2001-11-02
CA2343379C (en) 2008-08-05
EP1154369A2 (de) 2001-11-14
CN1321953A (zh) 2001-11-14
US20020012466A1 (en) 2002-01-31
CN100501772C (zh) 2009-06-17

Similar Documents

Publication Publication Date Title
EP2187340B1 (de) Vorrichtung und Verfahren zum Bestimmen eines Kanten-Histogramms, Vorrichtung und Verfahren zum Ablegen eines Bildes in einer Bilddatenbank, Vorrichtung und Verfahren zum Auffinden von zwei ähnlichen Bildern und Computerprogramm
DE60215063T2 (de) System und verfahren zur ermittlung von bildähnlichkeiten
DE2909153C2 (de) Einrichtung zur digitalen Analyse von Bild- oder Zeichenmustern
EP1316057B1 (de) Auswerten von kantenrichtungsinformation
DE3911465C2 (de) Verfahren zur automatischen Konfiguration technischer Systeme aus Komponenten
DE10017551C2 (de) Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens
DE102007028226B4 (de) Auswertungsverfahren für eine zeitliche Sequenz von Röntgenbildern und hiermit korrespondierende Gegenstände
DE102007040070B4 (de) Bilddichteumwandlungsverfahren, Bildverbesserungsverarbeitungseinrichtung und dafür geeignetes Programm
DE102008017846A1 (de) Verfahren und Benutzerschnittstelle für die grafische Darstellung von medizinischen Daten
DE102004004641A1 (de) Dreidimensionale Reprojektions- und Rückprojektionsverfahren und Algorithmen zum Durchführen derselben
DE60217748T2 (de) Verfahren und Gerät zur Anzeige eines Bildraumes
EP3970113A1 (de) Bestimmung eines verschleissgrades eines werkzeugs
DE102005049017B4 (de) Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
DE19817583A1 (de) Verfahren und System zur Datenverarbeitung für dreidimensionale Objekte
WO2008034862A1 (de) Mischung unterschiedlich bearbeiteter röntgenbilddaten
EP2642749B1 (de) Vorrichtung und Verfahren zur Optimierung der Bestimmung von Aufnahmebereichen
DE102020208765A1 (de) Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten
DE19818991B4 (de) Verfahren und System zum Auswählen und Anzeigen von in einem Betrachtungsvolumen enthaltenen Objekten
EP2399241B1 (de) Verfahren zur entropie-basierten bestimmung von objektrandkurven
EP1185084A2 (de) Bildkodierungsverfahren und Bildkodierer
DE2725927C2 (de)
EP4097646A1 (de) Hardwarebeschleunigte berechnung von faltungen
DE102019130954A1 (de) Verarbeitung mehrdimensionaler Umgebungsinformation durch neuronale Netzwerke
DE19744648A1 (de) Verfahren und Vorrichtung zur Sekundärbilderzeugung und zur schnellen Suche in digitalen Bilddatenbanken
WO2008012059A2 (de) Mikroskopbildverarbeitungsverfahren, computer, computerprogramm und datenträger

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
R082 Change of representative

Representative=s name: MUELLER-RISSMANN, WERNER-ALBRECHT, DIPL.-PHYS., DE

R081 Change of applicant/patentee

Owner name: CARL ZEISS MICROSCOPY GMBH, DE

Free format text: FORMER OWNER: CARL ZEISS VISION GMBH, 85399 HALLBERGMOOS, DE

Effective date: 20130102

R082 Change of representative

Representative=s name: MUELLER-RISSMANN, WERNER-ALBRECHT, DIPL.-PHYS., DE

Effective date: 20130102

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee