DE69517249T2 - Anordnung zur segmentierung eines diskreten datensatzes - Google Patents

Anordnung zur segmentierung eines diskreten datensatzes

Info

Publication number
DE69517249T2
DE69517249T2 DE69517249T DE69517249T DE69517249T2 DE 69517249 T2 DE69517249 T2 DE 69517249T2 DE 69517249 T DE69517249 T DE 69517249T DE 69517249 T DE69517249 T DE 69517249T DE 69517249 T2 DE69517249 T2 DE 69517249T2
Authority
DE
Germany
Prior art keywords
ensemble
circuit
segmentation
sub
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69517249T
Other languages
English (en)
Other versions
DE69517249D1 (de
Inventor
Pierre Devijver
Carola Fassnacht
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR9401769A external-priority patent/FR2716282A1/fr
Priority claimed from FR9414726A external-priority patent/FR2728090A1/fr
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE69517249D1 publication Critical patent/DE69517249D1/de
Publication of DE69517249T2 publication Critical patent/DE69517249T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung betrifft eine Anordnung zur Segmentierung eines diskreten Datensatzes, Stellen (m, n) entsprechend, mit m zwischen 1 und M enthalten und n zwischen 1 und N einschließlich, ausgehend von numerischen Eingangssignalen, den besagten Daten entsprechend. Die Erfindung findet insbesondere im Bereich der Bildsegmentierung Anwendungen, um z. B. Tonbild-Übertragungen vorzunehmen oder für Verarbeitungen wie die von Satelliten gelieferten Bildern oder die von im medizinischen Bereich erhaltenen Bildern oder von Roboteraufnahmen, und betrifft somit alle Arten Bilder, herkömmliche oder mit angezeigter Entfernung (zwischen dem Aufnahmegerät und dem nächstgelegenen Handlungsgegenstand), und ebenso Bilder mit einer Grautonverteilung wie gerasterte Bilder oder Bilder mit einer Verknüpfung von mehreren Bildstrukturtypen.
  • Jedes Bildsegmentierverfahren zielt auf eine Klassifizierung ab, d. h. eine Gruppierung der Bildelemente (oder Pixel), indem ihnen ein gemeinsames Etikett (oder Label) pro aus der Segmentierung entstandenen Region zugeteilt wird. Ein solcher Vorgang kommt gewissermaßen dem gleich, ausgehend von beobachtbaren Daten ein Modell zu bilden, das spätere Verarbeitungen vereinfacht. Anstatt einer deterministischen Modellbildung zieht man jedoch den Versuch vor, Wahrscheinlichkeiten zu bestimmen, die mit den Situationen verbunden sind, als Reflex dieser beobachtbaren Daten, mit einer Wahrscheinlichkeit als Anzeichen des Grads an Vertrauen in diese besondere Interpretation. Bei der Aufstellung eines solchen nicht deterministischen Modells kann man nicht ausschließen, daß bei der gesuchten Klassifizierung jedes Pixel von der Klasse, dem seine Nachbarn angehören, beeinflußt wird. Ausgehend von dieser Hypothese wurde dann daran gedacht, die gesamten Pixel eines Bildes als ein Markow-Feld zu betrachten (d. h. wie die Verallgemeinerung einer Markow-Kette).
  • Im Vortrag "Segmentation of textured images using a multiresolution approach" von C. Bouman und B. Liu bei der "1988 International Conference on Acoustics, Speech and Signal Processing (vom 11. zum 14. April 1988 in New York veranstaltet), in Band Nr. 2 auf den Seiten 1124-1127 der "Protokolle" dieser Konferenz veröffentlicht, wird eine Bildsegmentiermethode dargelegt, die auf einer Annäherungsbestimmung des Maximums a posteriori eines zufälligen Markow-Felds beruht, ausgehend von der Hypothese, daß eine Verteilung a priori der den Pixeln zugeteilten Labels von einer Gibbs- Verteilung gegeben wird. Bei dieser Methode werden mehr und mehr präzisere Segmentierungen vorgenommen, während der Segmentiervorgang mit zunehmender Bildauflösung abgebrochen wird, wenn jedes Pixel einer Klasse zugeteilt werden konnte.
  • Ziel der Erfindung ist es, eine Anordnung zur Segmentierung von Daten vorzuschlagen, und insbesondere von numerischen, Bildern entsprechenden Daten, die eine Segmentiermethode umsetzt, die zugleich auf eine Modellbildung über ein Markow-Feld zurückgreift, doch auf einem anderen Ansatz beruht und mit sehr wenig Iterationen zu einem optimalen Ergebnis führt.
  • Dafür betrifft die Erfindung eine Anordnung zur Segmentierung, insbesondere dadurch gekennzeichnet, daß es in Serie enthält:
  • (A) Ein Unter-Ensemble zur initialen Segmentierung durch Histogrammauszug, Berechnung der Durchschnitte über T Klassen und Klassifizierung über die Suche für jedes numerische Eingangssignal des Durchschnitts, der dem Rang des besagten Signals am ehesten entspricht;
  • (B) ein Unter-Ensemble zur Bestimmung und Aktualisierung der Wahrscheinlichkeiten, das einerseits die Labels erhält, die von dem besagten Unter- Ensemble zur initialen Segmentierung bestimmt wurden und andererseits die besagten digitalen Eingangssignale, und das selbst enthält:
  • (1) Am Ausgang des besagten Unter-Ensembles zur initialen Segmentierung einen ersten Weg zur Bestimmung der bedingten Wahrscheinlichkeiten p(q/a, b, c), der selbst wiederum in Serie enthält:
  • (a) Eine Schaltung zur Bestimmung der sogenannten Konfigurations-Wahrscheinlichkeiten als Ausdruck der Identität oder Nicht-Identität der Ränge entsprechend jedem der fünfzehn möglichen Konfigurationen im Innern eines zweidimensionalen Modells im Quadrat (q, a, b, c) der Markow-Kette, wobei q in dem besagten zu segmentierenden Ensemble das an der sogenannten "Kind"-Stelle zu bestimmende Label, und a, b, c die Labels der besagten "Eltern"-Stellen benennen;
  • (b) eine Schaltung zur Berechnung der Propagationskoeffizienten für das so gewählte Modell der Markow-Kette;
  • (c) eine erste Schaltung zur Bestimmung der bedingten Wahrscheinlichkeit p(q/abc) = exp L(q/abc)Z(abc), wobei Z ein Normalisierungsfaktor und wobei L(q/abc) ein sogenannter Propagationsoperator des Einflusses der Eltern auf die Kinder ist, definiert über die Ausdrücke (3) bis (14):
  • L(q/a, b, c) = B(v).d(q, a) + B(d).d(q, b).+ B(h).d(q, c) + B(v, d).d(q, a, b) + B(d, h).d(q, b, c) + B(v, h).d(q, a, c) + B(v, d, h).d(q, a, b, c) (3)
  • exp B(v) = k.S(1123) (4)
  • exp B(d) = k.S(1213) (5)
  • exp B(h) = k.S(1231) (6)
  • exp B(v, d) = c(v, d).(exp.B(h) + T-2).exp (B(v) + B(d)) (7)
  • exp B(v, h) = c(v, h).(exp.B(d) + T-2).exp (B(v) + B(h)) (8)
  • exp B(d, h) = c(d, h).(exp.B(v) + T-2).exp (B(d) + B(h)) (9)
  • C(v, d) = S(1112)/(S(1221) + S(1223)) (11)
  • C(v, h) = S(1121)/(S(1212) + S(1232)) (12)
  • C(d, h) = S(1211)/(S(1122) + S(1233)) (13)
  • k = (T-3)/S(1234) (14)
  • (2) Ebenfalls am Ausgang des Unter-Ensembles zur initialen Segmentierung und parallel zum ersten Weg, einen zweiten Weg zur Bestimmung der bedingten Wahrscheinlichkeiten Pq(xmn), der selbst wiederum in Serie enthält:
  • (a) Eine Schaltung zur Berechnung der "Durchschnitts"-Parameter und der "Varianz"-Parameter der besagten T Klassen;
  • (b) eine zweite Schaltung zur Bestimmung der bedingten Wahrscheinlichkeiten;
  • (C) am Ausgang des besagten Unter-Ensembles zur Bestimmung und Aktualisierung der Wahrscheinlichkeiten, ein Unter-Ensemble zur Etikettierung der Punkte des besagten Daten-Ensembles, das an einem ersten und zweiten Eingang die Ausgangssignale des besagten ersten und zweiten Wegs und an einem dritten Eingang die besagten numerischen Eingangssignale der Anordnung erhält, wobei die Schaltung vorgesehen ist, um einen neuen Labelsatz abzugeben, der die Aktualisierung der besagten initialen Segmentierung bildet;
  • (D) Zwischen den beiden Unter-Ensembles zur initialen Segmentierung und der Bestimmung und Aktualisierung von Wahrscheinlichkeiten, ein Unter-Ensemble zur Sequenzierung, das respektive an einem ersten und zweiten Eingang den initialen Labelsatz erhält, der am Ende der besagten initialen Segmentierung erhalten wurde, und den Labelsatz, der aus der Aktualisierung hervorgeht, und das in Serie enthält:
  • (1) Eine Vergleichsschaltung der besagten Labelsätze;
  • (2) je nach dem Ergebnis des besagten Vergleichs, eine Schaltung zum Anhalten des Segmentierverfahrens oder, im Gegensatz, für eine neue Aktualisierung, zum Ersetzen des initialen Labelsatz durch den besagten aktualisierten Labelsatz, wobei der aktualisierte Labelsatz zum Eingang des besagten ersten und zweiten Wegs geleitet wird.
  • In einer vorgezogenen Durchführungsform enthält das besagte diskrete Ensemble unimodale Daten, und das Unter-Ensemble zur initialen Segmentierung, das die besagten Eingangssignale erhält, enthält in Serie:
  • (1) Eine Schaltung für den Histogrammauszug der von diesen Eingangssignalen formulierten Größenordnung, die respektive jedem Punkt des besagten Ensembles entsprechen;
  • (2) eine Schaltung zur Berechnung, ausgehend von dem besagten Histogramm, der Durchschnitte über T Klassen entsprechend T Charakteristiken des besagten zuvor ausgewählten diskreten Ensembles, wobei die besagte zuvor bestimmte Zahl T der besagten Rechenschaltung zugeführt wird;
  • (3) eine Schaltung zur Klassifizierung, durch die Suche für alle Punkte des besagten diskreten Ensembles, des der T berechneten Durchschnitte, der dem Rang jedes Signals am ehesten entspricht, und zur entsprechenden Gruppierung der besagten Punkte, wobei die Klassifizierschaltung Labels zur Anzeige der Klassen abgibt, der jeder Punkt am Ende der besagten initialen Segmentierung zugehört.
  • In einer anderen Durchführungsform enthält das besagte diskrete Ensemble mulitmodale Daten, für die die numerischen Eingangssignale, die den besagten Daten entsprechen, in C Kanäle gruppiert werden, und das besagte Unter-Ensemble zur initialen Segmentierung, das die besagten Eingangsdaten erhält, enthält in Serie:
  • (1) Eine Stufe zur unimodalen Segmentierung, die unter den besagten Eingangssignalen die Signale erhält, die mit den M · N Daten verknüpft sind, die einem der C Kanäle entsprechen, und die in Serie enthält:
  • (a) Eine Schaltung für den Histogrammauszug der von diesen Eingangssignalen formulierten Größenordnung, die respektive jedem Punkt des besagten Ensembles entsprechen;
  • (b) eine Schaltung zur Berechnung, ausgehend von dem besagten Histogramm, der Durchschnitte über T Klassen entsprechend T Charakteristiken des besagten zuvor ausgewählten diskreten Ensembles, wobei die besagte zuvor bestimmte Anzahl T der besagten Rechenschaltung zugeführt wird;
  • (c) eine Schaltung zur Klassifizierung, durch die Suche für alle Punkte des besagten diskreten Ensembles, des der T berechneten Durchschnitte, der dem Rang jedes Signals, verknüpft mit dem Datenwert jedes Punktes, am ehesten entspricht, und dann zur entsprechenden Gruppierung der besagten Punkte, wobei die Klassifizierschaltung Labels zur Anzeige der Klassen abgibt, der jeder Punkt am Ende der besagten initialen Segmentierung zugehört;
  • (2) ein Unter-Ensemble zur Aktualisierung der besagten unimodalen Segmentierung, das in Serie enthält:
  • (a) eine Schaltung zur Aktualisierung der besagten Berechnung der Durchschnitte über die T Klassen, die einerseits die Ausgangssignale der besagten Klassifizierschaltung und andererseits die Signale erhält, die mit den M · N · (C-1) anderen Daten verknüpft sind, die den (C-1) anderen Kanälen entsprechen;
  • (b) eine Schaltung zur Aktualisierung der besagten Klassifizierung, die Labels zur Anzeige der Klassen abgibt, der jeder Punkt des besagten diskreten Ensembles am Ende der besagten initialen Segmentierung zugehört.
  • Nach einer vorgezogenen Durchführungsform der Anordnung werden die "Varianz"-Parameter mit folgendem Ausdruck gegeben:
  • V²q, j = Σ(s/l(s) = q) (xs, j - M2q,j)²/Nq
  • wobei j = 1 bis C den Kanalindex, xs,j die besagte Rangordnung über den Kanal j, an einer bestimmten Stelle s festgestellt, l(s) das dieser Stelle s zugeteilte Label, M2q,P die Durchschnitte über jeden Kanal j, unabhängig, und Nq die Gesamtzahl Stellen bezeichnet, denen das Label q zugeteilt ist.
  • Nach einer Durchführungsvariante der Anordnung sind die "Varianz"- Parameter die Elemente der Matrix der Kovarianzen über die verschiedenen Kanäle, durch folgenden Ausdruck gegeben:
  • Vq,j1,j2 = Σ(s/l(s) = q) (xs,j1 - M2qj1)(xsj1 - M2q,j2)/Nq
  • wobei j1,j2 die Indizes der beiden betroffenen Kanäle, xs,j die besagte Rangordnung über den Kanal j, an einer bestimmten Stelle s festgestellt, l(x) das dieser Stelle s zugeteilte Label, M2q,j die Durchschnitte über jeden Kanal j, unabhängig betrachtet, und Nq die Gesamtzahl Stellen bezeichnet, denen das Label q zugeteilt ist.
  • Im einen oder anderen Fall besteht eine vorteilhafte Disposition in dieser Anordnung darin, das Zurückleiten des Ausgangs des Unter-Ensembles zur Aktualisierung der unimodalen Segmentierung zu seinem Eingang vorzusehen, um eine neue Klassifizierung vorzunehmen, bis zur Unterbrechung dieses iterativen Vorgangs nach einem bestimmten Konvergenzkriterium.
  • Ungeachtet der Durchführungsform dieser betroffenen Anordnung wird in einer vorgezogenen Durchführungsform der Erfindung auf jeden Fall vorgesehen, daß das Unter-Ensemble zur Etikettierung in Serie enthält:
  • (1) Einen Speicher der bedingten Wahrscheinlichkeiten, vom besagten ersten und zweiten Weg abgegeben, und der bestimmten Zwischenwahrscheinlichkeiten, intern zum besagten Unter-Ensemble zur Etikettierung bestimmt;
  • (2) eine Schaltung zur Berechnung gleicher oder proportionaler Größen zu den marginalen Wahrscheinlichkeiten jedes Labels für jede Stelle, wobei die besagte Berechnung in folgenden Schritten vorgenommen wird, für alle möglichen q, a, b, c:
  • (a) Man definiert Fm.q als die bedingte Wahrscheinlichkeit, p(q/Xmm) an der Stelle (m, n) ein Label q zu haben, wobei der Verweis Xmm alle über und links der Stelle (m, n) gelegenen Stellen bezeichnet;
  • (b) für jedes b prüft man den Wert F = Fm-1.n-1(b), um es nur zu berücksichtigen, wenn es über einer bestimmten Schwelle liegt;
  • (c) man berechnet dann den Ausdruck:
  • H = Ym-1.n(a, b), Zm.n-1(c, b).p(q/a, b, c).pq(xmn)/F
  • wobei: Ym-1.n(a, b) = p(a, b/Xm-1.n)
  • und: Zm.n-1(c, b) = p(c, b/Xm.1-n)
  • und man führt eine mit den Werten H summierte Addition durch, um eine Größe J und eine Größe Lm-1.n-1(b) zu erhalten;
  • (d) man wiederholt die Schritte (b) und (c), bis alle Stellen auf ähnliche Art verarbeitet wurden, wobei der summierte Wert J zu Ym.n(q, c) und zu Zm.n(q, a) hinzugefügt und dann auf Null zurückgestellt wird, und wobei der summierte Wert Lm-1.n- 1(b) die besagte gleiche oder proportionale Größe zur marginalen Wahrscheinlichkeit des Labels b an der Stelle (m-1.n-1) bildet;
  • (e) man wiederholt die Schritte (b) bis (d), bis alle Kombinationen (q, a, c) auf ähnliche Art verarbeitet wurden;
  • (3) eine Schaltung zur Etikettierung der Stellen, durch den Vergleich der Werte Lm-1.n-1(b) und die Zuteilung an jede Stelle (m-1.n-1) des Labels b, das dem größten Wert (Lm-1.n-1(b) entspricht.
  • Im Falle dieser letzten Durchführungsform besteht eine vorteilhafte Variante darin, daß in der Schaltung zur Berechnung von gleichen oder proportionalen Größen zu den marginalen Wahrscheinlichkeiten jedes Labels für jede Stelle im Schritt (c) ein zusätzlicher Schritt (c2) zur Normalisierung durch Teilung aller Werte von Y und von Z durch eine Norm Nm.n, gleich für alle b, ΣbLm-1.n-1(b), vorgesehen ist.
  • Die Besonderheiten und Vorzüge werden in der folgenden Beschreibung detaillierter hervortreten, sowie anhand der als nicht begrenzende Beispiele gegebenen Zeichnungen, von denen:
  • - die Fig. 1 und 4 zwei Durchführungsbeispiele der Anordnung nach der Erfindung zeigen;
  • - die Fig. 2 ein Beispiel einer Markow-Kette der Ordnung 3, und die Fig. 3 in diesem Fall die verschiedenen möglichen Konfigurationen zeigt, in denen die mit einem Strich verbundenen Pixel, und nur die, identisch sind.
  • Vor der präziseren Beschreibung der Anwendungsbeispiele der Erfindung zur Segmentierung von Bildern wird daran erinnert, daß in solch einer Anwendung die zu segmentierenden Bilder durch Mittel entnommen wurden, die nicht im Rahmen dieser Erfindung liegen und direkt von der Anwendung abhängig sind. Die Bilder können von Satelliten kommen, mit Hilfe von medizinischen Geräten erhalten worden sein etc., sie können auch bereits das Ergebnis einer Vorverarbeitung sein, wie z. B. im Falle gerasterter Bilder, wobei jedem vorverarbeiteten Bild Vektoren entsprechen, die für jede Stelle Rastercharakteristiken aufweisen, zuvor dem Originalbild entnommen. In all diesen Fällen sind diese Bilder am Eingang der beschriebenen Anordnung verfügbar, in der Form von numerischen Signalen. Diese Signale entsprechen in dem in bezug auf Fig. 1 beschriebenen Beispiel unimodalen Daten, und in dem in bezug auf Fig. 4 beschriebenen Beispiel multimodalen Daten, gruppiert in C Kanäle mit der Bezeichnung j = 1, 2..., C.
  • In der Sequenz aufeinanderfolgender Bilder ist jedes numerische Bild hier mit Hilfe eines zweidimensionalen Netzes von Koordinatenpunkten (x, y) oder Stellen s (m, n) definiert, mit m = I bis M und n = 1 bis N, verknüpft mit den sogenannten beobachtbare Vektoren I(x, y), quantifiziert, für die Komponente j jedes Vektors, über Vj unterschiedliche Werte (z. B. 0 für den oder die dunkelsten Punkte bis 255 für die hellsten Punkte), mit allgemein regelmäßigen Abständen und zugehörig zu einem Ensemble Gj = g&sub1;, g&sub2;, g&sub3;, ..., gvj. Die Segmentierung solcher Bilder besteht in den darin zu definierenden Regionen, entweder durch die Reduzierung der Anzahl Quantifizierungswerte der beobachtbaren Vektoren mit Hilfe einer Transformationstechnik, die unter den initialen Daten die redundanten Daten entfernt, um nur die wesentlichen Daten zu behalten, oder, im Falle von Rastern, durch die Unterteilung der Bilder in räumlich kohärente Regionen nach bestimmten Homogenitätskriterien.
  • Zur Berücksichtigung des mathematischen Formalismus, der allgemein angewandt wird, wenn man eine Modellbildung pro Markow-Feld verwendet (an die Theorien dieser Modellbildung an sich wird weiter unten in dieser Beschreibung erinnert), wird im Verlauf dieser Beschreibung vorausgesetzt, daß jedes Bild X der Sequenz der Eingangsbilder mit einem Ensemble S von Stellen verknüpft ist, das der Lokalisierung jedes Pixels entspricht. Jede Stelle i gehört zu diesem Ensemble S, das M Zeilen · N Spalten enthält.
  • Die Segmentierung eines Bildes besteht in der Verknüpfung jedes Pixels mit einem Etikett oder Label, das man mit l(m, n) bezeichnet, wobei m und n respektive die laufende Zeile und die laufende Spalte des betrachteten Pixels, und folglich eine bestimmte, mit diesem Pixel verknüpfte Stelle bezeichnen. Diese Labels ermöglichen die Klassifizierung jedes Pixels in eine bestimmte Region des Bildes, auf der Grundlage einer (mehrerer) besonderer Eigenschaft(en), für die betrachtete Region als gemeinsam erkannt. Hiermit versteht sich folglich, daß diese Labels nicht direkt beobachtbar oder meßbar von den das Bild darstellenden Eingangssignalen sind, und man sie folglich bestimmen muß. Im Rahmen der vorliegenden Erfindung muß die Anzahl Klassen, z. B. T bezeichnet, für den Anwender vordefiniert werden, wobei T eine willkürliche Ganzzahl ist. Im Falle z. B. einer Klassifizierung von Gebieten ausgehend von per Satellit gelieferten Bildern wird man dazu neigen, T als eine Zahl von verschiedenen, a priori bekannten Geländetypen zu definierten. Auf ähnliche Art wird man bei medizinischen Bildaufzeichnungen die Anzahl in dem auf dem Bild dargestellten Körperteil vorhandenen Gewebetypen wählen.
  • Bei einem ersten Durchführungsbeispiel, auf der Fig. 1 dargestellt, das einer Segmentierung ausgehend von numerischen unimodalen Daten entspricht (d. h. beobachtbare unimodale Vektordaten I(x, y)), enthält die Segmentieranordnung nach der Erfindung zuerst ein Unter-Ensemble zur initialen Segmentierung 100. Dieses Unter- Ensemble 100, das die numerischen Signale erhält, die für jedes zu segmentierende Bild bezeichnend sind, enthält in Serie eine Schaltung 11 für den Histogrammauszug der beobachtbaren Werte I(x, y), eine Schaltung 12 zur Berechnung der Durchschnitte über T Klassen entsprechend T für die Segmentierung ausgewählten Bildcharakteristiken und eine Schaltung 13 zur Klassifizierung.
  • Die Umsetzung dieses Unter-Ensembles 100 ist folgende. Unter Berücksichtigung der Bedeutung der gesuchten Segmentierung in der betrachteten Anwendung wird eine gewisse Zahl T Klassen entsprechend T bestimmten Charakteristiken gesucht, z. B. T entsprechende Klassen im Falle von über Satelliten kommenden Bildern von Wäldern, Feldern, Seen etc., oder im Falle von medizinischen Bildern mit verschiedenen körperlichen Gewebetypen (in der folgenden Beschreibung wird das Beispiel T = 8 genommen). Das Histogramm der beobachtbaren Daten I(x, y), mit Hilfe der Schaltung 11 entnommen, wird der Schaltung 12 durchgeführt, die es folgendermaßen in 2T unterteilt: Man teilt das Histogramm in T Zonen gleicher Fläche, dann bestimmt man in jeder dieser T Zonen ihren Durchschnitt M1(T). Dieses Ensemble der Unterteilung kommt tatsächlich dem gleich, das Histogramm in 2T Zonen gleicher Fläche zu teilen, begrenzt durch (2T+1) beobachtbare Werte g(0), g(1), g(2), ..., g(2T-1), g(2T), und die Werte g(1), g(3), ..., g(2T-3), g(2T-1) als Durchschnittswerte zu nehmen.
  • Nach der Bestimmung dieser T Durchschnitte sucht die Klassifizierschaltung 13, die die Ausgangssignale der Schaltung 12 und die (M · N) numerischen Signale der Anordnung erhält, für jedes Pixel (der Stelle i) des Bildes den am nächsten liegenden Durchschnitt. Dafür nimmt die Schaltung 13 die Bestimmung der Größe g(x) - M1(T) vor. In diesem Ausdruck ist g(x) der mit dem betrachteten Pixel verbundene quantifizierte Wert, M1(T) nimmt nach und nach die T möglichen Werte (hier T = 8 betrachtete Klassen), und das jedem Pixel entsprechende Label wird hier mit l(CL) bezeichnet, wobei der Index CL T verschiedene Werte annehmen kann. Dieses Label l(CL), für jedes Pixel des Bildes bestimmt, definiert eine erste Segmentierung des Bildes, hier initiale Segmentierung genannt. Die M · N so definierten Label bilden die (M · N) Ausgangssignale des Unter-Ensembles zur initialen Segmentierung 100.
  • Dieses Unter-Ensemble 100 wird von einem Unter-Ensemble 200 zur Aktualisierung gefolgt, das einerseits die (M · N) Eingangssignale der Anordnung und andererseits die (M · N) vom Unter-Ensemble 100 gelieferten Labels erhält, und gibt, wie man später sehen wird, die respektiven bedingten Wahrscheinlichkeiten p(q/abc) und pq(x) ab. Dafür enthält dieses Unter-Ensemble 200 parallel einen ersten und zweiten Weg 201 und 202 zur Bestimmung dieser bedingten Wahrscheinlichkeiten, und die besagte Bestimmung wird wie jetzt gezeigt durchgeführt.
  • Wenn man in einem Bild nach einer beliebigen Stelle s das Ensemble der Stellen geringeren Indizes benennt (d. h., mit z. B. einer Bildabtastung vom Fernsehtyp, das von den bereits abgetasteten Stellen auf derselben Zeile wie die Stelle s gebildete Ensemble und die Stellen aller darüberliegenden Zeilen), wird die Wahrscheinlichkeitsdichte, verbunden mit dem Ensemble L der möglichen Labels l in der Form eines Produktes von (an allen Stellen vorgenommenen) Wahrscheinlichkeiten ausgedrückt, das Label l(s) an der Stelle s = (m, n) zu haben, wobei die besagten Wahrscheinlichkeiten bedingt nach dieser Stelle liegen. Die Eigenschaft eines sogenannten unilateralen Markow-Feldes konkretisiert sich folgendermaßen: Diese bedingten Wahrscheinlichkeiten (oder Transitionswahrscheinlichkeiten) hängen nicht von allen Labels nach dieser Stelle ab, sondern nur der Labels einer begrenzten Norm der danach zugehörigen Stellen. Diese begrenzte Anzahl Stellen mit der Bezeichnung Unter-Ensemble der Eltern von s definiert die Ordnung des so gebildeten Markow-Feldes, und die Stelle s selbst wird folglich die Stelle des Kindes seiner Eltern benannt.
  • Bei den in der vorliegenden Beschreibung aufgeführten Durchführungsbeispielen wird nur ein Modell der Ordnung 3 Beschrieben, d. h., daß die Wahrscheinlichkeit p(l(m, n)) zum Erhalt eines Labels l(m, n) an einer Stelle i(m, n) am Schnittpunkt der m-ten Zeile und der n-ten Spalte nur von den Wahrscheinlichkeiten abhängt, die auf ähnliche Art bestimmt sind für die Stellen i(m-1, n), i(m-1, n-1), i(m, n-1), mit m und n größer als 1. Die Fig. 2 zeigt ein solches Modell der Ordnung 3: Zur Vereinfachung der Bezeichnungen benennt q das Label der Stelle i (oder "Kind"-Stelle), und a, b, c die Labels der drei anderen "Eltern"-Stellen. Mit solch einem Beispiel der Ordnung 3 und in dem Fall, daß alle bedingten Wahrscheinlichkeiten nicht Null vorausgesetzt werden, kann der Ausdruck der bedingten (oder transitorischen) Wahrscheinlichkeit in Exponentialform geschrieben werden, mit Hilfe einer Funktion (oder eines Operators) L(q/abc). L wird als Propagator bezeichnet, denn dieser Operator propagiert einen Einfluß der Eltern auf die Kinder. Man schreibt dann:
  • p(q/a, b, c) = exp L(q/a, b, c)/Z(a, b, c) (1)
  • Der Nenner Z ist ein einfacher Normalisierungsfaktor:
  • Z(a, b, c) = exp L(u/a, b, c) (2)
  • die Summe Σ über u wird über die T Werte der Labels durchgeführt. So ermöglicht Z es, die Normalisierungsbedingung zu versichern (tatsächlich muß für alle Stellen die Gleichheit Σu P(u/a, b, c) = 1 geprüft werden). Bei dem so gemachten Ansatz wird der Propagator L/q/a, b, c) mit folgendem Ausdruck (3) definiert:
  • L(q/a, b, c) = B(v).d(q, a) + B(d).d(q, b).+ B(h).d(q, c) + B(v, d).d(q, a, b) + B(d, h).d(q, b, c) + B(v, h).d(q, a, c) + B(v, d, h).d(q, a, b, c) (3)
  • In diesem Ausdruck bezeichnen v, d, h respektive die vertikale, diagonale oder horizontale Elternstelle der Kinderstelle i, wobei die B(.) unabhängige Parameter zur Bildung der sogenannten Propagationskoeffizienten und die d(.) gleich 1 sind, wenn die den Indizes in Klammern entsprechenden Labels identisch sind, oder ansonsten gleich 0. In dem so definierten Propagator charakterisieren die sieben Werte B(.), die die Parameter des Markow-Modells darstellen, die Tendenz einer Kinderstelle, dasselbe Label zugeteilt zu bekommen wie seine Eltern: Folglich hat die Kinderstelle, wenn z. B. die Konstante B(v) positiv und groß ist, eine starke Tendenz, dasselbe Label wie sein vertikaler Elternteil zu haben.
  • Die Kenntnis der Wahrscheinlichkeit p(q/a, b, c) hängt folglich von der des Propagators L ab, d. h. von der der Parameter B(.). Man kann folglich aufzeigen, daß die Kenntnis dieser Parameter selbst von der der Wahrscheinlichkeiten der Konfiguration im Innern des Modells der so gewählten (auf Fig. 2 dargestellten) Markow-Kette abhängt. Diese Konfigurationswahrscheinlichkeiten schreiben sich jeweils S(1234), S(1233), S(1232), S(1231), S(1223), S(1222), S(1221), S(1213), S(1212), S(1211), S(1123), S(1122), S(1121), S(1112), S(1111). Die Bedeutung dieser Größen S(.) im Falle des Modells der Fig. 2 wird auf der Fig. 3 gezeigt, die mit jeder Konfigurationswahrscheinlichkeit S(.) die Darstellung der entsprechenden Konfiguration verbindet, d. h. diejenige, für die die mit einem Strich verbundenen Pixel, und nur diese, identisch sind. Diese Konfigurationswahrscheinlichkeiten werden durch einfaches Zählen bestimmt, wieviel mal in dem betreffenden Bild eine bestimmte Konfiguration auftritt.
  • Dieses Zählen wird im ersten Weg 201 vorgenommen, der zu diesem Zweck eine Bestimmungsschaltung 211 dieser Konfigurationswahrscheinlichkeiten S(.) im segmentierten Bild enthält, am Ausgang des Unter-Ensembles 510 vorhanden. Diese Schaltung 211 wird von einer Schaltung 212 zur Berechnung der Propagationskoeffizienten B(.) gefolgt. Weiter oben sah man, daß die Kenntnis dieser Koeffizienten von der der Wahrscheinlichkeiten S(.) abhängt. Ohne die genaue Erläuterung dieser gesamten Überlegungen, um diese Abhängigkeit aufzustellen, geben wir hier nur die Relationen (4) bis (14), die die B(.) und die S(.) verbinden und die, im Falle die Zahl T größer oder gleich 4 ist, folgende sind:
  • exp B(v) = k.S(1123) (4)
  • exp B(d) = k.S(1213) (5)
  • exp B(h) = k.S(1231) (6)
  • exp B(v, d) = c(v, d).(exp.B(h) + T-2).exp (B(v) + B(d)) (7)
  • exp B(v, h) = c(v, h).(exp.B(d) + T-2).exp (B(v) + B(h)) (8)
  • exp B(d, h) = c(d, h).(exp.B(v) + T-2).exp (B(d) + B(h)) (9)
  • C(v, d) = S(1112)/(S(1221) + S(1223)) (11)
  • C(v, h) = S(1121)/(S(1212) + S(1232)) (12)
  • C(d, h) = S(1211)/(S(1122) + S(1233)) (13)
  • k = (T-3)/S(1234) (14)
  • Im Falle T = 3 bleiben die Gleichungen (4) bis (14) geprüft, doch der Wert k ist willkürlich (jeder Wert von k ergibt denselben Wert von L(q/a, b, c) und führt folglich zu einer identischen Segmentierung). Man kann k z. B. wählen wie B(v) + B(d) + B(h) = 0, was voraussetzt, daß k die Kubikwurzel von (1/S(1123) · S(1213) · S(1231) hat, doch auch jede andere Wahl von k ist geeignet. Ebenso ergibt, im Falle T = 2, jeder Wert von k dieselben Werte L(q/a, b, c), und folglich identische Segmentierungen. Nach den so bestimmten Koeffizienten B(.) bestimmt eine in Serie mit den Schaltungen 211 und 212 vorgesehene Schaltung 213 gemäß dem Ausdruck (1) die bedingte Wahrscheinlichkeit (oder Transition) p(q/a, b, c).
  • Der zweite Weg 202 erhält, wie der erste, die (M · N Labels vom Ausgang des Unter-Ensembles 100 und liefert sie an eine Schaltung 221 zur Berechnung der Klassenparameter (hier die Durchschnitte und Varianzen.) Tatsächlich führte die Schaltung 12 eine erste Berechnung der Durchschnitte über T Klassen durch, doch diese Klassen waren für die Initialisierung der Funktionsweise der Segmentieranordnung willkürlich gewählt, durch Teilung des Histogramms der beobachtbaren Werte in T Zonen. Diese initiale willkürliche Segmentierung wird jetzt am Ausgang des Unter-Ensembles 100 durch eine Segmentierung ersetzt, das nunmehr zumindest annähernd einem Klassifizierkriterium entspricht, und es ist folglich möglich, eine neue Berechnung der Parameter für jede der T Klassen vorzunehmen, die den T für die Pixel möglichen Labels entsprechen, und genauer eine neue Berechnung des Durchschnitts, M2(T) bezeichnet, sowie die Berechnung der entsprechenden (ins Quadrat erhobenen) Varianz, V2(T) bezeichnet. Die T so berechneten Werte M2(T) und V2(T) sind die 2T Signale am Ausgang der Schaltung 221.
  • Diese 2T Signale werden an eine Schaltung 222 geführt, zur Bestimmung der bedingten Wahrscheinlichkeit eines Grautons x für ein Label q, an einer Stelle i festgestellt. Tatsächlich weiß man, das die Schlußsegmentierung in Einklang mit den initialen Daten sein muß, die aus einer Beobachtung oder einer Messung ergehen. Im Falle von beobachtbaren unimodalen Daten I(x, y) wird diese pq(x) bezeichnete bedingte Wahrscheinlichkeit für jede Klasse durch folgenden Ausdruck (15) gegeben:
  • Die bedingten Ausgangswahrscheinlichkeiten der beiden Wege 201 und 202, am Ausgang der Schaltungen 213 und 222 vorhanden, bilden die beiden Ausgangssignaltypen des Unter-Ensembles 200 zur Aktualisierung der Wahrscheinlichkeiten, und werden dann an zwei entsprechende Eingänge eines Unter- Ensembles 300 zur Etikettierung der Pixels geleitet. Dieses Unter-Ensemble 300 erhält zugleich an einem dritten Eingang die (M · N) numerischen Eingangssignale der Anordnung und bestimmt die sogenannten marginalen Wahrscheinlichkeiten, anhand derer wiederum die neuen Labels 2 bestimmt werden, die eine neue Bildsegmentierung definieren. Diese marginalen Wahrscheinlichkeiten werden wie nachstehend in der Funktionsbeschreibung des Unter-Ensembles 300 gezeigt bestimmt.
  • Man erinnere jedoch zuvor an einige Bezeichnungen. Die momentan verarbeitete Stelle ist die Stelle (m, n), mit m einschließlich zwischen 1 und M und n zwischen einschließlich 1 und N enthalten. Der Teil des Bildes, der über und links der Stelle (m, n) liegt, wird Xmn bezeichnet. Die bedingte Wahrscheinlichkeit p(q/xmn) an der Stelle (m, n) das Label q zu haben, wird Fmn(q) bezeichnet. Schließlich bezeichnet man p(q, a, b, c/Xmn) die gesuchte marginale Wahrscheinlichkeit, die Labels (oder Etikette) l m.n = q, lm-1.n = a, lm-1.n-1 = b, lm.n-1 = c an den entsprechenden Stellen zu haben.
  • Die Bestimmung von p(q, a, bc, /Xmn) für jede Stelle wird, wie jetzt erläutert, in dem Unter-Ensemble 300 durchgeführt, wobei die für dieses Unter-Ensemble verwendeten Daten folgende sind: Die bedingten Wahrscheinlichkeiten pq(x), vom Weg 202 abgegeben (für die das Ensemble der x für jede Stelle m, n dem Ensemble der beobachtbaren Daten I entspricht), die bedingten Wahrscheinlichkeiten p(q/a, b, c), vom Weg 201 abgegeben, sowie folgende Wahrscheinlichkeiten:
  • Ym-n.1(a, b) = P(a, b/Xm-1.n) und Zm.n-1(c, b) = p(c.b/Xm.n-1),
  • bestimmt für alle möglichen q, a, b, c und auf interne Weise zum Unter-Ensemble 300. Alle diese Wahrscheinlichkeiten werden im Speicher 301 abgelegt.
  • Eine am Ausgang dieses Speichers gelegene Rechenschaltung 302 nimmt dann für alle möglichen q, a, b, c die folgenden Bestimmungen vor, in den nacheinander aufgezählten Schritten:
  • (1) Für jedes b prüft man den Wert F = Fm-1.n-1(b), der nicht berücksichtigt wird, wenn er unter einer bestimmten Schwelle liegt, z. B. 10&supmin;&sup8;;
  • (2) wenn im Gegenteil dieser Wert die besagte Schwelle übersteigt, berechnet man eine Größe H, Hmn(q, a, b, c) bezeichnet, nach dem Ausdruck (16):
  • H = Ym-1.n(a, b).Zm.n-1(c, b).p(q/a, b, c).pq(xmn)/F (16)
  • F wurde soeben definiert, und die Y und Z wurden zuvor auf Null initialisiert (und dann - wie weiter unter erläutert - für die erste Zeile und die erste Spalte auf besondere Art berechnet);
  • (3) dieser Wert H wird mit einer Größe J addiert, auf Null initialisiert (diese Addition ist tatsächlich eine summierte Addition der Werte von H) und einer Größe Lm-1.n- 1(b) (ebenfalls auf Null initialisiert), gleich oder proportional zur marginalen Wahrscheinlichkeit des Labels b an der Stelle (m-1.n-1), gemäß dem Ausdruck (17):
  • Lm-1.n-1(b) = Σqnc Hmn (q, a, b, c) (17)
  • dann wiederholt man Schritt (1), solange nicht alle b auf ähnliche Art verarbeitet wurden;
  • (4) der so erhaltene Wert für J wird Ym.n(q, c) und Zm.n(q, a) zugefügt;
  • (5) nach dem Stellen von j auf Null wiederholt man die Schritte (1) bis (4), solange nicht alle Kombinationen (q, a, c) auf ähnliche Art verarbeitet wurden.
  • Wenn alle Kombinationen (q, a, c) tatsächlich berücksichtigt wurden, liefert die Rechenschaltung 302 für alle diese Kombinationen die Größen Lm-1.n-1(b), Ym.n(qc), Zm.n(qa). Um zu vermeiden, daß die im Speicher beibehaltenen Variablen für eine präzise numerische Verarbeitung nicht zu klein werden, nimmt man eine Normalisierungsoperation vor, die im vorliegenden Fall darin besteht, eine Norm Nm.n zu bestimmen, definiert als Summe der Größen Lm-1.n-1(b) für alle b, und alle Größen Ym.n(qc) und Zm.n(qa) durch diese Norm Nm.n zu teilen. Dann leitet man von der Schaltung 302 zum Speicher 301 die normalisierten Werte zurück, die für die späteren Berechnungen erforderlich sind. Wie man weiter oben sah, werden die Wahrscheinlichkeiten Y und Z intern zum Unter-Ensemble 300 verwendet, für die Berechnung von H nach dem Ausdruck (16), während die Werte von Lm-1.n-1(b) die Ausgangssignale der Rechenschaltung bilden.
  • Diese Schaltung 302, die folglich die gleichen oder proportionalen Größen zu den marginalen Wahrscheinlichkeiten jedes Labels für jede Stelle berechnet hat, wird dann von einer Schaltung 303 zur Etikettierung der Stellen gefolgt (außer den Stellen der. ersten und letzten Zeile und der ersten und letzten Spalte, die besonders verarbeitet werden, wie weiter unten beschrieben). Diese Etikettierung der Stellen wird mit dem Vergleich der Werte von Lm-1.n1(b) und der Zuteilung zur Stelle (m-1, n-1) des Labels b vorgenommen, das dem größten Wert L entspricht.
  • Im Falle einer Stelle der ersten Zeile oder der ersten Spalte wird keine Etikettierung durchgeführt, sondern man füllt einfach nach und nach den Speicher 301 (wie hiernach erläutert) mit den erforderlichen Werten für die Verarbeitung der Zeilen und Spalten. Für die erste Stelle (1, 1) wird die Wahrscheinlichkeit zur Zuteilung der Labels nach der Normalisierung gegeben durch:
  • F1.1(q) = pq(1.1)/Σqpq(x1.1) (18)
  • Ausdruck, in dem Pq(x1.1) für alle Labels gleich ist. Dieser Wert F1.1(q) wird im Speicher 301 gespeichert.
  • Für die Verarbeitung der Stellen der ersten Zeile berechnet man die F1.n(q) anhand folgender Ausdrücke (19) bis (20):
  • F'1.n(q) = Σc Y1.n(q, c) (19)
  • oder: F'1.n(q) = Σc F1.n-1(c). phor (q/c). pq(x1.n) (20)
  • Ausdruck (20), in dem phor(q/c), berechnet im ersten Weg 201, gegeben wird durch:
  • phor(q/c) = exp((B(h).d(q, c)) - log(exp.B(h)+T-1)) (21)
  • Diese Berechnung wird, wie zuvor, von einer Normalisierung gefolgt (Teilung durch N1.n = Σq F' 1.n(q)), die schließlich führt zu:
  • F1.nq = F'1.n(q)/Σq F'1.n(q) (22)
  • Für die Verarbeitung der Stellen der ersten Zeile berechnet man auf ähnliche Art die Fm.1(q) anhand folgender Ausdrücke (23) bis (24):
  • F'm.1(q) = Σa Zm.1 (q, c) (23)
  • oder: F'm.1(q) = Σq Fm-1.1(a).pver (q/a).pq(xm.1) (24)
  • Ausdruck (24), in dem pver(q/a), ebenfalls berechnet im ersten Weg 210, gegeben wird durch:
  • pver(q/a) = exp((B(v).d(q, a)) - log(exp.B(v)+T-1)) (25)
  • Auch diese Berechnung wird von einer Normalisierung gefolgt, die schließlich führt zu:
  • Fm.1 q = F'm.1(q)/Σq F'm.1 (q) (26)
  • Die Werte von Y, Z, F werden nach und nach im Speicher 310 behalten, um die späteren Berechnungen zu ermöglichen.
  • Im Falle einer Stelle der letzten Spalte (n = N), bewertet die Rechenschaltung 302 Lm-1.n(a) = Σq Zm.n(qa), und das Label, das Lm-1.n maximal macht, wird der Stelle (m-1, N) zugeteilt. Ebenso bewertet im Falle einer letzten Zeile (m = M) die Rechenschaltung 302 Lm-1.n(c) = Σq Ym.n(qc), und das Label, das Lm.n-1 maximal macht, wird der Stelle (M, n-1) zugeteilt. Für die Stelle (M, N) bewertet die Schaltung 302 Lm.n(q) = Fm.nq, und das Label, das Lm.n maximal macht, wird der Stelle (M, N) zugeteilt. Der gesamte der von Schaltung 303 so zugeteilte veränderte Labelsatz bildet eine Aktualisierung des initialen Labelsatzes.
  • Ein Unter-Ensemble zur Segmentierung 400 erhält dann am ersten und zweiten Eingang den besagten initialen Labelsatz und den aus der Aktualisierung ergehenden veränderten Labelsatz, und man macht zuerst den Vergleich in einer Vergleichsschaltung 410. Je nachdem, ob sich die Labels um mehr als eine bestimmte Zahl Pixel (z. B. 40) unterscheiden oder nicht, steuert eine der Steuerschaltung 410 nachfolgende Schaltung 420 das Anhalten des Segmentiervorgangs (und der aktualisierte Labelsatz wird definitiv ausgewählt), oder dagegen den Austausch, am Eingang der beiden Wege 201 und 202, des initialen Labelsatzes mit dem besagten aktualisierten Labelsatz. Wenn ein Austausch stattfindet, findet eine neue Umsetzung der Unter-Ensembles 200 bis 400 statt. Wenn dieser Vorgang dagegen angehalten wird, ist die Umsetzung der Segmentieranordnung nach der Erfindung beendet, und der so gewählte Labelsatz bildet die definitiven Ausgangssignale dieser Segmentieranordnung.
  • Selbstverständlich ist die Erfindung nicht auf dieses Durchführungsbeispiel begrenzt, anhand von dem Varianten vorgeschlagen werden können, ohne dafür den Rahmen dieser Erfindung zu verlassen. Insbesondere bei einem zweiten Durchführungsbeispiel, auf Fig. 4 dargestellt, das einer Segmentierung anhand von numerischen multimodalen Daten entspricht (d. h. Vektoren von beobachtbaren multimodalen Daten I(x, y), enthält die Segmentiereinrichtung nach der Erfindung hier zuerst ein Unter-Ensemble zur initialen Segmentierung 510. Dieses Unter-Ensemble 510, das die besagten numerischen Daten erhält, enthält eine Stufe 101 zur unimodalen Segmentierung, die unter den M · N · C Eingangsdaten die M · N Daten erhält, die einem einzigen der Kanäle entsprechen. Diese Stufe 101 enthält wiederum in Serie genau dieselben Elemente wie das Unter-Ensemble zur initialen Segmentierung 100, d. h. eine Schaltung 11 für den Auszug des Histogramms der besagen M · N Daten, eine Schaltung 12 zur Berechnung der Durchschnitte über T Klassen entsprechend zu T für die Segmentierung ausgewählten Bildcharakteristiken und eine Schaltung 13 zur Klassifizierung. Die Umsetzung dieser Stufe 101 ist dieselbe wie die des Unter-Ensembles 100 der Fig. 1, und die M · N bestimmten Labels l(CL), die die (M · N) Ausgangssignale der Segmentierstufe 101 bilden, definieren eine erste unimodale Segmentierung des Bildes.
  • Bei einer ersten Durchführung bildet diese Segmentierung den Ausgang der Stufe 510 (diese Situation ist auf Fig. 4 mit Hilfe der gestrichelten Verbindung am Ausgang der Schaltung 13 dargestellt). Bei einer zweiten Durchführung wird die Stufe 101 in Serie von einem Unter-Ensemble zur Aktualisierung dieser unimodalen Segmentierung gefolgt, das in Serie eine Schaltung 514 zur Aktualisierung der von der Schaltung 12 vorgenommenen Durchschittsberechnung und eine Schaltung 515 zur Aktualisierung der von der Schaltung 13 vorgenommenen Klassifizierung enthält. Die Schaltung 514, identisch zu der weiter unten beschriebenen Schaltung 221, erhält einerseits die Ausgangssignale der Klassifizierschaltung 13 und andererseits die mit den M · N · C verknüpften Eingangsdaten. Die darauffolgende Schaltung 515 liefert die Labels, die diejenigen Klassen anzeigen, denen jeder Punkt am Ende der besagten initialen Segmentierung zugehört. Bei der besagten zweiten Durchführung bildet diese Segmentierung den Ausgang der Stufe 510.
  • Eine dritte Durchführung der Stufe 510, die diesmal auf iterative Art arbeitet, sieht vor, wie auf der Fig. 4 gezeigt, den Ausgang des Unter-Ensembles zur Aktualisierung der unimodalen Segmentierung an seinen Eingang (d. h. den Ausgang der Schaltung 515 an den Eingang der Schaltung 514) zu leiten. So ist es möglich, nach der Berechnung der Durchschnittswerte jeder Klasse getrennt (unter Berücksichtigung der dieser Klasse zugehörigen Pixel mit Hilfe der zum Ausdruck (15) äquivalenten Formeln), und dann der Klassifizierung der Pixel des Bildes nach den C Kanälen über ein Kriterium wie das der minimalen Distanz, eine neue Klassifizierung der Pixel zu erhalten. Dieses Verfahren kann wiederholt werden, bis z. B. der Konvergenz zu einem Minimum der Distanz. Diese Segmentierung bildet den Ausgang der Stufe 510 bei seiner dritten Durchführung.
  • Das Unter-Ensemble zur initialen Segmentierung 510 wird in Serie vom einem Unter-Ensemble 200 der Wahrscheinlichkeiten gefolgt, das wie zuvor die Eingangssignale der Anordnung und die (M · N) vom Unter-Ensemble 510 bestimmten Labels erhält und die bedingten Wahrscheinlichkeiten p(q/abc) und pq(x) abgibt. Das Unter- Ensemble 200 enthält, wie im Falle der Fig. 1, den ersten und zweiten Weg 201 und 202, identisch zur bereits beschriebenen Durchführung, außer in bezug auf die Schaltung 221 zur Berechnung der Klassenparameter.
  • In einer ersten Durchführungsvariante berechnet die Schaltung 221 tatsächlich die Durchschnitte und Varianzen über jeden Kanal unabhängig. Die mit M2qj bezeichneten Durchschnitte werden von folgendem Ausdruck (27) gegeben:
  • M2qj = Σ(s/l(s) = q) xs,j/Nq (27)
  • wobei j = 1 bis C den Kanalindex, xs, j die Rangordnung über den Kanal j, an einer bestimmten Stelle s festgestellt, l(s) das dieser Stelle s zugeteilte Label, und Nq die Gesamtzahl Stellen bezeichnet, denen das Label q zugeteilt ist. Die Varianzen V werden durch folgenden Ausdruck (28) gegeben:
  • V2q,j = Σ(s/l(s) = q)(xs,j - M2q,j)²/Nq ((28)
  • In einer anderen Durchführungsvariante enthält der Parametersatz zusätzlich zu den Durchschnitten M2q,j die Elemente der Matrix der Kovarianten über verschiedene Kanäle, von folgendem Ausdruck (29) gegeben:
  • Vq,j1,j2 = Σ(s/l(s) = q) (xs,j1 - M2q,j1) (xs,j1 - M2q,j2)/Nq (29)
  • Bei der einen wie der anderen Variante sind die so berechneten Werte M2 und V wie zuvor die 2T Ausgangssignale der Schaltung 221.
  • Diese Signale werden der Schaltung 222 zur Bestimmung der bedingten Wahrscheinlichkeit zugeführt. Im Falle der ersten Durchführungsvariante der Schaltung 221 wird diese bedingte Wahrscheinlichkeit pq(x) für jede Klasse mit folgendem Ausdruck (30) gegeben:
  • Im Falle der zweiten Durchführungsvariante der Schaltung 221 wird die von der Schaltung 222 gegebene bedingte Wahrscheinlichkeit diesmal für jede Klasse mit folgendem Ausdruck (31) gegeben:
  • Ausdruck (31), in dem bq,j1,2 die umgekehrte Matrix von Vq,j1j2 ist. Im einen wie im anderen Fall bilden die bedingten Wahrscheinlichkeiten am Ausgang der beiden Wege 201 und 202, am Ausgang der Schaltungen 213 und 222 vorhanden, die Ausgangssignale des Unter-Ensembles 200, zu den beiden Eingängen des Unter-Ensembles 300 zur Etikettierung der Pixel geleitet. Dieses Unter-Ensemble 300 und das Unter-Ensemble zur Sequenzierung 400 werden in bezug auf die Durchführung von Fig. 1 nicht verändert.

Claims (8)

1. Anordnung zur Segmentierung eines diskreten Datensatzes, Stellen (m, n) entsprechend, mit m zwischen 1 und M enthalten und n zwischen 1 und N einschließlich, ausgehend von numerischen Eingangssignalen, den besagten Daten entsprechend dadurch gekennzeichnet, daß es in Serie enthält:
(A) Ein Unter-Ensemble (100) zur initialen Segmentierung durch Histogrammauszug, Berechnung der Durchschnitte über T Klassen und Klassifizierung über die Suche (1) für jedes numerische Eingangssignal des Durchschnitts, der dem Rang des besagten Signals am ehesten entspricht;
(B) ein Unter-Ensemble (200) zur Bestimmung und Aktualisierung der Wahrscheinlichkeiten, das einerseits die Labels (2) erhält, die von dem besagten Unter- Ensemble zur initialen Segmentierung bestimmt wurden und andererseits die besagten digitalen Eingangssignale, und das selbst enthält:
(1) Am Ausgang des besagten Unter-Ensembles zur initialen Segmentierung einen ersten Weg (201) zur Bestimmung der bedingten Wahrscheinlichkeiten p(q/a, b, c), der selbst wiederum in Serie enthält:
(a) Eine Schaltung (211) zur Bestimmung der sogenannten Konfigurations-Wahrscheinlichkeiten als Ausdruck der Identität oder Nicht-Identität der Ränge entsprechend jedem der fünfzehn möglichen Konfigurationen im Innern eines zweidimensionalen Modells im Quadrat (q, a, b, c) der Markow-Kette, wobei q in dem besagten zu segmentierenden Ensemble das an der sogenannten "Kind"-Stelle zu bestimmende Label, und a, b, c die Labels der besagten "Eltern"-Stellen benennen;
(b) eine Schaltung (212) zur Berechnung der Propagationskoeffizienten für das so gewählte Modell der Markow-Kette;
(c) eine erste Schaltung (213) zur Bestimmung der bedingten Wahrscheinlichkeit p(q/abc) = exp L(q/abc)Z(abc), wobei Z ein Normalisierungsfaktor und wobei L(q/abc) ein sogenannter Propagationsoperator des Einflusses der Eltern auf die Kinder ist, definiert über die Ausdrücke (3) bis (14):
L(q/a, b, c) = B(v).d(q, a) + B(d).d(q, b). + B(h).d(q, c) + B(v, d). d(q, a, b) + B(d, h). d(q, b, c) + B(v, h). d(q, a, c) + B(v, d, h). d(q, a, b, c) (3)
exp B(v) = k.S(1123) (4)
exp B(d) = k.S(1213) (5)
exp B(h) = k.S(1231) (6)
exp B(v, d) = c(v, d).(exp.B(h) + T-2).exp (B(v) + B(d)) (7)
exp B(v, h) = c(v, h).(exp.B(d) + T-2).exp (B(v) + B(h)) (8)
exp B(d, h) = c(d, h).(exp.B(v) + T-2).exp (B(d) + B(h)) (9)
C(v, d) = S(1112)/(S(1221) + S(1223)) (11)
C(v, h) = S(1121)/(S(1212) + S(1232)) (12)
C(d, h) = S(1211)/(S(1122) + S(1233)) (13)
k = (T-3)/S(1234) (14)
(2) Ebenfalls am Ausgang des Unter-Ensembles (100) zur initialen Segmentierung und parallel zum ersten Weg (201), einen zweiten Weg (202) zur Bestimmung der bedingten Wahrscheinlichkeiten pq(xmn), der selbst wiederum in Serie enthält:
(a) Eine Schaltung (221) zur Berechnung der "Durchschnitts"- Parameter und der "Varianz"-Parameter der besagten T Klassen;
(b) eine zweite Schaltung (222) zur Bestimmung der bedingten Wahrscheinlichkeiten;
(C) am Ausgang des besagten Unter-Ensembles (200) zur Bestimmung und Aktualisierung der Wahrscheinlichkeiten, ein Unter-Ensemble (300) zur Etikettierung der Punkte des besagten Daten-Ensembles, das an einem ersten und zweiten Eingang die Ausgangssignale des besagten ersten und zweiten Wegs und an einem dritten Eingang die besagten numerischen Eingangssignale der Anordnung erhält, wobei die Schaltung vorgesehen ist, um einen neuen Labelsatz abzugeben, der die Aktualisierung der besagten initialen Segmentierung bildet;
(D) Zwischen den beiden Unter-Ensembles (100, 200) zur initialen Segmentierung und der Bestimmung und Aktualisierung von Wahrscheinlichkeiten, ein Unter-Ensemble (400) zur Sequenzierung, das respektive an einem ersten und zweiten Eingang den initialen Labelsatz erhält, der am Ende der besagten initialen Segmentierung erhalten wurde, und den Labelsatz, der aus der Aktualisierung hervorgeht, und das in Serie enthält:
(1) Eine Vergleichsschaltung (410) der besagten Labelsätze;
(2) je nach dem Ergebnis des besagten Vergleichs, eine Schaltung (420) zum Anhalten des Segmentierverfahrens oder, im Gegensatz, für eine neue Aktualisierung, zum Ersetzen des initialen Labelsatz durch den besagten aktualisierten Labelsatz, wobei der aktualisierte Labelsatz zum Eingang des besagten ersten und zweiten Wegs geleitet wird.
2. Anordnung zur Segmentierung nach Anspruch 1, dadurch gekennzeichnet, daß das besagte diskrete Ensemble unimodale Daten enthält, und dadurch, daß das Unter- Ensemble (100) zur initialen Segmentierung, das die besagten Eingangssignale erhält, in Serie enthält:
(1) Eine Schaltung (11) für den Histogrammauszug der von diesen Eingangssignalen formulierten Größenordnung, die respektive jedem Punkt des besagten Ensembles entsprechen;
(2) eine Schaltung (12) zur Berechnung, ausgehend von dem besagten Histogramm, der Durchschnitte über T Klassen entsprechend T Charakteristiken des besagten zuvor ausgewählten diskreten Ensembles, wobei die besagte zuvor bestimmte Zahl T der besagten Rechenschaltung zugeführt wird;
(3) eine Schaltung (13) zur Klassifizierung, durch die Suche für alle Punkte des besagten diskreten Ensembles, des der T berechneten Durchschnitte, der dem Rang jedes Signals am ehesten entspricht, und zur entsprechenden Gruppierung der besagten Punkte, wobei die Klassifizierschaltung Labels zur Anzeige der Klassen abgibt, der jeder Punkt am Ende der besagten initialen Segmentierung zugehört.
3. Anordnung zur Segmentierung nach Anspruch 1, dadurch gekennzeichnet, daß das besagte diskrete Ensemble mulitmodale Daten enthält, für die die numerischen Eingangssignale, die den besagten Daten entsprechen, in C Kanäle gruppiert werden, und dadurch, daß das besagte Unter-Ensemble (510) zur initialen Segmentierung, das die besagten Eingangsdaten erhält, in Serie enthält:
(1) Eine Stufe (101) zur unimodalen Segmentierung, die unter den besagten Eingangssignalen die Signale erhält, die mit den M · N Daten verknüpft sind, die einem der C Kanäle entsprechen, und die in Serie enthält:
(a) Eine Schaltung (11) für den Histogrammauszug der von diesen Eingangssignalen formulierten Größenordnung, die respektive jedem Punkt des besagten Ensembles entsprechen;
(b) eine Schaltung (12) zur Berechnung, ausgehend von dem besagten Histogramm, der Durchschnitte über T Klassen entsprechend T Charakteristiken des besagten zuvor ausgewählten diskreten Ensembles, wobei die besagte zuvor bestimmte Anzahl T der besagten Rechenschaltung zugeführt wird;
(c) eine Schaltung (13) zur Klassifizierung, durch die Suche für alle Punkte des besagten diskreten Ensembles, des der T berechneten Durchschnitte, der dem Rang jedes Signals, verknüpft mit dem Datenwert jedes Punktes, am ehesten entspricht, und dann zur entsprechenden Gruppierung der besagten Punkte, wobei die Klassifizierschaltung Labels zur Anzeige der Klassen abgibt, der jeder Punkt am Ende der besagten initialen Segmentierung zugehört;
(2) ein Unter-Ensemble zur Aktualisierung der besagten unimodalen Segmentierung, das in Serie enthält:
(a) eine Schaltung (514) zur Aktualisierung der besagten Berechnung der Durchschnitte über die T Klassen, die einerseits die Ausgangssignale der besagten Klassifizierschaltung und andererseits die Signale erhält, die mit den M · N · (C- 1) anderen Daten verknüpft sind, die den (C-1) anderen Kanälen entsprechen;
(b) eine Schaltung (515) zur Aktualisierung der besagten Klassifizierung, die Labels zur Anzeige der Klassen abgibt, der jeder Punkt des besagten diskreten Ensembles am Ende der besagten initialen Segmentierung zugehört.
4. Anordnung zur Segmentierung nach Anspruch 3, dadurch gekennzeichnet, daß die "Varianz"-Parameter mit folgendem Ausdruck gegeben werden:
V²q,j = Σ(s/l(s) = q) (xs,j - M2q,i)²/Nq
wobei j = 1 bis C den Kanalindex, xs,j die besagte Rangordnung über den Kanal j, an einer bestimmten Stelle s festgestellt, l(s) das dieser Stelle s zugeteilte Label, M²q,p die Durchschnitte über jeden Kanal j, unabhängig, und Nq die Gesamtzahl Stellen bezeichnet, denen das Label q zugeteilt ist.
5. Anordnung zur Segmentierung nach Anspruch 3, dadurch gekennzeichnet, daß die "Varianz"-Parameter die Elemente der Matrix der Kovarianzen über die verschiedenen Kanäle sind, durch folgenden Ausdruck gegeben:
Vq,j1,j2 = Σ(s/l(s) = q) (xs,j1 - M2q,j1) (xs,j1 - M2q,j2)/Nq
wobei j1,j2 die Indizes der beiden betroffenen Kanäle, xs, j die besagte Rangordnung über den Kanal j, an einer bestimmten Stelle s festgestellt, l(x) das dieser Stelle s zugeteilte Label, M2q,j die Durchschnitte über jeden Kanal j, unabhängig betrachtet, und Nq die Gesamtzahl Stellen bezeichnet, denen das Label q zugeteilt ist.
6. Anordnung zur Segmentierung nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, daß der Ausgangs des Unter-Ensembles zur Aktualisierung der unimodalen Segmentierung zu seinem Eingang zurückgeleitet wird, um eine neue Klassifizierung vorzunehmen, bis zur Unterbrechung dieses iterativen Vorgangs nach einem bestimmten Konvergenzkriterium.
7. Anordnung zur Segmentierung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß das Unter-Ensemble zur Etikettierung in Serie enthält:
(1) Einen Speicher der bedingten Wahrscheinlichkeiten, vom besagten ersten und zweiten Weg abgegeben, und der bestimmten Zwischenwahrscheinlichkeiten, intern zum besagten Unter-Ensemble zur Etikettierung bestimmt;
(2) eine Schaltung zur Berechnung gleicher oder proportionaler Größen zu den marginalen Wahrscheinlichkeiten jedes Labels für jede Stelle, wobei die besagte Berechnung in folgenden Schritten vorgenommen wird, für alle möglichen q, a, b, c:
(a) Man definiert Fm.q als die bedingte Wahrscheinlichkeit, p(q/Xmn) an der Stelle (m, n) ein Label q zu haben, wobei der Verweis Xmn alle über und links der Stelle (m, n) gelegenen Stellen bezeichnet;
(b) für jedes b prüft man den Wert F = Fm-1.n-1(b), um es nur zu berücksichtigen, wenn es über einer bestimmten Schwelle liegt;
(c) man berechnet dann den Ausdruck:
H = Ym-1.n(a, b).Zm.n-1(c, b).p(q/a, b, c).pq(xmn)/F
wobei: Ym-1.n(a, b) = p(a, b/Xm-1.n)
und: Zm.n-1(c, b) = P(c, b/Xm.1-n)
und man führt eine mit den Werten H summierte Addition durch, um eine Größe J und eine Größe Lm-1.n-1(b) zu erhalten;
(d) man wiederholt die Schritte (b) und (c), bis alle Stellen auf ähnliche Art verarbeitet wurden, wobei der summierte Wert J zu Ym.n(q, c) und zu Zm.n(q, a) hinzugefügt und dann auf Null zurückgestellt wird, und wobei der summierte Wert Lm-1.n- 1(b) die besagte gleiche oder proportionale Größe zur marginalen Wahrscheinlichkeit des Labels b an der Stelle (m-1, n-1) bildet;
(e) man wiederholt die Schritte (b) bis (d), bis alle Kombinationen (q, a, c) auf ähnliche Art verarbeitet wurden;
(3) eine Schaltung zur Etikettierung der Stellen, durch den Vergleich der Werte Lm-1.n-1(b) und die Zuteilung an jede Stelle (m-1, n-1) des Labels b, das dem größten Wert (Lm-1.n-1(b) entspricht.
8. Anordnung zur Segmentierung nach Anspruch 7, dadurch gekennzeichnet, daß in der Schaltung zur Berechnung von gleichen oder proportionalen Größen zu den marginalen Wahrscheinlichkeiten jedes Labels für jede Stelle im Schritt (c) ein zusätzlicher Schritt (c2) zur Normalisierung durch Teilung aller Werte von Y und von Z durch eine Norm Nm.n, gleich für alle b, Σb,Lm-1.n-1(b), vorgesehen ist.
DE69517249T 1994-02-16 1995-02-03 Anordnung zur segmentierung eines diskreten datensatzes Expired - Fee Related DE69517249T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR9401769A FR2716282A1 (fr) 1994-02-16 1994-02-16 Dispositif de segmentation d'un ensemble discret de données unidimensionnelles.
FR9414726A FR2728090A1 (fr) 1994-12-07 1994-12-07 Dispositif de segmentation d'un ensemble discret de donnees multimodales
PCT/IB1995/000076 WO1995022806A1 (fr) 1994-02-16 1995-02-03 Dispositif de segmentation d'un ensemble discret de donnees

Publications (2)

Publication Number Publication Date
DE69517249D1 DE69517249D1 (de) 2000-07-06
DE69517249T2 true DE69517249T2 (de) 2001-01-25

Family

ID=26230955

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69517249T Expired - Fee Related DE69517249T2 (de) 1994-02-16 1995-02-03 Anordnung zur segmentierung eines diskreten datensatzes

Country Status (5)

Country Link
US (1) US5774581A (de)
EP (1) EP0694193B1 (de)
JP (1) JPH08509313A (de)
DE (1) DE69517249T2 (de)
WO (1) WO1995022806A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181047B2 (en) * 1996-07-26 2007-02-20 Patrick Pirim Methods and apparatus for identifying and localizing an area of relative movement in a scene
FR2751772B1 (fr) * 1996-07-26 1998-10-16 Bev Bureau Etude Vision Soc Procede et dispositif fonctionnant en temps reel, pour le reperage et la localisation d'une zone en mouvement relatif dans une scene, ainsi que pour la determination de la vitesse et la direction du deplacement
US7650015B2 (en) * 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
EP0938674B1 (de) 1996-11-16 2005-06-01 NMI Naturwissenschaftliches und Medizinisches Institut an der Universität Tübingen in Reutlingen Stiftung Bürgerlichen Rechts Mikroelementenanordnung, verfahren zum kontaktieren von in einer flüssigen umgebung befindlichen zellen und verfahren zum herstellen einer mikroelementenanordnung
GB9803368D0 (en) * 1998-02-17 1998-04-15 Cambridge Consultants Measurement system
US6795578B1 (en) * 1999-09-29 2004-09-21 Canon Kabushiki Kaisha Image processing apparatus and method, and storage medium
FR2805629B1 (fr) 2000-02-24 2002-08-30 Holding Bev Sa Procede et dispositif de perception automatique
US7136842B2 (en) * 2000-02-24 2006-11-14 Holding B.E.V. S.A. Method and device for adapting a signal for the detection of the movement of an object
FR2828613B1 (fr) * 2001-08-10 2003-11-07 Holding Bev Sa Dispositif et procede de traitement pour systeme de perception automatique
EP2463821A1 (de) * 2010-12-08 2012-06-13 Alcatel Lucent Verfahren und System zum Segmentieren eines Bildes
EP2686808B1 (de) * 2011-03-14 2015-09-16 CentraleSupélec Verfahren und vorrichtung zur effizienten parallelen nachrichtenberechnung für map-inferenz
KR20200144658A (ko) * 2019-06-19 2020-12-30 삼성전자주식회사 분류 장치 및 이의 동작 방법과 트레이닝 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4764971A (en) * 1985-11-25 1988-08-16 Eastman Kodak Company Image processing method including image segmentation
US4847786A (en) * 1986-08-20 1989-07-11 The Regents Of The University Of California Object analysis of multi-valued images
US5239596A (en) * 1990-06-08 1993-08-24 Xerox Corporation Labeling pixels of an image based on near neighbor attributes

Also Published As

Publication number Publication date
WO1995022806A1 (fr) 1995-08-24
EP0694193B1 (de) 2000-05-31
DE69517249D1 (de) 2000-07-06
EP0694193A1 (de) 1996-01-31
US5774581A (en) 1998-06-30
JPH08509313A (ja) 1996-10-01

Similar Documents

Publication Publication Date Title
DE69324207T2 (de) Bildgruppierungsvorrichtung
DE69419813T2 (de) Vorrichtung und Verfahren zur Erzeugung einer annähernden Funktion
DE69810369T2 (de) Bildwiederauffindungsvorrichtung und -verfahren
DE112016001796T5 (de) Feinkörnige bildklassifizierung durch erforschen von etiketten von einem bipartiten graphen
DE69130656T2 (de) Neuronale Netzwerke
DE69222707T2 (de) Zeichenverdünnung mit Verwendung des Auftrittsverhaltens von lokal unabhängigen kompetitiven Prozessen
DE69919464T2 (de) Elektronische Vorrichtung zur Bildausrichtung
DE69427801T2 (de) Verfahren und Gerät zur Bestimmung von Bewegungsvektorfelden durch die Unterdrückung lokaler Abweichungen
DE3501272A1 (de) Adaptives, selbstausbesserndes prozessorfeld
DE69517249T2 (de) Anordnung zur segmentierung eines diskreten datensatzes
DE69330021T2 (de) Verbessertes System zur Mustererkennung für Sonar und andere Anwendungen
DE102019127282A1 (de) System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
DE4224568C2 (de) Vorrichtung und Verfahren zur Bildung der Anzeige eines dreidimensionalen sequentiellen tomografischen Flächenschattierungsbildes
DE69223447T2 (de) Lernverfahren für neuronales Netzwerk und Klassifizieranlage zum Anwenden dieses Verfahrens
DE102021004591A1 (de) Für Graphen vorgesehene neuronale Netzwerke für Datensätze mit Heterophilie
DE102020133963A1 (de) Systeme und Verfahren zur Abbildrauschunterdrückung unter Verwendung von tiefen gefalteten Netzwerken
DE102018008685A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE102006040397A1 (de) System und Verfahren für ein gitterbewahrendes Multigridverfahren zur Bildsegmentierung und zum Filtern
DE69224718T2 (de) Klassifizierungsverfahren für Rechnerarchitekturen
DE102018206108A1 (de) Generieren von Validierungsdaten mit generativen kontradiktorischen Netzwerken
DE3853511T2 (de) Mehrbildelementgenerator.
DE69130238T2 (de) Datenverarbeitungsgerät und Verfahren um in einem Wörterbuch enthaltene Datenwörter auszuwählen
DE112020002547T5 (de) Rausch- und signalverwaltung für rpu-array
DE112011101938T5 (de) Bildinterpolationsverfahren mit Entscheidungsmix
DE69127139T2 (de) Hierarchische Operationen auf Randattributdaten für Bildbereiche

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee