DE19717677C1 - Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen - Google Patents

Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen

Info

Publication number
DE19717677C1
DE19717677C1 DE19717677A DE19717677A DE19717677C1 DE 19717677 C1 DE19717677 C1 DE 19717677C1 DE 19717677 A DE19717677 A DE 19717677A DE 19717677 A DE19717677 A DE 19717677A DE 19717677 C1 DE19717677 C1 DE 19717677C1
Authority
DE
Germany
Prior art keywords
network
input data
learning
monitored
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19717677A
Other languages
English (en)
Inventor
Udo Dipl Ing Seiffert
Stefan Dipl Ing Schuenemann
Bernd Prof Dr Ing Michaelis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inb Vision Ag 39120 Magdeburg De
Original Assignee
Otto Von Guericke Universitaet Magdeburg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Otto Von Guericke Universitaet Magdeburg filed Critical Otto Von Guericke Universitaet Magdeburg
Priority to DE19717677A priority Critical patent/DE19717677C1/de
Application granted granted Critical
Publication of DE19717677C1 publication Critical patent/DE19717677C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

Die Erfindung betrifft ein Verfahren zur automatischen Einteilung von Eingangsdaten mit Hilfe künstlicher neuronaler Netzwerke in a-priori unbekannte Klassen. Das Verfahren betrifft insbesondere den Netzwerkbetrieb bei Anwesenheit von gestörten Eingangsdaten.
Ein neuronales Netz ist eine Anordnung von in einer bestimmten Art und Weise miteinander verbundenen Verarbeitungseinheiten, die eine bestimmte Anzahl von Eingangssignalen nach einer vorgegebenen Übertragungsfunktion zu einem Ausgangssignal kombinieren. Das neuronale Netz als Ganzes stellt wiederum ein System dar, das aus i.a. mehrdimensionalen Eingangsdaten i.a. mehrdimensionale Ausgangsdaten bestimmt.
Die Verbindungen zwischen den Neuronen sind mit Elementen zur Einstellung der Signalstärke (Gewichte) versehen. Diese Gewichte werden während eines sog. Lern- oder Trainingsprozesses nach einem vorgegebenen Algorithmus (Lernregel) verändert. Damit werden neben der Anordnung und Art und Weise der Verschaltung der Neuronen sowie ihrer Übertragungsfunktion die grundlegenden Eigenschaften des künstlichen neuronalen Netzes bestimmt. Beim Training künstlicher neuronaler Netze unterscheidet man bezüglich der Lernregel prinzipiell zwei Varianten. Diese sind durch eine Vielzahl von Veröffentlichungen allgemein bekannt.
Das überwachte Training fordert neben der Präsentation der Eingangsdaten (üblicherweise erfolgt dies mittels eines Mustergenerators) auch das Vorhandensein eines zu jedem Trainingsbeispiel gehörenden Zielvektors. Auf Basis einer Differenz zwischen dem vom Netz im aktuellen Zustand tatsächlich berechneten Ausgang und dem geforderten Ausgang (Zielvektor) erfolgt das Verändern der Gewichte der einzelnen Neuronen. Diese Lernregel ist u. a. typisch für Multilayer- Perceptrons (MLP). Siehe dazu auch: M. Minsky u. a., "Perceptrons", MIT Press, Cambridge, 1969.
Im Gegensatz dazu wird beim unüberwachten Training kein Zielvektor vorgegeben. Es erfolgt eine Selbstorganisation der Neuronen durch Verändern der Gewichte anhand der inneren Struktur der Eingangsdaten. Es findet eine Transformation einer Ähnlichkeitsrelation in eine Lagerelation in der Art statt, daß ähnliche Eingangsdaten im gleichen oder in benachbarten Neuronen repräsentiert werden. Dieses Verfahren wird z. B. bei Selbstorganisierenden Karten verwendet. Weitere Informationen dazu sind in T. Kohonen, "Self-Organization and Associative Memory", 2. Aufl., Springer Verlag, 1988 zu finden.
Zur Einteilung eines beliebigen Datenraumes in Klassen unter Nutzung künstlicher neuronaler Netze können grundsätzlich beide Lernregeln verwendet werden. Sind die Grenzen der Klassen bekannt, verwendet man das überwachte Training. In der praktischen Anwendung fällt auf, daß überwacht trainierte Netze robuster gegenüber gestörten Eingangsdaten sind. Oft sind sie zumindest in der Recall-Phase schneller, als vergleichbare unüberwacht trainierte Netze. In vielen Fällen sind die Klassengrenzen jedoch nicht a-priori bekannt. Somit ist man nicht in der Lage, den für die erste Variante benötigten Zielvektor zur Verfügung zu stellen. Man verwendet dann das unüberwachte Training des Netzwerkes, das den Vorteil bietet, die Klassengrenzen entsprechend den inneren Eigenschaften der Daten zu bestimmen.
Jedoch besitzen auch unüberwacht trainierte neuronale Netzwerke Anwendungsgrenzen. So besteht in der Bildverarbeitung das Problem, aus Bildteilen charakteristische Klassen von Mustern zu extrahieren. Kriterium ist dabei die geometrische Ähnlichkeit. Das bedeutet, daß zueinander ähnliche Bildinhalte in die gleiche Klasse sortiert werden sollen. Die Klassengrenzen sind allerdings nicht bekannt. Da diese Bilder z. T. stark verrauschte oder stückweise verdeckte Objekte enthalten, ist die Klassifikationsleistung unüberwacht trainierter Netzwerke nicht ausreichend. Ein unmittelbarer Einsatz überwacht trainierter Netze ist jedoch mangels Zielvektoren nicht möglich.
In dem Artikel von U. Seiffert u. a., "Three-Dimensional Self-Organizing Maps for Classification of Image Properties", Konferenzband der ANNES'95, S. 310-313, IEEE Press, Los Alamitos, 1995, ist zwar eine Beschreibung der Klasseneinteilung unter ausschließlicher Verwendung von Selbstorganisierenden Karten zu finden, diese Lösung ist im Sinne der Klassifikation jedoch insbesondere für stark verrauschte Daten nicht optimal.
Ein anderer Einsatzfall, bei dem ebenfalls die Nachteile unüberwacht trainierter neuronaler Netzwerke deutlich werden, stammt aus der biomedizinischen Datenauswertung. Bei dieser Anwendung sollen aus Bildern extrahierte Merkmalsdaten in charakteristische Klassen unterteilt werden. Ziel ist es, gesunde und verschiedene pathologische Zustände im menschlichen Immunsystem exakt zu unterscheiden. Dabei müssen Merkmalsdaten, die ein Krankheitsbild symbolisieren, in eine Klasse und ähnliche Krankheiten in benachbarte Klassen sortiert werden. Die Klassengrenzen sind im genutzten hochdimensionalen Merkmalsraum nicht bekannt. Systembedingt kommt es bei der automatischen Mikroskopie und der sich anschließenden Bildverarbeitung und Merkmalsdatenberechnung zum teilweise starken Verrauschen der Daten. Untersuchungen zeigen, daß unüberwacht trainierte Netzwerke nicht die erforderliche Trennschärfe zwischen den einzelnen Klassen aufweisen bzw. die Auswertung für den normalen Nutzer zu kompliziert ist. Siehe dazu auch den Artikel von St. Schünemann u. a., "Analysis of Multi-Fluorescence Signals Using a Modified Self-Organizing Feature Map", Konferenzband der ICANN'96, S. 575-580, Springer Verlag Berlin, 1996, für weitere Details.
Aus dem Vorstehenden ergibt sich, daß eine Einteilung von Daten in a-priori unbekannte Klassen mittels eines unüberwacht trainierten künstlichen neuronalen Netzwerks mit der notwendigen Klassifikationssicherheit derzeit nicht realisierbar ist, andererseits die Vorteile überwacht trainierter Netze bei verrauschten Eingangsdaten mangels Zielvektoren nicht nutzbar sind.
Es sind auch hybride neuronale Netzwerke bekannt, bei denen ein unüberwacht trainiertes neuronales Netz mit mehreren überwacht trainierten Netzen kombiniert ist. So werden bei dem Netzwerk gem. US-PS 5 303 330 Muster von Eingangsdaten einem ersten unüberwacht zu trainierenden ersten neuronalen Netz übergeben, das seine Parameter optimiert und als Ergebnis jedes Muster genau einer Klasse zuordnet. Diese Informationen aktivieren genau eines von mehreren zweiten neuronalen Netzen. Diese zweiten Netze wurden unabhängig voneinander überwacht trainiert, ohne daß hierzu das erste Netz benötigt wurde. Dem auf diese Weise aktivierten zweiten Netz werden dann Eingangsdaten übergeben, die aus den Eingangsdaten des unüberwacht trainierten ersten neuronalen Netzes abgeleitet wurden. Für die Bestimmung von Klassengrenzen wird das erste Netz nicht benötigt.
Mit der Lösung gem. US-PS 5 303 330 wird eine Baumstruktur zur hierarchischen Klassifikation realisiert, wobei in der Betriebsphase das unüberwacht trainierte erste Netz benutzt wird, um aus einem Vorrat bereits bestehender und trainierter zweiter Netze ein bestimmtes Netz bzw. einen bestimmten Ast der Baumstruktur auszuwählen. Das erste und die zweiten Netze bilden daher gemeinsam ein Klassifikationssystem, so daß in der Betriebsphase stets auch das erste Netz benötigt wird. Ein wesentlicher Nachteil dieser Lösung besteht darin, daß das Training der zweiten Netze problematisch wird, wenn gestörte Daten in a-priori unbekannte Klassen einzuteilen sind.
Eine andere Variante, die Vorteile von unüberwacht und überwacht trainierten Netzwerken zu kombinieren, besteht gem. US-PS 5 283 838 darin, bei bekannten Klassen zunächst für jede Klasse ein unüberwachtes Lernen durchzuführen, um einen Klassen-Repräsentanten-Vektor zu bestimmen. Die Menge dieser Vektoren wird als initialer Gewichtsdatensatz für das überwacht zu trainierende Netz benutzt. Das unüberwachte und das überwachte Lernen kann dabei im wesentlichen simultan erfolgen. Dieses Verfahren setzt jedoch bekannte Klassen voraus.
Der Erfindung liegt daher das Problem zugrunde, die Vorteile beider Lernverfahren zu kombinieren und insbesondere die höhere Klassifikationssicherheit überwacht trainierter künstlicher neuronaler Netzwerke auch für solche Anwendungsfälle nutzbar zu machen, bei denen gestörte Daten in a-priori unbekannte Klassen einzuteilen sind.
Erfindungsgemäß wird dieses Problem durch ein Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen mit den Merkmalen des Anspruchs 1 gelöst.
Das Grundprinzip der Erfindung besteht demnach darin, daß ein unüberwacht trainiertes künstliches neuronales Netzwerk die Zielvektoren generiert, die für das Training des überwacht lernenden künstlichen neuronalen Netzwerkes erforderlich sind. Nachfolgend wird dann ausschließlich das überwacht trainierte künstliche neuronale Netzwerk als eigentliches Klassifikationssystem für ihm zu übergebende beliebige Eingangsdaten im Recall betrieben.
Das erfindungsgemäße Verfahren kann grundsätzlich für alle Klassifikationsaufgaben verwendet werden, in denen eine scharfe und robuste Trennung verschiedener Klassen erwünscht ist, die Klassengrenzen aber nicht a-priori zur Verfügung stehen.
Weitere Ausgestaltungen der Erfindung ergeben sich direkt aus den Umeransprüchen. Eine besonders vorteilhafte Ausführungsform der Erfindung besteht darin, daß bei sich verändernden Eingangsdaten das unüberwacht lernende künstliche neuronale Netzwerk zum Nachtrainieren der Klassen des überwacht lernenden künstlichen neuronalen Netzwerkes erneut in den Signalfluß einschaltbar ist.
Die Erfindung soll einschließlich ihrer Funktionsweise nachstehend an einem Ausführungsbeispiel näher erläutert werden. In der zugehörigen Zeichnung zeigen:
Fig. 1 den Signalfluß in und zwischen den Teilnetzen während der 1. und 2. Lernphase bei Vorhandensein eines mit einem Mustergenerator gekoppelten Rauschgenerators gemäß der Erfindung,
Fig. 2 den Signalfluß in und zwischen den Teilnetzen während der Betriebsphase gemäß der Erfindung.
1. Lernphase
Das Netzwerk 1 in Fig. 1 wird als unüberwacht lernendes Netz betrieben. In dieser 1. Lernphase werden ausschließlich die Parameter des Netzwerks 1 optimiert. Hierzu werden dem Netzwerk 1 Muster von Eingangsdaten übergeben, die insbesondere gestört sein können. Als Ergebnis erhält man für jedes Muster von Eingangsdaten die Zuordnung zu genau einer Klasse. Diese Klassenzuordnung dient in der 2. Lernphase als Zielvektor für das Netzwerk 2, das als überwacht lernendes Netz betrieben wird.
2. Lernphase
In dieser 2. Lernphase werden die zuvor dem Netzwerk 1 übergebenen Muster von Eingangsdaten und die in der 1. Lernphase ermittelten zugehörigen Zielvektoren dem Netzwerk 2 übergeben, das aufgrund dieser Daten seine Parameter optimiert und damit dieses überwacht lernende Netz zur Klassifikation beliebiger Daten aus dem Eingangsdatenraum vorbereitet. Zusätzlich befindet sich ein Rauschgenerator im System, der eine Störungsüberlagerung mit den Eingangsdaten für das Netzwerk 2 realisiert. Um die Korrespondenz zu den Eingangsdaten zu behalten und u. U. eine ortsvariante Rauschdatengenerierung zu erreichen, ist der Rauschgenerator über eine Steuerleitung mit dem die Eingangsdaten erzeugenden Mustergenerator verbunden.
Betriebsphase
In dieser in Fig. 2 dargestellten Betriebsphase wird das überwacht trainierte Netzwerk 2 als eigentliches Klassifikationssystem im Recall betrieben und damit eine hohe Verarbeitungsgeschwindigkeit und Klassifikationsleistung erreicht. Das Netzwerk 2 erhält somit als Eingangsvektor beliebige Eingangsdaten.
In einer speziellen Variante des Verfahrens kann das Netzwerk 1 als Instrument zum Verifizieren der Klassen dienen. Es kann bei Bedarf, z. B. bei auftretender Drift der Eingangsdaten, wieder aktiv in den Signalfluß eingeschalten werden, um ein Nachtrainieren der Klassen im Netzwerk 2 zu erreichen.

Claims (4)

1. Verfahren zur automatischen Einteilung von Eingangsdaten, insbesondere von verrauschten und/oder gestörten Eingangsdaten, mit Hilfe künstlicher neuronaler Netzwerke in a-priori unbekannte Klassen, wobei
  • a) in einer 1. Lernphase Muster von Eingangsdaten ausschließlich einem unüberwacht lernenden Netzwerk (Netzwerk 1) übergeben werden, dieses Netzwerk seine Parameter optimiert und als Ergebnis jedes Muster genau einer Klasse zuordnet, die Klassengrenzen der Eingangsdaten somit ermittelt und für die Muster von Eingangsdaten die zugeordneten Zielvektoren für eine nachfolgende 2. Lernphase zur Verfügung stellt,
  • b) in der 2. Lernphase die Muster von Eingangsdaten und die in der 1. Lernphase ermittelte Klassenzuordnung als Zielvektoren einem überwacht lernenden Netzwerk (Netzwerk 2) übergeben werden, das seine Parameter wiederum optimiert,
  • c) danach in einer Betriebsphase als eigentliches Klassifikationssystem für beliebige Eingangsdaten das überwacht trainierte Netzwerk (Netzwerk 2) allein betrieben wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das unüberwacht lernende künstliche neuronale Netzwerk (Netzwerk 1) entsprechend dem Algorithmus der Selbstorganisierenden Karten und das überwacht lernende künstliche neuronale Netzwerk (Netzwerk 2) entsprechend dem Backpropagation-Algorithmus für Multilayer-Perceptrons trainiert werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß am Eingang des überwacht lernenden Netzwerkes (Netzwerk 2) ein Rauschgenerator eine Überlagerung von Störungen mit den Eingangsdaten realisiert.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß bei sich verändernden Eingangsdaten das unüberwacht lernende künstliche neuronale Netzwerk (Netzwerk 1) zum Nachtrainieren der Klassen des überwacht lernenden künstlichen neuronalen Netzwerkes (Netzwerk 2) erneut in den Signalfluß einschaltbar ist.
DE19717677A 1997-04-28 1997-04-28 Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen Expired - Fee Related DE19717677C1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19717677A DE19717677C1 (de) 1997-04-28 1997-04-28 Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19717677A DE19717677C1 (de) 1997-04-28 1997-04-28 Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen

Publications (1)

Publication Number Publication Date
DE19717677C1 true DE19717677C1 (de) 1998-07-23

Family

ID=7827832

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19717677A Expired - Fee Related DE19717677C1 (de) 1997-04-28 1997-04-28 Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen

Country Status (1)

Country Link
DE (1) DE19717677C1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283838A (en) * 1990-04-16 1994-02-01 Sharp Kabushiki Kaisha Neural network apparatus
US5303330A (en) * 1991-06-03 1994-04-12 Bell Communications Research, Inc. Hybrid multi-layer neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283838A (en) * 1990-04-16 1994-02-01 Sharp Kabushiki Kaisha Neural network apparatus
US5303330A (en) * 1991-06-03 1994-04-12 Bell Communications Research, Inc. Hybrid multi-layer neural networks

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SEIFFERT, Udo, MICHAELIS, Bernd: Three- dimensional Self-Organizing Maps for classification of image Properties, in: Proceedings of the second New Zealand, int. Conf. on ANNES, 1995, S. 310-313 *

Similar Documents

Publication Publication Date Title
DE19837004C1 (de) Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
DE69333811T2 (de) Verfahren und Gerät zur Erzeugung und Einstellung eines Neurones
DE60130742T2 (de) Mustererkennung mit hierarchischen Netzen
EP1183619A2 (de) Situationsabhängig operierendes semantisches netz n-ter ordnung
DE3938645C1 (de)
DE69333247T2 (de) Trainingsverfahren und Gerät zur Erzeugung eines neues Neurons
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
DE19942223C2 (de) Klassifikationsverfahren mit Rückweisungsklasse
DE19717677C1 (de) Verfahren zur automatischen Einteilung von Eingangsdaten in a-priori unbekannte Klassen
DE102019213009A1 (de) Aufbereitung von Radarsignalen mit Unterdrückung von Bewegungsartefakten
DE10048308B4 (de) Verfahren und Vorrichtung zum Klassifizieren von Objekten aus als Pixelmuster vorliegenden eingangsseitigen Bilddaten
EP0956531B1 (de) Verfahren und vorrichtung zur transformation einer zur nachbildung eines technischen prozesses dienenden fuzzy-logik in ein neuronales netz
EP3785178A1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
EP0978052B1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
WO1997036248A1 (de) Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners
EP0643353B1 (de) Vorrichtung und Verfahren zur Datenverarbeitung
DE4439505A1 (de) Verfahren zum Entwurf eines Fuzzy-Reglers
WO2020187394A1 (de) Verfahren zum trainieren eines autoencoders und zum klassifizieren von daten sowie autoencoder und computerprogramm hierzu
EP0469315B1 (de) Verfahren zur visuellen Inspektion zwei- oder dreidimensionaler Bilder
EP0814402A2 (de) Verfahren zum Entwurf oder zur Adaption eines Fuzzy-Reglers oder eines Systems von verknüpften Fuzzy-Reglern
DE102020209651A1 (de) Verfahren zur bildverarbeitung durch ein neuronales netzwerk
DE4432269C2 (de) Lernverfahren für ein selbstorganisierendes Neuronales Netzwerk sowie Vorrichtung zur Durchführung des Verfahrens
DE102005045120A1 (de) Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes
WO2020229407A1 (de) Klassifikatorsystem und verfahren zum verteilten erzeugen von klassifikationsmodellen
DE102020119943A1 (de) Automatische visuelle Wahrnehmung

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: MICHAELIS, BERND, PROF. DR.-ING.HABIL., 39175 BIED

8327 Change in the person/name/address of the patent owner

Owner name: INB VISION AG, 39120 MAGDEBURG, DE

8339 Ceased/non-payment of the annual fee