DE3650446T2 - Paralleler, adaptiver, nichtlinearer Musterklassentrenner und -erkenner in mehreren Einheiten. - Google Patents
Paralleler, adaptiver, nichtlinearer Musterklassentrenner und -erkenner in mehreren Einheiten.Info
- Publication number
- DE3650446T2 DE3650446T2 DE3650446T DE3650446T DE3650446T2 DE 3650446 T2 DE3650446 T2 DE 3650446T2 DE 3650446 T DE3650446 T DE 3650446T DE 3650446 T DE3650446 T DE 3650446T DE 3650446 T2 DE3650446 T2 DE 3650446T2
- Authority
- DE
- Germany
- Prior art keywords
- pattern
- prototype
- class
- signal
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000003044 adaptive effect Effects 0.000 title description 33
- 230000004044 response Effects 0.000 claims abstract description 87
- 230000006870 function Effects 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000000926 separation method Methods 0.000 claims description 13
- 238000012546 transfer Methods 0.000 claims description 12
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 230000007423 decrease Effects 0.000 claims 1
- 241000750002 Nestor Species 0.000 description 31
- 230000001960 triggered effect Effects 0.000 description 27
- 238000000034 method Methods 0.000 description 19
- 238000012549 training Methods 0.000 description 13
- YFBPRJGDJKVWAH-UHFFFAOYSA-N methiocarb Chemical compound CNC(=O)OC1=CC(C)=C(SC)C(C)=C1 YFBPRJGDJKVWAH-UHFFFAOYSA-N 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002203 pretreatment Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Image Processing (AREA)
- Testing Of Coins (AREA)
- Inspection Of Paper Currency And Valuable Securities (AREA)
- Error Detection And Correction (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
- Die vorliegende Erfindung betrifft adaptive Informationsverarbeitungssysteme und speziell sich selbst organisierende Eingabe-Ausgabe-Vorrichtungen, deren Funktion es ist, Klassen von Mustern, die nicht notwendigerweise linear trennbar sind, zu trennen und zu identifizieren.
- In den im folgenden aufgeführten Patenten von Cooper et al. werden Verfahren und Vorrichtungen (Systeme) offengelegt, die in der Lage sind, "Muster" oder "Ereignisse" aus der realen Welt, die nicht linear voneinander getrennt werden können, zu trennen und zu identifizieren. Die Muster oder Ereignisse in der Außenwelt können mit einem Satz Messungen festgestellt und beschrieben werden, deren Ergebnisse durch ein Eingangssignal S dargestellt werden, das aus Einzelsignalen s&sub1;, s. . . Sk besteht. Bei dem Signal S kann es sich beispielsweise um ein Signal handeln, das von einer Kamera kommt, die eine Szene (Muster) erfaßt, oder um das Ausgangssignal eines Mikrofons, das einen beliebigen Laut (Muster) erfaßt.
- In einem System, das ein adaptives NestorTM Modul umfaßt, so wie es in diesen Patenten beschrieben wird, sollten alle Eingangssignale S (auf die hier als "Muster" Bezug genommen wird), die zur selben Klasse gehören, das System zur Ausgabe derselben definitiven Reaktion veranlassen. So sollte zum Beispiel im Zusammenhang mit einer Anwendung wie der Zeichenerkennung jede beliebige vom System gesehene Version einer handgeschriebenen "2" ein Ausgangssignal zur Folge haben, das das Schriftartzeichen für die "2" auf einer Ausgabevorrichtung wie zum Beispiel einem Videobildschirm, einem Ausdruck usw. erscheinen läßt.
- Ein System dieses Types bzw. ein sogenanntes Nestor System (TM) ist eine extrem leistungsfähige Vorrichtung zur Klassentrennung und -identifizierung. So kann dieses System beispielsweise mittels eines Lernvorgangs geschult werden, bei dem die Bedienperson über keine Kenntnisse der komplexen Geographie des mehrdimensionalen Raumes zu verfügen braucht, in dem die Trennung und Identifizierung der Musterklasse erfolgt. Bei einem solchen System ist es erforderlich, das Signal S vorab in ein Zwischensignal F aufzubereiten, das nur bestimmte vorgeschriebene Merkmale der Originalmuster darstellt. Normalerweise enthält das Eingangssignal S zuviele irrelevante Informationen für eine effiziente Mustererkennung durch das Nestor System.
- Wenn das Eingangssignal S (das das Muster darstellt) diesem Vorbehandlungsschritt - der hier als "Codierung" bezeichnet wird - unterzogen wird, sollten genügend Informationen erhalten bleiben, um die Muster voneinander unterscheiden zu können. Informationen, die zum Erlernen einer Klasse irrelevant sind, können für die Unterscheidung einer anderen Klasse wichtig sein. Aus diesem Grunde kann es schwierig sein, eine einzige Vorbehandlungsstrategie zu wählen, die alle irrelevanten Informationen entfernt, ohne dabei die Fähigkeit, einige Klassen unterscheiden zu können, aufs Spiel zu setzen.
- Das hier beschriebene System kann gewissermaßen als ein Weg betrachtet werden, eine Anzahl solcher Nestor-Systeme miteinander zu verbinden. Jedes Komponenten-Nestor-System kann als eine vollständige Einheit betrachtet werden, die ihre eigenen Vorbehandlungs- und Codierungsverfahren enthält. Die Identifizierung eines Musters erfolgt anhand der Reaktionen, die es unter diesen Komponenten-Einheiten hervorruft. Jede Einheit hat ihre eigenen, von jeder anderen Einheit verschiedenen Codierverfahren. Sie ist deshalb für bestimmte Arten von Informationen im Eingangssignal empfänglich. Der spezielle Satz an Merkmalen, den sie erfaßt, kann ihr eine besondere Befähigung verleihen, einige Arten von Musterklassen zu erlernen, andere jedoch nicht. Eine Klasse wird automatisch von derjenigen Einheit erlernt, die am besten zu ihrem Erlernen befähigt ist. Gleichzeitig kann es zum Erlernen anderer Musterklassen erforderlich sein, die Ressourcen mehrerer Komponenten-Einheiten, von denen keine aufgrund ihrer Vorbehandlungs- und Codierungseigenschaften alleine über eine ausreichende Unterscheidungsbefähigung verfügt, miteinander zu vereinigen, um diese Klassen zu unterscheiden. In diesen Fällen identifiziert das System ein Beispiel dieser Klasse, indem es die Reaktionen einer Gruppe von Einheiten in Zusammenhang bringt.
- Als Beispiel hierfür kann wieder die Aufgabe betrachtet werden, handgeschriebene Zeichen zu identifizieren. Die von einer Einheit registrierten Eigenschaften können bestimmte Aspekte der Zeichen hervorheben, andere jedoch nicht. Im speziellen Falle können die gewonnenen Merkmale zwar gut dazu dienen, zwischen Zeichen mit geradlinigen Formen zu unterscheiden, wie zum Beispiel "A", "H", "K", "N" usw., aber keine gute Trennung zwischen Zeichen mit kreisförmigen Formen wie zum Beispiel "B", "C", "Q" usw. bieten. Folglich wird diese Einheit geradlinige Formen unterscheiden, während eine Einheit, die kreisförmige Merkmale codiert, lernen könnte, Musterklassen zu trennen, bei denen kreisförmige Merkmale vorhanden und unterscheidend sind.
- Systeme zur Codierung (Gewinnung von Merkmalen) von handgeschriebenen Zeichen, hörbaren Lauten und zahllosen anderen Arten von Mustern sind in der einschlägigen Technik wohl bekannt und werden in der Literatur beschrieben. Ein Überblick über diese Technologie für handgeschriebene Zeichen ist enthalten in Automatic Recoanition of Handprinted Characters - the State of the Art, von C. Y. Suen, M. Berthold und S. Mori, Proceedings IEEE, Vol. 68, No. 4, April 1980, S. 469-487.
- Nicht jede Einheit eines Nestor-Systems erlernt jede Klasse. Darüber hinaus hält jede Einheit nur nach einem Bruchteil aller möglichen vom System als Ganzem erfaßten Mustereigenschaften Ausschau. Folglich geschieht das Erlernen einer Musterklasse schneller und wirtschaftlicher (was die Größe des Systemspeichers anbetrifft), als wenn das System aus einer Einzeleinheit bestehen würde, in der die Vorbehandlung und Codierung aller einzelnen Einheiten des Systems zusammengefaßt wären. Ein weiteres vorteilhaftes und neuartiges Kennzeichen dieses Systems und seiner Architektur besteht darin, daß es die Möglichkeit bietet, im Laufe der Schulung neue Einheiten in das System auf zunehmen. Dies ist eine besonders nützliche Eigenschaft, wenn die Art der Musterklassen, mit denen es das System voraussichtlich zu tun haben wird, sich im Laufe der Zeit wesentlich verändert. Es können dann, während das System seine Erfahrung erweitert, zusätzliche Einheiten eingefügt werden, ohne das System generell bezüglich der bereits erlernten Musterklassen umschulen zu müssen.
- Vorteilhafterweise kann jedes adaptive Nestor-Modul so geschult werden, daß es bei der Klassifizierung bestimmter Arten von Mustern äußerst gut und genau ist. Diese Erfahrenheit gestattet es einem Modul, auf der Basis von extrem feinen Unterschieden zwischen Mustern zu klassifizieren, vorausgesetzt die Einheit verfügt über die notwendige Vorbehandlung und Codierung, um diese Unterschiede wahrzunehmen. Ein hoher Grad der Befähigung, Muster auf der Basis eines Satzes Kriterien zu klassifizieren, schließt nicht die Fähigkeit aus, einen anderen Satz Kriterien (von einem anderen Modul oder einer anderen Modulgruppe) zu verwenden, um auf der Basis eines abweichenden Satzes zu klassifizieren.
- Das adaptive Nestor-Modul selbst ist eine bekannte Vorrichtung zur Musterklassifizierung und -identifizierung. Diese Vorrichtung wird unter anderem in den oben genannten US-Patenten Nr. 3.950.733, 4.044.243, 4.254.474 und 4.326.259 von Cooper et al. beschrieben.
- Ein Hauptziel der vorliegenden Erfindung ist es, eine Vorrichtung zur Trennung und Identifizierung von Mustern zur Verfügung zu stellen, die in der Lage ist, Klassen von Mustern, die eine große Vielfalt an herausragenden Merkmalen besitzen, zu trennen und zu identifizieren.
- Ein weiteres Ziel der vorliegenden Erfindung ist es, eine Vorrichtung zur Trennung und Identifizierung von Mustern zur Verfügung zu stellen, die in der Lage ist, Klassen von Mustern, die nur geringe und subtile Unterschiede untereinander besitzen, zu trennen und zu identifizieren.
- Noch ein weiteres Ziel der vorliegenden Erfindung ist es, eine spezielle als Software implementierte Realisierung der vorliegenden Erfindung zur Verfügung zu stellen, die in der Lage ist, die soeben beschriebenen Ziele zu erreichen.
- Diese Ziele sowie weitere Ziele der vorliegenden Erfindung, die anhand der nachfolgenden Erörterung offensichtlich werden, werden entsprechend der Erfindung dadurch erreicht, daß ein System zur Musterklassifizierung und -identifizierung zur Verfügung gestellt wird, das die im Anspruch 1 aufgeführten Kennzeichen umfaßt.
- Die Vorrichtung zur Trennung und Identifizierung von Musterklassen entsprechend der Erfindung macht somit in vorteilhafter Weise Gebrauch von der Möglichkeit, verschiedene Sätze von Kennzeichen eines bestimmten Musters so zu codieren, daß die Klassifizierung dieses Musters auf der Basis einer großen Vielfalt an Kennzeichen erfolgen kann. Da die Vorrichtung zur Musterklassifizierung so imstande ist, verschiedenste Aspekte des Musters zu "sehen", wird ihre Fähigkeit, das Muster zu klassifizieren, wesentlich erhöht.
- In ähnlicher Weise macht es die Bereitstellung einer Vielzahl von Vorrichtungen zur Mustererkennung, die auf einen unterschiedlichen Aspekt des Ausgangssignals der Codiervorrichtung achten und jeweils eine geringfügig unterschiedliche Schulung erfahren haben, möglich, das Muster in eine von einer großen Anzahl möglicher Klassen einzuordnen. Man wird hierbei anerkennend feststellen, daß die Vorrichtung zur Mustererkennung beim Beteiligtsein einer sehr großen Zahl von möglichen Klassen in der Lage ist, bei den von ihr "gesehenen" Mustern zwischen subtilen Unterschieden zu unterscheiden.
- Zum besseren Verständnis der vorliegenden Erfindung wollen wir k Einheiten U&sub1;. . .Uk des Typs betrachten, der im US-Paten Nr. 4.326.259 beschrieben wird, und die parallel (oder in Folgeschaltung) arbeiten. Jede Einheit besteht aus einem Mittel zum Entgegennehmen eines Eingangssignals S, einem Mittel Ci zum Codieren des Signals in einen Mustervektor Fi (1 ≤ i ≤ k) und einem Mittel zum Vergleichen des Mustervektors mit einem Satz Prototypen [P(j), j=1. . .Ni)], die im Laufe des Vorgangs des Erlernens und Registrierens einer Ausgangsreaktion Ri erzeugt werden. Diese Einheiten sind autonom arbeitende Vorrichtungen. Ein Signal S, das das Ergebnis des Auftretens eines externen Ereignisses (Musters) ist, wird von mit jedem der k unterschiedlichen Codes, die als c&sub1;. . .ck identifiziert werden, in die Zwischensignale F&sub1;. . .Fk codiert; diese Signale werden dann in Klassen getrennt, um jeweils eine Ausgangsreaktion R&sub1;. . .Rk von jeder der Einheiten U&sub1;. . .Uk zu erzeugen.
- Die k Codes c&sub1;. . .ck erzeugen somit k Signale, F&sub1;. . .Fk, die jeweils verschiedene Aspekte (oder Merkmale) des externen Ereignisses darstellen. In einem Extremfall können die Codes orthogonal sein. In diesem Fall wird eine gegebene Darstellung eines Ereignisses in nur ein einziges Signal Fj codiert. Die anderen ergeben Null. (Beim Beispiel des Codierens für von Hand erstellten Zeichen kann eine solche Unterteilung durch eine Codierung erreicht werden, bei der alle Eingaben mit einem Strich in c&sub1;, alle mit zwei Strichen in c usw. eingetragen werden). Dann erfolgt die Verarbeitung in den k Einheiten völlig unabhängig.
- Im anderen Extremfall können die Codes identisch sein, so daß C&sub1;=c=. . .ck ist. In dieser Situation wird gegenüber der einer Einzeleinheit offensichtlich nichts gewonnen.
- In der hier von uns betrachteten Situation können die Codes k orthogonal oder nicht orthogonal sein, aber sie sind nicht identisch. Im allgemeinen wird ein gegebenes Erscheinen eines externen Musters von einigen oder von allen der k Codes, c&sub1;. . .ck, in ein Ungleich-Null-Signal codiert. Jeder dieser Codes könnte verschiedene Aspekte oder Merkmale des eintreffenden Ereignisses hervorheben. Die Informationen aus einigen Codes können gut zur Trennung bestimmter Musterklassen dienen, während die aus anderen Codes sich besser dazu eignen, noch andere Musterklassen zu trennen. Es kann auch der Fall eintreten, daß ein Muster am besten durch Korrelationen zwischen den aus zwei oder mehr Codes entstehenden Signalen identifiziert wird.
- Die k Zwischensignale F&sub1;. . .Fk werden an k Vorrichtungen zur Musterklassifizierung N&sub1;, N. . .Nk übergeben, die ihrerseits die entsprechenden Ausgangsreaktionen R&sub1;. . .Rk erzeugen. Jede Vorrichtung zur Musterklassifizierung ist vorzugsweise ein adaptives Nestor-Modul des Typs, der in den oben genannten US-Patenten Nr. 3.950.733, 4.044.243, 4.254.474 und 4.326.259 offengelegt worden ist. Ein derartiges adaptives Modul umfaßt folgendes: eine Anzahl M an Eingangsanschlüssen, die jeweils so angeschlossen sind, daß sie eine Skalarkomponente f (f1i, f2i . . . fMi) der Zwischensignale Fi erhalten; eine Anzahl N an Summierern, wobei jeder Summierer M Eingänge und einen Ausgang hat und die Funktion hat, ein Skalarkomponentensignal r (r1i, r2i . . . rNi) an seinem Ausgang zu erzeugen, das die Summe der an seinen Eingängen zugeführten Signaldarstellungen repräsentiert; mindestens eine Anzahl N an Skalarmultiplizierern, die jeweils an einen der Summierer angeschlossen sind, um ein zweites Skalarkomponentensignal λri zu erzeugen, wobei λ ein Multiplikationsfaktor ist; mindestens eine Anzahl N an Schwellenwertvorrichtungen, von denen jede an einem der Skalarmultiplizierer angeschlossen ist, um eine Skalar-Ausgangsreaktion pi (p&sub1;, p . . . pN) zu erzeugen, wenn das zweite Skalarkomponentensignal einen vorgegebenen Schwellenwert θi überschreitet; und eine Anzahl M·N an Verbindungselementen, wobei jedes Verbindungselement einen der Eingangsanschlüsse mit einem der Summierer verbindet und für die Informationsübertragung von dem jeweiligen Eingangsanschluß zu dem jeweiligen Summierer in Abhängigkeit von dem am jeweiligen Eingangsanschluß erscheinenden und in Abhängigkeit von der Übertragungsfunktion des Verbindungselements sorgt. Im Lernmodus wird die Übertragungsfunktion von mindestens einem der Verbindungselemente in Abhängigkeit von dem hereinkommenden Signal, das dem Verbindungselement zugeführt wird, und dem Ausgangssignal des Summierers, dem das Verbindungselement zugeordnet ist, verändert. Außerdem wird mindestens einer der Skalarmultipliziererfaktoren λ so verändert, daß sich die Reaktion des zugehörigen Prototyps auf eine einzige Klasse von Mustern beschränkt.
- Das adaptive Nestor-Modul funktioniert so, daß es den Vektor Fi des eintreffenden Musters mit einem Satz Prototypen P(j), j=1 . . . N, vergleicht und eine Ausgangsreaktion Ri erzeugt, die den Prototyp oder die Prototypen (falls vorhanden) anzeigt, die auf den Mustervektor Fi ansprechen oder zu ihm passen. Da jedes adaptive Nestor-Modul geschult wird, entwickelt es einen einzigartigen Satz an Prototypen zur Klassifizierung eintreffender Muster. Unter Voraussetzung eines Eingangsvektors Fi, der einer Muster aus einer Klasse darstellt, deren Erkennung dem System beigebracht worden ist, und eines bestimmten Satzes an Prototypen ist die Wahrscheinlichkeit hoch, daß das Muster in die Klassifizierungsbereiche eines oder mehrerer Prototypen für diese Klasse fallen wird.
- Die Entwicklung von Prototypen in jedem adaptiven Nestor-Modul Ni gestattet es ihm, seine eigene Klassifizierungsstrategie bei eintreffenden Mustern herauszubilden und zu implementieren. Die Strategie, die es entwickelt, kann darauf beruhen, auf Mustereigenschaften zu achten, die einzig von seinem zugeordneten Codierer Ci registriert werden. Darüber hinaus ist es so, daß, selbst dann wenn zwei oder mehr adaptive Module ihre Eingangssignale von demselben oder einem gleichwertigen Codierer ableiten, mögliche Unterschiede bei den Parametern, die Entwicklung ihrer Prototypsätze steuern, sie dazu veranlassen, effektiv verschiedene Klassifizierungsstrategien zu implementieren, die auf dieselben Eingangsmuster angewendet werden. Das System entsprechend der Erfindung bietet deshalb ein Mittel, mit dessen Hilfe eine beliebige Anzahl solcher parallel (oder in Folgeschaltung) arbeitender Klassifizierungseinheiten sich selbst so organisieren können, daß sie den besten Code sowie die Korrelationenen zwischen Codes für ein Muster auswählen und somit ein hocheffizientes Mittel zum Trennen und Klassifizieren der verschiedenen Muster ergeben.
- In der Zeitschrift "Electronics and Communications in Japan", Vol. 48, No. 9, Sept. 1965, S. 37-46, K. Udagawa et al., wird ein paralleles zweistufiges Entscheidungsverfahren zur Zeichenerkennung beschrieben. Es handelt sich um ein statistisches Verfahren, das auf einer Bayes-Entscheidungsregel und nicht auf dem in der vorliegenden Erfindung vorgetragenen Prototypspeichermittel beruht.
- Außerdem wird ein paralleles zweistufiges Entscheidungsverfahren zur Zeichenerkennung offengelegt in "Wissenschaftliche Berichte", Vol. 52, No. 1/2, 2. Januar 1979, S. 31-38, J. Schürmann. Bei diesem Verfahren erfolgt die endgültige Auswahl zwischen unabhängigen parallelen Reaktionen unter Bezugnahme auf externe Kriterien (Zusammenhang innerhalb des Wortes) und nicht durch eine Interaktion zwischen den sich gegenseitig ausschließenden parallelen Reaktionen.
- Um die vorliegende Erfindung voll verstehen zu können, sind die nachfolgende ausführliche Beschreibung der bevorzugten Realisierungen der Erfindung und die zugehörigen Zeichnungen zu berücksichtigen.
- Fig. 1 ist ein Blockschaltbild einer Vorrichtung zur Trennung und Identifizierung von Musterklassen entsprechend einer ersten bevorzugten Realisierung der vorliegenden Erfindung.
- Fig. 4 ist ein detailliertes Blockschaltbild der erwähnten ersten bevorzugten Realisierung einer Vorrichtung zur Trennung und Identifizierung von Musterklassen.
- Fig. 5 ist ein Flußdiagramm, das einen Algorithmus für ein Softwaresystem (Nestor SystemTM) zeigt, durch das die in Fig. 4 dargestellte Vorrichtung zur Trennung und Identifizierung von Musterklassen implementiert wird.
- Fig. 6 ist ein Flußdiagramm, das einen Algorithmus für den Musterprototypvergleich innerhalb der Musterklassifizierungseinheiten in dem System nach Fig. 5 zeigt.
- Fig. 7 ist ein Flußdiagramm, das einen Algorithmus zum Zusammensetzen der Reaktionen der Klassifizierungseinheiten in dem System nach Abb. 5 zeigt.
- Fig. 8 ist ein Flußdiagramm, das einen Algorithmus zum Assemblieren der Reaktion des Systems nach Abb. 5 zeigt.
- Fig. 9 ist ein Flußdiagramm, das den Lernalgorithmus zum Verändern des Speichers in den Klassifizierungseinheiten des Systems nach Abb. 5 zeigt.
- Fig. 10 zeigt einige Beispiele von durch verschiedene Codes getrennten Musterklassen.
- Die vorliegende Erfindung und ihre bevorzugte Realisierung werden nun anhand der Zeichnungen Fig. 1 und Fig. 4-10 beschrieben.
- Fig. 1 zeigt eine bevorzugte Realisierung der vorliegenden Erfindung. Diese Realisierung wird hier in einer für ein generelles Verständnis der vorliegenden Erfindung ausreichenden Form beschrieben. Einzelheiten der Realisierung werden im folgenden unter Bezugnahme auf die Zeichnungen Fig. 4-10 beschrieben.
- Wie in Fig. 1 dargestellt enthält das System einen Detektor 10, der einen Signalvektor S erzeugt, der aus einzelnen Skalarkomponentensignalen s&sub1;, s . . sM besteht, die ein Muster oder ein "Ereignis" in der Außenwelt darstellen. Bei dem Detektor 10 handelt es sich um eine herkömmliche Vorrichtung wie zum Beispiel eine Anordnung von Lichtsensoren, von denen jeder einzelne eines der Ausgangssignale s&sub1;, s . . . sM liefert.
- Der Signalvektor S wird parallel k Musterklassifizierungs-"Einheiten" 12 zugeführt, und zwar Einheit 1, Einheit 2, . . . Einheit i, . . . Einheit k. Jede Einheit (z. B. Einheit i) umfaßt eine Mustermerkmalcodiervorrichtung 14 (Ci) und eine Musterklassifizierungsvorrichtung 16 (Ni). Vorzugsweise codiert jede der Codiervorrichtungen C&sub1;, C . . . Ck einen anderen Satz an Merkmalen in dem Muster, das durch das Signal S dargestellt wird, mittels eines einzigartigen Codes ci (c&sub1;, c . . . ci . . . ck). Dadurch enthalten die von den jeweiligen Codiervorrichtungen erzeugten Zwischensignale F&sub1;, F . . . Fi . . .Fk unterschiedliche Informationen.
- Die einzelnen Musterklassifizierungsvorrichtungen 16 (z. B. Vorrichtung Ni) bestehen vorzugsweise jeweils aus einem adaptiven Nestor-Modul des Typs, der in den erwähnten US-Patenten Nr. 3.950.733, 4.044.243, 4.254.474 und 4.236.259 offengelegt worden ist. Die Funktion dieses adaptiven Moduls ist es, einen codierten Mustervektor Fi mit einem Satz "Prototypen" für Musterklassen zu vergleichen, die das Modul durch Schulung erlernt hat. Das adaptive Nestor-Modul, das imstande ist, den Mustervektor zu klassifizieren, indem es ihn gegen einen Satz Prototypen prüft, erzeugt eine Ausgangsreaktion Ri. Da jede der Klassifizierungsvorrichtungen 16 als Ergebnis ihrer Schulung einen anderen Satz Prototypen zur Verfügung stellt, gegen den der Mustervektor Fi zu prüfen ist, besteht eine hohe Wahrscheinlichkeit, daß eine der Klassifizierungsvorrichtungen in der Lage sein wird, das codierte Muster zu identifizieren.
- Wenn wir von der Annahme ausgehen, daß das Zwischensignal Fi ein Mustervektor ist, der M Skalarsignale (f&sub1;, f . . . fM) umfaßt, und wenn wir annehmen, daß die Ausgangsreaktion Ri einer Klassifizierungsvorrichtung 16 Ni ein Reaktionsvektor ist, der aus N Skalarsignalen (r&sub1;, r . . . rN) besteht, so daß die Klassifizierungsvorrichtung M Eingänge und N Ausgänge besitzt, dann umfaßt ein adaptives Nestor-Modul, das diese Klassifizierungsvorrichtung 16 bildet, folgendes:
- (1) Einen Vielzahl M an Eingangsanschlüssen, die jeweils so angeschlossen sind, daß sie eines der skalaren Zwischensignale f&sub1;, f . . fM erhalten;
- (2) eine Vielzahl N an Summierern, wobei jeder Summierer M Eingänge und einen Ausgang hat, und wobei es seine Funktion ist, ein Skalarkomponentensignal r an seinem Ausgang zur Verfügung zu stellen, das die Summe der an seinen Eingängen zugeführten Signaldarstellungen ist;
- (3) eine Anzahl N an Skalarmultiplizierern, von denen je einer an einen der Summierer angeschlossen ist, um ein zweites Skalarkomponentensignal λri zu erzeugen, wobei λ ein Multiplikationsfaktor ist;
- (4) eine Anzahl N an Schwellenwertvorrichtungen, von denen je eine mit einem der Skalarmultiplizierer verbunden ist, um eine skalare Ausgangsreaktion pi (p&sub1;, p . . . pi . . . pN) zu erzeugen, wenn das zweite Skalarkomponentensignal einen vorgegebenen Schwellenwert θi überschreitet; und
- (5) eine Vielzahl M·N an Verbindungselementen, wobei jedes Verbindungselement einen der Eingangsanschlüsse mit einem Summierer verbindet und für die Übertragung von Informationen vom betreffenden Eingangsanschluß zum betreffenden Summierer in Abhängigkeit von dem am betreffenden Eingangsanschluß erscheinenden Signal und von der "Übertragungsfunktion" des Verbindungselements sorgt.
- Zwar wird das adaptive Nestor-Modul geschult, aber es enthält außerdem einen geeigneten Controller, um folgendes zu verändern:
- (1) die Übertragungsfunktionen von einigen der Verbindungselemente in Abhängigkeit von dem ihm zugeführten Eingangssignal und dem Ausgangssignal des Summierers, dem das betreffende Verbindungselement zugeordnet ist, (2) die Skalarmultiplizierer λ und (3) die Schwellenwerte θ.
- Die Ausgangssignale R&sub1;, R . . . Ri . . . Rk aller Klassifizierungseinheiten 12 werden einer gemeinsamen Vorrichtung zur Musterklassenidentifizierung 22 zugeführt, die die endgültige Erkennungsfunktion ausführt und eine gemeinsame Ausgangsreaktion R (bestehend aus den Skalarsignalen r&sub1;, r . . . rN) erzeugt. Diese Vorrichtung zur Musterklassenidentifizierung kann jede beliebige Anzahl von Formen annehmen, z. B. die in Fig. 3, 4 und 8 des bereits erwähnten US-Patents Nr. 4.326.259 abgebildeten Formen. Die Identifizierungsvorrichtung 22 kann auch durch ein adaptives Nestor-Modul des Typs implementiert werden, der in den erwähnten US-Patenten Nr. 3.950.733, 4.044.243, 4.254.474 und 4.326.259 offengelegt und bereits in zusammengefaßter Form kurz beschrieben worden ist. Eine alternative Implementierung der Identifizierungsvorrichtung 22 wird im folgenden erörtert.
- Fig. 4 zeigt die bevorzugte Realisierung nach Fig. 1 etwas ausführlicher. Wie in dem bereits erwähnten US-Patent Nr. 4.326.259 beschrieben, reagiert das System auf ein Eingangssignal 5, das aus einer großen Anzahl digitaler Signalkomponenten s&sub1;, s . . . sN besteht. Alternativ kann das Signal S aus einem oder mehreren analogen Signale bestehen. Dieser Signalvektor S wird durch einen Detektor 110 erzeugt, der auf "Muster" oder "Ereignisse" der realen Welt, die zu klassifizieren und zu identifizieren sind, reagiert. Zum Beispiel kann es sich bei dem Detektor 110 um einen Zeichenabtaster handeln, der die Form von handgeschriebenen Zeichen feststellt. Als weiteres Beispiel kann der Detektor 110 ein Mikrophon sein, das auf hörbare Geräusche reagiert und ein einzelnes Analogsignal S erzeugt.
- Das Eingangssignal S wird parallel k "Klassifizierungseinheiten" 112 zugeführt, die mit Einheit 1, Einheit 2 . . . Einheit k bezeichnet werden. Jede dieser Einheiten umfaßt eine Vorrichtung zur Mustermerkmalcodierung 114, die das Eingangssignal S erhält und ein Zwischensignal Fi (d. h. eines von F&sub1;, F . . . Fk) erzeugt, das bestimmte Merkmale darstellt, die in dem durch das Signal S dargestellten Muster enthalten sind. Vorteilhafterweise reagiert jede der Codiervorrichtungen 114 auf und codiert einen anderen Satz Merkmale in dem Muster, so daß alle von den Codiervorrichtungen erzeugten Signale Fi Informationen tragen, die unverkennbar und voneinander verschieden sind.
- Jede Klassifizierungseinheit 112 umfaßt außerdem eine Musterklassifizierungsvorrichtung 116, die auf das Zwischensignal Fi reagiert und ein Ausgangssignal Ri (d. h., eines von R&sub1;, R . . . Rk) erzeugt, das die Klasse oder mögliche Klassen des durch das Eingangssignal S dargestellten Musters darstellt, da dieses Muster durch die durch die Codiervorrichtung 114 codierten Merkmale identifiziert wird. Die Musterklassifizierungsvorrichtung 116 ist vorzugsweise eine Vorrichtung zum Trennen und Identifizieren der Musterklasse des Typs, der in dem zuvor erwähnten US-Patent Nr. 4.326.259 offengelegt wird. Wie in Fig. 4 gezeigt umfaßt diese Klassifizierungsvorrichtung eine Vielzahl an Baugruppen 118, die als "Prototypen" bezeichnet werden und die ähnlich der oder identisch mit der Baugruppe i sind, die in Fig. 7 des zuvor erwähnten US-Patents Nr. 4.326.259 abgebildet ist. Die Baugruppen 118 erzeugen Ausgangssignale p&sub1;, p . . . pM, die einer Vorrichtung 120 zugeführt werden, die die Reaktionen der Baugruppen 118 assembliert und, falls möglich, eine Ausgangsreaktion Ri erzeugt, die die Musterklasse oder den Satz möglicher Musterklassen identifiziert. Diese Vorrichtung zur Musterklassenidentifizierung kann zum Beispiel von dem Typ sein, der in Fig. 8 des zuvor erwähnten US-Patents Nr. 4.326.259 abgebildet ist.
- In der bevorzugten Realisierung der nachfolgend zu beschreibenden Erfindung werden die Klassifizierungseinheiten 116 durch Systemsoftware in einem digitalen Allzweck-Computer implementiert und liefern Reaktionen R&sub1;, R . . . Rk, die jeweils aus den Variablen LEVRSP, NUMCAT und CATLEV bestehen. Die Bedeutung und die Definition dieser Variablen wird nachfolgend beschrieben. An dieser Stelle möge es ausreichen festzustellen, daß die von den k Klassifizierungseinheiten 112 erzeugten Reaktionen Ri parallel einer Vorrichtung zur Klassenauswahl 122 zugeführt werden, die eine einzige Ausgangsreaktion erzeugt, die die Klasse des durch das Eingangssignal S dargestellten Musters darstellt. In der nachfolgend zu beschreibenden bevorzugten Realisierung umfaßt die Reaktion R die Variablen CER- TAN, NLIM und CLASSL.
- Wie in den zuvor erwähnten US-Patenten Nr. 3.950.733, 4.044.243 und 4.326.259 beschrieben kann das System in zwei verschieden Betriebsarten betrieben werden:
- (1) ein Lern- oder Schulungsmodus, bei dem Bewertungsfaktoren, Multiplikatoren und Schwellenwerte innerhalb der Vorrichtungen zur Musterklassifizierung 116 so verändert werden, daß das System lernt, neue Muster zu erkennen, die es noch nie zuvor "gesehen" hat, und seine Erkennung früher gesehener Muster zu verbessern; und (2) ein normaler oder geschulter Modus, bei dem die Bewertungsfaktoren, Multiplikatoren und Schwellenwerte konstant gehalten werden. Nur beim Schulungsmodus benötigt das System einen Controller zur Speicherveränderung 124, der die Bewertungsfaktoren, Multiplikatoren und Schwellenwerte auf die in den zuvor erwähnten Patenten beschriebenen Weise verändert.
- Die in Fig. 4 dargestellte Vorrichtung zur Musterklassentrennung und -identifizierung kann entweder als Hardware oder als Software implementiert werden. Wie zuvor erwähnt können die Vorrichtungen zum Codieren der Mustermerkmale auf die durch C. Y. Suen et al. in Automatic Recoonition of Handprinted Characters - the State of the Art beschriebenen Weise implementiert werden, auf die zuvor Bezug genommen wurde.
- Es werden nun die Vorrichtung zur Musterklassifizierung 116 in jeder Klassifizierungseinheit 112 sowie die Vorrichtung zur Klassenauswahl 122 unter Bezugnahme auf die Zeichnungen Fig. 5-9 beschrieben, die entsprechend der bevorzugten Realisierung Algorithmen zum Implementieren dieser Vorrichtungen als Software zeigen. In dieser Beschreibung werden bestimmten Begriffen eindeutige und präzise Bedeutungen gegeben, die in dem beigefügten Anhang aufgeführt sind.
- Wie im US-Patent Nr. 4.326.259 beschrieben besteht in einem adaptiven Nestor-Modul der Speicher aus "Prototypen". Jeder Prototyp hat eine Anzahl an Eingangsleitungen und einen Ausgangssignalweg, über den er mit anderen Elementen in dem System kommuniziert. Jeder Prototyp hat einen zugehörigen Satz Bewertungsfaktoren (je einen pro Eingangsleitung), den Prototypvektor und einen Schwellenwert, der festlegt, ob er "ein-" oder "ausgeschaltet" ist. Der Schwellenwert, der einen "Einflußbereich" für den Prototyp festlegt, kann verändert werden, wenn sich das adaptive Modul im Schulungsmodus befindet. Jeder Prototyp ist mit einer bestimmten Klasse verbunden. Schließlich gehört jeder Prototyp zu einer bestimmten Einheit (Einheit 1, Einheit 2 . . . Einheit k) innerhalb des Systems.
- Im Speicher des adaptiven Nestor-Moduls gibt es zwei Arten von Prototyp-Typen: Phase-1-Prototypen (P1) und Phase-2-Prototypen (P2). Unter den Marken, die einem Prototyp zugeordnet werden, gibt es eine, die seine "Phase" kennzeichnet. Die Unterscheidung zwischen den zwei Prototyp-Typen betrifft in erster Linie das Ausmaß, in dem sie die Klassifizierung des Musters innerhalb einer gegebenen Einheit des Systems beeinflussen können. P1-Prototypen können die Reaktion des Systems eindeutig bestimmen, während P2-Prototypen, wenn sie ausgelöst werden, nur anzeigen können, daß ein durch das Signal S dargestelltes eintreffendes Muster in eine designierte Klasse aus einer Anzahl von Klassen fallen kann.
- Um die Klasse eines Musters zu identifizieren, wird das Muster mit einer Gruppe von Prototypen im Speicher verglichen. Das Muster erscheint einem Prototypen als ein Satz Signale, der an seinen N Eingangsleitungen anliegt. Die Operation des Vergleichens eines Musters und eines Prototypen kann in einer von mehreren Formen erfolgen. Bei einem Verfahren wird das Signal an jeder Prototyp-Leitung (fj) mit der dieser Leitung (Pj) zugeordneten Gewichtung multipliziert, und die resultierenden N Produkte werden summiert, um das integrierte Gesamtsignal zu erzeugen, das der Prototyp sieht.
- Dieses Signal wird mit dem Prototyp-Schwellenwert e verglichen. Falls es den Schwellenwert übersteigt, dann spricht man davon, daß der Prototyp "ausgelöst" wird, falls es ihn nicht überschreitet, verhält sich der Prototyp ruhig.
- d > θ (Prototyp wird ausgelöst)
- Ein anderes Vergleichsverfahren ist nützlich, falls die an den Prototyp-Eingangsleitungen eintreffenden Signale binär sind und jede Leitung entweder eine positive oder eine negative Impulszacke führt. In diesem Fall ist der dieser Leitung zugeordnete Prototyp-Bewertungsfaktor selbst eine binäre Zahl. Bei diesem Verfahren besteht die Prototyp-Gesamtaktivität im Zählen der Anzahl der Eingangsleitungen, an denen das Vorzeichen des Mustersignals nicht zum Vorzeichen des Bewertungsfaktors paßt.
- dabei ist
- uj = 1 falls Vorzeichen (fj) ≠ Vorzeichen (Pj)
- = 0 im anderen Fall.
- Diese Gesamtzahl der nicht passenden Vorzeichen wird dann mit dem Prototyp-Schwellenwert verglichen. Liegt die Zahl der nicht passenden Vorzeichen unter dem Schwellenwert, so wird der Prototyp ausgelöst; liegt sie über dem oder ist sie gleich dem Schwellenwert, so verhält sich der Prototyp still. Somit ergibt sich bei diesem Verfahren folgender Zusammenhang:
- d < θ (Prototyp wird ausgelöst)
-
- Ein wichtiges Kennzeichen des adaptiven Nestor-Moduls besteht darin, daß der Vergleich eines Musters mit jedem der relevanten Prototypen (entweder eine Untermenge oder der Gesamtspeicher) gleichzeitig stattfinden kann. Darüber hinaus kann beim Vergleichen eines Musters mit einem gegebenen Prototypen die auf einer gegebenen Leitung ausgeführte Operation (entweder Multiplikation oder Vorzeichenvergleich) gleichzeitig aufallen Eingangsleitungen ausgeführt werden. Dieses hohe Maß an Parallelität ist ein inhärentes Kennzeichen des adaptiven Nestor-Moduls.
- Ergebnis des Vergleichs des Musters mit Prototypen in mehreren Einheiten des Systems ist ein Satz Prototypen, die - verteilt über die verschiedenen Einheiten - ausgelöst werden. Prototypen, die innerhalb einer Einheit ausgelöst werden, bewirken, daß die Einheit eine Reaktion abgibt, und die verschiedenen k Einheiten interagieren so, daß sie das endgültige Ausgangssignal des Systems erzeugen.
- Das Ausgangssignal der jten Klassifizierungseinheit 112 besteht aus einer Liste von Klassen (CATLEV), der Anzahl der Klassen in dieser Liste (NUMCAT) und einer Kennung LEVRSP, die die Art der Reaktion von der Einheit kennzeichnet. Falls die Einheit eindeutig eine Klassifizierung zu dem Muster zuordnen kann, dann ist die Art der Reaktion der Einheit LEVRSP = "IDENTIFIED" (identifiziert). Falls die Einheit nur eine mögliche Klassifizierung vorschlagen kann oder sich nicht zwischen mehreren als Anwärter in Frage kommenden Klassen entscheiden kann, dann ist die Art der Reaktion LEVRSP = "UNCERTAIN" (unsicher). Schließlich, falls das System nicht in der Lage ist, zu dem Muster irgendeine Klassifizierung vorzunehmen, dann ist die Art der Reaktion LEVRSP = "UNIDENTIFIED" (nicht identifiziert).
- Um zu verstehen, wie das Auslösen von P1- und P2-Prototypen die Reaktion einer Einheit auf unterschiedliche Weise beeinflussen kann, betrachte man den Fall, bei dem eine Einheit nur einen auslösenden Prototypen hat. Ist der Prototyp P1, dann besteht die Reaktion der Einheit darin, dem Muster eindeutig die Klasse dieses Prototypen zuzuordnen (LEVRSP = "IDENTI- FIED). Ist der Prototyp P2, dann kann die Einheit diese Klasse nur als eine mögliche Identifizierung für das Muster vorschlagen. Die Reaktion der Einheit ist unsicher (LEVRSP = "UNCER- TAIN"). Unabhängig davon, wieviele Prototypen in der Einheit wegen dieser Klasse ausgelöst werden könnten, die Art der Reaktion der Einheit wäre immer "UNCERTAIN" (unsicher). Bei dem Vorgang, durch den die Reaktionen der Einheiten zusammengefaßt werden, um eine Systemklassifizierung zu liefern, dominieren Einheiten, die eindeutige Zuordnungen erzeugen, über solche, die unsichere Zuordnungen erzielen.
- Im allgemeinen Fall bestimmen Prototypen, die in einer Einheit ausgelöst werden, deren Reaktion entsprechend den folgenden Regeln. Falls es in einer Einheit auslösende Prototypen gibt, dann werden die von ihnen dargestellten Klassen in CATLEV eingetragen, und NUMCAT > 0. Falls mindestens einige der ausgelösten Prototypen P1-Prototypen sind und falls der diesen P1-Prototypen zugehörige Satz Klassen nur aus einer Klasse besteht, dann wird diese Klasse als erste in die CATLEV positioniert und die Reaktionsart der Einheit ist LEVRSP = "IDENTI- FIED" (identifiziert). Unter allen anderen Umständen, bei denen ausgelöste Prototypen vorhanden sind, ist die Art der Reaktion der Einheit LEVRSP = "UNCERTAIN" (unsicher). Falls keine ausgelösten Prototypen vorhanden sind, dann ist NUMCAT = 0 und LEVRSP = "UNIDENTIFIED" (nicht identifiziert).
- Die Reaktion der Vorrichtung zur Klassenauswahl 122 des Systems besteht aus einer Liste von Kategorien CLASSL, der Anzahl der Elemente in dieser Liste, NLIM, und einer logischen Kennung, CERTAN. Falls der Wert von CERTAN = TRUE ist, dann hat das System das Muster als zu der ersten in der CLASSL aufgelisteten Klasse zugehörig identifiziert. (Die Reaktion des System ist IDENTIFIED (identifiziert).) Falls CERTAN = FALSE und NLIM > 0 ist, dann ist das System unsicher (UNCER- TAIN) bezüglich der Identifizierung des Musters, hat aber den Bereich der Möglichkeiten auf eines der in der CLASSL aufgeführten NLIM-Elemente eingeengt. Sie sind von höchstwahrscheinlich bis hin zu am wenigsten wahrscheinlich geordnet. (Man beachte, daß das System trotz der Tatsache, daß es evtl. nur eine Klasse in der CLASSL gibt, unsicher sein kann. Das System bietet diese Klasse dann als eine wahrscheinliche, aber nicht als endgültige Klassifizierung an.) Falls NLIM = 0 ist, dann ist die Reaktion des Systems UNIDENTIFIED (nicht identifiziert).
- Um die Systemreaktion anhand der der Ausgangssignale der einzelnen Klassifizierungseinheiten zu synthetisieren, kann den Einheiten eine Priorität zugeordnet werden, die die Rangordnung, nach der ihre Reaktionen bewertet werden, bestimmt. Diese Maßnahme errichtet eine Hierarchie für die Einheiten, und die Bezugnahme auf die Einheiten erfolgt anhand dieser Prioritätsnummer. So kann beispielsweise U&sub1; die höchste und Uk die niedrigste Priorität haben.
- Um die Systemreaktion zusammenzusetzen, werden die einzelnen Einheiten in der Reihenfolge 1 bis k abgesucht, und die Suche wird bei der ersten Einheit gestoppt, deren LEVRSP = "IDENTI- FIED" (identifiziert) ist. Angenommen, der Prioritätsindex dieser Einheit sei IDNLEV (1≤IDNLEV≤k). Die erste in CATLEV für die IDNLEV-Einheit aufgelistete Klasse wird an die erste Stelle der CLASSL gestellt. Zusätzlich werden in den CATELEVs aufgelistete Klassen für die Einheiten 1 bis (IDNLEV-1) beginnend mit Position 2 in die CLASSL gestellt und möglicherweise auf irgendwelche Arten sortiert, z. B. Häufigkeit des Auftretens bei den Einheiten, durchschnittlicher Prioritätswert der auf die Klasse reagierenden Einheiten usw. CERTAIN wird auf TRUE (wahr) gesetzt, und die Reaktion des Systems ist IDENTI- FIED (identifiziert).
- Falls das Absuchen der Einheiten keine Einheit erbringt, bei der LEVRSP="IDENTIFIED ist, dann haben entweder alle Einheiten LEVRSP="IDENTIFIED" oder mindestens eine Einheit hat LEVRSP="UNCERTAIN". Falls alle LEVRSP="IDENTIFIED" haben, dann ist NLIM=0 und die Reaktion des Systems ist UNIDENTIFIED (nicht identifiziert).
- Es ist möglich, die Vorteile einer hierarchischen Anordnung von Einheiten zu nutzen, um die durchschnittliche Anzahl der "abgefragten" Einheiten (und somit die durchschnittliche Anzahl der auszuführenden Berechnungen) zu verringern, bevor eine Systemklassifizierung herauskommt. In diesem Sinne werden Berechnungen innerhalb jeder Einheit bis hinab zu der Einheitspriorität ausgeführt, bei der eine eindeutige Klassifizierung zustande kommt. Andererseits müssen die Einheitsprioritäten nicht einmalig sein. Dieselbe Priorität kann einer Gruppe von Einheiten zugeordnet werden. Alle Einheiten mit derselben Priorität funktionieren parallel. Ein Muster, das von einer Einheit mit gegebener Priorität verarbeitet wird, muß in jeder und allen Einheiten mit derselben Priorität verarbeitet werden. Damit erhält jede dieser Einheiten die gleiche Gelegenheit, ihren Beitrag zur Systemreaktion zu leisten.
- Falls bei allen Einheiten LEVRSP="UNCERTAIN" ist, dann erfolgt die Auszählung der Stimmen der Einheiten, wobei versucht wird, die Klassenausgangssignale einer Einheit mit den Klassenausgangssignalen anderer Einheiten in Korrelation zu bringen. Als Beispiel für diese Korrelation sei angenommen, daß U&sub1; Klassenausgangssignale (a,b) und U Klassenausgangssignale (b,c) hat. Ein Stimmenzahlsystem, das die Einheiten zählt, die für die Klassen a,b,c stimmen, könnte ihnen jeweils die Stimmen 1,2,1 zuweisen. Das System würde dann b als die Kategorie des Musters wählen. Zur Durchführung der Stimmenzählung werden die Einheiten in der Reihenfolge ihrer Priorität abgesucht und nach jeder Einheit werden die Klassenstimmen aktualisiert. Bei der Priorität j wird die Stimmenzählung einer Klasse als eine Funktion der Anzahl der Einheiten mit Prioritätsnummern kleiner als oder gleich j, deren Klassenausgangssignale die gegebene Klasse enthalten, definiert. Falls unter all den Einheiten mit höchster Priorität eine Klasse mehr Stimmen als jede andere hat, dann wird diese Klasse zum Sieger erklärt und die Auszählung der Stimmen ist beendet. Falls kein Sieger gefunden wird, dann wird die Stimmenzählung durch Abfrage aller Einheiten mit der nächsten höchsten Priorität und Suche nach einer siegenden Klasse aktualisiert. Angenommen, es ist nach Zählung der Stimmen bis hinab zu einer bestimmten Priorität ein Sieger gefunden worden, dann gehen die Klassenausgangssignale der abgefragten Einheiten in die CLASSL ein, und zwar geordnet von der höchsten zur niedrigsten Stimme. Falls es eine einzelne Klasse gab, die mehr Stimmen als eine andere Klasse hatte, dann wird CERTAN=TRUE gesetzt, und die Reaktion des Systems ist IDENTIFIED (identifiziert). Falls nach Auszählung der Stimmen keine einzelne Klasse mit mehr Stimmen als eine andere herauskommt, dann wird CERTAN=FALSE gesetzt und die Reaktion des Systems lautet UNCERTAIN (ungewiß).
- Veränderungen am Speicher eines adaptiven Nestor-Moduls erfolgen während der Schulung als Reaktion auf die Vorlage eines Musters und seiner Klasse, wobei letztere typischerweise durch den Benutzer geliefert wird. Bei den Grundoperationen, die an der Veränderung des Modulspeichers beteiligt sind, handelt es sich um (1) die Festlegung eines P1-Prototypen, (2) die Herabsetzung des Schwellenwertes eines P1-Prototypen, (3) die Umwandlung eines P1-Prototypen in einen P2-Prototypen und (4) die Zuweisung eines P2-Prototypen.
- Der Vorgang zur Festlegung eines P1-Prototypen innerhalb einer Klassifizierungseinheit beruht auf den Verfahren zur Prototypfestlegung, die in dem US-Patent Nr. 4.326.259 erörtert werden. Falls ein P1-Prototyp in Uj, festgelegt werden soll, dann wird der Mustercodevektor in dieser Einheit Fj, ein neuer Prototypvektor P(m) in Uj", wobei die Klasse des Musters zur Klasse des neu geschaffenen Prototypen wird. Wie schon an anderer Stelle erörtert legt der Schwellenwert eines Prototypen einen "Einflußbereich" in dem mehrdimensionalen Musterraum fest, in dem sich der Prototypvektor befindet. (Dies ist unabhängig von den besonderen Einzelheiten eines Musterprototypvergleichs wahr.) Der Einflußbereich ist auf den Prototyp zentriert und erstreckt sich über einige Entfernung in seiner Umgebung. Diese Entfernung wird durch den Schwellenwert bestimmt. Der Schwellenwert eines neu festgelegten Prototypen wird auf einen Wert initialisiert, der kleiner als die oder gleich der Entfernung zu dem nächstgelegenen Prototypen (des Typs P1 oder P2) einer abweichenden Klasse oder eines Vorgabewertes ist.
- Prototypen müssen einen bestimmten minimalen Schwellenwert haben. Ist der Schwellenwert, der einem neu festgelegten P1-Prototyp zugeordnet werden soll, niedriger als dieser Grenzwert, dann mißlingt der Versuch der P1-Zuweisung, und der P1-Prototyp kann nicht mit seinem Vektor und seiner Klasse in den Speicher dieser Einheit aufgenommen werden.
- Die Herabsetzung des Schwellenwertes eines Prototypen ist so ausgelegt, daß sie den Schwellenwert des Prototypen so ändert, daß der Prototyp bei einem anschließenden Vergleich dieses Musters mit dem Prototyp nicht ausgelöst wird. Generell gehört dazu, daß der Schwellenwert des Prototypen auf eine Zahl kleiner als die oder gleich der Entfernung zwischen dem Muster und dem Prototypen gesetzt wird.
- Ein P1-Prototyp kann in einen P2-Prototyp umgewandelt werden, falls es während des Verringerns der Größe seines Schwellenwertes notwendig wird, ihn unter den Grenzwert für P1-Schwellenwerte zu verkleinern. Wenn dies geschieht, wird der Prototyp mit einer Kennung als P2-Prototyp versehen, und sein Schwellenwert wird auf eine Zahl zwischen dem P1-Grenzwert und der Entfernung zum nächstgelegenen P1 gesetzt.
- Falls gewünscht wird, bei einer Einheit einen P2-Prototypen festzulegen, wird bei der gegebenen Einheit der Codevektor und die Klasse des Eingangsmusters zum Prototypvektor und zur Klasse. Der Prototyp erhält eine Kennung als P2-Prototyp. Sein Schwellenwert wird, je nach dem welcher Wert kleiner ist, entweder auf die Entfernung zum nächstgelegenen P1-Prototypen oder auf einen Prozentsatz der Dimensionalität des Raumes gesetzt.
- Der Algorithmus, der beschreibt, wie diese verschiedenen Mechanismen in Laufe des Lernens instrumentiert werden, weist eine Anzahl an Variationen auf. Allgemein kann er wie folgt umrissen werden. Nehmen wir an, ein Prototyp, dessen Klasse von der des Eingangsmusters abweicht, ist als ein inkorrekter Prototyp bekannt. Ein Prototyp, dessen Klasse zu der Klasse des eintreffenden Musters paßt, wird als korrekter Prototyp eingeordnet.
- Der erste Schritt bei der Veränderung des Speichers besteht darin, die Schwellenwerte aller ausgelösten inkorrekten P1-Prototypen so zu verringern, daß sie nicht mehr in Reaktion auf das zur Zeit auftretende Muster ausgelöst werden. (Bei anderen Versionen des Algorithmus erfolgt diese Schwellenwertänderung des ausgelösten P1-Prototypen nur bei Einheiten, deren Priorität niedriger ist als die derjenigen Einheit, die das Muster identifiziert hat.) Falls, nachdem dies erfolgt ist, das Muster nicht korrekt identifiziert wird, versucht das System, dieses Muster als einen P1-Prototypen in einer Einheit mit der höchstmöglichen Priorität, die einen neuen P1-Prototypen aufnehmen kann, festzulegen.
- Falls das Muster bei keiner Einheit als P1-Prototyp festgelegt werden kann, dann legt das System - beginnend bei der Einheit mit der höchsten Priorität, U1, - das Muster als einen P2-Prototypen fest, sofern nicht schon ein korrekter P2-Prototyp ausgelöst worden ist. Die Auszählung der Stimmen wird wiederholt. Falls jetzt die Reaktion des Systems so ist, daß CER- TAN=TRUE ist und das erste Element von CLASSL die korrekte Klassifizierung ist, dann bewirkt dieses Muster keine weiteren Änderungen im Speicher. Falls im anderen Falle die Reaktion des Systems nicht eine korrekte Klassifizierung des Musters ist, dann wird eine P2-Festlegung für die nächstniedrigste Prioritätseinheit U, versucht, und die Stimmenzählung wird erneut wiederholt. Der Vorgang wird beendet, wenn die richtige Klasse zur eindeutigen Systemreaktion geworden ist oder nachdem alle Einheiten mit der niedrigsten Priorität abgearbeitet worden sind. Im letzteren Falle wird das System trotz Unsicherheit einen Satz Klassen als die wahrscheinlichsten Kandidaten für die Identität des Musters anbieten, und dieser Satz wird notwendigerweise die korrekte Musterklasse enthalten.
- Zur Veranschaulichung der Funktionsweise des Systems sei der Fall betrachtet, bei dem es zwei Codes c&sub1; und c gibt, dargestellt daß die verschiedenen Darstellungen der Musterklasse "a" durch c&sub1; gut getrennt, aber durch c bei einer anderen Musterklasse "b" verwechselt werden. In den Räumen von c&sub1; und c können wir deshalb die in Fig. 10A dargestellten Verhältnisse antreffen.
- Offensichtlich ist es für c&sub1; leicht, a und b zu trennen und zu klassifizieren, wohingegen c große Schwierigkeiten hat, diese zu trennen. (In der Praxis wird eine auf c basierende Vorrichtung nicht in der Lage sein, Beispiele von a und b zuverlässig zu klassifizieren.) Wir werden sehen, daß das System - unabhängig davon, wie die Priorität den beiden diese zwei Codes implementierenden Einheiten zugewiesen wird - in der Lage ist, c&sub1; als den Code auszuwählen, in dem Prototypen entwickelt werden sollen, die diese zwei Musterklassen trennen.
- Nehmen wir an, daß c&sub1; durch U&sub1; und c durch U implementiert wird.
- c&sub1; → U&sub1;
- c → U
- (U1 hat die höhere Priorität.) In diesem Fall erwirbt U&sub1; P1-Prototypen, die Einflußbereiche der Prototypen werden standardmäßig angepaßt, und der Speicher des Systems konvergiert zu klaren Einbeziehungen der Territorien a und b in U&sub1;.
- Betrachten wir nun den Fall, daß c durch U&sub1; und c&sub1; durch U implementiert wird.
- c → U&sub1;
- c&sub1; → U
- Auch hier beginnt U&sub1; wieder damit, P1-Prototypen hinzuzuerwerben. Im Laufe der Schulung werden sie jedoch auf P2-Prototypen reduziert, weil ein P1-Einflußbereich mit signifikanter Ausdehnung zu Klassifizierungsfehlern führt. Wenn das geschieht, beginnt U damit, P1-Prototypen hinzuzuerwerben. Die Größen ihrer Einflußbereiche werden so modifiziert, daß sie die zwei Klassenbereiche abdecken und trennen. Während U damit beginnt, die eintreffenden Ereignisse korrekt zu klassifizieren, wird die Prototyp-Festlegung in U&sub1; eingestellt. Bei der Beseitigung der inkorrekten Reaktionen von U&sub1; im Laufe der Schulung werden alle verbleibenden Prototypen dieser Einheit in P2-Prototypen umgewandelt. Somit ist die Art der Reaktion von U1 entweder "UNIDENTIFIED" (nicht identifiziert) oder "UNCERTAIN" (ungewiß). Folglich wird die Reaktion des Systems ausschließlich durch U bestimmt (Code c&sub1;, wobei die Klassenbereiche korrekt getrennt werden).
- Schließlich wollen wir noch den Fall betrachten, bei dem den Einheiten U&sub1; und U die gleiche Priorität zugeordnet wird.
- c&sub1; → U&sub1;
- c → U
- Priorität (U&sub1;) = Priorität (U).
- In diesem Fall beginnen beide Einheiten damit, gleichzeitig P1-Prototypen zu erwerben. Aber auch hier werden - da die inkorrekten Prototypen ihre Einflußbereiche reduziert haben - die Prototypen in U in P2-Prototypen gewandelt, während sich in U&sub1; getrennte Abdeckungen der Gebiete der Klassen a und b entwickeln. Die Reaktionen von U&sub1; werden öfter eindeutig und korrekt; die Festlegung von P1-Prototypen in beiden Einheiten wird gestoppt. Schließlich beruht die Reaktion des Systems allein auf dem Ausgangssignal von U&sub1;.
- Bei einem weiteren, in Fig. 10B dargestellten Beispiel wollen wir eine Situation betrachten, in der es zwei Codes und drei Klassen gibt, a, b und e. Bei Code c&sub1; wird die Klasse a gut getrennt, aber die Klassen b und e belegen denselben Bereich. Bei Code c wird jedoch b gut von benachbarten Klassen getrennt, aber a und e überlappen sich. Anhand der zuvor erfolgten Erörterung des Falles 1 ist klar, daß das System unabhängig davon, wie die Prioritäten den diese Codes implementierenden Einheiten zugeordnet werden, in der Lage ist, P1-Prototypen in c&sub1; festzulegen, um Klasse a zu trennen und zu identifizieren, und gleichermaßen P1-Prototypen in c festzulegen, um Klasse b zu definieren. Ferner beherrscht die Einheit, die c&sub1; implementiert, die Reaktion des Systems bei Mustern des Typs a, während die Einheit für c die Systemreaktion für b-Muster steuert. Aber wie lernt das System, bei seinen Eingangssignalen zwischen Beispielen der Klasse e zu unterscheiden?
- Die Antwort liegt in dem Beitrag, den die P2-Prototypen leisten. Die Einheit für c&sub1; ist nicht in der Lage, P1-Prototypen für entweder b oder e im Bereich (b,e) aufrechtzuerhalten. Gleichermaßen ist die Einheit für c nicht in der Lage, P1-Prototypen für a oder e im Bereich (a,e) beizubehalten. Unabhängig davon, wie die Prioritäten den Einheiten, die die Codes c&sub1; und c implementieren, zugeordnet werden, werden beide Bereiche (b,e) in c&sub1; und (a,e) in c durch P2-Prototypen für e abgedeckt. Diese Abdeckungen sind zumindest komplementär im folgenden Sinne. Nehmen wir zum Zwecke der Beweisführung an, daß die Einheit für c&sub1; die höhere Priorität hat. Die Schulung des Systems hat eine Abdeckung des Bereichs (b,e) erbracht, so daß bei Vorlage eines Beispiels von e die Reaktion von U1 entweder UNCERTAIN (ungewiß) bei e oder UNCERTAIN bei b oder e ist. Da wir ja schon darauf hingewiesen haben, daß kein P1-Prototyp im Bereich (a,e) von c überlebt hat, ist es für U unmöglich, das Ausgangssignal des Systems zu beherrschen. Die Zählung der Stimmen verwandelt eine UNCERTAIN-Reaktion von U&sub1; bei e in eine Systemklassifikation von e. Falls andererseits die Reaktion von U&sub1; bei b oder e UNCERTAIN ist, dann sorgt die Komplementarität der in c entwickelten Kartierung dafür, daß ihre Reaktion entweder UNCERTAIN bei e oder UNCERTAIN bei a oder e ist. In jedem der beiden Fälle kombiniert die Stimmenzählung die Reaktionen von beiden Einheiten zu der Klassifizierungsreaktion e. In diesem Beispiel hat das System gelernt, wie es die Reaktionen mehrerer Einheiten zu korrelieren hat, um eine Musterkategorie, die in keinem Code getrennt ist, zu trennen und zu klassifizieren.
- Betrachten wir zum Schluß eine einfache Darstellung dieses Systems, das bei einem Problem bei der Zeichenerkennung eingesetzt wird. Nehmen wir an, wir möchten das System schulen, die drei Blockschriftbuchstaben H. I und zu erkennen. Wir wählen einen sehr einfachen Satz Codes für die Codierungseinheiten. Wir definieren c&sub1; als einen Code, der in einer Dimension die Anzahl der horizontalen Liniensegmente in einem Muster zählt und in einer weiteren Dimension das Verhältnis der durchschnittlichen Länge der horizontalen Segmente zu dem längsten dieser Segmente aufzeichnet. Nehmen wir an, daß c ein Code ist, der dieselben Informationen, aber für die vertikalen Segmente in dem Muster, aufzeichnet.
- Zweifellos sehen in dem Fall der drei von uns gewählten Buchstaben, wenn diese in Blockschrift geschrieben werden, die Musterklassengebiete in c&sub1; und c wie die Diagramme in Fig. 10C aus.
- Hier handelt es sich um ein Beispiel für den zuvor erläuterten Fall II, wobei H Klasse a, I Klasse b und Klasse e ist. Hier ist der Bereich a bei c&sub1; ein Punkt und der Bereich (b,e) ein Satz Punkte in einer Linie. Beim Code c ist der Bereich b ein Punkt und der Bereich (a,e) eine Linie. Zu beachten ist, daß bei der Erörterung des Falles II keine Einschränkungen bezüglich der Geometrien der Klassengebiete gemacht wurden.
- Unabhängig davon, welche Einheiten welche Codes implementieren, entwickelt sich das Systemgedächtnis (Speicher) so, daß es den Punkt für H in c&sub1; mit einem P1-Prototypen abdeckt. Gleichermaßen führt die Schulung zu einem P1-Prototypen, der den Punkt abdeckt, der I in c darstellt. Die beiden Linienbereiche in c&sub1; und c werden durch eine komplementäre P2-Kartierung für abgedeckt. Folglich - und ohne jede Zuhilfenahme einer speziellen Anweisung hierzu - hat das System gelernt, individuelle Trenncodes für H und I zu auszuwählen und die Informationen aus den beiden Codes in einen Zusammenhang zu bringen, um die Zeichenklasse zu erlernen.
- Es wurde somit eine neuartige, parallele, aus mehreren Einheiten bestehende, adaptive, nichtlineare Vorrichtung zur Trennung und Identifizierung von Musterklassen gezeigt und beschrieben, die alle dazu gesuchten Ziele und Vorteile erfüllt. Nach Inbetrachtziehen dieser Spezifikation und der beigefügten Zeichnungen, in denen bevorzugte Realisierungen dieser Vorrichtung offengelegt werden, werden jedoch für Personen mit entsprechenden fachlichen Kenntnissen viele Änderungen, Modifizierungen, Varianten und sonstige Verwendungen und Anwendungsmöglichkeiten der vorliegenden Erfindung im Rahmen der beigefügten Ansprüche offensichtlich sein.
- Klasse: Eine konzeptionelle Definition einer Gruppe von Mustern, die eine Vorrichtung zur Trennung und Identifizierung von Musterklassen zur Abgabe derselben Reaktion veranlaßt. Alle Vektorsignale S, die Muster in dieser Gruppe darstellen, erzeugen die identische Ausgangsreaktion R. Bevor es geschult wird, besitzt ein adaptives Nestor-Modul keine voreingestellten oder vorab konzipierten Klassen.
- Klassifizierungseinheit: Eine aus einer Anzahl konzeptionell (oder physisch) getrennter Einheiten des Systems. Diese Einheiten arbeiten parallel oder in Folgeschaltung und umfassen jeweils sowohl einen Codierteil als auch einen Klassifizierungsteil. Der Codierteil wandelt das Vektorsignal S in ein codiertes Vektorsignal F; der Klassifizierungsteil versucht, das Vektorsignal F in eine einzigartige Ausgangsreaktion R zu übersetzen, die die Klasse des durch das Vektorsignal S dargestellten Eingangsmusters identifiziert. Jede Klassifizierungseinheit wird durch ihre eigene hierarchische Ebene oder "Priorität" innerhalb des Systems bezeichnet.
- Verwechselungszone: Ein Bereich in einem mehrdimensionalen Musterraum, der mit mehr als einer Musterklasse im Zusammenhang steht. Typischerweise werden derartige Bereiche mit mindestens zwei sich überlagernden Schichten von Prototypen der Phase P2 abgedeckt, wobei jede Schicht mit einer anderen Klasse verknüpft ist. In einigen Fällen können diese Zonen auch durch sich überlappende Einflußbereiche von Prototypen der Phase P1 für unterschiedliche Klassen abgedeckt werden.
- Korrelation: Die Auswahl der korrekten Klasse aus mehreren Ausgangsreaktionen einer Anzahl adaptiver Nestor-Module, von denen einem jedem ein codiertes Vektorsignal F zugeführt worden ist, das dasselbe Eingangsmuster darstellt.
- Codieren: Die Umwandlung eines eintreffenden Vektorsignals S, das ein Eingangsmuster darstellt, in ein codiertes Vektorsignal F, unter Verwendung eines Codes "c". Die Umwandlung ist abhängig vom Vorhandensein oder Nichtvorhandensein besonderer Merkmale in dem Muster. Zweck der Umwandlung ist es, im Signal S enthaltene nicht relevante Informationen zu beseitigen.
- Ereignis: Ein Vorkommnis in der realen Welt, das wahrgenommen und durch ein Vektorsignal S dargestellt werden kann. So kann es sich bei dem Ereignis beispielsweise um ein sichtbares Muster handeln, das durch eine Kamera aufgenommen werden kann, oder um ein Geräuschmuster, das von einem Mikrophon aufgenommen werden kann. Der Begriff "Ereignis" kann gleichbedeutend mit "Muster" verwendet werden.
- Einflußbereich eines Prototypen: Ein Bereich oder Gebiet mit variablen Abmessungen in dem mehrdimensionalen, auf einen Prototypen zentrierten Musterraum. Ein in dieses Gebiet fallendes Eingangsmuster bewirkt, daß der Prototyp bei seinem Eintreffen ausgelöst wird.
- Nachbarsuche: In einem adaptiven Nestor-Modul ist dies die Suche nach benachbarten Prototypen in einem bestimmten Abstand im mehrdimensionalen Musterraum, ausgehend von dem Punkt, der ein Eingangsmuster darstellt.
- Adaptives Nestor ModulTM: Eine Vorrichtung oder ein Verfahren, die in einem oder mehreren der folgenden US-Patente offengelegt und beansprucht werden: 3.950.733, 4.044.243, 4.254.474 und 4.326.259.
- Muster: Ein bestimmter Satz Daten, der das Ergebnis eines "Ereignisses" in der realen Welt ist und der durch ein Vektorsignal S dargestellt wird, das durch eine Vorrichtung zur Trennung und Identifizierung von Musterklassen klassifiziert werden soll. Obwohl jedes der Vorrichtung zur Trennung und Identifizierung von Musterklassen angebotene Muster sich zumindest geringfügig von jedem anderen zuvor angebotenen Muster unterscheiden kann, läßt es sich in eine Klasse einer willkürlichen Anzahl von Klassen eingruppieren.
- Mustersignal: Ein aus einzelnen Skalarsignalen s&sub1;, s . . . sk bestehendes Vektorsignal S, das für eine Vorrichtung zur Trennung und Identifizierung von Musterklassen ein Eingangsmuster darstellt.
- Phase-1-Prototyp: Ein Prototyp-Typ, der, wenn er ausgelöst wird, die Reaktion eines adaptiven Nestor-Moduls bestimmt und dafür sorgt, daß eine spezielle Ausgangsreaktion eintritt.
- Phase-2-Prototyp: Ein Prototyp-Typ, der, wenn er ausgelöst wird, lediglich angeben kann, daß ein eintreffendes Muster in eine dafür bestimmte Klasse aus einer Anzahl von Klassen fallen kann.
- Prototyp: Eine Darstellung eines Muster in Form eines Prototypen der Art, wie sie im Speicher des adaptiven Nestor-Moduls gespeichert sind. Jeder Prototyp im Speicher wird durch folgendes definiert: (1) einen Vektor im mehrdimensionalen Musterraum, (2) einen "Einflußbereich" innerhalb des Musterraums, (3) eine besondere Musterklasse, mit der der Prototyp verknüpft ist, und (4) einer Kennung, die die Phase des Prototypen angibt.
- Prototyp-"Festlegung": Das Erstellen eines neuen Prototypen (entweder ein Phase-1- oder ein Phase-2-Prototyp) in einem adaptiven Nestor-Modul im Zusammenhang mit und als Ergebnis der Darbietung eines Eingangsmusters. Bei der Darbietung während der Schulung fällt jedes Eingangsmuster entweder in den Einflußbereich eines bereits vorhandenen Prototypen oder es verursacht die Bildung eines neuen Prototypen.
- Einen Prototypen "auslösen": Man spricht davon, daß ein Prototyp "ausgelöst" wird, wenn ein durch ein Vektorsignal S dargestelltes Eingangsmuster in den Einflußbereich dieses Prototypen fällt. Dadurch wird das adaptive Nestor-Modul, in dem der Prototyp liegt, veranlaßt, eine Ausgangsreaktion abzugeben.
- Systemebene: Eine Ansammlung von Klassifizierungseinheiten mit derselben Priorität.
- Stimmenzählung: Eine Korrelationstechnik, die benutzt wird, wenn ein Eingangsmuster in dem mehrdimensionalen Musterraum in eine "Verwechslungszone" fällt.
- (1) Einheit.
- (1) Außenwelt
- (2) Einheit
- (3) Codierung
- (4) Zusammenfassungseinheit, Reaktion
- (5) Speicheränderungscontroller
- (6) Synthetisierung der Systemreaktion
- (7) Benutzer
- (8) Schulungsperson.
- (1) Start
- (2) Übernehme Muster von der Eingabevorrichtung
- (3) Codiere und bearbeite Muster auf verschiedenen Ebenen im System vor
- (4) Vergleiche Muster mit Prototypen im Speicher über alle Ebenen im System
- (5) Fasse Reaktionen der Ebenen zusammen
- (6) Fasse Reaktionen des Systems zusammen
- (7) Möchten Sie das System schulen?
- (8) JA Übernehme tatsächliche Musterkategorie vom Benutzer
- (9) Verändere den Speicher
- (10) NEIN Weitermachen
- (11) Stopp.
- (1) Start
- (2) Setze LEV = 1
- (3) Setze PROTINDEX = 1, um ersten Prototypen auf Ebene = LEV zu referenzieren
- (4) Ist der Satz Prototypen auf Ebene = LEV bereits voll ausgeschöpft?
- (5) JA Ist Ebene = LEV die letzte Ebene?
- (6) JA Stopp
- (7) NEIN Setze LEV = LEV+1
- (8) NEIN Setze SIGNAL = 0, Setze CANNEL = 1
- (9) Stimmt das Vorzeichen von PROTO (Ebene, PROTINDEX, CHANNEL) mit dem Vorzeichen des CODEVEKTOR (LEV, CHANNEL) überein?
- (10) NEIN Setze SIGNAL = SIGNAL + 1
- (11) JA Ist CHANNEL = Anzahl der Eingangskanäle für diesen Prototypen?
- (12) NEIN Setze CHANNEL = CHANNEL + 1
- (13) JA Ist SIGNAL größer als der Schwellenwert für diesen Prototypen PROTO?
- (14) JA Ist dies ein P1-Prototyp?
- (15) JA Übernehme diesen Prototypen in die Liste FIRP1 der ausgelösten P1-Prototypen
- (16) NEIN Übernehme diesen Prototypen in die Liste FIRP2 der ausgelösten P2-Prototypen
- (17) Erhöhe PROTINDEX, um den nächsten Prototypen auf dieser Ebene zu referenzieren.
- (1) Start
- (2) Setze LEV = 1
- (3) Stelle alle unter den Prototypen FIRP1 und FIRP2 dargestellten Klassen in die der LEV-Nummer entsprechende Zeile der CATLEV-Tabelle; NUMACAT (LEV) ist die Anzahl dieser Klassen
- (4) Gibt es unter den ausgelösten Prototypen FIRP 1 nur eine Klasse?
- (5) JA Verschiebe diese Klasse auf Position CATLEV (LEV,1); setze LEVRSP (LEV) = "I"
- (6) NEIN => Ist NUMCAT (LEV) > 0?
- (7) JA => Setze LEVRSP (LEV) = "C"
- (8) NEIN => Setze LEVRSP (LEV) = "U"
- (9) Ist dies die letzte Ebene?
- (10) NEIN => Setze LEV = LEV + 1
- (11) Stopp.
- (1) Start
- (2) LEV = 1
- (3) Ist LEVRSP (LEV) = "I"?
- (4) NEIN Trage die Elemente CATLEV (LEV,j), j=1 . . . NUMAC (LEV) in die CLASSL ein; aktualisiere NLIM, die Anzahl der Elemente in CLASSL
- (5) Ist dies die letzte Ebene?
- (6) JA Initialisiere Abstimmanordnung VOTE für alle Klassen in der CATLEV-Tabelle auf 0
- (7) Setze LEV = 1
- (8) NEIN Setze LEV = LEV + 1
- (9) Aktualisiere Abstimmanordnung VOTE durch Addieren von 1 zum Votum jeder Klasse CATLEV (LEV,j), j=1 . . . NUMCAT (LEV)
- (10) Stelle alle Klassen aus der CATLEV-Tabelle mit Ungleich-Null-Stimmen in die Abstimmliste VOTELIST, sortiert in absteigender Reihenfolge
- (11) Hat eine Klasse mehr Stimmen als irgendeine andere?
- (12) JA Setze CERTAN = TRUE (wahr)
- (13) NEIN Ist dies die letzte Ebene?
- (14) JA Setze CERTAN = FALSE (nicht wahr)
- (15) Stelle die Elemente in der VOTELIST in die CLASSL; aktualisiere NLIM, die Anzahl der Elemente in der CLASSL
- (16) NEIN Setze LEVL = LEV + 1
- (17) Stelle CATLEV (LEV,1) an Stelle 1 der CLASSL; füge übrige Elemente CATLEV (LEV,j), j=2 . . . NUMCAT (LEV) am Ende der CLASSL hinzu; aktualisiere NLIM, die Anzahl der Elemente in der CLASSL
- (18) Setze CERTAN = TRUE (wahr)
- (19) Stopp.
- (1) Start
- (2) Setze LEV = 1
- (3) Verringere für jeden ausgelösten P1-Prototypen, der inkorrekt ist, den Schwellenwert so, daß er nicht mehr ausgelöst wird
- (4) Ist dies die letzte Ebene?
- (5) NEIN Setze LEV = LEV + 1
- (6) Gibt es ausgelöste P1-Prototypen, die korrekt sind?
- (7) NEIN Setze LEV = 1
- (8) Kann ein P1-Prototyp festgelegt werden?
- (9) Lege einen P1-Prototypen auf Ebene = LEV an
- (10) NEIN Ist dies die letzte Ebene?
- (11) JA Initialisiere Abstimmanordnung VOTE für alle Klassen in der CATLEV-Tabelle auf 0
- (13) Setze LEV = 1
- (14) Wird ein korrekter P2-Prototyp ausgelöst?
- (15) NEIN Lege einen P2-Prototypen für diese Klasse, RELCLS fest
- (16) Aktualisiere Abstimmanordnung VOTE durch Addieren von 1 zum Votum für RELCLS
- (17) JA Aktualisiere Abstimmanordnung VOTE durch Addieren von 1 zum Votum jeder Klasse CATLEV (LEV,j),j=1 . . . NUMCAT (LEV)
- (18) Stelle alle Klassen aus der CATLEV-Tabelle mit Ungleich-Null-Stimmen in die Abstimmliste VOTELIST, sortiert in absteigender Reihenfolge
- (19) Hat RELCLS mehr Stimmen als irgendeine andere Klasse?
- (20) NEIN Ist dies die letzte Ebene?
- (21) NEIN Setze LEV = LEV + 1
- (22) JA Stopp.
- (1) Längenverhältnis
- (2) Horizontale Segmente
- (3) Vertikale Segmente
Claims (29)
1. System zur Klassifizierung und Identifizierung von Mustern,
wobei jedes Muster durch ein Eingangssignal S dargestellt wird
und das System folgendes umfaßt:
(a) Eine Vielzahl an Klassifizierungseinheiten U&sub1;, U . . . Ui . . .
Uk, wobei jede Einheit folgendes enthält:
(1) auf das Signal S ansprechende Mittel zum Kodieren der
Merkmale des Musters zwecks Erzeugung eines Zwischensignals Fi
(F&sub1;, F . . . Fi . . . Fk), das repräsentativ ist für eine ausgewählte
Untermenge an Merkmalen, die in dem vom Signal S dargestellten
Muster enthalten sind, wobei jedes Zwischensignal Fi eine
Vielzahl an Signalkomponenten (f1i, f2i, . . . fii . . . fMi) umfaßt;
und
(2) auf das erwähnte Signal Fi ansprechende Mittel zum
Klassifizieren von Mustern zwecks Erzeugung eines Ausgangssignals Ri
(R&sub1;, R . . . Ri . . . Rk), das repräsentativ für eine vorgeschlagene
jeweilige Klasse des durch das Signals S dargestellten Musters
ist, so wie es durch die durch das Zwischensignal Fi
dargestellten Merkmale identifiziert wird, wobei diese
Musterklassifizierungsmittel Speicher zum Speichern einer Vielzahl an
Prototypen in einem mehrdimensionalen Musterraum und Mittel
zum Vergleichen eines durch das Zwischensignal F dargestellten
Eingangsmusters enthalten, wobei jeder dieser Prototypen in
dem Speicher gespeichert wird, um festzustellen, ob das
Eingangsmuster in einen Einflußbereich von mindestens einem der
Prototypen fällt; und
(b) Mittel zur Klassenauswahl, die auf alle durch die
Klassifizierungseinheiten erzeugten Ausgangssignale Ri reagieren, um
eine einzige Ausgangsreaktion R zu erzeugen, die die Klasse
des Musters darstellt.
2. System nach Anspruch 1, bei dem jedes Mittel zum Kodieren
der Mustermerkmale einen unterschiedlichen Satz an Merkmalen
in diesem Muster kodiert, wobei alle von diesem
Kodierungsmittel erzeugten Zwischensignale Fi einzigartig und voneinander
verschieden sind.
3. System nach Anspruch 1, bei dem jedes
Musterklassifizierungsmittel das Muster in Bezug auf einen unterschiedlichen
Satz Klassen klassifiziert, wobei alle von diesem
Klassifizierungsmittel erzeugten Ausgangssignale Ri einzigartig und
voneinander verschieden sind.
4. System nach Anspruch 1, bei dem das Mittel zur Auswahl der
Klasse Mittel zur Auswahl des Ausgangssignal Ri enthält, das
am besten eine identifizierbare Musterklasse darstellt.
5. System nach Anspruch 1, bei dem das
Musterklassifizierungsmittel folgendes umfaßt:
(1) Eine Vielzahl M an Eingangsanschlüssen, die jeweils so
angeschlossen sind, daß sie eine Skalarkomponente fi (f&sub1;, f . . .
fi . . . fM) eines Zwischensignals F erhalten;
(2) eine Vielzahl N an Summiermitteln, wobei jedes
Summiermittel M Eingänge und einen Ausgang hat und so funktioniert, daß
es ein Skalarkomponentensignal rj (r&sub1;, r . . . rj . . . rN) an seinem
Ausgang erzeugt, das repräsentativ für die Summe der an seinen
Eingängen zugeführten Signaldarstellungen ist;
(3) eine Vielzahl N an Schwellenwertmitteln, die jeweils an
einem der Summiermittel angeschlossen sind, um eine Skalar-
Ausgangsreaktion pi (p&sub1;, p . . . pi . . . pN) zu erzeugen, wenn das
dort zugeführte Skalarkomponentensignal einen vorgegebenen
Schwellenwert θi überschreitet; und
(4) eine Vielzahl M·N an Verbindungselementen, wobei jedes
Verbindungselement einen der Eingangsanschlüsse mit einem der
Summiermittel verbindet und für eine Informationsübertragung
von dem jeweiligen Eingangsanschluß zu dem jeweiligen
Summiermittel in Abhängigkeit von dem am jeweiligen Eingangsanschluß
erscheinenden Signal und in Abhängigkeit von der
Übertragungsfunktion des Verbindungselements sorgt,
wobei die jeweiligen skalaren Ausgangsreaktionen p&sub1;, p . . PN
Komponenten der Ausgangsreaktion R des Modul s sind.
6. System nach Anspruch 5, bei dem das
Musterklassifizierungssystem außerdem eine Vielzahl N an Skalarmultiplizierern
umfaßt, die jeweils zwischen einem der Summierer und der
zugehörigen Schwellenwertvorrichtung geschaltet sind, um ein
skalares Komponentensignal λri zu erzeugen, wobei λ ein
Multiplikationsfaktor ist.
7. System nach Anspruch 5, das außerdem Mittel umfaßt, um in
einem Lern-Modus die Übertragungsfunktion von mindestens einem
der Verbindungselemente in Abhängigkeit von dem dort
zugeführten Eingangssignal sowie dem Ausgangssignal des Summierers zu
ändern, dem das jeweilige Verbindungselement zugeordnet ist.
8. System nach Anspruch 6, das außerdem Mittel umfaßt, um in
einem Lern-Modus den Multiplikationsfaktor von mindestens
einem der Skalarmultiplizierer zu ändern, um so eine nicht
eindeutige Klassentrennung und -identifizierung zu vermeiden.
9. System nach Anspruch 5, das außerdem Mittel umfaßt, um in
einem Lern-Modus den Schwellenwert θ zu ändern, um so eine
nicht eindeutige Klassentrennung und -identifizierung zu
vermeiden.
10. System nach Anspruch 1, bei dem das
Klassenselektionsmittel folgendes umfaßt:
(1) eine Vielzahl M an Eingangsanschlüssen, die jeweils so
angeschlossen sind, daß sie eine skalare Komponente fi, (f&sub1;, f
. . . fi . . . fM) eines Zwischensignals Fi erhalten;
(2) eine Vielzahl N an Summiermitteln, wobei jedes
Summiermittel M Eingänge und einen Ausgang hat, und so funktioniert, daß
es ein Skalarkomponentensignal rj (r&sub1;, r . . . rj . . . rN) an seinem
Ausgang erzeugt, das die Summe der an seinen Eingängen
zugeführten Signaldarstellungen darstellt;
(3) eine Vielzahl N an Schwellenwertmitteln, die jeweils an
einem der Summiermittel angeschlossen sind, um eine Skalar-
Ausgangsreaktion pi (p&sub1;, . . . p . . . pi . . . pN) zu erzeugen, wenn das
dort zugeführte Skalakomponentensignal einen vorgegebenen
Schwellenwert θi überschreitet; und
(4) eine Vielzahl M·N an Verbindungselementen, wobei jedes
Verbindungselement einen der Eingangsanschlüsse mit einem der
Summiermittel verbindet und für eine Informationsübertragung
von dem jeweiligen Eingangsanschluß zu dem jeweiligen
Summiermittel in Abhängigkeit von dem am jeweiligen Eingangsanschluß
erscheinenden Signal und in Abhängigkeit von der
Übertragungsfunktion des Verbindungselements sorgt,
wobei die jeweiligen Skalar-Ausgangsreaktionen p&sub1;, . . p . . . pN
Komponenten der Ausgangsreaktion R des Moduls sind.
11. System nach Anspruch 10, bei dem das
Klassenselektionsmittel außerdem eine Vielzahl N an Skalarmultiplizierern umfaßt,
die jeweils zwischen einem der Summierer und seiner
zugehörigen Schwellenwertvorrichtung angeschlossen sind, um ein
Skalarkomponentensignal λri zu erzeugen, wobei λ ein
Multiplikationsfaktor ist.
12. System nach Anspruch 10, das außerdem Mittel umfaßt, um in
einem Lern-Modus die Übertragungsfunktion von mindestens einem
der Verbindungselemente in Abhängigkeit vom dort zugeführten
Eingangssignal sowie vom Ausgangssignal des Summierers zu
ändern, dem das jeweilige Verbindungselement zugeordnet ist.
13. System nach Anspruch 11, das außerdem Mittel umfaßt, um in
einem Lern-Modus den Multiplikationsfaktor λ von mindestens
einem der Skalar-Multiplizierer zu ändern, um so eine nicht
eindeutige Klassentrennung und -identifizierung zu vermeiden.
14. System nach Anspruch 10, das außerdem Mittel umfaßt, um in
einem Lern-Modus den Schwellenwert θ zu ändern, um so eine
nicht eindeutige Klassentrennung und -identifizierung zu
vermeiden.
15. System nach Anspruch 1, bei dem jeder Prototyp folgendes
als in dem Speichermittel gespeicherte Prototypinformationen
enthält:
eine Vektorlage in dem mehrdimensionalen Musterraum, einen
Skalarabstand, der die Größe eines Einflußbereiches um die
Vektorlage herum in dem mehrdimensionalen Musterraum festlegt,
und eine besondere Klasse, der der Prototyp zugeordnet ist;
und bei dem das Vergleichsmittel Mittel enthält, um zu
bestimmen, ob die Lage des Eingangsmuster in dem Musterraum in den
Einflußbereich eines oder mehrerer Prototypen fällt, und um
eine Reaktion zu erzeugen, die die einem solchen Prototyp
zugehörige Klasse angibt, falls das Eingangsmuster in dessen
Einflußbereich fällt.
16. System nach Anspruch 15, bei dem jeder Prototyp durch
einen von mindestens zwei Typen gekennzeichnet wird, wobei der
gekennzeichnete Typ zu seinem zugehörigen Prototypen als Teil
der Prototypinformationen in dem Speicher gespeichert wird;
bei dem ein erster Prototyp-Typ ein erstes Ausgangssignal 1Ri
erzeugt, das die sichere Erkennung der Klasse eines
Eingangsmusters, das in dessen Einflußbereich fällt, angibt, und bei
dem ein zweiter Prototyp-Typ ein zweites Ausgangssignal 2Ri
erzeugt, das eine mögliche, jedoch nicht sichere Erkennung der
Klasse eines Eingangsmusters angibt, das in dessen
Einflußbereich fällt.
17. System nach Anspruch 15, bei dem das
Musterklassifizierungsmittel außerdem Mittel enthält, um im Lern-Modus die
Prototypinformationen in dem Speicher als Reaktion auf den Erhalt
eines Eingangsmusters zu ändern.
18. System nach Anspruch 17, bei dem das Mittel zum Ändern der
Prototypinformationen den Skalarabstand eines Prototyps
verringert, wenn ein Eingangsmuster in den Einflußbereich eines
solchen Prototyps fällt, und dadurch eine Reaktion Ri erzeugt,
die die zu einem solchen Prototypen gehörende Klasse angibt,
wobei, falls die Klasse nicht korrekt ist, der Skalarabstand
ausreichend verringert wird, damit das Eingangsmuster aus dem
Einflußbereich eines solchen Prototyps herausfällt.
19. System nach Anspruch 18, bei dem der Skalarabstand auf
einen Wert verringert wird, der im wesentlichen gleich dem,
aber kleiner als der Abstand zwischen den Vektorlagen in dem
Musterraum des Prototyps und des Eingangsmusters ist.
20. System nach Anspruch 18, bei dem jeder Prototyp durch
einen von mindestens zwei Typen gekennzeichnet wird, wobei der
gekennzeichnete Typ zu seinem zugehörigen Prototypen als Teil
der Prototypinformationen in dem Speicher gespeichert wird;
bei dem ein erster Prototyp-Typ ein erstes Ausgangssignal 1Ri
erzeugt, das die sichere Erkennung der Klasse eines
Eingangsmusters, das in dessen Einflußbereich fällt, angibt, und bei
dem ein zweiter Prototyp-Typ ein zweites Ausgangssignal 2Ri
erzeugt, das eine mögliche, jedoch nicht sichere Erkennung der
Klasse eines Eingangsmusters angibt, das in dessen
Einflußbereich fällt; und bei dem das Mittel zum Ändern der
Prototypinformationen den gekennzeichneten Typ eines Prototypen von
einem ersten Typ in einen zweiten Typ ändert, wenn der
Skalarabstand eines solchen Prototyps unter einen vorgegebenen
Schwellenwert verringert wird.
21. System nach Anspruch 20, bei dem das Mittel zum Ändern der
Prototypinformationen den Skalarabstand eines gegebenen
Prototypen immer dann bis zu dem nächstgelegenen Einflußbereich
eines Prototyps des ersten Typs hin ausdehnt, wenn der
gekennzeichnete Typ eines solchen gegebenen Prototyps von einem
ersten Typ in einen zweiten Typ geändert worden ist.
22. System nach Anspruch 16, bei dem das
Klassenselektionsmittel Mittel enthält, um als Ausgangsreaktion R ein
Ausgangssignal aus einer Vielzahl an Ausgangssignalen auszuwählen, die
von dem Musterklassifizierungsmittel erzeugt worden sind.
23. System nach Anspruch 22, bei dem jedem
Musterklassifizierungsmittel eine vorgegebene Priorität zugeordnet wird, die
eine hierarchische Ebene angibt, und bei dem das
Selektionsmittel als Ausgangsreaktion R das erste von dem
Klassifizierungsmittel erzeugte Ausgangssignal 1Ri selektiert, das die
höchste Priorität hat, wobei das erste Ausgangssignal die
sichere Erkennung einer speziellen Klasse durch das
Klassifizierungsmittel angibt.
24. System nach Anspruch 23, bei dem das Selektionsmittel
Mittel enthält, um
(1) die Nummern der jeder vom zweiten Ausgangssignal 2Ri
angegebenen Klasse zu zählen, die vom jedem aufeinanderfolgenden
Klassifizierungsmittel in der Reihenfolge der Priorität
solange erzeugt werden, bis die Zählung für eine Klasse eine
Mehrheit
ergibt, immer dann wenn kein Klassifizierungsmittel ein
erstes Ausgangssignal 1Ri erzeugt, und
(2) die Ausgangsreaktion R zu erzeugen, die die
Mehrheitsklasse angibt.
25. System nach Anspruch 1, bei dem das Mittel zur
Klassenauswahl Mittel enthält, um als Ausgangsreaktion R eines aus einer
Vielzahl an Ausgangssignalen auszuwählen, die von dem
Musterklassifizierungsmittel erzeugt werden.
26. System nach Anspruch 25, bei dem jedem
Musterklassifizierungsmittel eine vorgegebene Priorität zugeordnet wird, die
eine hierarchische Ebene angibt, und bei dem das
Selektionsmittel als Ausgangsreaktion R das erste von dem
Klassifizierungsmittel erzeugte Ausgangssignal auswählt, das die höchste
Priorität hat.
27. System nach Anspruch 18, bei dem das Mittel zum Ändern der
Prototypinformationen Mittel enthält, um einen neuen
Prototypen in dem Speichermittel zu speichern, wenn ein
Eingangsmuster nicht in den Einflußbereich eines zuvor gespeicherten
Prototyps fällt.
28. System nach Anspruch 1, bei dem jedes Ausgangssignal Ri
eine Vielzahl an Signalkomponenten (r1i, r2i . . . rii . . . rNi)
umfaßt.
29. System nach Anspruch 1, bei dem die Ausgangsreaktion R
eine Vielzahl an Signalkomponenten (p&sub1;, p, . . . pN) umfaßt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US70218885A | 1985-02-15 | 1985-02-15 | |
US06/775,144 US4760604A (en) | 1985-02-15 | 1985-09-12 | Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3650446D1 DE3650446D1 (de) | 1996-01-18 |
DE3650446T2 true DE3650446T2 (de) | 1996-06-13 |
Family
ID=27106926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3650446T Expired - Fee Related DE3650446T2 (de) | 1985-02-15 | 1986-02-05 | Paralleler, adaptiver, nichtlinearer Musterklassentrenner und -erkenner in mehreren Einheiten. |
Country Status (8)
Country | Link |
---|---|
US (1) | US4760604A (de) |
EP (1) | EP0191407B1 (de) |
JP (1) | JPH0823863B2 (de) |
AT (1) | ATE131295T1 (de) |
CA (1) | CA1244946A (de) |
DE (1) | DE3650446T2 (de) |
ES (2) | ES8800462A1 (de) |
MX (1) | MX166402B (de) |
Families Citing this family (128)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5077807A (en) * | 1985-10-10 | 1991-12-31 | Palantir Corp. | Preprocessing means for use in a pattern classification system |
US5060277A (en) * | 1985-10-10 | 1991-10-22 | Palantir Corporation | Pattern classification means using feature vector regions preconstructed from reference data |
US5163133A (en) * | 1987-02-17 | 1992-11-10 | Sam Technology, Inc. | Parallel processing system having a broadcast, result, and instruction bus for transmitting, receiving and controlling the computation of data |
US5133021A (en) * | 1987-06-19 | 1992-07-21 | Boston University | System for self-organization of stable category recognition codes for analog input patterns |
GB8716194D0 (en) * | 1987-07-09 | 1987-08-12 | British Telecomm | Speech recognition |
US4975961A (en) * | 1987-10-28 | 1990-12-04 | Nec Corporation | Multi-layer neural network to which dynamic programming techniques are applicable |
US5285522A (en) * | 1987-12-03 | 1994-02-08 | The Trustees Of The University Of Pennsylvania | Neural networks for acoustical pattern recognition |
JP2553608B2 (ja) * | 1988-01-04 | 1996-11-13 | 住友電気工業 株式会社 | 光学文字読取装置 |
DE68927014T2 (de) * | 1988-01-11 | 1997-01-23 | Sharp Kk | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür |
US4958375A (en) * | 1988-02-17 | 1990-09-18 | Nestor, Inc. | Parallel, multi-unit, adaptive pattern classification system using inter-unit correlations and an intra-unit class separator methodology |
DE68922567T2 (de) * | 1988-10-06 | 1995-08-17 | Toshiba Kawasaki Kk | Neuronales Netzwerksystem. |
US5095443A (en) * | 1988-10-07 | 1992-03-10 | Ricoh Company, Ltd. | Plural neural network system having a successive approximation learning method |
DE68928895T2 (de) * | 1988-10-11 | 1999-05-27 | Agency Of Industrial Science And Technology, Tokio/Tokyo | Verfahren und Gerät für universelle adaptiv lernende Bildmessung und -erkennung |
US5048100A (en) * | 1988-12-15 | 1991-09-10 | Michael Kuperstein | Self organizing neural network method and system for general classification of patterns |
US4933871A (en) * | 1988-12-21 | 1990-06-12 | Desieno Duane | Graded learning device and method |
US5175793A (en) * | 1989-02-01 | 1992-12-29 | Sharp Kabushiki Kaisha | Recognition apparatus using articulation positions for recognizing a voice |
JPH02214987A (ja) * | 1989-02-16 | 1990-08-27 | Matsushita Electric Ind Co Ltd | 彩色装置 |
JPH0821065B2 (ja) * | 1989-03-13 | 1996-03-04 | シャープ株式会社 | 文字認識装置 |
US5041976A (en) * | 1989-05-18 | 1991-08-20 | Ford Motor Company | Diagnostic system using pattern recognition for electronic automotive control systems |
JP2940933B2 (ja) * | 1989-05-20 | 1999-08-25 | 株式会社リコー | パターン認識方式 |
US5361328A (en) * | 1989-09-28 | 1994-11-01 | Ezel, Inc. | Data processing system using a neural network |
US5138695A (en) * | 1989-10-10 | 1992-08-11 | Hnc, Inc. | Systolic array image processing system |
JP2724374B2 (ja) * | 1989-10-11 | 1998-03-09 | 株式会社鷹山 | データ処理装置 |
US5063521A (en) * | 1989-11-03 | 1991-11-05 | Motorola, Inc. | Neuram: neural network with ram |
US5067164A (en) * | 1989-11-30 | 1991-11-19 | At&T Bell Laboratories | Hierarchical constrained automatic learning neural network for character recognition |
JPH03196277A (ja) * | 1989-12-25 | 1991-08-27 | Takayama:Kk | データ処理装置のための特徴データ選択方法 |
US5151951A (en) * | 1990-03-15 | 1992-09-29 | Sharp Kabushiki Kaisha | Character recognition device which divides a single character region into subregions to obtain a character code |
US5299284A (en) * | 1990-04-09 | 1994-03-29 | Arizona Board Of Regents, Acting On Behalf Of Arizona State University | Pattern classification using linear programming |
KR910020571A (ko) * | 1990-05-21 | 1991-12-20 | 다카도리 수나오 | 데이터 처리장치 |
JPH0438587A (ja) * | 1990-06-04 | 1992-02-07 | Nec Corp | 入力領域適応型ニューラルネットワーク文字認識装置 |
US5274714A (en) * | 1990-06-04 | 1993-12-28 | Neuristics, Inc. | Method and apparatus for determining and organizing feature vectors for neural network recognition |
JP2991779B2 (ja) * | 1990-06-11 | 1999-12-20 | 株式会社リコー | 文字認識方法及び装置 |
US5155801A (en) * | 1990-10-09 | 1992-10-13 | Hughes Aircraft Company | Clustered neural networks |
DE4100500A1 (de) * | 1991-01-10 | 1992-07-16 | Bodenseewerk Geraetetech | Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren |
US5613039A (en) * | 1991-01-31 | 1997-03-18 | Ail Systems, Inc. | Apparatus and method for motion detection and tracking of objects in a region for collision avoidance utilizing a real-time adaptive probabilistic neural network |
US5276772A (en) * | 1991-01-31 | 1994-01-04 | Ail Systems, Inc. | Real time adaptive probabilistic neural network system and method for data sorting |
US5638281A (en) * | 1991-01-31 | 1997-06-10 | Ail Systems, Inc. | Target prediction and collision warning system |
US5563982A (en) * | 1991-01-31 | 1996-10-08 | Ail Systems, Inc. | Apparatus and method for detection of molecular vapors in an atmospheric region |
US5263107A (en) * | 1991-01-31 | 1993-11-16 | Sharp Kabushiki Kaisha | Receptive field neural network with shift-invariant pattern recognition |
JP3088171B2 (ja) * | 1991-02-12 | 2000-09-18 | 三菱電機株式会社 | 自己組織型パタ−ン分類システム及び分類方法 |
US5239594A (en) * | 1991-02-12 | 1993-08-24 | Mitsubishi Denki Kabushiki Kaisha | Self-organizing pattern classification neural network system |
WO1992020029A1 (en) * | 1991-04-29 | 1992-11-12 | Intel Corporation | Neural network incorporating difference neurons |
US5321795A (en) * | 1991-05-24 | 1994-06-14 | Alvarez De Toledo Santiago | Pattern association central subsystem and a perception learning system |
US5357597A (en) * | 1991-06-24 | 1994-10-18 | International Business Machines Corporation | Convolutional expert neural system (ConExNS) |
DE4133590A1 (de) * | 1991-07-03 | 1993-01-14 | Bosch Gmbh Robert | Verfahren zur klassifikation von signalen |
US5337371A (en) * | 1991-08-09 | 1994-08-09 | Matsushita Electric Industrial Co., Ltd. | Pattern classification system |
US6128409A (en) * | 1991-11-12 | 2000-10-03 | Texas Instruments Incorporated | Systems and methods for handprint recognition acceleration |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US6418424B1 (en) | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US7242988B1 (en) | 1991-12-23 | 2007-07-10 | Linda Irene Hoffberg | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US5359673A (en) * | 1991-12-27 | 1994-10-25 | Xerox Corporation | Method and apparatus for converting bitmap image documents to editable coded data using a standard notation to record document recognition ambiguities |
US5276771A (en) * | 1991-12-27 | 1994-01-04 | R & D Associates | Rapidly converging projective neural network |
US5371809A (en) * | 1992-03-30 | 1994-12-06 | Desieno; Duane D. | Neural network for improved classification of patterns which adds a best performing trial branch node to the network |
GB9214514D0 (en) * | 1992-07-08 | 1992-08-19 | Massachusetts Inst Technology | Information processing |
DE4241812A1 (de) * | 1992-12-11 | 1994-06-16 | Bosch Gmbh Robert | Verfahren zur adaptiven Quantisierung eines Eingangswertebereiches |
US5479574A (en) * | 1993-04-01 | 1995-12-26 | Nestor, Inc. | Method and apparatus for adaptive classification |
RU2037203C1 (ru) * | 1993-07-16 | 1995-06-09 | Ольга Олеговна Веровенко | Способ идентификации объектов |
US5875264A (en) * | 1993-12-03 | 1999-02-23 | Kaman Sciences Corporation | Pixel hashing image recognition system |
US6167390A (en) * | 1993-12-08 | 2000-12-26 | 3M Innovative Properties Company | Facet classification neural network |
DE69430744T2 (de) * | 1994-07-28 | 2003-01-30 | International Business Machines Corp., Armonk | Verbesserte Neuronalhalbleiterchipsarchitekturen und Neuronalnetzwerke darin |
US5519786A (en) * | 1994-08-09 | 1996-05-21 | Trw Inc. | Method and apparatus for implementing a weighted voting scheme for multiple optical character recognition systems |
JP3761937B2 (ja) * | 1995-09-18 | 2006-03-29 | キヤノン株式会社 | パターン認識方法及び装置及びコンピュータ制御装置 |
US5822741A (en) * | 1996-02-05 | 1998-10-13 | Lockheed Martin Corporation | Neural network/conceptual clustering fraud detection architecture |
US5909681A (en) * | 1996-03-25 | 1999-06-01 | Torrent Systems, Inc. | Computer system and computerized method for partitioning data for parallel processing |
US5918196A (en) * | 1996-11-29 | 1999-06-29 | Cognex Corporation | Vision system for analyzing solid-of-revolution radius profile |
US6092059A (en) * | 1996-12-27 | 2000-07-18 | Cognex Corporation | Automatic classifier for real time inspection and classification |
US6018723A (en) | 1997-05-27 | 2000-01-25 | Visa International Service Association | Method and apparatus for pattern generation |
US6097834A (en) * | 1997-06-13 | 2000-08-01 | Paystation America Inc. | Financial transaction processing systems and methods |
US6249775B1 (en) * | 1997-07-11 | 2001-06-19 | The Chase Manhattan Bank | Method for mortgage and closed end loan portfolio management |
US7096192B1 (en) * | 1997-07-28 | 2006-08-22 | Cybersource Corporation | Method and system for detecting fraud in a credit card transaction over a computer network |
US7403922B1 (en) * | 1997-07-28 | 2008-07-22 | Cybersource Corporation | Method and apparatus for evaluating fraud risk in an electronic commerce transaction |
US6052679A (en) * | 1997-09-11 | 2000-04-18 | International Business Machines Corporation | Artificial neural networks including Boolean-complete compartments |
US6175652B1 (en) | 1997-12-31 | 2001-01-16 | Cognex Corporation | Machine vision system for analyzing features based on multiple object images |
JPH10306744A (ja) * | 1998-04-06 | 1998-11-17 | Hitachi Ltd | 制御装置 |
US6175644B1 (en) | 1998-05-01 | 2001-01-16 | Cognex Corporation | Machine vision system for object feature analysis and validation based on multiple object images |
US6032136A (en) | 1998-11-17 | 2000-02-29 | First Usa Bank, N.A. | Customer activated multi-value (CAM) card |
US6606402B2 (en) | 1998-12-18 | 2003-08-12 | Cognex Corporation | System and method for in-line inspection of stencil aperture blockage |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US7062462B1 (en) | 1999-07-26 | 2006-06-13 | The Chase Manhattan Bank | On-line higher education financing system |
US6366897B1 (en) | 1999-07-26 | 2002-04-02 | Hnc Software, Inc. | Cortronic neural networks with distributed processing |
US6505168B1 (en) * | 1999-08-16 | 2003-01-07 | First Usa Bank, Na | System and method for gathering and standardizing customer purchase information for target marketing |
US7542921B1 (en) | 1999-09-30 | 2009-06-02 | Jpmorgan Chase Bank, N.A. | Network-based financial planning system and method |
US6999943B1 (en) | 2000-03-10 | 2006-02-14 | Doublecredit.Com, Inc. | Routing methods and systems for increasing payment transaction volume and profitability |
US7599879B2 (en) * | 2000-03-24 | 2009-10-06 | Jpmorgan Chase Bank, National Association | Syndication loan administration and processing system |
US7212996B1 (en) | 2000-04-20 | 2007-05-01 | Jpmorgan Chase Bank, N.A. | System and method for dynamic, multivariable comparison of financial products |
US7031935B1 (en) | 2000-07-31 | 2006-04-18 | J.P. Morgan Advisory Services Inc. | Method and system for computing path dependent probabilities of attaining financial goals |
US7831467B1 (en) | 2000-10-17 | 2010-11-09 | Jpmorgan Chase Bank, N.A. | Method and system for retaining customer loyalty |
US7295999B1 (en) | 2000-12-20 | 2007-11-13 | Jpmorgan Chase Bank, N.A. | System and method for determining eligibility and enrolling members in various programs |
US7472088B2 (en) * | 2001-01-19 | 2008-12-30 | Jpmorgan Chase Bank N.A. | System and method for offering a financial product |
US7895098B2 (en) | 2001-03-01 | 2011-02-22 | Jpmorgan Chase Bank, N.A. | System and method for measuring and utilizing pooling analytics |
US7095875B2 (en) * | 2001-05-15 | 2006-08-22 | Lockheed Martin Corporation | Method and system for address result arbitration |
US7865427B2 (en) | 2001-05-30 | 2011-01-04 | Cybersource Corporation | Method and apparatus for evaluating fraud risk in an electronic commerce transaction |
US7756896B1 (en) | 2002-03-11 | 2010-07-13 | Jp Morgan Chase Bank | System and method for multi-dimensional risk analysis |
WO2003083619A2 (en) | 2002-03-29 | 2003-10-09 | Bank One, Delaware, N.A. | System and process for performing purchase transaction using tokens |
US7606756B2 (en) * | 2002-08-02 | 2009-10-20 | Jpmorgan Chase Bank, N.A. | Synthetic funds having structured notes |
US7305122B2 (en) * | 2002-08-13 | 2007-12-04 | Lockheed Martin Corporation | Method and computer program product for identifying and correcting systematic noise in a pattern recognition system |
US7181062B2 (en) * | 2002-08-30 | 2007-02-20 | Lockheed Martin Corporation | Modular classification architecture for a pattern recognition application |
US20040148241A1 (en) * | 2003-01-24 | 2004-07-29 | Qi Thomas J. | Method of evaluating a portfolio of leased items |
US20040236647A1 (en) * | 2003-05-23 | 2004-11-25 | Ravi Acharya | Electronic checkbook register |
WO2005013057A2 (en) | 2003-07-25 | 2005-02-10 | Jp Morgan Chase Bank | Financial network-based payment card |
US7624068B1 (en) | 2003-08-18 | 2009-11-24 | Jpmorgan Chase Bank, N.A. | Method and system for dynamically adjusting discount rates for a card transaction |
US8175908B1 (en) | 2003-09-04 | 2012-05-08 | Jpmorgan Chase Bank, N.A. | Systems and methods for constructing and utilizing a merchant database derived from customer purchase transactions data |
US7953663B1 (en) | 2003-09-04 | 2011-05-31 | Jpmorgan Chase Bank, N.A. | System and method for financial instrument pre-qualification and offering |
US20050182713A1 (en) * | 2003-10-01 | 2005-08-18 | Giancarlo Marchesi | Methods and systems for the auto reconsideration of credit card applications |
US20050094861A1 (en) * | 2003-10-31 | 2005-05-05 | International Business Machines Corporation | Positional synchronization in a multivoting character recognition environment |
US7702767B2 (en) * | 2004-03-09 | 2010-04-20 | Jp Morgan Chase Bank | User connectivity process management system |
US8429006B1 (en) | 2004-06-18 | 2013-04-23 | Jpmorgan Chase Bank, N.A. | System and method for offer targeting |
US7974895B1 (en) | 2004-07-16 | 2011-07-05 | Jp Morgan Chase Bank | System and method for developing finance rate information |
US8533030B1 (en) | 2004-08-30 | 2013-09-10 | Jpmorgan Chase Bank, N.A. | In-bound telemarketing system for processing customer offers |
US7844518B1 (en) | 2004-11-30 | 2010-11-30 | Jp Morgan Chase Bank | Method and apparatus for managing credit limits |
US7480631B1 (en) | 2004-12-15 | 2009-01-20 | Jpmorgan Chase Bank, N.A. | System and method for detecting and processing fraud and credit abuse |
US7890343B1 (en) | 2005-01-11 | 2011-02-15 | Jp Morgan Chase Bank | System and method for generating risk management curves |
US7680307B2 (en) * | 2005-04-05 | 2010-03-16 | Scimed Life Systems, Inc. | Systems and methods for image segmentation with a multi-stage classifier |
US7925578B1 (en) | 2005-08-26 | 2011-04-12 | Jpmorgan Chase Bank, N.A. | Systems and methods for performing scoring optimization |
US8489497B1 (en) | 2006-01-27 | 2013-07-16 | Jpmorgan Chase Bank, N.A. | Online interactive and partner-enhanced credit card |
US7962396B1 (en) | 2006-02-03 | 2011-06-14 | Jpmorgan Chase Bank, N.A. | System and method for managing risk |
US7707192B1 (en) | 2006-05-23 | 2010-04-27 | Jp Morgan Chase Bank, N.A. | Confidence index for assets |
US7817857B2 (en) * | 2006-05-31 | 2010-10-19 | Microsoft Corporation | Combiner for improving handwriting recognition |
US7953279B2 (en) * | 2007-06-28 | 2011-05-31 | Microsoft Corporation | Combining online and offline recognizers in a handwriting recognition system |
TWI489394B (zh) | 2008-03-03 | 2015-06-21 | Videoiq Inc | 用於追蹤、索引及搜尋之物件匹配 |
US8478637B1 (en) | 2008-04-08 | 2013-07-02 | Jpmorgan Chase Bank, N.A. | Index for assessing discount potential |
CN101593270B (zh) * | 2008-05-29 | 2012-01-25 | 汉王科技股份有限公司 | 一种手绘形状识别的方法及装置 |
US8287055B2 (en) * | 2010-09-28 | 2012-10-16 | Robert Bosch Gmbh | Brake control of a vehicle based on driver behavior |
US11494644B2 (en) * | 2019-11-20 | 2022-11-08 | Rakuten Group, Inc. | System, method, and computer program for recommending items using a direct neural network structure |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3601811A (en) * | 1967-12-18 | 1971-08-24 | Matsushita Electric Ind Co Ltd | Learning machine |
US3950733A (en) * | 1974-06-06 | 1976-04-13 | Nestor Associates | Information processing system |
JPS5160122A (de) * | 1974-11-22 | 1976-05-25 | Hitachi Ltd | |
US4030068A (en) * | 1976-01-12 | 1977-06-14 | Decision Data Computer Corporation | Optical character recognition system |
US4044243A (en) * | 1976-07-23 | 1977-08-23 | Nestor Associates | Information processing system |
US4307376A (en) * | 1976-12-09 | 1981-12-22 | Geometric Data Corporation | Pattern recognition system for generating hematology profile |
GB2002159B (en) * | 1977-07-07 | 1982-01-13 | Sumitomo Electric Industries | Character reading system |
US4177448A (en) * | 1978-06-26 | 1979-12-04 | International Business Machines Corporation | Character recognition system and method multi-bit curve vector processing |
JPS5819109B2 (ja) * | 1978-11-10 | 1983-04-16 | 肇産業株式会社 | パタ−ン判別方法 |
US4254474A (en) * | 1979-08-02 | 1981-03-03 | Nestor Associates | Information processing system using threshold passive modification |
US4319331A (en) * | 1980-01-28 | 1982-03-09 | Nestor Associates | Curve follower |
US4326259A (en) * | 1980-03-27 | 1982-04-20 | Nestor Associates | Self organizing general pattern class separator and identifier |
US4611347A (en) * | 1984-09-24 | 1986-09-09 | At&T Bell Laboratories | Video recognition system |
-
1985
- 1985-09-12 US US06/775,144 patent/US4760604A/en not_active Expired - Lifetime
- 1985-11-18 ES ES548992A patent/ES8800462A1/es not_active Expired
- 1985-11-26 CA CA000496266A patent/CA1244946A/en not_active Expired
-
1986
- 1986-02-05 EP EP86101452A patent/EP0191407B1/de not_active Expired - Lifetime
- 1986-02-05 DE DE3650446T patent/DE3650446T2/de not_active Expired - Fee Related
- 1986-02-05 AT AT86101452T patent/ATE131295T1/de not_active IP Right Cessation
- 1986-02-14 MX MX001550A patent/MX166402B/es unknown
- 1986-02-14 JP JP61030604A patent/JPH0823863B2/ja not_active Expired - Lifetime
-
1987
- 1987-05-28 ES ES557565A patent/ES8801451A1/es not_active Expired
Also Published As
Publication number | Publication date |
---|---|
EP0191407B1 (de) | 1995-12-06 |
EP0191407A2 (de) | 1986-08-20 |
EP0191407A3 (en) | 1989-11-08 |
ES548992A0 (es) | 1987-11-01 |
DE3650446D1 (de) | 1996-01-18 |
JPH0823863B2 (ja) | 1996-03-06 |
ES8801451A1 (es) | 1988-01-01 |
ATE131295T1 (de) | 1995-12-15 |
US4760604A (en) | 1988-07-26 |
MX166402B (es) | 1993-01-07 |
ES8800462A1 (es) | 1987-11-01 |
ES557565A0 (es) | 1988-01-01 |
JPS61193279A (ja) | 1986-08-27 |
CA1244946A (en) | 1988-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3650446T2 (de) | Paralleler, adaptiver, nichtlinearer Musterklassentrenner und -erkenner in mehreren Einheiten. | |
DE68908910T2 (de) | Paralleles, mehrere Einheiten umfassendes, anpassungsfähiges Musterklassifizierungssystem, das Korrelationen zwischen den Einheiten und eine Klassentrennungsmethodologie innerhalb der Einheiten benutzt. | |
DE69529210T2 (de) | Verfahren zum paaren von fingerabdrückminutiae mittels attribut-verhältnissgraphen | |
DE3789718T2 (de) | Verfahren zur Konstruktion von baumstrukturierten Klassifikatoren. | |
DE60130742T2 (de) | Mustererkennung mit hierarchischen Netzen | |
DE69324207T2 (de) | Bildgruppierungsvorrichtung | |
DE69230031T2 (de) | Mustererkennung und -echtheitsprüfung, insbesondere für handgeschriebene Unterschriften | |
DE69937530T2 (de) | Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen | |
DE69521811T2 (de) | Verfahren zur vermeidung überflüssiger identifizierungen (verursacht durch antefakten in bildern von bakterienkolonien) | |
DE69126555T2 (de) | Verfahren zur Klassifikation in einem hierarchisierten neuronalen Netzwerk | |
DE60307224T2 (de) | Computergestütztes verfahren zur entdeckung von mustern in unbekannten hochdimensionalen daten | |
DE69732904T2 (de) | Verfahren und gerät zur extraktion gegenstände chakterisierender merkmale | |
DE112017006136T5 (de) | System und Verfahren zur CNN-Schichtenteilung | |
DE112018000349T5 (de) | Visuelles Analysesystem für auf einem konvolutionalen neuronalen Netz basierte Klassifizierer | |
DE69031774T2 (de) | Adaptiver Gruppierer | |
DE2740395A1 (de) | Automatisches system zum identifizieren unbekannter muster | |
DE19955919C1 (de) | Verfahren zur Erkennung von Objekten in Bildern auf der Bildpixelebene | |
DE19705757A1 (de) | Verfahren und Gerät für das Design eines hoch-zuverlässigen Mustererkennungs-Systems | |
DE69330021T2 (de) | Verbessertes System zur Mustererkennung für Sonar und andere Anwendungen | |
EP3853778B1 (de) | Verfahren und vorrichtung zum betreiben eines steuerungssystems | |
DE69223447T2 (de) | Lernverfahren für neuronales Netzwerk und Klassifizieranlage zum Anwenden dieses Verfahrens | |
DE2829808A1 (de) | Verfahren und vorrichtung zum lesen von zeichen | |
DE60217748T2 (de) | Verfahren und Gerät zur Anzeige eines Bildraumes | |
DE69127495T2 (de) | Erkennungseinheit und Gerät zur Erkennung und Beurteilung in dem die Einheit verwendet ist | |
EP1180258B1 (de) | Mustererkennung mittels prüfung zusätzlicher merkmale nach teilverarbeitung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee | ||
8370 | Indication related to discontinuation of the patent is to be deleted | ||
8339 | Ceased/non-payment of the annual fee |