DE69122356T2 - Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks - Google Patents

Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks

Info

Publication number
DE69122356T2
DE69122356T2 DE69122356T DE69122356T DE69122356T2 DE 69122356 T2 DE69122356 T2 DE 69122356T2 DE 69122356 T DE69122356 T DE 69122356T DE 69122356 T DE69122356 T DE 69122356T DE 69122356 T2 DE69122356 T2 DE 69122356T2
Authority
DE
Germany
Prior art keywords
data
neural network
layer
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69122356T
Other languages
English (en)
Other versions
DE69122356D1 (de
Inventor
Toru Niki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69122356D1 publication Critical patent/DE69122356D1/de
Application granted granted Critical
Publication of DE69122356T2 publication Critical patent/DE69122356T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

  • Die Erfindung betrifft ein Muster-Erkennungsverfahren zum Einteilen von eingegebenen Daten wie eingegebenen Sprachdaten oder eingegebenen Bilddaten.
  • Das durch Rumelhart u.a. vorgeschlagene (nachstehend einfach als neuronales Netzwerk bezeichnete) neuronale Netzwerk mit rückwärtiger Ausbreitung ist in Verbindung mit Mustererkennungsvorrichtungen in Betracht gezogen worden, die eingegebene Daten in eine von mehreren Kategorien einteilen. Der Aufbau eines neuronalen Netzwerks zur Bestimmung der Kategone wird nachstehend unter Bezug auf Fig. 3 beschrieben.
  • In Fig. 3 bezeichnet Bezugszahl 301 Elemente U&sub1;I, U&sub2;I, ... usw. einer Eingabeschicht. Die Elemente dieser Schicht senden einen empfangenen eingegebenen Wert zu sämtlichen Elementen der nächsten Schicht 302. Bezugszahl 302 bezeichnet Elemente U&sub1;S, U&sub2;S, ... usw. einer Zwischenschicht. Diese Elemente senden ein Ausgangssignal y = f ( Wixi - θ) bezüglich eines Eingangssignals xi (i = 1, 2, ...) aus den Elementen der vorangehenden Schicht 301 zu sämtlichen Elementen der Ausgangsschicht 303, wobei Wi als Gewichtungskoeffizient bezeichnet wird und θ eine Vorspannung ist sowie beide elementeigene Werte sind. f wird als Übertragungsfunktion bezeichnet und ist gewöhnlich eine sigmoide bzw. S-Funktion f (s) = 1/(1 + exp(-s)). Bezugszahl 303 bezeichnet Elemente U&sub1;O, U&sub2;O, ... usw. einer Ausgabeschicht. Diese Elemente geben z = f ( WjYj - θ) bezüglich eines Eingangssignals 302 Yj (j = 1, 2, ...) aus dem Element der Zwischenschicht auf dieselbe Weise wie vorstehend beschrieben aus. Die Anzahl der Elemente der Ausgabeschicht 303 ist dieselbe wie die Anzahl der zu erkennenden Kategorien. Falls Gewichtungskoeffizienten und Vorspannungen sämtlicher Elemente idealerweise bestimmt sind, wird nur das Ausgangssignal aus dem Element zu 1, das der Kategorie entspricht, zu der das Eingangssignal gehört, und Ausgangssignale aus den anderen Elementen werden zu 0.
  • Obwohl Fig. 3 nur eine einzelne Zwischenschicht darstellt, können mehrere Zwischenschichten verwendet werden.
  • Ein Lernalgorithmus zur Bestimmung des Gewichtungskoeffizienten jedes Elements und des Wertes der Vorspannung ist ausführlich in "Parallel Distributed Processing, Vol 1" beschrieben (Rumelhart u.a., MIT Press, 1986).
  • Nachstehend wird die Bedeutung der Signalverarbeitung in einem derartigen neuronalen Netzwerk beschrieben. Zur Vereinfachung wird ein neuronales Netzwerk mit einer einzelnen Zwischenschicht in Betracht gezogen. Falls die Ausgangssignale aus der Eingabeschicht und diejenigen aus der Ausgabeschicht gemeinsam durch Vektoren x bzw. y bezeichnet werden, trifft die folgende Beziehung für sie zu:
  • y = f (W x - θ) (1)
  • In der vorstehend angeführten Gleichung stellt f eine vektorgewertete Funktion dar, in der jedes Element des Vektors in eine sigmoide Funktion eingegeben wird. W x - θ stellt offensichtlich eine affine Transformation dar. Daraus läßt sich ableiten, daß, nachdem eine affine Transformation von der Eingabeschicht zu der Zwischenschicht durchgeführt wird, eine derartige Transformation durch Verwendung einer sigmoiden Funktion durchgeführt wird, daß der Wert auf ein Intervall [0, 1] beschränkt ist.
  • Fig. 2 zeigt eine Abbildung, die ein Beispiel der Verteilung eines eingegebenen Vektors darstellt. Der Einfachheit halber seien der eingegebene Vektor x ein zweidimensionaler Vektor und Objektkategorien drei Arten C&sub1;, C&sub2; sowie C&sub3;. Es wird in Betracht gezogen, daß, wenn ein Lernen entsprechend einem Algorithmus mit rückwärtiger Ausbreitung abgeschlossen ist, zu diesem Zeitpunkt θ zu einem Vektor in der Nähe eines Durchschnitts sämtlicher Lerndaten wie durch Bezugszahl 201 in Fig. 2 dargestellt konvergiert.
  • Die Ausgangssignale aus der Zwischenschicht und diejenigen aus der Ausgabeschicht werden auf dieselbe Weise wie in Gleichung (1) durch den folgenden Ausdruck dargestellt:
  • z = f (W y - θ) (2)
  • Dies sollte auf eine andere Weise gedeutet werden. Das bedeutet, daß in der Gleichung (2) W y - θ als eine Gruppe von linearen Diskriminantenfunktionen betrachtet werden kann. Die durch Einsetzen jedes Ausgangssignals in die sigmoide Funktion erhaltenen werden zu einem endgültigen Ausgangssignal z.
  • Ein Korrekturwert ΔWij für den Gewichtungskoeffizienten Wij wird durch die folgende Gleichung in dem Algorithmus mit rückwärtiger Ausbreitung berechnet:
  • wobei η eine positive Konstante und E ein Fehler des gesamten Netzwerks ist. Das bedeutet, daß gilt:
  • wobei tj ein Überwachungssignal und Yj ein Ausgangssignal aus der Ausgabeschicht ist.
  • wird unter Verwendung des Ausgangssignals aus jeder Schicht berechnet. Dessen Herleitung ist bekannt und entfällt deshalb.
  • Wij wird unter Verwendung dieses Korrekturwerts ΔWij aufeinanderfolgend korrigiert:
  • Wij (n+1) = Wij (n) + ΔWij
  • Deswegen ist es erforderlich, daß Gewichtungskoeffizienten korrigiert werden (dieser Schritt wird als Lernen bezeichnet), beginnend mit einem guten Anfangswert Wij(0). Eine ähnliche Korrektur wie die vorstehende wird für eine Vorspannung θ durch deren Berücksichtigung als Gewichtungskoeffizient für eingegebene Daten durchgeführt, deren Wert stets 1 ist.
  • Der Algorithmus mit rückwärtiger Ausbreitung hängt von der Art und Weise ab, in der die Anfangswerte gegeben sind, weil der Gewichtungskoeffizient W und die Vorspannung θ aufeinanderfolgend korrigiert werden. Das bedeutet, daß, falls die Anfangswerte nicht auf geeignete Weise gegeben sind, eine Lösung innerhalb eines lokalen Minimalwerts fallen kann oder divergieren bzw. oszillieren bzw. schwingen kann. Gleichzeitig ist, je größer die Anzahl der zu bestimmenden Parameter wie W oder θ ist, der Freiheitsgrad umso größer, was das Erreichen einer korrekten Lösung erschwert. Wie vorstehend beschrieben ist es schwierig, sie auszulassen, da sowohl W als auch θ bedeutend sind.
  • Die Veröffentlichung "Adaptive Systems in Pattern Recognition" von H. Kazmierczak und K. Steinbuch in "IEEE Transactions on Electronic Computers", Bd. 12, Nr. 6, S. 822 bis 835 (Dezember 1963) beschreibt verschiedene Kategorisierbzw. Einteileinrichtungen von neuronalen Netzwerken, die solche mit und ohne Vorspannung enthalten.
  • Erfindungsgemäß wird ein Verfahren zur Mustererkennung zur Einteilung von eingegebenen Daten in eine von mehreren Kategorien geschaffen, das ein neuronales Netzwerk verwendet, wobei die Leistungsfähigkeit verbessert wird, aber eine Vorspannung für eine Zwischenschicht des neuronalen Netzwerks nicht erforderlich ist.
  • Gemäß einer besonderen Ausgestaltung der Erfindung wird eine Vorrichtung geschaffen einschließlich eines neuronalen Netzwerks zur Einteilung von empfangenen Merkmalsdaten in eine von mehreren Kategorien, wobei das neuronale Netzwerk eine Eingabeschicht, eine Ausgabeschicht und zumindest eine Zwischenschicht aufweist, wobei die Zwischenschicht eine Einrichtung zur Multiplikation von Daten aus einer vorangehenden Schicht mit Gewichtungskoeffizienten ohne Addition einer Vorspannung aufweist, die unter Verwendung einer Lerngruppe von Merkmalsvektoren hergeleitet wurden, wobei jeder Merkmalsvektor eine der mehreren Kategorien darstellt, gekennzeichnet durch eine Subtrahiereinrichtung zur Subtraktion eines Durchschnittsvektors der Lerngruppe der Merkmalvektoren von den empfangenen Merkmalsdaten zur Bildung von eingegebenen Daten, die der Eingabeschicht des neuronalen Netzwerks zugeführt werden.
  • Erfindungsgemäß wird außerdem ein Verfahren zur Einteilung von Merkmalsdaten in eine von mehreren Kategorien geschaffen, das ein neuronales Netzwerk mit einer Eingabeschicht, einer Ausgabeschicht und zumindest einer Zwischenschicht verwendet, wobei die Zwischenschicht des neuronalen Netzwerks ohne Addition einer Vorspannung durch Multiplikation von Daten aus einer vorangehenden Schicht mit unter Verwendung einer Lerngruppe von Merkmalsvektoren hergeleiteten Gewichtungskoeffizienten arbeitet, wobei jeder Merkmalsvektor eine der mehreren Kategorien darstellt, gekennzeichnet durch Empfangen von einzuteilenden Merkmalsdaten und Subtrahieren eines Durchschnittsvektors der Lerngruppe der Merkmalsvektoren von den empfangenen Merkmalsdaten zur Bildung von eingegebenen Daten, die der Eingabeschicht des neuronalen Netzwerks zugeführt werden.
  • Es ist herausgefunden worden, daß durch Subtraktion eines Durchschnittsvektors der Lerngruppe der Merkmalsvektoren von den eingegebenen Daten, bevor er dem neuronalen Netzwerk zugeführt wird, eine verbesserte Leistungsfähigkeit der Einteilung ohne die Probleme der Definition von Vorspannungswerten für die Zwischenschicht erreicht werden kann.
  • Gemäß Ausführungsbeispielen der Erfindung können die empfangenen Merkmalsdaten aus eingegebenen Musterdaten entnommen werden. In dem Fall, daß derartige Musterdaten aus sichtbaren Bildern hergeleitet werden, kann die Erfindung beispielsweise bei der optischen Zeichenerkennung von Nutzen sein.
  • Die Erfindung wird nachstehend anhand eines Ausführungsbeispiels unter Bezugnahme auf die Zeichnung näher beschrieben. In der Beschreibung wird auf die beigefügte Zeichnung Bezug genommen, die einen Teil der Anmeldung bildet und ein Beispiel der Erfindung veranschaulicht. Ein derartiges Beispiel ist jedoch nicht beschränkend für die verschiedenen Ausführungsbeispiele der Erfindung, weshalb auf die beigefügten Ansprüche zur Bestimmung des Bereichs der Erfindung verwiesen wird.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Fig. 1 zeigt ein Blockschaltbild, das den Aufbau einer Mustererkennungsvorrichtung gemäß einem Ausführungsbeispiel der Erfindung darstellt.
  • Fig.2 zeigt eine schematische Ansicht, die ein Beispiel der Verteilung von eingegebenen Daten veranschaulicht.
  • Fig. 3 zeigt eine Abbildung, die den Aufbau eines neuronalen Netzwerks darstellt.
  • BESCHREIBUNG DES BEVORZUGTEN AUSFÜHRUNGSBEISPIELS
  • Nachstehend wird ein bevorzugtes Ausführungsbeispiel der Erfindung unter Bezugnahme auf die beigefügte Zeichnung näher beschrieben.
  • Fig. 1 zeigt ein Blockschaltbild, das den Aufbau einer Zeichenerkennungsvorrichtung gemäß einem Ausführungsbeispiel der Erfindung darstellt. In Fig. 1 bezeichnet Bezugszahl 101 einen photoelektrischen Wandlerabschnitt zur Eingabe von Zeichenbildern und zu deren Umwandlung in elektrische Signale, Bezugszahl 102 einen Vorverarbeitungsabschnitt zur Entfernung von Rauschen und Binärisierung sowie Normalisierung, Bezugszahl 103 einen Merkmals-Entnahmeabschnitt zur Entnahme von charakteristischen Merkmalen eines Zeichens entsprechend einem vordefinierten Algorithmus, Bezugszahl 104 einen Durchschnittswert-Speicherabschnitt zur Speicherung eines Durchschnittswert-Vektors, Bezugszahl 105 einen Durchschnittswert-Subtraktionsabschnitt zur Subtraktion eines Durchschnittswert-Vektors von den durch den Merkmalsentnahmeabschnitt entnommenen Merkmalsdaten, Bezugszahl 106 einen neuronalen Netzwerk-Abschnitt zur Bestimmung, zu welcher Kategorie eingegebene Zeichen gehören, und Bezugszahl 107 einen Ausgabeabschnitt zur Ausgabe einer bestimmten Kategorie. Es sei angenommen, daß der Vorverarbeitungsabschnitt 102 und der Merkmalsentnahmeabschnitt 103 aus auf hinreichend bekannter Technologie basierenden Einrichtungen gebildet sind und kein besonderer Vorverarbeitungsabschnitt oder Merkmalsentnahmeabschnitt bevorzugt ist.
  • Nachstehend wird ein Verfahren zur Bestimmung eines Durchschnittswert-Vektors von sämtlichen Lerndaten des neuronalen Netzwerks beschrieben. Falls zu bestimmende Kategorien mit C&sub1;, C&sub2;, ..., CM und ein zu einer Kategorie CK (K = 1, 2,..., M) gehörender, aus bekannten Lerndaten entnommener Merkmalsvektor mit xik (i = 1, 2, ..., N) bezeichnet werden, wird ein Durchschnittswert-Vektor durch die folgende Gleichung berechnet.
  • Dieser Durchschnittsvektor wird im voraus berechnet und in dem Durchschnittswert-Speicherabschnitt 104 gespeichert.
  • Der Durchschnittswert-Subtraktionsabschnitt 105 erzeugt Differenzdaten x' durch Subtraktion des Durchschnittsvektors von jedem von sämtlichen eingegebenen Merkmalsvektoren x (d.h. x' = x - ) und sendet die Differenzdaten zu dem neuronalen Netzwerkabschnitt 106.
  • Der neuronale Netzwerkabschnitt 106 ist gemäß Fig. 3 hierarchisch aufgebaut. Eine durch die folgende Gleichung ausgedrückte, bezüglich dem Ursprung symmetrische sigmoider Funktion wird für eine Schwellwertfunktion für jedes Element verwendet:
  • f(s) = 1 / {1 + exp(-s)} -1/2
  • Die Vorspannung θ wird den Elementen der Zwischenschicht nicht zugeführt. Deswegen wird der Zusammenhang zwischen dem eingegebenen Merkmalsvektor x und dem Ausgangssignal y aus der Zwischenschicht wie folgt:
  • y = f (W x') ,
  • wobei W eine Gewichtungskoeffizienten darstellende Matrix ist und f eine vektorgewertete Funktion der sigmoiden Funktion darstellt. Da x' ein Wert ist, von dem der Durchschnittswert- Vektor der Lerndaten des neuronalen Netzwerks bereits subtrahiert worden ist, muß die Vorspannung θ in dieser Transformation anders als beim Stand der Technik nicht enthalten sein. Demgegenüber wird eine ähnliche Transformation wie bei dem Stand der Technik von der Zwischenschicht zu der Ausgabeschicht ausgeführt:
  • z = f (W y - θ)
  • Der Ausgabeabschnitt 107 gibt als Kandidaten eine einem Element entsprechende Kategorie aus, die den größten Wert der Komponenten zk (k = 1, 2, ..., M) des Ausgangssignals z aus dem neuronalen Netzwerkabschnitt 106 ausgibt.
  • Obwohl gemäß dem vorstehend beschriebenen Ausführungsbeispiel Zeichenbilder als Eingangssignal verwendet werden, kann die Erfindung auch dann angewandt werden, wenn ein eingegebener Vektor eingegebene Sprachdaten, eingegebene Bilddaten, usw. sind.
  • Gemäß dem vorstehend beschriebenen Ausführungsbeispiel ist die Zwischenschicht als einzelne Schicht ausgebildet, aber die Zwischenschicht kann aus jeder Anzahl von Schichten ausgebildet sein. In dem letzteren Fall muß, falls ein Durchschnittsvektor sämtlicher Lerndaten erfindungsgemäß von einem eingegebenen Vektor subtrahiert wird, die Vorspannung θ nicht in sämtlichen Elementen der Zwischenschicht enthalten sein.
  • Wie vorstehend beschrieben können selbst dann, wenn die Vorspannung θ den Elementen der Zwischenschicht nicht zugeführt wird, eine Erkennung und Einteilung durch Eingabe eines Wertes durchgeführt werden, bei der ein Durchschnittswert- Vektor sämtlicher Lerndaten des neuronalen Netzwerks von einem eingegebenen Vektor subtrahiert worden ist. Da die Anzahl von Parametern gesenkt wird, wenn die Vorspannung θ nicht eingegeben wird, wird die Möglichkeit minimal, daß während eines Lernverfahrens eine Lösung innerhalb eines lokalen Minimalwertes fällt oder divergiert bzw. schwingt.
  • Viele verschiedene Ausführungsbeispiele der Erfindung können ohne Abweichung von dem Bereich der Erfindung gebildet werden. Es ist selbstverständlich, daß die Erfindung nicht auf das in dieser Beschreibung beschriebene besondere Ausführungsbeispiel, sondern nur durch die beigefügten Ansprüche beschränkt ist.

Claims (20)

1. Vorrichtung einschließlich eines neuronalen Netzwerks (106) zur Einteilung von empfangenen Merkmalsdaten in eine von mehreren Kategorien, wobei das neuronale Netzwerk eine Eingabeschicht (301), eine Ausgabeschicht (303), und zumindest eine Zwischenschicht (302) aufweist, wobei die Zwischenschicht eine Einrichtung ohne Addition einer Vorspannung zur Multiplikation von Daten aus einer vorangehenden Schicht mit unter Verwendung einer Lerngruppe von Merkmalsvektoren hergeleiteten Gewichtungskoeffizienten aufweist, wobei jeder Merkmalsvektor eine der mehreren Kategorien darstellt, gekennzeichnet durch eine Subtrahiereinrichtung (104, 105) zur Subtraktion eines Durchschnittsvektors der Lerngruppe der Merkmalsvektoren von den empfangenen Merkmalsdaten zur Bildung von eingegebenen Daten, die der Eingabeschicht des neuronalen Netzwerks zugeführt werden.
2. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine Merkmals-Entnahmeeinrichtung (103) zum Empfang von eingegebenen Musterdaten und zur Entnahme der Merkmalsdaten auf den eingegebenen Musterdaten.
3. Vorrichtung nach Anspruch 1 oder 2, gekennzeichnet durch eine Einteilungseinrichtung (107) zum Empfang eines durch die Ausgabeschicht des neuronalen Netzwerks ausgegebenen Wertes und zur Bestimmung einer Kategorie für die Merkmalsdaten auf Grundlage des durch die Ausgabeschicht ausgegebenen Wertes.
4. Vorrichtung nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, daß die zumindest eine Zwischenschicht eine Einrichtung zur Ausführung einer vorbestimmten Übertragungsfunktion für die mit dem Gewichtungskoeffizienten multiplizierten Daten aufweist.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß die Übertragungsfunktion eine sigmoide Funktion ist, die bezüglich dem Ursprung symmetrisch ist.
6. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß die Ausgabeschicht des neuronalen Netzwerks eine Einrichtung zur Multiplikation von durch eine der Ausgabeschicht vorangehenden Zwischenschicht zugeführten Daten mit einem Gewichtungskoeffizienten und zur Addition einer Vorspannung zu dem Ergebnis dieser Multiplikation zur Erzeugung eines Ausgabewertes des neuronalen Netzwerks aufweist.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, daß die Ausgabeschicht eine Einrichtung zur Ausführung einer vorbestimmten Übertragungsfunktion zur Erzeugung des Ausgabewertes aufweist.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, daß die vorbestimmte Übertragungsfunktion der Ausgabeschicht eine bezüglich dem Ursprung symmetrische sigmoide Funktion ist.
9. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß ein sichtbar wahrnehmbares Muster einzuteilen ist und daß die Vorrichtung eine Wandlereinrichtung (101) zur Umwandlung des sichtbar wahrnehmbaren Musters in ein elektrisches Signal sowie eine vorverarbeitungseinrichtung (102) zur Normalisierung und Binärisierung des elektrischen Signals sowie eine Einrichtung (103) zur Entnahme der Merkmalsdaten aus dem binärisierten elektrischen Signal aufweist.
10. Verfahren zur Einteilung von Merkmalsdaten in eine von mehreren Kategorien unter Verwendung eines neuronalen Netzwerks mit einer Eingabeschicht, einer Ausgabeschicht und zumindest einer Zwischenschicht, wobei eine Zwischenschicht des neuronalen Netzwerks ohne Addition einer Vorspannung durch Multiplikation von Daten aus einer vorangehenden Schicht mit unter Verwendung einer Lerngruppe von Merkmalsvektoren hergeleiteten Gewichtungskoeffizienten arbeitet, wobei jeder Merkmalsvektor eine der mehreren Kategorien darstellt, gekennzeichnet durch Subtrahieren eines Durchschnittsvektors der Lerngruppe der Merkmalsvektoren von den Merkmalsdaten zur Bildung von eingegebenen Daten, die der Eingabeschicht des neuronalen Netzwerks zugeführt werden.
11. Verfahren nach Anspruch 10, gekennzeichnet durch den Schritt eines Empfangens von eingegebenen Musterdaten und eines Entnehmens der Merkmalsdaten aus den eingegebenen Musterdaten.
12. Verfahren nach Anspruch 10 oder 11, gekennzeichnet durch den Schritt eines Bestimmens einer Kategorie für die Merkmalsdaten auf Grundlage eines durch die Ausgabeschicht des neuronalen Netzwerks ausgegebenen Wertes.
13. Verfahren nach Anspruch 10, 11 oder 12, dadurch gekennzeichnet, daß die Zwischenschicht des neuronalen Netzwerks eine vorbestimmte Übertragungsfunktion für den mit dem Gewichtskoeffizienten-Vektor multiplizierten Vektor ausführt.
14.Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß die Übertragungsfunktion eine sigmoide Funktion ist, die bezüglich dem Ursprung symmetrisch ist.
15. Verfahren nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, daß die Ausgabeschicht des neuronalen Netzwerks durch eine der Ausgabeschicht vorangehende Zwischenschicht zugeführte Daten mit einem Gewichtungskoeffizienten multipliziert und eine Vorspannung zu dem Ergebnis der Multiplikation zur Erzeugung eines Ausgabewertes des neuronalen Netzwerks addiert.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß die Ausgabeschicht eine vorbestimmte Übertragungsfunktion zur Erzeugung des Ausgabewertes ausführt.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß die vorbestimmte Übertragungsfunktion der Ausgabeschicht eine bezüglich dem Ursprung symmetrische sigmoide Funktion ist.
18. Verfahren nach einem der Ansprüche 10 bis 17, dadurch gekennzeichnet, daß ein sichtbar wahrnehmbares Muster einzuteilen ist und daß der Schritt des Empfangens von Merkmalsdaten ein Umwandeln des sichtbar wahrnehmbaren Musters in ein elektrisches Signal, ein Normalisieren und Binärisieren des elektrischen Signals und ein Entnehmen der Merkmalsdaten aus dem binärisierten elektrischen Signal aufweist.
19. Zeichenerkennungseinrichtung mit einer Vorrichtung nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die Merkmalsdaten von einem eingegebenen Bild entnommene Daten sind und die Kategorien unterschiedliche Textzeichen darstellen.
20. Verfahren zur Zeichenerkennung (OCR) mit einem Verfahren nach einem der Ansprüche 10 bis 18, dadurch gekennzeichnet, daß die Merkmalsdaten von einem eingegebenen Bild entnommen worden sind und daß die Kategorien unterschiedliche Textzeichen darstellen.
DE69122356T 1990-11-20 1991-11-19 Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks Expired - Fee Related DE69122356T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2316258A JP2763398B2 (ja) 1990-11-20 1990-11-20 パターン認識装置

Publications (2)

Publication Number Publication Date
DE69122356D1 DE69122356D1 (de) 1996-10-31
DE69122356T2 true DE69122356T2 (de) 1997-02-13

Family

ID=18075097

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69122356T Expired - Fee Related DE69122356T2 (de) 1990-11-20 1991-11-19 Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks

Country Status (4)

Country Link
US (1) US5422981A (de)
EP (1) EP0487309B1 (de)
JP (1) JP2763398B2 (de)
DE (1) DE69122356T2 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69331518T2 (de) * 1993-02-19 2002-09-12 Ibm Neuronales Netz zum Vergleich von Merkmalen von Bildmustern
DE4309985A1 (de) * 1993-03-29 1994-10-06 Sel Alcatel Ag Geräuschreduktion zur Spracherkennung
US5604839A (en) * 1994-07-29 1997-02-18 Microsoft Corporation Method and system for improving speech recognition through front-end normalization of feature vectors
US5784485A (en) * 1994-08-25 1998-07-21 Xu; Youguang Method and apparatus for automated pattern recognition
JP3207690B2 (ja) * 1994-10-27 2001-09-10 シャープ株式会社 画像処理装置
US5870471A (en) * 1996-11-27 1999-02-09 Esco Electronics Corporation Authentication algorithms for video images
US5937092A (en) * 1996-12-23 1999-08-10 Esco Electronics Rejection of light intrusion false alarms in a video security system
US5956424A (en) * 1996-12-23 1999-09-21 Esco Electronics Corporation Low false alarm rate detection for a video image processing based security alarm system
US6058206A (en) * 1997-12-01 2000-05-02 Kortge; Chris Alan Pattern recognizer with independent feature learning
US6247154B1 (en) 1998-03-03 2001-06-12 Rutgers, The State University Of New Jersey Method and apparatus for combined stuck-at fault and partial-scanned delay-fault built-in self test
US6104831A (en) * 1998-12-10 2000-08-15 Esco Electronics Corporation Method for rejection of flickering lights in an imaging system
US20040205035A1 (en) * 2000-05-01 2004-10-14 Norbert Rimoux Method and system for adaptive learning and pattern recognition
US7194434B2 (en) * 2000-06-15 2007-03-20 Sergio Piccioli Method for predictive determination of financial investment performance
US7133854B2 (en) * 2000-12-13 2006-11-07 International Business Machines Corporation Method and circuits for encoding an input pattern using a normalizer and a classifier
DE60130742T2 (de) * 2001-05-28 2008-07-17 Honda Research Institute Europe Gmbh Mustererkennung mit hierarchischen Netzen
US6862253B2 (en) * 2002-10-23 2005-03-01 Robert L. Blosser Sonic identification system and method
JP6633267B2 (ja) * 2014-03-20 2020-01-22 株式会社東芝 次元削減装置、方法及びプログラム
US10824959B1 (en) * 2016-02-16 2020-11-03 Amazon Technologies, Inc. Explainers for machine learning classifiers
JP6760830B2 (ja) * 2016-11-28 2020-09-23 株式会社東海理化電機製作所 学習装置及び学習方法
KR102210806B1 (ko) * 2018-10-02 2021-02-01 한림대학교 산학협력단 위 내시경 이미지의 딥러닝을 이용하여 위 병변을 진단하는 장치 및 방법
CN109800859B (zh) * 2018-12-25 2021-01-12 深圳云天励飞技术有限公司 一种神经网络批归一化的优化方法及装置
CN110276397B (zh) * 2019-06-24 2021-03-09 深动科技(北京)有限公司 一种基于门机制的图像特征提取方法、装置和系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
JPH0821065B2 (ja) * 1989-03-13 1996-03-04 シャープ株式会社 文字認識装置
JP2940933B2 (ja) * 1989-05-20 1999-08-25 株式会社リコー パターン認識方式
US5058179A (en) * 1990-01-31 1991-10-15 At&T Bell Laboratories Hierarchical constrained automatic learning network for character recognition
US5091780A (en) * 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
US5142612A (en) * 1990-08-03 1992-08-25 E. I. Du Pont De Nemours & Co. (Inc.) Computer neural network supervisory process control system and method

Also Published As

Publication number Publication date
EP0487309A2 (de) 1992-05-27
JPH04184686A (ja) 1992-07-01
DE69122356D1 (de) 1996-10-31
JP2763398B2 (ja) 1998-06-11
EP0487309B1 (de) 1996-09-25
US5422981A (en) 1995-06-06
EP0487309A3 (en) 1993-01-07

Similar Documents

Publication Publication Date Title
DE69122356T2 (de) Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks
DE4217832C2 (de) Mustererkennungsgerät
DE68925381T2 (de) Bewegungserkennungsgerät
DE69116854T2 (de) Digitales fehlerdiffusionsverfahren mit hoher geschwindigkeit zur umsetzung eines kontinuierlichen -in ein binäres- bild
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE69025693T2 (de) Verfahren und System zum Vergleichen von Punktmustern sowie Bilderkennungsverfahren und -system mit Verwendung desselben
DE102019209644A1 (de) Verfahren zum Trainieren eines neuronalen Netzes
DE69127495T2 (de) Erkennungseinheit und Gerät zur Erkennung und Beurteilung in dem die Einheit verwendet ist
DE102017218851A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung eines tiefen neuronalen Netzes
EP0901658B1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE69123867T2 (de) Lernverfahren für Datenverarbeitungsanlage
DE19504664C2 (de) Chaotisches rekurrentes neuronales Netz und Lernverfahren dafür
DE4129561C2 (de) Informationsverarbeitungssystem
EP3557490A1 (de) Trainingsverfahren
DE19502554C2 (de) Lernverfahren für ein Objekterkennungsgerät, Objekterkennungsverfahren und -gerät, sowie Verfahren und Vorrichtung zur maschinellen Ausführung einer Arbeitsanweisung
Ultsch et al. Automatic acquisition of symbolic knowledge from subsymbolic neural networks
DE96717T1 (de) Verfahren und vorrichtung zur erkennung eines unbekannten charakters.
DE102018220608A1 (de) Maschinelles Lernsystem, sowie ein Verfahren, ein Computerprogramm und eine Vorrichtung zum Erstellen des maschinellen Lernsystems
DE69120854T2 (de) Lernverfahren fÜr Datenverarbeitungssystem
DE102019210994A1 (de) Vorrichtung und Verfahren zum Verarbeiten eines digitalen Datenstroms
DE1284127B (de) Funktionsgenerator fuer spezielle Autokorrelationsfunktionen
DE102007025620A1 (de) Vorrichtung zur Bestimmung einer Objekt- und/oder Existenzwahrscheinlichtkeit eines Suchobjekts in einem Auslesefenster eines Bildes, Verfahren sowie Computerprogramm
EP0469315B1 (de) Verfahren zur visuellen Inspektion zwei- oder dreidimensionaler Bilder
DE102020215945A1 (de) Verfahren zum Trainieren eines ML-Systems, ML-System, Computerprogramm, maschinenlesbares Speichermedium und Vorrichtung
DE112020001437T5 (de) Berechnungsvorrichtung und multiplizier-akkumulier-berechnungssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee