DE69122356T2 - Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks - Google Patents
Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen NetzwerksInfo
- Publication number
- DE69122356T2 DE69122356T2 DE69122356T DE69122356T DE69122356T2 DE 69122356 T2 DE69122356 T2 DE 69122356T2 DE 69122356 T DE69122356 T DE 69122356T DE 69122356 T DE69122356 T DE 69122356T DE 69122356 T2 DE69122356 T2 DE 69122356T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- neural network
- layer
- output
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 37
- 238000000034 method Methods 0.000 title claims description 15
- 238000003909 pattern recognition Methods 0.000 title description 4
- 239000013598 vector Substances 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 22
- 238000012546 transfer Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 239000010410 layer Substances 0.000 description 41
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 238000012567 pattern recognition method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012015 optical character recognition Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Description
- Die Erfindung betrifft ein Muster-Erkennungsverfahren zum Einteilen von eingegebenen Daten wie eingegebenen Sprachdaten oder eingegebenen Bilddaten.
- Das durch Rumelhart u.a. vorgeschlagene (nachstehend einfach als neuronales Netzwerk bezeichnete) neuronale Netzwerk mit rückwärtiger Ausbreitung ist in Verbindung mit Mustererkennungsvorrichtungen in Betracht gezogen worden, die eingegebene Daten in eine von mehreren Kategorien einteilen. Der Aufbau eines neuronalen Netzwerks zur Bestimmung der Kategone wird nachstehend unter Bezug auf Fig. 3 beschrieben.
- In Fig. 3 bezeichnet Bezugszahl 301 Elemente U&sub1;I, U&sub2;I, ... usw. einer Eingabeschicht. Die Elemente dieser Schicht senden einen empfangenen eingegebenen Wert zu sämtlichen Elementen der nächsten Schicht 302. Bezugszahl 302 bezeichnet Elemente U&sub1;S, U&sub2;S, ... usw. einer Zwischenschicht. Diese Elemente senden ein Ausgangssignal y = f ( Wixi - θ) bezüglich eines Eingangssignals xi (i = 1, 2, ...) aus den Elementen der vorangehenden Schicht 301 zu sämtlichen Elementen der Ausgangsschicht 303, wobei Wi als Gewichtungskoeffizient bezeichnet wird und θ eine Vorspannung ist sowie beide elementeigene Werte sind. f wird als Übertragungsfunktion bezeichnet und ist gewöhnlich eine sigmoide bzw. S-Funktion f (s) = 1/(1 + exp(-s)). Bezugszahl 303 bezeichnet Elemente U&sub1;O, U&sub2;O, ... usw. einer Ausgabeschicht. Diese Elemente geben z = f ( WjYj - θ) bezüglich eines Eingangssignals 302 Yj (j = 1, 2, ...) aus dem Element der Zwischenschicht auf dieselbe Weise wie vorstehend beschrieben aus. Die Anzahl der Elemente der Ausgabeschicht 303 ist dieselbe wie die Anzahl der zu erkennenden Kategorien. Falls Gewichtungskoeffizienten und Vorspannungen sämtlicher Elemente idealerweise bestimmt sind, wird nur das Ausgangssignal aus dem Element zu 1, das der Kategorie entspricht, zu der das Eingangssignal gehört, und Ausgangssignale aus den anderen Elementen werden zu 0.
- Obwohl Fig. 3 nur eine einzelne Zwischenschicht darstellt, können mehrere Zwischenschichten verwendet werden.
- Ein Lernalgorithmus zur Bestimmung des Gewichtungskoeffizienten jedes Elements und des Wertes der Vorspannung ist ausführlich in "Parallel Distributed Processing, Vol 1" beschrieben (Rumelhart u.a., MIT Press, 1986).
- Nachstehend wird die Bedeutung der Signalverarbeitung in einem derartigen neuronalen Netzwerk beschrieben. Zur Vereinfachung wird ein neuronales Netzwerk mit einer einzelnen Zwischenschicht in Betracht gezogen. Falls die Ausgangssignale aus der Eingabeschicht und diejenigen aus der Ausgabeschicht gemeinsam durch Vektoren x bzw. y bezeichnet werden, trifft die folgende Beziehung für sie zu:
- y = f (W x - θ) (1)
- In der vorstehend angeführten Gleichung stellt f eine vektorgewertete Funktion dar, in der jedes Element des Vektors in eine sigmoide Funktion eingegeben wird. W x - θ stellt offensichtlich eine affine Transformation dar. Daraus läßt sich ableiten, daß, nachdem eine affine Transformation von der Eingabeschicht zu der Zwischenschicht durchgeführt wird, eine derartige Transformation durch Verwendung einer sigmoiden Funktion durchgeführt wird, daß der Wert auf ein Intervall [0, 1] beschränkt ist.
- Fig. 2 zeigt eine Abbildung, die ein Beispiel der Verteilung eines eingegebenen Vektors darstellt. Der Einfachheit halber seien der eingegebene Vektor x ein zweidimensionaler Vektor und Objektkategorien drei Arten C&sub1;, C&sub2; sowie C&sub3;. Es wird in Betracht gezogen, daß, wenn ein Lernen entsprechend einem Algorithmus mit rückwärtiger Ausbreitung abgeschlossen ist, zu diesem Zeitpunkt θ zu einem Vektor in der Nähe eines Durchschnitts sämtlicher Lerndaten wie durch Bezugszahl 201 in Fig. 2 dargestellt konvergiert.
- Die Ausgangssignale aus der Zwischenschicht und diejenigen aus der Ausgabeschicht werden auf dieselbe Weise wie in Gleichung (1) durch den folgenden Ausdruck dargestellt:
- z = f (W y - θ) (2)
- Dies sollte auf eine andere Weise gedeutet werden. Das bedeutet, daß in der Gleichung (2) W y - θ als eine Gruppe von linearen Diskriminantenfunktionen betrachtet werden kann. Die durch Einsetzen jedes Ausgangssignals in die sigmoide Funktion erhaltenen werden zu einem endgültigen Ausgangssignal z.
- Ein Korrekturwert ΔWij für den Gewichtungskoeffizienten Wij wird durch die folgende Gleichung in dem Algorithmus mit rückwärtiger Ausbreitung berechnet:
- wobei η eine positive Konstante und E ein Fehler des gesamten Netzwerks ist. Das bedeutet, daß gilt:
- wobei tj ein Überwachungssignal und Yj ein Ausgangssignal aus der Ausgabeschicht ist.
- wird unter Verwendung des Ausgangssignals aus jeder Schicht berechnet. Dessen Herleitung ist bekannt und entfällt deshalb.
- Wij wird unter Verwendung dieses Korrekturwerts ΔWij aufeinanderfolgend korrigiert:
- Wij (n+1) = Wij (n) + ΔWij
- Deswegen ist es erforderlich, daß Gewichtungskoeffizienten korrigiert werden (dieser Schritt wird als Lernen bezeichnet), beginnend mit einem guten Anfangswert Wij(0). Eine ähnliche Korrektur wie die vorstehende wird für eine Vorspannung θ durch deren Berücksichtigung als Gewichtungskoeffizient für eingegebene Daten durchgeführt, deren Wert stets 1 ist.
- Der Algorithmus mit rückwärtiger Ausbreitung hängt von der Art und Weise ab, in der die Anfangswerte gegeben sind, weil der Gewichtungskoeffizient W und die Vorspannung θ aufeinanderfolgend korrigiert werden. Das bedeutet, daß, falls die Anfangswerte nicht auf geeignete Weise gegeben sind, eine Lösung innerhalb eines lokalen Minimalwerts fallen kann oder divergieren bzw. oszillieren bzw. schwingen kann. Gleichzeitig ist, je größer die Anzahl der zu bestimmenden Parameter wie W oder θ ist, der Freiheitsgrad umso größer, was das Erreichen einer korrekten Lösung erschwert. Wie vorstehend beschrieben ist es schwierig, sie auszulassen, da sowohl W als auch θ bedeutend sind.
- Die Veröffentlichung "Adaptive Systems in Pattern Recognition" von H. Kazmierczak und K. Steinbuch in "IEEE Transactions on Electronic Computers", Bd. 12, Nr. 6, S. 822 bis 835 (Dezember 1963) beschreibt verschiedene Kategorisierbzw. Einteileinrichtungen von neuronalen Netzwerken, die solche mit und ohne Vorspannung enthalten.
- Erfindungsgemäß wird ein Verfahren zur Mustererkennung zur Einteilung von eingegebenen Daten in eine von mehreren Kategorien geschaffen, das ein neuronales Netzwerk verwendet, wobei die Leistungsfähigkeit verbessert wird, aber eine Vorspannung für eine Zwischenschicht des neuronalen Netzwerks nicht erforderlich ist.
- Gemäß einer besonderen Ausgestaltung der Erfindung wird eine Vorrichtung geschaffen einschließlich eines neuronalen Netzwerks zur Einteilung von empfangenen Merkmalsdaten in eine von mehreren Kategorien, wobei das neuronale Netzwerk eine Eingabeschicht, eine Ausgabeschicht und zumindest eine Zwischenschicht aufweist, wobei die Zwischenschicht eine Einrichtung zur Multiplikation von Daten aus einer vorangehenden Schicht mit Gewichtungskoeffizienten ohne Addition einer Vorspannung aufweist, die unter Verwendung einer Lerngruppe von Merkmalsvektoren hergeleitet wurden, wobei jeder Merkmalsvektor eine der mehreren Kategorien darstellt, gekennzeichnet durch eine Subtrahiereinrichtung zur Subtraktion eines Durchschnittsvektors der Lerngruppe der Merkmalvektoren von den empfangenen Merkmalsdaten zur Bildung von eingegebenen Daten, die der Eingabeschicht des neuronalen Netzwerks zugeführt werden.
- Erfindungsgemäß wird außerdem ein Verfahren zur Einteilung von Merkmalsdaten in eine von mehreren Kategorien geschaffen, das ein neuronales Netzwerk mit einer Eingabeschicht, einer Ausgabeschicht und zumindest einer Zwischenschicht verwendet, wobei die Zwischenschicht des neuronalen Netzwerks ohne Addition einer Vorspannung durch Multiplikation von Daten aus einer vorangehenden Schicht mit unter Verwendung einer Lerngruppe von Merkmalsvektoren hergeleiteten Gewichtungskoeffizienten arbeitet, wobei jeder Merkmalsvektor eine der mehreren Kategorien darstellt, gekennzeichnet durch Empfangen von einzuteilenden Merkmalsdaten und Subtrahieren eines Durchschnittsvektors der Lerngruppe der Merkmalsvektoren von den empfangenen Merkmalsdaten zur Bildung von eingegebenen Daten, die der Eingabeschicht des neuronalen Netzwerks zugeführt werden.
- Es ist herausgefunden worden, daß durch Subtraktion eines Durchschnittsvektors der Lerngruppe der Merkmalsvektoren von den eingegebenen Daten, bevor er dem neuronalen Netzwerk zugeführt wird, eine verbesserte Leistungsfähigkeit der Einteilung ohne die Probleme der Definition von Vorspannungswerten für die Zwischenschicht erreicht werden kann.
- Gemäß Ausführungsbeispielen der Erfindung können die empfangenen Merkmalsdaten aus eingegebenen Musterdaten entnommen werden. In dem Fall, daß derartige Musterdaten aus sichtbaren Bildern hergeleitet werden, kann die Erfindung beispielsweise bei der optischen Zeichenerkennung von Nutzen sein.
- Die Erfindung wird nachstehend anhand eines Ausführungsbeispiels unter Bezugnahme auf die Zeichnung näher beschrieben. In der Beschreibung wird auf die beigefügte Zeichnung Bezug genommen, die einen Teil der Anmeldung bildet und ein Beispiel der Erfindung veranschaulicht. Ein derartiges Beispiel ist jedoch nicht beschränkend für die verschiedenen Ausführungsbeispiele der Erfindung, weshalb auf die beigefügten Ansprüche zur Bestimmung des Bereichs der Erfindung verwiesen wird.
- Fig. 1 zeigt ein Blockschaltbild, das den Aufbau einer Mustererkennungsvorrichtung gemäß einem Ausführungsbeispiel der Erfindung darstellt.
- Fig.2 zeigt eine schematische Ansicht, die ein Beispiel der Verteilung von eingegebenen Daten veranschaulicht.
- Fig. 3 zeigt eine Abbildung, die den Aufbau eines neuronalen Netzwerks darstellt.
- Nachstehend wird ein bevorzugtes Ausführungsbeispiel der Erfindung unter Bezugnahme auf die beigefügte Zeichnung näher beschrieben.
- Fig. 1 zeigt ein Blockschaltbild, das den Aufbau einer Zeichenerkennungsvorrichtung gemäß einem Ausführungsbeispiel der Erfindung darstellt. In Fig. 1 bezeichnet Bezugszahl 101 einen photoelektrischen Wandlerabschnitt zur Eingabe von Zeichenbildern und zu deren Umwandlung in elektrische Signale, Bezugszahl 102 einen Vorverarbeitungsabschnitt zur Entfernung von Rauschen und Binärisierung sowie Normalisierung, Bezugszahl 103 einen Merkmals-Entnahmeabschnitt zur Entnahme von charakteristischen Merkmalen eines Zeichens entsprechend einem vordefinierten Algorithmus, Bezugszahl 104 einen Durchschnittswert-Speicherabschnitt zur Speicherung eines Durchschnittswert-Vektors, Bezugszahl 105 einen Durchschnittswert-Subtraktionsabschnitt zur Subtraktion eines Durchschnittswert-Vektors von den durch den Merkmalsentnahmeabschnitt entnommenen Merkmalsdaten, Bezugszahl 106 einen neuronalen Netzwerk-Abschnitt zur Bestimmung, zu welcher Kategorie eingegebene Zeichen gehören, und Bezugszahl 107 einen Ausgabeabschnitt zur Ausgabe einer bestimmten Kategorie. Es sei angenommen, daß der Vorverarbeitungsabschnitt 102 und der Merkmalsentnahmeabschnitt 103 aus auf hinreichend bekannter Technologie basierenden Einrichtungen gebildet sind und kein besonderer Vorverarbeitungsabschnitt oder Merkmalsentnahmeabschnitt bevorzugt ist.
- Nachstehend wird ein Verfahren zur Bestimmung eines Durchschnittswert-Vektors von sämtlichen Lerndaten des neuronalen Netzwerks beschrieben. Falls zu bestimmende Kategorien mit C&sub1;, C&sub2;, ..., CM und ein zu einer Kategorie CK (K = 1, 2,..., M) gehörender, aus bekannten Lerndaten entnommener Merkmalsvektor mit xik (i = 1, 2, ..., N) bezeichnet werden, wird ein Durchschnittswert-Vektor durch die folgende Gleichung berechnet.
- Dieser Durchschnittsvektor wird im voraus berechnet und in dem Durchschnittswert-Speicherabschnitt 104 gespeichert.
- Der Durchschnittswert-Subtraktionsabschnitt 105 erzeugt Differenzdaten x' durch Subtraktion des Durchschnittsvektors von jedem von sämtlichen eingegebenen Merkmalsvektoren x (d.h. x' = x - ) und sendet die Differenzdaten zu dem neuronalen Netzwerkabschnitt 106.
- Der neuronale Netzwerkabschnitt 106 ist gemäß Fig. 3 hierarchisch aufgebaut. Eine durch die folgende Gleichung ausgedrückte, bezüglich dem Ursprung symmetrische sigmoider Funktion wird für eine Schwellwertfunktion für jedes Element verwendet:
- f(s) = 1 / {1 + exp(-s)} -1/2
- Die Vorspannung θ wird den Elementen der Zwischenschicht nicht zugeführt. Deswegen wird der Zusammenhang zwischen dem eingegebenen Merkmalsvektor x und dem Ausgangssignal y aus der Zwischenschicht wie folgt:
- y = f (W x') ,
- wobei W eine Gewichtungskoeffizienten darstellende Matrix ist und f eine vektorgewertete Funktion der sigmoiden Funktion darstellt. Da x' ein Wert ist, von dem der Durchschnittswert- Vektor der Lerndaten des neuronalen Netzwerks bereits subtrahiert worden ist, muß die Vorspannung θ in dieser Transformation anders als beim Stand der Technik nicht enthalten sein. Demgegenüber wird eine ähnliche Transformation wie bei dem Stand der Technik von der Zwischenschicht zu der Ausgabeschicht ausgeführt:
- z = f (W y - θ)
- Der Ausgabeabschnitt 107 gibt als Kandidaten eine einem Element entsprechende Kategorie aus, die den größten Wert der Komponenten zk (k = 1, 2, ..., M) des Ausgangssignals z aus dem neuronalen Netzwerkabschnitt 106 ausgibt.
- Obwohl gemäß dem vorstehend beschriebenen Ausführungsbeispiel Zeichenbilder als Eingangssignal verwendet werden, kann die Erfindung auch dann angewandt werden, wenn ein eingegebener Vektor eingegebene Sprachdaten, eingegebene Bilddaten, usw. sind.
- Gemäß dem vorstehend beschriebenen Ausführungsbeispiel ist die Zwischenschicht als einzelne Schicht ausgebildet, aber die Zwischenschicht kann aus jeder Anzahl von Schichten ausgebildet sein. In dem letzteren Fall muß, falls ein Durchschnittsvektor sämtlicher Lerndaten erfindungsgemäß von einem eingegebenen Vektor subtrahiert wird, die Vorspannung θ nicht in sämtlichen Elementen der Zwischenschicht enthalten sein.
- Wie vorstehend beschrieben können selbst dann, wenn die Vorspannung θ den Elementen der Zwischenschicht nicht zugeführt wird, eine Erkennung und Einteilung durch Eingabe eines Wertes durchgeführt werden, bei der ein Durchschnittswert- Vektor sämtlicher Lerndaten des neuronalen Netzwerks von einem eingegebenen Vektor subtrahiert worden ist. Da die Anzahl von Parametern gesenkt wird, wenn die Vorspannung θ nicht eingegeben wird, wird die Möglichkeit minimal, daß während eines Lernverfahrens eine Lösung innerhalb eines lokalen Minimalwertes fällt oder divergiert bzw. schwingt.
- Viele verschiedene Ausführungsbeispiele der Erfindung können ohne Abweichung von dem Bereich der Erfindung gebildet werden. Es ist selbstverständlich, daß die Erfindung nicht auf das in dieser Beschreibung beschriebene besondere Ausführungsbeispiel, sondern nur durch die beigefügten Ansprüche beschränkt ist.
Claims (20)
1. Vorrichtung einschließlich eines neuronalen Netzwerks
(106) zur Einteilung von empfangenen Merkmalsdaten in eine
von mehreren Kategorien, wobei das neuronale Netzwerk eine
Eingabeschicht (301), eine Ausgabeschicht (303), und
zumindest eine Zwischenschicht (302) aufweist, wobei die
Zwischenschicht eine Einrichtung ohne Addition einer Vorspannung zur
Multiplikation von Daten aus einer vorangehenden Schicht mit
unter Verwendung einer Lerngruppe von Merkmalsvektoren
hergeleiteten Gewichtungskoeffizienten aufweist, wobei jeder
Merkmalsvektor eine der mehreren Kategorien darstellt,
gekennzeichnet durch eine Subtrahiereinrichtung (104, 105) zur
Subtraktion eines Durchschnittsvektors der Lerngruppe der
Merkmalsvektoren von den empfangenen Merkmalsdaten zur
Bildung von eingegebenen Daten, die der Eingabeschicht des
neuronalen Netzwerks zugeführt werden.
2. Vorrichtung nach Anspruch 1, gekennzeichnet durch eine
Merkmals-Entnahmeeinrichtung (103) zum Empfang von
eingegebenen Musterdaten und zur Entnahme der Merkmalsdaten auf den
eingegebenen Musterdaten.
3. Vorrichtung nach Anspruch 1 oder 2, gekennzeichnet durch
eine Einteilungseinrichtung (107) zum Empfang eines durch die
Ausgabeschicht des neuronalen Netzwerks ausgegebenen Wertes
und zur Bestimmung einer Kategorie für die Merkmalsdaten auf
Grundlage des durch die Ausgabeschicht ausgegebenen Wertes.
4. Vorrichtung nach Anspruch 1, 2 oder 3, dadurch
gekennzeichnet, daß die zumindest eine Zwischenschicht eine
Einrichtung zur Ausführung einer vorbestimmten
Übertragungsfunktion
für die mit dem Gewichtungskoeffizienten multiplizierten
Daten aufweist.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß
die Übertragungsfunktion eine sigmoide Funktion ist, die
bezüglich dem Ursprung symmetrisch ist.
6. Vorrichtung nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß die Ausgabeschicht des neuronalen
Netzwerks eine Einrichtung zur Multiplikation von durch eine
der Ausgabeschicht vorangehenden Zwischenschicht zugeführten
Daten mit einem Gewichtungskoeffizienten und zur Addition
einer Vorspannung zu dem Ergebnis dieser Multiplikation zur
Erzeugung eines Ausgabewertes des neuronalen Netzwerks
aufweist.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, daß
die Ausgabeschicht eine Einrichtung zur Ausführung einer
vorbestimmten Übertragungsfunktion zur Erzeugung des
Ausgabewertes aufweist.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, daß
die vorbestimmte Übertragungsfunktion der Ausgabeschicht eine
bezüglich dem Ursprung symmetrische sigmoide Funktion ist.
9. Vorrichtung nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß ein sichtbar wahrnehmbares Muster
einzuteilen ist und daß die Vorrichtung eine
Wandlereinrichtung (101) zur Umwandlung des sichtbar wahrnehmbaren Musters
in ein elektrisches Signal sowie eine
vorverarbeitungseinrichtung (102) zur Normalisierung und Binärisierung des
elektrischen Signals sowie eine Einrichtung (103) zur
Entnahme der Merkmalsdaten aus dem binärisierten elektrischen
Signal aufweist.
10. Verfahren zur Einteilung von Merkmalsdaten in eine von
mehreren Kategorien unter Verwendung eines neuronalen
Netzwerks mit einer Eingabeschicht, einer Ausgabeschicht und
zumindest einer Zwischenschicht, wobei eine Zwischenschicht
des neuronalen Netzwerks ohne Addition einer Vorspannung
durch Multiplikation von Daten aus einer vorangehenden
Schicht mit unter Verwendung einer Lerngruppe von
Merkmalsvektoren hergeleiteten Gewichtungskoeffizienten arbeitet,
wobei jeder Merkmalsvektor eine der mehreren Kategorien
darstellt, gekennzeichnet durch Subtrahieren eines
Durchschnittsvektors der Lerngruppe der Merkmalsvektoren von den
Merkmalsdaten zur Bildung von eingegebenen Daten, die der
Eingabeschicht des neuronalen Netzwerks zugeführt werden.
11. Verfahren nach Anspruch 10, gekennzeichnet durch den
Schritt eines Empfangens von eingegebenen Musterdaten und
eines Entnehmens der Merkmalsdaten aus den eingegebenen
Musterdaten.
12. Verfahren nach Anspruch 10 oder 11, gekennzeichnet durch
den Schritt eines Bestimmens einer Kategorie für die
Merkmalsdaten auf Grundlage eines durch die Ausgabeschicht des
neuronalen Netzwerks ausgegebenen Wertes.
13. Verfahren nach Anspruch 10, 11 oder 12, dadurch
gekennzeichnet, daß die Zwischenschicht des neuronalen Netzwerks
eine vorbestimmte Übertragungsfunktion für den mit dem
Gewichtskoeffizienten-Vektor multiplizierten Vektor ausführt.
14.Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß
die Übertragungsfunktion eine sigmoide Funktion ist, die
bezüglich dem Ursprung symmetrisch ist.
15. Verfahren nach einem der Ansprüche 10 bis 14, dadurch
gekennzeichnet, daß die Ausgabeschicht des neuronalen
Netzwerks durch eine der Ausgabeschicht vorangehende
Zwischenschicht zugeführte Daten mit einem Gewichtungskoeffizienten
multipliziert und eine Vorspannung zu dem Ergebnis der
Multiplikation zur Erzeugung eines Ausgabewertes des neuronalen
Netzwerks addiert.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß
die Ausgabeschicht eine vorbestimmte Übertragungsfunktion zur
Erzeugung des Ausgabewertes ausführt.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß
die vorbestimmte Übertragungsfunktion der Ausgabeschicht eine
bezüglich dem Ursprung symmetrische sigmoide Funktion ist.
18. Verfahren nach einem der Ansprüche 10 bis 17, dadurch
gekennzeichnet, daß ein sichtbar wahrnehmbares Muster
einzuteilen ist und daß der Schritt des Empfangens von
Merkmalsdaten ein Umwandeln des sichtbar wahrnehmbaren Musters in ein
elektrisches Signal, ein Normalisieren und Binärisieren des
elektrischen Signals und ein Entnehmen der Merkmalsdaten aus
dem binärisierten elektrischen Signal aufweist.
19. Zeichenerkennungseinrichtung mit einer Vorrichtung nach
einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die
Merkmalsdaten von einem eingegebenen Bild entnommene Daten
sind und die Kategorien unterschiedliche Textzeichen
darstellen.
20. Verfahren zur Zeichenerkennung (OCR) mit einem Verfahren
nach einem der Ansprüche 10 bis 18, dadurch gekennzeichnet,
daß die Merkmalsdaten von einem eingegebenen Bild entnommen
worden sind und daß die Kategorien unterschiedliche
Textzeichen darstellen.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2316258A JP2763398B2 (ja) | 1990-11-20 | 1990-11-20 | パターン認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69122356D1 DE69122356D1 (de) | 1996-10-31 |
DE69122356T2 true DE69122356T2 (de) | 1997-02-13 |
Family
ID=18075097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69122356T Expired - Fee Related DE69122356T2 (de) | 1990-11-20 | 1991-11-19 | Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks |
Country Status (4)
Country | Link |
---|---|
US (1) | US5422981A (de) |
EP (1) | EP0487309B1 (de) |
JP (1) | JP2763398B2 (de) |
DE (1) | DE69122356T2 (de) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69331518T2 (de) * | 1993-02-19 | 2002-09-12 | Ibm | Neuronales Netz zum Vergleich von Merkmalen von Bildmustern |
DE4309985A1 (de) * | 1993-03-29 | 1994-10-06 | Sel Alcatel Ag | Geräuschreduktion zur Spracherkennung |
US5604839A (en) * | 1994-07-29 | 1997-02-18 | Microsoft Corporation | Method and system for improving speech recognition through front-end normalization of feature vectors |
US5784485A (en) * | 1994-08-25 | 1998-07-21 | Xu; Youguang | Method and apparatus for automated pattern recognition |
JP3207690B2 (ja) * | 1994-10-27 | 2001-09-10 | シャープ株式会社 | 画像処理装置 |
US5870471A (en) * | 1996-11-27 | 1999-02-09 | Esco Electronics Corporation | Authentication algorithms for video images |
US5937092A (en) * | 1996-12-23 | 1999-08-10 | Esco Electronics | Rejection of light intrusion false alarms in a video security system |
US5956424A (en) * | 1996-12-23 | 1999-09-21 | Esco Electronics Corporation | Low false alarm rate detection for a video image processing based security alarm system |
US6058206A (en) * | 1997-12-01 | 2000-05-02 | Kortge; Chris Alan | Pattern recognizer with independent feature learning |
US6247154B1 (en) | 1998-03-03 | 2001-06-12 | Rutgers, The State University Of New Jersey | Method and apparatus for combined stuck-at fault and partial-scanned delay-fault built-in self test |
US6104831A (en) * | 1998-12-10 | 2000-08-15 | Esco Electronics Corporation | Method for rejection of flickering lights in an imaging system |
US20040205035A1 (en) * | 2000-05-01 | 2004-10-14 | Norbert Rimoux | Method and system for adaptive learning and pattern recognition |
US7194434B2 (en) * | 2000-06-15 | 2007-03-20 | Sergio Piccioli | Method for predictive determination of financial investment performance |
US7133854B2 (en) * | 2000-12-13 | 2006-11-07 | International Business Machines Corporation | Method and circuits for encoding an input pattern using a normalizer and a classifier |
DE60130742T2 (de) * | 2001-05-28 | 2008-07-17 | Honda Research Institute Europe Gmbh | Mustererkennung mit hierarchischen Netzen |
US6862253B2 (en) * | 2002-10-23 | 2005-03-01 | Robert L. Blosser | Sonic identification system and method |
JP6633267B2 (ja) * | 2014-03-20 | 2020-01-22 | 株式会社東芝 | 次元削減装置、方法及びプログラム |
US10824959B1 (en) * | 2016-02-16 | 2020-11-03 | Amazon Technologies, Inc. | Explainers for machine learning classifiers |
JP6760830B2 (ja) * | 2016-11-28 | 2020-09-23 | 株式会社東海理化電機製作所 | 学習装置及び学習方法 |
KR102210806B1 (ko) * | 2018-10-02 | 2021-02-01 | 한림대학교 산학협력단 | 위 내시경 이미지의 딥러닝을 이용하여 위 병변을 진단하는 장치 및 방법 |
CN109800859B (zh) * | 2018-12-25 | 2021-01-12 | 深圳云天励飞技术有限公司 | 一种神经网络批归一化的优化方法及装置 |
CN110276397B (zh) * | 2019-06-24 | 2021-03-09 | 深动科技(北京)有限公司 | 一种基于门机制的图像特征提取方法、装置和系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4941122A (en) * | 1989-01-12 | 1990-07-10 | Recognition Equipment Incorp. | Neural network image processing system |
JPH0821065B2 (ja) * | 1989-03-13 | 1996-03-04 | シャープ株式会社 | 文字認識装置 |
JP2940933B2 (ja) * | 1989-05-20 | 1999-08-25 | 株式会社リコー | パターン認識方式 |
US5058179A (en) * | 1990-01-31 | 1991-10-15 | At&T Bell Laboratories | Hierarchical constrained automatic learning network for character recognition |
US5091780A (en) * | 1990-05-09 | 1992-02-25 | Carnegie-Mellon University | A trainable security system emthod for the same |
US5142612A (en) * | 1990-08-03 | 1992-08-25 | E. I. Du Pont De Nemours & Co. (Inc.) | Computer neural network supervisory process control system and method |
-
1990
- 1990-11-20 JP JP2316258A patent/JP2763398B2/ja not_active Expired - Fee Related
-
1991
- 1991-11-18 US US07/793,545 patent/US5422981A/en not_active Expired - Lifetime
- 1991-11-19 EP EP91310661A patent/EP0487309B1/de not_active Expired - Lifetime
- 1991-11-19 DE DE69122356T patent/DE69122356T2/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0487309A2 (de) | 1992-05-27 |
JPH04184686A (ja) | 1992-07-01 |
DE69122356D1 (de) | 1996-10-31 |
JP2763398B2 (ja) | 1998-06-11 |
EP0487309B1 (de) | 1996-09-25 |
US5422981A (en) | 1995-06-06 |
EP0487309A3 (en) | 1993-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69122356T2 (de) | Verfahren und Gerät zur Mustererkennung unter Verwendung eines neuronalen Netzwerks | |
DE4217832C2 (de) | Mustererkennungsgerät | |
DE68925381T2 (de) | Bewegungserkennungsgerät | |
DE69116854T2 (de) | Digitales fehlerdiffusionsverfahren mit hoher geschwindigkeit zur umsetzung eines kontinuierlichen -in ein binäres- bild | |
DE10296704T5 (de) | Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten | |
DE69025693T2 (de) | Verfahren und System zum Vergleichen von Punktmustern sowie Bilderkennungsverfahren und -system mit Verwendung desselben | |
DE102019209644A1 (de) | Verfahren zum Trainieren eines neuronalen Netzes | |
DE69127495T2 (de) | Erkennungseinheit und Gerät zur Erkennung und Beurteilung in dem die Einheit verwendet ist | |
DE102017218851A1 (de) | Verfahren, Vorrichtung und Computerprogramm zur Erstellung eines tiefen neuronalen Netzes | |
EP0901658B1 (de) | Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner | |
DE69123867T2 (de) | Lernverfahren für Datenverarbeitungsanlage | |
DE19504664C2 (de) | Chaotisches rekurrentes neuronales Netz und Lernverfahren dafür | |
DE4129561C2 (de) | Informationsverarbeitungssystem | |
EP3557490A1 (de) | Trainingsverfahren | |
DE19502554C2 (de) | Lernverfahren für ein Objekterkennungsgerät, Objekterkennungsverfahren und -gerät, sowie Verfahren und Vorrichtung zur maschinellen Ausführung einer Arbeitsanweisung | |
Ultsch et al. | Automatic acquisition of symbolic knowledge from subsymbolic neural networks | |
DE96717T1 (de) | Verfahren und vorrichtung zur erkennung eines unbekannten charakters. | |
DE102018220608A1 (de) | Maschinelles Lernsystem, sowie ein Verfahren, ein Computerprogramm und eine Vorrichtung zum Erstellen des maschinellen Lernsystems | |
DE69120854T2 (de) | Lernverfahren fÜr Datenverarbeitungssystem | |
DE102019210994A1 (de) | Vorrichtung und Verfahren zum Verarbeiten eines digitalen Datenstroms | |
DE1284127B (de) | Funktionsgenerator fuer spezielle Autokorrelationsfunktionen | |
DE102007025620A1 (de) | Vorrichtung zur Bestimmung einer Objekt- und/oder Existenzwahrscheinlichtkeit eines Suchobjekts in einem Auslesefenster eines Bildes, Verfahren sowie Computerprogramm | |
EP0469315B1 (de) | Verfahren zur visuellen Inspektion zwei- oder dreidimensionaler Bilder | |
DE102020215945A1 (de) | Verfahren zum Trainieren eines ML-Systems, ML-System, Computerprogramm, maschinenlesbares Speichermedium und Vorrichtung | |
DE112020001437T5 (de) | Berechnungsvorrichtung und multiplizier-akkumulier-berechnungssystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |