DE841621T1 - Lernverfahren in Binärsystemen - Google Patents

Lernverfahren in Binärsystemen

Info

Publication number
DE841621T1
DE841621T1 DE0841621T DE97119287T DE841621T1 DE 841621 T1 DE841621 T1 DE 841621T1 DE 0841621 T DE0841621 T DE 0841621T DE 97119287 T DE97119287 T DE 97119287T DE 841621 T1 DE841621 T1 DE 841621T1
Authority
DE
Germany
Prior art keywords
layer
input
binary
connection
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE0841621T
Other languages
English (en)
Other versions
DE19719287A1 (de
Inventor
Zheng Tang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOWA INST OF TECHNOLOGY CO
Original Assignee
SOWA INST OF TECHNOLOGY CO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOWA INST OF TECHNOLOGY CO filed Critical SOWA INST OF TECHNOLOGY CO
Publication of DE841621T1 publication Critical patent/DE841621T1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Neurology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Logic Circuits (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Character Discrimination (AREA)
  • Image Processing (AREA)
  • Feedback Control In General (AREA)

Claims (12)

Patentansprüche
1. Lernverfahren in Binärsystemen, wobei ein erstes Binärgatter und ein zweites Binärgatter jeweils ein ODER-, UND-, NICHT-ODER-, NICHT-UND- oder EXKLUSIV- ODER-Gatter sein können und das Lernen durch die Auswahl jeweils eines das erste Gatter mit dem zweiten Gatter verbindenden Verfahrens aus den folgenden vier Verbindungszuständen durchgeführt wird:
(1) direkte Verbindung,
(2) Verbindung über einen Invertierer,
(3) Verbindung mit dem zweiten Gatter, wobei immer binär
0 1 eingegeben wird,
(4) Verbindung mit dem zweiten Gatter, wobei immer binär 0 eingegeben wird.
2. Lernverfahren in Binärsystemen, wobei das Lernen durch die Auswahl eines Verfahrens, das einen Eingang mit einem ODER-, UND-, NICHT-ODER-, NICHT-UND-, oder EXKLUSIV-ODER-Binärgatter verbindet, aus den folgenden vier Verbindungszuständen durchgeführt wird:
(1) direkte Verbindung,
0 (2) Verbindung über einen Invertierer,
(3) Verbindung mit dem vorhandenen Binärgatter, wobei immer binär 1 eingegeben wird,
(4) Verbindung mit dem vorhandenen Binärgatter, wobei immer binär 0 eingegeben wird.
3. Lernverfahren in Binärsystemen, wobei das Lernen durch die Auswahl eines Verfahrens, das innere Zustände einschließlich aktueller und vorhergehender Eingänge mit einem ODER-, UND-, NICHT-ODER-, NICHT-UND- oder EXKLUSIV-ODER-Binärgatter 0 verbindet, aus den folgenden vier Verbindungszuständen durchgeführt wird:
(1) direkte Verbindung,
(2) Verbindung über einen Invertierer,
(3) Verbindung mit dem vorhandenen Binärgatter, wobei immer binär 1 eingegeben wird,
(4) Verbindung mit dem vorhandenen Binärgatter, wobei immer binär 0 eingegeben wird.
4. Lernverfahren in Binärsystemen nach einem der Ansprüche 1 bis 3, wobei die Verbindung zwischen dem ersten Binärgatter oder dem Eingang und dem zweiten Binärgatter derart aufgebaut wird, daß einer der vier Verbindungszustände entsprechend den Ergebnissen ausgewählt wird, die zwischen einem in das erste Binärgatter eingegebenen Eingangssignal und einem Lehrsignal zum Lernen berechnet werden.
5. Lernverfahren in Binärsystemen nach einem der Ansprüche 1 bis 4, wobei ein wie folgt definiertes Pseudo-Neuron Q zwischen entweder dem ersten Binärgatter oder Eingangsdaten und dem zweiten Binärgatter vorgesehen ist und der 0 Verbindungszustand zwischen diesen entsprechend dem Wert des Pseudo-Neurons Q ausgewählt wird, wobei das Pseudo-Neuron Q durch Q = f(WX,6) definiert ist, mit
f: Schwellenwertfunktion, Sygmoid-Funktion oder teilweise lineare Funktion,
X: in das Pseudo-Neuron Q eingegebenes Eingangssignal,
W: Gewicht zwischen dem Eingang und dem Pseudo-Neuron Q und
&THgr;: Schwellenwert des Pseudo-Neurons Q.
6. Lernverfahren in Binärsystemen, wobei die Systeme
eine Eingangsschicht, die die Eingabe einer Vielzahl von Binärdaten ermöglicht,
eine ÜND-Schicht mit einer Vielzahl von UND-Gattern, eine ODER-Schicht mit einer Vielzahl von ODER-Gattern, in die die Ausgabe aus der UND-Schicht eingegeben wird,
eine Ausgangsschicht, in die die Ausgabe aus der ODER-
Schicht eingegeben wird, und
eine Verbindungsschicht mit Pseudo-Neuronen Q zwischen der Eingangsschicht und der UND-Schicht aufweisen, und das Lernen durch die Auswahl jeweiliger Verbindungszustände, die die Eingangsschicht mit der UND-Schicht verbinden, aus den folgenden Verbindungszuständen durchgeführt wird:
(1) direkte Verbindung der Eingangsschicht mit der UND-Schicht,
(2) Verbindung der Eingangsschicht mit der UND-Schicht über Invertierer,
(3) in die Eingänge der UND-Schicht wird immer binär 1 eingegeben,
(4) in die Eingänge der UND-Schicht wird immer binär 0 eingegeben,
wobei das Pseudo-Neuron Q durch Q = f(WX,9) definiert ist, mit
f: Schwellenwertfunktion, Sygmoid-Funktion oder teilweise lineare Funktion,
0 X: in das Pseudo-Neuron Q eingegebenes Eingangssignal,
W: Gewicht zwischen dem Eingang und dem Pseudo-Neuron Q und
Q: Schwellenwert des Pseudo-Neurons Q.
7. Lernverfahren in Binärsystemen, wobei die Systeme
eine Eingangsschicht, die die Eingabe einer Vielzahl von Binärdaten ermöglicht,
eine ODER-Schicht mit einer Vielzahl von ODER-Gattern, eine UND-Schicht mit einer Vielzahl von UND-Gattern, in 0 die die Ausgabe aus der ODER-Schicht eingegeben wird,
eine Ausgangsschicht, in die die Ausgabe aus der UND-Schicht eingegeben wird, und
eine Verbindungsschicht mit Pseudo-Neuronen Q zwischen der Eingangsschicht und der ODER-Schicht aufweisen, wobei das Lernen durch die Auswahl jeweiliger Verbindungszustände, die
- 4 die Eingangsschicht mit der ODER-Schicht verbinden, aus den
folgenden Verbindungszuständen durchgeführt wird:
(1) direkte Verbindung der Eingangsschicht mit der ODER-Schicht,
(2) Verbindung der Eingangsschicht mit der ODER-Schicht über Invertierer,
(3) in die Eingänge der ODER-Schicht wird immer binär eingegeben,
(4) in die Eingänge der ODER-Schicht wird immer binär eingegeben,
wobei das Pseudo-Neuron Q durch Q = f(WX,0) definiert ist, mit
f: Schwellenwertfunktion, Sygmoid-Funktion oder teilweise lineare Funktion,
X: in das Pseudo-Neuron Q eingegebenes Eingangssignal,
W: Gewicht zwischen dem Eingang und dem Pseudo-Neuron Q und
&THgr;: Schwellenwert des Pseudo-Neurons Q.
0
8. Lernverfahren in Binärsystemen, wobei die Systeme
eine Eingangsschicht, die die Eingabe einer Vielzahl von Binärdaten ermöglicht,
eine Zwischen-NICHT-UND-Schicht mit einer Vielzahl von NICHT-UND-Gattern,
eine Ausgangs-NICKT-UND-Schicht mit einer Vielzahl von NICHT-UND-Gattern, in die die Ausgabe aus der Zwischen-NICHT-UND-Schicht eingegeben wird,
eine Ausgangsschicht, in die die Ausgabe aus der NICHT-UND-Schicht eingegeben wird, und
0 eine Verbindungsschicht mit Pseudo-Neuronen Q zwischen der Eingangsschicht und der Zwischen-NICHT-UND-Schicht aufweisen, wobei das Lernen durch die Auswahl jeweiliger Verbindungszustände, die die Eingangsschicht mit der NICHT-UND-Schicht verbinden, aus den folgenden Verbindungszuständen 5 durchgeführt wird:
(1) direkte Verbindung der Eingangsschicht mit der
Zwischen-NICHT-UND-Schicht,
(2) Verbindung der Eingangsschicht mit der Zwischen-NICHT-UND-Schicht über Invertierer,
(3) in die Eingänge der Zwischen-NICHT-UND-Schicht wird immer binär 1 eingegeben,
(4) in die Eingänge der Zwischen-NICHT-UND-Schicht wird immer binär O eingegeben,
wobei das Pseudo-Neuron Q durch Q = f (WX,&THgr;) definiert ist, mit
f: Schwellenwertfunktion, Sygmoid-Funktion oder teilweise lineare Funktion,
X: in das Pseudo-Neuron Q eingegebenes Eingangssignal, W: Gewicht zwischen dem Eingang und dem Pseudo-Neuron Q und
&THgr;: Schwellenwert des Pseudo-Neurons Q.
9. Lernverfahren in Binärsystemen, wobei die Systeme eine Eingangsschicht, die die Eingabe einer Vielzahl von Binärdaten ermöglicht,
eine Zwischen-NICHT-ODER-Schicht mit einer Vielzahl von NICHT-ODER-Gattern,
eine Ausgangs-NICHT-ODER-Schicht mit einer Vielzahl von NICHT-ODER-Gattern, in die die Ausgabe aus der Zwischen-NICHT-ODER-Schicht eingegeben wird,
eine Ausgangsschicht, in die die Ausgabe aus der Ausgangs-NICHT-ODER-Schicht eingegeben wird, und
eine Verbindungsschicht mit Pseudo-Neuronen Q zwischen der Eingangsschicht und der Zwischen-NICHT-ODER-Schicht 0 aufweisen, wobei das Lernen durch die Auswahl jeweiliger Verbindungszustände, die die Eingangsschicht mit der Zwischen-NICHT-ODER-Schicht verbinden, aus den folgenden Verbindungszuständen durchgeführt wird:
(1) direkte Verbindung der Eingangsschicht mit der Zwischen-NICHT-ODER-Schicht,
(2) Verbindung der Eingangsschicht mit der Zwischen-
NICHT-ODER-Schicht über Invertierer,
(3) in die Eingänge der Zwischen-NICHT-ODER-Schicht wird immer binär 1 eingegeben,
(4) in die Eingänge der Zwischen-NICHT-ODER-Schicht wird immer binär 0 eingegeben,
wobei das Pseudo-Neuron Q durch Q = f (WX,&THgr;) definiert ist, mit
f: Schwellenwertfunktion, Sygmoid-Funktion oder teilweise lineare Funktion,
X: in das Pseudo-Neuron Q eingegebenes Eingangssignal,
W: Gewicht zwischen dem Eingang und dem Pseudo-Neuron Q und
&THgr;: Schwellenwert des Pseudo-Neurons Q.
10. Lernverfahren in Binärsystemen, wobei die Systeme
eine Eingangsschicht, die die Eingabe einer Vielzahl von Binärdaten ermöglicht,
eine Zwischen-EXKLUSIV-ODER-Schicht mit einer Vielzahl 0 von EXKLUSIV-ODER-Gattern,
eine Ausgangs-EXKLUSIV-ODER-Schicht mit einer Vielzahl von EXKLUSIV-ODER-Gattern, in die die Ausgabe aus der Zwischen-EXKLUSIV-ODER-Schicht eingegeben wird, eine Ausgangsschicht, in die die Ausgabe aus der Ausgangs-EXKLUSIV-ODER-Schicht eingegeben wird, und
eine Verbindungsschicht mit Pseudo-Neuronen Q zwischen der Eingangsschicht und der Zwischen-EXKLUSIV-ODER-Schicht aufweisen, wobei das Lernen durch die Auswahl jeweiliger Verbindungszustände, die die Eingangsschicht mit der 0 Zwischen-EXKLUSIV-ODER-Schicht verbinden, aus den folgenden Verbindungszuständen durchgeführt wird:
(1) direkte Verbindung der Eingangsschicht mit der Zwischen-EXKLUSIV-ODER-Schicht,.
(2) Verbindung der Eingangsschicht mit der Zwischen-5 EXKLUSIV-ODER-Schicht über Invertierer,
(3) in die Eingänge der Zwischen-EXKLUSIV-ODER-Schicht
wird immer binär 1 eingegeben,
(4) in die Eingänge der Zwischen-EXKLUSIV-ODER-Schicht wird immer binär 0 eingegeben,
wobei das Pseudo-Neuron Q durch Q = f (WX,&THgr;) definiert ist, mit
f: Schwellenwertfunktion, Sygmoid-Funktion oder teilweise lineare Funktion,
X: in das Pseudo-Neuron Q eingegebenes Eingangssignal, W: Gewicht zwischen dem Eingang und dem Pseudo-Neuron Q und
&thgr;: Schwellenwert des Pseudo-Neurons Q.
11. Lernverfahren in Binärsystemen nach einem der Ansprüche bis 10, wobei die Verfahren dadurch charakterisiert sind, daß die Modifikationen der Gewichte W und der Schwellenwerte &thgr; unter Verwendung des Gradientenabfallverfahrens durchgeführt werden.
12. Lernverfahren in Binärsystemen nach einem der Ansprüche bis 10, wobei die Verfahren dadurch charakterisiert sind, daß die Quasi-Potentialenergien in jedem der Basisgatter zusammen mit dem Ausdrücken der Verbindungszustände der Verbindungsschicht mit der Quasi-Potentialenergie berechnet werden, wobei das Lernen durch Modifikation der Quasi-Potentialenergie der Verbindungszustände durchgeführt wird.
DE0841621T 1996-11-06 1997-11-04 Lernverfahren in Binärsystemen Pending DE841621T1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/744,299 US6061673A (en) 1996-11-06 1996-11-06 Learning methods in binary systems

Publications (1)

Publication Number Publication Date
DE841621T1 true DE841621T1 (de) 1998-11-12

Family

ID=24992201

Family Applications (2)

Application Number Title Priority Date Filing Date
DE0841621T Pending DE841621T1 (de) 1996-11-06 1997-11-04 Lernverfahren in Binärsystemen
DE69713247T Expired - Fee Related DE69713247T2 (de) 1996-11-06 1997-11-04 Lernverfahren in Binärsystemen

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69713247T Expired - Fee Related DE69713247T2 (de) 1996-11-06 1997-11-04 Lernverfahren in Binärsystemen

Country Status (10)

Country Link
US (1) US6061673A (de)
EP (1) EP0841621B1 (de)
JP (1) JPH10320369A (de)
KR (1) KR19980042174A (de)
CN (1) CN1182246A (de)
CA (1) CA2219594C (de)
DE (2) DE841621T1 (de)
IL (1) IL122099A (de)
RU (1) RU2168713C2 (de)
TW (1) TW326507B (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0937570B1 (de) * 1997-08-08 2004-10-13 Bridgestone Corporation Verfahren zum entwerfen von reifen, optimierungsanalysereinrichtung und speichermedium zur aufnahme des optimierungsanalyseprogramms
JP2002024199A (ja) * 1998-02-20 2002-01-25 Souwa Kenkyusho:Kk 二値システムの学習方法
AU765460B2 (en) * 1999-08-05 2003-09-18 Sowa Institute Of Technology Co., Ltd. Learning methods in binary systems
US7420969B2 (en) * 2000-11-29 2008-09-02 Rmi Corporation Network switch with a parallel shared memory
US7072345B2 (en) * 2000-11-29 2006-07-04 Raza Microelectronics, Inc Programmable integrated circuit for use in a network switch
US7293002B2 (en) * 2001-06-19 2007-11-06 Ohio University Self-organizing data driven learning hardware with local interconnections
US12045319B2 (en) 2020-05-13 2024-07-23 International Business Machines Corporation First-order logical neural networks with bidirectional inference
US11494634B2 (en) * 2020-05-13 2022-11-08 International Business Machines Corporation Optimizing capacity and learning of weighted real-valued logic

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR910002134B1 (ko) * 1986-11-29 1991-04-04 대우전자 주식회사 한자표시가 가능한 엠 에스 엑스(msx) 컴퓨터
US4807168A (en) * 1987-06-10 1989-02-21 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Hybrid analog-digital associative neural network
KR900007636Y1 (ko) * 1988-02-12 1990-08-23 대우자동차 주식회사 차량의 선반장치
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
US5167006A (en) * 1989-12-29 1992-11-24 Ricoh Company, Ltd. Neuron unit, neural network and signal processing method
US5212765A (en) * 1990-08-03 1993-05-18 E. I. Du Pont De Nemours & Co., Inc. On-line training neural network system for process control
US5371413A (en) * 1990-09-11 1994-12-06 Siemens Aktiengesellschaft Process and arrangement for the Boolean realization of adaline-type neural networks
DE69029390T2 (de) * 1990-09-15 1997-06-12 Ibm Programmierbare Schaltung für eine neurale Logik
KR930004271B1 (ko) * 1990-09-18 1993-05-22 금성일렉트론 주식회사 바이너리 카운터
FR2671207B1 (fr) * 1991-01-02 1993-04-16 Abin Claude Reseau neuronal a operateurs binaires et procedes pour sa realisation.
US5226092A (en) * 1991-06-28 1993-07-06 Digital Equipment Corporation Method and apparatus for learning in a neural network
JPH05210649A (ja) * 1992-01-24 1993-08-20 Mitsubishi Electric Corp 神経回路網表現装置
JP2690702B2 (ja) * 1994-09-13 1997-12-17 日本電気株式会社 自己組織化装置

Also Published As

Publication number Publication date
EP0841621A1 (de) 1998-05-13
DE69713247T2 (de) 2003-02-06
CA2219594C (en) 2002-04-16
RU2168713C2 (ru) 2001-06-10
MX9708565A (es) 1998-06-30
JPH10320369A (ja) 1998-12-04
EP0841621B1 (de) 2002-06-12
US6061673A (en) 2000-05-09
CN1182246A (zh) 1998-05-20
TW326507B (en) 1998-02-11
CA2219594A1 (en) 1998-05-06
IL122099A0 (en) 1998-04-05
IL122099A (en) 2001-01-28
DE69713247D1 (de) 2002-07-18
KR19980042174A (ko) 1998-08-17

Similar Documents

Publication Publication Date Title
DE3885994T2 (de) Schaltung zur Bewegungsdetektion.
DE2634331A1 (de) Mustererkennungssystem
DE2256135A1 (de) Verfahren zum pruefen von monolithisch integrierten halbleiterschaltungen
DE841621T1 (de) Lernverfahren in Binärsystemen
DE4444304A1 (de) Verfahren zum Erzeugen eines zusammengesetzten Videobildes
DE10210264A1 (de) Ein Testvektorkomprimierungsverfahren
DE69026414T2 (de) Binäres Addiergerät
DE3644015C2 (de)
DE2101991A1 (de) Verfahren zum Erzeugen einer seismischen Aufzeichnung von seis mischen Spuren in einer automatischen Rechner und Aufzeichnungsvorrichtung
DE2224140A1 (de) Schaltwerk zum Übersetzen der Schliessung je eines von mehreren Zweipol-Schaltern in einen entsprechenden seriellen Bitcode
DE3836205A1 (de) Multiplizierer
DE3854036T2 (de) Numerische datenvorbereitung zur bearbeitung gekrümmrter oberflächen.
DE3822324A1 (de) Vorrichtung zum zerlegen des prioritaetswertes
WO1998008173A1 (de) Verfahren zur automatischen maschinellen erzeugung von fertigungsunterlagen
DE2845164A1 (de) Ziel-ortungs- und entfernungs- messystem
DE3722440A1 (de) Multizyklonanlage
CH650111A5 (de) Vorrichtung fuer kuenstlichen nachhall.
DE69030907T2 (de) Datenverarbeitungsanlage
EP0146865B1 (de) Verfahren zum Erzeugen zufallsähnlicher Binärzeichenfolgen
DE69021951T2 (de) Verfahren zum Erzeugen eines Maskierungsbits während eines dynamischen Vergleichs eines seriellen Datenstroms mit einer Referenz.
DE4238938C2 (de) Verfahren zur Interpolation eines Lageführungssignals
DE2848945A1 (de) Vorrichtung zum uebertragen stochastischer informationen
DE3702204A1 (de) Betriebseinheit fuer arithmetik und logik
DE1948604B2 (de) Schaltungsanordnung zur erzeugung eines negierten gruppenuebertrages mit hilfe von nor-schaltungen
DE69610918T2 (de) Anwenderprogrammierbares gatterfeld (fpga) mit kodierter verbindundsstruktur