KR0178805B1 - 스스로 학습이 가능한 다층 신경회로망 및 학습 방법 - Google Patents

스스로 학습이 가능한 다층 신경회로망 및 학습 방법 Download PDF

Info

Publication number
KR0178805B1
KR0178805B1 KR1019920015485A KR920015485A KR0178805B1 KR 0178805 B1 KR0178805 B1 KR 0178805B1 KR 1019920015485 A KR1019920015485 A KR 1019920015485A KR 920015485 A KR920015485 A KR 920015485A KR 0178805 B1 KR0178805 B1 KR 0178805B1
Authority
KR
South Korea
Prior art keywords
learning
neural network
output
inputting
synaptic
Prior art date
Application number
KR1019920015485A
Other languages
English (en)
Other versions
KR940004425A (ko
Inventor
정호선
이경훈
Original Assignee
정호선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정호선 filed Critical 정호선
Priority to KR1019920015485A priority Critical patent/KR0178805B1/ko
Priority to JP5209703A priority patent/JPH06161985A/ja
Priority to DE4328751A priority patent/DE4328751A1/de
Priority to FR9310271A priority patent/FR2695232B1/fr
Publication of KR940004425A publication Critical patent/KR940004425A/ko
Priority to US08/375,251 priority patent/US5450528A/en
Application granted granted Critical
Publication of KR0178805B1 publication Critical patent/KR0178805B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 스스로 학습이 가능한 다층 신경회로망 및 그 학습방법을 공개한다. 그 신경회로망은 N비트의 입력데이타와 M비트의 출력데이타를 입력하고 상기 입력데이타에 대응하는 출력데이타를 출력할 수 있도록 각 시냅스들의 가중치를 조정하고 층을 증가하면서 스스로 학습하는 것을 특징으로 한다. 따라서, 사용자가 일일이 각 시냅스들의 가중치를 입력하여 조절할 필요가 없이 스스로 학습하여 원하는 기능을 수행할 수 있다.

Description

스스로 학습이 가능한 다층 신경회로망 및 학습방법
제1도는 본 발명에 따른 스스로 학습이 가능한 다층 신경회로망의 전체적인 블록도를 나타내는 것이다.
제2도는 제1도에 나타낸 시냅스 군과 에러 검출회로의 일실시예의 구성을 나타내는 것이다.
제3도는 제1도에 나타낸 회로의 동작을 설명하기 위한 동작 타이밍도를 나타내는 것이다.
본 발명은 다층 신경회로망에 관한 것으로, 특히 스스로 학습이 가능한 다층 신경회로망에 관한 것이다.
종래의 학습이 가능한 다층 신경회로망은 외부의 메모리에 사용자가 각 시냅스들의 가중치를 저장하여 학습을 수행함으로써 원하는 기능을 수행하였다. 즉, 사용자가 사용하고자하는 입,출력기능에 따라서 다른 가중치들을 메모리에 저장하여 각각의 시냅스들이 그 가중치를 가지게 함으로써 원하는 기능을 수행할 수 있었다. 따라서, 다층 신경회로망의 시냅스들이 가져야 할 가중치를 그 기능을 수행할 수 있도록 사용자가 메모리에 입력시켜주어야 하는 불편함이 있었다.
본 발명의 목적은 사용자가 일일이 가중치를 조정할 필요가 없는 스스로 학습이 가능한 다층 신경회로망을 제공하는데 있다.
본 발명의 다른 목적은 스스로 학습이 가능한 다층 신경회로망의 학습 방법을 제공하는데 있다.
이와같은 목적을 달성하기 위하여 본발명의 스스로 학습이 가능한 다층 신경회로망은 N비트의 입력데이타와 M비트의 출력데이타를 입력하고 상기 입력데이타에 대응하는 출력데이타를 출력할 수 있도록 각 시냅스들의 가중치를 조정하고 층을 증가하면서 스스로 학습하는 것을 특징으로한다.
본 발명의 다른 목적을 달성하기 위한 스스로 학습이 가능한 다층신경회로망의 학습 방법은 상기 시냅스들의 가중치를 초기화하는 제1단계, 상기 입력 데이터와 이에 대응하는 출력데이타를 입력하는 제2단계, 상기 입력데이타를 입력하여 학습을 수행하는 제3단계, 상기 다층 신경회로망의 학습 결과 출력되는 출력데이타가 원하는 출력데이타와 비교하여 일치하지 않으면 에러 값을 발생하고 상기 시냅스들의 가중치를 조정하는 제4단계, 만일 상기 다층 신경회로망의 학습 결과 출력되는 출력데이타가 원하는 출력데이타와 비교하여 동일하면 학습을 종료하는 제5단계, 및 만일 소정 횟수 만큼 학습을 반복 수행한 후에도 원하는 결과를 얻을 수 없는 경우에는 층을 증가하여 상기 제2단계로부터 반복 수행하는 제6단계로 이루어진다.
첨부된 도면을 참고로하여 본 발명의 스스로 학습이 가능한 다층 신경회로망을 설명하기 전에 학습 알로리즘을 먼저 설명하면 다음과 같다.
본 발명의 학습 알고리즘에 있어서는 다음 조건을 만족해야 한다. 신경회로망의 학습에 변형된 퍼셉브론 규칙이 사용되었고 이 규칙은 가중치가 연속적으로 변화하지 않으며 학습 상수는 1이다.
활성함수는 버퍼로서 구현되며 아래와 같이 비선형 단극성 하드 리미터(hard limiter)이다.
OUT = 1, if net ≥0
0, otherwise
본 발명의 학습 알고리즘에 있어서 활성함수는 이상적인 하드리미터에 가까워야한다.
본 발명의 알고리즘은 다음과 같다.
[단계 1]
초기화 조건
가중치는 0으로 초기화 된다.
입력데이타와 출력데이타가 주어진다.
패턴 수와 반복 횟수가 주어진다.
[단계 2]
입력데이타와 원하는 출력데이타가 주어지고 출력이 계산된다.
OUT=sgn(W Y)
W는 가중치를 나타내고 Y는 입력 데이터를 나타낸다.
[단계 3]
만약 에러가 발생하면 가중치를 수정한다.
W(t+1)=W(t) + (d-o)Y
만약, 입력이 1이면 가중치는 1만큼 증가하거나 감소한다.
이외의 경우에는 가중치의 수정은 없다. 가중치의 수정된 값은 모든 입력패턴이 계산되는 동안 일시적으로 저장되었다가 일괄 수정한다.
[단계 5]
학습이 성공할 때까지 모든 입력에 대해 단계2에서 단계4까지의 과정을 되풀이한다. 만약, 제1층에서 학습이 성공하지 못했다면 단계6으로 진행한다.
[단계 6]
층을 증가하여 단계2 부터의 과정을 수행한다.
상기 알고리즘에 따른 본 발명의 회로를 설명하면 다음과 같다.
제1도는 본 발명에 따른 스스로 학습이 가능한 다층 신경회로망의 블록도를나타내는 것이다.
제1도에 있어서, 입력신호(IN1, IN2,...,INn)를 입력하여 상기 입력신호(IN1, IN2,...,INn)에 따라서 학습을 수행하여 출력신호(OUT1, OUT2,....OUTn)를 출력하는제1, 제2,...,제m시냅스군들(11, 12,..., 1m), 상기 제1, 제2,...,제m시냅스군들(11, 12,..., 1m)의 출력신호와 원하는 출력신호를 각각 입력하여 에러를 검출하고 상기 에러 검출된 신호에 응답하여 가중치를 업 또는 다운하기위한 신호를 발생하는 제1, 제2,...,제m 에러 검출회로(21, 22,......,2m)으로 구성된 제1층 신경회로망(10); 상기 입력신호(IN1, IN2,...,INn)를 입력하는 제1, 제2,...,제m시냅스군들(32, 32,..., 3m), 상기 제1, 제2,...,제m시냅스군들(32, 32,..., 3m)과 각각 직렬 연결되고 상기 제1층 신경회로망(10)의 출력신호(OUT1, OUT2,....OUTn)를 입력하는 제m+1, m+2,...,2m시냅스군들(41, 42,........4m), 상기 제m+1, m+2,...,2m시냅스군들(41, 42,.......,4m)의 출력신호를 입력하여 에러를 발생하고 상기 에러 발생 신호에 따라서 가중치를 업 또는 다운하기 위한 신호를 발생하는 제1, 제2,...,제m 에러검출회로(51, 52,....,5m)로 구성된 제2층 신경회로망(20); 및 상기 제2층 신경회로망(20)과 동일한 구조를 가지는 소정수의 층들을 구비한 다층 신경회로망들; 상기 다층 신경회로망들에 입력되는 패턴들을 소정 횟수 반복 학습하기 위한 반복 횟수 계수기(30), 상기 반복 횟수 계수기(30)의 반복 횟수와 상기 입력되는 최대 반복 횟수를 비교하여 상기 반복 횟수만큼 반복 학습을 수행했을 경우에 다음 층에서의 학습을 수행하기 위하여 상기 반복횟수 계수기(30)를 리세브하는 비교수단(40), 상기 비교수단(40)의 출력신호가 반복 횟수만큼 반복 하지 않았음을 나타낼 수 있는 하나의 패턴을 구성하는 n개의 패턴요소들을 계수하기 위한 패턴 계수기(50), 상기 패턴 계수기(50)의 출력신호에 응답하여 입력패턴을 상기 다층 신경회로망들의 입력에 공급하기 위한 저장수단(60), 상기 다층 신경회로망의 학습 결과 상기 n개의 패턴 요소들의 학습 결과 에러가 몇 번 발생하였는지를 계수하고 에러가 발생하지 않았을 경우에 학습을 종료하기 위한 에러계수기(70), 반복 횟수 만큼 반복을 수행했어도 에러가 발생한 경우에 상기 반복 횟수 계수기(30)의 출력신호와 상기 에러계수기(70)의 출력신호를 입력하여 층을 증가하여 학습하기 위한 층 계수기(80)으로 구성된 다층 신경회로망을 제어하기 위한 제어수단으로 구성되어 있다.
제1도의 구성에 있어서, 상기 계수기들은 소정수의 플립플롭으로, 상기 저장수단은메모리 소자로, 그리고 상기 비교수단은 소정수의 EXOR게이트들로 구성되어 있다고 할 수 있다. 또한 상기 구성은 하나의 칩으로 구현이 가능하며 따라서 하나의 칩상에서의 학습이 가능해진다.
상기 스스로 학습이 가능한 다층 신경회로망은 예를들어 EXOR게이트의 연산을 수행하도록 한다면 2비트의 입력패턴 4개와 1비트의 출력패턴 4개가 사용자에 의해서 주어지고 반복횟수가 주어지면 스스로 학습을 수행한다.
제2도는 제1도에 나타낸 시냅스 군들과 에러 검출회로의 상세한 회로도를 나타내는 것이다.
제2도에 있어서, 전원 전압에 연결된 소오스 전극들과 게이트전극에 연결된 입력단자들을 가지며 흥분성으로 작용하는 각각의 가중치가 다른 시냅스PMOS트랜지스터들(100), 상기 시냅스PMOS트랜지스터들(100)의 드레인 전극에 연결된 드레인 전극들과 접지전압에 연결된 소오스 전극들과 게이트전극에 연결된 입력단자들을 가진 억제성으로 작용하는 시냅스NMOS트랜지스터들(101), 상기 입력신호(IN)와 인에이블 신호(EN) 흥분성으로 작용하는 입력신호(IN)와 인에이블 신호(EN)을 입력하는 상기 시냅스PMOS트랜지스터들(100)의 각각의 게이트전극들을 제어하기 위한 제어신호를 발생하는 NAND게이트들(102), 상기 입력신호와 인에이블 신호를 입력하여 상기 시냅스NMOS트랜지스터들(101)의 각각의 게이트전극들을 제어하기 위한 제어신호를 발생하는 AND게이트들(103), 상기 시냅스PMOS트랜지스터들(100)의 가중치를 증가 또는 감소하기 위하여 그 출력신호를 상기 NAND게이트들(102)의 입력단자에 출력하는 계수를 하는 업/다운 계수기(104), 상기 시냅스 NMOS트랜지스터들(101)의 가중치를 증가 또는 감소하기 위하여 그 출력신호를 상기 AND게이트들(103)의 입력단자에 출력하는 계수를 하는 업/다운 계수기(105)로 구성된 시냅스 군; 상기 입력신호(IN), 상기 에러수산기(70)와 상기 반복 횟수 계수기(30)의 출력신호, 및 상기 시냅스 군들의 출력신호와 원하는 출력신호(DEOUT)을 비교하여 일치하지 않을 경우에 발생되는 에러 값을 입력하여 논리곱하는 AND게이트(106), 원하는 출력신호(DEOUT)와 상기 AND게이트(106)의 출력신호를 입력하여 논리 곱하는 AND게이트(107), 상기 원하는 출력신호를 반전하는 인버터(108), 상기 인버터(108)와 상기 AND게이트(106)의 출력신호를 입력하여 논리곱하는 AND게이트(109), 상기 업/다운 계수기(104)의 최상위 비트와 최하위 비트신호를 입력하여 논리곱하는 NOR게이트(110)와 인버터(111), 상기 업/다운 계수기(105)의 최상위 비트와 최하위 비트신호를 입력하여 논리곱하는 NOR게이트(112)와 인버터(113), 상기 인버터(111)의 출력신호와 상기 AND게이트(109)의 출력신호를 입력하여 논리곱하여 상기 업/다운 계수기(104)를 다운하기 위한 출력신호를 발생하는 AND게이트(114), 상기 AND게이트(107)과 상기 NOR게이트(112)의 출력신호를 입력하여 논리곱하고 상기 업/다운 계수기(104)를 업하기 위한 신호를 발생하는 AND게이트(115), 상기 AND게이트(109)와 상기 NOR게이트(110)의 출력신호를 입력하여 논리곱하고 상기 업/다운 계수기(105)를 업하기 위한 신호를 발생하는 AND게이트(116), 상기인버터(113)과 상기 AND게이트(107)의 출력신호를 입력하여 논리곱하고 상기 업/다운 계수기(105)를 다운 계수하기 위한 신호를 발생하는 AND게이트(117)로 구성된 에러 검출회로로 구성되어 있다.
제3도는 제1도와 제2도에 따른 구성의 동작을 설명하기 위한 동작흐름도를 나타내는 것이다.
시스템을 초기화한다. 이 단계에서 시냅스들의 가중치는 0이 되고 n개의 패턴 요소로 이루어진 입력패턴과 출력패턴이 주어지고 반복 횟수가 주어진다.(제200단계)
상기 반복 횟수계수기(30)가 반복 횟수를 계수하고 비교수단(40)은 상기 최대 반복 횟수와 상기 반복 횟수계수기(30)의 출력신호가 동일한지를 비교하고 비교 수단(40)의 출력신호가 동일하지 않으면 상기 패턴 계수기(50)이 계수를 한다.(제210단계)
상기 패턴 계수기(50)의 출력신호에 응답하여 n개의 패턴 요소를 차례대로 상기 입력 패턴(60)으로부터 독출하여 상기 다층 신경회로망에 입력한다.(제220단계)
상기 제1층 다층 신경회로망은 상기 저장수단의 출력신호를 입력하여 학습을 수행한다.(제230단계)
상기 에러 검출회로는 원하는 출력 패턴 값에서 출력패턴 값을 뺀 값인 에러 값이 0인 경우, 0보다 큰 경우, 0보다 작은 경우인지를 판단한다.(제240단계)
상기 에러 값이 0보다 큰 경우에는 상기 제1층 신경회로망의 가중치를 감소하여 학습을 수행한다.(제250단계)
상기 에러 값이 0보다 작은 경우에는 상기 제1층 신경회로망의 가중치를 증가하여 학습을 수행한다.(제260단계)
상기 에러 값이 0인 경우에는 상기 패턴 계수기(50)가 총 패턴수를 계수하였는지를 판단하여 만일 총 패턴 수가 아닌 경우에는 상기 제210단계로 진행하여 패턴 수를 계수한다.(제270단계)
상기 제270단계의 판단 결과 총 패턴 수를 계수한 경우에는 모든 패턴을 학습 했을 경우의 총 에러가 0인지를 판단한다.(제280단계)
상기 제280단계에서 판단 결과 총 에러가 0이 아닌 경우에는 상기 반복 횟수 계수기(30)가 반복 횟수를 계수하였는지를 판단한다.(제290단계)
상기 제290단계의 판단 결과 반복 횟수를 계수하지 않았을 경우는 반복 횟수를 계수하여 상기 제210단계로 진행한다.(제300단계)
상기 제290단계의 판단 결과 반복 횟수를 계수하였을 경우는 상기 제1층 신경회로망으로부터 제2층 신경회로망으로 옮겨서 상기 제210단계에서 상기 제280단계까지의 과정을 수행한다.(제310단계)
상기 제280단계에의 판단 결과 에러 값이 0인 경우는 학습을 완료한다.(제320단계)
본 발명에 따른 신경회로망은 문자 인식, 음성 인식과 같은 인식 분야에의 적용이 기대된다.
따라서, 본 발명에 따른 스스로 학습이 가능한 다층 신경회로망은 단지 사용자가 입력패턴과 출력패턴만 입력하면 칩상에서 스스로 학습을 수행하여 원하는 기능을 수행 할 수가 있다.

Claims (6)

  1. N비트의 입력데이타와 M비트의 출력데이타를 입력하고 상기 입력데이타에 대응하는 출력데이타를 출력할 수 있도록 각 시냅스들의 가중치를 조정하고 층을 증가하면서 스스로 학습하는 것을 특징으로 하는 스스로 학습이 가능한 다층 신경회로망.
  2. 제1항에 있어서, 상기 스스로 학습이 가능한 다층 신경회로망은 상기 M비트의 출력데이타의 각각의 비트에 대응하여 상기 N비트의 입력데이타를 입력하여 학습을 수행하고 그 결과를 출력하기 위한 입력 데이터 비트수 만큼의 시냅스 군들을 가진 제1신경회로망; 상기 N비트의 입력데이타와 상기 제1신경회로망의 출력신호들을 입력하여 학습을 수행하고 그 결과를 출력하기 위한 입력 데이터 비트수에 상기 출력데이타 비트수 만큼의 시냅스 군들을 가진 제2에서 제 N까지의 신경회로망; 상기 각 시냅스군들의 출력신호를 입력하여 원하는 출력신호가 같은지 다른지를 판단하고 다를 경우에 상기 시냅스군들의 가중치를 증가 또는 감소하기 위한 상기 각 시냅스군들에 연결된 에러 검출 수단들; 상기 제1에서 제N까지의 신경회로망에 입력데이타를 입력하고 반복 횟수 만큼 학습을 반복하도록하고 상기 수단들을 제어하기 위한 제어 수단으로 구성된 것을 특징으로 하는 스스로 학습이 가능한 다층 신경회로망.
  3. 제1항에 있어서, 상기 스스로 학습이 가능한 다층신경회로망은 칩 상에서의 학습이 가능한 것을 특징으로 하는 스스로 학습이 가능한 다층 신경회로망.
  4. 제2항에 있어서, 상기 제어 수단은 반복 횟수를 계수하기 위한 반복 횟수 계수 수단; 상기 반복 횟수 계수 수단의 출력신호가 최대 반복 횟수인지 아닌지를 비교하기 위한 비교수단; 상기 비교수단의 출력신호가 최대 반복 횟수가 아님을 나타내는 신호가 출력되면 패턴을 계수하기 위한 패턴 계수 수단; 상기 패턴 계수 수단의 출력신호에 응답하여 대응되는 입력 패턴을 출력하기 위한 입력 패턴이 저장된 저장수; 상기 학습을 수행하는 신경회로망의 시냅스 군중에서 하나라도 에러가 발생하였을 경우에 에러를 계수하기 위한 에러 계수 수단; 상기 에러 계수 수단의 출력신호가 에러가 발생하였음을 나타내는 신호이고 상기 반복 횟수 계수기의 출력신호가 반복 횟수 만큼을 계수하였을 경우에 층을 증가하여 학습을 수행하기 위한 층계수 수단을 구성된 것을 특징으로 하는 스스로 학습이 가능한 다층 신경회로망.
  5. 제2항에 있어서, 상기 신경회로망들은 흥분성으로 작용하는 소정수의 가중치가 다른 값을 가진 흥분성 시냅스 모스 트랜지스터들과 상기 시냅스 모스 트랜지스터들과 연결되고 억제성으로 작용하는 소정수의 가중치가 다른 값을 가진 억제성 시냅스 모스 트랜지스터들로 이루어진 것을 특징으로 하는 스스로 학습이 가능한 다층 신경회로망.
  6. N비트의 입력데이타와 M비트의 출력데이타를 입력하고 상기 입력데이타에 대응하는 출력데이타를 출력할 수 있도록 각 시냅스들의 가중치를 조정하고 층을 증가하면서 스스로 학숩하는 것을 특징으로 하는 스스로 학습이 가능한 다층 신경회로망의 학습방법에 있어서, 상기 시냅스들의 가중치를 초기화하는 제1단계; 상기 입력 데이터와 이에 대응하는 출력데이타를 입력하는 제2단계; 상기 입력데이타를 입력하여 학습을 수행하는 제3단계; 상기 다층 신경회로망의 학습 결과 출력되는 출력데이타가 원하는 출력데이타와 비교하여 일치하지 않으면 에러 값을 발생하고 상기 시냅스들의 가중치를 조정하는 제4단계; 만일 상기 다층 신경회로망의 학습 결과 출력되는 출력데이타가 원하는 출력데이타와 비교하여 동일하면 학습을 종료하는 제5단계; 만일 소정 횟수 만큼 학습을 반복 수행한 후에도 원하는 결과를 얻을 수 없는 경우에는 층을 증가하여 상기 제2단계로부터 반복 수행하는 제6단계로 이루어진 것을 특징으로 하는 스스로 학습이 가능한 다층 신경회로망의 학습방법.
KR1019920015485A 1992-08-27 1992-08-27 스스로 학습이 가능한 다층 신경회로망 및 학습 방법 KR0178805B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1019920015485A KR0178805B1 (ko) 1992-08-27 1992-08-27 스스로 학습이 가능한 다층 신경회로망 및 학습 방법
JP5209703A JPH06161985A (ja) 1992-08-27 1993-08-24 自ら学習可能な多層神経回路網及び学習方法
DE4328751A DE4328751A1 (de) 1992-08-27 1993-08-26 Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren
FR9310271A FR2695232B1 (fr) 1992-08-27 1993-08-26 Reseau neuronal a couches multiples a auto-apprentissage et son procede d'apprentissage.
US08/375,251 US5450528A (en) 1992-08-27 1995-01-19 Self-learning neural multi-layer network and learning method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019920015485A KR0178805B1 (ko) 1992-08-27 1992-08-27 스스로 학습이 가능한 다층 신경회로망 및 학습 방법

Publications (2)

Publication Number Publication Date
KR940004425A KR940004425A (ko) 1994-03-15
KR0178805B1 true KR0178805B1 (ko) 1999-05-15

Family

ID=19338593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019920015485A KR0178805B1 (ko) 1992-08-27 1992-08-27 스스로 학습이 가능한 다층 신경회로망 및 학습 방법

Country Status (5)

Country Link
US (1) US5450528A (ko)
JP (1) JPH06161985A (ko)
KR (1) KR0178805B1 (ko)
DE (1) DE4328751A1 (ko)
FR (1) FR2695232B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970007006B1 (ko) * 1993-08-31 1997-05-01 한국전자통신연구원 인공 신경 회로와 패턴 분리 및 인식용 발진 신경 망의 구조
US5630024A (en) * 1994-01-19 1997-05-13 Nippon Telegraph And Telephone Corporation Method and apparatus for processing using neural network with reduced calculation amount
US20100073202A1 (en) * 2008-09-25 2010-03-25 Mazed Mohammad A Portable internet appliance
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
US8676734B2 (en) * 2010-07-07 2014-03-18 Qualcomm, Incorporated Methods and systems for replaceable synaptic weight storage in neuro-processors
JP5289647B1 (ja) * 2012-01-23 2013-09-11 パナソニック株式会社 ニューラルネットワーク回路の学習方法
WO2015001697A1 (ja) 2013-07-04 2015-01-08 パナソニックIpマネジメント株式会社 ニューラルネットワーク回路、およびその学習方法
WO2019142242A1 (ja) * 2018-01-16 2019-07-25 オリンパス株式会社 データ処理システムおよびデータ処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5095443A (en) * 1988-10-07 1992-03-10 Ricoh Company, Ltd. Plural neural network system having a successive approximation learning method
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US4912647A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Neural network training tool

Also Published As

Publication number Publication date
DE4328751A1 (de) 1994-03-03
US5450528A (en) 1995-09-12
FR2695232A1 (fr) 1994-03-04
FR2695232B1 (fr) 1996-04-26
JPH06161985A (ja) 1994-06-10
KR940004425A (ko) 1994-03-15

Similar Documents

Publication Publication Date Title
US9779355B1 (en) Back propagation gates and storage capacitor for neural networks
US8892485B2 (en) Methods and systems for neural processor training by encouragement of correct output
US6151594A (en) Artificial neuron and method of using same
Zhou et al. Discrete-time recurrent neural networks with complex-valued linear threshold neurons
US20160342904A1 (en) Method and Apparatus for Training Memristive Learning Systems
KR102653822B1 (ko) 혼성 신호 컴퓨팅 시스템 및 방법
US9417845B2 (en) Method and apparatus for producing programmable probability distribution function of pseudo-random numbers
US5471557A (en) Speech recognition system utilizing a neural network
US5696883A (en) Neural network expressing apparatus including refresh of stored synapse load value information
US20230297839A1 (en) Deep learning in bipartite memristive networks
KR0178805B1 (ko) 스스로 학습이 가능한 다층 신경회로망 및 학습 방법
US5075868A (en) Memory modification of artificial neural networks
CN112734022B (zh) 一种具有识别和排序功能的四字符忆阻神经网络电路
Yu et al. C++ implementation of neural networks trainer
US5170071A (en) Stochastic artifical neuron with multilayer training capability
US5347613A (en) MOS multi-layer neural network including a plurality of hidden layers interposed between synapse groups for performing pattern recognition
Lin et al. A High-Speed and High-Efficiency Diverse Error Margin Write-Verify Scheme for an RRAM-Based Neuromorphic Hardware Accelerator
JP3729868B2 (ja) 連想ニューラル・ネットワーク
Jabr et al. Modify bidirectional associative memory (MBAM)
Vo Training on-chip hardware with two series memristor based backpropagation algorithm
Sasaki et al. Digital implementation of a multilayer perceptron based on stochastic computing with online learning function
US6625588B1 (en) Associative neuron in an artificial neural network
Yadav et al. Comparative analysis of recurrent networks for pattern storage and recalling of static images
LUDERMIR A cut-point recognition algorithm using PLN node
CN115857871B (zh) 一种模糊逻辑全硬件计算电路及其设计方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20041018

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee