FI103304B - Assosiatiivinen neuroni - Google Patents

Assosiatiivinen neuroni Download PDF

Info

Publication number
FI103304B
FI103304B FI971284A FI971284A FI103304B FI 103304 B FI103304 B FI 103304B FI 971284 A FI971284 A FI 971284A FI 971284 A FI971284 A FI 971284A FI 103304 B FI103304 B FI 103304B
Authority
FI
Finland
Prior art keywords
signal
neuron
function
main
linear
Prior art date
Application number
FI971284A
Other languages
English (en)
Swedish (sv)
Other versions
FI971284A (fi
FI103304B1 (fi
FI971284A0 (fi
Inventor
Pentti Haikonen
Original Assignee
Nokia Oy Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oy Ab filed Critical Nokia Oy Ab
Publication of FI971284A0 publication Critical patent/FI971284A0/fi
Priority to FI971284A priority Critical patent/FI103304B1/fi
Priority to ES98910770T priority patent/ES2186139T3/es
Priority to JP54092798A priority patent/JP3650407B2/ja
Priority to AT98910770T priority patent/ATE227860T1/de
Priority to DE69809402T priority patent/DE69809402T2/de
Priority to AU65025/98A priority patent/AU6502598A/en
Priority to US09/381,825 priority patent/US6625588B1/en
Priority to PCT/FI1998/000257 priority patent/WO1998043159A1/fi
Priority to EP98910770A priority patent/EP0970420B1/en
Publication of FI971284A publication Critical patent/FI971284A/fi
Application granted granted Critical
Publication of FI103304B publication Critical patent/FI103304B/fi
Publication of FI103304B1 publication Critical patent/FI103304B1/fi

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Networks Using Active Elements (AREA)
  • Advance Control (AREA)
  • Coils Or Transformers For Communication (AREA)
  • Devices For Executing Special Programs (AREA)
  • Electronic Switches (AREA)

Description

103304
Assosiatiivinen neuroni
Keksinnön tausta
Keksinnön kohteena on assosiatiivinen neuroni, jota käytetään keinotekoisissa neuro- eli hermoverkoissa.
5 Keinotekoisissa neuroverkoissa käytetään McCullogh-Pitts (1943) neuronista johdettuja neuroneita kuten Perceptron (Frank Rosenblatt 1957) eri versioinaan. Neuroverkkoja käsitellään esimerkiksi artikkelissa "Artificial Neural Networks: A Tutorial”, kirjoittajina Anil K. Jain, Jianchang Mao ja K. M. Mohiuddin, IEEE Computer, maaliskuu 1996, s. 31 -44.
10 Viitaten kuvioon 1, signaalit X, ... Xn ovat keinotekoisen neuronin sisäänmenoja ja Y on sen ulostulosignaali. Sisäänmenosignaalien X, ... Xn arvot voivat olla jatkuvasti muuttuvia (analogisia) tai binäärisiä suureita ja ulostulosignaali Y voi yleensä saada sekä positiivisia että negatiivisia arvoja. W, ... Wn ovat painotuskertoimia eli synaptisia vahvuuksia, jotka voivat myös olla jo-15 ko positiivisia tai negatiivisia. Joissakin tapauksissa rajoitutaan käyttämään vain positiivisia signaaliarvoja ja/tai painotuskertoimia. Neuronin synapsit 11, ... 11n painottavat vastaavaa sisäänmenosignaalia painotuskertoimilla W, ... Wn. Summauspiiri 12 laskee painotetun summan U. Tämä summa-arvo U viedään kynnystysfunktiopiirille 13, jonka ulostulosignaali on V. Kynnystysfunktio 20 voi olla monenlainen, tavallisesti käytetään sigmoidia tai jotakin paloittain lineaarista funktiota, jolloin ulostulosignaali saa jatkuvia arvoja. Tavanomaisessa neuronissa kynnystysfunktiopiirin 13 ulostulosignaali V on samalla koko neuronin ulostulosignaali Y.
’ Kun tämäntapaisia neuroneja käytetään keinotekoisissa neuro- 25 verkoissa, tehtävänä on opettaa verkko eli etsiä sopivat arvot painotuskertoi-mille W, ... Wn. Tätä varten on kehitetty erilaisia algoritmeja. Assosiatiiviseksi neuroverkoksi kutsutaan neuroverkkoa, jolla on kyky tallentaa sille toistuvasti esitettyä informaatiota yhdistämällä eri signaaleja, esimerkiksi tietty syöte tiettyyn tilanteeseen. Assosiatiivisissa neuroneissa käytetään usein ns. Hebbin : 30 sääntöä eri versioineen. Hebbin säännön mukaan painotuskerrointa kasvate taan aina kun painotuskerrointa vastaava sisäänmeno on aktiivinen ja neuronin ulostulon pitäisi olla aktiivinen. Algoritmien mukaista painotuskertoimien muuttamista kutsutaan neuroverkon opettamiseksi.
Tunnetuista keinotekoisista neuroneista voidaan koota neuro-35 verkkoja kytkemällä neuroneja rinnan kerroksiksi ja järjestämällä tällaisia kerroksia peräkkäin. Verkkoihin voidaan liittää myös takaisinkytkentä yhdistämällä 2 103304 ulostulosignaaleja sisäänmenosignaaleiksi. Tavanomaisista neuroneista kootuissa laajoissa verkoissa kuitenkin yksittäisten signaalien ja jopa signaaliryh-mien merkitys hämärtyy ja verkon suunnittelu ja hallinta siten hankaloituu. Esimerkiksi huomioilmiön (attention) aikaansaamiseksi olisi tarvetta toisaalla 5 vahvistaa ja toisaalla heikentää verkon toimintaa, mutta missä, milloin ja miten, tähän eivät nykyiset ratkaisut anna selkeitä vastauksia ja keinoja.
Keksinnön lyhyt selostus
Keksinnön tavoitteena on siten kehittää menetelmä ja menetelmän toteuttava laitteisto siten, että yllä mainitut neuroverkon opettamiseen liittyvät 10 ongelmat saadaan ratkaistua. Täsmällisemmin sanottuna keksinnön tavoitteena on tuottaa mekanismi, jolla yksittäisen neuronin tasolla voidaan tuottaa käyttökelpoista lisäinformaatiota neuronin eri sisäänmenosignaalien välisistä suhteista. Mekanismin tulee olla joustava ja monipuolinen, jotta keinotekoisen neuronin sovellusalue olisi mahdollisimman laaja. Mekanismin tulee myös olla 15 suhteellisen yksinkertainen, jotta neuronin valmistuskustannukset pysyvät alhaisina.
Keksinnön tavoitteet saavutetaan menetelmällä ja laitteistolla, joille on tunnusomaista se, mitä sanotaan itsenäisissä patenttivaatimuksissa. Keksinnön edulliset suoritusmuodot ovat epäitsenäisten patenttivaatimusten koh-20 teenä.
Keksintö perustuu tavanomaisen neuronin laajentamiseen siten, että tavanomaiseen neuroniin on liitetty erityinen laajennus eli runko-osa, jonka kautta kulkee erityinen pääsignaali. Runko-osa avaintaa ja säätää tätä pää-signaalia tavanomaisesta neuroniosasta saatavalla signaalilla ja muodostaa 25 näiden signaalien välisiä loogisia operaatioita ja/tai funktioita, joita tarvitaan suurten neuroverkkojen ohjaamisessa. Täten yksittäisen neuronin prosessoin-tivoima saadaan suuremmaksi verrattuna tunnettuihin neuroneihin, jotka käsittelevät tietoa vain painotuskertoimien ja kynnysfunktioiden kautta. Toisaalta selkeä jako pääsignaaleihin ja sivusignaaleihin helpottaa neuroverkkojen : 30 suunnittelua, koska Hebbin säännön mukainen opetus on helposti toteutetta vissa siten, että kutakin painotuskerrointa kasvatetaan aina kun pääsignaali ja kyseinen sivusisäänmenosignaali esiintyvät yhtäaikaa.
Keksinnön mukainen neuroni ja niistä koostuva verkko oppivat nopeasti, minimissään yksi esimerkki riittää. Keksinnön mukaisen neuronin ja " 1 35 niistä koostuvien verkkojen toiminnalle on nähtävissä yksinkertainen, selkeä tulkinta.
103304 3
Kuvioiden lyhyt selostus
Keksintöä selostetaan nyt lähemmin edullisten suoritusmuotojen yhteydessä, viitaten oheisiin piirroksiin, joista:
Kuvio 1 esittää yleisesti keinotekoisen neuronin periaatekuvaa; 5 Kuvio 2 esittää keksinnön mukaisen neuronin periaatekuvaa;
Kuvio 3 esittää keksinnön mukaisen neuronin lohkokaaviota; ja
Kuviot 4-6 esittävät mahdollisia ratkaisuja keksinnön mukaisen neuronin yksityiskohtien toteuttamiseksi.
Keksinnön yksityiskohtainen selostus 10 Viitaten kuvioon 2, keksinnön mukaisessa neuronissa on pääsig- naalisisäänmeno S, mielivaltainen määrä sivusignaalisisäänmenoja A,, A2 ... An, ainakin yksi ohjaus- eli kontrolloiva sisäänmeno C (=Control) ja estävä sisäänmeno I (=lnhibit) sekä joukko ulostuloja. Kuvion 2 esimerkissä neuronin ulostulot ovat S0 Y0 N0 ja Na. Sisäänmeno- ja ulostulosignaalit voivat olla esi-15 merkiksi jännitetasoja tai binäärilukuja. Neuroverkon rakenne on selkein, mikäli kussakin neuronissa on tasan yksi pääsignaalisisäänmeno S.
Lohkot 21,, 212, ... 21 n ovat neuronin synapseja, joihin tallennetaan kyseistä sivusignaalia A,, A2 ... An vastaava painotuskerroin. Käytännön toteutuksessa synapsit ovat esimerkiksi piiriyksiköitä. Lohko 12 on summauspiiri, 20 jossa lasketaan yhteen synapsien 21,, 212, ... 21n ulostulosignaalit At, ... At3. Lohko 13 on kynnystyspiiri, joka voidaan yksinkertaisimmin toteuttaa vertailija-na, joka antaa aktiivisen ulostulosignaalin vain jos sen sisäänmenosignaali eli summauspiirin 12 ulostulosignaali taso ylittää asetetun kynnysarvon.
Viitemerkillä 22 merkitty lohko käsittää neuronin keksinnön mukai-25 set laajennukset. Tämän hakemuksen puitteissa laajennuksista käytetään nimitystä neuronin runko-osa. Sen tehtävä on mm. avaintaa ja säätää pääsig-naalia S kynnystyspiirin 13 ulostulosignaalin perusteella ja muodostaa näiden signaalien välisiä loogisia operaatioita ja/tai funktioita. Erityisen hyödyllisiä loogisia operaatioita ovat looginen TAI eli OR (signaali S0) ja looginen JA eli AND • ; 30 (signaali Y0). Myös muita loogisia operaatioita voidaan käyttää kuten AND si ten että pääsignaali S on ensin käännetty eli invertoitu (signaali N0) tai siten, että kynnystyspiirin 13 ulostulosignaali V on ensin invertoitu (signaali Na).
Keksinnön erään edullisen suoritusmuodon mukaisesti runko-osassa 22 on myös kytkentä, joka sammuttaa ulostulosignaalin SQ tietyn 35 ajan kuluttua signaalin alkamisesta riippumatta siitä, mitä neuronin sisäänme- 103304 4 noissa tapahtuu. Tämä kytkentä voi myös huolehtia siitä, että uutta ulostulo-pulssia ei voida aloittaa ennenkuin tietty toipumisaika on kulunut. Runko-osaan 22 voi liittyä myös estävä sisäänmenosignaali I (Inhibit), joka päällä ollessaan estää kaikki ulostulot (pakottaa ne epäaktiiviseen tilaan). Ohjaussi-5 säänmenosignaali C (Control) ohjaa synapsien oppimista.
Kuvio 3 esittää lohkokaaviota keksinnön mukaisesta neuronista, jossa tässä esimerkissä on pääsignaalisisäänmenon S lisäksi kolme sivusig-naalisisäänmenoa A, ... An ja siis kolme synapsia 21,-213. Keksinnön mukaisesti laajennettu neuroni voidaan toteuttaa usealla eri tavalla yllä esitetyn kek-10 sinnöllisen ajatuksen puitteissa.
Viitaten nyt kuvioihin 4 - 6, tarkastellaan erästä keksinnön mukaisen neuronin toteutusesimerkkiä, jossa sisäänmeno- ja ulostulosignaalit ovat jän-nitesignaaleja. Kuvioiden 4-6 mukaisessa toteutuksessa signaalia kutsutaan ’’aktiiviseksi", jos sen jännite on positiivinen ja "epäaktiiviseksi”, jos sen jännite 15 on oleellisesti nolla.
Kuvio 4 esittää erästä mahdollista tapaa kuvion 3 mukaisen neuronin synapsien 21, - 21n toteuttamiseksi. Tässä ratkaisussa synapsin painotus-kerrointa vastaava jännite varastoituu vastuksen 41 ja diodin 42 kautta kondensaattoriin 43 aina kun sivusignaali A, ja pääsignaali S ovat aktiivisia yhtai-20 kaa. (Eräs mahdollinen yhteys pääsignaalin S ja avainsignaalin K välillä selostetaan kuvion 6 portin 632 yhteydessä.) Vastus 41 ja kondensaattori 43 määräävät aikavakion, jolla kondensaattorin 43 jännite kasvaa. Diodi 42 estää jännitteen purkautumisen JA-portin 40 kautta. Kondensaattorin 43 jännite johdetaan jännitteenseuraajana toimivalle operaatiovahvistimelle 44, jonka si-• 25 säänmenoimpedanssi on hyvin suuri (eli sen aiheuttama kondensaattorin 43 purkautuminen on mitätön). Synapsin ulostulona on signaali At,, joka saadaan sisäänmenosignaalista A, lukitsemalla se synapsin painotuskerrointa vastaavaan jännitetasoon diodilla 45 ja vastuksella 46. Toinen jännitteenseuraaja 47 puskuroi ulostulosignaalia. Aina kun sisäänmenosignaali A, on aktiivinen, 30 ulostulosignaali At, on verrannollinen painotuskertoimen kulloiseenkin arvoon.
Kuvio 5 esittää erästä mahdollista tapaa kuvion 3 mukaisen neuro-, nin summauslohkon 12 toteuttamiseksi. Vastusverkolla 50 - 53 lasketaan yh- teen synapseilta 21, - 213 saatavat jännitteet At, - At3. (On helppo huomata,
että sisäänmenoja At, - At3 ja vastuksia 51 - 53 voi olla mielivaltainen määrä.) 35 Kynnystys suoritetaan vertailijalla 54 ja kynnystys on siis tässä tapauksessa jyrkkä siten, että vertailijan 54 ulostulo on aktiivinen vain kun summajännite U
103304 5 vertailijan 54 positiivisessa sisäänmenossa ylittää sen negatiivisessa sisään-menossa vallitsevan kynnysarvon (joka kuvion 5 esimerkkitapauksessa on va-kiojännitelähteen 55 ulostulojännite).
Kuvio 6 esittää erästä mahdollista tapaa kuvion 3 mukaisen neuro-5 nin runko-osan 22 toteuttamiseksi. TAI-piiri 602 tuottaa ulostulosignaalin S0, jos sisäänmenevä pääsignaali S on aktiivinen tai kynnystetty summajännite V on aktiivinen. Runko-osa 22 sisältää katkoviivoilla ympäröidyn lohkon 606, joka toimii viivepiirinä. Kuvion 6 esimerkissä viivepiiri 606 muodostuu puskurista 608 ja invertteristä 610, vastuksista 612 - 614 ja kondensaattoreista 616 - 618. 10 Normaalisti viivepiirin 606 ulostulo on aktiivinen, joten JA-portti 604 päästää lävitseen mahdollisen ulostulosignaalin. Kun viivepiirin 606 komponenttien rakenteesta määräytyvä viive on kulunut, ulostulopulssi saavuttaa käännettynä JA-portin 606 ja sammuttaa ulostulon S0. Ulostulo S0 ei voi muuttua uudestaan aktiiviseksi ennenkuin viivästynyt ulostulopulssi viivepiirin 606 ulostulossa 15 on päättynyt. JA-piirillä 620 muodostetaan looginen JA-operaatio Y0, jonka ensimmäinen tekijä on pääsignaali S ja toinen tekijä on sivusignaalien A1 ... An painotuskertoimilla painotettu ja kynnystetty summasignaali V. JA-piirillä 622 muodostetaan vastaava JA-operaatio N0, kuitenkin sillä erolla, että pää-signaalista S on ensin muodostettu käänteisarvo (eli se on invertoitu) El-piirillä 20 626. JA-piirillä 624 piirillä muodostetaan vastaava JA-operaatio Na, kuitenkin sillä erolla, että kynnystetty summasignaali V on ensin invertoitu El-piirillä 628. Kaikki ulostulot voidaan estää l-signaalilla, joka (tässä esimerkissä) invertoidaan El-piirillä 630 ja tuodaan sitten invertoituna JA-piireille 620 - 624. K-signaalilla ohjataan synapseja Hebbin säännön mukaisesti (vertaa kuvioon 25 2). Ohjaussignaalilla C määrätään, koska oppiminen on yleensä sallittua. JA-piirin 632 avulla avainsignaalin K tuottaminen estetään silloin kun ohjaussignaali C on epäaktiivinen.
Keksinnön mukaisen neuronin ulostulosignaaleja Y0, N0 ja Na voidaan käyttää esimerkiksi seuraavasti. Aktiivinen signaali Y0 (Y = ”yes”) tar-30 koittaa, että pääsignaali S ja sivusignaalit A vastaavat toisiaan eli ne ovat assosioituneet. Aktiivinen signaali N0 (N = ”No") tarkoittaa, että pääsignaali S ja sivusignaalit A eivät vastaa toisiaan eli ne eivät ole assosioituneet. Sivusig-naali A on siis aktiivinen, mutta pääsignaali S ei ole. Aktiivinen signaali Na (”No association”) osoittaa tilannetta, jossa pääsignaali S on aktiivinen, mutta sivu-35 signaali A ei ole. Neuroverkon eräs ominaisuus on sen kyky ennustaa tulevaa tilannetta. Aktiivinen signaali Na osoittaa tilannetta, että esiintyy uusi sisään- 6 103304 menosignaali S, jota sivusignaalit A eivät ennusta. Signaali Na on siis eräänlainen yllätyksen osoitin, jota voidaan käyttää huomion kohdistamiseen uusiin yllätyksellisiin signaaleihin.
Ohjaussignaali C ohjaa eli avaintaa K-signaalia. Ei ole järkevää, 5 että verkko oppii kaikki esiin tulevat tilanteet. Normaali terve ihminen tuntee tai päättelee uusista tilanteista, onko tilanne oppimisen arvoinen vai ei. Ohjaussignaalilla C voidaan jäljitellä tällaista huomion keskittämistä.
Yllä on kuvattu esimerkki, jossa sivusignaalit A, ... An voivat saada jatkuvasti muuttuvia arvoja ja pääsignaali S kaksi eri arvoa. Kynnysfunktio on 10 tässä esimerkissä yksinkertainen vertailuoperaatio. Keksintö ei rajoitu tähän, vaan sitä voidaan soveltaa laajemmin esimerkiksi siten, että pääsignaali S ja avainsignaali K voivat saada myös jatkuvia arvoja. Kynnysfunktion tilalla voidaan käyttää mitä tahansa sopivaa epälineaarista jatkuvaa tai porrasfunktiota. Tällöin neuronin oppimista ei ole rajoitettu kahteen toisensa poissulkevaan ti-15 laan: sallittu tai estetty. Sen sijaan oppimiselle on määritelty useita eri asteita tai asteiden jatkumo, jolloin K-signaalin vahvuutta säädetään pääsignaalin S perusteella. Neuroverkon normaalitilassa (kun verkkoa ei opeteta), avainsignaali K on pieni murto-osa pääsignaalista S, jos S-signaali on aktiivinen. Kun verkkoa halutaan opettaa, avainsignaalin K arvo lähenee pääsignaalin S ar-20 voa. Käytännön toteutuksessa tulisi kuvioissa 4 ja 6 binääriset JA-portit korvata esimerkiksi analogisilla kertojilla tai säädettävillä vahvistimilla tai vaimen-timilla tms.
Käytännön neuroverkoissa neuroneja tarvitaan valtava määrä (yleensä 104 ... 106). Keksinnön mukainen neuroni voidaan toteuttaa jollakin 25 suurtiheysintegrointiin sopivalla prosessilla, esimerkiksi EEPROM-tekniikalla, jota käytetään puolijohteilla toteutettujen puheentallennuspiirien valmistamiseen. Vaihtoehtoisesti neuroneja ja neuroverkkoa voidaan simuloida digitaalisessa prosessorissa suoritettavalla tietokoneohjelmalla. Tässä tapauksessa neuronien synapsien painotuskertoimia vastaavat arvot talletetaan muistipaik-.· 30 koihin (esimerkiksi matriisimuuttujaan) ja neuronin muut osat toteutetaan oh- j ' 1 I : jelmallisen logiikan avulla.
Keksintöä voidaan soveltaa alueilla, joissa informaation prosessointi suoritetaan laajoilla keinotekoisilla neuroverkoilla. Tällaisia alueita ovat esimerkiksi audiovisuaalisen informaation käsittely, sensorisen informaation tul-35 kinta yleisesti ja erityisesti puheen ja kuvan tulkinta ja vasteen muodostaminen. Keksintö soveltuu käytettäväksi monilla modernin teollisuuden alueilla, esimerkiksi ihminen-kone -liittymät, henkilökohtaiset elektroniset assistentit ja/tai viestimet, multimedia, virtuaalitodellisuus, robotiikka, tekoäly ja tekoluo- vuus.
7 103304
Alan ammattilaiselle on ilmeistä, että tekniikan kehittyessä keksin-5 nön perusajatus voidaan toteuttaa monin eri tavoin. Keksintö ja sen suoritusmuodot eivät siten rajoitu yllä kuvattuihin esimerkkeihin vaan ne voivat vaihdella patenttivaatimusten puitteissa. 1

Claims (10)

103304 Patenttivaatimukset (24.6.1998)
1. Menetelmä assosiatiivisen keinotekoisen neuronin ulostulosignaalien muodostamiseksi, jossa menetelmässä: - vastaanotetaan joukko sivusignaaleja (A, ... An); 5. muodostetaan kullekin sivusignaalille (A, ... An) vastaava paino- tuskerroin (W, - Wn); - muodostetaan sivusignaaleista (A, - An) vastaavilla kertoimilla (W, - Wn) painotettu summa (U); - kohdistetaan painotettuun summaan (U) epälineaarinen funktio 10 epälineaarisen signaalin (V) tuottamiseksi; tunnettu siitä, että: - vastaanotetaan pääsignaali (S), joka on assosioitavissa sivusig-naaleihin (A, ... An) siten, että kutakin sivusignaalia vastaavaa painotusker-rointa (W, - Wn) kasvatetaan, kun pääsignaali (S) ja vastaava sivusignaali (A! 15 ... An) ovat aktiivisia yhtaikaa; - muodostetaan pääsignaalin (S) ja epälineaarisen signaalin (V) perusteella funktio (S0) S TAI V jota käytetään pääulostulosignaalin tuottamiseen; ja sen lisäksi ainakin yksi looginen funktio kolmen funktion joukosta Y0 = S JA V, N0,= El-S JA V, Na =S JA El-V ja käytetään mainittua loogista funktiota 20 neuronin lisäulostulosignaalin tuottamiseen.
2. Assosiatiivinen keinotekoinen neuroni, johon kuuluu: - välineet (11, - 11n; 21, - 21n) vastaanottamaan joukko sivusignaaleja (A, ... An) ja muodostamaan kullekin sivusignaalille (A, ... An) vastaava painotuskerroin (W,-W„); 25. välineet (12) muodostamaan sivusignaaleista (A, - An) vastaavilla kertoimilla (W, - Wn) painotettu summa (U); - välineet (13) kohdistamaan painotettuun summaan (U) epälineaarinen funktio epälineaarisen signaalin (V) tuottamiseksi; tunnettu siitä, että neuroniin lisäksi kuuluu: 30. välineet vastaanottamaan pääsignaali (S), joka on assosioitavissa sivusignaaleihin (A, ... An) siten, että kutakin sivusignaalia vastaavaa paino-tuskerrointa (W, - Wn) kasvatetaan, kun pääsignaali (S) ja vastaava sivusignaali (A, ... An) ovat aktiivisia yhtaikaa; ja - välineet (22) muodostamaan pääsignaalin (S) ja epälineaarisen 35 signaalin perusteella funktio (S0) S TAI V jota käytetään pääulostulosignaalin tuottamiseen; ja sen lisäksi ainakin yksi loogisen funktio kolmen funktion jou- 103304 kosta Y0 = S JA V, N0= El-S JA V, Na = S JA El-V ja käyttämään näin saatua loogista funktiota neuronin lisäulostulosignaalin tuottamiseen.
3. Patenttivaatimuksen 2 mukainen neuroni, tunnettu siitä, että mainittu epälineaarinen funktio on kynnysfunktio ja sen tuloksena saadulla 5 epälineaarisella signaalilla (V) on ensimmäinen tila ja toinen tila.
4. Patenttivaatimuksen 2 mukainen neuroni, tunnettu siitä, että epälineaarinen funktio on porrasfunktio, jossa on enemmän kuin kaksi porrasta.
5. Patenttivaatimuksen 2 mukainen neuroni, tunnettu siitä, että 10 epälineaarinen funktio on jatkuva funktio.
6. Patenttivaatimuksen 2 mukainen neuroni, tunnettu siitä, että pääulostulosignaalilla (S0) on ensimmäinen tila ja toinen tila ja neuroniin kuuluu lisäksi välineet (606) ylärajan asettamiseksi sille ajalle, jonka mainittu pää-ulostuiosignaali (S0) on toisessa tilassa.
7. Patenttivaatimuksen 6 mukainen neuroni, tunnettu siitä, että neuroniin kuuluu lisäksi välineet (606) alarajan asettamiseksi sille ajalle, jonka mainittu pääulostulosignaali (S0) pysyy ensimmäisessä tilassa oltuaan sitä ennen toisessa tilassa.
8. Jonkin patenttivaatimuksen 2-7 mukainen neuroni, tunnettu 20 siitä, että se lisäksi käsittää välineet (40, 632) neuronin oppimisen säätämiseksi vasteena ulkoiselle ohjaussignaalille (C).
9. Patenttivaatimuksen 8 mukainen neuroni, tunnettu siitä, että välineillä (40, 632) neuronin oppimisen säätämiseksi on kaksi mahdollista tilaa, jolloin neuronin oppiminen on joko sallittu tai estetty.
10. Jonkin patenttivaatimuksen 2-9 mukainen neuroni, tun nettu siitä, että se lisäksi käsittää välineet (630, 604, 620 - 624) ainakin yhden ulostulosignaalin (S0, Y0, N0, Na) pakottamiseksi ennalta määrättyyn tilaan vasteena ulkoiselle estosignaalille (I). 103304
FI971284A 1997-03-26 1997-03-26 Assosiatiivinen neuroni FI103304B1 (fi)

Priority Applications (9)

Application Number Priority Date Filing Date Title
FI971284A FI103304B1 (fi) 1997-03-26 1997-03-26 Assosiatiivinen neuroni
DE69809402T DE69809402T2 (de) 1997-03-26 1998-03-23 Assoziativneuron in einem künstlichen neuralen netzwerk
JP54092798A JP3650407B2 (ja) 1997-03-26 1998-03-23 人工ニューラル・ネットワークにおける連想ニューロン
AT98910770T ATE227860T1 (de) 1997-03-26 1998-03-23 Assoziativneuron in einem künstlichen neuralen netzwerk
ES98910770T ES2186139T3 (es) 1997-03-26 1998-03-23 Neurona asociativa en una red neuronal artificial.
AU65025/98A AU6502598A (en) 1997-03-26 1998-03-23 Associative neuron in an artificial neutral network
US09/381,825 US6625588B1 (en) 1997-03-26 1998-03-23 Associative neuron in an artificial neural network
PCT/FI1998/000257 WO1998043159A1 (fi) 1997-03-26 1998-03-23 Associative neuron
EP98910770A EP0970420B1 (en) 1997-03-26 1998-03-23 Associative neuron in an artificial neural network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI971284 1997-03-26
FI971284A FI103304B1 (fi) 1997-03-26 1997-03-26 Assosiatiivinen neuroni

Publications (4)

Publication Number Publication Date
FI971284A0 FI971284A0 (fi) 1997-03-26
FI971284A FI971284A (fi) 1998-09-27
FI103304B true FI103304B (fi) 1999-05-31
FI103304B1 FI103304B1 (fi) 1999-05-31

Family

ID=8548483

Family Applications (1)

Application Number Title Priority Date Filing Date
FI971284A FI103304B1 (fi) 1997-03-26 1997-03-26 Assosiatiivinen neuroni

Country Status (9)

Country Link
US (1) US6625588B1 (fi)
EP (1) EP0970420B1 (fi)
JP (1) JP3650407B2 (fi)
AT (1) ATE227860T1 (fi)
AU (1) AU6502598A (fi)
DE (1) DE69809402T2 (fi)
ES (1) ES2186139T3 (fi)
FI (1) FI103304B1 (fi)
WO (1) WO1998043159A1 (fi)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20002853A (fi) * 2000-12-22 2002-06-23 Nokia Corp Keinotekoisen assosiatiivisen neuronin synapsi
US7672918B2 (en) * 2007-02-05 2010-03-02 Steve Adkins Artificial neuron
US11354572B2 (en) 2018-12-05 2022-06-07 International Business Machines Corporation Multi-variables processing neurons and unsupervised multi-timescale learning for spiking neural networks
EP3839833A1 (en) * 2019-12-16 2021-06-23 ams International AG Neural amplifier, neural network and sensor device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3602888A (en) * 1967-12-14 1971-08-31 Matsushita Electric Ind Co Ltd Learning device
US3601811A (en) * 1967-12-18 1971-08-24 Matsushita Electric Ind Co Ltd Learning machine
FR2051725B1 (fi) * 1969-07-14 1973-04-27 Matsushita Electric Ind Co Ltd
US5515454A (en) * 1981-08-06 1996-05-07 Buckley; B. Shawn Self-organizing circuits
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
JPH0782481B2 (ja) * 1989-12-26 1995-09-06 三菱電機株式会社 半導体神経回路網
KR950001601B1 (ko) * 1990-07-09 1995-02-27 니폰 덴신 덴와 가부시끼가시야 뉴-럴 네트워크 회로
JP2760145B2 (ja) * 1990-09-26 1998-05-28 三菱電機株式会社 知識情報処理装置
US5172204A (en) * 1991-03-27 1992-12-15 International Business Machines Corp. Artificial ionic synapse
US5454064A (en) * 1991-11-22 1995-09-26 Hughes Aircraft Company System for correlating object reports utilizing connectionist architecture
US5299285A (en) 1992-01-31 1994-03-29 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Neural network with dynamically adaptable neurons
US5355436A (en) * 1992-10-05 1994-10-11 The Research Foundation, State University Of New York At Buffalo Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations
US5446829A (en) * 1993-06-24 1995-08-29 The United States Of America As Represented By The Department Of Health And Human Services Artificial network for temporal sequence processing
US5448684A (en) 1993-11-12 1995-09-05 Motorola, Inc. Neural network, neuron, and method for recognizing a missing input valve
DE69430529T2 (de) 1994-07-28 2003-01-16 Ibm Daisy-Chain-Schaltung für die serielle Verbindung von Neuronalschaltungen

Also Published As

Publication number Publication date
FI971284A (fi) 1998-09-27
JP2001517341A (ja) 2001-10-02
JP3650407B2 (ja) 2005-05-18
WO1998043159A1 (fi) 1998-10-01
AU6502598A (en) 1998-10-20
US6625588B1 (en) 2003-09-23
DE69809402T2 (de) 2003-08-21
DE69809402D1 (de) 2002-12-19
FI103304B1 (fi) 1999-05-31
EP0970420A1 (en) 2000-01-12
ES2186139T3 (es) 2003-05-01
ATE227860T1 (de) 2002-11-15
EP0970420B1 (en) 2002-11-13
FI971284A0 (fi) 1997-03-26

Similar Documents

Publication Publication Date Title
US5479579A (en) Cascaded VLSI neural network architecture for on-line learning
US4951239A (en) Artificial neural network implementation
Jang et al. Levenberg-Marquardt method for ANFIS learning
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
Zhang et al. Convergence of gradient method with momentum for two-layer feedforward neural networks
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
US5353382A (en) Programmable synapse for neural network applications
FI103304B (fi) Assosiatiivinen neuroni
US5857178A (en) Neural network apparatus and learning method thereof
Xie et al. Training algorithms for limited precision feedforward neural networks
EP0985181B1 (en) Associative neural network
US5157275A (en) Circuit employing logical gates for calculating activation function derivatives on stochastically-encoded signals
Murray Analog VLSI and multi-layer perceptions-accuracy, noise and on-chip learning
Neumerkel et al. Modelling dynamic processes with clustered time-delay neurons
Tawel Learning in analog neural network hardware
US20220351035A1 (en) Apparatus and method for neural network learning using synapse based on multi element
Tang et al. A model of neurons with unidirectional linear response
Choi et al. Implementation of MEBP learning circuitry with simple nonlinear synapse circuits
JPH09138786A (ja) ニューラルネットワークの学習装置
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
Dalianis et al. Graph coloring using fuzzy controlled Neural Networks
Wang et al. An adaptive and fully sparse training approach for multilayer perceptrons
Edwards et al. ANALOGUE SYNAPTIC NOISE—IMPLICATIONS AND LEARNING IMPROVEMENTS
Van der Spiegel et al. Artificial neural networks: principles and VLSI implementation
JP2659230B2 (ja) 神経回路網の学習装置