SE519507C2 - Metod och apparat för träning av associativa nät för artificiellt seende - Google Patents

Metod och apparat för träning av associativa nät för artificiellt seende

Info

Publication number
SE519507C2
SE519507C2 SE0003975A SE0003975A SE519507C2 SE 519507 C2 SE519507 C2 SE 519507C2 SE 0003975 A SE0003975 A SE 0003975A SE 0003975 A SE0003975 A SE 0003975A SE 519507 C2 SE519507 C2 SE 519507C2
Authority
SE
Sweden
Prior art keywords
vector
matrix
link
estimate
response sample
Prior art date
Application number
SE0003975A
Other languages
English (en)
Other versions
SE0003975D0 (sv
SE0003975L (sv
Inventor
Goesta Granlund
Original Assignee
Goesta Granlund
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goesta Granlund filed Critical Goesta Granlund
Priority to SE0003975A priority Critical patent/SE519507C2/sv
Publication of SE0003975D0 publication Critical patent/SE0003975D0/sv
Priority to EP01979144A priority patent/EP1340161A1/en
Priority to PCT/SE2001/002285 priority patent/WO2002037302A1/en
Priority to AU2002211131A priority patent/AU2002211131A1/en
Priority to JP2002539981A priority patent/JP4044436B2/ja
Priority to US10/399,666 priority patent/US7333961B2/en
Publication of SE0003975L publication Critical patent/SE0003975L/sv
Publication of SE519507C2 publication Critical patent/SE519507C2/sv

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Description

lO 15 20 25 o. .n 1 o v» m m v n ~- .- - 1 n. v | I» ~ -. i .v I a - v 1 n U, -. f. i . . .. . . . .. < .. a » . a - I . i. - | U - - . . v" komplexitet till en storleksordning på tusentals egenskaper och tusentals sampel, vilket inte är tillräckligt för många system.
SAMMANFATTNING Ett syfte med den föreliggande uppfinningen är ett effektivare träningsförfa- rande som medger mycket större associativa nät.
Detta syfte uppnås i enlighet med de bifogade patentkraven.
KORT BESKRIVNING AV RITNINGARNA Uppfinningen, tillsammans med ytterligare syften och fördelar med denna, kan bäst förstås genom hänvisningar till följande beskrivning läst tillsam- mans med de medföljande ritningarna, i vilka: Fig. l är ett flödesdiagram som illustrerar en belysande utföringsform av träningsförfarandet i enlighet med den föreliggande uppfinningen; samt Fig. 2 är ett diagram som illustrerar strukturen hos ett träningssystem i enlighet med den föreliggande uppfinningen.
DETALJERAD BESKRIVNING Studium av strukturen hos ekvation (2) uppenbarar att varje rad i U faktiskt endast kräver kunskap om den motsvarande raden i C. Till exempel kräver endast rad k i U, som betecknas uk, kunskap om rad k i C, som betecknas ck. Detta kan ses från den explicíta ekvationen: (g g íalailmallvï 12 N _ _ - 12 N uk .u- -.- ...
Uk = . . . . . . . . , . lO 15 20 25 | - « « u 519 507 Ekvation (1) kan således lösas genom att individuellt bestämma varje rad i länkmatrisen C. Dessutom har det visats i [1] att det är möjligt att repre- sentera ett svarstillständ antingen i skalär representation eller i kanalrepre- sentation (vektorrepresentation) och att det är möjligt att transformera en skalär storhet till en vektorstorhet eller vice versa. Det är således möjligt att transformera varje kolumnvektor i svarsmatrisen U till en skalär, och därmed erhålla en svarssampelvektor u (radvektor) som innehåller dessa skalärer som komponenter. Denna svarssampelvektor u kommer att länkas till egenskapsmatris A i enlighet med: 1 2 % 01 ai 1 2 N al a2 ...a u= ÛH då; ag Eftersom ekvation (3) och (4) har samma struktur inses det således att det grundläggande problemet är att lösa en ekvation som har formen: u=cA (S där u och A är kända medan c ska bestämmas.
Ett problem med ekvation (5) är att svarssampelvektorn u och länkvektorn c typiskt sett ligger i olika vektorrum eller domäner eftersom egenskapsmatri- sen A typiskt sett är rektangulär och inte kvadratisk (H är allmänt inte lika med N i ekvation (4)). Egenskapsmatrisen A har således ingen naturlig invers. I enlighet med den föreliggande uppfinningen används ett iterativt förfarande för bestämning av c från A och u. Eftersom u är känd bildas en nuvarande uppskattning ü(z) av svarsvektorn u i svarsdomänen och felet Au=ü(z)-u transformeras till ett motsvarande länkvektorfel Ae i länkvektor- domänen genom användning av transponatet av egenskapsmatrisen A. Detta lO 15 20 25 n» u: ~ u i. i. - »i .- - . .n » . 1 . »f . . » i » - .H _» . 4 i ~ i » 1 . . i - f . - U länkvektorfel subtraheras från en nuvarande uppskattning av länkvektorn 5(z) för att bilda en uppdaterad uppskattning ê(i+1) av länkvektorn. Denna uppdaterade uppskattning transformeras tillbaka till domänen för svars- sampelvektorn genom användning av egenskapsmatrisen A och därmed bildas en uppdaterad uppskattning ü(i+l) av svarssampelvektorn. Detta förfarandes iterativa steg kan således skrivas som: Ac e(z+1)= eu) - (aa) - u)-AT Au (6) fi(z+1)=e(i+1)-A Detta förfarande illustreras i flödesdiagrammet i fig. l. Förfarandet startar i - steg Sl. Steg S2 samlar in egenskaps- och svarssampel. Steg S3 bestämmer en ursprunglig uppskattning av svarssampelvektorn, i typfallet nollvektorn.
Steg S4 bestämmer felet i svarssampelvektorns domän. Steg S5 testar huruvida detta fel är tillräckligt litet. Om inte, fortsätter förfarandet till steg S6, i vilket felet transformeras till länkvektorns domän. Steg S7 bestämmer en uppskattning av länkvektorn genom användning av det transformerade felet. Steg S8 transformerar denna uppskattning tillbaka till svarssampel- vektorns domän. Därefter loopas förfarandet tillbaka till steget S4. Om felet är tillräckligt litet i steget S5 avslutas förfarandet i steg S9.
Fig. 2 illustrerar en belysande struktur pä ett träningssystem som är lämpligt att utföra det beskrivna förfarandet. Ett svarsdomänfel bildas i en adderare lO genom subtrahering av den aktuella svarssampelvektorn u från sin motsvarande uppskattning ü. Svarsdomänfelet vidarebefordras till ett transformerings- eller samplingsblock 12 (transformeringen av felet med AT kan ses som en form av saripling). Detta block kan även utföra en normali- sering, ett förfarande som kommer att diskuteras ytterligare nedan. Det resulterande länkvektordomänfelet subtraheras från en nuvarande upp- skattning av länkvektorn i en adderare 14. Denna nuvarande uppskattning 10 15 20 25 519 507 av länkvektorn lagras och har fördröjts i ett fördröjnings- och mínnesblock 16. Den uppdaterade uppskattningen av länkvektorn vidarebefordras till ett transformerings- och rekonstruktionsblock 18 som producerar en uppdate- rad uppskattning av svarssampelvektorn. Detta block kan även utföra en normalisering, ett förfarande som kommer att beskrivas ytterligare nedan.
Den uppdaterade uppskattningen av länkvektorn vidarebefordras även till fördröjnings- och mínnesblocket 16. Båda transformeríngsblocken 12, 18 baserar sina transformeringar på egenskapsmatrisen A. I typfallet imple- menteras blocken i fig. 2 av en eller flera mikroprocessorer eller mikro- / signalprocessorkombinationer och motsvarande mjukvara. De kan emeller- tid även implementeras av en eller flera ASIC (applikationsspecifika integre- rade kretsar).
Ett alternativ till (6) är att ändra ordningen på iterationen i enlighet med: ü(í+l)=ê(í)-A ê(z+1)= ê(i)-(fi(z+1)-u)-AT (7) I en föredragen utföringsform av den föreliggande uppfinningen normaliseras egenskapsmatrisen A, dess transponat eller båda. Till exempel i en utfö- ringsform med blandad normalisering egenskapsnormaliseras matrisen AT i länkvektorekvationen av den diagonala normaliseringsmatrisen NF, definie- rad som: N l/Zal" 0 0 n=l N n NF _ O l/nzzlaz 0 0 0 N L 0 0 l/zazfJ n=l 519 507 6 och matrisen A i svarsvektorekvationen sampelnormalíseras av den diago- nala normaliseringsmatrisen NS, definierad som: H 1/ 261,1, o o h=1 H NS_ 0 i/šafi o (9) . Ö . o H o o 1/ Xajf h=1 5 I denna blandade utföringsform erhålls således egenskapsnorrnaliserings- faktorerna som de inverterade värdena av radsummorna av egenskapsmatri- sen A, medan sampelnormaliseringsfaktorerna erhålls som de inverterade värdena av kolumnsummorna av A. Med denna normalisering kan (6) och (7) 10 skrivas om som: e(i+1)= êoy-(fioq-ifl-NF -AT (m) fi(i+1)=e(z+1)-NS -A respektive fi(i+1)=e(f)-NS-A (n) e(f+1)=e(z)~(fi(z+1)-u)-NF -AT 15 Som en ytterligare illustration innefattar Appendix A en explicit MATLAB®- kodimplernentering av (10).
En annan möjlighet innefattar endast egenskapsnormalisering av AT och 20 bibehållande av A utan normalisering i (6) och (7). I detta fall ges en lämplig normaliseringsmatris NF av: 519 507 7 N H l/:íxazflaf 0 0 n=1 h=l N H n n _ NF: 0 l/:ízahïaz 0 : (12) n=1 h=l = o '- o N H O O l/Efizanaz n=l h=l Med denna normalisering kan (6) och (7) skrivas om som: 5 e(f+1)=e(f)-(fi(z)-u)-NF -AT (13) Û(i+l)=ê(í+l)-A respektive Û(i +l) = ê(í)-A e(z+1) =e(z)-(fi(z+1)-u)-NF -AT (14) Som en ytterligare illustration innefattar Appendix B en explicit MATLAB®- l O kodimplementering av (13). Ännu en möjlighet innefattar endast sampelnormalisering av A och bibehål- lande av AT utan normalisering i (6) och (7). I detta fall ges en lämplig normaliseringsmatris NS av: 15 H N l/Zízazja), O O h=l n=1 affnaš O É (15) g våg f.
CD CD ,_ ÉMI 3 'LÜÛ2Q S: WB mm Med denna normaliseríng kan (6) och (7) skrivas om som: lO 15 20 25 519 507 ê(z+1)=e(z)-(fi(z)-u)-AT (16) fi(z+1)=e(1+1)-NS -A respektive fi(i+1)=e(z)-NS -A m) ê(i+1)=e(i)-(fi(z+1)-u)-AT Som en ytterligare illustration innefattar Appendix C en explicit MATLAB®- kodimplementering av (16).
I beskrivningen ovan har normaliseringen uttryckts i matrisform. Eftersom dessa matriser är diagonala matriser är det emellertid möjligt att skriva de iterativa ekvationerna i en motsvarande matematisk form, som uttrycker normaliseringarna som vektorer. Till exempel kan (10) skrivas om som: e(i+1)= coq-NF ®((fi(¿)-u)-AT) (18) fi(z+1)=NS®(e(z+1)-A) där NF och NS nu är radvektorer, definierade av diagonalelementen i de motsvarande matriserna.
En väsentlig egenskap hos den föreliggande uppfinningen är faktumet att egenskapsmatrisen A endast innehåller icke-negativa element. Det är möjligt att visa att gradienten av felfunktionen Aun Står i direkt Samband med egenskapsmatrisens A element. En enkel härledning ger: ÖAun I a; (19) âCh Det inses således att även gradienten endast kommer att innehålla icke- negativa värden. Detta medför att det inte är nödvändigt att testa gradien- 10 15 20 25 30 519 507 iv; w: tens tecken. En ökning av en länkvektorkomponentens ch värde kommer att flytta felet i en positiv riktning eller inte påverka det alls. Denna egenskap utgör grunden för det snabba iterativa förfarandet i enlighet med den föreliggande uppfinningen. En närmare granskning av det underliggande problemet uppenbarar att de element i A som är skilda från noll inte nöd- vändigtvis måste vara positiva. Vad som krävs är att de har ett överens- stämmande tecken (de är antingen alla positiva eller alla negativa). Liknande kommentarer gäller för u och c.
I beskrivningen ovan är hela egenskapsmatrisen A inblandad i iterationen. I en approximativ utföringsform kan egenskapsmatrisen A ersättas av en approximering, i vilken endast maxvärdet i varje rad bibehålls. Denna approximering kan användas antingen i alla ekvationerna, i en av ekvatio- nerna eller endast i utvalda förekomster av egenskapsmatrisen A i ekvatio- nerna. Ett exempel på en approximativ blandad normaliseringsutföringsform motsvarande ekvation (6) ges av MATLAB®-implementeringen i Appendix D. I detta exempel används approximeringen i den första raden i ekvation (6).
Fördelen med ett sådant approximativt förfarande är att det är mycket snabbt eftersom endast maxelementet i varje rad bibehålls, medan resten av elementen approximeras med noll. Efter normalisering kommer den resulte- rande normaliserade matrisen endast att innehålla ettor och nollor. Detta betyder att en beräkningsmässigt komplex matrismultiplikation kan ersättas med en enkel omblandning av felkomponenter i felvektorn Au_ I en liknande approximering är det även möjligt att approximera egenskaps- matrisen A med en matris, i vilken endast maxvärdet i varje kolumn (sam- pelvektor) bibehålls. I en blandad normalisering är det även möjligt att använda båda approximeringarna, dvs. att använda både approximativ egenskaps- och sampelnormalisering.
Det finns flera möjliga val av stoppkriterier för det ovan beskrivna iterativa träningsförfarandet. 10 l5 20 25 519 507 10 En möjlighet är att använda medelvärdet av absolutvärdet av komponenter- na i Au, dvs.: N i än -unj (20) Nn=l lteratíonen upprepas så länge som en tröskel epsilon överskrids.
Ett alternativ är att använda maxfelkomponenten i Åu, dvs.: maxqün -unO (21) fl Om stora fel anses skadligare än mindre fel kan kvadratfelet användas, dvs.: A 2 u" - unl (22) N Z n=1 De ovan beskrivna stoppkriteríerna baseras på en absolut skalär felupp- skattning. Relativa uppskattningar är emellertid även möjliga. Som ett exempel har uppskattningen: N12 lân -unlz y:_____ N (23) Zuš n=1 använts í koden i appendixen.
Som ett alternativ kan iterationerna stoppas efter ett förbestämt antal iterationer. En kombination är även möjlig, dvs. om felet inte är tillräckligt litet efter ett förbestämt antal íteratíoner stoppas förfarandet. Detta kan 10 15 20 25 _ n, , , ., =. ., .a .a n.. i. 1- , .f v - -ø ~ c -» ._,, ,, . ..- . - . v ~ = , i . n . = » v , á q , , _, . _ , , | ...u inträffa till exempel när några felkomponenter i felvektorn förblir stora även efter många iterationer. I ett sådant fall kan de komponenter i länkvektorn c som har konvergerat alltjämt vara av intresse.
I många fall närmar sig nägra element i uppskattningen av länkvektorn Ö värdet noll under det iterativa förfarandet. Resultatet av detta är att de motsvarande raderna i egenskapsvektorn A kommer att ignoreras och inte att länkas till svarsvektorn. I enlighet med ett förfarande betecknat “komprimering” kan denna egenskap användas för att ta bort nollelementet i uppskattningen av länkvektorn (dess position lagras) och dess motsvarande rad i egenskapsmatrisen. En ny normalisering kan då utföras på den komprimerade egenskapsmatrisen, varpå det iterativa förfarandet återupp- tas. Denna komprimering kan utföras varje gång ett länkvektorelement närmar sig noll, företrädesvis när det underskrider en förbestämd gräns nära noll. Eftersom det borttagna värdets position lagras kan den fullständi- ga länkvektorn återskapas när de element som är skilda frän noll har konvergerat.
Ekvation (1) kan lösas genom att oberoende bestämma varje rad i länkmatris C, vilket har antytts ovan. Det beskrivna iterativa förfarandet kan emellertid även användas för fulla matriser. Som ett exempel kan (6) skrivas om som: ce + i) = ca) - (Um - (1)-AT AU (24) Û(z+i)=C(z+1)-A för matrisfallet.
Eftersom egenskapsmatrisen A allmänt är en gles matris (de flesta matris- elementen är O) föredras det att implementera de ovan beskrivna förfarande- na i ett beräkníngssystem som stödjer glesa matrisoperationer. Ett exempel 10 15 519 so? 12 pä ett sådant system är MATLAB® av MathWorks Inc. Detta kommer att reducera minneskraven eftersom endast element skilda från noll lagras explicit, och kommer även att påskynda beräkning eftersom multiplikationer och additioner endast utförs för element skilda från noll.
I beskrivningen ovan har uppfinningen beskrivits med hänvisning till ett system med artificiellt seende. Samma principer kan emellertid tillämpas på vilket percept-svarssystem eller associativt nät som helst, i vilket en egen- skapsvektor innefattandes endast icke-negativa element mappas till en svarsvektor (möjligen innefattandes endast 1 element) innefattandes endast icke-negativa element. Exempel är ljudbehandlingssystem och styrsystem som baseras på förändringar i sensorvaríabler, såsom temperatur tryck, position, hastighet, etc.
Det kommer att inses av fackmannen att olika modifikationer och ändringar kan göras av den föreliggande uppfinningen utan att avvika från dess ram, som definieras av de bifogade patentkraven. lO l5 20 25 30 519 507 - | . ; .e 13 APPENDIX A I MATLAB®-notatíon kan det blandade normaliseríngsförfarandet skrivas SOITlI Ns=sum(A); Asn=(diag(l./Ns)*A')'; Nf=sum(A'); Afn=diag(1./Nf>*A; epsilon=0.05; c_hat=O; u_hat=O; %Sampelnormer av A %Sampelnormalisering av A %Egenskapsnormer av A %Egenskapsnormalisering av A %Önskad relativ noggrannhet %Ursprunglig uppskattning av %c=nollvektor %Ursprunglig uppskattning av %u=nollvektor while norm(u_hat-u)/norm(u)>ep$ilon c_hat=c_hat-(u_hat-u)*Afn'; u_hat=c_hat*Asn; end; %Uppdatera uppskattning av c %Uppdatera uppskattning av u Här betecknar “.” elementvisa operationer och “ ' ” betecknar transponat.
APPENDIX B I MATLAB®-notation kan normalíseringsförfarandet i egenskapsdomänen skrivas som: Nf=sum(A)*A'; Afn=diag(l./Nf)*A; epsilon=0.05; c_hat=O; %Egenskapsnormer av A %Egenskapsnormalisering av A %Önskad relativ noggrannhet %Ursprunglig uppskattning av %c=nollvektor lO 15 20 25 30 35 519 507 Ffïf- 14 u_hat=0; %Ursprunglig uppskattning av %u=nollvektor while norm(u_hat~u)/norm(u)>epsilon c_hat=c_hat-(u_hat-u)*Afn'; u_hat=c_hat*A; %Uppdatera uppskattning av c %Uppdatera uppskattning av u end; APPENDIX C I MATLAB®-notatíon kan norrnaliseringsförfarandet i sampeldornänen skrivas som: Ns=sum(A)*A'; Asn=diag(l./Ns)*A; %Sampelnormer av A %Sampelnormalisering av A epsilon=0.05; %Önskad relativ noggrannhet c_hat=O; %Ursprunglig uppskattning av %c=nollvektor u_hat=O; %Ursprunglig uppskattning av %u=nollvektor while norm(u_hat-u)/norm(u)>epsilon c_hat=c_hat-(u_hat~u)*A'; u_hat=c_hat*Asn; %Uppdatera uppskattning av c %Uppdatera uppskattning av u end; APPENDIX D I MATLAB®-notatíon kan det blandade approxírnatíva normaliseríngsförfa- randetskñvassonm [ra ca]=size(A); %Bestäm antalet rader och kolumner [av ap]=max(A'); %Finn maximum i egenskapsfunktioner 10 519 Ns=av*A; Asn=(diag(l./Ns)*A')'; epsilon=0.05; C_hat=O; u_hat=O; -| nu u 1 n -« m -~ | -f u. . . -« 1 . u. - . 1. , -. . .a < - . » - n »mv v. ~.. .- ~ -. 1- . A . . - , . i _ . . . , f f , . . _ _., v.. 1. f.. .Hz-- %Sampeldomännormer %Sampelnormalisering av A %Önskad relativ noggrannhet %Ursprunglig uppskattning av %c=nollvektor 6 Ursprunglig uppskattning av %u=nollvektor while norm(u_hat-u)/norm(u)>epsilon end; delta_u=u_hat-u; c_hat=c_hat-delta_u(ap); u_hat=c_hat*Asn; %Uppdatera uppskattning av c %Uppdatera uppskattning av u 519 507 16 REFERENSER [1] wo 00/58914 [2] Using MATLAB, MathWorks Inc, 1996, sidorna 4-2 - 4-3, 4-13 - 4-14

Claims (21)

lO 20 25 30 n. in. »- H. n 4 .u -u 1- »n ' , o: »u . : n. u » »- n l i; . .- . v . , ~ v . = s ßifl .U ,-. ~-. - - - i: < ~ ' ' l i - -v i i i . l . i » . v i - U n. U m» ~-.|:<~ PATENT KRAV
1. l. Träningsförfarande för system för artiñciellt seende, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelvektor som innefattar svarssampels- kalärer; bestämning av en länkvektor som länkar egenskapsmatrisen till svarssampelvektorn, kännetecknat av ett iterativt förfarande för bestämning av en länkvektor, som innefattandar stegen: bestämning av en feluppskattning av svarssampelvektorn i svarssam- pelvektorns domän; transformering av feluppskattningen av svarssampelvektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvektorn; transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelvektorn är tillräckligt liten.
2. Förfarande enligt patentkrav 1, kännetecknat av ett iterativt steg, som innefattandar: bestämning av en feluppskattning av svarssampelvektorn som repre- senterar skillnaden mellan en nuvarande uppskattning av svarssampelvek- torn och svarssampelvektorn; användning av transponaten av egenskapsmatrisen för transformering av feluppskattningen av svarssampelvektorn till feluppskattningen av länkvektorn; bildande av en uppdaterad uppskattning av länkvektorn genom subtrahering av feluppskattningen av länkvektorn från en nuvarande uppskattning av länkvektorn; lO 15 20 25 519 507 18 användning av egenskapsmatrisen för transformering av den uppdate- rade uppskattningen av länkvektorn till en uppdaterad uppskattning av svarssampelvektorn.
3. Förfarande enligt patentkrav 1, kännetecknat av ett iterativt steg, som innefattandar: användning av egenskapsmatrisen för transformering av en nuvarande uppskattning av länkvektorn till en uppdaterad uppskattning av svarssam- pelvektorn; bestämning av en feluppskattning av svarssampelvektorn som repre- senterar skillnaden mellan den uppdaterade uppskattningen av svarssam- pelvektorn och svarssampelvektorn; användning av transponatet av egenskapsmatrisen för transformering av feluppskattningen av svarssarnpelvektorn till en feluppskattning av länkvektorn; bildande av en uppdaterad uppskattning av länkvektorn genom subtrahering av feluppskattningen av länkvektorn från den nuvarande uppskattningen av länkvektorn.
4. Förfarande enligt patentkrav 2 eller 3, kännetecknat av egenskapsnor- malisering av feluppskattningen av länkvektorn.
5. Förfarande enligt patentkrav 4, kännetecknat av en egenskapsnormalise- ring som representeras av diagonalelementen i matrisen: N H n n I/Zízafuai n 1 h=l 2 71 n @ i I ilvl2 /___Å lvl== Q *Ä Q Nä Ö 10 15 20 25 519 507 ., ...n t, . - . . = , . . . ,. 19 där a; betecknar egenskapsmatrísens element, N representerar antalet egenskapssampelvektorer, samt H representerar antalet komponenter i varje egenskapssampelvektor.
6. Förfarande enligt patentkrav 2 eller 3, kännetecknat av samplingsnorma- lísering av den uppdaterade uppskattníngen av svarssampelvektorn.
7. Förfarande enligt patentkrav 6, kännetecknat av en sampelnormalisering som representeras av diagonalelementen i matrisen: H N l/zízazjaà O 0 h=l n=1 NS- I/Élš där a; betecknar egenskapsmatrisens element, N representerar antalet egenskapssampelvektorer, samt H representerar antalet komponenter i varje egenskapssampelvektor.
8. F örfarande enligt patentkrav 2 eller 3, kännetecknat av egenskapsnormalisering av feluppskattníngen av länkvektorn; samt sampelnormalísering av den uppdaterade uppskattningen av svars- sampelvektorn. 15 20 .. . , .. H J; n v. l... , . . .F .. , . .. . , .. . . . I I -- . . . = . . . , . v . , _. v , . . , . . . . . , . _, -;-, _, . , . V - . . , ..
9. Förfarande enligt patentkrav 8, kännetecknat av en egenskapsnormalise- ring som representeras av diagonalelementen i matrisen: l/Eaf 0 0 n=l N NF_ o 1/2613 o n=l . 0 . 0 N o o i/Eaç, n=l och en sampelnormaliseríng som representeras av diagonalelementen i matrisen: H 1 i/Eah o o h=1 H 2 NS_ 0 l/Zah O h=1 0 0 H N 0 0 l/Zah h=1 där a; betecknar egenskapsmatrisens element, N representerar antalet egenskapssampelvektorer, samt H representerar antalet komponenter i varje egenskapssampelvektor.
10. Förfarande enligt något av de föregående patentkraven 2-9, känneteck- nat av selektiv ersättning av egenskapsmatrisen med en approximativ egenskapsmatris, i vilken endast maxelementet bibehålls i varje rad och alla andra element ersätts med noll. lO 15 20 25 30 u. m, . . i. u i. f: a - » » 1- . n y n; ,ø » e. . ß i- u ~ i,- H 1 - -f p - v . - . . 1 v »J- ..= _, i, , . . i. . s - . . _ - . »| . i i 1 . v 1 - . - . . v | . . « - , , - - . | . »Hua v i 21
11. ll. Förfarande enligt något av de föregående patentkraven 2-10, känne- tecknat av selektiv ersättning av egenskapsmatrisen med en approximatív egenskapsmatris, i vilken endast maxelementet bibehålls i varje kolumn och alla andra element ersätts med noll.
12. Förfarande enligt något av de föregående patentkraven, kännetecknat av att alla element skilda från noll i egenskapsmatrisen har samma tecken; samt alla element skilda från noll i svarssampelvektorn har samma tecken.
13. Träningsförfarande för system för artíficiellt seende, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelmatris som innefattar svarssampel- vektorer; bestämning av en länkmatris som länkar egenskapsmatrisen till svarssampelmatrisen, kännetecknat av ett iterativt förfarande för bestäm- ning av en länkmatris, som innefattandar stegen: bestämning av en feluppskattning av svarssampelmatrísen i svars- sampelmatrisens domän; transformering av feluppskattningen av svarssampelrnatrisen till en motsvarande feluppskattning av länkmatrisen i länkmatrisens domän; bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkmatrisen; transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrisens domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelmatrisen är tillräckligt liten.
14. Träningsförfarande för ett associativt nät, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelvektor som innefattar svarssampel- skalårer; lO 15 20 25 30 Q | » ~ | u 519 507 = t > , i ; ~ . | < v . ~ - , . . . 22 bestämning av en länkvektor som länkar egenskapsmatrisen till svarssampelvektorn, kännetecknat av ett iterativt förfarande för bestämning av en länkvektor, som innefattandar stegen: bestämning av en feluppskattning av svarssampelvektorn i svarssam- pelvektorns domän; transformering av feluppskattningen av svarssampelvektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvektorn; transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelvektorn är tillräckligt liten.
15. Träningsförfarande för ett associativt nät, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelmatris som innefattar svarssampel- vektorer; bestämning av en länkmatris som länkar egenskapsmatrisen till svarssampelmatrisen, kännetecknat av ett iterativt förfarande för bestäm- ning av en länkmatris, som innefattandar stegen: bestämning av en feluppskattning av svarssampelmatrisen i svars- sampelmatrisens domän; transformering av feluppskattningen av svarssampelmatrisen till en motsvarande feluppskattning av länkmatrisen i länkmatrisens domän; bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkmatrisen; transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrisens domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelmatrisen är tillräckligt liten. lO 15 20 25 30 519 507 m» m 23
16. Apparat för länkvektorträning för ett system för artiñciellt seende, inne- fattande organ för bildande av en egenskapsmatris som innefattar egen- skapssampelvektorer och en motsvarande svarssampelvektor som innefattar svarssampelskalärer, kännetecknar! av: organ (10) för bestämning av en feluppskattning av svarssampelvek- torn i svarssampelvektorns domän; organ (12) för transformering av feluppskattningen av svarssampel- vektorn till en motsvarande feluppskattníng av länkvektorn i länkvektorns domän; organ (14, 16) för bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvek- torn; samt organ (18) för transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän.
17. Apparat för länkvektorträning för ett system för artificiellt seende, inne- fattande organ för bildande av en egenskapsmatrís som innefattar egen- skapssampelvektorer och en motsvarande svarssarnpelmatris som innefattar svarssampelvektorer, kännetecknad av: organ (10) för bestämning av en feluppskattning av svarssampelmatri- sen i svarssampelmatrisens domän; organ (12) för transformering av feluppskattningen av svarssampel- matrisen till en motsvarande feluppskattning av länkmatrisen i länkmatri- sens domän; organ (14, 16) för bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkma- trisen; samt organ (18) för transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrí- sens domän. 10 15 20 25 BO 519 507 » » » . . .- 24
18. Apparat för länkvektorträning för ett assocíativt nät, innefattande organ för bildande av en egenskapsmatrís som innefattar egenskapssampelvektorer och en motsvarande svarssampelvektor som innefattar svarssampelskalärer, kännetecknad av: organ (10) för bestämning av en feluppskattning av svarssampelvek- torn i svarssampelvektorns domän; organ (12) för transformering av feluppskattningen av svarssampel- vektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; organ (14, 16) för bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvek- torn; samt organ (18) för transformeríng av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän.
19. Apparat för länkvektorträning för ett associativt nät, innefattande organ för bildande av en egenskapsmatris som innefattar egenskapssampelvektorer och en motsvarande svarssampelmatris som innefattar svarssampelvektorer, kännetecknad av: organ (10) för bestämning av en feluppskattníng av svarssampelmatri- sen i svarssampelmatrisens domän; organ (12) för transformeríng av feluppskattningen av svarssampel- matrisen till en motsvarande feluppskattning av länkmatrisen i länkmatri- sens domän; organ (14, 16) för bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkma- trisen; samt organ (18) för transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatri- sens domän. lO 15 20 25 30 . . - ; . ~ 1 - . « n - o - - 1 ~ . n . » 519 507 ut» m» 25
20. Datorprogramprodukt för bestämning av en länkvektor som länkar en egenskapsmatris till en svarssampelvektor, innefattande programelement för utförande av stegen: bestämning av en feluppskattning av svarssampelvektorn i svarssam- pelvektorns domän; transformering av feluppskattningen av svarssampelvektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvektorn; transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelvektorn är tillräckligt liten.
21. Datorprogramprodukt för bestämning av en länkmatris som länkar en egenskapsmatris till en svarssampelmatris, innefattande programelement för utförande av stegen: bestämning av en feluppskattning av svarssampelmatrisen i svars- sampelmatrisens domän; transformering av feluppskattningen av svarssampelmatrisen till en motsvarande feluppskattning av länkmatrisen i länkmatrisens domän; bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkmatrisen; transformering av uppskattningen av länkmatrísen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrisens domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelmatrisen är tillräckligt liten.
SE0003975A 2000-10-31 2000-10-31 Metod och apparat för träning av associativa nät för artificiellt seende SE519507C2 (sv)

Priority Applications (6)

Application Number Priority Date Filing Date Title
SE0003975A SE519507C2 (sv) 2000-10-31 2000-10-31 Metod och apparat för träning av associativa nät för artificiellt seende
EP01979144A EP1340161A1 (en) 2000-10-31 2001-10-19 Training of associative networks
PCT/SE2001/002285 WO2002037302A1 (en) 2000-10-31 2001-10-19 Training of associative networks
AU2002211131A AU2002211131A1 (en) 2000-10-31 2001-10-19 Training of associative networks
JP2002539981A JP4044436B2 (ja) 2000-10-31 2001-10-19 人工視覚システムトレーニング方法、連想型ネットワークトレーニング方法、人工視覚システムリンクベクトルトレーニング装置、人工視覚システムリンク行列トレーニング装置、連想型ネットワークトレーニング装置及びコンピュータプログラム製品
US10/399,666 US7333961B2 (en) 2000-10-31 2001-10-19 Training of associative networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE0003975A SE519507C2 (sv) 2000-10-31 2000-10-31 Metod och apparat för träning av associativa nät för artificiellt seende

Publications (3)

Publication Number Publication Date
SE0003975D0 SE0003975D0 (sv) 2000-10-31
SE0003975L SE0003975L (sv) 2002-05-01
SE519507C2 true SE519507C2 (sv) 2003-03-04

Family

ID=20281648

Family Applications (1)

Application Number Title Priority Date Filing Date
SE0003975A SE519507C2 (sv) 2000-10-31 2000-10-31 Metod och apparat för träning av associativa nät för artificiellt seende

Country Status (6)

Country Link
US (1) US7333961B2 (sv)
EP (1) EP1340161A1 (sv)
JP (1) JP4044436B2 (sv)
AU (1) AU2002211131A1 (sv)
SE (1) SE519507C2 (sv)
WO (1) WO2002037302A1 (sv)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5249259A (en) * 1990-01-23 1993-09-28 Massachusetts Institute Of Technology Genetic algorithm technique for designing neural networks
US5995539A (en) * 1993-03-17 1999-11-30 Miller; William J. Method and apparatus for signal transmission and reception
US6134537A (en) * 1995-09-29 2000-10-17 Ai Ware, Inc. Visualization and self organization of multidimensional data through equalized orthogonal mapping
US6496184B1 (en) * 1998-11-30 2002-12-17 William T. Freeman Method for inferring scenes from test images and training data using probability propagation in a markov network
WO2000055790A2 (en) * 1999-03-15 2000-09-21 Marketswitch Corp. Gradient criterion method for neural networks and application to targeted marketing
SE513728C2 (sv) * 1999-03-26 2000-10-30 Goesta Granlund Förfarande och system för artificiellt seende

Also Published As

Publication number Publication date
EP1340161A1 (en) 2003-09-03
WO2002037302A1 (en) 2002-05-10
JP2004513432A (ja) 2004-04-30
AU2002211131A1 (en) 2002-05-15
SE0003975D0 (sv) 2000-10-31
SE0003975L (sv) 2002-05-01
JP4044436B2 (ja) 2008-02-06
US7333961B2 (en) 2008-02-19
US20040044634A1 (en) 2004-03-04

Similar Documents

Publication Publication Date Title
Liu et al. Least squares based iterative algorithms for identifying Box–Jenkins models with finite measurement data
Billings et al. Least squares parameter estimation algorithms for non-linear systems
Panityakul et al. On estimating residual heterogeneity in random-effects meta-regression: a comparative study
Dehestani et al. Combination of Lucas wavelets with Legendre–Gauss quadrature for fractional Fredholm–Volterra integro-differential equations
CN110472417B (zh) 基于卷积神经网络的恶意软件操作码分析方法
JP2974900B2 (ja) 自律進化型ハードウェア設計システム
White et al. Neural networks predict fluid dynamics solutions from tiny datasets
Jafari A parameter estimation approach based on binary measurements using maximum likelihood analysis-application to MEMS
CN112183756A (zh) 一种可选择的精确量子主成分分析方法及应用
Kirch Block permutation principles for the change analysis of dependent data
He et al. A neural network approach for fault diagnosis of large-scale analogue circuits
CN115831295B (zh) 材料本构方程参数标定方法、装置及计算机设备
SE519507C2 (sv) Metod och apparat för träning av associativa nät för artificiellt seende
Seiffert Training of large-scale feed-forward neural networks
Marsi et al. On reduced-complexity approximations of quadratic filters
Chen et al. Expectation maximization identification algorithm for time-delay two-dimensional systems
US20080168297A1 (en) Method and apparatus for characterizing properties of electronic devices depending on device parameters
JPH0464059A (ja) 分析データ処理装置
KR20040007612A (ko) 미분 방정식 시스템에서 불일치에 관한 에러 정보를제공하는 방법
Yuce et al. Analysis of numerical methods in fractional order control systems with time delay and large time coefficient
Koellermeier Error estimators for adaptive simulation of rarefied gases using hyperbolic moment models
JP2006195542A (ja) モデル同定装置およびモデル同定プログラム
Kang et al. Effects of Phenotypic Variation on Evolutionary Dynamics
RU2362265C1 (ru) Цифровой интеллектуальный итеративный фильтр
Anton et al. Computer aided modeling of static and dynamic transfer characteristics

Legal Events

Date Code Title Description
NUG Patent has lapsed