SE519507C2 - Metod och apparat för träning av associativa nät för artificiellt seende - Google Patents
Metod och apparat för träning av associativa nät för artificiellt seendeInfo
- Publication number
- SE519507C2 SE519507C2 SE0003975A SE0003975A SE519507C2 SE 519507 C2 SE519507 C2 SE 519507C2 SE 0003975 A SE0003975 A SE 0003975A SE 0003975 A SE0003975 A SE 0003975A SE 519507 C2 SE519507 C2 SE 519507C2
- Authority
- SE
- Sweden
- Prior art keywords
- vector
- matrix
- link
- estimate
- response sample
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Description
lO 15 20 25 o. .n 1 o v» m m v n ~- .- - 1 n. v | I» ~ -. i .v I a - v 1 n U, -. f. i . . .. . . . .. < .. a » . a - I . i. - | U - - . . v" komplexitet till en storleksordning på tusentals egenskaper och tusentals sampel, vilket inte är tillräckligt för många system.
SAMMANFATTNING Ett syfte med den föreliggande uppfinningen är ett effektivare träningsförfa- rande som medger mycket större associativa nät.
Detta syfte uppnås i enlighet med de bifogade patentkraven.
KORT BESKRIVNING AV RITNINGARNA Uppfinningen, tillsammans med ytterligare syften och fördelar med denna, kan bäst förstås genom hänvisningar till följande beskrivning läst tillsam- mans med de medföljande ritningarna, i vilka: Fig. l är ett flödesdiagram som illustrerar en belysande utföringsform av träningsförfarandet i enlighet med den föreliggande uppfinningen; samt Fig. 2 är ett diagram som illustrerar strukturen hos ett träningssystem i enlighet med den föreliggande uppfinningen.
DETALJERAD BESKRIVNING Studium av strukturen hos ekvation (2) uppenbarar att varje rad i U faktiskt endast kräver kunskap om den motsvarande raden i C. Till exempel kräver endast rad k i U, som betecknas uk, kunskap om rad k i C, som betecknas ck. Detta kan ses från den explicíta ekvationen: (g g íalailmallvï 12 N _ _ - 12 N uk .u- -.- ...
Uk = . . . . . . . . , . lO 15 20 25 | - « « u 519 507 Ekvation (1) kan således lösas genom att individuellt bestämma varje rad i länkmatrisen C. Dessutom har det visats i [1] att det är möjligt att repre- sentera ett svarstillständ antingen i skalär representation eller i kanalrepre- sentation (vektorrepresentation) och att det är möjligt att transformera en skalär storhet till en vektorstorhet eller vice versa. Det är således möjligt att transformera varje kolumnvektor i svarsmatrisen U till en skalär, och därmed erhålla en svarssampelvektor u (radvektor) som innehåller dessa skalärer som komponenter. Denna svarssampelvektor u kommer att länkas till egenskapsmatris A i enlighet med: 1 2 % 01 ai 1 2 N al a2 ...a u= ÛH då; ag Eftersom ekvation (3) och (4) har samma struktur inses det således att det grundläggande problemet är att lösa en ekvation som har formen: u=cA (S där u och A är kända medan c ska bestämmas.
Ett problem med ekvation (5) är att svarssampelvektorn u och länkvektorn c typiskt sett ligger i olika vektorrum eller domäner eftersom egenskapsmatri- sen A typiskt sett är rektangulär och inte kvadratisk (H är allmänt inte lika med N i ekvation (4)). Egenskapsmatrisen A har således ingen naturlig invers. I enlighet med den föreliggande uppfinningen används ett iterativt förfarande för bestämning av c från A och u. Eftersom u är känd bildas en nuvarande uppskattning ü(z) av svarsvektorn u i svarsdomänen och felet Au=ü(z)-u transformeras till ett motsvarande länkvektorfel Ae i länkvektor- domänen genom användning av transponatet av egenskapsmatrisen A. Detta lO 15 20 25 n» u: ~ u i. i. - »i .- - . .n » . 1 . »f . . » i » - .H _» . 4 i ~ i » 1 . . i - f . - U länkvektorfel subtraheras från en nuvarande uppskattning av länkvektorn 5(z) för att bilda en uppdaterad uppskattning ê(i+1) av länkvektorn. Denna uppdaterade uppskattning transformeras tillbaka till domänen för svars- sampelvektorn genom användning av egenskapsmatrisen A och därmed bildas en uppdaterad uppskattning ü(i+l) av svarssampelvektorn. Detta förfarandes iterativa steg kan således skrivas som: Ac e(z+1)= eu) - (aa) - u)-AT Au (6) fi(z+1)=e(i+1)-A Detta förfarande illustreras i flödesdiagrammet i fig. l. Förfarandet startar i - steg Sl. Steg S2 samlar in egenskaps- och svarssampel. Steg S3 bestämmer en ursprunglig uppskattning av svarssampelvektorn, i typfallet nollvektorn.
Steg S4 bestämmer felet i svarssampelvektorns domän. Steg S5 testar huruvida detta fel är tillräckligt litet. Om inte, fortsätter förfarandet till steg S6, i vilket felet transformeras till länkvektorns domän. Steg S7 bestämmer en uppskattning av länkvektorn genom användning av det transformerade felet. Steg S8 transformerar denna uppskattning tillbaka till svarssampel- vektorns domän. Därefter loopas förfarandet tillbaka till steget S4. Om felet är tillräckligt litet i steget S5 avslutas förfarandet i steg S9.
Fig. 2 illustrerar en belysande struktur pä ett träningssystem som är lämpligt att utföra det beskrivna förfarandet. Ett svarsdomänfel bildas i en adderare lO genom subtrahering av den aktuella svarssampelvektorn u från sin motsvarande uppskattning ü. Svarsdomänfelet vidarebefordras till ett transformerings- eller samplingsblock 12 (transformeringen av felet med AT kan ses som en form av saripling). Detta block kan även utföra en normali- sering, ett förfarande som kommer att diskuteras ytterligare nedan. Det resulterande länkvektordomänfelet subtraheras från en nuvarande upp- skattning av länkvektorn i en adderare 14. Denna nuvarande uppskattning 10 15 20 25 519 507 av länkvektorn lagras och har fördröjts i ett fördröjnings- och mínnesblock 16. Den uppdaterade uppskattningen av länkvektorn vidarebefordras till ett transformerings- och rekonstruktionsblock 18 som producerar en uppdate- rad uppskattning av svarssampelvektorn. Detta block kan även utföra en normalisering, ett förfarande som kommer att beskrivas ytterligare nedan.
Den uppdaterade uppskattningen av länkvektorn vidarebefordras även till fördröjnings- och mínnesblocket 16. Båda transformeríngsblocken 12, 18 baserar sina transformeringar på egenskapsmatrisen A. I typfallet imple- menteras blocken i fig. 2 av en eller flera mikroprocessorer eller mikro- / signalprocessorkombinationer och motsvarande mjukvara. De kan emeller- tid även implementeras av en eller flera ASIC (applikationsspecifika integre- rade kretsar).
Ett alternativ till (6) är att ändra ordningen på iterationen i enlighet med: ü(í+l)=ê(í)-A ê(z+1)= ê(i)-(fi(z+1)-u)-AT (7) I en föredragen utföringsform av den föreliggande uppfinningen normaliseras egenskapsmatrisen A, dess transponat eller båda. Till exempel i en utfö- ringsform med blandad normalisering egenskapsnormaliseras matrisen AT i länkvektorekvationen av den diagonala normaliseringsmatrisen NF, definie- rad som: N l/Zal" 0 0 n=l N n NF _ O l/nzzlaz 0 0 0 N L 0 0 l/zazfJ n=l 519 507 6 och matrisen A i svarsvektorekvationen sampelnormalíseras av den diago- nala normaliseringsmatrisen NS, definierad som: H 1/ 261,1, o o h=1 H NS_ 0 i/šafi o (9) . Ö . o H o o 1/ Xajf h=1 5 I denna blandade utföringsform erhålls således egenskapsnorrnaliserings- faktorerna som de inverterade värdena av radsummorna av egenskapsmatri- sen A, medan sampelnormaliseringsfaktorerna erhålls som de inverterade värdena av kolumnsummorna av A. Med denna normalisering kan (6) och (7) 10 skrivas om som: e(i+1)= êoy-(fioq-ifl-NF -AT (m) fi(i+1)=e(z+1)-NS -A respektive fi(i+1)=e(f)-NS-A (n) e(f+1)=e(z)~(fi(z+1)-u)-NF -AT 15 Som en ytterligare illustration innefattar Appendix A en explicit MATLAB®- kodimplernentering av (10).
En annan möjlighet innefattar endast egenskapsnormalisering av AT och 20 bibehållande av A utan normalisering i (6) och (7). I detta fall ges en lämplig normaliseringsmatris NF av: 519 507 7 N H l/:íxazflaf 0 0 n=1 h=l N H n n _ NF: 0 l/:ízahïaz 0 : (12) n=1 h=l = o '- o N H O O l/Efizanaz n=l h=l Med denna normalisering kan (6) och (7) skrivas om som: 5 e(f+1)=e(f)-(fi(z)-u)-NF -AT (13) Û(i+l)=ê(í+l)-A respektive Û(i +l) = ê(í)-A e(z+1) =e(z)-(fi(z+1)-u)-NF -AT (14) Som en ytterligare illustration innefattar Appendix B en explicit MATLAB®- l O kodimplementering av (13). Ännu en möjlighet innefattar endast sampelnormalisering av A och bibehål- lande av AT utan normalisering i (6) och (7). I detta fall ges en lämplig normaliseringsmatris NS av: 15 H N l/Zízazja), O O h=l n=1 affnaš O É (15) g våg f.
CD CD ,_ ÉMI 3 'LÜÛ2Q S: WB mm Med denna normaliseríng kan (6) och (7) skrivas om som: lO 15 20 25 519 507 ê(z+1)=e(z)-(fi(z)-u)-AT (16) fi(z+1)=e(1+1)-NS -A respektive fi(i+1)=e(z)-NS -A m) ê(i+1)=e(i)-(fi(z+1)-u)-AT Som en ytterligare illustration innefattar Appendix C en explicit MATLAB®- kodimplementering av (16).
I beskrivningen ovan har normaliseringen uttryckts i matrisform. Eftersom dessa matriser är diagonala matriser är det emellertid möjligt att skriva de iterativa ekvationerna i en motsvarande matematisk form, som uttrycker normaliseringarna som vektorer. Till exempel kan (10) skrivas om som: e(i+1)= coq-NF ®((fi(¿)-u)-AT) (18) fi(z+1)=NS®(e(z+1)-A) där NF och NS nu är radvektorer, definierade av diagonalelementen i de motsvarande matriserna.
En väsentlig egenskap hos den föreliggande uppfinningen är faktumet att egenskapsmatrisen A endast innehåller icke-negativa element. Det är möjligt att visa att gradienten av felfunktionen Aun Står i direkt Samband med egenskapsmatrisens A element. En enkel härledning ger: ÖAun I a; (19) âCh Det inses således att även gradienten endast kommer att innehålla icke- negativa värden. Detta medför att det inte är nödvändigt att testa gradien- 10 15 20 25 30 519 507 iv; w: tens tecken. En ökning av en länkvektorkomponentens ch värde kommer att flytta felet i en positiv riktning eller inte påverka det alls. Denna egenskap utgör grunden för det snabba iterativa förfarandet i enlighet med den föreliggande uppfinningen. En närmare granskning av det underliggande problemet uppenbarar att de element i A som är skilda från noll inte nöd- vändigtvis måste vara positiva. Vad som krävs är att de har ett överens- stämmande tecken (de är antingen alla positiva eller alla negativa). Liknande kommentarer gäller för u och c.
I beskrivningen ovan är hela egenskapsmatrisen A inblandad i iterationen. I en approximativ utföringsform kan egenskapsmatrisen A ersättas av en approximering, i vilken endast maxvärdet i varje rad bibehålls. Denna approximering kan användas antingen i alla ekvationerna, i en av ekvatio- nerna eller endast i utvalda förekomster av egenskapsmatrisen A i ekvatio- nerna. Ett exempel på en approximativ blandad normaliseringsutföringsform motsvarande ekvation (6) ges av MATLAB®-implementeringen i Appendix D. I detta exempel används approximeringen i den första raden i ekvation (6).
Fördelen med ett sådant approximativt förfarande är att det är mycket snabbt eftersom endast maxelementet i varje rad bibehålls, medan resten av elementen approximeras med noll. Efter normalisering kommer den resulte- rande normaliserade matrisen endast att innehålla ettor och nollor. Detta betyder att en beräkningsmässigt komplex matrismultiplikation kan ersättas med en enkel omblandning av felkomponenter i felvektorn Au_ I en liknande approximering är det även möjligt att approximera egenskaps- matrisen A med en matris, i vilken endast maxvärdet i varje kolumn (sam- pelvektor) bibehålls. I en blandad normalisering är det även möjligt att använda båda approximeringarna, dvs. att använda både approximativ egenskaps- och sampelnormalisering.
Det finns flera möjliga val av stoppkriterier för det ovan beskrivna iterativa träningsförfarandet. 10 l5 20 25 519 507 10 En möjlighet är att använda medelvärdet av absolutvärdet av komponenter- na i Au, dvs.: N i än -unj (20) Nn=l lteratíonen upprepas så länge som en tröskel epsilon överskrids.
Ett alternativ är att använda maxfelkomponenten i Åu, dvs.: maxqün -unO (21) fl Om stora fel anses skadligare än mindre fel kan kvadratfelet användas, dvs.: A 2 u" - unl (22) N Z n=1 De ovan beskrivna stoppkriteríerna baseras på en absolut skalär felupp- skattning. Relativa uppskattningar är emellertid även möjliga. Som ett exempel har uppskattningen: N12 lân -unlz y:_____ N (23) Zuš n=1 använts í koden i appendixen.
Som ett alternativ kan iterationerna stoppas efter ett förbestämt antal iterationer. En kombination är även möjlig, dvs. om felet inte är tillräckligt litet efter ett förbestämt antal íteratíoner stoppas förfarandet. Detta kan 10 15 20 25 _ n, , , ., =. ., .a .a n.. i. 1- , .f v - -ø ~ c -» ._,, ,, . ..- . - . v ~ = , i . n . = » v , á q , , _, . _ , , | ...u inträffa till exempel när några felkomponenter i felvektorn förblir stora även efter många iterationer. I ett sådant fall kan de komponenter i länkvektorn c som har konvergerat alltjämt vara av intresse.
I många fall närmar sig nägra element i uppskattningen av länkvektorn Ö värdet noll under det iterativa förfarandet. Resultatet av detta är att de motsvarande raderna i egenskapsvektorn A kommer att ignoreras och inte att länkas till svarsvektorn. I enlighet med ett förfarande betecknat “komprimering” kan denna egenskap användas för att ta bort nollelementet i uppskattningen av länkvektorn (dess position lagras) och dess motsvarande rad i egenskapsmatrisen. En ny normalisering kan då utföras på den komprimerade egenskapsmatrisen, varpå det iterativa förfarandet återupp- tas. Denna komprimering kan utföras varje gång ett länkvektorelement närmar sig noll, företrädesvis när det underskrider en förbestämd gräns nära noll. Eftersom det borttagna värdets position lagras kan den fullständi- ga länkvektorn återskapas när de element som är skilda frän noll har konvergerat.
Ekvation (1) kan lösas genom att oberoende bestämma varje rad i länkmatris C, vilket har antytts ovan. Det beskrivna iterativa förfarandet kan emellertid även användas för fulla matriser. Som ett exempel kan (6) skrivas om som: ce + i) = ca) - (Um - (1)-AT AU (24) Û(z+i)=C(z+1)-A för matrisfallet.
Eftersom egenskapsmatrisen A allmänt är en gles matris (de flesta matris- elementen är O) föredras det att implementera de ovan beskrivna förfarande- na i ett beräkníngssystem som stödjer glesa matrisoperationer. Ett exempel 10 15 519 so? 12 pä ett sådant system är MATLAB® av MathWorks Inc. Detta kommer att reducera minneskraven eftersom endast element skilda från noll lagras explicit, och kommer även att påskynda beräkning eftersom multiplikationer och additioner endast utförs för element skilda från noll.
I beskrivningen ovan har uppfinningen beskrivits med hänvisning till ett system med artificiellt seende. Samma principer kan emellertid tillämpas på vilket percept-svarssystem eller associativt nät som helst, i vilket en egen- skapsvektor innefattandes endast icke-negativa element mappas till en svarsvektor (möjligen innefattandes endast 1 element) innefattandes endast icke-negativa element. Exempel är ljudbehandlingssystem och styrsystem som baseras på förändringar i sensorvaríabler, såsom temperatur tryck, position, hastighet, etc.
Det kommer att inses av fackmannen att olika modifikationer och ändringar kan göras av den föreliggande uppfinningen utan att avvika från dess ram, som definieras av de bifogade patentkraven. lO l5 20 25 30 519 507 - | . ; .e 13 APPENDIX A I MATLAB®-notatíon kan det blandade normaliseríngsförfarandet skrivas SOITlI Ns=sum(A); Asn=(diag(l./Ns)*A')'; Nf=sum(A'); Afn=diag(1./Nf>*A; epsilon=0.05; c_hat=O; u_hat=O; %Sampelnormer av A %Sampelnormalisering av A %Egenskapsnormer av A %Egenskapsnormalisering av A %Önskad relativ noggrannhet %Ursprunglig uppskattning av %c=nollvektor %Ursprunglig uppskattning av %u=nollvektor while norm(u_hat-u)/norm(u)>ep$ilon c_hat=c_hat-(u_hat-u)*Afn'; u_hat=c_hat*Asn; end; %Uppdatera uppskattning av c %Uppdatera uppskattning av u Här betecknar “.” elementvisa operationer och “ ' ” betecknar transponat.
APPENDIX B I MATLAB®-notation kan normalíseringsförfarandet i egenskapsdomänen skrivas som: Nf=sum(A)*A'; Afn=diag(l./Nf)*A; epsilon=0.05; c_hat=O; %Egenskapsnormer av A %Egenskapsnormalisering av A %Önskad relativ noggrannhet %Ursprunglig uppskattning av %c=nollvektor lO 15 20 25 30 35 519 507 Ffïf- 14 u_hat=0; %Ursprunglig uppskattning av %u=nollvektor while norm(u_hat~u)/norm(u)>epsilon c_hat=c_hat-(u_hat-u)*Afn'; u_hat=c_hat*A; %Uppdatera uppskattning av c %Uppdatera uppskattning av u end; APPENDIX C I MATLAB®-notatíon kan norrnaliseringsförfarandet i sampeldornänen skrivas som: Ns=sum(A)*A'; Asn=diag(l./Ns)*A; %Sampelnormer av A %Sampelnormalisering av A epsilon=0.05; %Önskad relativ noggrannhet c_hat=O; %Ursprunglig uppskattning av %c=nollvektor u_hat=O; %Ursprunglig uppskattning av %u=nollvektor while norm(u_hat-u)/norm(u)>epsilon c_hat=c_hat-(u_hat~u)*A'; u_hat=c_hat*Asn; %Uppdatera uppskattning av c %Uppdatera uppskattning av u end; APPENDIX D I MATLAB®-notatíon kan det blandade approxírnatíva normaliseríngsförfa- randetskñvassonm [ra ca]=size(A); %Bestäm antalet rader och kolumner [av ap]=max(A'); %Finn maximum i egenskapsfunktioner 10 519 Ns=av*A; Asn=(diag(l./Ns)*A')'; epsilon=0.05; C_hat=O; u_hat=O; -| nu u 1 n -« m -~ | -f u. . . -« 1 . u. - . 1. , -. . .a < - . » - n »mv v. ~.. .- ~ -. 1- . A . . - , . i _ . . . , f f , . . _ _., v.. 1. f.. .Hz-- %Sampeldomännormer %Sampelnormalisering av A %Önskad relativ noggrannhet %Ursprunglig uppskattning av %c=nollvektor 6 Ursprunglig uppskattning av %u=nollvektor while norm(u_hat-u)/norm(u)>epsilon end; delta_u=u_hat-u; c_hat=c_hat-delta_u(ap); u_hat=c_hat*Asn; %Uppdatera uppskattning av c %Uppdatera uppskattning av u 519 507 16 REFERENSER [1] wo 00/58914 [2] Using MATLAB, MathWorks Inc, 1996, sidorna 4-2 - 4-3, 4-13 - 4-14
Claims (21)
1. l. Träningsförfarande för system för artiñciellt seende, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelvektor som innefattar svarssampels- kalärer; bestämning av en länkvektor som länkar egenskapsmatrisen till svarssampelvektorn, kännetecknat av ett iterativt förfarande för bestämning av en länkvektor, som innefattandar stegen: bestämning av en feluppskattning av svarssampelvektorn i svarssam- pelvektorns domän; transformering av feluppskattningen av svarssampelvektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvektorn; transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelvektorn är tillräckligt liten.
2. Förfarande enligt patentkrav 1, kännetecknat av ett iterativt steg, som innefattandar: bestämning av en feluppskattning av svarssampelvektorn som repre- senterar skillnaden mellan en nuvarande uppskattning av svarssampelvek- torn och svarssampelvektorn; användning av transponaten av egenskapsmatrisen för transformering av feluppskattningen av svarssampelvektorn till feluppskattningen av länkvektorn; bildande av en uppdaterad uppskattning av länkvektorn genom subtrahering av feluppskattningen av länkvektorn från en nuvarande uppskattning av länkvektorn; lO 15 20 25 519 507 18 användning av egenskapsmatrisen för transformering av den uppdate- rade uppskattningen av länkvektorn till en uppdaterad uppskattning av svarssampelvektorn.
3. Förfarande enligt patentkrav 1, kännetecknat av ett iterativt steg, som innefattandar: användning av egenskapsmatrisen för transformering av en nuvarande uppskattning av länkvektorn till en uppdaterad uppskattning av svarssam- pelvektorn; bestämning av en feluppskattning av svarssampelvektorn som repre- senterar skillnaden mellan den uppdaterade uppskattningen av svarssam- pelvektorn och svarssampelvektorn; användning av transponatet av egenskapsmatrisen för transformering av feluppskattningen av svarssarnpelvektorn till en feluppskattning av länkvektorn; bildande av en uppdaterad uppskattning av länkvektorn genom subtrahering av feluppskattningen av länkvektorn från den nuvarande uppskattningen av länkvektorn.
4. Förfarande enligt patentkrav 2 eller 3, kännetecknat av egenskapsnor- malisering av feluppskattningen av länkvektorn.
5. Förfarande enligt patentkrav 4, kännetecknat av en egenskapsnormalise- ring som representeras av diagonalelementen i matrisen: N H n n I/Zízafuai n 1 h=l 2 71 n @ i I ilvl2 /___Å lvl== Q *Ä Q Nä Ö 10 15 20 25 519 507 ., ...n t, . - . . = , . . . ,. 19 där a; betecknar egenskapsmatrísens element, N representerar antalet egenskapssampelvektorer, samt H representerar antalet komponenter i varje egenskapssampelvektor.
6. Förfarande enligt patentkrav 2 eller 3, kännetecknat av samplingsnorma- lísering av den uppdaterade uppskattníngen av svarssampelvektorn.
7. Förfarande enligt patentkrav 6, kännetecknat av en sampelnormalisering som representeras av diagonalelementen i matrisen: H N l/zízazjaà O 0 h=l n=1 NS- I/Élš där a; betecknar egenskapsmatrisens element, N representerar antalet egenskapssampelvektorer, samt H representerar antalet komponenter i varje egenskapssampelvektor.
8. F örfarande enligt patentkrav 2 eller 3, kännetecknat av egenskapsnormalisering av feluppskattníngen av länkvektorn; samt sampelnormalísering av den uppdaterade uppskattningen av svars- sampelvektorn. 15 20 .. . , .. H J; n v. l... , . . .F .. , . .. . , .. . . . I I -- . . . = . . . , . v . , _. v , . . , . . . . . , . _, -;-, _, . , . V - . . , ..
9. Förfarande enligt patentkrav 8, kännetecknat av en egenskapsnormalise- ring som representeras av diagonalelementen i matrisen: l/Eaf 0 0 n=l N NF_ o 1/2613 o n=l . 0 . 0 N o o i/Eaç, n=l och en sampelnormaliseríng som representeras av diagonalelementen i matrisen: H 1 i/Eah o o h=1 H 2 NS_ 0 l/Zah O h=1 0 0 H N 0 0 l/Zah h=1 där a; betecknar egenskapsmatrisens element, N representerar antalet egenskapssampelvektorer, samt H representerar antalet komponenter i varje egenskapssampelvektor.
10. Förfarande enligt något av de föregående patentkraven 2-9, känneteck- nat av selektiv ersättning av egenskapsmatrisen med en approximativ egenskapsmatris, i vilken endast maxelementet bibehålls i varje rad och alla andra element ersätts med noll. lO 15 20 25 30 u. m, . . i. u i. f: a - » » 1- . n y n; ,ø » e. . ß i- u ~ i,- H 1 - -f p - v . - . . 1 v »J- ..= _, i, , . . i. . s - . . _ - . »| . i i 1 . v 1 - . - . . v | . . « - , , - - . | . »Hua v i 21
11. ll. Förfarande enligt något av de föregående patentkraven 2-10, känne- tecknat av selektiv ersättning av egenskapsmatrisen med en approximatív egenskapsmatris, i vilken endast maxelementet bibehålls i varje kolumn och alla andra element ersätts med noll.
12. Förfarande enligt något av de föregående patentkraven, kännetecknat av att alla element skilda från noll i egenskapsmatrisen har samma tecken; samt alla element skilda från noll i svarssampelvektorn har samma tecken.
13. Träningsförfarande för system för artíficiellt seende, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelmatris som innefattar svarssampel- vektorer; bestämning av en länkmatris som länkar egenskapsmatrisen till svarssampelmatrisen, kännetecknat av ett iterativt förfarande för bestäm- ning av en länkmatris, som innefattandar stegen: bestämning av en feluppskattning av svarssampelmatrísen i svars- sampelmatrisens domän; transformering av feluppskattningen av svarssampelrnatrisen till en motsvarande feluppskattning av länkmatrisen i länkmatrisens domän; bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkmatrisen; transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrisens domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelmatrisen är tillräckligt liten.
14. Träningsförfarande för ett associativt nät, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelvektor som innefattar svarssampel- skalårer; lO 15 20 25 30 Q | » ~ | u 519 507 = t > , i ; ~ . | < v . ~ - , . . . 22 bestämning av en länkvektor som länkar egenskapsmatrisen till svarssampelvektorn, kännetecknat av ett iterativt förfarande för bestämning av en länkvektor, som innefattandar stegen: bestämning av en feluppskattning av svarssampelvektorn i svarssam- pelvektorns domän; transformering av feluppskattningen av svarssampelvektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvektorn; transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelvektorn är tillräckligt liten.
15. Träningsförfarande för ett associativt nät, innefattande stegen: bildande av en egenskapsmatris som innefattar egenskapssampelvek- torer och en motsvarande svarssampelmatris som innefattar svarssampel- vektorer; bestämning av en länkmatris som länkar egenskapsmatrisen till svarssampelmatrisen, kännetecknat av ett iterativt förfarande för bestäm- ning av en länkmatris, som innefattandar stegen: bestämning av en feluppskattning av svarssampelmatrisen i svars- sampelmatrisens domän; transformering av feluppskattningen av svarssampelmatrisen till en motsvarande feluppskattning av länkmatrisen i länkmatrisens domän; bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkmatrisen; transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrisens domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelmatrisen är tillräckligt liten. lO 15 20 25 30 519 507 m» m 23
16. Apparat för länkvektorträning för ett system för artiñciellt seende, inne- fattande organ för bildande av en egenskapsmatris som innefattar egen- skapssampelvektorer och en motsvarande svarssampelvektor som innefattar svarssampelskalärer, kännetecknar! av: organ (10) för bestämning av en feluppskattning av svarssampelvek- torn i svarssampelvektorns domän; organ (12) för transformering av feluppskattningen av svarssampel- vektorn till en motsvarande feluppskattníng av länkvektorn i länkvektorns domän; organ (14, 16) för bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvek- torn; samt organ (18) för transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän.
17. Apparat för länkvektorträning för ett system för artificiellt seende, inne- fattande organ för bildande av en egenskapsmatrís som innefattar egen- skapssampelvektorer och en motsvarande svarssarnpelmatris som innefattar svarssampelvektorer, kännetecknad av: organ (10) för bestämning av en feluppskattning av svarssampelmatri- sen i svarssampelmatrisens domän; organ (12) för transformering av feluppskattningen av svarssampel- matrisen till en motsvarande feluppskattning av länkmatrisen i länkmatri- sens domän; organ (14, 16) för bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkma- trisen; samt organ (18) för transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrí- sens domän. 10 15 20 25 BO 519 507 » » » . . .- 24
18. Apparat för länkvektorträning för ett assocíativt nät, innefattande organ för bildande av en egenskapsmatrís som innefattar egenskapssampelvektorer och en motsvarande svarssampelvektor som innefattar svarssampelskalärer, kännetecknad av: organ (10) för bestämning av en feluppskattning av svarssampelvek- torn i svarssampelvektorns domän; organ (12) för transformering av feluppskattningen av svarssampel- vektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; organ (14, 16) för bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvek- torn; samt organ (18) för transformeríng av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän.
19. Apparat för länkvektorträning för ett associativt nät, innefattande organ för bildande av en egenskapsmatris som innefattar egenskapssampelvektorer och en motsvarande svarssampelmatris som innefattar svarssampelvektorer, kännetecknad av: organ (10) för bestämning av en feluppskattníng av svarssampelmatri- sen i svarssampelmatrisens domän; organ (12) för transformeríng av feluppskattningen av svarssampel- matrisen till en motsvarande feluppskattning av länkmatrisen i länkmatri- sens domän; organ (14, 16) för bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkma- trisen; samt organ (18) för transformering av uppskattningen av länkmatrisen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatri- sens domän. lO 15 20 25 30 . . - ; . ~ 1 - . « n - o - - 1 ~ . n . » 519 507 ut» m» 25
20. Datorprogramprodukt för bestämning av en länkvektor som länkar en egenskapsmatris till en svarssampelvektor, innefattande programelement för utförande av stegen: bestämning av en feluppskattning av svarssampelvektorn i svarssam- pelvektorns domän; transformering av feluppskattningen av svarssampelvektorn till en motsvarande feluppskattning av länkvektorn i länkvektorns domän; bestämning av en uppskattning av länkvektorn i länkvektorns domän genom användning av feluppskattningen av länkvektorn; transformering av uppskattningen av länkvektorn till en motsvarande uppskattning av svarssampelvektorn i svarssampelvektorns domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelvektorn är tillräckligt liten.
21. Datorprogramprodukt för bestämning av en länkmatris som länkar en egenskapsmatris till en svarssampelmatris, innefattande programelement för utförande av stegen: bestämning av en feluppskattning av svarssampelmatrisen i svars- sampelmatrisens domän; transformering av feluppskattningen av svarssampelmatrisen till en motsvarande feluppskattning av länkmatrisen i länkmatrisens domän; bestämning av en uppskattning av länkmatrisen i länkmatrisens domän genom användning av feluppskattningen av länkmatrisen; transformering av uppskattningen av länkmatrísen till en motsvarande uppskattning av svarssampelmatrisen i svarssampelmatrisens domän; upprepning av de föregående stegen tills feluppskattningen av svars- sampelmatrisen är tillräckligt liten.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0003975A SE519507C2 (sv) | 2000-10-31 | 2000-10-31 | Metod och apparat för träning av associativa nät för artificiellt seende |
EP01979144A EP1340161A1 (en) | 2000-10-31 | 2001-10-19 | Training of associative networks |
PCT/SE2001/002285 WO2002037302A1 (en) | 2000-10-31 | 2001-10-19 | Training of associative networks |
AU2002211131A AU2002211131A1 (en) | 2000-10-31 | 2001-10-19 | Training of associative networks |
JP2002539981A JP4044436B2 (ja) | 2000-10-31 | 2001-10-19 | 人工視覚システムトレーニング方法、連想型ネットワークトレーニング方法、人工視覚システムリンクベクトルトレーニング装置、人工視覚システムリンク行列トレーニング装置、連想型ネットワークトレーニング装置及びコンピュータプログラム製品 |
US10/399,666 US7333961B2 (en) | 2000-10-31 | 2001-10-19 | Training of associative networks |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0003975A SE519507C2 (sv) | 2000-10-31 | 2000-10-31 | Metod och apparat för träning av associativa nät för artificiellt seende |
Publications (3)
Publication Number | Publication Date |
---|---|
SE0003975D0 SE0003975D0 (sv) | 2000-10-31 |
SE0003975L SE0003975L (sv) | 2002-05-01 |
SE519507C2 true SE519507C2 (sv) | 2003-03-04 |
Family
ID=20281648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE0003975A SE519507C2 (sv) | 2000-10-31 | 2000-10-31 | Metod och apparat för träning av associativa nät för artificiellt seende |
Country Status (6)
Country | Link |
---|---|
US (1) | US7333961B2 (sv) |
EP (1) | EP1340161A1 (sv) |
JP (1) | JP4044436B2 (sv) |
AU (1) | AU2002211131A1 (sv) |
SE (1) | SE519507C2 (sv) |
WO (1) | WO2002037302A1 (sv) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5249259A (en) * | 1990-01-23 | 1993-09-28 | Massachusetts Institute Of Technology | Genetic algorithm technique for designing neural networks |
US5995539A (en) * | 1993-03-17 | 1999-11-30 | Miller; William J. | Method and apparatus for signal transmission and reception |
US6134537A (en) * | 1995-09-29 | 2000-10-17 | Ai Ware, Inc. | Visualization and self organization of multidimensional data through equalized orthogonal mapping |
US6496184B1 (en) * | 1998-11-30 | 2002-12-17 | William T. Freeman | Method for inferring scenes from test images and training data using probability propagation in a markov network |
WO2000055790A2 (en) * | 1999-03-15 | 2000-09-21 | Marketswitch Corp. | Gradient criterion method for neural networks and application to targeted marketing |
SE513728C2 (sv) * | 1999-03-26 | 2000-10-30 | Goesta Granlund | Förfarande och system för artificiellt seende |
-
2000
- 2000-10-31 SE SE0003975A patent/SE519507C2/sv not_active IP Right Cessation
-
2001
- 2001-10-19 EP EP01979144A patent/EP1340161A1/en not_active Withdrawn
- 2001-10-19 AU AU2002211131A patent/AU2002211131A1/en not_active Abandoned
- 2001-10-19 JP JP2002539981A patent/JP4044436B2/ja not_active Expired - Fee Related
- 2001-10-19 US US10/399,666 patent/US7333961B2/en not_active Expired - Fee Related
- 2001-10-19 WO PCT/SE2001/002285 patent/WO2002037302A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP1340161A1 (en) | 2003-09-03 |
WO2002037302A1 (en) | 2002-05-10 |
JP2004513432A (ja) | 2004-04-30 |
AU2002211131A1 (en) | 2002-05-15 |
SE0003975D0 (sv) | 2000-10-31 |
SE0003975L (sv) | 2002-05-01 |
JP4044436B2 (ja) | 2008-02-06 |
US7333961B2 (en) | 2008-02-19 |
US20040044634A1 (en) | 2004-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Least squares based iterative algorithms for identifying Box–Jenkins models with finite measurement data | |
Billings et al. | Least squares parameter estimation algorithms for non-linear systems | |
Panityakul et al. | On estimating residual heterogeneity in random-effects meta-regression: a comparative study | |
Dehestani et al. | Combination of Lucas wavelets with Legendre–Gauss quadrature for fractional Fredholm–Volterra integro-differential equations | |
CN110472417B (zh) | 基于卷积神经网络的恶意软件操作码分析方法 | |
JP2974900B2 (ja) | 自律進化型ハードウェア設計システム | |
White et al. | Neural networks predict fluid dynamics solutions from tiny datasets | |
Jafari | A parameter estimation approach based on binary measurements using maximum likelihood analysis-application to MEMS | |
CN112183756A (zh) | 一种可选择的精确量子主成分分析方法及应用 | |
Kirch | Block permutation principles for the change analysis of dependent data | |
He et al. | A neural network approach for fault diagnosis of large-scale analogue circuits | |
CN115831295B (zh) | 材料本构方程参数标定方法、装置及计算机设备 | |
SE519507C2 (sv) | Metod och apparat för träning av associativa nät för artificiellt seende | |
Seiffert | Training of large-scale feed-forward neural networks | |
Marsi et al. | On reduced-complexity approximations of quadratic filters | |
Chen et al. | Expectation maximization identification algorithm for time-delay two-dimensional systems | |
US20080168297A1 (en) | Method and apparatus for characterizing properties of electronic devices depending on device parameters | |
JPH0464059A (ja) | 分析データ処理装置 | |
KR20040007612A (ko) | 미분 방정식 시스템에서 불일치에 관한 에러 정보를제공하는 방법 | |
Yuce et al. | Analysis of numerical methods in fractional order control systems with time delay and large time coefficient | |
Koellermeier | Error estimators for adaptive simulation of rarefied gases using hyperbolic moment models | |
JP2006195542A (ja) | モデル同定装置およびモデル同定プログラム | |
Kang et al. | Effects of Phenotypic Variation on Evolutionary Dynamics | |
RU2362265C1 (ru) | Цифровой интеллектуальный итеративный фильтр | |
Anton et al. | Computer aided modeling of static and dynamic transfer characteristics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NUG | Patent has lapsed |