SE528068C2 - Igenkänning av 3D föremål - Google Patents
Igenkänning av 3D föremålInfo
- Publication number
- SE528068C2 SE528068C2 SE0402048A SE0402048A SE528068C2 SE 528068 C2 SE528068 C2 SE 528068C2 SE 0402048 A SE0402048 A SE 0402048A SE 0402048 A SE0402048 A SE 0402048A SE 528068 C2 SE528068 C2 SE 528068C2
- Authority
- SE
- Sweden
- Prior art keywords
- shape
- representation
- class
- dimensional
- objects
- Prior art date
Links
Classifications
-
- G06K9/00201—
-
- G06K9/00221—
-
- G06K9/00288—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Description
25 30 35 528 068 2 Wheeler G.V, Walker l<.N and Taylor C.J., View-based Active Appearance Models, Image and Vision Computing, 20(9-10), p.657-664, 2002.) där flervymodeller används men modellerna innehåller ingen explicit eller konsistent 3D data. Det existerar också metoder för att deformera en 3D modell av ett objekt för att anpassa till 2D projektioner av föremålet I bilder så som i Blanz and Vetter ([3]: Blanz V. and Vetter T., Face Recognition Based on Fitting a 3D Morphab/e Model, IEEE Trans. on Pattern Analysis and Machine Intelligence, 25(9), p.1063-1073, 2003.). Dessa metoderär väldigt beräkningskrävande och kräver ofta manuellt ingripande. Relaterade patent är US6556196/EP1039417 (Method and apparatus for the processing of images) som beskriver en metod för morning av en 3D modell så att den blir en 3D representation av objektet I bilden genom att minimera projektionsfelet i bilden.
Ett vanligt problem för bildbaserad igenkänning är att detektera 2D formen av objektet i bilden, dvs. att hitta relevanta bildområden. Nyare metoder för att detektera objekt i bilder medför vanligtvis en skanning av hela bilden i olika skalor efter föremålsspecifika bildmönster och en användning av klassificerare för att avgöra om området är relevant eller inte. De senaste utvecklingarna föreslår användandetav Support Vector Machines (SVM) för detta ändamål. Ett nyckelsteg är extraherandet av särdrag i bilden, dvs. områden i bilden såsom hörn, kanter och andra intressepunkter. Detta görs vanligtvis med hjälp av korrelationsbaserade metoder med templat eller med hjälp av kantbaserade metoder med bildgradienter.
För en översikt av metoder för ansiktsdetektion, se Zhao and Chellappa ([4}: Zhao W., Chellappa R., Rosenfeld A and Phillips P.J, Face Recognition: A Literature Survey, Technical report CAR-TR-948, 2000.) och referenser däri. En översikt av nuvarande bildbaserade metoder för ansiktslgenkänning presenteras i [4].
Vid användandet av bildbaserade metoder för identifiering och verifiering finns det två huvudsakliga problem,åbelysningsvariation och pose-variation.
Belysningsvariation kommer att påverka alla korrelationsbaserade metoder där områden av bilder jämförs eftersom pixelvärden varierar med förändrad belysning.
Dessutom kan spekulära reflektioner ge upphov till höga förändringar i pixelintensitet. Pose-variation inträffar eftersom projektionen i bilden kan förändras drastiskt när ett föremål roterar. Dessa två problem har dokumenterats i många ansiktsigenkänningssystem och är oundvikliga när bilder tas i okontrollerade miljöer. De flesta kända metoder misslyckas med att robust hantera dessa problem. 10 15 20 25 30 35 528 068 3 Belysningsproblemet hanteras av uppfinningen eftersom ingen bildkorrelation eller jämförelse av bildområden utförs. Särdrag såsom horn, vilka är robusta för intensitetsförändringar, beräknas istället, vilket gör form rekonstruktionen i stort sett okänslig för belysning och spekulära reflektioner. Uppfinningen hanterar pose- problemet genom att använda ett godtyckligt antal bilder med olika pose för att träna den statistiska modellen. Vilken delmängd som helst av bilderna, så få som en enda bild, kan sedan användas för att beräkna föremålets 3D form.
Sammanfattning av uppfinningen Uppfinningen består av en statistisk modell för formvariationer inom en klass av föremål som relaterar den tvådimensionella (2D) projektionen i bilder till föremålets tredimensionella (3D) form samt användandet av 3D formlnformation för identifiering eller verifiering av föremålet. Dessutom relaterar föreliggande uppfinning till en anordning för bildbehandling eller ett system för att implementera en sådan metod. Processen är helt automatisk och kan t.ex. användas för biometrisk identifiering från ansiktsbilder eller identifiering av föremål i t.ex. röntgenbilder för flygplatssäkerhet. Den beräknade 3D formen är den troligaste formen som är konsistent med 2D projektionerna, dvs. bilderna. Den statistiska modellen behöver en databank, kallad träningsdata, där 3D positioner för bild- särdragen är kända, för att träna modell parametrarna. Sådan datasampling kan göras med hjälp av t.ex. två- eller flervystereo eller 3D skanners. När modellparametrarna väl är tränade, kan 3D form beräknas med hjälp av en eller flera bilder. Med föreliggande uppfinning används sedan 3D formen tillsammans med 2D bilddata för att identifiera eller verifiera föremålet som en specifik instans av enhgiven klass, t.ex. ett ansikte som tillhör en specifik individ. En positiv (eller negativ) identifiering initierar korrekt handling i enlighet med den föreliggande uppfinningen.
I en föredragen utföringsform av uppfinningen presenteras en metod för föremålsigenkänning av tre dimensionella (3D) föremål, metoden består av stegen: - Erhålla minst en tvådimensionell (2D) representation av föremålet; - Detektera bildsärdrag i den erhållna 2D representationen; - Beräkna en högst trolig 3D form av ett föremål tillhörande en viss klass av i föremål som är konsistent med 2D bilder av föremålet med hjälp av minst en bild där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och 10. 15 20 25 30 35- ,528 068 4 - Jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen.
I, metoden kan den erhållna 3D formen vara en fullständig ytmodell.
Fortfarande i metoden, kan den fullständiga ytmodellen beräknas från 2D eller 3D särdrag.
I en annan aspekt av metoden enligt föreliggande uppfinning, kan föremålsklassen innehålla icke-rigida föremål och den statistiska formmodellen kan tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen i den icke- rigida föremålsklassen.
Metoden kan vidare omfatta steget att identifiera ett specifikt föremål från en föremålsklass eller stödja ldentifieringen av ett specifikt föremål med hjälp av den beräknade 3D formen.
Metoden kan dessutom omfatta steget att verifiera identiteten för ett specifikt Föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av den beräknade 3D formen.
Metoden kan vidare omfatta steget att: anpassa en yta till den beräknade 3D formen med hjälp av en tränad statistisk formmodell för föremålets yta för att regularisera ytformen på ett sätt som är specifikt för föremålsklassen.
I metoden kan föremålet vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en industriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål.
I metoden kan referensrepresentationen lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort.
I en annan uföringsform av den föreliggande uppfinningen presenteras en anordning för föremålsigenkänning av tre dimensionella (3D) föremål, bestående av: 10 15 20 25 30 35 528 068 5 - Medel för att erhålla åt minstonde en tvådimensionell (2D) representation av föremålet; - Medel föratt detektera bildsärdrag i den erhållna 2D representationen; - Medel för att beräkna en högst trolig 3D form av ett föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av föremålet (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och - Medel för att jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen.
Il anordningen kan den erhållna 3D formen vara en fullständig ytmodell och den fullständiga ytmodellen kan beräknas från 2D eller 3D särdrag.
I anordningen kan föremålsklassen innehålla icke-rigida föremål och den statistiska formmodellen kan tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen i den icke-rigida föremålsklassen.
Anordningen-kan vidare omfatta medel för att identifiera ett specifikt föremål från en föremålsklass eller stödja identifieringen av ett specifikt föremål med hjälp av den beräknade 3D formen.
Anordningen kan dessutom omfatta medel för att verifiera identiteten för ett specifikt föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av den beräknade 3D formen.
Anordningen kan vidare omfatta medel för att: anpassa en yta till den beräknade 3D formen med hjälpe av en tränad statistisk formmodell för föremålets yta för att regularisera ytformen på ett sätt som är specifikt för föremålsklassen.
I anordningen kan föremålet vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en lndustriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål.
I anordningen kan den beräknade 3D formen av blodkärl eller organ beräknad från 2D projektioner, t.ex. med hjälp av röntgenbilder, användas för att navigera styrbara katetrar eller stödja läkare genom att visa den beräknade 3D formen. 10 15 20 25 30 35 523 (168 De beräknade 3D formerna av ansiktssärdrag kan användas i anordningen för att identifiera eller verifiera identiteten av en individ i ett passagekontrollssystem eller säkerhetssystem, vilket resulterar i att individen accepteras eller refuseras.
Anordningen kan vidare omfatta ett gränssnitt för att kommunicera med ett personligt id-kort där referensrepresentationen är lagrad.
I ännu en utföringsform av den föreliggande uppfinningen presenteras ett datorprogram lagrat i ett av dator läsbart lagringsmedia och utförd i en beräkningsenhet för föremålsigenkänning av tre dimensionella (3D) föremål, bestående av: - En instruktionsuppsättning för att erhålla minst en externt förvärvad två- dimensionell (2D) representation av föremålet; ~ En instruktionsuppsättning för att detektera bildsärdrag i den erhållna 2D representationen ; - En instruktionsuppsättning för att beräkna en högst trolig 3D form av ett föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av föremålet med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och - En instruktionsuppsättning för att jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen.
Datorprogrammet kan vidare omfatta en instruktionsu ppsättning för att identifiera och/eller verifiera identitet av ett individuellt föremål från en föremålsklass eller stödja identifiering och/eller verifiering av ett individuellt föremål med hjälp av den beräknade 3D formen.
I en annan utföringsform av den föreliggande uppfinningen presenteras ett system för föremålsigenkänning av ett tre dimensionellt (3D) föremål, bestående av: - Medel för att erhålla åtminstone en tvådimensionell (2D) representation av föremålet; - Medel för att detektera bildsärdrag i den erhållna 2D representationen; - Medel för att beräkna en högst trolig 3D form av ett föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av föremålet med 15 _20 25 30 35 528 oss 7 hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; - Medel för att jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen; och - Medel för att reagera på ett resultat från medlet för jämförelse.
Systemet kan vidare omfatta medel för att identifiera och/eller verifiera identitet av ett individuellt föremål- från en föremålsklass eller stödja identifiering och/eller i verifiering av ett individuellt föremål med hjälp av den beräknade 3D formen. 10 I systemet kan referensrepresentationen lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort.
Kort beskrivning av ritningarna I det följande kommer uppfinningen beskrivas på ett icke begränsande sätt och mer i detalj med referens till exemplifierade utföringsformer illustrerade i medföljande ritningar, i vilka: Fig. 1 illustrerar' en tvåstegsprocedur för att beräkna 3D data från en indatabild.
Fig. 2 illustrerar en process för att anpassa en yta till en beräknad 3D form.
Fig. 3 är ett schematiskt blockdiagram av en anordning enligt föreliggande uppfinning. , Fig. 4 illustrerar ett schematiskt blockdiagram av stegen för en metod enligt föreliggande uppfinning.
Fig. 5 är en schematiskt illustration av ett system enligt föreliggande uppfinning.
Detaljerad beskrivning av uppfinningen Uppfinningen består av ett bildbehandlingssystem för automatisk återskapande av 3D form från bilder av föremål tillhörande en bestämd klass. Denna 3D 10 15 20 25 30 35 528 068 8 rekonstruktion görs genom att upprätta en statistisk formmodell, betecknad särdragsmodellen, som relaterar 2D bildsärdrag, t.ex. punkter eller kurvor, till deras motsvarande 3D positioner. En sådan modell tränas, d.v.s. modellparametrarna skattas från träningsdata där 2D-3D korrespondensen är känd.
Denna träningsfas (inlärningsfas) kan göras med hjälp av något lämpligt system för att erhålla sådan 2D-3D korrespondens, detta inkluderar, men är inte begränsat till, binokulära och multi-vy bildframtagningssystem, 3D skanners (djupskanners) eller liknande uppställningar. I denna process mäts det intressanta föremålet och en referensmodell av föremålet beräknas vilken kan användas i vidare bildanalys såsom kommer att 'beskrivas nedan.
Givet en indatabild är proceduren för att återskapa 3D formen en tvåstegsprocedur.
Först hittas bildsärdrag som t.ex. punkter, kurvor och konturer i bilderna, t.ex. med hjälp av tekniker såsom t.ex. ASM [1] eller gradientbaserade metoder eller klassificerare såsom t.ex. SVM. Sedan beräknas 3D form med hjälp av den tränade särdragsmodellen. Detta illustreras i Figur 1. Fig 1a illustrerar en bild av ett ansikte som ska analyseras, Fig. 1b illustrerar detektionen av föremåls-särdrag för att användas i analysen och forminformationsprocessen, och Fig. lc illustrerar den beräknade 3D formen som kan användas i igenkänningsprocessen.
Möjligheten att utöka 3D formrepresentationen från punkter och kurvor till en fullständig ytmodell genom att anpassa en yta till 3D data finns också. Detta illustreras i Figur 2, där Fig. 2a illustrerar den beräknade 3D formen, 2b illustrerar en anpassad yta till 3D data, och Fig. 2c illustrerar en 3D renderad ytmodell av den anpassade ytan.
Särdragsmodellen Antag att det finns ett antal element i en d-dimensionell vektor t, till exempel, en samling av 3D punkter i något normalíserat koordinatsystem. Startpunkten för härledningen av modellen är att elementen i t kan relateras till någon underliggande vektor u av dimension q där förhållandet är linjärt: t=Wu+y _ (1) där W är en matris av storlek d x q och p är en d-vektor som tillåter nollskilt medelvärde. När modellparametrarna W och ,u har tränats från exempel hålls de 10_ 15 2G 25 30 528 06% 9 fixa. Mätningarna görs emellertid i bilderna, vilka vanligtvis är en olinjär funktion av 3D särdragen enligt projektionsmodellen för den relevanta bildgivande anordningen.
Beteckna projektionsfunktionen som projicerar alla 3D särdrag till 2D särdrag med f : Rd -> Re, för en eller flera bilder. Dessutom behövs ett koordinatbyte på 3D särdragen för att passa den faktiska projektionsfunktlonen. Beteckna denna avbildning T : R” -> Rd . Typiskt är Ten likformighetstransformation på världskoordinatsystemet. Alltså projicerar f(T(t)) all normaliserad 3D data till alla bilder. Slutligen behövs en brusmodell specificeras. Man kan anta att bildmätningarnaär oberoende och normalfördelade, på samma sätt kan de underliggande variablerna antas vara Gaussfördelade med varians ett u ~ N(0,I).
Alltså, totalt sett: En =f(T(f))+$=f(T(W“+/1))+2 (2) där e ~ N(0, 0-2 I) för någon skalär o. Modellen är relaterad till PPCA, cf. Tipping and Bishop ([5]: 'fipping M.E., Bishop C.M., Probabilistic Principal Component Analysis, Phil. Trans. Royal Soc. London B, 61(3), p.611-622, 1999.), men det finns också skillnader p.g.a. olinjariteten i f(.). Innan modellen kan användas behöver modellens parametrar skattas från träningsdata. Givet att det är en probabilistisk modell görs detta bäst med maximum likelihood (ML). Antag att det finns givet n exempel {t,,,_, , ML skattningen för W och ,u erhålls genom att minimera: fl ll f... -flzotmlz + ll u. lf] (sl 1:1 över alla -okända parametrar. Standardavvikelsen o kan skattas a priori från data.
När modellparametrarna W och u har tränats från exempel hålls de fixa. I praktiken optimerar man alternerande över (WW) och {u,}'.“ |= , med gradientmetoder för att minimera (A3). Startskattningar kan fås genom att triangulera 3D struktur från varje mängd bilder och sedan använda PPCA algoritmer för den linjära delen.
Normaliseringen IK.) kan väljas så att varje normaliserat 3D exempel har medelvärde noll och varians ett. 10 15 20A 25 30 35 528 068 10 Det finns tre olika typer av geometriska särdrag inbäddade i modellen.
Punkter: En 3D punkt som är synlig i m>1 bilder representeras i vektorn t med sina 3D koordinater (X,Y,Z). För punkter synliga i endast en bild, m=1, finns ingen djupinformation tillgänglig, och sådana punkter representeras liknande som för konturpunkter.
Kurvor: En kurva representeras i modellen av ett antal punkter längs kurvan. Vid träning av modellen är det viktigt att parametrise ra varje 3D kurva så att varje punkt på kurvan approximativt motsvarar samma punkt på korresponderande kurva i de andra exemplen.
Konturer: Som för kurvor, kan konturer samplas (i bilderna). Det finns emellertid ingen 3D information tillgänglig för konturerna eftersom de är vyberoende. Ett enkelt sätt att hantera detta är att behandla punkter på konturer som 3D punkter med en konstant approximativ (men grov) djupskattning.
Hitta bildsårdrag Vid en online-händelse av ett nytt indata exempel vill man automatiskt hitta de underliggande variablerna u och, i tur och ordning, beräkna skattningar av 3D särdrag t. Den komponent som saknas i modellen är förhållandet mellan 2D bildsårdrag och de underliggande grånivå- (eller färg-) värdena vid dessa pixlar.
Det finns flera sätt att lösa detta, t.ex. med hjälp av en ASM (betecknad grånivåmode/I) eller detektorbaserade metoder.
Grånivåmodellen Återigen används en linjär modell (PPCA). Med användandet av samma notation som i (1), men nu med underskript gl för grånivå, kan modellen skrivas tg! = glugz +flg1+3g1 (4) där tg, är en vektor innehållande grånivåvärdena för alla 2D bildsårdrag och ag, är Gaussfördelat brusi mätningarna. I träningsfasen normaliseras grånivåerna för 10 15 20 25 30 35 528 068 11 varje data exempel genom att subtrahera medelvärdet och skala till varians ett.
ML-skattningen av Wg, och pg, beräknas med EM-algoritmen [5].
Detektor-baserade metoder Intressanta bíldpunkter och kurvor kan detekteras genom att analysera bildgradienten med hjälp av t.ex. Harris hörndetektor. Dessutom kan man använda _ speciellt designade filter som detektorer för bildsärd rag. Genom att designa filter så att svaret för särskilda lokala särdrag är högt kan bildsärd rag detekteras med hjälp av en 2D faltning.
Klassificeringsmetoder Med hjälp av klassificerare som t.ex. SVM kan bildregioner klassificeras som tillhörande ett särskilt särdrag eller inte. Genom att kombinera en serie av sådana klassificerare, en för varje särdrag (punkter, kurvor, konturer etc.), och skanna bilden vid alla lämpliga skalor kan bildsärdrag extraheras. Exempel kan vara t.ex. en ögondetektor för ansiktsbilder.
Deformerbara model/er Användandet av en deformerbar model som t.ex. Active Contour Models, även kallade snakes, för ett särskilt bildsärdrag är väldigt vanligt inom bildsegmentering.
Oftast är dessa särdrag kurvor. Proceduren är iterative och försöker optimera en energifunktion. En initial kurva deformeras gradvis till den bästa passformen enligt en energifunktion som kan innehålla termer för att reglera jämnheten på anpassningen så väl som andra egenskaper för kurvan.
Ytanpassning till 3D Data När 3D data har återskapats kan en ytmodell anpassas till 3D strukturen. Detta kan vara önskvärt i de fall som tvåstegsproceduren ovan enbart producerar en gles mängd av särdrag i 3D rymden såsom t.ex. punkter och kurvor. Även om dessa kurvor är karakteristiska för ett givet exemplar (eller individ) är det ofta inte tillräckligt för att bestämma en fullständig ytmodell och detta är särskilt svårt i områden där särdragen är glesa. Därför introduceras en 3D ytmodell bestående av en fullständig medelyta. Denna tjänar som en domänspecifik regulariserare, dvs. 10, 15 20 25 30 35 528 068 12 specifik för en given klass av föremål. Denna metod kräver att det finns tät 3D forminformation tillgängligt för några träningsexempel i träningsdata för föremålsklassen, erhållna från t.ex. laser-skanningar, eller i fallet av medicinska bilder från t.ex. MRI eller datortomografi. Från dessa täta 3D former kan en model, separat från särdragsmodellen ovan, byggas. Detta betyder att givet beräknad 3D form, i form av punkter och kurvor, från särdragsmodellen kan den bästa täta 3D form beräknas. Denna täta forminformation kan användas för att förbättra ytanpassning.
För att illustrera med ett exempel, betrakta fallet av föremålsklassen ansikten.
Modellen tränas med hjälp av t.ex. punkter, kurvor och konturer i bilder tillsammans med den sanna 3D formen motsvarande dessa särdrag, erhållen från t.ex. multi-vy stereotekniker. En andra modell skapas och tränas med hjälp av t.ex. laser-skanningar av ansikten, vilket ger en uppsättning ansiktsytor. Denna andra modell kan användas för att hitta den mest troliga (eller åtminstone högst trolig) medel-ansiktsyta (enligt den andra modellen) motsvarande särdragen eller den beräknade 3D formen. En yta kan sedan anpassas till 3D formen med det extra kravet 'att där det inte finns någon beräknad 3D form ska ytan likna den mest troliga medel-ansiktsytan.
Som ett andra exempel, betrakta fallet av föremålsklassen som ett specifikt blodkärl, t.ex. aorta. Modellen tränas då t.ex. med hjälp av kurvor och konturer i bilder tillsammans med den sanna 3D formen erhållen som t.ex. en 3D MRI bild.
Från de sanna 3D formerna tränas en andra modell bestående av ytan på aorta.
(Den mest troliga (eller högst troliga) aortaytan kan då beräknas från bildsärdragen eller från 3D formen beräknad från den första formmodellen.
Metoden tillhandahåller den mest troliga eller åtminstone en högst trolig 3D form, för många tillämpningar är detta tillräckligt och identifierings- och/eller verifieringsprocessen är inte nödvändig för den slutliga tillämpningen.
Vi har nu beskrivit den underliggande metoden för verifierings- och/eller identifieringsändamål. Vi hänvisar nu till Fig. 3 där en beskrivning av en anordning 400 som implementerat den föredragna metoden enligt föreliggande uppfinning kommer ges. En sådan anordning 400 kan vara vilken lämplig beräkningsanordning som helst såsom, men inte begränsat till, en persondator (PC), arbetsstation, ' inbyggd dator, eller en självständig anordning med en beräkningsenhet 401, såsom 10 15 20 25 30 35 528 068 13 en mikroprocessor, DSP (digital signal processor), FPGA (field programmable gate array), eller ASIC (application specific integrated circuit). Anordningen 400 har några medel för indata 404 för att erhålla bilder för analys och slutlig identifiering och/eller verifierlng. Medel för indata 404 kan vara vilket lämpligt kommunikationsgränssnitt som helst beroende på typ av bild och inkluderar, men inte begränsat till, USB (universal seriai bus), frame grabber, Ethernet eller Firewire. Bilddata flyttas till en beräkningsenhet 401 där mjukvara finns för att exekvera ovan beskriven metod enligt föreliggande uppfinning. Anordningen 400 kan vidare innefatta flyktigt eller icke-flyktigt minne 402 innehållande information relaterat till referensmaterial för jämförelse- och/eller analysändamål, t.ex. kända 2D-3D förhållanden för intressanta föremål. Anordningen 400 kan vidare innefatta kommunikationsmedel för att kommunicera med andra beräkningsenheter över t.ex. ett nätverksprotokoll (såsom Ethernet eller liknande protokoll) och medel för utdata 405 för att vidarebefordra resultat till exempelvis en skärm för behändig visualisering eller till en kontrollenhet (inte visad) för att kontrollera en extern process där de intressanta föremålen är delar. Sådana processer kan inkludera, men ärinte begränsade till, industriella produktionsprocesser där föremål kan väljas ut eller väljas bort beroende på resultatet från identifierings- och/eller verifieringsmetoden enligt föreliggande uppfinning, säkerhetsprocesser återigen för ändamål att välja ut eller välja bort i t.ex. flygplatssäkerhetssystem för undersökandet av innehåll i resväskor, väskor eller annan bagageutrustning, eller medicinska tillämpningar där den beräknade 3D formen kan användas för t.ex. navigering av instrument eller medicinska anordningar.
Metoden för igenkänning av föremål enligt föreliggande uppfinning kan illustreras med hjälp av Fig. 4. Metoden kan innefatta följande steg: 1. Erhålla minst en bild av ett föremål att identifieras och/eller verifieras (501); 2. Detektera bildsärdrag såsom t.ex. kurvor, punkter och konturer (502). 3. Analysera erhållen bild och återskapa 3D form som korresponderar till bildsärdragen med hjälp av en statistisk formmodell (503); 4. Jämföra analysen med tidigare erhållna referensbilder och jämföra 3D formen i gles eller tät form med tidigare erhållen referens 3D form (504); och 5. Reagera på utdata från jämförelseprocessen (505). 528 068 14 I en annan utföringsform av den föreliggande uppfinningen används ett system för . att erhålla bilder, analysera och reagera på resultat från identifiering och/eller I verfieringsprocessen, vilken kan ses i Fig. 5. Ett sådant system kan innehålla åtminstone en anordning för att förvärva bilder 601, en beräkningsanordning 400, 5 603 som beskrivet ovan, och någon form av svarsutrustning såsom t.ex. den industriella processutrustning eller säkerhetsprocessutrustning beskriven ovan.
Minst en anordning förjatt erhålla bilder 601 används för att erhålla en eller flera bilder som flyttas 602 till en beräkningsanordning 603 för analys och verifiering och/eller identifiering. Resultatet från denna process skickas till ett kontrollsystem 10 eller displaysystem 604. I fallet med ett ansiktsigenkänningssystem erhålls minst en bild av en person, till exempel personens ansikte, och bilden eller bilderna skickas till beräkningsanordningen 603, med hjälp av vilket lämpligt kommunikationsmedel som helst (trådat eller trådlöst), för analys och jämförelse av den erhållna bilden eller bilderna med data erhållet från referensmätningar t.ex. 15 med kända 2D-3D förhållande;_jämförelse kan emellertid göras mellan beräknad 3D form och lagrad 3D referensdata eller mellan en 2D ytmodell och en lagrad 2D referensytmodell. Resultatet kan göras tillgängligt genom t.ex. en displayenhet 604 och kan för illustrativa ändamål visas med både en referensbild 605 och den erhållna bilden 606 eller bilder renderade från den beräknade 3D formen såsom 20 visas i Fig. 5. Det bör uppskattas av fackmannen att bildinhämtningssystemet och/eller display/kontrollsystemet kan inkorporeras med beräkningsanordningen bildande en integrerad enhet och att resultatet kan visas på vilket lämpligt sätt som helst och begränsas inte till ovan beskrivna exempel. Istället för att skicka resultatet till en displayenhet 604 kan det användas i vilken lämplig kontrollprocess 25 som helst för att kontrollera t.ex. ett alarm, ett passagesystem, kontrollport, tullgrind, och så vidare.
Några av fördelarna föreliggande uppfinning bidrar med till det tekniska området kan illustreras med följande lista: 30 o Vilket antal bilder som helst, även så få som en enda bild, kan användas för att automatiskt återskapa 3D formen av ett föremål tillhörande föremålsklassen.
~ En statistisk multi-vy modell som representerar 2D och 3D data på ett 35 konsistent vis. o Processen ärautomatisk och beräkningseffektiv. 10 15 20 25 30 35 528 068 15 o Processen är robust med avseende till belysning och spekulära reflektioner vilketär ett problem för 3D rekonstruktionsmetoder baserade på bildkorrelation eller fotokonsistens. o Ytor kan anpassas till 3D strukturen med hjälp av domänspecifik regularisering tränad med statistiska formmodeller.
Flexibiliteten av föreliggande uppfinning kan illustreras med följande lista: o Den statistiska formmodellen kan användas för vilken föremålsklass som helst och projektionen av dessa föremål i bilder. o Metoden kan användas för vilken form av bildgivande anordning som helst (kamera, röntgen, multi-spektral, värme, etc.). o Uppfinningen kan användas med vilket antal blldgivande anordningar som helst (en eller flera). o Uppfinningen inkluderar möjligheten att kombinera många olika tekniker för att etablera 2D till 3D korrespondens (bildgivande system, 3D- (djup)sl etc.). o Uppfinningen inkluderar möjligheten att använda olika tekniker såsom ASM, gradientbaserade metoder eller deformerbara modeller, för att hitta bildsärdrag. o Omlföremålsklassen innehåller icke-rigida föremål, inkluderar uppfinningen möjligheten att etablera 2D tlll 3D modeller för olika dafarmatlarlar av föremålet (t.ex. olika ansiktsuttryck). o Uppfinningen inkluderar möjligheten att använda en statistisk formmodell för ytanpassning till den beräknade 3D formen.
Referensrepresentationer av föremål kan lagras på flera olika platser och med olika _ typer av system, såsom, men inte begränsat till, lokalt på något icke-flyktigt minne i en anordning som utnyttjar föremålsigenkänning enligt föreliggande uppfinning, på en centraliserad server t.ex. en databasserver eller ett personligt id-kort innehållande en referensrepresentation av ett föremål såsom en person och detta id-kort kan användas i t.ex. ett passersystem. Kommunikation mellan ett Iföremålsigenkänningssystem och ett lagringssystem för referensrepresentationer kan utnyttja olika typer av säkerhetsnivåer och/eller metoder såsom RADIUS, DIAMETER, SSL, SSH, eller vilket annat krypterat kommunikationssystem som helst som förstås av fackmannen. ...,, 528 068 Möjliga tillämpningsområden för ovan beskrivna uppfinning spänner över igenkänning och verifiering av föremål i industriella processer, fastställa och/eller identifiera föremål för säkerhetsändamål, föremålsigenkänning för militära ändamål 5 t.ex. automatisk bestämning av militära fordon, militära fartyg, flygmaskiner och så vidare, ansiktsigenkänningssystem för många olika tillämpningar t.ex. biometri, informationssäkerhet, polisiära tillämpningar, smarta kort, passagesystem och så vidare. i 10 Ovanstående nämnda och beskrivna utföringsformer är givna enbart som exempel och skall inte vara begränsande för den föreliggande uppfinningen. Andra lösningar, användningar, ändamål och funktioner inom ramen för uppfinningen så som yrkas i .nedan beskrivna patentkrav skall vara uppenbara för fackmannen.
Claims (1)
1. ___., 10 15 20 25 30 35 KYBV 528 068 17 . En metod för föremålsigenkänning av ett tredimensionellt (3D) föremål, »bestående av följande steg: - erhålla minst en tvådimensionell (2D) representation av sagda föremål; - detektera bildsärdrag i sagda erhållna 2D representation; - återskapa en högst trolig 3D form av sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål med hjälp av minst en erhållen bild där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och - jämföra sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda föremålsklass. Metoden enligt krav 1, vari sagda återskapade 3D form är en fullständig ytmodell. . Metoden enligt krav 2, vari sagda fullständiga ytmodell beräknas från 2D eller 3D särdrag. Metoden enligt krav 1 till 3, vari sagda föremålsklass innehåller icke-rigida föremål och sagda statistiska formmodell tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen i sagda icke-rigida föremålsklass. Metoden enligt något av kraven 1 - 4, vidare omfattande steget att identifiera ett specifikt föremål från en föremålsklass eller stödja identifieringen av ett specifikt föremål med hjälp av sagda återskapade 3D form. Metoden enligt något av kraven 1 - 4, vidare omfattande steget att verifiera identiteten för ett specifikt föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av sagda beräknade 3D form. . Metoden enligt krav 2 eller 3, vidare omfattande steget att: anpassa en yta till sagda återskapade 3D form med hjälp av en tränad statistisk formmodell ___., 10 15 20 25 30 35 528 068 18 för sagda föremåls yta för att regularisera sagda ytform på ett sätt som är 'specifikt för sagda föremålsklass. 8. Metoden enligt krav 1 - 7, vari sagda föremål kan vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en industriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål. 9. Metoden enligt krav 1, vari sagda referensrepresentation lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort. 10. En anordning (400) för föremålsigenkänning av ett tredimensionellt (3D) föremål, bestående av: medel för att erhålla (404) åtminstone en tvådimensionell (ZD) representation av sagda föremål (607) ; medel för att detektera (401) bildsärdrag i sagda erhållna 2D representation ; medel för att återskapa (401) en högst trolig 3D form av sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och medel för att jämföra (401) sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda föremålsklass. 11.Anordningen (400) enligt krav 10, vari sagda återskapade 3D form är en fullständig ytmodell. 12.Anordningen (400) enligt krav 11, vari sagda fullständiga ytmodell beräknas från 2D eller 3D särdrag. 13.Anordningen (400) enligt krav 10 - 12, vari sagda föremålsklass innehåller icke-rigida föremål och sagda statistiska formmodell tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen l sagda icke- rigida föremålsklass. ___., 10 15 20 25 30 35 528 068 19 14. Anordningen (400) enligt något av krav 10 - 13, vidare omfattande medel att identifiera ett specifikt föremål från en föremålsklass eller stödja identifieringen av ett specifikt föremål med hjälp av sagda beräknade 3D form. 15,. Anordningen (400) enligt något av krav 10 - 13, vidare omfattande medel att verifiera identiteten för ett specifikt föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av sagda återskapade. 3D form. 16. Anordningen (400) enligt krav 11 eller 12, vidare omfattande medel att: anpassa en yta till sagda återskapade 3D form med hjälp av en tränad statistisk formmodell för sagda föremåls yta för att regularisera sagda ytform på ett sätt som är specifikt för sagda föremålsklass. 17. Anordningen (400) enligt något av krav 10 - 16, vari sagda föremål kan vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en industriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål. _ 18. Anordningen (400) enligt krav 17, vari sagda beräknade 3D former av blodkärl eller organ beräknade från 2D projektioner, t.ex. med hjälp av röntgenbilder, används för att navigera styrbara katetrar eller för att stödja läkare genom att visa sagda beräknade 3D form. 19.Anordningen (400) enligt krav 17, vari sagda återskapade 3D former av ansiktssärdrag används för att identifiera eller verifiera identiteten av en individ i ett passagekontrollssystem eller säkerhetssystem, vilket resulterar i att sagda individ accepteras eller refuseras. 20. Anordningen (400) enligt krav 10, vidare omfattande ett gränssnitt för att kommunicera med ett personligt id-kort där sagda referensrepresentation är lagrad. 10. 15 20 25 30 35 21. 22. 23. 528 068 20 Ett datorprogram lagrat i ett för dator läsbart lagringsmedia (402) och utförd l en beräkningsanordning (401) för föremålsigenkänning av ett tre dimensionellt (3D) föremål, bestående av: - . en instruktionsuppsättning för att erhålla minst en externt förvärvad två- dimensionell (2D) representation av sagda föremål (607); - en instruktionsuppsättning för att detektera bildsärdrag i sagda erhållna 2D representation; - en instruktionsuppsättning för att återskapa en högst trolig 3D form av 'sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en tränad statistisk multi- vy formmodell av formvariationen; och - en instruktionsuppsättning för att jämföra sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda klass. Datorprogrammet enligt krav 21, vidare omfattande en instruktionsuppsättning för att identifiera och/eller verifiera ett individuellt föremål från en föremålsklass eller stödja sagda identifiering och/eller verifiering av sagda individuella föremål med hjälp av sagda återskapade 3D form. Ett system för föremålsigenkänning av ett tredimensionellt (3D) föremål, bestående av: - medel för att erhålla (601) åtminstone en tvådimensionell (2D) representation av sagda föremål (607) ; - medel för att detektera (401) bildsärdrag i sagda erhållna 2D representation; - medel för att återskapa (401, 603) en högst trolig 3D form av sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en tränad statistisk multi-vy formmodell av formvariationen; - medel för att jämföra (401) sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda föremålsklass; och i - medel för att reagera (604) på ett resultat from sagda medel för att jämföra (401). 528 063 21 24. Systemet enligt krav 23, vidare omfattande medel att identifiera och/eller verifiera ett specifikt föremål från en föremålsklass eller stödja sagda identifiering och/eller verifiering av sagda specifika föremål med hjälp av sagda återskapacle 3D form. 25. Systemet enligt krav 23, där sagda referensrepresentation lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort. 10
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0402048A SE528068C2 (sv) | 2004-08-19 | 2004-08-19 | Igenkänning av 3D föremål |
ES05771849T ES2385041T3 (es) | 2004-08-19 | 2005-08-11 | Reconocimiento de objetos 3D |
EP05771849A EP1810216B1 (en) | 2004-08-19 | 2005-08-11 | 3d object recognition |
PCT/SE2005/001203 WO2006019350A1 (en) | 2004-08-19 | 2005-08-11 | 3d object recognition |
AT05771849T ATE551664T1 (de) | 2004-08-19 | 2005-08-11 | 3d-objekterkennung |
US11/201,419 US8064685B2 (en) | 2004-08-19 | 2005-08-11 | 3D object recognition |
US13/299,211 US9087232B2 (en) | 2004-08-19 | 2011-11-17 | 3D object recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0402048A SE528068C2 (sv) | 2004-08-19 | 2004-08-19 | Igenkänning av 3D föremål |
Publications (3)
Publication Number | Publication Date |
---|---|
SE0402048D0 SE0402048D0 (sv) | 2004-08-19 |
SE0402048L SE0402048L (sv) | 2006-02-20 |
SE528068C2 true SE528068C2 (sv) | 2006-08-22 |
Family
ID=32960418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE0402048A SE528068C2 (sv) | 2004-08-19 | 2004-08-19 | Igenkänning av 3D föremål |
Country Status (4)
Country | Link |
---|---|
US (2) | US8064685B2 (sv) |
AT (1) | ATE551664T1 (sv) |
ES (1) | ES2385041T3 (sv) |
SE (1) | SE528068C2 (sv) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100754387B1 (ko) * | 2004-12-06 | 2007-08-31 | 삼성전자주식회사 | 그래픽 컨텐츠 제작장치와 방법 및 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록매체 |
US7982777B2 (en) * | 2005-04-07 | 2011-07-19 | Axis Engineering Technologies, Inc. | Stereoscopic wide field of view imaging system |
WO2006138525A2 (en) * | 2005-06-16 | 2006-12-28 | Strider Labs | System and method for recognition in 2d images using 3d class models |
JP4362489B2 (ja) * | 2006-03-29 | 2009-11-11 | 日本電気株式会社 | 3次元顔データ登録システム、3次元顔データ登録方法、及び登録処理プログラム |
US8073252B2 (en) * | 2006-06-09 | 2011-12-06 | Siemens Corporation | Sparse volume segmentation for 3D scans |
WO2008005834A2 (en) * | 2006-06-30 | 2008-01-10 | The Intertech Group, Inc. | Biometric aid for customer relations |
CN101641049A (zh) * | 2007-03-21 | 2010-02-03 | 光谱辨识公司 | 基于局部一致特征的生物测定 |
EP2195781A1 (en) * | 2007-08-30 | 2010-06-16 | Feeling Software | Online shopping system and method using 3d reconstruction |
US8488129B2 (en) * | 2007-10-05 | 2013-07-16 | Artec Group, Inc. | Combined object capturing system and display device and associated method |
JP5041229B2 (ja) * | 2007-12-07 | 2012-10-03 | ソニー株式会社 | 学習装置および方法、認識装置および方法、並びにプログラム |
US20090157649A1 (en) * | 2007-12-17 | 2009-06-18 | Panagiotis Papadakis | Hybrid Method and System for Content-based 3D Model Search |
US20100039682A1 (en) * | 2008-08-18 | 2010-02-18 | Waterloo Industries, Inc. | Systems And Arrangements For Object Identification |
JP2010266983A (ja) * | 2009-05-13 | 2010-11-25 | Sony Corp | 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム |
US20100309290A1 (en) * | 2009-06-08 | 2010-12-09 | Stephen Brooks Myers | System for capture and display of stereoscopic content |
US20110080471A1 (en) * | 2009-10-06 | 2011-04-07 | Iowa State University Research Foundation, Inc. | Hybrid method for 3D shape measurement |
US8488873B2 (en) * | 2009-10-07 | 2013-07-16 | Apple Inc. | Method of computing global-to-local metrics for recognition |
US10524741B2 (en) * | 2010-03-31 | 2020-01-07 | Koninklijke Philips N.V. | Automated identification of an anatomy part |
US8655053B1 (en) | 2010-05-31 | 2014-02-18 | Andrew S Hansen | Body modeling and garment fitting using an electronic device |
US8908928B1 (en) | 2010-05-31 | 2014-12-09 | Andrew S. Hansen | Body modeling and garment fitting using an electronic device |
US8861800B2 (en) * | 2010-07-19 | 2014-10-14 | Carnegie Mellon University | Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction |
US8655027B1 (en) * | 2011-03-25 | 2014-02-18 | The United States of America, as represented by the Director, National Security Agency | Method of image-based user authentication |
AU2012247147A1 (en) | 2011-04-28 | 2013-12-12 | Koninklijke Philips Electronics N.V. | Face location detection |
WO2013014328A1 (en) * | 2011-07-25 | 2013-01-31 | Nokia Corporation | Methods and apparatuses for facilitating locking and unlocking of secure functionality through object recognition |
WO2013086137A1 (en) | 2011-12-06 | 2013-06-13 | 1-800 Contacts, Inc. | Systems and methods for obtaining a pupillary distance measurement using a mobile computing device |
US8593452B2 (en) | 2011-12-20 | 2013-11-26 | Apple Inc. | Face feature vector construction |
WO2013115202A1 (ja) * | 2012-01-30 | 2013-08-08 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム |
US9286715B2 (en) | 2012-05-23 | 2016-03-15 | Glasses.Com Inc. | Systems and methods for adjusting a virtual try-on |
US9311746B2 (en) | 2012-05-23 | 2016-04-12 | Glasses.Com Inc. | Systems and methods for generating a 3-D model of a virtual try-on product |
US9483853B2 (en) | 2012-05-23 | 2016-11-01 | Glasses.Com Inc. | Systems and methods to display rendered images |
US8983201B2 (en) | 2012-07-30 | 2015-03-17 | Microsoft Technology Licensing, Llc | Three-dimensional visual phrases for object recognition |
JP6044293B2 (ja) * | 2012-11-19 | 2016-12-14 | 株式会社Ihi | 3次元物体認識装置および3次元物体認識方法 |
US8929644B2 (en) | 2013-01-02 | 2015-01-06 | Iowa State University Research Foundation | 3D shape measurement using dithering |
US9508120B2 (en) * | 2013-07-08 | 2016-11-29 | Augmented Reality Lab LLC | System and method for computer vision item recognition and target tracking |
US9973722B2 (en) | 2013-08-27 | 2018-05-15 | Qualcomm Incorporated | Systems, devices and methods for displaying pictures in a picture |
CN106462995B (zh) | 2014-06-20 | 2020-04-28 | 英特尔公司 | 3d面部模型重建装置和方法 |
US20170308736A1 (en) * | 2014-10-28 | 2017-10-26 | Hewlett-Packard Development Company, L.P. | Three dimensional object recognition |
EP3408848A4 (en) | 2016-01-29 | 2019-08-28 | Pointivo Inc. | SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION |
JP6871367B2 (ja) | 2016-10-07 | 2021-05-12 | トヨタ モーター ヨーロッパ | オブジェクトを認識及び位置特定するための電気デバイス、システム及び方法 |
WO2018067978A1 (en) * | 2016-10-08 | 2018-04-12 | Purdue Research Foundation | Method and apparatus for generating two-dimensional image data describing a three-dimensional image |
CN107958435A (zh) * | 2016-10-17 | 2018-04-24 | 同方威视技术股份有限公司 | 安检系统及配置安检设备的方法 |
MX2019006981A (es) * | 2016-12-14 | 2020-09-07 | Novetechnologies Llc | Sistema de bioseguridad de ganado y metodo de uso. |
JP6987508B2 (ja) * | 2017-02-20 | 2022-01-05 | オムロン株式会社 | 形状推定装置及び方法 |
US20180357819A1 (en) * | 2017-06-13 | 2018-12-13 | Fotonation Limited | Method for generating a set of annotated images |
JP6955081B2 (ja) | 2017-07-20 | 2021-10-27 | トヨタ モーター ヨーロッパ | オブジェクト姿勢を決定するための電子デバイス、システムおよび方法 |
EP3726462A4 (en) * | 2017-12-14 | 2020-12-23 | NEC Corporation | IDENTIFICATION DEVICE, IDENTIFICATION METHOD AND STORAGE MEDIUM |
JP7184801B2 (ja) * | 2017-12-14 | 2022-12-06 | 日本電気株式会社 | 学習装置、学習方法、および学習プログラム |
WO2019169594A1 (en) * | 2018-03-08 | 2019-09-12 | Intel Corporation | Methods and apparatus to generate three-dimensional (3d) model for 3d scene reconstruction |
WO2019240749A1 (en) * | 2018-06-11 | 2019-12-19 | Hewlett-Packard Development Company, L.P. | Model generation based on sketch input |
IT201900001749A1 (it) * | 2019-02-06 | 2020-08-06 | Primeconcept S R L | Sistema di controllo di un processo soggetto a regole di esecuzione. |
US10853631B2 (en) | 2019-07-24 | 2020-12-01 | Advanced New Technologies Co., Ltd. | Face verification method and apparatus, server and readable storage medium |
EP3809314A1 (en) | 2019-10-15 | 2021-04-21 | Bentley Systems, Incorporated | 3d object detection from calibrated 2d images background |
KR20220038996A (ko) | 2020-09-21 | 2022-03-29 | 삼성전자주식회사 | 특징 임베딩 방법 및 장치 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3578241D1 (de) | 1985-06-19 | 1990-07-19 | Ibm | Verfahren zum identifizieren dreidimensionaler objekte mittels zweidimensionaler bilder. |
US5063603A (en) | 1989-11-06 | 1991-11-05 | David Sarnoff Research Center, Inc. | Dynamic method for recognizing objects and image processing system therefor |
JP2919284B2 (ja) | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | 物体認識方法 |
US7194117B2 (en) * | 1999-06-29 | 2007-03-20 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US6331116B1 (en) | 1996-09-16 | 2001-12-18 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual segmentation and examination |
WO1999015945A2 (en) * | 1997-09-23 | 1999-04-01 | Enroute, Inc. | Generating three-dimensional models of objects defined by two-dimensional image data |
US6137896A (en) | 1997-10-07 | 2000-10-24 | National Research Council Of Canada | Method of recognizing faces using range images |
EP1039417B1 (en) | 1999-03-19 | 2006-12-20 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Method and device for the processing of images based on morphable models |
FR2798760B1 (fr) * | 1999-09-17 | 2002-03-29 | Univ Joseph Fourier | Reconstitution de surfaces en trois dimensions par utilisation de modeles statistiques |
CA2390695A1 (en) | 1999-11-09 | 2001-05-17 | The Victoria University Of Manchester | Object class identification, verification or object image synthesis |
US6879946B2 (en) * | 1999-11-30 | 2005-04-12 | Pattern Discovery Software Systems Ltd. | Intelligent modeling, transformation and manipulation system |
US6775397B1 (en) * | 2000-02-24 | 2004-08-10 | Nokia Corporation | Method and apparatus for user recognition using CCD cameras |
AU782011B2 (en) * | 2000-03-08 | 2005-06-30 | Cyberextruder.Com, Inc. | Apparatus and method for generating a three-dimensional representation from a two-dimensional image |
JP4341135B2 (ja) * | 2000-03-10 | 2009-10-07 | コニカミノルタホールディングス株式会社 | 物体認識装置 |
US6956569B1 (en) | 2000-03-30 | 2005-10-18 | Nec Corporation | Method for matching a two dimensional image to one of a plurality of three dimensional candidate models contained in a database |
GB0112773D0 (en) | 2001-05-25 | 2001-07-18 | Univ Manchester | Object identification |
GB0114271D0 (en) | 2001-06-12 | 2001-08-01 | Univ Manchester | Parameterisation |
US6873718B2 (en) * | 2001-10-12 | 2005-03-29 | Siemens Corporate Research, Inc. | System and method for 3D statistical shape model for the left ventricle of the heart |
US7221809B2 (en) * | 2001-12-17 | 2007-05-22 | Genex Technologies, Inc. | Face recognition system and method |
US20030161505A1 (en) * | 2002-02-12 | 2003-08-28 | Lawrence Schrank | System and method for biometric data capture and comparison |
US20030160786A1 (en) * | 2002-02-28 | 2003-08-28 | Johnson Richard K. | Automatic determination of borders of body structures |
CN1669052B (zh) * | 2002-07-10 | 2010-05-26 | 日本电气株式会社 | 使用三维物体模型的图像匹配系统以及图像匹配方法 |
US7421097B2 (en) * | 2003-05-27 | 2008-09-02 | Honeywell International Inc. | Face identification verification using 3 dimensional modeling |
KR100682889B1 (ko) * | 2003-08-29 | 2007-02-15 | 삼성전자주식회사 | 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치 |
US20050226509A1 (en) * | 2004-03-30 | 2005-10-13 | Thomas Maurer | Efficient classification of three dimensional face models for human identification and other applications |
WO2006019350A1 (en) | 2004-08-19 | 2006-02-23 | Ground Truth Vision Ab | 3d object recognition |
-
2004
- 2004-08-19 SE SE0402048A patent/SE528068C2/sv not_active IP Right Cessation
-
2005
- 2005-08-11 US US11/201,419 patent/US8064685B2/en not_active Expired - Fee Related
- 2005-08-11 AT AT05771849T patent/ATE551664T1/de active
- 2005-08-11 ES ES05771849T patent/ES2385041T3/es active Active
-
2011
- 2011-11-17 US US13/299,211 patent/US9087232B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US8064685B2 (en) | 2011-11-22 |
ES2385041T3 (es) | 2012-07-17 |
US9087232B2 (en) | 2015-07-21 |
SE0402048D0 (sv) | 2004-08-19 |
SE0402048L (sv) | 2006-02-20 |
ATE551664T1 (de) | 2012-04-15 |
US20120114251A1 (en) | 2012-05-10 |
US20060039600A1 (en) | 2006-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
SE528068C2 (sv) | Igenkänning av 3D föremål | |
Dou et al. | End-to-end 3D face reconstruction with deep neural networks | |
CN108549873B (zh) | 三维人脸识别方法和三维人脸识别系统 | |
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
Papazov et al. | Real-time 3D head pose and facial landmark estimation from depth images using triangular surface patch features | |
US20190206546A1 (en) | Modeling and learning character traits and medical condition based on 3d facial features | |
US20200066036A1 (en) | Method and apparatus for training object detection model | |
Hashemi et al. | Template matching advances and applications in image analysis | |
JP6624794B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN112052831B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
WO2016073841A1 (en) | Scan data retrieval with depth sensor data | |
Chowdhary | 3D object recognition system based on local shape descriptors and depth data analysis | |
CN112750531A (zh) | 一种中医自动化望诊系统、方法、设备和介质 | |
JP2015197708A (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
Fan et al. | Smoothness-driven consensus based on compact representation for robust feature matching | |
Caya et al. | Recognition of tongue print biometrie using binary robust independent elementary features | |
Alsawwaf et al. | In your face: person identification through ratios and distances between facial features | |
EP1810216B1 (en) | 3d object recognition | |
US20240005650A1 (en) | Representation learning | |
Hsu | A hybrid approach for brain image registration with local constraints | |
CN116091686A (zh) | 用于三维重建的方法、系统和存储介质 | |
KR102382883B1 (ko) | 3차원 손 자세 인식 장치 및 방법 | |
Chhabra et al. | Comparison of different edge detection techniques to improve quality of medical images | |
Felsberg et al. | Computer Analysis of Images and Patterns: 17th International Conference, CAIP 2017, Ystad, Sweden, August 22-24, 2017, Proceedings, Part II | |
Nan | Image Registration with Homography: A Refresher with Differentiable Mutual Information, Ordinary Differential Equation and Complex Matrix Exponential |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NUG | Patent has lapsed |