SE528068C2 - Igenkänning av 3D föremål - Google Patents

Igenkänning av 3D föremål

Info

Publication number
SE528068C2
SE528068C2 SE0402048A SE0402048A SE528068C2 SE 528068 C2 SE528068 C2 SE 528068C2 SE 0402048 A SE0402048 A SE 0402048A SE 0402048 A SE0402048 A SE 0402048A SE 528068 C2 SE528068 C2 SE 528068C2
Authority
SE
Sweden
Prior art keywords
shape
representation
class
dimensional
objects
Prior art date
Application number
SE0402048A
Other languages
English (en)
Other versions
SE0402048D0 (sv
SE0402048L (sv
Inventor
Jan Erik Solem
Fredrik Kahl
Original Assignee
Jan Erik Solem Med Jsolutions
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jan Erik Solem Med Jsolutions filed Critical Jan Erik Solem Med Jsolutions
Priority to SE0402048A priority Critical patent/SE528068C2/sv
Publication of SE0402048D0 publication Critical patent/SE0402048D0/sv
Priority to ES05771849T priority patent/ES2385041T3/es
Priority to EP05771849A priority patent/EP1810216B1/en
Priority to PCT/SE2005/001203 priority patent/WO2006019350A1/en
Priority to AT05771849T priority patent/ATE551664T1/de
Priority to US11/201,419 priority patent/US8064685B2/en
Publication of SE0402048L publication Critical patent/SE0402048L/sv
Publication of SE528068C2 publication Critical patent/SE528068C2/sv
Priority to US13/299,211 priority patent/US9087232B2/en

Links

Classifications

    • G06K9/00201
    • G06K9/00221
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Description

25 30 35 528 068 2 Wheeler G.V, Walker l<.N and Taylor C.J., View-based Active Appearance Models, Image and Vision Computing, 20(9-10), p.657-664, 2002.) där flervymodeller används men modellerna innehåller ingen explicit eller konsistent 3D data. Det existerar också metoder för att deformera en 3D modell av ett objekt för att anpassa till 2D projektioner av föremålet I bilder så som i Blanz and Vetter ([3]: Blanz V. and Vetter T., Face Recognition Based on Fitting a 3D Morphab/e Model, IEEE Trans. on Pattern Analysis and Machine Intelligence, 25(9), p.1063-1073, 2003.). Dessa metoderär väldigt beräkningskrävande och kräver ofta manuellt ingripande. Relaterade patent är US6556196/EP1039417 (Method and apparatus for the processing of images) som beskriver en metod för morning av en 3D modell så att den blir en 3D representation av objektet I bilden genom att minimera projektionsfelet i bilden.
Ett vanligt problem för bildbaserad igenkänning är att detektera 2D formen av objektet i bilden, dvs. att hitta relevanta bildområden. Nyare metoder för att detektera objekt i bilder medför vanligtvis en skanning av hela bilden i olika skalor efter föremålsspecifika bildmönster och en användning av klassificerare för att avgöra om området är relevant eller inte. De senaste utvecklingarna föreslår användandetav Support Vector Machines (SVM) för detta ändamål. Ett nyckelsteg är extraherandet av särdrag i bilden, dvs. områden i bilden såsom hörn, kanter och andra intressepunkter. Detta görs vanligtvis med hjälp av korrelationsbaserade metoder med templat eller med hjälp av kantbaserade metoder med bildgradienter.
För en översikt av metoder för ansiktsdetektion, se Zhao and Chellappa ([4}: Zhao W., Chellappa R., Rosenfeld A and Phillips P.J, Face Recognition: A Literature Survey, Technical report CAR-TR-948, 2000.) och referenser däri. En översikt av nuvarande bildbaserade metoder för ansiktslgenkänning presenteras i [4].
Vid användandet av bildbaserade metoder för identifiering och verifiering finns det två huvudsakliga problem,åbelysningsvariation och pose-variation.
Belysningsvariation kommer att påverka alla korrelationsbaserade metoder där områden av bilder jämförs eftersom pixelvärden varierar med förändrad belysning.
Dessutom kan spekulära reflektioner ge upphov till höga förändringar i pixelintensitet. Pose-variation inträffar eftersom projektionen i bilden kan förändras drastiskt när ett föremål roterar. Dessa två problem har dokumenterats i många ansiktsigenkänningssystem och är oundvikliga när bilder tas i okontrollerade miljöer. De flesta kända metoder misslyckas med att robust hantera dessa problem. 10 15 20 25 30 35 528 068 3 Belysningsproblemet hanteras av uppfinningen eftersom ingen bildkorrelation eller jämförelse av bildområden utförs. Särdrag såsom horn, vilka är robusta för intensitetsförändringar, beräknas istället, vilket gör form rekonstruktionen i stort sett okänslig för belysning och spekulära reflektioner. Uppfinningen hanterar pose- problemet genom att använda ett godtyckligt antal bilder med olika pose för att träna den statistiska modellen. Vilken delmängd som helst av bilderna, så få som en enda bild, kan sedan användas för att beräkna föremålets 3D form.
Sammanfattning av uppfinningen Uppfinningen består av en statistisk modell för formvariationer inom en klass av föremål som relaterar den tvådimensionella (2D) projektionen i bilder till föremålets tredimensionella (3D) form samt användandet av 3D formlnformation för identifiering eller verifiering av föremålet. Dessutom relaterar föreliggande uppfinning till en anordning för bildbehandling eller ett system för att implementera en sådan metod. Processen är helt automatisk och kan t.ex. användas för biometrisk identifiering från ansiktsbilder eller identifiering av föremål i t.ex. röntgenbilder för flygplatssäkerhet. Den beräknade 3D formen är den troligaste formen som är konsistent med 2D projektionerna, dvs. bilderna. Den statistiska modellen behöver en databank, kallad träningsdata, där 3D positioner för bild- särdragen är kända, för att träna modell parametrarna. Sådan datasampling kan göras med hjälp av t.ex. två- eller flervystereo eller 3D skanners. När modellparametrarna väl är tränade, kan 3D form beräknas med hjälp av en eller flera bilder. Med föreliggande uppfinning används sedan 3D formen tillsammans med 2D bilddata för att identifiera eller verifiera föremålet som en specifik instans av enhgiven klass, t.ex. ett ansikte som tillhör en specifik individ. En positiv (eller negativ) identifiering initierar korrekt handling i enlighet med den föreliggande uppfinningen.
I en föredragen utföringsform av uppfinningen presenteras en metod för föremålsigenkänning av tre dimensionella (3D) föremål, metoden består av stegen: - Erhålla minst en tvådimensionell (2D) representation av föremålet; - Detektera bildsärdrag i den erhållna 2D representationen; - Beräkna en högst trolig 3D form av ett föremål tillhörande en viss klass av i föremål som är konsistent med 2D bilder av föremålet med hjälp av minst en bild där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och 10. 15 20 25 30 35- ,528 068 4 - Jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen.
I, metoden kan den erhållna 3D formen vara en fullständig ytmodell.
Fortfarande i metoden, kan den fullständiga ytmodellen beräknas från 2D eller 3D särdrag.
I en annan aspekt av metoden enligt föreliggande uppfinning, kan föremålsklassen innehålla icke-rigida föremål och den statistiska formmodellen kan tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen i den icke- rigida föremålsklassen.
Metoden kan vidare omfatta steget att identifiera ett specifikt föremål från en föremålsklass eller stödja ldentifieringen av ett specifikt föremål med hjälp av den beräknade 3D formen.
Metoden kan dessutom omfatta steget att verifiera identiteten för ett specifikt Föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av den beräknade 3D formen.
Metoden kan vidare omfatta steget att: anpassa en yta till den beräknade 3D formen med hjälp av en tränad statistisk formmodell för föremålets yta för att regularisera ytformen på ett sätt som är specifikt för föremålsklassen.
I metoden kan föremålet vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en industriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål.
I metoden kan referensrepresentationen lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort.
I en annan uföringsform av den föreliggande uppfinningen presenteras en anordning för föremålsigenkänning av tre dimensionella (3D) föremål, bestående av: 10 15 20 25 30 35 528 068 5 - Medel för att erhålla åt minstonde en tvådimensionell (2D) representation av föremålet; - Medel föratt detektera bildsärdrag i den erhållna 2D representationen; - Medel för att beräkna en högst trolig 3D form av ett föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av föremålet (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och - Medel för att jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen.
Il anordningen kan den erhållna 3D formen vara en fullständig ytmodell och den fullständiga ytmodellen kan beräknas från 2D eller 3D särdrag.
I anordningen kan föremålsklassen innehålla icke-rigida föremål och den statistiska formmodellen kan tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen i den icke-rigida föremålsklassen.
Anordningen-kan vidare omfatta medel för att identifiera ett specifikt föremål från en föremålsklass eller stödja identifieringen av ett specifikt föremål med hjälp av den beräknade 3D formen.
Anordningen kan dessutom omfatta medel för att verifiera identiteten för ett specifikt föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av den beräknade 3D formen.
Anordningen kan vidare omfatta medel för att: anpassa en yta till den beräknade 3D formen med hjälpe av en tränad statistisk formmodell för föremålets yta för att regularisera ytformen på ett sätt som är specifikt för föremålsklassen.
I anordningen kan föremålet vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en lndustriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål.
I anordningen kan den beräknade 3D formen av blodkärl eller organ beräknad från 2D projektioner, t.ex. med hjälp av röntgenbilder, användas för att navigera styrbara katetrar eller stödja läkare genom att visa den beräknade 3D formen. 10 15 20 25 30 35 523 (168 De beräknade 3D formerna av ansiktssärdrag kan användas i anordningen för att identifiera eller verifiera identiteten av en individ i ett passagekontrollssystem eller säkerhetssystem, vilket resulterar i att individen accepteras eller refuseras.
Anordningen kan vidare omfatta ett gränssnitt för att kommunicera med ett personligt id-kort där referensrepresentationen är lagrad.
I ännu en utföringsform av den föreliggande uppfinningen presenteras ett datorprogram lagrat i ett av dator läsbart lagringsmedia och utförd i en beräkningsenhet för föremålsigenkänning av tre dimensionella (3D) föremål, bestående av: - En instruktionsuppsättning för att erhålla minst en externt förvärvad två- dimensionell (2D) representation av föremålet; ~ En instruktionsuppsättning för att detektera bildsärdrag i den erhållna 2D representationen ; - En instruktionsuppsättning för att beräkna en högst trolig 3D form av ett föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av föremålet med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och - En instruktionsuppsättning för att jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen.
Datorprogrammet kan vidare omfatta en instruktionsu ppsättning för att identifiera och/eller verifiera identitet av ett individuellt föremål från en föremålsklass eller stödja identifiering och/eller verifiering av ett individuellt föremål med hjälp av den beräknade 3D formen.
I en annan utföringsform av den föreliggande uppfinningen presenteras ett system för föremålsigenkänning av ett tre dimensionellt (3D) föremål, bestående av: - Medel för att erhålla åtminstone en tvådimensionell (2D) representation av föremålet; - Medel för att detektera bildsärdrag i den erhållna 2D representationen; - Medel för att beräkna en högst trolig 3D form av ett föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av föremålet med 15 _20 25 30 35 528 oss 7 hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; - Medel för att jämföra den beräknade 3D formen med en referensrepresentation av minst ett föremål av klassen; och - Medel för att reagera på ett resultat från medlet för jämförelse.
Systemet kan vidare omfatta medel för att identifiera och/eller verifiera identitet av ett individuellt föremål- från en föremålsklass eller stödja identifiering och/eller i verifiering av ett individuellt föremål med hjälp av den beräknade 3D formen. 10 I systemet kan referensrepresentationen lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort.
Kort beskrivning av ritningarna I det följande kommer uppfinningen beskrivas på ett icke begränsande sätt och mer i detalj med referens till exemplifierade utföringsformer illustrerade i medföljande ritningar, i vilka: Fig. 1 illustrerar' en tvåstegsprocedur för att beräkna 3D data från en indatabild.
Fig. 2 illustrerar en process för att anpassa en yta till en beräknad 3D form.
Fig. 3 är ett schematiskt blockdiagram av en anordning enligt föreliggande uppfinning. , Fig. 4 illustrerar ett schematiskt blockdiagram av stegen för en metod enligt föreliggande uppfinning.
Fig. 5 är en schematiskt illustration av ett system enligt föreliggande uppfinning.
Detaljerad beskrivning av uppfinningen Uppfinningen består av ett bildbehandlingssystem för automatisk återskapande av 3D form från bilder av föremål tillhörande en bestämd klass. Denna 3D 10 15 20 25 30 35 528 068 8 rekonstruktion görs genom att upprätta en statistisk formmodell, betecknad särdragsmodellen, som relaterar 2D bildsärdrag, t.ex. punkter eller kurvor, till deras motsvarande 3D positioner. En sådan modell tränas, d.v.s. modellparametrarna skattas från träningsdata där 2D-3D korrespondensen är känd.
Denna träningsfas (inlärningsfas) kan göras med hjälp av något lämpligt system för att erhålla sådan 2D-3D korrespondens, detta inkluderar, men är inte begränsat till, binokulära och multi-vy bildframtagningssystem, 3D skanners (djupskanners) eller liknande uppställningar. I denna process mäts det intressanta föremålet och en referensmodell av föremålet beräknas vilken kan användas i vidare bildanalys såsom kommer att 'beskrivas nedan.
Givet en indatabild är proceduren för att återskapa 3D formen en tvåstegsprocedur.
Först hittas bildsärdrag som t.ex. punkter, kurvor och konturer i bilderna, t.ex. med hjälp av tekniker såsom t.ex. ASM [1] eller gradientbaserade metoder eller klassificerare såsom t.ex. SVM. Sedan beräknas 3D form med hjälp av den tränade särdragsmodellen. Detta illustreras i Figur 1. Fig 1a illustrerar en bild av ett ansikte som ska analyseras, Fig. 1b illustrerar detektionen av föremåls-särdrag för att användas i analysen och forminformationsprocessen, och Fig. lc illustrerar den beräknade 3D formen som kan användas i igenkänningsprocessen.
Möjligheten att utöka 3D formrepresentationen från punkter och kurvor till en fullständig ytmodell genom att anpassa en yta till 3D data finns också. Detta illustreras i Figur 2, där Fig. 2a illustrerar den beräknade 3D formen, 2b illustrerar en anpassad yta till 3D data, och Fig. 2c illustrerar en 3D renderad ytmodell av den anpassade ytan.
Särdragsmodellen Antag att det finns ett antal element i en d-dimensionell vektor t, till exempel, en samling av 3D punkter i något normalíserat koordinatsystem. Startpunkten för härledningen av modellen är att elementen i t kan relateras till någon underliggande vektor u av dimension q där förhållandet är linjärt: t=Wu+y _ (1) där W är en matris av storlek d x q och p är en d-vektor som tillåter nollskilt medelvärde. När modellparametrarna W och ,u har tränats från exempel hålls de 10_ 15 2G 25 30 528 06% 9 fixa. Mätningarna görs emellertid i bilderna, vilka vanligtvis är en olinjär funktion av 3D särdragen enligt projektionsmodellen för den relevanta bildgivande anordningen.
Beteckna projektionsfunktionen som projicerar alla 3D särdrag till 2D särdrag med f : Rd -> Re, för en eller flera bilder. Dessutom behövs ett koordinatbyte på 3D särdragen för att passa den faktiska projektionsfunktlonen. Beteckna denna avbildning T : R” -> Rd . Typiskt är Ten likformighetstransformation på världskoordinatsystemet. Alltså projicerar f(T(t)) all normaliserad 3D data till alla bilder. Slutligen behövs en brusmodell specificeras. Man kan anta att bildmätningarnaär oberoende och normalfördelade, på samma sätt kan de underliggande variablerna antas vara Gaussfördelade med varians ett u ~ N(0,I).
Alltså, totalt sett: En =f(T(f))+$=f(T(W“+/1))+2 (2) där e ~ N(0, 0-2 I) för någon skalär o. Modellen är relaterad till PPCA, cf. Tipping and Bishop ([5]: 'fipping M.E., Bishop C.M., Probabilistic Principal Component Analysis, Phil. Trans. Royal Soc. London B, 61(3), p.611-622, 1999.), men det finns också skillnader p.g.a. olinjariteten i f(.). Innan modellen kan användas behöver modellens parametrar skattas från träningsdata. Givet att det är en probabilistisk modell görs detta bäst med maximum likelihood (ML). Antag att det finns givet n exempel {t,,,_, , ML skattningen för W och ,u erhålls genom att minimera: fl ll f... -flzotmlz + ll u. lf] (sl 1:1 över alla -okända parametrar. Standardavvikelsen o kan skattas a priori från data.
När modellparametrarna W och u har tränats från exempel hålls de fixa. I praktiken optimerar man alternerande över (WW) och {u,}'.“ |= , med gradientmetoder för att minimera (A3). Startskattningar kan fås genom att triangulera 3D struktur från varje mängd bilder och sedan använda PPCA algoritmer för den linjära delen.
Normaliseringen IK.) kan väljas så att varje normaliserat 3D exempel har medelvärde noll och varians ett. 10 15 20A 25 30 35 528 068 10 Det finns tre olika typer av geometriska särdrag inbäddade i modellen.
Punkter: En 3D punkt som är synlig i m>1 bilder representeras i vektorn t med sina 3D koordinater (X,Y,Z). För punkter synliga i endast en bild, m=1, finns ingen djupinformation tillgänglig, och sådana punkter representeras liknande som för konturpunkter.
Kurvor: En kurva representeras i modellen av ett antal punkter längs kurvan. Vid träning av modellen är det viktigt att parametrise ra varje 3D kurva så att varje punkt på kurvan approximativt motsvarar samma punkt på korresponderande kurva i de andra exemplen.
Konturer: Som för kurvor, kan konturer samplas (i bilderna). Det finns emellertid ingen 3D information tillgänglig för konturerna eftersom de är vyberoende. Ett enkelt sätt att hantera detta är att behandla punkter på konturer som 3D punkter med en konstant approximativ (men grov) djupskattning.
Hitta bildsårdrag Vid en online-händelse av ett nytt indata exempel vill man automatiskt hitta de underliggande variablerna u och, i tur och ordning, beräkna skattningar av 3D särdrag t. Den komponent som saknas i modellen är förhållandet mellan 2D bildsårdrag och de underliggande grånivå- (eller färg-) värdena vid dessa pixlar.
Det finns flera sätt att lösa detta, t.ex. med hjälp av en ASM (betecknad grånivåmode/I) eller detektorbaserade metoder.
Grånivåmodellen Återigen används en linjär modell (PPCA). Med användandet av samma notation som i (1), men nu med underskript gl för grånivå, kan modellen skrivas tg! = glugz +flg1+3g1 (4) där tg, är en vektor innehållande grånivåvärdena för alla 2D bildsårdrag och ag, är Gaussfördelat brusi mätningarna. I träningsfasen normaliseras grånivåerna för 10 15 20 25 30 35 528 068 11 varje data exempel genom att subtrahera medelvärdet och skala till varians ett.
ML-skattningen av Wg, och pg, beräknas med EM-algoritmen [5].
Detektor-baserade metoder Intressanta bíldpunkter och kurvor kan detekteras genom att analysera bildgradienten med hjälp av t.ex. Harris hörndetektor. Dessutom kan man använda _ speciellt designade filter som detektorer för bildsärd rag. Genom att designa filter så att svaret för särskilda lokala särdrag är högt kan bildsärd rag detekteras med hjälp av en 2D faltning.
Klassificeringsmetoder Med hjälp av klassificerare som t.ex. SVM kan bildregioner klassificeras som tillhörande ett särskilt särdrag eller inte. Genom att kombinera en serie av sådana klassificerare, en för varje särdrag (punkter, kurvor, konturer etc.), och skanna bilden vid alla lämpliga skalor kan bildsärdrag extraheras. Exempel kan vara t.ex. en ögondetektor för ansiktsbilder.
Deformerbara model/er Användandet av en deformerbar model som t.ex. Active Contour Models, även kallade snakes, för ett särskilt bildsärdrag är väldigt vanligt inom bildsegmentering.
Oftast är dessa särdrag kurvor. Proceduren är iterative och försöker optimera en energifunktion. En initial kurva deformeras gradvis till den bästa passformen enligt en energifunktion som kan innehålla termer för att reglera jämnheten på anpassningen så väl som andra egenskaper för kurvan.
Ytanpassning till 3D Data När 3D data har återskapats kan en ytmodell anpassas till 3D strukturen. Detta kan vara önskvärt i de fall som tvåstegsproceduren ovan enbart producerar en gles mängd av särdrag i 3D rymden såsom t.ex. punkter och kurvor. Även om dessa kurvor är karakteristiska för ett givet exemplar (eller individ) är det ofta inte tillräckligt för att bestämma en fullständig ytmodell och detta är särskilt svårt i områden där särdragen är glesa. Därför introduceras en 3D ytmodell bestående av en fullständig medelyta. Denna tjänar som en domänspecifik regulariserare, dvs. 10, 15 20 25 30 35 528 068 12 specifik för en given klass av föremål. Denna metod kräver att det finns tät 3D forminformation tillgängligt för några träningsexempel i träningsdata för föremålsklassen, erhållna från t.ex. laser-skanningar, eller i fallet av medicinska bilder från t.ex. MRI eller datortomografi. Från dessa täta 3D former kan en model, separat från särdragsmodellen ovan, byggas. Detta betyder att givet beräknad 3D form, i form av punkter och kurvor, från särdragsmodellen kan den bästa täta 3D form beräknas. Denna täta forminformation kan användas för att förbättra ytanpassning.
För att illustrera med ett exempel, betrakta fallet av föremålsklassen ansikten.
Modellen tränas med hjälp av t.ex. punkter, kurvor och konturer i bilder tillsammans med den sanna 3D formen motsvarande dessa särdrag, erhållen från t.ex. multi-vy stereotekniker. En andra modell skapas och tränas med hjälp av t.ex. laser-skanningar av ansikten, vilket ger en uppsättning ansiktsytor. Denna andra modell kan användas för att hitta den mest troliga (eller åtminstone högst trolig) medel-ansiktsyta (enligt den andra modellen) motsvarande särdragen eller den beräknade 3D formen. En yta kan sedan anpassas till 3D formen med det extra kravet 'att där det inte finns någon beräknad 3D form ska ytan likna den mest troliga medel-ansiktsytan.
Som ett andra exempel, betrakta fallet av föremålsklassen som ett specifikt blodkärl, t.ex. aorta. Modellen tränas då t.ex. med hjälp av kurvor och konturer i bilder tillsammans med den sanna 3D formen erhållen som t.ex. en 3D MRI bild.
Från de sanna 3D formerna tränas en andra modell bestående av ytan på aorta.
(Den mest troliga (eller högst troliga) aortaytan kan då beräknas från bildsärdragen eller från 3D formen beräknad från den första formmodellen.
Metoden tillhandahåller den mest troliga eller åtminstone en högst trolig 3D form, för många tillämpningar är detta tillräckligt och identifierings- och/eller verifieringsprocessen är inte nödvändig för den slutliga tillämpningen.
Vi har nu beskrivit den underliggande metoden för verifierings- och/eller identifieringsändamål. Vi hänvisar nu till Fig. 3 där en beskrivning av en anordning 400 som implementerat den föredragna metoden enligt föreliggande uppfinning kommer ges. En sådan anordning 400 kan vara vilken lämplig beräkningsanordning som helst såsom, men inte begränsat till, en persondator (PC), arbetsstation, ' inbyggd dator, eller en självständig anordning med en beräkningsenhet 401, såsom 10 15 20 25 30 35 528 068 13 en mikroprocessor, DSP (digital signal processor), FPGA (field programmable gate array), eller ASIC (application specific integrated circuit). Anordningen 400 har några medel för indata 404 för att erhålla bilder för analys och slutlig identifiering och/eller verifierlng. Medel för indata 404 kan vara vilket lämpligt kommunikationsgränssnitt som helst beroende på typ av bild och inkluderar, men inte begränsat till, USB (universal seriai bus), frame grabber, Ethernet eller Firewire. Bilddata flyttas till en beräkningsenhet 401 där mjukvara finns för att exekvera ovan beskriven metod enligt föreliggande uppfinning. Anordningen 400 kan vidare innefatta flyktigt eller icke-flyktigt minne 402 innehållande information relaterat till referensmaterial för jämförelse- och/eller analysändamål, t.ex. kända 2D-3D förhållanden för intressanta föremål. Anordningen 400 kan vidare innefatta kommunikationsmedel för att kommunicera med andra beräkningsenheter över t.ex. ett nätverksprotokoll (såsom Ethernet eller liknande protokoll) och medel för utdata 405 för att vidarebefordra resultat till exempelvis en skärm för behändig visualisering eller till en kontrollenhet (inte visad) för att kontrollera en extern process där de intressanta föremålen är delar. Sådana processer kan inkludera, men ärinte begränsade till, industriella produktionsprocesser där föremål kan väljas ut eller väljas bort beroende på resultatet från identifierings- och/eller verifieringsmetoden enligt föreliggande uppfinning, säkerhetsprocesser återigen för ändamål att välja ut eller välja bort i t.ex. flygplatssäkerhetssystem för undersökandet av innehåll i resväskor, väskor eller annan bagageutrustning, eller medicinska tillämpningar där den beräknade 3D formen kan användas för t.ex. navigering av instrument eller medicinska anordningar.
Metoden för igenkänning av föremål enligt föreliggande uppfinning kan illustreras med hjälp av Fig. 4. Metoden kan innefatta följande steg: 1. Erhålla minst en bild av ett föremål att identifieras och/eller verifieras (501); 2. Detektera bildsärdrag såsom t.ex. kurvor, punkter och konturer (502). 3. Analysera erhållen bild och återskapa 3D form som korresponderar till bildsärdragen med hjälp av en statistisk formmodell (503); 4. Jämföra analysen med tidigare erhållna referensbilder och jämföra 3D formen i gles eller tät form med tidigare erhållen referens 3D form (504); och 5. Reagera på utdata från jämförelseprocessen (505). 528 068 14 I en annan utföringsform av den föreliggande uppfinningen används ett system för . att erhålla bilder, analysera och reagera på resultat från identifiering och/eller I verfieringsprocessen, vilken kan ses i Fig. 5. Ett sådant system kan innehålla åtminstone en anordning för att förvärva bilder 601, en beräkningsanordning 400, 5 603 som beskrivet ovan, och någon form av svarsutrustning såsom t.ex. den industriella processutrustning eller säkerhetsprocessutrustning beskriven ovan.
Minst en anordning förjatt erhålla bilder 601 används för att erhålla en eller flera bilder som flyttas 602 till en beräkningsanordning 603 för analys och verifiering och/eller identifiering. Resultatet från denna process skickas till ett kontrollsystem 10 eller displaysystem 604. I fallet med ett ansiktsigenkänningssystem erhålls minst en bild av en person, till exempel personens ansikte, och bilden eller bilderna skickas till beräkningsanordningen 603, med hjälp av vilket lämpligt kommunikationsmedel som helst (trådat eller trådlöst), för analys och jämförelse av den erhållna bilden eller bilderna med data erhållet från referensmätningar t.ex. 15 med kända 2D-3D förhållande;_jämförelse kan emellertid göras mellan beräknad 3D form och lagrad 3D referensdata eller mellan en 2D ytmodell och en lagrad 2D referensytmodell. Resultatet kan göras tillgängligt genom t.ex. en displayenhet 604 och kan för illustrativa ändamål visas med både en referensbild 605 och den erhållna bilden 606 eller bilder renderade från den beräknade 3D formen såsom 20 visas i Fig. 5. Det bör uppskattas av fackmannen att bildinhämtningssystemet och/eller display/kontrollsystemet kan inkorporeras med beräkningsanordningen bildande en integrerad enhet och att resultatet kan visas på vilket lämpligt sätt som helst och begränsas inte till ovan beskrivna exempel. Istället för att skicka resultatet till en displayenhet 604 kan det användas i vilken lämplig kontrollprocess 25 som helst för att kontrollera t.ex. ett alarm, ett passagesystem, kontrollport, tullgrind, och så vidare.
Några av fördelarna föreliggande uppfinning bidrar med till det tekniska området kan illustreras med följande lista: 30 o Vilket antal bilder som helst, även så få som en enda bild, kan användas för att automatiskt återskapa 3D formen av ett föremål tillhörande föremålsklassen.
~ En statistisk multi-vy modell som representerar 2D och 3D data på ett 35 konsistent vis. o Processen ärautomatisk och beräkningseffektiv. 10 15 20 25 30 35 528 068 15 o Processen är robust med avseende till belysning och spekulära reflektioner vilketär ett problem för 3D rekonstruktionsmetoder baserade på bildkorrelation eller fotokonsistens. o Ytor kan anpassas till 3D strukturen med hjälp av domänspecifik regularisering tränad med statistiska formmodeller.
Flexibiliteten av föreliggande uppfinning kan illustreras med följande lista: o Den statistiska formmodellen kan användas för vilken föremålsklass som helst och projektionen av dessa föremål i bilder. o Metoden kan användas för vilken form av bildgivande anordning som helst (kamera, röntgen, multi-spektral, värme, etc.). o Uppfinningen kan användas med vilket antal blldgivande anordningar som helst (en eller flera). o Uppfinningen inkluderar möjligheten att kombinera många olika tekniker för att etablera 2D till 3D korrespondens (bildgivande system, 3D- (djup)sl etc.). o Uppfinningen inkluderar möjligheten att använda olika tekniker såsom ASM, gradientbaserade metoder eller deformerbara modeller, för att hitta bildsärdrag. o Omlföremålsklassen innehåller icke-rigida föremål, inkluderar uppfinningen möjligheten att etablera 2D tlll 3D modeller för olika dafarmatlarlar av föremålet (t.ex. olika ansiktsuttryck). o Uppfinningen inkluderar möjligheten att använda en statistisk formmodell för ytanpassning till den beräknade 3D formen.
Referensrepresentationer av föremål kan lagras på flera olika platser och med olika _ typer av system, såsom, men inte begränsat till, lokalt på något icke-flyktigt minne i en anordning som utnyttjar föremålsigenkänning enligt föreliggande uppfinning, på en centraliserad server t.ex. en databasserver eller ett personligt id-kort innehållande en referensrepresentation av ett föremål såsom en person och detta id-kort kan användas i t.ex. ett passersystem. Kommunikation mellan ett Iföremålsigenkänningssystem och ett lagringssystem för referensrepresentationer kan utnyttja olika typer av säkerhetsnivåer och/eller metoder såsom RADIUS, DIAMETER, SSL, SSH, eller vilket annat krypterat kommunikationssystem som helst som förstås av fackmannen. ...,, 528 068 Möjliga tillämpningsområden för ovan beskrivna uppfinning spänner över igenkänning och verifiering av föremål i industriella processer, fastställa och/eller identifiera föremål för säkerhetsändamål, föremålsigenkänning för militära ändamål 5 t.ex. automatisk bestämning av militära fordon, militära fartyg, flygmaskiner och så vidare, ansiktsigenkänningssystem för många olika tillämpningar t.ex. biometri, informationssäkerhet, polisiära tillämpningar, smarta kort, passagesystem och så vidare. i 10 Ovanstående nämnda och beskrivna utföringsformer är givna enbart som exempel och skall inte vara begränsande för den föreliggande uppfinningen. Andra lösningar, användningar, ändamål och funktioner inom ramen för uppfinningen så som yrkas i .nedan beskrivna patentkrav skall vara uppenbara för fackmannen.

Claims (1)

1. ___., 10 15 20 25 30 35 KYBV 528 068 17 . En metod för föremålsigenkänning av ett tredimensionellt (3D) föremål, »bestående av följande steg: - erhålla minst en tvådimensionell (2D) representation av sagda föremål; - detektera bildsärdrag i sagda erhållna 2D representation; - återskapa en högst trolig 3D form av sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål med hjälp av minst en erhållen bild där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och - jämföra sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda föremålsklass. Metoden enligt krav 1, vari sagda återskapade 3D form är en fullständig ytmodell. . Metoden enligt krav 2, vari sagda fullständiga ytmodell beräknas från 2D eller 3D särdrag. Metoden enligt krav 1 till 3, vari sagda föremålsklass innehåller icke-rigida föremål och sagda statistiska formmodell tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen i sagda icke-rigida föremålsklass. Metoden enligt något av kraven 1 - 4, vidare omfattande steget att identifiera ett specifikt föremål från en föremålsklass eller stödja identifieringen av ett specifikt föremål med hjälp av sagda återskapade 3D form. Metoden enligt något av kraven 1 - 4, vidare omfattande steget att verifiera identiteten för ett specifikt föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av sagda beräknade 3D form. . Metoden enligt krav 2 eller 3, vidare omfattande steget att: anpassa en yta till sagda återskapade 3D form med hjälp av en tränad statistisk formmodell ___., 10 15 20 25 30 35 528 068 18 för sagda föremåls yta för att regularisera sagda ytform på ett sätt som är 'specifikt för sagda föremålsklass. 8. Metoden enligt krav 1 - 7, vari sagda föremål kan vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en industriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål. 9. Metoden enligt krav 1, vari sagda referensrepresentation lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort. 10. En anordning (400) för föremålsigenkänning av ett tredimensionellt (3D) föremål, bestående av: medel för att erhålla (404) åtminstone en tvådimensionell (ZD) representation av sagda föremål (607) ; medel för att detektera (401) bildsärdrag i sagda erhållna 2D representation ; medel för att återskapa (401) en högst trolig 3D form av sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en statistisk multi-vy formmodell av formvariationen; och medel för att jämföra (401) sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda föremålsklass. 11.Anordningen (400) enligt krav 10, vari sagda återskapade 3D form är en fullständig ytmodell. 12.Anordningen (400) enligt krav 11, vari sagda fullständiga ytmodell beräknas från 2D eller 3D särdrag. 13.Anordningen (400) enligt krav 10 - 12, vari sagda föremålsklass innehåller icke-rigida föremål och sagda statistiska formmodell tränas med hjälp av 2D och 3D data specifika för möjliga deformationer av föremålen l sagda icke- rigida föremålsklass. ___., 10 15 20 25 30 35 528 068 19 14. Anordningen (400) enligt något av krav 10 - 13, vidare omfattande medel att identifiera ett specifikt föremål från en föremålsklass eller stödja identifieringen av ett specifikt föremål med hjälp av sagda beräknade 3D form. 15,. Anordningen (400) enligt något av krav 10 - 13, vidare omfattande medel att verifiera identiteten för ett specifikt föremål från en föremålsklass eller stödja verifieringen av identiteten av ett specifikt föremål med hjälp av sagda återskapade. 3D form. 16. Anordningen (400) enligt krav 11 eller 12, vidare omfattande medel att: anpassa en yta till sagda återskapade 3D form med hjälp av en tränad statistisk formmodell för sagda föremåls yta för att regularisera sagda ytform på ett sätt som är specifikt för sagda föremålsklass. 17. Anordningen (400) enligt något av krav 10 - 16, vari sagda föremål kan vara ett eller flera av: ett mänskligt ansikte, en människokropp, inre organ i en människokropp, blodkärl, djur, inre organ i ett djur, en tumör, tillverkade produkt(er) från en industriprocess, ett fordon, ett flygplan, ett fartyg, militära föremål. _ 18. Anordningen (400) enligt krav 17, vari sagda beräknade 3D former av blodkärl eller organ beräknade från 2D projektioner, t.ex. med hjälp av röntgenbilder, används för att navigera styrbara katetrar eller för att stödja läkare genom att visa sagda beräknade 3D form. 19.Anordningen (400) enligt krav 17, vari sagda återskapade 3D former av ansiktssärdrag används för att identifiera eller verifiera identiteten av en individ i ett passagekontrollssystem eller säkerhetssystem, vilket resulterar i att sagda individ accepteras eller refuseras. 20. Anordningen (400) enligt krav 10, vidare omfattande ett gränssnitt för att kommunicera med ett personligt id-kort där sagda referensrepresentation är lagrad. 10. 15 20 25 30 35 21. 22. 23. 528 068 20 Ett datorprogram lagrat i ett för dator läsbart lagringsmedia (402) och utförd l en beräkningsanordning (401) för föremålsigenkänning av ett tre dimensionellt (3D) föremål, bestående av: - . en instruktionsuppsättning för att erhålla minst en externt förvärvad två- dimensionell (2D) representation av sagda föremål (607); - en instruktionsuppsättning för att detektera bildsärdrag i sagda erhållna 2D representation; - en instruktionsuppsättning för att återskapa en högst trolig 3D form av 'sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en tränad statistisk multi- vy formmodell av formvariationen; och - en instruktionsuppsättning för att jämföra sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda klass. Datorprogrammet enligt krav 21, vidare omfattande en instruktionsuppsättning för att identifiera och/eller verifiera ett individuellt föremål från en föremålsklass eller stödja sagda identifiering och/eller verifiering av sagda individuella föremål med hjälp av sagda återskapade 3D form. Ett system för föremålsigenkänning av ett tredimensionellt (3D) föremål, bestående av: - medel för att erhålla (601) åtminstone en tvådimensionell (2D) representation av sagda föremål (607) ; - medel för att detektera (401) bildsärdrag i sagda erhållna 2D representation; - medel för att återskapa (401, 603) en högst trolig 3D form av sagda föremål, tillhörande en viss klass av föremål, som är konsistent med 2D bilder av sagda föremål (607) med hjälp av en eller flera bilder där 2D särdrag detekterats och med hjälp av en tränad statistisk multi-vy formmodell av formvariationen; - medel för att jämföra (401) sagda återskapade 3D form med en referensrepresentation av minst ett föremål av sagda föremålsklass; och i - medel för att reagera (604) på ett resultat from sagda medel för att jämföra (401). 528 063 21 24. Systemet enligt krav 23, vidare omfattande medel att identifiera och/eller verifiera ett specifikt föremål från en föremålsklass eller stödja sagda identifiering och/eller verifiering av sagda specifika föremål med hjälp av sagda återskapacle 3D form. 25. Systemet enligt krav 23, där sagda referensrepresentation lagras i minst en av ett icke-flyktigt minne, en databas server och ett personligt id-kort. 10
SE0402048A 2004-08-19 2004-08-19 Igenkänning av 3D föremål SE528068C2 (sv)

Priority Applications (7)

Application Number Priority Date Filing Date Title
SE0402048A SE528068C2 (sv) 2004-08-19 2004-08-19 Igenkänning av 3D föremål
ES05771849T ES2385041T3 (es) 2004-08-19 2005-08-11 Reconocimiento de objetos 3D
EP05771849A EP1810216B1 (en) 2004-08-19 2005-08-11 3d object recognition
PCT/SE2005/001203 WO2006019350A1 (en) 2004-08-19 2005-08-11 3d object recognition
AT05771849T ATE551664T1 (de) 2004-08-19 2005-08-11 3d-objekterkennung
US11/201,419 US8064685B2 (en) 2004-08-19 2005-08-11 3D object recognition
US13/299,211 US9087232B2 (en) 2004-08-19 2011-11-17 3D object recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE0402048A SE528068C2 (sv) 2004-08-19 2004-08-19 Igenkänning av 3D föremål

Publications (3)

Publication Number Publication Date
SE0402048D0 SE0402048D0 (sv) 2004-08-19
SE0402048L SE0402048L (sv) 2006-02-20
SE528068C2 true SE528068C2 (sv) 2006-08-22

Family

ID=32960418

Family Applications (1)

Application Number Title Priority Date Filing Date
SE0402048A SE528068C2 (sv) 2004-08-19 2004-08-19 Igenkänning av 3D föremål

Country Status (4)

Country Link
US (2) US8064685B2 (sv)
AT (1) ATE551664T1 (sv)
ES (1) ES2385041T3 (sv)
SE (1) SE528068C2 (sv)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754387B1 (ko) * 2004-12-06 2007-08-31 삼성전자주식회사 그래픽 컨텐츠 제작장치와 방법 및 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록매체
US7982777B2 (en) * 2005-04-07 2011-07-19 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
WO2006138525A2 (en) * 2005-06-16 2006-12-28 Strider Labs System and method for recognition in 2d images using 3d class models
JP4362489B2 (ja) * 2006-03-29 2009-11-11 日本電気株式会社 3次元顔データ登録システム、3次元顔データ登録方法、及び登録処理プログラム
US8073252B2 (en) * 2006-06-09 2011-12-06 Siemens Corporation Sparse volume segmentation for 3D scans
WO2008005834A2 (en) * 2006-06-30 2008-01-10 The Intertech Group, Inc. Biometric aid for customer relations
CN101641049A (zh) * 2007-03-21 2010-02-03 光谱辨识公司 基于局部一致特征的生物测定
EP2195781A1 (en) * 2007-08-30 2010-06-16 Feeling Software Online shopping system and method using 3d reconstruction
US8488129B2 (en) * 2007-10-05 2013-07-16 Artec Group, Inc. Combined object capturing system and display device and associated method
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
US20090157649A1 (en) * 2007-12-17 2009-06-18 Panagiotis Papadakis Hybrid Method and System for Content-based 3D Model Search
US20100039682A1 (en) * 2008-08-18 2010-02-18 Waterloo Industries, Inc. Systems And Arrangements For Object Identification
JP2010266983A (ja) * 2009-05-13 2010-11-25 Sony Corp 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム
US20100309290A1 (en) * 2009-06-08 2010-12-09 Stephen Brooks Myers System for capture and display of stereoscopic content
US20110080471A1 (en) * 2009-10-06 2011-04-07 Iowa State University Research Foundation, Inc. Hybrid method for 3D shape measurement
US8488873B2 (en) * 2009-10-07 2013-07-16 Apple Inc. Method of computing global-to-local metrics for recognition
US10524741B2 (en) * 2010-03-31 2020-01-07 Koninklijke Philips N.V. Automated identification of an anatomy part
US8655053B1 (en) 2010-05-31 2014-02-18 Andrew S Hansen Body modeling and garment fitting using an electronic device
US8908928B1 (en) 2010-05-31 2014-12-09 Andrew S. Hansen Body modeling and garment fitting using an electronic device
US8861800B2 (en) * 2010-07-19 2014-10-14 Carnegie Mellon University Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
US8655027B1 (en) * 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
AU2012247147A1 (en) 2011-04-28 2013-12-12 Koninklijke Philips Electronics N.V. Face location detection
WO2013014328A1 (en) * 2011-07-25 2013-01-31 Nokia Corporation Methods and apparatuses for facilitating locking and unlocking of secure functionality through object recognition
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US8593452B2 (en) 2011-12-20 2013-11-26 Apple Inc. Face feature vector construction
WO2013115202A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9311746B2 (en) 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US8983201B2 (en) 2012-07-30 2015-03-17 Microsoft Technology Licensing, Llc Three-dimensional visual phrases for object recognition
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
US8929644B2 (en) 2013-01-02 2015-01-06 Iowa State University Research Foundation 3D shape measurement using dithering
US9508120B2 (en) * 2013-07-08 2016-11-29 Augmented Reality Lab LLC System and method for computer vision item recognition and target tracking
US9973722B2 (en) 2013-08-27 2018-05-15 Qualcomm Incorporated Systems, devices and methods for displaying pictures in a picture
CN106462995B (zh) 2014-06-20 2020-04-28 英特尔公司 3d面部模型重建装置和方法
US20170308736A1 (en) * 2014-10-28 2017-10-26 Hewlett-Packard Development Company, L.P. Three dimensional object recognition
EP3408848A4 (en) 2016-01-29 2019-08-28 Pointivo Inc. SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION
JP6871367B2 (ja) 2016-10-07 2021-05-12 トヨタ モーター ヨーロッパ オブジェクトを認識及び位置特定するための電気デバイス、システム及び方法
WO2018067978A1 (en) * 2016-10-08 2018-04-12 Purdue Research Foundation Method and apparatus for generating two-dimensional image data describing a three-dimensional image
CN107958435A (zh) * 2016-10-17 2018-04-24 同方威视技术股份有限公司 安检系统及配置安检设备的方法
MX2019006981A (es) * 2016-12-14 2020-09-07 Novetechnologies Llc Sistema de bioseguridad de ganado y metodo de uso.
JP6987508B2 (ja) * 2017-02-20 2022-01-05 オムロン株式会社 形状推定装置及び方法
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
JP6955081B2 (ja) 2017-07-20 2021-10-27 トヨタ モーター ヨーロッパ オブジェクト姿勢を決定するための電子デバイス、システムおよび方法
EP3726462A4 (en) * 2017-12-14 2020-12-23 NEC Corporation IDENTIFICATION DEVICE, IDENTIFICATION METHOD AND STORAGE MEDIUM
JP7184801B2 (ja) * 2017-12-14 2022-12-06 日本電気株式会社 学習装置、学習方法、および学習プログラム
WO2019169594A1 (en) * 2018-03-08 2019-09-12 Intel Corporation Methods and apparatus to generate three-dimensional (3d) model for 3d scene reconstruction
WO2019240749A1 (en) * 2018-06-11 2019-12-19 Hewlett-Packard Development Company, L.P. Model generation based on sketch input
IT201900001749A1 (it) * 2019-02-06 2020-08-06 Primeconcept S R L Sistema di controllo di un processo soggetto a regole di esecuzione.
US10853631B2 (en) 2019-07-24 2020-12-01 Advanced New Technologies Co., Ltd. Face verification method and apparatus, server and readable storage medium
EP3809314A1 (en) 2019-10-15 2021-04-21 Bentley Systems, Incorporated 3d object detection from calibrated 2d images background
KR20220038996A (ko) 2020-09-21 2022-03-29 삼성전자주식회사 특징 임베딩 방법 및 장치

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3578241D1 (de) 1985-06-19 1990-07-19 Ibm Verfahren zum identifizieren dreidimensionaler objekte mittels zweidimensionaler bilder.
US5063603A (en) 1989-11-06 1991-11-05 David Sarnoff Research Center, Inc. Dynamic method for recognizing objects and image processing system therefor
JP2919284B2 (ja) 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
WO1999015945A2 (en) * 1997-09-23 1999-04-01 Enroute, Inc. Generating three-dimensional models of objects defined by two-dimensional image data
US6137896A (en) 1997-10-07 2000-10-24 National Research Council Of Canada Method of recognizing faces using range images
EP1039417B1 (en) 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
FR2798760B1 (fr) * 1999-09-17 2002-03-29 Univ Joseph Fourier Reconstitution de surfaces en trois dimensions par utilisation de modeles statistiques
CA2390695A1 (en) 1999-11-09 2001-05-17 The Victoria University Of Manchester Object class identification, verification or object image synthesis
US6879946B2 (en) * 1999-11-30 2005-04-12 Pattern Discovery Software Systems Ltd. Intelligent modeling, transformation and manipulation system
US6775397B1 (en) * 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
AU782011B2 (en) * 2000-03-08 2005-06-30 Cyberextruder.Com, Inc. Apparatus and method for generating a three-dimensional representation from a two-dimensional image
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
US6956569B1 (en) 2000-03-30 2005-10-18 Nec Corporation Method for matching a two dimensional image to one of a plurality of three dimensional candidate models contained in a database
GB0112773D0 (en) 2001-05-25 2001-07-18 Univ Manchester Object identification
GB0114271D0 (en) 2001-06-12 2001-08-01 Univ Manchester Parameterisation
US6873718B2 (en) * 2001-10-12 2005-03-29 Siemens Corporate Research, Inc. System and method for 3D statistical shape model for the left ventricle of the heart
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US20030161505A1 (en) * 2002-02-12 2003-08-28 Lawrence Schrank System and method for biometric data capture and comparison
US20030160786A1 (en) * 2002-02-28 2003-08-28 Johnson Richard K. Automatic determination of borders of body structures
CN1669052B (zh) * 2002-07-10 2010-05-26 日本电气株式会社 使用三维物体模型的图像匹配系统以及图像匹配方法
US7421097B2 (en) * 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
US20050226509A1 (en) * 2004-03-30 2005-10-13 Thomas Maurer Efficient classification of three dimensional face models for human identification and other applications
WO2006019350A1 (en) 2004-08-19 2006-02-23 Ground Truth Vision Ab 3d object recognition

Also Published As

Publication number Publication date
US8064685B2 (en) 2011-11-22
ES2385041T3 (es) 2012-07-17
US9087232B2 (en) 2015-07-21
SE0402048D0 (sv) 2004-08-19
SE0402048L (sv) 2006-02-20
ATE551664T1 (de) 2012-04-15
US20120114251A1 (en) 2012-05-10
US20060039600A1 (en) 2006-02-23

Similar Documents

Publication Publication Date Title
SE528068C2 (sv) Igenkänning av 3D föremål
Dou et al. End-to-end 3D face reconstruction with deep neural networks
CN108549873B (zh) 三维人脸识别方法和三维人脸识别系统
JP6681729B2 (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
Papazov et al. Real-time 3D head pose and facial landmark estimation from depth images using triangular surface patch features
US20190206546A1 (en) Modeling and learning character traits and medical condition based on 3d facial features
US20200066036A1 (en) Method and apparatus for training object detection model
Hashemi et al. Template matching advances and applications in image analysis
JP6624794B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN112052831B (zh) 人脸检测的方法、装置和计算机存储介质
WO2016073841A1 (en) Scan data retrieval with depth sensor data
Chowdhary 3D object recognition system based on local shape descriptors and depth data analysis
CN112750531A (zh) 一种中医自动化望诊系统、方法、设备和介质
JP2015197708A (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
Fan et al. Smoothness-driven consensus based on compact representation for robust feature matching
Caya et al. Recognition of tongue print biometrie using binary robust independent elementary features
Alsawwaf et al. In your face: person identification through ratios and distances between facial features
EP1810216B1 (en) 3d object recognition
US20240005650A1 (en) Representation learning
Hsu A hybrid approach for brain image registration with local constraints
CN116091686A (zh) 用于三维重建的方法、系统和存储介质
KR102382883B1 (ko) 3차원 손 자세 인식 장치 및 방법
Chhabra et al. Comparison of different edge detection techniques to improve quality of medical images
Felsberg et al. Computer Analysis of Images and Patterns: 17th International Conference, CAIP 2017, Ystad, Sweden, August 22-24, 2017, Proceedings, Part II
Nan Image Registration with Homography: A Refresher with Differentiable Mutual Information, Ordinary Differential Equation and Complex Matrix Exponential

Legal Events

Date Code Title Description
NUG Patent has lapsed