SE1000142A1 - Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild - Google Patents
Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild Download PDFInfo
- Publication number
- SE1000142A1 SE1000142A1 SE1000142A SE1000142A SE1000142A1 SE 1000142 A1 SE1000142 A1 SE 1000142A1 SE 1000142 A SE1000142 A SE 1000142A SE 1000142 A SE1000142 A SE 1000142A SE 1000142 A1 SE1000142 A1 SE 1000142A1
- Authority
- SE
- Sweden
- Prior art keywords
- image
- source
- area
- target
- data information
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 74
- 238000003384 imaging method Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 6
- 238000002156 mixing Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 230000007257 malfunction Effects 0.000 description 10
- 239000000203 mixture Substances 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000002349 favourable effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000012528 membrane Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000012896 Statistical algorithm Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G06K9/00221—
-
- G06K9/00228—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G06T7/003—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
15 20 25 30 35 2 identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och skapande av en digital bild baserad på bilddatainformation från målbilden, varvid bilddatainformation från målområdet sömlöst ersätts med bilddatainformation från källområdet.
I enlighet med en andra aspekt tillhandahålls ett förfarande för digital bildmanipulation innefattande: mottagning av en källbild och en målbild, identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och skapande av en digital bild baserad på bilddatainformation från källbilden, varvid bilddatainformation från källområdet sömlöst ersätts med bilddatainformation från målområdet.
Således kan en digital bild skapas baserad på bildatainformation från en av målbilden, varvid bilddatainformation från målområdet sömlöst ersätts med bilddatainformation från källområdet, eller källbilden, varvid bilddatainformation från källområdet sömlöst ersätts med bilddatainformation från målområdet.
Förfarandet möjliggör således att områden i digitala bilder ersättas sömlöst. Förfarandena gör det möjligt för områden med defekter att sömlöst ersättas med områden från andra bilder. Exempelvis kan ett område i en bild som avbildar människor med slutna ögon ersättas med ett motsvarande område från en annan (liknande) bild där ögonen på (den samma) människan är öppna, inter alia genom att tillåta en användare att ersätta delar av en bild med samma område från olika bilder.
Företrädesvis är bilderna lika på så vis att de avbildar samma scen (innefattande samma fotografiska element) och som tas i följd med ett ganska litet tidsmässigt avstånd mellan bildtagningarna.
Förfarandet kan vidare innefatta mottagning av särdragsinformation avseende ett särdrag i åtminstone en av nämnda källbild och nämnda målbild, varvid åtminstone en av nämnda källbild och nämnda målbild innefattar nämnda särdrag, och identifiering av nämnda källområdet baserat på nämnda särdrag.
Förfarandet kan vidare innefatta bestämning av huruvida ett av nämnda källområdet och nämnda målområde uppfyller ett villkor baserat på nämnda särdragsinformation, och skapande av nämnda digitala bild baserat 10 15 20 25 30 35 3 på nämnda bestämning. Därmed kan den skapade bilden bestämmas att innefatta ett område eller objekt innefattande ett förutbestämt särdrag.
Uppsättningen koordinater för källområdet kan användas så att en uppsättningen koordinaterför målområdet i målbilden motsvarar uppsättningen koordinaterför källområdet. Därmed kan målområdet enkelt bestämmas.
Identifiering av källområdet kan vidare innefatta bestämning av en kompensationsrörelse mellan åtminstone en del av nämnda källbild och åtminstone en del av nämnda målbild sådan att nämnda kompensationsrörelse minimerar en skillnad mellan källbilden och målbilden.
Därmed behöver inte källbilden och målbilden vara perfekt (dvs. pixel för pixel) upplinjerade.
Förfarandet kan vidare innefatta användning av ett ”thin plate spline"- förfarande för att bestämma nämnda kompensationsrörelse. Därmed kan en snabb och effektiv rörelsekompensation uppnås.
Detaljmåttet kan vara baserat på dataenhetslängder för dataenheter, ”data units", i nämnda kandidatkällområde och nämnda kandidatmålområde.
Därmed kan ett snabbt men samtidigt precist detaljmått användas.
Förfarandet kan vidare innefatta mjuk blandning mellan källbilden och målbilden medelst användning av ”quad-tree"-optimering. Därmed kan snabb och effektiv mjuk blandning åstadkommas.
Förfarandet kan vidare innefatta ersättning av en av målbilden och källbilden med den skapade digitala bilden. Därmed kan minnesbehov minskas.
Källbilden och målbilden kan ha kodats. Förfarandet kan vidare innefatta att i källbilden endast avkoda bilddatainformation som representerar källområdet, och att i målbilden endast avkoda bilddatainformation som representerar målområdet. Därmed kan snabb bildmanipulation åstadkommas.
Källområdet kan motsvara ett källobjekt. Målområdet kan motsvara ett målobjekt. Källobjektet och målobjekt kan representera ett och samma objekt.
Därmed kan objektigenkänning användas för att förbättra förfarandet.
Förfarandet kan innefatta mottagning av en signal som identifierar nämnda källområde. Signalen kan vara associerad med användarinmatning.
Därmed kan källområdet identifieras av en användare.
I enlighet med en tredje aspekt realiseras föreliggande uppfinning av en anordning för digital bildmanipulation innefattande: organ för mottagning 10 15 20 25 30 35 4 av en källbild och en målbild, organ för identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, organ för användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och organ för skapande av en digital bild baserad på bilddatainformation från målbilden, varvid bilddatainformation från målområdet sömlöst ersätts med bilddatainformation från källområdet.
I enlighet med en fjärde aspekt realiseras föreliggande uppfinning av en anordning för digital bildmanipulation innefattande: organ för mottagning av en källbild och en målbild, organ för identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, organ för användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och organ för skapande av en digital bild baserad på bilddatainformation från källbilden, varvid bilddatainformation från källområdet sömlöst ersätts med bilddatainformation från målområdet.
Anordningen enligt den tredje och/eller fiärde aspekten kan vidare innefatta en kamera, och nämnda källbild och/eller nämnda målbild kan mottagas från nämnda kamera.
I enlighet med en femte aspekt realiseras föreliggande uppfinning av en datorprogramprodukt för digital bildmanipulation. Således tillhandahålls en datorprogramprodukt innefattande mjukvaruinstruktioner som då de nedladdats till en dator är anordnade att utföra bildbehandling enligt de ovan angivna förfaranden för digital bildmanipulation.
Den andra, den tredje, den fjärde och den femte aspekten kan generellt sett ha samma särdrag och fördelar som den första aspekten. Andra syften, särdrag och fördelar för föreliggande uppfinning kommer att vara uppenbara från den följande detaljerande beskrivningen, från de bifogade beroende patentkraven, samt även från ritningarna.
Generellt sett skall alla termer som används i patentkraven tolkas enligt deras vanliga betydelse inom det tekniska området, såvida de inte explicit definieras häri. Alla hänvisningar till ”en/ett/den/det [element, anordning, komponent, organ, steg, etc.]” ska tolkas brett såsom hänvisande till minst en förekomst av elementet, anordningen, komponenten, organet, steget, etc., såvida inte något annat anges. Stegen för något förfarande som beskrivs häri behöver inte utföras i den exakta ordning som visas, såvida inte något annat anges. 10 15 20 25 30 35 Kort beskrivninq av ritninqarna Utföringsformer av föreliggande uppfinning kommer nu att beskrivas i mer detalj med hänvisning till de bifogade ritningarna, i vilka: Fig. 1a-b är schematiska illustrationer av anordningar enligt utföringsformer, Fig. 2 är en schematisk illustration av ett exempel enligt en utföringsform, Fig. 3a-5c är schematiska illustrationer av exempel enligt utföringsformer, Fig. 6 är en schematisk illustration av ett snittförfarande enligt en utföringsform, och Fig. 7 är ett flödesdiagram för förfarande enligt utföringsformer.
Detaljerad beskrivninq ab föredraqna utförinqsformer Föreliggande uppfinning kommer nu att här nedan beskrivas mer detaljerat med hänvisning till de bifogade ritningarna i vilka särskilda utföringsformer visas. Samma nummer används genomgående till samma element. Men, föreliggande uppfinning kan utföras i många olika skepnader och skall inte tolkas som begränsad av utföringsformerna som visas häri; dessa utföringsformer tillhandahålles som exempel så att denna beskrivning är detaljerad och komplett och förmedlar uppfinningens omfattning för fackmannen inom området. Till exempel, för illustrativa syften presenteras innehållet i ett JPEG-sammanhang. Men innehållet är även tillämpbart för andra standarder och format, mutatis mitandis.
Fig. 1a är en schematisk illustration av en mobil kommunikationsanordning 100 enligt en utföringsform. Anordningen 100 kan vara en dator. Anordningen 100 kan vara en personlig digital assistent (PDA).
Anordningen 100 kan vara en mobiltelefon. Generellt innefattar anordningen 100 kretsar anordnade att utföra ett antal operationer och kommer att beskrivas i termer av funktionella block. Generellt sett kan de funktionella blocken implementeras på olika sätt, såsom en eller flera fältprogrammerbara grindmatriser (FPGA:er), tillämpningsspecifika integrerade kretsar (ASlC:ar), eller liknande. Anordningen 100 innefattar ett processorfunktionellt block 104 vilket kan realiseras som en central processorenhet och/eller en specialiserad bildbehandlingsenhet, såsom en hårdvaruaccelerator för JPEG. Processorn kan även hänvisa till en grafikbehandlingsenhet (GPU) kapabel att utföra beräkningar, såsom pixel/fragment-renderare i OpenGL/OpenCL. 10 15 20 25 30 35 6 Bildbehandlingsenheten kan implementeras som en datorprogramprodukt innefattande en eller flera mjukvarukomponenter, eller som en dedikerad hårdvaruenhet för bildbehandling. Mjukvarukomponenterna kan innefatta mjukvaruinstruktioner som då de nedladdats till en dator är anordnade att utföra instruktioner associerade med bildbehandlingsenheten. Anordningen 100 innefattar vidare ett minnesfunktionellt block 106, vilket kan realiseras som ett minne eller ett datorläsbart lagringsmedium, såsom ett minne med direkt åtkomst (RAM), ett minne med enbart läsning (ROM), en produkt för en universell seriebuss (USB) såsom en minnessticka, eller liknande.
Anordningen 100 innefattar vidare ett kommunikationsfunktionellt block 108, vilket kan realiseras av en mottagare eller en sändare och/eller en sändare- mottagare, och som inter alia är anordnad(e) att mottaga inmatning från, och att leverera utmatning till, ett funktionsblock 110 för ett människa-maskin- gränssnitt (MMl), till en annan mobil kommunikationsanordning, en dator, eller liknande. Anordningen 100 programkörs under övervakning av ett operativsystem 102. Anordningen 100 kan vidare innefatta en bildtagningsenhet 112, vilken kan realiseras av en kamera eller liknande.
Alternativt kan anordningen 100 vara operativt kopplad till en extern bildtagningsenhet (ej visad) via det kommunikationsgränssnittsfunktionella blocket 108. Såsom kommer att visas nedan kan anordningen ha tillgång till uppsättningar bilder från vilka bilderna kan väljas. Sådana bilder kan härstamma från en videosekvens, såsom en videofil, eller från en videoövervakningskamera. De externa bildtagningsenheten kan vara kopplad till anordningen via ett externt nätverksgränssnitt som kan vara trådlöst, såsom ett 3G-modem, eller ett WLAN.
Det minnesfunktionella blocket 106 kan rymma en datorprogramprodukt 114 innefattande mjukvaruinstruktioner som då de nedladdats till en dator, såsom anordningen 100, och körda på processorn 104, är anordnade att utföra det som häri beskrivs. Alternativt kan mjukvaruinstruktionerna vara separat distribuerbara för att distribueras i ett datornätverk (ej visat).
Fig. 1b är en schematisk illustration av en bildmanipulator 120 enligt en utföringsform. Bildmanipulatorn innefattar ett antal funktionsblock vilka kan vara implementerade i processorn 104 i anordningen 100 i Fig. 1a.
Bildmanipulatorn 120 innefattar en bildmottagare 124 anordnad att mottaga källbilder 148 och målbilder 150. Bildmottagaren 124 kan innefatta en avkodare 126 för att avkoda käll- och/eller målbilder. Bildmanipulatorn 120 10 15 20 25 30 35 7 innefattar vidare en källområdesidentifierare 128 kopplad till bildmottagaren 124 och anordnad för att i källbilden 148 identifiera ett område.
Källområdesidentifieraren 128 kan innefatta en kandidatkällområdesidentifierare 130 anordnad för att identifiera ett kandidatkällområde på vilket källområdet kan vara baserat. Bildmanipulatorn 120 innefattar vidare en målområdesidentifierare 132 kopplad till bildmottagaren 124 och källområdesidentifieraren 128 och är anordnad för att i målbilden 150 identifiera ett område baserat på källområdet.
Målområdesidentifieraren 132 kan innefatta en kandidatmàlområdesidentifierare 134 anordnad för att identifiera ett kandidatmålområde på vilket målområdet kan vara baserat. Bildmanipulatorn 120 innefattar vidare ett beräkningsblock 136 kopplat till källområdesidentifieraren 128 och målområdesidentifieraren 132 och kan innefatta ett block 138 anordnat för att beräkna en kompensationsrörelse, ett block 140 anordnat för att beräkna ett snitt, och ett block 142 anordnat för att beräkna ett detaljmått. Bildmanipulatorn 120 innefattar vidare en bildskapare 144 kopplad till källområdesidentifieraren 128 och målområdesidentifieraren 132 och år anordnad skapa en digital bild 158. Bildskaparen 132 man innefatta en bildblandare 146 anordnat att mjukt blanda den bild som skall skapas. Källområdesidentifieraren 128 är dessutom kopplad till en signalmottagare 154 anordnat för att mottaga användarinmatning, till ett särdragsinformationsblock 156 som rymmer information relaterad till särdrag i källbilden 148 och/eller målbilden 150, och till ett särdragsvillkorsblock 152 som rymmer villkor relaterade till särdragen.
Ett förfarande för digital bildmanipulation kommer nu att beskrivas med hänvisning till anordningen 100 i Fig. 1a, till bildmanipulatorn 120 i Fig. 1b och till flödesschemat i F ig. 7. Generellt sett kan det som häri beskrivs möjliggöra att ett preliminärt område i en digital bild som till exempel anses som otillfredsställande, ogynnsamt, eller oönskat, specificeras och ersätts med bilddata som anses tillfredsställande från en annan digital bild. På motsvarande sätt kan det som häri beskrivs möjliggöra att ett preliminärt område i en digital bild som till exempel anses som tillfredsställande, gynnsamt, eller önskvärt, specificeras och ersätter bilddata som anses otillfredsställande, ogynnsam, eller oönskad i en annan digital bild. digitala bilder såsom häri tas i anspråk kan ha genererats av en digital bildtagningsenhet 112, såsom en digital stillbildskamera eller en digital videokamera. Operationer och enheter som används under processen att 10 15 20 25 30 35 8 generera digitala bilder är som sådana kända inom teknikområdet och kommer inte att beskrivas vidare häri.
Förfarandet innefattar mottagning av en källbild 148 och en målbild 150, steg S02. Källbilden och målbilden kan mottagas av bildmottagaren 124 i bildmanipulatorn 120, varvid bildmottagaren 124 kan vara mottagaren i kommunikationsgränssnittet 108 i anordningen 100. lfallet då anordningen 100 innefattar en bildtagningsenhet 112, såsom en kamera, kan källbilden 148 och/eller målbilden 150 mottagas från bildtagningsenheten 112.
Alternativt kan källbilden och/eller målbilden mottagas från det minnesfunktionella blocket 106 i anordningen 100. Källbilden och målbilden kan ha tagits som individuella bildramar. Alternativt kan källbilden och målbilden härstamma från en gemensam videosekvens, eller från två videosekvenser från olika tidpunkter, eller andra väsentligen liknande videosekvenser.
Fig. 2a illustrerar ett exempel på en källbild 200a och Fig. 2b illustrerar ett exempel på en målbild 200b. Källbilden 200a innefattar ett första objekt 202a (i föreliggande exempel i skepnaden av en byggnad) och ett andra objekt 204a (i föreliggande exempel i skepnaden av en människa) innesluten i ett källområde 206a. På liknande sätt innefattar målbilden 200b ett första objekt 202b (i föreliggande exempel i skepnaden av en byggnad) liknande det första objektet 202a i källbilden 200a och ett andra objekt 204b (i föreliggande exempel i skepnaden av en människa) liknande det andra objektet 204a i källbilden 200a och innesluten lett målområde 206b. Källobjektet 204 i källomrâdet 206a och målobjektet 204b i målområdet 206b kan representera ett och samma (verkliga) objekt. Generellt sett kan objektet som skall ersättas bestämmas baserat på egenskaper hos objektet. Sådana egenskaper kan vara en särskild unik kod, eller färg som är synlig i bilden. Färgen kan vara liknande de "blåskärms"-teknologier som används för att "klippa" ut delar i en videoproduktion, och koden kan vara en reflekterande markör, eller en kod liknande en 2-dimensionell streckkod.
Källbilden och målbilden kan vara associerade med olika bildtagningssärdrag såsom tillhandahålls av funktíonsblocket 152 för särdragsvillkor. Bildtagningssärdraget kan relatera till exponering. Exempelvis kan ett område i källbilden vara associerad med en första exponeringsnivå medan ett motsvarande område i målbilden kan vara associerad med en andra exponeringsnivå som är högre eller lägre än den första exponeringsnivån. Därmed kan ett "underexponerat" område sömlöst ersättas 10 15 20 25 30 35 9 med ett "korrekt exponerat" område. Därmed kan bilder med högt dynamiskt omfång (HDR) skapas på ett effektivt sätt. Bildtagningssärdraget kan även vara relaterat till upplösning. Upplösning kan vara en effekt av bildzoomning.
Exempelvis kan käilbilden ha en högre upplösning än målbilden, eller vice versa. Därmed kan områden med låg upplösning sömlöst ersättas med områden med hög upplösning (medan förhållandet mellan bildhöjd och bildbredd för området bibehålls). Bildtagningssärdraget kan vara relaterat till fokus. Exempelvis kan ett område i käilbilden vara ”i fokus" medan ett motsvarande område i målbilden är "ur fokus", eller vice versa. Därmed kan ett områden som är ”ur fokus” sömlöst ersättas med ett område som är "i fokus". Bildtagningssärdraget kan vara relaterat till oskärpa. Exempelvis kan nivån oskärpa i ett område i käilbilden kan vara lägre än nivån oskärpa i ett motsvarande område i målbilden, eller vice versa. Därmed kan ett område med oskärpa sömlöst ersättas med ett område med mindre oskärpa.
Bildtagningssärdraget kan vara relaterat till blixtnivåer. Exempelvis kan käilbilden ha tagits med en blixtnivå som är högre än blixtnivån som använts för att ta målbilden, eller vice versa. En hög blixtnivå kan vara önskvärd för några områden i scenen som skall fångas men den kan samtidigt resultera i att andra områden i bilden blir överexponerade. Överexponerade områden kan därmed sömlöst ersättas motsvarande områden från en annan bild tagen med en lägre blixtnivå. den lägre blixtnivån kan motsvara att ingen blixt användes. Bildtagningssärdraget kan således vara relaterat till "bracketing" av minst en av exponering, zoom, fokus, skärpa, och blixtnivå. Därmed kan en bild skapas baserad på områden från en källbild och en målbild associerade med olika av exponering, zoom, fokus, skärpa, och/eller blixtnivå, varvid alla områden är associerade med önskad exponering, zoom, fokus, skärpa, och/eller blixtnivå. Bildtagningssärdraget kan vara relaterat till en upplevd kvalitet för området bestämd av parametrar såsom andelen leende, eller öppna ögon, se nedan.
Källbilden kan väljas från ett flertal möjliga källbilder. För att välja käilbilden från de flertalet möjliga källbilderna kan var och en av de flertalet källbilderna vara associerade med ett distorsionsmått. Källbilden kan då väljas från de flertalet källbilder som den bild som har det minsta distorsionsmåttet. Till exempel kan bilden väljas från de flertalet källbilder som den bild som har den minsta oskärpan. Generellt sett kan distorsionsmåttet relatera vilket som helst av de ovan beskrivna bildtagningssärdragen. 10 15 20 25 30 35 10 Källbilden kan även väljas som den bild som är närmast målbilden med avseende på distorsionsmåttet, se nedan.
Förfarande innefattar identifiering av ett källområde 206a i källbilden 200a, varvid källområdet 206a har en uppsättning koordinater, steg S04.
Källområdet kan identifieras av källområdesidentifieraren 128. Uppsättningen koordinater definierar positionen för källområdet 206a i källbilden 200a.
Uppsättningen koordinater kan dessutom definiera området (i spatiala termer) för källområdet i källbilden. Till exempel kan uppsättningen koordinater innefatta koordinater som definierar positionerna för hörn och/eller sidor för en rektangel i källbilden, uppsättningen koordinater kan innefatta koordinater som definierar området och positionen för en cirkel i källbilden, och liknande.
Källområdet kan vara baserat på en mottagen signal, såsom mottages av signalmottagaren 154, som identifierar källområdet. den mottagna signalen kan genereras av användarinmatning via MMI 110 i anordning 100. Därmed kan en användare tillåtas att manuellt identifiera och välja ett område eller objekt (se nedan) i källbilden via MMI 110. Typiskt visas källbilden på en display hos MMI 110. I fallet då MMI 110 innefattar en rörelsekänslig display kan användaren identifiera källområdet genom att rita en linje som omsluter källområdet, eller på annat sätt markera dess koordinater. MMI 110 kan också tillhandahålla ett verktyg för att understödja identifieringen av källområdet. Verktyget kan innefatta förutbestämda geometriska objekt (såsom rektanglar, kvadrater, cirklar och ellipser) vilka, via användarinmatning, kan användas för att identifiera källområdet.
Såsom kommer att ytterligare beskrivet nedan kan källområdet även identifieras genom användning av särdragsigenkänning. Processen för särdragsigenkänning kan använda särdragsinformation tillhandahållen av det särdragsinformationsfunktionella blocket 156. Användningen av sådan särdragsigenkänning kan eliminera, eller åtminstone minska, behovet att mottaga användarinmatning för att identifiera källområdet. Således kan förfarandet innefatta mottagning av särdragsinformation relaterad till ett särdrag i åtminstone en av källbilden och målbilden, steg S14.
US2009190803A visar ett förfarande och system för detektering och följning av ansiktsuttryck i digitala bilder och applikationer för detta. Enligt US2009190803A bestämmer en analys av bilden huruvida det i bilden närvarar ett leende och/eller blinkning i ett ansikte på en människa. Således kan särdragsigenkänningen vara relaterad till igenkänning av ett människoansikte. Särdragsigenkänningen kan vara relaterad till igenkänning 10 15 20 25 30 35 11 av en människomun. Särdragsigenkänningen kan vara relaterad till igenkänning av ett människoöga. Särdragsigenkänningen kan även vara relaterad till igenkänning av en människas ansiktsuttryck.
Antingen källbilden eller målbilden, eller både källbilden och målbilden innefattar särdraget. Källområdet kan då identifieras genom användning av särdraget, steg S16.
Förfarande innefattar vidare användning av koordinaterna för källområdet 206a (i källbilden 200a) för att, som respons till identifieringen av källområdet 206a, identifiera ett målområde 206b i målbilden 200b, steg S06.
Målområdet kan identifieras av målområdesidentifieraren 132. Med andra ord är geometrin för målområdet 206 baserad på geometrin för källområdet 206a.
Särskilt kan uppsättningen koordinater användas sådant att uppsättningen koordinater för målområdet i målbilden motsvarar uppsättningen koordinater för källområdet. Uppsättningen koordinater för målområdet 206b definierar positionen för målområdet 206b i målbilden 200b. Uppsättningen koordinater för målområdet 206b kan dessutom definiera området (i spatiala termer) för målområdet 206b i målbilden 200b.
Bilddatainformation i källbilden och bilddatainformation i målbilden kan representera väsentligen samma scen. Med andra ord kan det krävas att ett distorsionsmått mellan källbilden och målbilden är mindre än ett förutbestämt värde. Distorsionsmåttet kan vara relaterat till energin mellan källbilden och målbilden, se nedan. Distorsionsmåttet kan ta i anspråk rörelser, såsom translation och/eller rotation, varvid mängden rörelser är begränsad av förutbestämda tröskelvärden. Ett sätt att minska risken för att distorsionsmåttet är högre än det förutbestämda värdet är att kräva att källbilden och målbilden mottages inom ett förutbestämt tidsintervall, och/eller inom ett intervall för total rörelse inom scenen. Det kan dessutom krävas att källbilden och målbilden har tagits inom ett förutbestämt tidsintervall. För att bestämma huruvida källbilden och målbilden har tagits inom ett förutbestämt tidsintervall kan anordningen 100 innefatta tidtagningskretsar anordnade att mäta tiden som passerar mellan mottagning av källbilden och mottagning av målbilden. Alternativt kan källbilden och målbilden vara associerade med tidsstämplar.
Rörelsekompensation: När två eller flera bilder tas med en bildtagningsenhet kan bildtagningsenheten ha rört sig i relation till den tagna scenen och/eller kan objekt i scenen rört sig i relation till varandra och/eller bildtagningsenheten mellan individuella tagningar. Därför kan källbilddata 10 15 20 25 30 35 12 som skall ersätta den specificerade målbilddatan (eller vice versa) translateras och/eller roteras genom användning av kompensationsrörelseberäknaren 138 för att kompensera för rörelser av bildtagningsenheten mellan tagningen av källbilden och målbilden. denna translation kan inter alia åstadkommas genom minimering av en felfunktion avseende den per pixel beräknade kvadratskillnaden mellan intensiteter i källbilden och i målbilden längs en preliminär gräns. l generella termer kan den relativa rörelsen för bildtagningsenheten tolkas som en godtycklig projektiv transformation. Rörelsen kan således relatera till åtminstone en av translation, rotation, eller projektion av åtminstone en del av källbilden i relation till målbilden.
När bilder som tagits inom ett förutbestämt tidsintervall tas i åtanke kan rörelsen i många fall approximeras med en enkel translation och/eller rotation av en bild i förhållande till en annan. Till exempel kan det antagas att rörelsen adderar en normalfördelad förskjutning för pixlarna i bilden. Ett samplingsförfarande kan användas för att minska antalet utvärderingar av felfunktionen. Steget att identifiera källområdet kan således innefatta bestämning av en kompensationsrörelse mellan åtminstone en del av källbilden och åtminstone en del av målbilden. Kompensationsrörelsen kan väljas sådan att den valda kompensationsrörelse minimerar en skillnad mellan källbilden och målbilden, steg S18.
Korrespondenser mellan pixlar i källbilden och i målbilden kan åstadkommas genom tillämpning inter alia av Harris hörndetekteringsprocess på båda bilderna och användning av en statistisk algoritm, exempelvis RANSAC för att bestämma en korrespondenskarta. Alternativt kan invarianta särdragskorrelationer mellan sällbilden och målbilden bestämmas. Dessa korrespondenser kan sedan användas för att modifiera källbilden eller målbilden genom användning inter alia av ett "thin plate sp|ine"-förfarande (TPS). TPS syftar på den fysiska analogin att fixera punkter på en yta och låta en imaginär tunn platta av metall deformera den på ett sätt som minskar dess interna energi. Förskjutningen för den imaginära metallplattan kan sedan användas som en koordinatavbildning för att snedvrida källbilden eller målbilden.
För att finna ett lämpligt snitt (se nedan) kan det vara fördelaktigt att upplinjera källbilden och målbilden längs en preliminär snittgräns. Detta kan åstadkommas genom att minimera en felfunktion, till exempel, genom att minimera E(r) = Z, in .m [Isf (v+r) - lf,- (v)]2 längs det preliminära snittet dQ över 10 15 20 25 30 35 13 ett lämpligt stort område S. Is,- och lf,- betecknar intensiteterna hos källbilden respektive målbilden. För en färgbild kan intensiteterna beräknas enligt I = (R + G + B) / 3, där R, G, och B är de respektive färgkanalerna röd, grön, och blå. Alternativt kan en luminanskanal användas för en YUV-bild. Storleken på området S kan vara beroende på andelen rörelse mellan källbilden och målbilden. Den kan dessutom vara beroende på tiden som passerat mellan tagningen av källbilden och målbilden. Det kan finnas olika tillvägagångssätt till att minska felfunktionen, till exempel genom användning av faltning och snabba Fouriertransformer. Ett faltningsbaserat förfarande kan vara snabbt för att beräkna hela felfunktionen. Det har upptäckts att eftersom varje term i summan i felfunktionen är positiv skulle det följa att under sökning för ett globalt minima så kan en punkt vars partiella summa överstiger värdet för det nuvarande lokala minimat inte vara ett globalt minima. Det skulle därför även följa att om ett globalt minima påträffas tidigt så kan fler summor avslutas i förväg och således kan beräkningar sparas. Det kan därför vara fördelaktigt att beräkna felfunktionen över ett fåtal punkter i ett litet område runt noll translation och sedan utöka sökningen utåt. Detta kan motiveras av det ovan nämnda antagandet att translationsrörelsen kan anses vara normalfördelad.
På grund av translationsrörelsens natur kan felfunktionen anses vara jämn (och inte helt kaotisk).Felfunktionen kan samplas vid intervall som initialt är jämförelsevis stora. Men om det initiala samplingsavståndet d är för stort kan den optimala lösningen felaktigt hoppas över. Samplingstätheten kan sedan ökas medan områden intilliggande sampel som har de relativt högsta felen exkluderas från ytterligare beräkningar. Mer specifikt kan det initiala sampelavståndet väljas som en tvåpotens och halveras vid varje ny iteration.
För ett sådant fall är, för områden som inte redan övergivits, vid varje iteration utom den första ett av fyra sampel redan beräknat. Vid slutet av varje iteration överges omgivningarna till de värsta trefjärdedelarna av samplen. För en kvadratisk bild där antalet pixel längs varje sida av bilden är en tvåpotens är antalet sampel som beräknas n/dz (1 + 3/4 log2(d)). Tilläggsberäkningar kan användas då den bästa fjärdedelen av samplen skall bestämmas. men eftersom det ärjämförelsevis med beräkningsdyrt att utvärdera varje sampel kan dessa tilläggsberäkningar bortses från när hela beräkningsansträngningen som behövs tas i anspråk.
”Saliency”: "Saliency" kan anses vara ett mått på synligheten (eller tydligheten) för en detalj eller del av en bild i relation till intilliggande delar eller detaljer i bilden. "Saliency" kan såldes anses vara ett sätt att 10 15 20 25 30 35 14 representera detaljer (inter alia motsvarande informationsinnehåll eller entropi) i en bild. "Saliency" kan användas för att bestämma snittet (se nedan) för att styra snittet bort från områden i källbilden och/eller målbilden som innehåller sådana detaljer. "Saliency" kan också användas för att mäta andelen iögonfallande särdrag som introduceras på grund av ojämnheter i snittet eller den mjuka blandningen. För att förenkla användningen av ett detaljmått, såsom "Saliency”, kan källområdet associeras med ett kandidatkällområde (som identifierat av kandidatkällområdesidentifieraren 130). På samma sätt kan målområdet associeras med ett kandidatmålområde (som identifierat av kandidatmålområdesidentifieraren 134).
Kandidatkällområdet och kandidatmålområdet kan definieras längs den yttre gränsen av källområdet respektive målområdet, såsom ytterligare beskrivs med hänvisning till beräkning av gräns och snitt.
Förfarandet kan således vidare innefatta bestämning av ett detaljmått mellan ett kandidatkällområde i källbilden och ett kandidatmålområde i målbilden, steg S20. Källområdet och målområdet kan sedan identifieras baserade på det bestämda detaljmåttet såsom beräknas av detaljmåttsberäknaren 142.
Ett förfarande för beräkning av "Saliency" för en bild beskrivs i artikeln "A model of saliency-based visual attention for rapid scene analysis" i IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 20, Nr. 11, sid. 1254-1259, november 1998, av ltti et al. Kortfattat kommer förfarandet att transformera en RGB-bild till kartor som är mer representativa för sättet som det mänskliga synsystemet hanterar bilddata. Det kommer sedan att genomföra en serie faltningar på dessa kartor. Resultatet normaliseras genom användning av en inhiberingsfunktion och summeras sedan för att skapa en slutgiltig "Saliency"-karta Denna karta kan således tillhandahålla en indikation av den spatiala fördelningen av "Saliency" i bilden.
Gränsyta: En lämplig gränsyta inom vilken källbilden skall infogas kan bestämmas. Den bestämda gränsytan representerar ett snitt. Snittet kan således definiera där målbilden och källbilden möts och kan beräknas av snittberäknaren 140. För illustrativa syften kan källbilden anses som placerad ovanpå målbilden varvid källbilden (eller målbilden) har translaterats såsom tidigare beskrivits. Inre och yttre gränser som definierar ett område (motsvarande det ovan beskrivna området S) inom vilket den (önskade) gränsytan är begränsad kan specificeras. Fig. 6a illustrerar en gränsytan 600 som har en inre begränsning 602 och en yttre begränsning 604 och en 10 15 20 25 30 35 15 önskad begränsning 606. En felfunktion, vilken tar i antagande den per pixel beräknade kvadratskillnaden mellan källbilden och i målbilden för pixel inom området definieras. Fig. 6b är en korridorgrafsrepresentation 600' för gränsytan 600 i Fig. 6b, varvid gränsytan 600 har öppnats längs skärningen A-A' - B-B'. Snittet kan bestämmas genom att tilldela varje pixel i området S en kostnad och sedan hitta en sluten väg i området S som minimerar kostnaden. En optimal lösning ges i artikeln "Shortest circular paths on planar graphs” i 27th Symposium on Information Theory in the Benelux, vol. sid. 117-124, juni 2006, Noordwijk, Holland av Farin et al. När pixel representeras med en graf, såsom korridorgrafen 600, så har grafen en spaljéstruktur.
Grafen associerad med området S klan således representeras av en spaljé och därför kan dynamisk programmering användas istället för Dijkstras algoritm. Således kan en svansbitande väg (dvs. en väg i korridorgrafen 600' som börjar och slutar i pixlar som ger en inneslutande begränsning 606 i motsvarande gränsytan 600) med ett minimalt fel för alla vägar eller med ett fel under en förutbestämd tröskel sedan hittas inom området S. Det således funna snittet definierar beskärningen av källbilden och målbilden. En approximativ lösning, som är både snabbare och lättare att implementera, kan hittas genom en iteration av dynamisk programmering. Varje nod i grafen var den kortaste vägen som korsade den startade ifrån och således kan en sluten väg lätt hittas när iterationen är slutförd. Förfarandet kan således innefatta i ett steg S22 identifiering av källområdet och målområdet genom beräkning av ett snitt genom användning av kandidatkällområdet och kandidatmålområdet. Snittet kan definiera en gräns som innesluter källområdet, och snittet kan bestämmas sådant att detaljmåttet minimeras.
Förfarandet innefattar vidare, i ett steg S08, skapande av en digital bild. Den digitala bilden kan vara baserad på bilddatainformation från målbilden, varvid bilddatainformation från målområdet sömlöst ersätts med bilddatainformation från källområdet. På motsvarande vis kan den digitala bilden kan vara baserad på bilddatainformation från källbilden, varvid bilddatainformation från källområdet sömlöst ersätts med bilddatainformation från målområdet. Bilden kan skapas av bildskaparen 144. Fig. 2c illustrerar ett exempel av en bild 200c baserad på bilddatainformation från källbilden 200a och målbilden 200b i Fig. 2a respektive Fig. 2b. ljämförelse med källbilden 200a och målbilden 200b innefattar den skapade bilden 200c det första objektet 202b i målbilden 200b och det andra objektet 204a i källbilden 200a. l den skapade bilden 200c har således ett målområde motsvarande det 10 15 20 25 30 35 16 andra objektet 204b i målbilden 200b ersatts med ett källområde motsvarande det andra objektet 204a i källbilden 200b.
Särdragsigenkänning kan användas för att bestämma huruvida ett av källområdet och målområdet uppfyller ett villkor relaterat till särdragsinformationen, steg S24. Den digitala bilden kan sedan skapas baserad på denna bestämning, steg S26. Till exempel, i ett fall där källområdet uppfyller villkoret kan bilddatainformationen i målområdet sömlöst ersättas med bilddatainformationen i källområdet. Till exempel, i ett fall där målområdet uppfyller villkoret kan bilddatainformationen i källområdet sömlöst ersättas med bilddatainformationen i målområdet.
Särskilt kan, ifall särdragsinformationen är relaterad till ett ansiktsuttryck och en av källbilden och målbilden klassificeras att innefatta ett leende ansikte, bilden skapas att inkludera det leende ansiktet. För att åstadkomma detta kan ansiktsigenkänning användas. När ett ansikte har detekterats kan leendedetektering användas genom att detektera läpparna i det därmed detekterade ansiktet och detektera läpparna, inter alia beroende på dess krökning i minst två kategorier, såsom leende läppar och icke-leende läppar. En liknande klassificering kan utföras för att detektera blinkande ögon eller röda ögon (inter alia orsakade av blixteffekter under tagandet av bilden innefattande de röda ögonen. Förfarande kan således vidare innefatta identifiering av ett ansiktsuttryck för att användas när den digitala bilden skapas. Därmed kan "ledsna" ansikten ersättas med ”glada” ansikten, varvid de ”ledsna” ansiktena är associerat med icke-leende läppar och de ”glada” ansiktena är associerade med leende läppar.
Mjuk blandning: En gradientdomän-lik mjuk blandning kan tillämpas för att försäkra att infogningen av källområdet i målbilden (eller vice versa) är sömlös. I mer detalj så bör gränsytan för källbilden åtminstone approximativt vara lika med gränsytan för målbilden då en källbild (eller ett område däri) skall blandas in med en målbild (eller vice versa). Detta kan kräva att källbilden och/eller målbilden manipuleras på något sätt, till exempel av bildblandaren 146. För att vara så visuellt icke-detekterbar som möjligt bör manipulationen företrädesvis endast införa gradvisa förändringar på källbildens interiör.
Ett exempel som åstadkommer den önskade effekten är Poisson- blandning. Mer specifikt kan källbildens gradientfält modifieras på ett sådant sätt att källbilden väljs som den källbild som har ett gradientfält som är närmast (i Lg-normshänseende) målbilden, under bivillkor av något 10 15 20 25 30 35 17 begränsningsvillkor. Därför är Poisson-blandning även känd som gradientdomänsblandning. Det harmoniska membranet som beräknas i Poisson-blandning kan approximeras genom användning av medelvärdesblandning. Membranet är mycket mjukt bort från gränsytan av det klonade området. Således kan mycket gles beräkningstäthet användas bort från gränsytan. Istället kan linjär interpolation användas för de kvarvarande pixlarna. Såsom kommer att beskrivas härnäst är ett sätt att åstadkomma detta att använda en så kallad ”quad-tree"-struktur. När denna struktur skapats kan den återanvändas för alla tre färgkanalerna. Förfarandet kan således vidare innefatta mjuk blandning av källbilden och målbilden genom användning av "quad-tree”-optimering, steg S28.
En nod iträdet har formen av en kvadrat och kallas en s-nod när den har sidolängden /=2s. Varje nod har 4 barn av typen (s-1)-noder och skapar således ett ”quad-tree”. Den minsta nodstorleken är då O-noden med sidlängden l=1. För att försäkra att nodstorleken inte ökar för snabbt kan en begränsning att två intilliggande noder måste ha en storleksskillnad på | As | > 1 läggas till. Dessutom definieras noderna på gränsytan att vara 0-noder och skapar således en grund för att utveckla trädstrukturen.
En minneskarta kan först initialiseras genom att fylla den med mollor (som representerar O-noder) inuti området Q som skall blandas och med -1 utanför området. Det itereras sedan över denna karta med steglängd l,, = 2" i både höjd och bredd där n = 1, 2, För varje besökt punktjämförs intilliggande punkterjämförda med den nuvarande iterationen (n). Om alla intilliggande punkter är åtminstone (n - 1)-noder och alla är inuti Q så befordras den nuvarande punkten till en n-nod. Denna process kan sedan repeteras för alla n.
En minskning i beräkningsanspråken kan åstadkommas genom att sampla gränsytan istället för att använda alla gränsytepixlarna.
Medelvärdesvikten för varje gränsytesnod avtar snabbt med avståndet.
Således kan en noggrann approximation av området som skall blandas åstadkommas genom att sampla gränsytan med en täthet som är inversproportionell mot på avståndet. Till exempel kan endast ett konstant antal gränsytesnoder användas vid beräkning av koordinaterna och området som skall blandas vid varje ”quad”-nod. Sådan sampling vara baserad på avkodning av den önskade regionen i en eller fler mindre skalor. Sådan avkodning kan utföras snabbt och noggrant i bildformat såsom JPEG. 10 15 20 25 30 35 18 Efter att ett optimalt snitt har bestämts kan lokala diskontinuiteter dämpas (innan mjuk blandning) genom att använda det ovan beskrivna ”thin plate spline"-förfarandet efter att korrespondens mellan källbilden och målbilden längs snittet bestämts. För varje punkt på källgränsytan kan en punkt på målgränsytan bestämmas som minimerar den per pixel beräknade kvadratskillnaden längs ett linjesegment som omger punkterna. detta kan ses som en form av endimensionell särdragsanpassning.
För att övervinna problem med förseningar, dvs. att komprimerade fullstorleksbilder tar för lång tid att behandla, och lagringskapacitet, dvs. att icke-komprimerade bilder tar för stor bildyta, kan käll- och/eller målbilden analyseras och särdrag som underlättar snabb manipulation av en bild lagras i (respektive) bild fil(er), lagras temporärt i minnet för den nuvarande manipulationen, eller lagras som en post i en databas där posten i databasen kan hänvisa till bildfilen. En serie förfaranden för analysering, extrahering och lagring av sådana särdrag som relaterar till en bild är beskrivna i patentansökan WO 2005/050567 av Scalado AB.
För att extrahera särdrag som underlättar snabb manipulation av en bild kan särdragen antingen extraheras vid kompression av käll- och/eller målbilden eller kan särdrag extraheras vid en analys efter kompression av en komprimerad bild, såsom exempelvis av bildavkodaren 126. I fall käll- och/eller målbilden har komprimerats med JPEG-kompression, eller ett liknande kompressionsförfarande, kan särdragen som underlättar snabb manipulation av en lagrad eller mottagen bild vara en av eller en kombination av indikatorer till minsta kodade enheter "minimum coded units” (MCU:er), där en MCU är ett litet bildblock i en bild, indikatorer till en eller ett flertal dataenheter, ”data units" (DU), där en dataenhet är ett datablock som representerar en färgkanal eller färgkomponent för MCU:n, en eller flera absoluta eller relativa DC-koefficienter för en eller ett flertal av färgkomponenterna för de mottagna MCU:erna och/eller mottagna dataenheterna, eller antalet bitar mellan dataenheter, eller mellan specifika koefficienter för dataenheterna. Eftersom särdrag behöver extraheras och/eller analyseras vid olika skalor kan sådana tekniker användas för att effektivt utföra sådan extrahering. Hur sådana särdrag kan användas för att åstadkomma snabb manipulation av en bild beskrivs i den ovannämnda ansökan, dvs. WO 2005/050567 av Scalado AB.
Således kan förfarandet i fall källbilden blivit kodad vidare innefatta att i källbilden endast avkoda bilddatainformation som representerar källområdet, 10 15 20 25 30 35 19 och/eller att avkoda sådana områden i den krävda skalan, steg S30, genom att använda de ovan beskrivna särdragen för att underlätta snabb manipulation av en bild. På liknande sätt, ifall källbilden blivit kodad kan förfarandet vidare innefatta att i målbilden endast avkoda bilddatainformation som representerar målområdet, steg S32, genom att använda de ovan beskrivna särdragen för att underlätta snabb manipulation av en bild. Den slutgiltiga kodade nya bilden kan även vara uppbyggd av käll-/målbilder med delar som ersatts av ny bilddata och således underlätta återvinning av åtminstone delar av de komprimerade käll-lmålbilderna.
Längden på en dataenhet kan definieras som antalet bitar som behövs för att representera dataenheten. Vid kompression av MCU:er och DU:er är det vanligt att använda variabellängskodning, såsom Huffman-kodning, vilket resulterar i att dataenheterna har olika DU-längder beroende på graden information som därmed representeras. Således kan en dataenhet som representerar en hög nivå av information (motsvarande en hög nivå av informationsinnehåll i motsvarande bildblock) ha en längre DU-längd än en dataenhet som representerar en nivå av information som är lägre än nämnda höga nivå av information (motsvarande en nivå av informationsinnehåll i motsvarande bildblock som är lägre än nämnda höga nivå av informationsinnehåll). Således kan det ovan angivna detaljmåttet vara baserat på DU-längder för dataenheter i kandidatkällområdet och kandidatmålområdet. Eftersom MCU:er består av en eller flera DU:er kan måttet även vara baserat på en MCU eller ett flertal DU:er eller MCU:er, Förfarandet kan vidare innefatta att, i ett steg S34, ersätta en av målbilden och källbilden med den skapade digitala bilden och därmed minska minneskraven för lagring av bilder.
Härnäst kommer typiska scenarior där det beskrivna innehållet kan tillämpas att beskrivas.
Exempel 1: Ett första exempel, som illustreras is Fig. 3a, 3b, 3c och 3d, avser ett fall i vilket det kan vara önskvärt att ersätta icke-stationära objekt i en bild. När en bild innefattande ett eller flera icke-stationära objekt, såsom människor, skall tas är det inte ovanligt att (delar av) de icke-stationära objekten förflyttar sig mellan bildtagningarna. Detta kan resultera i att bilder där infångandet av det icke-stationära objektet a ses som otillfredsställande, ogynnsamma, eller oönskade, såsom en bild vari en människa blinkar med ett öga, eller liknande. I detta fallet skulle en möjlighet vara att ta en annan bild av samma scen och hoppas att resultatet blir mer tillfredsställande, gynnsamt, 10 15 20 25 30 35 20 eller önskat. Men då en andra bild tas kan andra objekt anses som otillfredsställande, ogynnsamma, eller oönskade. Således kan ingen av de tagna bilderna, då de bedöms individuellt, anses vara tillfredsställande, gynnsam, eller önskad. I detta fallet skulle det vara önskvärt att ersätta enbart vissa områden i den första bilden med den mer tillfredsställande, gynnsamma, eller önskade bildtagningar av samma scen. Till exempel, i en första tagning 300a av ett gruppfoto kan utseende på en första person 302a anses otillfredsställande (inter alia på grund av en blinkning av ett öga) medan utseendet på en andra person 304a kan anses tillfredsställande och utseendet på en tredje person 306a kan anses otillfredsställande (inter alia på grund av en blinkning av ett öga). I en andra tagning 300b av samma gruppfoto kan utseende på den första personen 302b anses tillfredsställande medan utseendet på den andra personen 304b kan anses otillfredsställande och utseendet på den tredje personen 306b kan anses otillfredsställande. I en tredje tagning 300c av samma gruppfoto kan utseende på den första personen 302c och den andra personen 304c kan anses otillfredsställande medan utseendet på den tredje personen 306c kan anses tillfredsställande.
Genom att använda de häri beskrivna förfarandena är det möjligt att iden första bilden 300a ersätta bilddatainformation som representerar den första personen 302a med bilddatainformation som representerar den första personen 302b från den andra bilden 300b, och att ersätta bilddatainformation som representerar den tredje personen 306a med bilddatainformation som representerar den tredje personen 3060 från den tredje bilden 300c, vilket således resulterar i en tillfredsställande bild 300d. På liknande sätt kan bilden 300d baseras på antingen bild 300b eller bild 3000.
Således kan förfarande generellt sett innefatta mottagning av minst en ytterligare käll- och/eller målbild, i ett steg S10, och genomgång av målbilden, källbilden och den minst en ytterligare käll- och/eller målbilden, i ett steg S12, och skapande av en bild baserad på källbilden, målbilden, och den minst en ytterligare käll- och/eller målbilden.
Exempel 2: Ett andra exempel, som illustreras is Fig. 4a, 4b, och 4c, avser ett fall i vilket det kan vara önskvärt att bortföra icke-stationära objekt från en bild. I en första bild 400a kan exempelvis ett icke-stationärt objekt 404a i ett första område 406a hindra vyn av ett önskat objekt 402 som skall fångas, medan i en andra bild 400b kan ett icke-stationärt objekt 404b i ett andra område 406b hindra vyn av ett önskat objekt 402 som skall fångas.
Genom att använda de häri beskrivna förfarandena är det möjligt att iden 10 15 20 25 21 första bilden 400a ersätta bilddatainformation som representerar det icke- stationära objektet 404a i det första området 406a med bilddatainformation som representerar det första området 406a från den andra bilden 400b, vilket således resulterar i en tillfredsställande bild 400c. På liknande sätt är det genom att använda de häri beskrivna förfarandena möjligt att i den andra bilden 400b ersätta bilddatainformation som representerar det icke-stationära objektet 404b i det andra området 406b med bilddatainformation som representerar det andra området 406b från den första bilden 400a, vilket således resulterar i en tillfredsställande bild 400c.
Exempel 3: Ett tredje exempel, som illustreras is Fig. 5a, 5b, och 5c, avser ett fall i vilket det kan vara önskvärt att addera icke-stationära objekt till en bild. I en första bild 500a kan exempelvis ett icke-stationärt objekt 504 vara placerat vid en första uppsättning koordinater, medan samma icke-stationära objekt 506 kan vara placerat vid en andra uppsättning koordinater i en andra bild 500b. Genom att använda häri beskrivna förfaranden är det möjligt att sömlöst infoga en kopia av det icke-stationära objektet 504 placerat vid den första uppsättningen koordinater i den andra bilden 500b och/eller att infoga en kopia av det icke-stationära objektet 506 placerat vid den andra uppsättningen koordinater i den första bilden 500a, vilket således resulterar i den sammansatta bilden 500c.
Uppfinningen har ovan i huvudsak beskrivits med hänvisning till särskilda exempel. Men såsom fackmannen inom området förstår är andra exempel än de ovan beskrivna möjliga inom uppfinningens omfång som definieras av de bifogade patentkraven.
Claims (1)
1. 0 15 20 25 30 22 PATENTKRAV . Förfarande för digital bildmanipulation innefattande: mottagning av en källbild och en målbild, identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och skapande av en digital bild baserad på bilddatainformation från målbilden, varvid bilddatainformation från målområdet sömlöst ersätts med bilddatainformation från källområdet. . Förfarande för digital bildmanipulation innefattande: mottagning av en källbild och en målbild, identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och skapande av en digital bild baserad på bilddatainformation från källbilden, varvid bilddatainformation från källområdet sömlöst ersätts med bilddatainformation från målområdet. . Förfarande enligt krav 1 eller 2, vidare innefattande mottagning av särdragsinformation avseende ett särdrag i åtminstone en av nämnda källbild och nämnda målbild, varvid åtminstone en av nämnda källbild och nämnda målbild innefattar nämnda särdrag, och identifiering av nämnda källområdet baserat på nämnda särdrag. . Förfarande enligt krav 3, vidare innefattande 10 15 20 25 30 23 - bestämning av huruvida ett av nämnda källområdet och nämnda målområde uppfyller ett villkor baserat på nämnda särdragsinformation, och - skapande av nämnda digitala bild baserat på nämnda bestämning. 5. Förfarande enligt krav 4, varvid nämnda villkor är relaterat till särdragsigenkänning av åtminstone ett av särdragen i gruppen en människa, ett människoansikte, en människomun och ett människoöga. 6. Förfarande enligt något av föregående krav, varvid källbilden väljs från ett flertal möjliga källbilder. 7. Förfarande enligt krav 6, varvid var och en av nämnda flertalet möjliga källbilder är associerad med ett distorsionsmått, och varvid källbilden väljs från de flertalet möjliga källbilderna som den bild som har det minsta distorsionsmått. 8. Förfarande enligt något av föregående krav, varvid källbilden och målbilden mottages inom ett förutbestämt tidsintervall. 9. Förfarande enligt något av föregående krav, varvid källbilden och målbilden är associerade med olika bildtagningssärdrag. 10. Förfarande enligt krav 9, varvid bildtagningssärdragen är relaterade till åtminstone ett av exponering, upplösning, fokus, oskärpa och blixtnivå. 11.Förfarande enligt något av föregående krav, varvid uppsättningen koordinater för källområdet används så att en uppsättningen koordinater för målområdet i målbilden motsvarar uppsättningen koordinater för källområdet. 5 10 15 20 25 30 24 12. Förfarande enligt något av föregående krav, varvid bilddatainformation för källbilden och bilddatainformation för målbilden representerar väsentligen samma scen. 13. Förfarande enligt något av föregående krav, varvid identifiering av nämnda källområde vidare innefattar - bestämning av en kompensationsrörelse mellan åtminstone en del av nämnda källbild och åtminstone en del av nämnda målbild sådan att nämnda kompensationsrörelse minimerar en skillnad mellan källbilden och målbilden. 14.Förfarande enligt krav 13, varvid nämnda skillnad bestäms för åtminstone en del av nämnda målbild och är relaterad till åtminstone ett av translation, rotation, eller projektion av åtminstone en del källbilden i relation till nämnda målbild. 15. Förfarande enligt krav 12 eller 13, vidare innefattande - användning av ett "thin plate spline”-förfarande för att bestämma nämnda kompensationsrörelse. 16. Förfarande enligt något av föregående krav, vidare innefattande - bestämning av ett detaljmått mellan ett kandidatkällområde i nämnda källbild och ett kandidatmålområde i nämnda målbild där nämnda källområde och nämnda målområde identifieras av det bestämda detaljmåttet. 17. Förfarande enligt krav 16, vidare innefattande - bestämning av källområdet och målområdet genom att beräkna ett snitt med användning av kandidatkällområdet och kandidatmålområdet, varvid nämnda snitt definierar en gräns som omsluter källområdet, och varvid nämnda snitt bestäms sådant att nämnda detaljmått minimeras. 10 15 20 25 30 25 18. Förfarande enligt krav 16 eller 17, varvid nämnda detaljmått baseras på dataenhetslängder för dataenheter, ”data units", i nämnda kandidatkällområde och nämnda kandidatmålområde. 19. Förfarande enligt något av föregående krav, vidare innefattande mjuk blandning mellan källbilden och målbilden medelst användning av "quad-tree”-optimering. 20. Förfarande enligt något av föregående krav, vidare innefattande - ersättning av en av målbilden och källbilden med den skapade digitala bilden. 21 . Förfarande enligt något av föregående krav, varvid källbilden och målbilden har blivit kodade, varvid förfarandet vidare innefattar - att i källbilden endast avkoda bilddatainformation som representerar källområdet, och - att i målbilden endast avkoda bilddatainformation som representerar målområdet. 22.Förfarande enligt något av föregående krav, varvid källområdet motsvarar ett källobjekt, varvid målområdet motsvarar ett målobjekt, och varvid källobjektet och målobjektet representerar ett och samma objekt. 23. Förfarande enligt något av föregående krav, varvid källbilden och målbilden härstammar från en videosekvens. 24. Förfarande enligt något av föregående krav, vidare innefattande - mottagning av en signal som identifierar nämnda källområde. 25.Anordning för digital bildmanipulation innefattande: - organ för mottagning av en källbild och en målbild, - organ för identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, 10 15 20 25 26 organ för användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och organ för skapande av en digital bild baserad på bilddatainformation från målbilden, varvid bilddatainformation från målområdet sömlöst ersätts med bilddatainformation från källområdet. 26.Anordning för digital bildmanipulation innefattande: organ för mottagning av en källbild och en målbild, organ för identifiering av ett källområde i källbilden, där källområdet har en uppsättning koordinater, organ för användning av uppsättningen koordinater för källområdet för att, som respons till nämnda identifiering av nämnda källområde, identifiera ett målområde i målbilden, och organ för skapande av en digital bild baserad på bilddatainformation från källbilden, varvid bilddatainformation från källområdet sömlöst ersätts med bilddatainformation från målområdet. 27.Anordning enligt krav 25 eller 26, vidare innefattande en kamera, och varvid nämnda källbild och nämnda målbild mottages från nämnda kamera. 28. Datorprogramprodukt innefattande mjukvaruinstruktioner som då de nedladdats till en dator är anordnade att utföra ett förfarande enligt något av kraven 1 till 24.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1000142A SE534551C2 (sv) | 2010-02-15 | 2010-02-15 | Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild |
EP16177377.5A EP3104332B1 (en) | 2010-02-15 | 2011-02-10 | Digital image manipulation |
EP16177376.7A EP3104331A1 (en) | 2010-02-15 | 2011-02-10 | Digital image manipulation |
EP11153998.7A EP2360644A3 (en) | 2010-02-15 | 2011-02-10 | Digital image manipulation |
US13/026,500 US8594460B2 (en) | 2010-02-15 | 2011-02-14 | Digital image manipulation |
US14/037,563 US9196069B2 (en) | 2010-02-15 | 2013-09-26 | Digital image manipulation |
US14/037,708 US9396569B2 (en) | 2010-02-15 | 2013-09-26 | Digital image manipulation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1000142A SE534551C2 (sv) | 2010-02-15 | 2010-02-15 | Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild |
Publications (2)
Publication Number | Publication Date |
---|---|
SE1000142A1 true SE1000142A1 (sv) | 2011-08-16 |
SE534551C2 SE534551C2 (sv) | 2011-10-04 |
Family
ID=44063393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE1000142A SE534551C2 (sv) | 2010-02-15 | 2010-02-15 | Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild |
Country Status (3)
Country | Link |
---|---|
US (3) | US8594460B2 (sv) |
EP (3) | EP3104331A1 (sv) |
SE (1) | SE534551C2 (sv) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2483767B1 (en) | 2009-10-01 | 2019-04-03 | Nokia Technologies Oy | Method relating to digital images |
SE534551C2 (sv) * | 2010-02-15 | 2011-10-04 | Scalado Ab | Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild |
SE1150505A1 (sv) | 2011-05-31 | 2012-12-01 | Mobile Imaging In Sweden Ab | Metod och anordning för tagning av bilder |
CA2841910A1 (en) | 2011-07-15 | 2013-01-24 | Mobile Imaging In Sweden Ab | Method of providing an adjusted digital image representation of a view, and an apparatus |
US9473702B2 (en) | 2011-12-23 | 2016-10-18 | Nokia Technologies Oy | Controlling image capture and/or controlling image processing |
GB201212521D0 (en) * | 2012-07-13 | 2012-08-29 | Wapple Net Ltd | Drawing package |
JP6025470B2 (ja) * | 2012-09-13 | 2016-11-16 | キヤノン株式会社 | 撮像装置、制御方法、プログラム及び記憶媒体 |
US8913147B2 (en) * | 2012-09-28 | 2014-12-16 | Ebay, Inc. | Systems, methods, and computer program products for digital image capture |
US8913823B2 (en) | 2012-10-04 | 2014-12-16 | East West Bank | Image processing method for removing moving object and electronic device |
CN104781779B (zh) * | 2012-11-06 | 2018-06-15 | 诺基亚技术有限公司 | 用于创建针对图像的运动效果的方法和装置 |
JP2014123261A (ja) * | 2012-12-21 | 2014-07-03 | Sony Corp | 情報処理装置及び記録媒体 |
GB2510613A (en) | 2013-02-08 | 2014-08-13 | Nokia Corp | User interface for image processing |
US9633460B2 (en) | 2013-03-15 | 2017-04-25 | Cyberlink Corp. | Systems and methods for seamless patch matching |
JP2014182638A (ja) * | 2013-03-19 | 2014-09-29 | Canon Inc | 表示制御装置、表示制御方法、コンピュータプログラム |
US10474921B2 (en) * | 2013-06-14 | 2019-11-12 | Qualcomm Incorporated | Tracker assisted image capture |
US9659350B2 (en) | 2014-01-31 | 2017-05-23 | Morpho, Inc. | Image processing device and image processing method for image correction, and non-transitory computer readable recording medium thereof |
KR102356448B1 (ko) | 2014-05-05 | 2022-01-27 | 삼성전자주식회사 | 이미지 합성 방법 및 그 전자 장치 |
CN105100579B (zh) | 2014-05-09 | 2018-12-07 | 华为技术有限公司 | 一种图像数据的采集处理方法及相关装置 |
GB2529182B (en) | 2014-08-12 | 2019-03-27 | Supponor Oy | Method and apparatus for dynamic image content manipulation |
US9390487B2 (en) | 2014-10-20 | 2016-07-12 | Microsoft Technology Licensing, Llc | Scene exposure auto-compensation for differential image comparisons |
US9489727B2 (en) | 2015-01-30 | 2016-11-08 | Multimedia Image Solution Limited | Method for generating a preferred image by replacing a region of a base image |
CN106603903A (zh) * | 2015-10-15 | 2017-04-26 | 中兴通讯股份有限公司 | 照片处理方法及装置 |
US9858965B2 (en) | 2015-10-23 | 2018-01-02 | Microsoft Technology Licensing, Llc | Video loop generation |
CN105867769B (zh) * | 2016-03-29 | 2017-06-16 | 广州阿里巴巴文学信息技术有限公司 | 图片切换方法、装置以及用户终端 |
US10861138B2 (en) * | 2016-07-13 | 2020-12-08 | Rakuten, Inc. | Image processing device, image processing method, and program |
US20190014269A1 (en) * | 2017-07-05 | 2019-01-10 | Motorola Mobility Llc | Device with Lens, Bezel, and Mechanical Upright, and Corresponding Systems and Methods |
US10475222B2 (en) * | 2017-09-05 | 2019-11-12 | Adobe Inc. | Automatic creation of a group shot image from a short video clip using intelligent select and merge |
GB2568278A (en) * | 2017-11-10 | 2019-05-15 | John Hudson Raymond | Image replacement system |
CN108182746A (zh) * | 2018-01-30 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 控制系统、方法和装置 |
CN110647603B (zh) * | 2018-06-27 | 2022-05-27 | 百度在线网络技术(北京)有限公司 | 图像标注信息的处理方法、装置和系统 |
US10748316B2 (en) * | 2018-10-12 | 2020-08-18 | Adobe Inc. | Identification and modification of similar objects in vector images |
US11810271B2 (en) * | 2019-12-04 | 2023-11-07 | Align Technology, Inc. | Domain specific image quality assessment |
US11317150B2 (en) * | 2020-06-17 | 2022-04-26 | Netflix, Inc. | Video blurring systems and methods |
WO2021035228A2 (en) * | 2020-12-03 | 2021-02-25 | Futurewei Technologies, Inc. | System and methods for photo in-painting of unwanted objects with auxiliary photos on smartphone |
CN113012016B (zh) * | 2021-03-25 | 2024-10-08 | 北京有竹居网络技术有限公司 | 水印嵌入方法、装置、设备以及存储介质 |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3036439B2 (ja) | 1995-10-18 | 2000-04-24 | 富士ゼロックス株式会社 | 画像処理装置および画像属性調整方法 |
US6985172B1 (en) * | 1995-12-01 | 2006-01-10 | Southwest Research Institute | Model-based incident detection system with motion classification |
US6075905A (en) * | 1996-07-17 | 2000-06-13 | Sarnoff Corporation | Method and apparatus for mosaic image construction |
US6621524B1 (en) | 1997-01-10 | 2003-09-16 | Casio Computer Co., Ltd. | Image pickup apparatus and method for processing images obtained by means of same |
US6542645B1 (en) * | 1997-07-15 | 2003-04-01 | Silverbrook Research Pty Ltd | Adaptive tracking of dots in optical storage system using ink dots |
EP1717679B1 (en) | 1998-01-26 | 2016-09-21 | Apple Inc. | Method for integrating manual input |
JP3695119B2 (ja) * | 1998-03-05 | 2005-09-14 | 株式会社日立製作所 | 画像合成装置、及び画像合成方法を実現するプログラムを記録した記録媒体 |
CN1229977C (zh) | 1998-06-22 | 2005-11-30 | 富士写真胶片株式会社 | 摄影装置及其方法 |
US6317141B1 (en) | 1998-12-31 | 2001-11-13 | Flashpoint Technology, Inc. | Method and apparatus for editing heterogeneous media objects in a digital imaging device |
US6927874B1 (en) | 1999-04-02 | 2005-08-09 | Canon Kabushiki Kaisha | Image processing method, apparatus and storage medium therefor |
US6778211B1 (en) | 1999-04-08 | 2004-08-17 | Ipix Corp. | Method and apparatus for providing virtual processing effects for wide-angle video images |
US6415051B1 (en) * | 1999-06-24 | 2002-07-02 | Geometrix, Inc. | Generating 3-D models using a manually operated structured light source |
AU2001272064A1 (en) | 2000-02-11 | 2001-08-20 | Make May Toon, Corp. | Internet-based method and apparatus for generating caricatures |
JP4126640B2 (ja) | 2000-03-08 | 2008-07-30 | 富士フイルム株式会社 | 電子カメラ |
US6959120B1 (en) | 2000-10-27 | 2005-10-25 | Microsoft Corporation | Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data |
US7099510B2 (en) * | 2000-11-29 | 2006-08-29 | Hewlett-Packard Development Company, L.P. | Method and system for object detection in digital images |
US6975352B2 (en) | 2000-12-18 | 2005-12-13 | Xerox Corporation | Apparatus and method for capturing a composite digital image with regions of varied focus and magnification |
SE518050C2 (sv) | 2000-12-22 | 2002-08-20 | Afsenius Sven Aake | Kamera som kombinerar skarpt fokuserade delar från olika exponeringar till en slutbild |
US7162080B2 (en) | 2001-02-23 | 2007-01-09 | Zoran Corporation | Graphic image re-encoding and distribution system and method |
JP4398153B2 (ja) | 2001-03-16 | 2010-01-13 | ヴィジョン・ロボティクス・コーポレーション | 画像センサの有効ダイナミックレンジを増加させる装置及び方法 |
US6930718B2 (en) | 2001-07-17 | 2005-08-16 | Eastman Kodak Company | Revised recapture camera and method |
US7298412B2 (en) | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
US6724386B2 (en) * | 2001-10-23 | 2004-04-20 | Sony Corporation | System and process for geometry replacement |
US7573509B2 (en) | 2002-01-30 | 2009-08-11 | Ricoh Company, Ltd. | Digital still camera, reproduction device, and image processor |
US20030189647A1 (en) | 2002-04-05 | 2003-10-09 | Kang Beng Hong Alex | Method of taking pictures |
US20030190090A1 (en) * | 2002-04-09 | 2003-10-09 | Beeman Edward S. | System and method for digital-image enhancement |
WO2003088650A1 (fr) | 2002-04-17 | 2003-10-23 | Seiko Epson Corporation | Camera numerique |
CN1771740A (zh) | 2003-01-24 | 2006-05-10 | 米科伊公司 | 立体全景图像捕捉装置 |
US6856705B2 (en) | 2003-02-25 | 2005-02-15 | Microsoft Corporation | Image blending by guided interpolation |
WO2004093011A1 (ja) | 2003-04-17 | 2004-10-28 | Seiko Epson Corporation | 複数のフレーム画像からの静止画像の生成 |
US20040223649A1 (en) | 2003-05-07 | 2004-11-11 | Eastman Kodak Company | Composite imaging method and system |
US7317479B2 (en) | 2003-11-08 | 2008-01-08 | Hewlett-Packard Development Company, L.P. | Automated zoom control |
KR101089489B1 (ko) | 2003-11-18 | 2011-12-02 | 스칼라도 아베 | 디지털 이미지 처리 방법 및 이미지 표현 포맷 |
US7743348B2 (en) | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
EP1613060A1 (en) | 2004-07-02 | 2006-01-04 | Sony Ericsson Mobile Communications AB | Capturing a sequence of images |
JP2006040050A (ja) | 2004-07-28 | 2006-02-09 | Olympus Corp | 再生装置、カメラおよび再生装置の表示切換方法 |
JP4293089B2 (ja) | 2004-08-05 | 2009-07-08 | ソニー株式会社 | 撮像装置、撮像制御方法およびプログラム |
JP4455219B2 (ja) | 2004-08-18 | 2010-04-21 | キヤノン株式会社 | 画像処理装置、画像表示方法、プログラム、及び記憶媒体 |
JP4477968B2 (ja) | 2004-08-30 | 2010-06-09 | Hoya株式会社 | デジタルカメラ |
TWI246031B (en) | 2004-09-17 | 2005-12-21 | Ulead Systems Inc | System and method for synthesizing multi-exposed image |
US7595823B2 (en) | 2005-02-17 | 2009-09-29 | Hewlett-Packard Development Company, L.P. | Providing optimized digital images |
US9621749B2 (en) | 2005-06-02 | 2017-04-11 | Invention Science Fund I, Llc | Capturing selected image objects |
US7659923B1 (en) | 2005-06-24 | 2010-02-09 | David Alan Johnson | Elimination of blink-related closed eyes in portrait photography |
AU2005203074A1 (en) | 2005-07-14 | 2007-02-01 | Canon Information Systems Research Australia Pty Ltd | Image browser |
US20070024721A1 (en) | 2005-07-29 | 2007-02-01 | Rogers Sean S | Compensating for improperly exposed areas in digital images |
JP4288612B2 (ja) | 2005-09-14 | 2009-07-01 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US7483061B2 (en) | 2005-09-26 | 2009-01-27 | Eastman Kodak Company | Image and audio capture with mode selection |
US9270976B2 (en) | 2005-11-02 | 2016-02-23 | Exelis Inc. | Multi-user stereoscopic 3-D panoramic vision system and method |
US20090295830A1 (en) | 2005-12-07 | 2009-12-03 | 3Dlabs Inc., Ltd. | User interface for inspection of photographs |
JP4790446B2 (ja) * | 2006-03-01 | 2011-10-12 | 三菱電機株式会社 | 動画像復号装置及び動画像符号化装置 |
US7787664B2 (en) * | 2006-03-29 | 2010-08-31 | Eastman Kodak Company | Recomposing photographs from multiple frames |
EP2003877B1 (en) | 2006-03-31 | 2015-05-06 | Nikon Corporation | Image processing method |
US8564543B2 (en) | 2006-09-11 | 2013-10-22 | Apple Inc. | Media player with imaged based browsing |
KR101259105B1 (ko) | 2006-09-29 | 2013-04-26 | 엘지전자 주식회사 | 콘트롤러 및 콘트롤러에서 키이 코드를 발생하는 방법 |
WO2008064349A1 (en) | 2006-11-22 | 2008-05-29 | Nik Software, Inc. | Method for dynamic range editing |
US7839422B2 (en) | 2006-12-13 | 2010-11-23 | Adobe Systems Incorporated | Gradient-domain compositing |
US7809212B2 (en) | 2006-12-20 | 2010-10-05 | Hantro Products Oy | Digital mosaic image construction |
US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
JP4853320B2 (ja) | 2007-02-15 | 2012-01-11 | ソニー株式会社 | 画像処理装置、画像処理方法 |
US7859588B2 (en) | 2007-03-09 | 2010-12-28 | Eastman Kodak Company | Method and apparatus for operating a dual lens camera to augment an image |
US7729602B2 (en) | 2007-03-09 | 2010-06-01 | Eastman Kodak Company | Camera using multiple lenses and image sensors operable in a default imaging mode |
JP2009020144A (ja) | 2007-07-10 | 2009-01-29 | Brother Ind Ltd | 画像表示装置及び画像表示プログラム |
JP4930302B2 (ja) | 2007-09-14 | 2012-05-16 | ソニー株式会社 | 撮像装置、その制御方法およびプログラム |
JP2009124206A (ja) | 2007-11-12 | 2009-06-04 | Mega Chips Corp | マルチメディア合成データ生成装置 |
US8416198B2 (en) | 2007-12-03 | 2013-04-09 | Apple Inc. | Multi-dimensional scroll wheel |
US8494306B2 (en) | 2007-12-13 | 2013-07-23 | Samsung Electronics Co., Ltd. | Method and an apparatus for creating a combined image |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
JP4492724B2 (ja) | 2008-03-25 | 2010-06-30 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
US20090244301A1 (en) | 2008-04-01 | 2009-10-01 | Border John N | Controlling multiple-image capture |
US8891955B2 (en) | 2008-04-04 | 2014-11-18 | Whitham Holdings, Llc | Digital camera with high dynamic range mode of operation |
US20090303338A1 (en) | 2008-06-06 | 2009-12-10 | Texas Instruments Incorporated | Detailed display of portion of interest of areas represented by image frames of a video signal |
US8497920B2 (en) * | 2008-06-11 | 2013-07-30 | Nokia Corporation | Method, apparatus, and computer program product for presenting burst images |
JP4513903B2 (ja) | 2008-06-25 | 2010-07-28 | ソニー株式会社 | 画像処理装置、及び画像処理方法 |
US8768070B2 (en) | 2008-06-27 | 2014-07-01 | Nokia Corporation | Method, apparatus and computer program product for providing image modification |
US8463020B1 (en) | 2008-07-08 | 2013-06-11 | Imove, Inc. | Centralized immersive image rendering for thin client |
JP2010020581A (ja) | 2008-07-11 | 2010-01-28 | Shibaura Institute Of Technology | 不要物を除去した画像合成システム |
US8654085B2 (en) | 2008-08-20 | 2014-02-18 | Sony Corporation | Multidimensional navigation for touch sensitive display |
US8176438B2 (en) | 2008-09-26 | 2012-05-08 | Microsoft Corporation | Multi-modal interaction for a screen magnifier |
US20100091119A1 (en) | 2008-10-10 | 2010-04-15 | Lee Kang-Eui | Method and apparatus for creating high dynamic range image |
KR20100070043A (ko) | 2008-12-17 | 2010-06-25 | 삼성전자주식회사 | 디지털 영상 신호 처리 장치의 장면 인식 표시 방법, 이를 기록한 기록 매체, 상기 표시 방법을 적용한 디지털 영상 신호 처리 장치 |
EP2483767B1 (en) | 2009-10-01 | 2019-04-03 | Nokia Technologies Oy | Method relating to digital images |
EP2323102A1 (en) | 2009-10-23 | 2011-05-18 | ST-Ericsson (France) SAS | Image capturing aid |
SE534551C2 (sv) | 2010-02-15 | 2011-10-04 | Scalado Ab | Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild |
SE1150505A1 (sv) | 2011-05-31 | 2012-12-01 | Mobile Imaging In Sweden Ab | Metod och anordning för tagning av bilder |
-
2010
- 2010-02-15 SE SE1000142A patent/SE534551C2/sv unknown
-
2011
- 2011-02-10 EP EP16177376.7A patent/EP3104331A1/en active Pending
- 2011-02-10 EP EP11153998.7A patent/EP2360644A3/en not_active Ceased
- 2011-02-10 EP EP16177377.5A patent/EP3104332B1/en active Active
- 2011-02-14 US US13/026,500 patent/US8594460B2/en active Active
-
2013
- 2013-09-26 US US14/037,708 patent/US9396569B2/en active Active
- 2013-09-26 US US14/037,563 patent/US9196069B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3104331A1 (en) | 2016-12-14 |
EP3104332B1 (en) | 2023-11-08 |
US20140177975A1 (en) | 2014-06-26 |
US9196069B2 (en) | 2015-11-24 |
EP2360644A3 (en) | 2015-09-09 |
US9396569B2 (en) | 2016-07-19 |
EP3104332A1 (en) | 2016-12-14 |
US20110200259A1 (en) | 2011-08-18 |
US20140101590A1 (en) | 2014-04-10 |
EP2360644A2 (en) | 2011-08-24 |
SE534551C2 (sv) | 2011-10-04 |
US8594460B2 (en) | 2013-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
SE1000142A1 (sv) | Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild | |
US10810735B2 (en) | Method and apparatus for analyzing medical image | |
US10284789B2 (en) | Dynamic generation of image of a scene based on removal of undesired object present in the scene | |
CN107516319B (zh) | 一种高精度简易交互式抠图方法、存储设备及终端 | |
JP6154075B2 (ja) | オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 | |
EP2947627B1 (en) | Light field image depth estimation | |
CN106899781B (zh) | 一种图像处理方法及电子设备 | |
US9600898B2 (en) | Method and apparatus for separating foreground image, and computer-readable recording medium | |
Wang et al. | Automatic natural video matting with depth | |
US10764563B2 (en) | 3D enhanced image correction | |
KR20150126768A (ko) | 이미지 합성 방법 및 그 전자 장치 | |
US20170147609A1 (en) | Method for analyzing and searching 3d models | |
CN110853071A (zh) | 图像编辑方法及终端设备 | |
US20160191898A1 (en) | Image Processing Method and Electronic Device | |
CN111382647B (zh) | 一种图片处理方法、装置、设备及存储介质 | |
CN116051736A (zh) | 一种三维重建方法、装置、边缘设备和存储介质 | |
WO2022217470A1 (en) | Hair rendering system based on deep neural network | |
KR101566459B1 (ko) | 이미지 기반의 비주얼 헐에서의 오목 표면 모델링 | |
KR20140138046A (ko) | 픽처를 처리하기 위한 방법 및 디바이스 | |
Zhu et al. | A method for quality evaluation of multi-exposure fusion images with multi-scale gradient magnitude | |
Yusiong et al. | Unsupervised monocular depth estimation of driving scenes using siamese convolutional LSTM networks | |
CN117456097B (zh) | 一种三维模型构建方法及装置 | |
TWI768231B (zh) | 資訊處理裝置、記錄媒體、程式產品以及資訊處理方法 | |
Bui et al. | Multi-focus application in mobile phone | |
US20240362891A1 (en) | Systems and methods for selecting motion models for aligning scene content captured by different image sensors |