SE535888C2 - Procedure for identifying a characteristic part of an image - Google Patents
Procedure for identifying a characteristic part of an image Download PDFInfo
- Publication number
- SE535888C2 SE535888C2 SE1150522A SE1150522A SE535888C2 SE 535888 C2 SE535888 C2 SE 535888C2 SE 1150522 A SE1150522 A SE 1150522A SE 1150522 A SE1150522 A SE 1150522A SE 535888 C2 SE535888 C2 SE 535888C2
- Authority
- SE
- Sweden
- Prior art keywords
- pixel
- image
- pixels
- edge area
- local
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
Abstract
Description
30 535 888 flera karaktäristiska delar av en viss bild identifieras. En sådan karaktäristisk del kan identifieras på olika sätt, men med det gemensamma syftet att vara informationsbärande i den meningen att delen kan användas för att till exempel identi- fiera eller jämföra en bild istället för att hela bilden används. Om den karaktäristiska delen innehåller information som är representativ eller beskrivande för bilden som helhet, är det effektivare att i olika bildanalyser ta hänsyn endast till den karaktäristiska delen snarare än till hela bilden. 5 535 888 several characteristic parts of a certain image are identified. Such a characteristic part can be identified in different ways, but with the common purpose of being information-bearing in the sense that the part can be used to, for example, identify or compare an image instead of using the entire image. If the characteristic part contains information that is representative or descriptive of the image as a whole, it is more effective in different image analyzes to take into account only the characteristic part rather than the whole image.
Ett problenl är att automatiskt kunna identifiera relevanta karaktäristiska delar i bilder pà ett konsistent och repeter- bart sätt.One problem is to be able to automatically identify relevant characteristic parts in images in a consistent and repeatable way.
WO200608586l beskriver ett förfarande för att identifiera eller indexera en digitalt lagrad bild, i vilket karaktäris- tiska delar identifieras i egenskap av kantområden, definie- rade som uppsättningar par av pixlar med hög ljuskontrast.WO2006085861 describes a method for identifying or indexing a digitally stored image, in which characteristic parts are identified as edge areas, defined as sets of pairs of pixels with high light contrast.
När man utför en analys baserad pà en karaktäristisk bilddel, till exempel genom att jämföra den med en motsvarande karak- täristisk bilddel i en annan bild, uppstår ofta problem när den bild i vilken den ena karaktäristiska delen ingår föränd- ras, till exempel genom perspektivförskjutning, vinkelföränd- ring, vridning, upplösningsförändring, beskärning, färgför- ändringar och så vidare. Exempel innefattar jämförelse mellan två bilder med hjälp av respektive karaktäristiska delar där den ena bilden är en variant av den andra bilden som besku- rits eller roterats; identifieringen av avvikande bilder i ett bildmaterial med hjälp av respektive karaktäristiska delar där vissa bilder har avvikande upplösning men där själ- va upplösningen inte är den egenskap vars avvikande är det som åsyftas med identifieringen; och gruppering av ett stort 10 15 20 25 30 535 888 antal bilder efter motiv utifrån respektive karaktäristiska delar, där vissa bilder innefattar samma motiv* men visade från något olika vinklar eller med delvis olika bakgrund.When performing an analysis based on a characteristic image part, for example by comparing it with a corresponding characteristic image part in another image, problems often arise when the image in which one characteristic part is included changes, for example by shifting perspective. , angle change, rotation, resolution change, cropping, color changes and so on. Examples include comparison between two images by means of respective characteristic parts where one image is a variant of the other image that has been cropped or rotated; the identification of deviating images in an image material by means of respective characteristic parts where certain images have deviating resolution but where the resolution itself is not the property whose deviation is what is meant by the identification; and grouping a large number of images according to motifs based on the respective characteristic parts, where certain images include the same motif * but shown from slightly different angles or with partly different backgrounds.
Det gemensamma problemet är i dessa fall att åstadkomma ett förfarande för att på ett konsistent och repeterbart sätt identifiera en karaktäristisk bilddel, för de syften som beskrivits ovan, och som är så opàverkad som möjligt av bild- förändringar av de typer som anges ovan.The common problem in these cases is to provide a method for identifying a characteristic image part in a consistent and repeatable manner, for the purposes described above, and which is as unaffected as possible by image changes of the types mentioned above.
Föreliggande uppfinning löser de ovan beskrivna problemen.The present invention solves the problems described above.
Således hänför sig uppfinningen till ett förfarande för att identifiera en karaktäristisk del av en bild, där bilden bringas att lagras i digitalt format i form av en matris uppbyggd av pixlar, och utmärks av följande steg : a) identi- fiera ett kantomràde i bilden bestående av en sammanhängande mängd kantpixlar bilden; b) som tillsammans bildar ett kantomràde i identifiera en första riktning i bilden för kant- området; c) identifiera ett lokalt kantomràde bestående av en sammanhängande mängd pixlar, för vilket lokalt kantomràde bredden i en första breddriktning längs med den första rikt- ningen saknar lokala maximum förutom ett enda globalt maxi- mum; d) identifiera en andra riktning för det lokala kantom- rådet; e) identifiera ett tilläggsområde kring det lokala kantområdet som innefattar pixlar som är belägna i omedelbar anslutning till en periferiskt belägen gränspixel hos det lokala kantområdet och vidare bort från gränspixeln fram till ett avstånd i den andra riktningen från gränspixeln som är proportionellt mot det lokala kantområdets bredd i den andra riktningen vid gränspixeln: f) identifiera den karaktäristis- ka delen av bilden så att den innefattar det lokala kantområ- 20 25 535 888 det och tilläggsområdet, och lagra den karaktäristiska delen i digital form pá ett lagringsmedium.Thus, the invention relates to a method for identifying a characteristic part of an image, wherein the image is caused to be stored in digital format in the form of a matrix made up of pixels, and is characterized by the following steps: a) identifying an edge area in the image consisting of of a coherent amount of edge pixels the image; b) which together form an edge area in identifying a first direction in the image for the edge area; c) identify a local edge area consisting of a coherent number of pixels, for which local edge area the width in a first width direction along the first direction lacks local maximums except for a single global maximum; d) identify a second direction for the local border area; e) identifying an additional area around the local edge area that includes pixels located in close proximity to a peripherally located boundary pixel of the local edge area and further away from the boundary pixel up to a distance in the other direction from the boundary pixel proportional to the width of the local edge area; in the other direction at the boundary pixel: f) identifying the characteristic part of the image so as to include the local edge area and the additional area, and storing the characteristic part in digital form on a storage medium.
Uppfinningen kommer nu att beskrivas i detalj, med hänvisning till exemplifierande utföringsformer av uppfinningen och de bifogade ritningarna, där: Figur l är en förstorad detalj i en digitalt lagrad bild på vilket ett förfarande enligt föreliggande uppfinning tilläm- pas; Figur 2 är en graf som illustrerar ett tröskelvärde för en jämförelseparameter enligt föreliggande uppfinning; Figur 3 är ett flödesschema som illustrerar identifieringen av ett kantområde i enlighet med föreliggande uppfinning; Figur 4 är en översiktlig illustration av en identifiering av ett karaktäristiskt område enligt föreliggande uppfinning; och Figur 5 är ett flödesschema som illustrerar identifieringen av en karaktäristisk del i enlighet med föreliggande uppfin- ning.The invention will now be described in detail, with reference to exemplary embodiments of the invention and the accompanying drawings, in which: Figure 1 is an enlarged detail in a digitally stored image to which a method according to the present invention is applied; Figure 2 is a graph illustrating a threshold value for a comparison parameter according to the present invention; Figure 3 is a flow chart illustrating the identification of an edge area in accordance with the present invention; Figure 4 is a schematic illustration of an identification of a characteristic area according to the present invention; and Figure 5 is a flow chart illustrating the identification of a characteristic part in accordance with the present invention.
Figur 1 visar ett kraftigt uppförstorat utsnitt 1 av en bild.Figure 1 shows a greatly enlarged section 1 of an image.
I enlighet med uppfinningen är bilden lagrad i digitalt for- mat pà ett digitalt lagringsmedium i form av en matris upp- byggd av pixlar. Detta innebär att bilden kan vara en bild vars förlaga är en analogt lagrad bild, exempelvis lagrad på en fotografisk film. I detta fall utförs en konventionell digitalisering av bilden innan den används i ett förfarande enligt föreliggande uppfinning. Lagringsmediet kan vara vil- ket konventionellt digitalt lagringsmedium som helst, såsom en hårddisk, ett interminne i en eller flera datorer eller en CD-skiva. 20 25 30 535 BBB I figur l är utsnittet så förstorat att de enskilda pixlarna framträder tydligt. Ett rutnät är tillagt, enbart i syfte att ytterligare öka tydligheten i figuren.In accordance with the invention, the image is stored in digital format on a digital storage medium in the form of a matrix made up of pixels. This means that the image can be an image whose model is an analogously stored image, for example stored on a photographic film. In this case, a conventional digitization of the image is performed before it is used in a method according to the present invention. The storage medium can be any conventional digital storage medium, such as a hard disk, an internal memory of one or more computers or a CD. BB 25 In Figure 1, the section is enlarged so that the individual pixels are clearly visible. A grid has been added, solely for the purpose of further increasing the clarity of the figure.
Figur 3 illustrerar översiktligt de olika stegen som utförs vid en identifiering av ett kantområde i enlighet med en föredragen utföringsform av föreliggande uppfinning.Figure 3 briefly illustrates the various steps performed in identifying an edge area in accordance with a preferred embodiment of the present invention.
I ett första steg 101 sveper man över hela bilden, pixel för pixel, och beräknar för varje par pixlar i bilden, där den ena pixeln befinner sig i. en förutbestämd lokal omgivning till den andra pixeln, en jämförelseparameter som utgör skillnaden mellan de två pixlarna beträffande en intensitets- egenskap över en eller flera kanaler.In a first step 101, one sweeps over the entire image, pixel by pixel, and calculates for each pair of pixels in the image, where one pixel is located. A predetermined local environment to the other pixel, a comparison parameter that is the difference between the two pixels regarding an intensity property over one or more channels.
Det är föredraget att intensitetsegenskapsskillnaden definie- ras som den absoluta skillnaden i värdet för intensitetsegen- skapen. Exempelvis kan skillnaden utgöras av den absoluta skillnaden i luminans hos två pixlar.It is preferred that the intensity property difference be defined as the absolute difference in the value of the intensity property. For example, the difference may be the absolute difference in luminance of two pixels.
Det är även föredraget att en intensitetsskillnad mellan pixeln ifråga och var och en av de pixlar som ingår i en fördefinierad lokal omgivning till pixeln jämförs. Omgivning- en är företrädesvis symmetrisk kring pixeln ifråga, och kan, beroende på bland annat prestandakrav, 4, 8, exempelvis utgöras av 12, 20, 24 eller fler närliggande pixlar.It is also preferred that a difference in intensity between the pixel in question and each of the pixels included in a predefined local environment be compared to the pixel. The environment is preferably symmetrical about the pixel in question, and may, depending on, among other things, performance requirements, 4, 8, for example consist of 12, 20, 24 or more adjacent pixels.
I figur 1 illustreras en pixel 4 för vilken intensitetsskill- naden i jämförelse med var och en av pixlarna 3a-3h i en 8 pixlars 3x3 omgivning 3 (mittpixeln 4 är jämförelsepixeln och tillhör inte omgivningen 3) àskàdliggörs. 10 15 20 25 30 535 BBB För varje pixel 4 i bilden jämförs således en intensitete- skillnad mellan pixeln 4 och var och en av pixlarna 3a-3h i en omgivning 3 till pixeln 4. Enligt en föredragen utförings- form definierar varje omgivningspixel 3a-3h en riktning i bilden i förhållande till pixeln 4. Tabell l visar de olika riktningar, uttryckta som vinklar i i förhållande relation till bildens geometri, till pixeln 4 som de olika omgiv- ningspixlarna 3a~3h definierar i figur 1. Det är naturligtvis möjligt att använda färre eller fler riktningar, men det är föredraget att riktningarna är jämnt fördelade mellan 0 och 360°.Figure 1 illustrates a pixel 4 for which the difference in intensity in comparison with each of the pixels 3a-3h in an 8 pixel 3x3 environment 3 (the middle pixel 4 is the comparison pixel and does not belong to the environment 3) is illustrated. 10 15 20 25 30 535 BBB Thus, for each pixel 4 in the image, an intensity difference between the pixel 4 and each of the pixels 3a-3h in an environment 3 is compared to the pixel 4. According to a preferred embodiment, each ambient pixel 3a 3h a direction in the image in relation to the pixel 4. Table 1 shows the different directions, expressed as angles in relation to the geometry of the image, to the pixel 4 which the different ambient pixels 3a ~ 3h define in figure 1. It is of course possible that use fewer or more directions, but it is preferred that the directions be evenly distributed between 0 and 360 °.
Tabell 1 Omgivningspixel Riktning 3a 270° 3b 3l5° 3c 0° 3d 45° 3e 225° 3f l80° 3g l35° 3h 90° Enligt föreliggande föredragna utföringsform beräknas för varje pixel 4 och för varje använd riktning en jämförelsepa- rameter, beträffande en intensitetsegenskap över en eller flera kanaler, som utgör skillnaden mellan pixeln 4 och den omgivningspixel som definierar riktningen ifråga. En ”kanal” i detta sammanhang är en numerisk uppgift om en viss typ av intensitet, såsom luminans, reflektans eller motsvarande.Table 1 Ambient Pixels Direction 3a 270 ° 3b 3l5 ° 3c 0 ° 3d 45 ° 3e 225 ° 3f l80 ° 3g l35 ° 3h 90 ° According to the presently preferred embodiment, for each pixel 4 and for each direction used, a comparison parameter is calculated, with respect to an intensity property. over one or more channels, which is the difference between the pixel 4 and the ambient pixel defining the direction in question. A "channel" in this context is a numerical indication of a certain type of intensity, such as luminance, reflectance or the like.
Exempel innefattar en RGB-kodad bild, där ljusintensitet i det röda, gröna respektive blåa färgbandet anges numeriskt av 10 20 25 M7 535 BBB varsin respektive av tre kanaler, och en gråskalebild, där gråskala anges numeriskt i en enda kanal.Examples include an RGB-coded image, where light intensity in the red, green and blue ribbons is indicated numerically by M7 535 BBB each of three channels, respectively, and a grayscale image, where grayscale is indicated numerically in a single channel.
Enligt en föredragen utföringsform är intensitetsegenskapen för en viss pixel den totala luminansen hos pixeln ifråga över hela det synliga färgspektrumet. I det fall ursprungs- bilden innehåller färginformation är det föredraget att bil- den i ett inledande steg, till exempel i samband med den ovan beskrivna eventuella digitaliseringen, konverteras till en gråskalebild, i vilken den totala luminansen för en viss pixel utgörs av värdet på dess gràton. Genom att på detta sätt bortse från färginformation i bilden kan en karaktäris- tisk del av bilden identifieras på ett sätt som är repeter- bart även i. många fall då ursprungsbildens färginformation manipulerats.According to a preferred embodiment, the intensity property of a given pixel is the total luminance of the pixel in question over the entire visible color spectrum. In case the original image contains color information, it is preferable that the image in an initial step, for example in connection with the above-described possible digitization, is converted to a grayscale image, in which the total luminance for a certain pixel consists of the value of its gratin. By ignoring color information in the image in this way, a characteristic part of the image can be identified in a way that is repeatable even in many cases where the color information of the original image has been manipulated.
För alla pixlar i bilden lagras det beräknade jämförelsevär- det för var och en av omgivningspixlarna i omgivningen till varje respektive pixel. Den sålunda erhållna mängden jämfö- relsevärden kan för var och en av de använda riktningarna i bilden àskådliggöras i en graf av den typ som illustreras i figur 2, som längs med en axel d visar skillnad i intensi- tetsegenskap och längs med en annan axel n visar antalet pixlar i bilden som uppvisar denna intensitetsegenskapsskill- nad för den aktuella riktningen. Med andra ord kan åtta såda- na grafer upprättas för det svep som illustreras i figur l som använder sig av en 3x3 pixelomgivning.For all pixels in the image, the calculated comparison value is stored for each of the surrounding pixels in the environment for each respective pixel. The amount of comparative values thus obtained can be illustrated for each of the directions used in the image in a graph of the type illustrated in Figure 2, which along one axis d shows difference in intensity property and along another axis n shows the number of pixels in the image that show this intensity property difference for the current direction. In other words, eight such graphs can be created for the sweep illustrated in Figure 1 using a 3x3 pixel environment.
För varje graf identifieras därefter, i ett steg 102, ett som utgörs av det första lokala minimumet hos den funktion n(d) som för en viss riktning illustreras i tröskelvärde dl, figur 2. Vid beräkning av värdet dl är det föredraget att först utföra en filtrering av funktionen f(n) så att den blir 15 20 25 30 535 B88 jämnare och/eller införa en viss toleransparameter som igno- rerar mindre fluktuationer i funktionens värde. Detta säker- ställer att det är det första mer markant framträdande mini- mumet som väljs ut som tröskelvärdet dl.For each graph, in a step 102, one is then identified which constitutes the first local minimum of the function n (d) which for a certain direction is illustrated in threshold value dl, figure 2. When calculating the value dl it is preferable to first perform filtering the function f (n) so that it becomes smoother and / or introducing a certain tolerance parameter that ignores minor fluctuations in the value of the function. This ensures that it is the first more prominent minimum that is selected as the threshold value dl.
I ett steg 103 identifieras därefter ett kantomràde i bilden som ett sammanhängande område kantpixlar. Uttrycket ”kantpix- el” i detta sammanhang skall tolkas som de pixlar för vilka jämförelseparametern vid jämförelse med en annan pixel i steget 101 befanns vara större än tröskelvärdet dl. Med andra ord kan kantpixlar sägas vara de pixlar i bilden som uppvisar högst kontrast i jämförelse med sina respektive lokala omgiv- ningar. Samma bild kan innefatta vilket antal sådana samman- hängande områden som helst, men det är föredraget att varje sammanhängande och isolerat område definieras som ett enskilt kantomràde, möjligen med användning av vissa tröskelvärden i form av exempelvis minsta tillåtna storlek för ett kantomràde eller minsta tillåtna storlek för förbindelser mellan kantom- råden. Även om det är föredraget att utföra jämförelserna och be- stämningarna av tröskelvärden enligt det ovan beskrivna i var och en av vissa förutbestämda riktningar i bilden är det även möjligt att utföra intensitetsegenskapsjämförelsen mellan pixeln 4 och omgivningspixlarna 3a-3h utan att ta hänsyn till riktningar, vilket i det fall som illustreras i figur l skul- le resultera i 8 olika jämförelsevärden för varje pixel i bilden, och där samtliga dessa jämförelsevärden analyseras i en och samma funktion f(n), varför endast ett tröskelvärde dl kommer att fastställas.In a step 103, an edge area in the image is then identified as a contiguous area of edge pixels. The expression "edge pixel" in this context is to be interpreted as the pixels for which the comparison parameter in comparison with another pixel in step 101 was found to be greater than the threshold value dl. In other words, edge pixels can be said to be the pixels in the image that show the highest contrast in comparison with their respective local environments. The same image may include any number of such contiguous areas, but it is preferred that each contiguous and isolated area be defined as a single edge area, possibly using certain thresholds in the form of, for example, the minimum allowable size for an edge area or the minimum allowable size. for connections between edge areas. Although it is preferable to perform the comparisons and determinations of threshold values as described above in each of certain predetermined directions in the image, it is also possible to perform the intensity property comparison between the pixel 4 and the surrounding pixels 3a-3h without taking into account directions. which in the case illustrated in Figure 1 would result in 8 different comparison values for each pixel in the image, and where all these comparison values are analyzed in one and the same function f (n), so that only one threshold value dl will be determined.
I det fall riktningar används, kommer med andra ord en viss pixel 4 att anses vara en kantpixel ifall intensitetsskillna- 10 15 20 25 30 535 888 den mellan pixeln 4 och någon av dess omgivningspixlar 3a-3h är större än tröskelvärdet för den riktning som definieras av omgivningspixeln ifråga. I det fall riktningar inte används kommer å ifall andra sidan pixeln 4 att anses vara en kantpixel intensitetsegenskapsskillnaden och mellan pixeln 4 någon av omgivningspixlarna 3a-3h är större än det för samt- liga riktningar gemensamma tröskelvärdet.In other words, if directions are used, a particular pixel 4 will be considered an edge pixel if the intensity difference between the pixel 4 and any of its surrounding pixels 3a-3h is greater than the threshold value of the direction defined. of the ambient pixel in question. In the event that directions are not used, on the other hand, if the pixel 4 is considered to be an edge pixel intensity difference and between the pixel 4 one of the ambient pixels 3a-3h is greater than the threshold common to all directions.
Enligt en föredragen utföringsform associeras varje sålunda identifierad kantpixel med ett binärt tal, i vilket varje bit motsvarar en viss riktning, och där den respektive bitens värde (0 eller 1) hänför sig till huruvida jämförelseparame- tern för kantpixeln ifråga i den riktning som motsvaras av biten befanns vara större än tröskelvärdet för åtminstone en av de förutbestämda riktningarna. Om exempelvis pixeln 4 i figur 1 befanns vara en kantpixel eftersom dess intensitets- skillnad i jämförelse med omgivningspixlarna 3d, 3e och 3g var större än de för dessa tre riktningars respektive beräk- nade tröskelvärden, kan det binära talet beräknas enligt Tabell 2: Tabell 2 Omgivningspixel Riktning Bitvärde 3a 270° 0 3b 3l5° O 3c 0° 0 3d 45° l 3e 225° 1 3f l80° 0 3g l35° 1 3h 90° O 10 20 25 30 535 BBB 10 Alltså blir det binära talet 00011010, vilket motsvarar det decimala talet 26. En sådan representation, där ett unikt binärt tal identifierar de riktningar längs med vilka kant- pixeln 4 ifråga uppfyller kriteriet för att anses vara en kantpixel, medger effektiv sökning bland identifierade kant- pixlar eftersom varje kantpixel är associerad med information som anger i. vilka riktningar angränsande pixlar åtminstone sannolikt också är kantpixlar.According to a preferred embodiment, each edge pixel thus identified is associated with a binary number, in which each bit corresponds to a certain direction, and where the value of the respective bit (0 or 1) relates to whether the comparative parameter of the edge pixel in question in the direction corresponding to the bit was found to be greater than the threshold value for at least one of the predetermined directions. If, for example, the pixel 4 in Figure 1 was found to be an edge pixel because its difference in intensity in comparison with the surrounding pixels 3d, 3e and 3g was larger than the calculated threshold values for these three directions, the binary number can be calculated according to Table 2: Table 2 Ambient pixel Direction Bit value 3a 270 ° 0 3b 3l5 ° O 3c 0 ° 0 3d 45 ° l 3e 225 ° 1 3f l80 ° 0 3g l35 ° 1 3h 90 ° O 10 20 25 30 535 BBB 10 Thus the binary number 00011010, which corresponds to the decimal number 26. Such a representation, where a unique binary number identifies the directions along which the edge pixel 4 in question meets the criterion of being considered an edge pixel, allows efficient search among identified edge pixels because each edge pixel is associated with information. indicating in which directions adjacent pixels are at least likely also edge pixels.
Enligt uppfinningen används ett identifierat kantområde, bestående av en sammanhängande mängd kantpixlar som tillsam- mans bildar ett kantområde i bilden, fält, exempelvis mellan två angränsande för att identifiera ett karaktäristiskt område. Det är föredraget men inte nödvändigt att använda ett förfarande i enlighet med det som beskrivits ovan för att identifiera kantområdet. Genom att som kantpixlar identifiera sådana pixlar som har en stor intensitetsegenskapsskillnad i jämförelse med andra pixlar i en lokal omgivning, åstadkoms ett kantområde som dels effektivt fångar upp relevanta delar av bilden, dels på många sätt är oberoende av de typer av förändringar av originalbilden som beskrivits ovan. Genom att därutöver även utföra analysen i ett antal förutbestämda riktningar förbättras precisionen.According to the invention, an identified edge area is used, consisting of a continuous amount of edge pixels which together form an edge area in the image, fields, for example between two adjacent ones, to identify a characteristic area. It is preferred but not necessary to use a method in accordance with that described above to identify the edge area. By identifying as pixel pixels such pixels that have a large intensity property difference compared to other pixels in a local environment, an edge area is created which effectively captures relevant parts of the image and is in many ways independent of the types of changes to the original image described. above. By also performing the analysis in a number of predetermined directions, the precision is improved.
Flödesschemat i figur 5 illustrerar ett förfarande enligt föreliggande uppfinning, där identifieringen av kantområdet utgör ett första steg 201.The flow chart in Figure 5 illustrates a method according to the present invention, where the identification of the edge area constitutes a first step 201.
Figur 4 visar i en matris ett visst kantomràde 10 som identi- fierats i steget 201 för en viss bild. Själva bildinformatio- nen visas inte, av tydlighetsskäl, utan endast kantområdets 10 utbredning i bildens pixelmatris. De pixlar som tillhör 10 15 20 25 30 535 BBB ll det identifierade kantområdet 10 är markerade med grå bak- grund.Figure 4 shows in a matrix a certain edge area 10 identified in step 201 for a certain image. The image information itself is not displayed, for the sake of clarity, but only the extent of the edge area 10 in the pixel matrix of the image. The pixels belonging to 10 15 20 25 30 535 BBB ll the identified edge area 10 are marked with a gray background.
I enlighet med uppfinningen identifieras i ett steg 202 en första riktning A1 i hdlden. Den första riktningen Al kan vara vilken riktning som helst, och kan speciellt vara en riktning i. förhållande till bildens axelriktningar eller i förhållande till en viss geometrisk egenskap hos det identi- fierade kantområdet, såsom dess längsta diameter. Den rikt- ning Al som illustreras i figur 4 utgörs av en av bildens axelriktningar.In accordance with the invention, in a step 202, a first direction A1 in the hand is identified. The first direction A1 can be any direction, and can in particular be a direction in relation to the axis directions of the image or in relation to a certain geometric property of the identified edge area, such as its longest diameter. The direction A1 illustrated in Figure 4 is one of the axis directions of the image.
I ett steg 203 genomlöps därefter hela det identifierade kantområdet 10 längs med den första riktningen Al, i det i figur 4 illustrerade exemplifierande utföringsexemplet ned- ifrån och uppåt i figuren. För varje pixel längs med den första riktningen Al undersöks bredden i en första breddrikt- ning för kantområdet 10 vid läget för pixeln Med ”bredden i en första breddriktning” menas i detta ifråga. uttrycket sammanhang bredden i en ytterligare riktning som inte är parallell med den första riktningen Al. Denna breddriktning är företrädesvis vinkelrät mot den första riktningen Al, men kan även utgöras exempelvis av en med Al icke parallell axel- riktning i bilden.In a step 203, the entire identified edge area 10 is then traversed along the first direction A1, in the exemplary embodiment illustrated in Figure 4 from below and upwards in the figure. For each pixel along the first direction A1, the width in a first width direction for the edge area 10 at the position of the pixel is examined. By "the width in a first width direction" is meant in this case. the term context width in an additional direction that is not parallel to the first direction A1. This width direction is preferably perpendicular to the first direction A1, but can also be constituted, for example, by an axis direction not parallel to A1 in the image.
Genom sådana successiva undersökningar av bredden i den för- sta breddriktningen längs med den första riktningen Al iden- tífieras i ett steg 203 ett lokalt kantområde ll. För varje undersökt bredd i den första breddriktningen läggs till det lokala kantområdet ll de pixlar som är belägna längs med bredden i den första breddriktningen ifråga. 15 20 ü 30 535 888 12 Enligt uppfinningen identifieras det lokala kantomràdet ll så att bredden i den första breddriktningen i det lokala kantom- rådet ll längs med den första riktningen Al saknar lokala maximum förutom ett enda globalt maximum. Detta kan praktiskt utföras genom att genomlöpningen fortsätter till nästa bredd i den första breddriktningen längs med den första riktningen Al så länge som bredden i den första breddriktningen inte åter börjar öka efter att först ha minskat. Med andra ord avbryts identifieringen av det lokala kantomràdet ll när det första lokala minimumet hos bredden i den första breddrikt- ningen har nåtts längs med den första riktningen Al, alterna- tivt när den sista bredden i den första breddriktningen i kantomràdet 10 har nåtts.By such successive investigations of the width in the first width direction along the first direction A1, a local edge area 11 is identified in a step 203. For each examined width in the first width direction, the local edge area ll is added to the pixels located along the width in the first width direction in question. According to the invention, the local edge area ll is identified so that the width in the first width direction in the local edge area ll along the first direction A1 lacks local maximums except for a single global maximum. This can be practically done by continuing the passage to the next width in the first width direction along the first direction A1 as long as the width in the first width direction does not start to increase again after first decreasing. In other words, the identification of the local edge area l1 is interrupted when the first local minimum of the width in the first width direction has been reached along the first direction A1, alternatively when the last width in the first width direction in the edge area 10 has been reached.
Enligt en föredragen utföringsform används de tidigare lagra- de binära talen för varje respektive kantpixel för att utföra genomlöpningen av kantområdet 10. Detta utförs så att kantom- ràdet 10 genomlöps pixel för pixel, där den bit i det binära talet som motsvarar en viss riktning avgör huruvida genomlöp- ningen skall fortsätta i denna riktning eller inte på så sätt att bitvärdet ”O” innebär att genomlöpning inte skall fort- sätta i den riktningen. Ett sådant förfarande medför snabb genomlöpning av samtliga pixlar i ett kantomràde 10.According to a preferred embodiment, the previously stored binary numbers for each respective edge pixel are used to perform the traversal of the edge area 10. This is done so that the edge area 10 traverses pixel by pixel, where the bit in the binary number corresponding to a certain direction determines whether the throughput should continue in this direction or not in such a way that the bit value “O” means that the throughput should not continue in that direction. Such a method results in rapid traversal of all the pixels in an edge area 10.
Det på detta sätt identifierade lokala kantområdet 11 är i figur 4 illustrerat med hjälp av streckade linjer.The local edge area 11 identified in this way is illustrated in Figure 4 by means of dashed lines.
Därefter kan ytterligare lokala kantområden identifieras utifrån de eventuella delar av ett identifierat kantomràde 10 som inte redan utgör en del av ett identifierat lokalt kant- område ll. Förfarandet kan även fortsätta för alla identifie- rade kantområden i bilden, så att slutligen samtliga identi- 10 15 20 25 30 535 888 13 fierade kantområden har delats in i ett antal lokala kantom- råden.Thereafter, additional local edge areas can be identified based on the possible parts of an identified edge area 10 which do not already form part of an identified local edge area 11. The procedure can also continue for all identified edge areas in the image, so that finally all identified edge areas have been divided into a number of local edge areas.
I ett steg 204 identifieras därefter en andra riktning A2 för det lokala kantområdet ll. Denna andra riktning A2 kan, på ett sätt som liknar det för den första riktningen A1, vara antingen relaterad till geometrin för bilden eller det lokala kantområdet ll, exempelvis till en längsta diameter hos det lokala kantområdet ll eller till en axelriktning hos bilden.In a step 204, a second direction A2 is then identified for the local edge area 11. This second direction A2 can, in a manner similar to that of the first direction A1, be either related to the geometry of the image or the local edge area 11, for example to a longest diameter of the local edge area 11 or to an axis direction of the image.
Speciellt kan den andra riktningen A2 väljas att vara bredden i den första breddriktningen som diskuterats ovan eller samma riktning som den första riktningen Al. I den exemplifierande utföringsform som illustreras i figur 4 väljs den andra rikt- ningen A2 till bredden i den första breddriktningen som dis- kuterats ovan.In particular, the second direction A2 can be chosen to be the width in the first width direction discussed above or the same direction as the first direction A1. In the exemplary embodiment illustrated in Figure 4, the second direction A2 is selected to the width in the first width direction discussed above.
Efter detta identifieras, i ett steg 205, 12 kring det lokala kantområdet ll. ett tilläggsomràde Tilläggsområdet 12 illu- streras i figur 4 med streckad bakgrund. Enligt uppfinningen väljs vid identifieringen av tilläggsområdet 12 pixlar l4a, l4b som är belägna i omedelbar anslutning till en periferiskt belägen gränspixel 13 hos det lokala kantområdet ll och vida- re bort från gränspixeln 13, längs med den andra riktningen A2, fram till ett visst avstånd i den andra riktningen A2 från gränspixeln 13.After this, in a step 205, 12 around the local edge area 11 is identified. an additional area The additional area 12 is illustrated in figure 4 with a dashed background. According to the invention, in identifying the additional area 12, pixels 14a, 14b which are located in immediate connection with a peripherally located boundary pixel 13 of the local edge area 11 and further away from the boundary pixel 13, along the second direction A2, up to a certain distance are selected. in the other direction A2 from the boundary pixel 13.
Uttrycket ”gränspixel” betyder häri en sådan pixel som i den andra riktningen A2 angränsar till en pixel l4b som inte ingår i det lokala kantområdet 11. För en viss sådan kantpix- el 13 läggs alltså den angränsande pixeln l4b som inte ingår i det lokala kantområdet ll till tilläggsområdet 12. Dessutom läggs till tilläggsomràdet 12 nästa pixel l4a i den andra riktningen A2, och så vidare, fram till det nämnda avståndet 15 20 25 30 535 BBB 14 från gränspixeln 13. Enligt uppfinningen är avståndet propor- tionellt mot det lokala kantområdets ll bredd. i den andra vid riktningen A2 mellan gränspixeln 13. Proportionen tilläggsområdets 12 avstånd och det lokala kantområdets 11 bredd i den andra riktningen A2 kan vara vilken lämplig kon- stant som helst, och 5, enligt en föredragen utföringsform mellan 1 hellre mellan 1 och 3, helst l. I föreliggande exemp- lifierande utföringsform används konstanten 1, vilket alltså betyder att avståndet väljs till samma som bredden i den andra riktningen A2.The term "boundary pixel" as used herein means a pixel which in the other direction A2 adjoins a pixel l4b which is not included in the local edge area 11. For a certain such edge pixel 13 the adjacent pixel l4b which is not included in the local edge area is thus added 11 to the additional area 12. In addition, the additional pixel 14a is added in the second direction A2, and so on, up to the said distance 15B 25B BBB 14 from the boundary pixel 13. According to the invention, the distance is proportional to the local edge area. ll width. in the second at the direction A2 between the boundary pixel 13. The ratio of the distance of the additional area 12 and the width of the local edge area 11 in the second direction A2 may be any suitable constant, and 5, according to a preferred embodiment between 1, preferably between 1 and 3, preferably 1. In the present exemplary embodiment, the constant 1 is used, which means that the distance is selected to be the same as the width in the other direction A2.
För den illustrerade gränspixeln 13 är bredden vid gränspix- eln 13 i den andra riktningen A2 två pixlar, 14b, varför två yt- terligare pixlar l4a, området 11, som inte ingår i det lokala kant- väljs att ingå i tilläggsomràdet 12 i den andra riktningen A2. Men avståndets storlek är alltså variabelt över olika gränspixlar. Såsom tydligt framgår av figur 4 varierar avståndet mellan l och 5 pixlar for olika gränspix- lar.For the illustrated boundary pixel 13, the width at the boundary pixel 13 in the second direction A2 is two pixels, 14b, so that two further pixels 14a, the area 11, which is not included in the local edge, are selected to be included in the additional area 12 in the second direction. direction A2. But the size of the distance is thus variable over different boundary pixels. As is clear from Figure 4, the distance varies between 1 and 5 pixels for different boundary pixels.
Enligt en föredragen utföringsform identifieras tilläggsomrà- den på detta sätt för alla gränspixlar i det lokala kantområ- det ll, och alla således identifierade tilläggsområden bildar tillsammans tilläggsområdet för det lokala kantomràdet 11.According to a preferred embodiment, additional areas are identified in this way for all boundary pixels in the local edge area 11, and all additional areas thus identified together form the additional area for the local edge area 11.
Detta medför hög repeterbarhet vid identifieringen av en karaktäristisk del.This results in high repeatability in the identification of a characteristic part.
Enligt uppfinningen identifieras därefter den karaktäristiska delen av bilden så att den innefattar det lokala kantområdet och tilläggsområdet. Med andra ord kommer den karaktäristiska delen att utgöra ett sammanhängande område av bilden, inne- fattande dels kantpixlar, dels tilläggspixlar. Den karaktä- ristiska delen lagras därefter i digital form på ett lag- 20 25 30 535 B88 15 ringsmedium, som kan vara vilket konventionellt lagringsmedi- um som helst såsom beskrivits ovan.According to the invention, the characteristic part of the image is then identified so as to include the local edge area and the additional area. In other words, the characteristic part will constitute a coherent area of the image, comprising partly edge pixels and partly additional pixels. The characteristic portion is then stored in digital form on a storage medium, which may be any conventional storage medium as described above.
Således utgår föreliggande uppfinnings förfarande från ett kantområde i en bild.Thus, the method of the present invention is based on an edge area in an image.
Sådana kantomràden kan i allmänhet identifieras automatiskt för olika bilder på ett i hög grad repeterbart sätt. Eftersom den intressanta informationen i fotografiska bilder i många fall tenderar att vara associerad med partier med relativt hög kontrast och/eller som utgör gränser mellan i bilden förekommande fält exempelvis mellan för- och bakgrund i bilden, kommer de kantomràden som identi- fieras av en automatisk algoritm i allmänhet att vara belägna i partier av bilden som är intressanta ur till exempel en jämförelsesynpunkt. Speciellt god repeterbarhet har av före- liggande uppfinnare uppnåtts med hjälp av det ovan beskrivna förfarandet för att identifiera ett kantområde. Genom att välja ett lokalt kantområde med endast ett lokalt maximum kan rumsligt begränsade, distinkta kantomràden av lagom storlek erhållas snabbt och på ett repeterbart sätt.Such edge areas can generally be automatically identified for different images in a highly repeatable manner. Since the interesting information in photographic images in many cases tends to be associated with areas of relatively high contrast and / or which form boundaries between fields present in the image, for example between foreground and background in the image, the edge areas identified by an automatic algorithm in general to be located in portions of the image that are interesting from, for example, a point of view of comparison. Particularly good repeatability has been achieved by the present inventors by means of the method described above for identifying an edge area. By selecting a local edge area with only a local maximum, spatially limited, distinct edge areas of suitable size can be obtained quickly and in a repeatable manner.
Genom att identifiera en karaktäristisk del som unionen av ett kantomràde och ett tilläggsomràde på det ovan angivna sättet, kommer den karaktäristiska delen även att innefatta partier i bilden som omger ett kantområde. Det har överras- kande visat sig att sådana kringpartier ofta innehåller hög- relevant bildinformation. Genom att välja tilläggsomràde vars dimensioner är proportionella mot kantområdets dimensioner erhålls en karaktäristisk del vars utsträckning i en bild blir repeterbar i hög utsträckning. Med andra ord kommer ungefärligen samma parti av bilden med avseende pá själva bildinformationen att identifieras även ifall bilden har modifierats med avseende på upplösning, vinkelförändringar, fokusering, rotation, färginställningar, etc. Eftersom kant- 15 20 25 30 535 B88 16 området är identifierat enbart på basis av själva bildinne- hållet, och eftersom tilläggsomràdet är identifierat på basis av kantområdet, finns inga beroenden till exempelvis bildma- trisens yttre geometri.By identifying a characteristic part such as the union of an edge area and an additional area in the manner indicated above, the characteristic part will also include portions of the image surrounding an edge area. It has surprisingly been found that such surrounding areas often contain highly relevant image information. By selecting an additional area whose dimensions are proportional to the dimensions of the edge area, a characteristic part is obtained whose extent in an image becomes highly repeatable. In other words, approximately the same portion of the image with respect to the image information itself will be identified even if the image has been modified with respect to resolution, angular changes, focusing, rotation, color settings, etc. Since the edge area is identified only on the basis of the image content itself, and since the additional area is identified on the basis of the edge area, there are no dependencies on, for example, the external geometry of the image matrix.
Detta medför slutligen att karaktäristiska delar som identi- fierats genom ett förfarande enligt föreliggande uppfinning med stor sannolikhet ger repeterbara resultat när de används för ett brett spektrum av olika syften, såsom automatiska jämförelser mellan bilder.Finally, this means that characteristic parts identified by a method according to the present invention are very likely to give repeatable results when used for a wide range of different purposes, such as automatic comparisons between images.
Det är föredraget att den digitalt lagrade karaktäristiska delen bringas att innefatta information beträffande vilka pixlar som utgör kantpixlar, och även den ursprungliga pixe- linformationen från bilden. Lagringen av en karaktäristisk del på detta sätt gör att delen på ett enkelt sätt kan använ- das i analyser som även tar hänsyn till vilka pixlar som utgör kantpixlar. Detta kan i. många tillämpningar vara en intressant parameter vid exempelvis jämförelser mellan bil- der, eftersom dessa pixlar till exempel kan markera gränser mellan fält i bilden.It is preferred that the digitally stored characteristic part be made to include information regarding which pixels constitute edge pixels, and also the original pixel information from the image. The storage of a characteristic part in this way means that the part can be used in a simple way in analyzes that also take into account which pixels constitute edge pixels. In many applications, this can be an interesting parameter in, for example, comparisons between images, since these pixels can, for example, mark boundaries between fields in the image.
Enligt en föredragen utföringsform väljs inte endast en för- sta riktning, utan två första riktningar. Dessa riktningar kan, på samma sätt som beskrivs ovan för den första riktning- en, vara vilka riktningar som helst som är relaterade till bildens dimensioner eller till det identifierade kantomrádets dimensioner, så länge som de två första riktningarna inte är parallella. Sedan utförs identifieringen av det lokala kant- området på motsvarande sätt såsom beskrivs ovan, men med användning av båda de första riktninqarna var för sig. Alltså väljs det lokala kantomrádet som en del av det identifierade kantområdet som enbart har ett lokalt maximum längs med båda 10 15 20 25 30 535 888 17 de respektive första riktningarna. Detta medför högre repe- terbarhet vid identifiering av karaktäristiska delar även i det fall bilden roteras och även i fallet långsträckta kant- områden. Det är föredraget att de båda första riktningarna är vinkelräta. Exempel innefattar riktningen längs med kantområ- dets längsta diameter respektive dennas normalriktning, samt två vinkelräta axeldimensioner hos bilden. Speciellt det senare möjliggör snabba beräkningar i ett automatiserat för- farande i kombination med hög konsistens och repeterbarhet.According to a preferred embodiment, not only a first direction is selected, but two first directions. These directions may, in the same manner as described above for the first direction, be any directions related to the dimensions of the image or to the dimensions of the identified edge area, as long as the first two directions are not parallel. Then, the identification of the local edge area is performed in a corresponding manner as described above, but using both of the first directions separately. Thus, the local edge area is selected as a part of the identified edge area which only has a local maximum along both the respective first directions. This results in higher repeatability when identifying characteristic parts even in the case of the image being rotated and also in the case of elongated edge areas. It is preferred that the first two directions be perpendicular. Examples include the direction along the longest diameter of the edge area and its normal direction, respectively, as well as two perpendicular axis dimensions of the image. The latter in particular enables fast calculations in an automated procedure in combination with high consistency and repeatability.
Pâ ett liknande sätt väljs, enligt en föredragen utförings- form, inte endast en andra riktning utan två andra riktning- ar. Dessa båda andra riktningar kan också, såsonx beskrivs ovan för den andra riktningen, vara vilka riktningar som helst som är relaterade till bildens dimensioner eller till det identifierade kantområdets dimensioner. De får dock inte vara parallella. Därefter utförs identifieringen av tilläggs- omràdet på motsvarande sätt såsom beskrivs ovan för den andra riktningen, men med användning av båda de andra riktningarna.In a similar manner, according to a preferred embodiment, not only a second direction but two other directions are selected. These two other directions can also, as described above for the other direction, be any directions that are related to the dimensions of the image or to the dimensions of the identified edge area. However, they must not be parallel. Thereafter, the identification of the additional area is performed in a corresponding manner as described above for the other direction, but using both the other directions.
Alltså identifieras först ett tilläggsomràde med hjälp av en av de andra riktningarna. Därefter identifieras, på motsva- rande sätt, ett ytterligare tilläggsomràde med hjälp av den andra av de båda andra riktningarna. Slutligen väljs tilläggsomràdet för den karaktäristiska delen som unionen av dessa identifierade tilläggsomràden. Ett sådant förfarande ger ytterligare förbättrad konsistens och repeterbarhet, eftersom tilläggsomràdet inte kommer att förändra sin form nämnvärt även i. det fall bilden exempelvis har roterats i förhållande till sitt ursprungliga utseende.Thus, an additional area is first identified by means of one of the other directions. Then, in a corresponding manner, an additional additional area is identified by means of the other of the other two directions. Finally, the additional area is selected for the characteristic part that the Union of these identified additional areas. Such a method provides further improved consistency and repeatability, since the additional area will not change its shape appreciably even in the case where the image has, for example, been rotated in relation to its original appearance.
Ifall ytterligare förbättrad repeterbarhet önskas är det vidare möjligt att använda ytterligare första respektive andra riktningar. 10 15 535 888 18 Enligt en föredragen utföringsforn1 är bildens en fristående fotografisk bild eller en fotografisk bild som ingår i en filmsekvens. Enligt en annan föredragen utföringsform är bilden en mikroskopisk bild eller en bild som utgör resulta- tet av en mätning av ett objekts såsom en inre struktur, röntgenbild av en patient eller en artikel som skall avsynas för nmterialdefekter, alternativt ett tvärsnitt av ett ob- jekts tredimensionella struktur, såsom en NMR-avbildning av vävnad i en patient.If further improved repeatability is desired, it is further possible to use further first and second directions, respectively. According to a preferred embodiment 1, the image is a stand-alone photographic image or a photographic image included in a film sequence. According to another preferred embodiment, the image is a microscopic image or an image which is the result of a measurement of an object such as an internal structure, X-ray image of a patient or an article to be inspected for material defects, or alternatively a cross section of an object three-dimensional structure, such as an NMR image of tissue in a patient.
Ovan har föredragna utföringsformer beskrivits. Emellertid är det uppenbart för fackmannen att många förändringar kan göras av de beskrivna utföringsformerna utan att fràngà uppfinning- ens tanke. Sålunda skall uppfinningen inte vara begränsad till de beskrivna utföringsformerna, utan kan varieras inom ramen för de bifogade kraven.Preferred embodiments have been described above. However, it will be apparent to those skilled in the art that many changes may be made to the described embodiments without departing from the spirit of the invention. Thus, the invention should not be limited to the described embodiments, but may be varied within the scope of the appended claims.
Claims (12)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1150522A SE535888C2 (en) | 2011-06-08 | 2011-06-08 | Procedure for identifying a characteristic part of an image |
PCT/SE2012/050620 WO2012169964A1 (en) | 2011-06-08 | 2012-06-08 | Method for identifying a characteristic part of an image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1150522A SE535888C2 (en) | 2011-06-08 | 2011-06-08 | Procedure for identifying a characteristic part of an image |
Publications (2)
Publication Number | Publication Date |
---|---|
SE1150522A1 SE1150522A1 (en) | 2012-12-09 |
SE535888C2 true SE535888C2 (en) | 2013-02-05 |
Family
ID=47296294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE1150522A SE535888C2 (en) | 2011-06-08 | 2011-06-08 | Procedure for identifying a characteristic part of an image |
Country Status (2)
Country | Link |
---|---|
SE (1) | SE535888C2 (en) |
WO (1) | WO2012169964A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240228B (en) * | 2013-06-24 | 2017-10-24 | 阿里巴巴集团控股有限公司 | A kind of detection method and device of particular picture applied to website |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6639593B1 (en) * | 1998-07-31 | 2003-10-28 | Adobe Systems, Incorporated | Converting bitmap objects to polygons |
US7333648B2 (en) * | 1999-11-19 | 2008-02-19 | General Electric Company | Feature quantification from multidimensional image data |
JP2007140684A (en) * | 2005-11-15 | 2007-06-07 | Toshiba Corp | Image processor, method and program |
JP4966077B2 (en) * | 2007-04-12 | 2012-07-04 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP5229744B2 (en) * | 2007-12-03 | 2013-07-03 | 国立大学法人北海道大学 | Image classification device and image classification program |
JP5376906B2 (en) * | 2008-11-11 | 2013-12-25 | パナソニック株式会社 | Feature amount extraction device, object identification device, and feature amount extraction method |
-
2011
- 2011-06-08 SE SE1150522A patent/SE535888C2/en unknown
-
2012
- 2012-06-08 WO PCT/SE2012/050620 patent/WO2012169964A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
SE1150522A1 (en) | 2012-12-09 |
WO2012169964A1 (en) | 2012-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113077467B (en) | Edge defect detection method and device for target object and storage medium | |
Gong et al. | Interactive shadow removal and ground truth for variable scene categories | |
JP4727703B2 (en) | Method of operating machine vision system and boundary positioning system | |
Pape et al. | Utilizing machine learning approaches to improve the prediction of leaf counts and individual leaf segmentation of rosette plant images | |
US8121415B2 (en) | Combining feature boundaries | |
US9177222B2 (en) | Edge measurement video tool and interface including automatic parameter set alternatives | |
CN107945221B (en) | Three-dimensional scene feature expression and high-precision matching method based on RGB-D image | |
JP2006053919A (en) | Image data separating system and method | |
JP2013077296A (en) | Image processing apparatus, image processing method, and program | |
CN109035170A (en) | Adaptive wide-angle image correction method and device based on single grid chart subsection compression | |
CN111833371B (en) | Image edge detection method based on pq-mean sparse measurement | |
CN116523898A (en) | Tobacco phenotype character extraction method based on three-dimensional point cloud | |
CN112819842B (en) | Workpiece contour curve fitting method, device and medium suitable for workpiece quality inspection | |
SE535888C2 (en) | Procedure for identifying a characteristic part of an image | |
CN115423746B (en) | Image processing method for calculating skin hole site and aperture | |
CN113096090B (en) | End face gap visual measurement method with chamfer, device, equipment and storage medium | |
US20220405936A1 (en) | Computer-implemented method for segmenting measurement data from a measurement of an object | |
JP7003291B2 (en) | Correction method and device for correcting image data | |
SE1150523A2 (en) | ||
CN112184730A (en) | Improved multispectral image segmentation method based on superpixel | |
US11776127B2 (en) | Computer-implemented method for segmenting measurement data from a measurement of an object | |
JP4986934B2 (en) | Graphic region extraction apparatus, graphic region extraction method, program, and recording medium | |
CN110232045B (en) | Electronic file image processing method | |
Inglis et al. | An evaluation of semiautomatic approaches to contour segmentation applied to fungal hyphae | |
Tian et al. | Interactive foreground segmentation method using mean shift and graph cuts |