WO2008093029A2 - Methods for the analysis and modelling of an image containing unit elements to be detected, and corresponding system and device - Google Patents

Methods for the analysis and modelling of an image containing unit elements to be detected, and corresponding system and device Download PDF

Info

Publication number
WO2008093029A2
WO2008093029A2 PCT/FR2007/052570 FR2007052570W WO2008093029A2 WO 2008093029 A2 WO2008093029 A2 WO 2008093029A2 FR 2007052570 W FR2007052570 W FR 2007052570W WO 2008093029 A2 WO2008093029 A2 WO 2008093029A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
histogram
vertical
horizontal
background
Prior art date
Application number
PCT/FR2007/052570
Other languages
French (fr)
Other versions
WO2008093029A3 (en
Inventor
Julien Ricard
Jérôme Royan
Patrick Gioia
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Publication of WO2008093029A2 publication Critical patent/WO2008093029A2/en
Publication of WO2008093029A3 publication Critical patent/WO2008093029A3/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis

Definitions

  • the present invention generally relates to the fields of image analysis and rendering, and more specifically to the visualization of urban scenes in two or three dimensions, made up of a large number of buildings.
  • One of the applications of the invention is in fact the analysis of real images of building facades in order to model them and then allow an approximate but rapid reconstruction of these images during a navigation in a virtual environment.
  • K.Schindler and J.Bauer in their article “A Model-based Method for Building Reconstruction”, published in 2003 at a “Higher-Level Knowledge in 3D Modeling and Motion” workshop at an international conference Conference on Computer Vision (ICCV) ", presents a method of facade analysis, in which the windows of a facade to be analyzed are detected by a scanning algorithm based on the density of points not incident to the plane of the facade. This method thus detects the windows as being objects behind the plane of the facade, but requires several starting images of the facade, and their combination according to the parameters of the taking of images, which is complex and impractical to implement .
  • ICCV Computer Vision
  • facade images are applied to facade images, but they could be applied more generally to the detection of unit elements in structured images, i.e. images having two directions in which are arranged elements distinguished from a background or background. Indeed, these techniques exploit the fact that in a facade image, the facade elements are aligned vertically and horizontally with respect to the axes of the facade on a background image.
  • one of the applications of the invention is the analysis of images of building facades, to extract elements such as windows, doors and balconies to build the procedural models of associated facades
  • the invention is also applicable to any image containing elements aligned along two axes.
  • the invention proposes a method of analyzing an image containing unitary elements to be detected, aligned in two horizontal and vertical directions, comprising the steps of:
  • Calculation of a histogram in a vertical or horizontal direction, representative of said contour image, respectively called vertical contour histogram or histogram of horizontal contours said method being characterized in that it comprises the additional steps of: an image of belonging to the background corresponding to the distances between the colors of the pixels of said image containing unitary elements to be detected and an average background color corresponding to a uniformly distributed color in an area of said image containing unitary elements to be detected, - Calculation of a histogram in a vertical or horizontal direction, representative of said image of belonging to the background, called respectively vertical background histogram or horizontal background histogram,
  • an image containing elements aligned along two axes is automatically analyzed in a robust and efficient manner.
  • the invention merges several types of highly correlated histograms, those obtained from a contour image, and those obtained from a background image, to obtain so-called "window" histograms. are easy to analyze. In other words, the joint use of the background color information of the image and the contour information makes the image analysis more robust. These histograms then make it possible to cut the image containing elements aligned along two axes in cells which each contain an element to be detected, in a fast, precise and efficient manner with respect to the prior art. This division into cells is a preliminary step to the finer detection of the isolated elements in each cell, then to the "procedural" modeling of the image when it is a facade image. In addition to performing the analysis of a facade, the invention requires a single photographic image thereof.
  • the vertical or horizontal background histogram is respectively multiplied by the histogram of vertical or horizontal contours.
  • the fusion of a contour histogram with a background histogram is feasible in several ways, for example by linear combination or by multiplication. The best results in terms of efficiency and robustness were obtained by multiplying these two types of histograms.
  • the method of analyzing an image according to the invention further comprises a vertical or horizontal color change detection step, for separating respectively the vertical window histogram or the horizontal window histogram. in two sub-histograms each representative of a color of said image containing unit elements to be detected.
  • This additional step makes it possible to split a window histogram at locations where there are disturbances due to color changes in the image.
  • sub-histograms are obtained in which these disturbances are not troublesome when these sub-histograms are analyzed separately. Since the ground floors of buildings often have a facade color different from that of the upper floors, this step is useful for separating a facade image to be analyzed into two sub-images to be analyzed separately, one containing the floor of the building. -chaussée and the other the upper floors.
  • the histograms of vertical or horizontal contours are obtained after respectively horizontal or vertical filtering of said contour image.
  • This additional filtering step makes it possible to make the histograms of vertical or horizontal contours more characteristic of the unitary elements to be detected, when these unitary elements are composed of vertical or horizontal lines, for example windows.
  • the vertical color change detection step comprises the steps of: - Hough transformation of an image of the luminances of said image containing unit elements to be detected,
  • the ground floor histogram obtained by these substeps has a peak corresponding to the location of the color change in the image, which makes it possible to detect this change.
  • the use of such a histogram is more robust than a classical study of the color variations on the image, because the use of colorimetric information and information on the presence or absence of horizontal lines on the image is associated. the image.
  • the step of calculating said ground floor histogram uses the following formula:
  • H RDC (y) 3 • H FY (y) + 2 • H y ⁇ (y) + H m (y) - H m (y)
  • - H RDC (y) is the value of said ground floor histogram in a variable y of line of said image
  • - H fY (y) is the value of said vertical background histogram in said variable y
  • H 1 ⁇ (y) is the value of said histogram representative of said vertically filtered contour image, in a vertical direction, in said variable y
  • H m ⁇ y) is the value of said vertical Hough histogram in said variable y
  • H m ⁇ y is the value of said histogram of vertical contours in said variable y.
  • both a horizontal window histogram and a vertical window histogram are computed, and the analysis method according to the invention comprises the additional steps of:
  • the cell segmentation step uses a frequency filtering of at least one of said horizontal and vertical window histograms.
  • This frequency filtering facilitates the division into cells because it smooths the histograms, which allows to use segmentation thresholds without requiring complex analysis.
  • the invention also relates to a method of modeling an image containing unitary elements to be detected, comprising the steps of: inverse perspective transformation of said image,
  • the unitary elements to be detected are facade elements such as doors, balconies or windows.
  • the façade image is decomposed, in this modeling, into facade elements superimposed on a background texture image that characterizes its coating.
  • This modeling process provides procedural facade models, which are used to reconstruct a facade texture image visually close to the actual facade. Thanks to the invention this obtaining of models is automatic, effective, and requires only one photograph per building facade. Only the most characteristic facade elements of the façades to be modeled are retained in the catalog of facade elements and background textures. The visualization on a remote browser of models in two or three dimensions of buildings faithful to reality, with textured facades of high resolution, is possible.
  • the invention also relates to a device implementing the method of analyzing an image according to the invention, or the method of modeling an image according to the invention.
  • the invention also relates to a system for modeling an image containing unitary elements to be detected, comprising:
  • image analysis means implementing the method for analyzing an image according to the invention
  • the invention also relates to a signal representative of visibility data, carrying an image model obtained by analyzing an image. containing unitary elements aligned in two horizontal and vertical directions, said analysis having resulted in an image of contours and histograms of horizontal and vertical contours, representative of said contour image in a respectively horizontal and vertical direction said signal being characterized in that a background image having been calculated from said image, and so-called vertical and horizontal background histograms representative of said background image in a respectively vertical and horizontal direction; having been calculated, said analysis uses a merge of said vertical background histogram with said histogram of vertical contours and said horizontal background histogram with said histogram of horizontal contours.
  • the invention finally relates to a computer program comprising instructions for implementing one of the methods according to the invention, when it is executed on a computer.
  • the device, the modeling system, the signal and the computer program have advantages similar to those of the methods.
  • FIG. 1 represents various steps of the facade image modeling method according to the invention, as described in this embodiment,
  • FIG. 2 represents treatments operated on a "perspective" façade image, that is to say taken from the street in a manner that is not orthogonal to the plane of the image;
  • FIG. 3 represents different steps of the image analysis method according to the invention.
  • FIG. 4 represents the obtaining of contour histograms from an outline image
  • FIG. 5 represents steps of a step of the image analysis method according to the invention
  • FIG. 6 shows the frequency filtering of a window histogram obtained by the image analysis method according to the invention
  • FIG. 7 represents an analysis of the periodicity of a horizontal window histogram obtained by the method
  • FIG. 8 represents an embodiment of the facade image modeling system according to the invention.
  • the image analysis method according to the invention is used to analyze facade images, and is integrated in the facade image modeling method according to the invention.
  • this embodiment is easily adaptable to the analysis of structured images other than facade images, the principles of the invention remaining unchanged.
  • the facade image modeling method is represented in FIG. 1 in the form of a flowchart comprising seven steps E1 to E7, the steps E2 to E5 being part of the image analysis method according to the invention.
  • the first step E1 of the modeling method is the inverse perspective transformation of an IP facade image to be analyzed, represented in FIG. 2.
  • This step is necessary because the IP facade image is conventionally acquired by a system of photography photographic from the street.
  • the facade represented on the IP image is then deformed according to perspective transformations, and contains elements foreign to the facade, such as sidewalk ends. It is therefore necessary to crop the IP image on the edges of the facade and straighten it, in order to obtain a spelling image IO facade.
  • the initially colored IO image is transformed into a grayscale image.
  • this IO image must be of good resolution but not too large in order to limit the computation times necessary for the analysis of the image. In this embodiment, it is for example of resolution 700 * 500 pixels.
  • This step E1 is supervised and requires the manual selection of the four corners of the facade.
  • the position of the four points within the image and the assumption that the facade is flat, allow to calculate the perspective transformation parameters undergone by the facade and to apply the inverse transformation to recover the IO rectified image.
  • this step is performed automatically, since the exact position of the shooting corresponding to the IP image is known, the parameters of the camera and the dimensions of the facade represented on the camera. IP image.
  • the second step E2 is the creation of histograms called "window", from the image IO obtained in step E1. These histograms are characteristic of the positions of windows or other elements aligned with the IO facade image. Their analysis, described later in step E4, thus makes it possible to segment the IO image into cells each containing only one facade element.
  • This step E2 of the modeling method according to the invention is broken down into steps a1 to a6 shown in FIG.
  • the first step ai is an edge detection on the facade image IO, making it possible to obtain an image IC of outlines, represented in FIG. 4. Examples of methods making it possible to extract the outlines of an image are given in FIG. the following articles:
  • the second step a2 is a directional filtering of this IC contour image: the vertically filtered image IC gives a vertically filtered contour image IFV, represented in FIG. 4, freed from vertical lines,
  • the third step a3 is the calculation of contour histograms from the IFV and IFH filtered contour images.
  • the pixel values of these images are summed line by line to give histograms in a vertical direction, and column by column to give histograms in a horizontal direction. We thus obtain four histograms:
  • HVX horizontal contours obtained by column-by-column summation of the pixels of the IFV filtered image, which characterizes the facade by having high values in the zones of the image containing facade elements, and troughs in the inter-element zones,
  • an HHX contour histogram obtained by column-by-column summation of the pixels of the IFH filtered image, which has peaks in the vertical edge zones of the facade elements, or in the zones of vertical lines on the facade,
  • a histogram of vertical contours HHY obtained by row-by-line summation of the pixels of the horizontally filtered image IFH, which characterizes the facade by having strong values in the zones of the image containing facade elements, and troughs in the inter-element zones,
  • the fourth step a4 is the calculation of an image belonging to the background IAF, represented in FIG. 2. Each pixel of this image represents the distance, coded in gray levels, between the average background color of the image of the image. IO facade, and the corresponding pixel of the IO facade image.
  • This distance is defined as a difference in gray level values.
  • the "Largest Empty Rectange” algorithm is applied to the initial IO facade image in color, transposed into the L * a * b * coding system created by the International Commission on Illumination (CIE). ).
  • CIE International Commission on Illumination
  • the distances calculated between the average background color of the facade image I0, and the corresponding pixel of the facade image I0 are distances expressed in the coding system L * a * b * , because this coding system color makes it possible to code a distance between colors coherent with the distances perceived by the human eye.
  • the fifth step a5 is the calculation of so-called "background" histograms representative of the image of belonging to the IAF background in the vertical and horizontal directions:
  • the vertical background histogram HFY represented in FIG. 2, is obtained by row-by-row summation of the values of the pixels of the image belonging to the background IAF,
  • the horizontal background histogram HFX is obtained by summation column by column of the values of the pixels of the image belonging to the background IAF.
  • the sixth step a6 is the fusion of histograms of vertical and horizontal contours previously calculated, with the vertical and horizontal background histograms respectively. These four histograms are relatively correlated, which makes it possible to merge them to sum up the information and increase the robustness of the analysis of the IO facade image.
  • the great diversity of façade images requires the provision of a robust cell segmentation method to ensure a high rate of correct results.
  • We then obtain two so-called "window" histograms, one vertical and the other horizontal, defined by the formulas: H Window (y) H FY (y) - H m ⁇ y)
  • H Window (x) H FX (x) - H rx (x) WHERE
  • y is a variable designating a pixel line of the IO facade image
  • x is a variable designating a column of pixels of the IO facade image
  • H HX ( ⁇ ) is the value of the horizontal histogram HFX in the column of pixels x,
  • H HY (y) is the value of the histogram of vertical contours HHY in the line of pixels y
  • H vx (x) is the horizontal contour histogram value HVX in the pixel column x. It should be noted that in this embodiment the values of the histograms are multiplied with one another, but other modes of fusion can be used, for example using weighted sums.
  • window histograms will then be used in step E4 of segmenting the IO facade image into cells, because they contain peaks on the zones representing facade elements and valleys in the inter-element zones.
  • the third step E3 of the modeling method according to the invention is the detection of a color change on the facade image IO.
  • the window histograms obtained in step E2 are disturbed at the levels of color changes on the facade.
  • only a color change is detected in a vertical direction, because the buildings very often have ground floors coated with a different color from that of the upper floors.
  • This step E3 is broken down into four steps b1 to b4 shown in FIG.
  • Step b1 is a Hough transformation of an image of the luminances IL obtained from the initial IO facade image in color, and shown in FIG. 2.
  • the image of the luminances IL is calculated by changing the space color of the IO image.
  • the pixels of the IO image are initially represented in the Red / Green / Blue RGB color coding system according to the English "Red Green Blue”, by triplets representing the values of these three components.
  • These colors encoded in the RGB system are converted into coded colors in the CIE coding system L * a * b * .
  • the components a * and b * represent the chrominance plane while the L * axis represents the luminance variations.
  • the image of the luminances IL is obtained by keeping only the L * component of the colors L * a * b * thus calculated from the initial color IO image.
  • the CIE L * a * b * color space is used in the invention to calculate distances between colors and in particular during the "Largest Empty Rectange" algorithms during the detection of the background color and when constructing Background histograms.
  • the Hough transform of the IL luminance image is performed according to a known method described in Hough PVC US3069654 entitled “Method and Means for Recognizing Complex Patterns". This transform makes it possible to detect the presence of lines within a two-dimensional signal. The resulting ITH image of this transform contains much more marked lines than those present on the IC contour image.
  • Step b2 is the calculation of a HTH histogram called "Hough", in a vertical direction of the resulting image ITH.
  • This histogram is obtained by summing the pixel values of the ITH image line by line. It has very sharp peaks at horizontal lines on the ITH image and smaller peaks at the horizontal edges of elements facade. It should be noted that the Hough HTH histogram calculation does not require the complete construction of the Hough image, but only the portion of the Hough image corresponding to the vertical and horizontal lines.
  • Step b3 is the calculation of a so-called "ground floor” histogram, obtained by linear combination of the HHY vertical contour histogram, the HFY vertical background histogram, the Hough vertical HTH histogram, and the contour histogram HVY, according to the formula:
  • H ⁇ . (.y) 3 • H FY (y) + 2 - H v ⁇ (y) + H m (y) - H HY (y)
  • y is a variable designating a pixel line of the IO facade image
  • - H RDC (y) is the value of the ground floor histogram in the variable y
  • - H FY (y) is the value of the vertical background histogram HFY in the variable y
  • H v ⁇ (y) is the value of the contour histogram HVY in the variable y.
  • H HY (y) is the value of the histogram of vertical contours HHY in the variable y.
  • Step b4 is the detection of the peak marking the boundary between the ground floor and the floors of the facade of the image IO, on the histogram of ground floor previously calculated. We are looking for a maximum in the lower half of the histogram. Indeed, not being able to make hypothesis on the number of stages in the facade, one supposes simply that there are at least two levels in the building.
  • i is a pixel line variable of the IO facade image corresponding to a peak on the lower half of the ground floor histogram
  • j is an index traversing the N values of the vertical window histogram from top to bottom with respect to the facade image 10
  • N is the size of the vertical window histogram
  • H fenet ⁇ e (j) is the value of the vertical window histogram in the variable j.
  • the fourth step E4 of the modeling method according to the invention is the cell segmentation of the IO facade image.
  • the window histograms obtained in step E2 are analyzed.
  • the vertical window histogram is separated into two sub-histograms corresponding to two sub-images of the IO facade image, one containing the ground floor of the building whose facade is being analyzed, and the other containing the upper floors.
  • This separation uses the previous E3 detection step, which provides the separation line of the vertical window histogram. It eliminates disturbances on the vertical window histogram due to the color change on the IO facade image.
  • window histograms have "valleys" in the inter-element areas.
  • the analysis of the minima of the vertical window sub-histogram representative of the stages thus makes it possible to determine the boundaries between stages.
  • the analysis of the minima of the horizontal window histogram makes it possible to determine the boundaries between facade elements.
  • the high frequencies of these histograms are filtered on a wavelet basis. More precisely, the signals of the window histograms are broken down into frequencies on a Daubechies wavelet basis, and are filtered by suppressing the high frequencies. This makes it possible to smooth the histograms, as shown, for example, in the diagram of FIG.
  • the unfiltered signal SO of this sub-histogram has many peaks due to irregularities of the facade elements, while the corresponding SF1 filtered signal has only a few minima and maxima remaining to be analyzed.
  • the horizontal window histogram Since the horizontal window histogram is generally more sensitive to noise and image disturbances than the vertical window histogram, the horizontal window histogram undergoes in this step E4, in addition to this frequency filtering, a delaying process. periodic. This process analyzes the periodicity of the horizontal window histogram by a covariance study and, if applicable, applies a set of Gaussians centered on the minimums of the curves satisfying the criterion of periodicity.
  • the values of the filtered signal SF1 are distributed in four intervals according to their positions with respect to three thresholds S1, S2 and S3. These thresholds make it possible to classify the minima of the signals to keep only the global minima: one keeps only minima lower than the lowest threshold and one merges two minima if they are not separated of a maximum higher than the median threshold. This makes it possible to merge two minima that are in the same inter-element zone.
  • the global minima obtained by analysis of the SF1 filtered signal delimit the stages between them and make it possible to segment the facade image floor by floor.
  • the global minima obtained by analyzing the resulting signal SR delimit the facade elements between them and make it possible to segment the floors into cells, each comprising only one facade element.
  • step E4 computes a window histogram per floor, after step segmentation of the vertically filtered contour image, and step segmentation. of the image belonging to the background, from the global minima obtained by analysis of the filtered signal SF1. This makes it possible to refine the results, by inter-stage comparison of the limits of cells found by analysis of the different horizontal window histograms. This makes it possible to align the cells, which increases the visual quality of the segmentation, and to compare the segmentation of each stage to add or remove some cells according to the neighboring stages.
  • the fifth step E5 of the modeling method according to the invention is the detection of the facade elements in the cells obtained in the previous step.
  • This step consists in precisely extracting the facade elements from the bottom of the facade. Indeed a cell is comparable to a facade element surrounded by background areas.
  • a rectangular region growth process is used.
  • the principle of this process is to enlarge a region having certain shape properties, here a rectangular shape, depending on a distance map calculated from the image.
  • An example of an algorithm for growing rectangular regions to detect facade elements is described in the article by K. Schindler and J. Bauer cited above.
  • the distance map is created in this step E5 by adding the values of the pixels of the membership image to the background IAF and the values of the pixels of the contour image IC.
  • FIG. 4 represents for practical reasons an inverted IC contour image, the contour image IC being actually composed of white outlines on a black background.
  • This distance map is then filtered by a Gaussian calculated according to the distribution of this map, that is to say according to the average and the variance of the map, to attenuate the noise and to minimize the values close to zero, that is to say the values of the pixels of the background areas, or the values close to one, that is to say the values of the pixels on facade elements.
  • the sixth step E6 of the modeling method according to the invention is the classification of the facade elements and background textures of the facade image IO, from a catalog of facade elements and background textures.
  • This catalog is for example contained in a database BD2, represented in FIG. 8, the modeling method according to the invention being implemented in a software manner in a servicing data server SERV, connected to a database BD1 of FIG. facade images of a city.
  • the modeling method according to the invention is implemented on several machines operating in parallel.
  • the facade element catalog is updated as the SERV server parses the front images of the database
  • BD1 contains images to reconstruct synthetic façade images as closely as possible to actual façade images. These images are of two types:
  • the background texture images characterizing the stages of the facade image are created using the distance map created in step E5 and from which the unitary elements of facades were extracted. This map is searched to find the largest rectangular area for which the sum of the pixels component is minimum. A small uniform rectangular region corresponding to this area is then extracted into the initial color IO facade image, which is repeated to recreate a background image of the same size as the stages of the IO facade image. Another background texture image is similarly created to characterize the ground floor.
  • the catalog keeps only the images of facade elements and the most characteristic background texture images of the images analyzed in according to the invention.
  • the constitution of the catalog is carried out at the same time as the analysis of the images of facades, in order to optimize the construction of the procedural facade models.
  • the images corresponding to the elements of façades extracted during step E5 are analyzed by color, texture and shape descriptors.
  • background texture images extracted from the facade images of the database BD1 are analyzed by descriptors of colors and textures.
  • several background texture images per facade image are possibly described.
  • the description of each element makes it possible to represent them in a large description space and to measure in this space the similarity between elements.
  • the two types of images stored in the catalog require two description spaces, one for background texture images and the other for images corresponding to facade elements.
  • the descriptors used to describe the background texture images and the descriptors used to describe the images corresponding to the extracted facade elements are partly identical, in particular for the description of the colors and textures, the latter images are analyzed. separately. They are also described by shape descriptors using a region approach, for example using the transformation Angular Radial Transform (ART).
  • the color descriptors are created by calculating color histograms of the images to be described. This approach is proposed by MJ Swain and DH Ballard in their article “Color indexing” published in 1991 in the magazine “International Journal of Computer Vision”. It consists of representing the pixels of the images in the form of histograms of the values of their colors. In this embodiment of the invention, three histograms are created, one per color component of the pixels described in the CIE color space L * a * b * . These histograms are quantized to reduce the description space and the value of each quantization is stored as a descriptor.
  • Texture descriptors use an image texture analysis. This analysis is based on the work of Yong Man Ro, Kim Munchurl, Kyung Kang Ho, BS Manjunath, and Jinwoong Kim, described in the article "MPEG-7 Homogeneous Texture Descriptor” published in 2001 in “Electronics and Telecommunications Research” magazine. Institute (ETRI) journal ". Once all the background elements and textures of the facade images of the database BD1 indexed using these descriptors in the catalog of the database BD2, the two description spaces are segmented into classes of similar elements. by the algorithm of dynamic clouds. This algorithm is an automatic classification method that aims to partition space into a certain number of classes. It is described in particular in the following articles:
  • each image of background texture or facade element is associated with its class. This association is maintained for each facade image in the database BD1, which also stores the position of the elements or textures on the corresponding facades. Then we delete from the catalog all the images that are not defined by the dynamic clouds algorithm as a center of a class. This makes it possible to keep only a few facade elements, while ensuring that each element will have a visually close class representative who will replace it in the computer-generated images.
  • the facade image IO is associated in this embodiment with two background texture images, one for the ground floor and the other for the upper floors. Each of these texture images are classified, at the end of step E6, in a very similar class of background texture images represented by the image of the center of this class. Similarly, façade elements extracted in step E5 are classified into classes each represented by a very similar façade element. Depending on the desired realism or the type of facade analyzed, for example if several color changes of the facade are detected in step E3, the facade image IO is associated with more images of background textures: for example one associates with each floor of the IO facade image a background texture image.
  • the seventh step E7 of the modeling method according to the invention is the modeling of the facade image IO.
  • This modeling is for example the procedural modeling proposed in the MPEG4 standard, in the "Animation Framework extension" part. It is carried out by filling modeling parameters defining in particular:
  • the server SERV of visualization data of a city is connected to client terminals by a communication network RES, represented in FIG. 8.
  • a communication network RES represented in FIG. 8.
  • the terminal T asks the server SERV, by a query REQ visualization data transmission to display corresponding to the location where the user is virtually in the city.
  • the SERV server then sends the terminal T a REP response containing data facades to display.
  • These data include the procedural models of the facades to be viewed, and all or part of the catalog of facade elements and background textures.
  • the information signal conveying the data of the REP request is therefore much more compact than if it were necessary to transmit the real images of the facades, and allows a reconstruction of good resolution and similar to the original facades.

Abstract

The invention relates to a method for analysing an image containing unit elements aligned along horizontal and vertical directions, that comprises the steps of: detecting (ai) outlines and obtaining an outline image; calculating (a3) a histogram along a vertical or horizontal direction, representing said outline image, and respectively called vertical outline histogram or horizontal outline histogram; wherein said method is characterised in that it comprises the following additional steps: calculating (a4) a background belonging image from said image containing the unit elements to be detected; calculating (a5) a histogram along a vertical or horizontal direction, representing said background belonging image, and respectively called vertical background histogram or horizontal background histogram; merging (a6) vertical or horizontal background histogram with said vertical outline histogram or said horizontal outline histogram.

Description

Procédés d'analyse et de modélisation d'une image contenant des éléments unitaires à détecter, système et dispositif correspondants Methods of analyzing and modeling an image containing unit elements to be detected, corresponding system and device
La présente invention concerne de manière générale les domaines de l'analyse et du rendu d'image, et plus précisément celui de la visualisation de scènes urbaines en deux ou trois dimensions, constituées d'un nombre important de bâtiments. Une des applications de l'invention est en effet l'analyse d'images réelles de façades de bâtiments afin de les modéliser puis de permettre une reconstruction approximative mais rapide de ces images lors d'une navigation dans un environnement virtuel.The present invention generally relates to the fields of image analysis and rendering, and more specifically to the visualization of urban scenes in two or three dimensions, made up of a large number of buildings. One of the applications of the invention is in fact the analysis of real images of building facades in order to model them and then allow an approximate but rapid reconstruction of these images during a navigation in a virtual environment.
Actuellement les systèmes d'informations géographiques existants parviennent à modéliser des bâtiments sur une grande zone et proposent des interfaces de navigation fluides permettant d'appréhender facilement un environnement urbain en deux ou trois dimensions. Afin de rendre l'environnement urbain réaliste, par exemple pour visiter virtuellement Paris sur un terminal, il faut que les textures affichées sur chaque bâtiment soient ressemblantes aux façades réelles et de résolutions correctes. Or les données de tels environnements sont généralement stockées sur un serveur distant, il n'est donc pas possible d'envoyer les images réelles des façades de chaque bâtiment au terminal au fur et à mesure de la visite, car la quantité d'informations à transmettre serait trop importante. Pour palier à ce problème, les systèmes actuels proposent d'afficher des images de texture génériques en les répétant plusieurs fois au sein de l'environnement urbain virtuel. Ceci permet l'envoi d'une faible quantité d'informations, mais entraîne une forte diminution de la qualité globale de navigation, car les textures affichées ne sont pas visuellement proches des bâtiments réels.Currently, existing geographic information systems are able to model buildings over a large area and offer fluid navigation interfaces that make it easy to understand an urban environment in two or three dimensions. In order to make the urban environment realistic, for example to virtually visit Paris on a terminal, it is necessary that the textures displayed on each building are similar to real facades and correct resolutions. However, the data of such environments are generally stored on a remote server, so it is not possible to send the actual images of the facades of each building to the terminal as and when the visit, because the amount of information to to transmit would be too important. To overcome this problem, current systems propose to display generic texture images by repeating them several times within the virtual urban environment. This allows a small amount of information to be sent, but results in a significant decrease in overall navigation quality because the textures displayed are not visually close to the actual buildings.
Afin de reconstruire de façon plus granulaire des façades de bâtiments, des langages de modélisation permettant de définir des éléments de façade, tels que des fenêtres ou des balcons, indépendamment d'une texture de fond, ont été proposées dans différents travaux. Ainsi l'article "Modelling urban scènes for LBMS" de A. F. Coelho, A. A. de Sousa et F. N. Ferreira, publié en 2005 à l'occasion de la dixième conférence internationale "3D Web Technology", propose une grammaire XML, d'après l'anglais "extensible Markup Language", qui permet de décrire complètement de grands environnements urbains en trois dimensions, et à partir de ces descriptions de reconstruire des bâtiments. Les villes sont ainsi modélisées avec de nombreux détails.In order to reconstruct more granular building facades, modeling languages to define facade elements, such as windows or balconies, regardless of a background texture, have been proposed in different works. The article "Modeling urban scenes for LBMS" by AF Coelho, AA de Sousa and FN Ferreira, published in 2005 on the occasion of the tenth international conference "3D Web Technology", proposes an XML grammar, according to the English "Extensible Markup Language", which allows to fully describe large urban environments in three dimensions, and from these descriptions to reconstruct buildings. The cities are thus modeled with many details.
De façon similaire, pour assurer à la fois une navigation dans un environnement urbain réaliste, une bonne résolution et une quantité de données à transférer acceptable, il a été proposé au sein de la norme "Motion Picture Expert Group 4" (MPEG4), dans sa partie " Animation Framework extension ", de caractériser la façade d'un bâtiment, non par une image de texture unique, mais par des "modèles procéduraux de façades". Ceux-ci contiennent des informations de reconstruction d'une façade, à partir d'un certain nombre de modèles d'éléments de façades, tels que des fenêtres, des portes, des balcons, et des textures de fond, qui sont stockés dans un catalogue. Ces modèles permettent de recréer des images de façades visuellement proches des façades d'origine, de dimensions quelconques, en transmettant une faible quantité d'informations au terminal.Similarly, to ensure both navigation in a realistic urban environment, a good resolution and an acceptable amount of data to transfer, it has been proposed in the standard "Motion Picture Expert Group 4" (MPEG4), in its part "Animation Framework extension", to characterize the facade of a building, not by a single texture image, but by "procedural models of facades". These contain facade reconstruction information, from a number of facade element models, such as windows, doors, balconies, and background textures, which are stored in a window. catalog. These models make it possible to recreate images of façades visually close to the original facades, of any size, by transmitting a small amount of information to the terminal.
Ces techniques de visualisation de scènes sont cependant limitées car elles requièrent l'intervention d'un opérateur pour modéliser manuellement les bâtiments et les façades, ce qui est très coûteux lorsque l'environnement à modéliser est de dimension urbaine notamment. De ce fait, l'analyse d'images de façades afin de remplir automatiquement des modèles procéduraux de façades est devenue un enjeu important dans le domaine de l'analyse d'images.These visualization techniques of scenes are however limited because they require the intervention of an operator to manually model the buildings and the facades, which is very expensive when the environment to be modeled is of urban dimension in particular. As a result, the analysis of facade images to automatically fill procedural models of facades has become an important issue in the field of image analysis.
Néanmoins peu de méthodes permettent d'analyser automatiquement de telles images. Etant donné la diversité des architectures de façades, des types de revêtements extérieurs et des types d'éléments de façades, une des principales difficultés à surmonter est notamment d'isoler les éléments de façade dans une image de façade.However, there are few methods to automatically analyze such images. Given the diversity of façade architectures, types of exterior cladding and types of façade elements, one of main difficulties to be overcome is to isolate the facade elements in a facade image.
K.Schindler et J.Bauer, dans leur article "A model-based method for building reconstruction", publié en 2003 à l'occasion d'un atelier "Higher-Level Knowledge in 3D Modelling and Motion" d'une conférence "International Conférence on Computer Vision (ICCV)", présentent une méthode d'analyse de façades, dans laquelle les fenêtres d'une façade à analyser sont détectées par un algorithme de balayage basé sur la densité de points non incidents au plan de la façade. Cette méthode détecte donc les fenêtres comme étant des objets derrière le plan de la façade, mais nécessite plusieurs images de départ de la façade, et leur combinaison suivant les paramètres des prises d'images, ce qui est complexe et peu pratique à mettre en œuvre.K.Schindler and J.Bauer, in their article "A Model-based Method for Building Reconstruction", published in 2003 at a "Higher-Level Knowledge in 3D Modeling and Motion" workshop at an international conference Conference on Computer Vision (ICCV) ", presents a method of facade analysis, in which the windows of a facade to be analyzed are detected by a scanning algorithm based on the density of points not incident to the plane of the facade. This method thus detects the windows as being objects behind the plane of the facade, but requires several starting images of the facade, and their combination according to the parameters of the taking of images, which is complex and impractical to implement .
De même l'article de H. Mayer et S. Reznik, intitulé "Building Façade Interprétation from Image Séquences", et publié dans les archives de la société internationale "International Society for Photogrammetry and Remote Sensing (ISPRS)", utilise une méthode basée sur celle de K.Schindler et J.Bauer pour isoler les fenêtres d'une façade avant de les positionner et de les détecter plus finement sur le plan de la façade. Cette méthode présente donc les mêmes inconvénients que la méthode précédente, en termes de complexité et de mise en œuvre.Similarly, the article by H. Mayer and S. Reznik, entitled "Building Facade Interpretation from Image Sequences", and published in the archives of the international society "International Society for Photogrammetry and Remote Sensing (ISPRS)", uses a method based on on that of K.Schindler and J.Bauer to insulate the windows of a facade before positioning them and detecting them more finely on the plane of the facade. This method therefore has the same disadvantages as the previous method, in terms of complexity and implementation.
Une méthode différente d'analyse d'images de façade est développée dans l'article "Extraction and Intégration of Window in a 3D Building Model from Ground View Image", de S. C. Lee et R. Nevatia, publié à l'occasion de la conférence ICCV de 2004. Cette méthode permet d'isoler les éléments de façade d'une façade à partir d'une seule image photographique prise depuis la rue. Cette méthode analyse des histogrammes de contours verticaux et horizontaux de l'image de façade, pour découper l'image en cellules contenant chacune un élément de façade. Cependant l'analyse de ces histogrammes ne permet pas de découper sans erreur et précisément les images de façade en cellules. En effet, certaines irrégularités des façades, comme des bords décoratifs ou des lignes décoratives, donnent des histogrammes très ciselés et très difficiles à analyser. Les histogrammes utilisés sont donc peu robustes aux variations existantes au sein des images de façades.A different method of facade image analysis is developed in the article "Extraction and Integration of Window in a 3D Building Model from Ground View Image" by SC Lee and R. Nevatia, published at the conference ICCV 2004. This method allows to isolate facade elements of a facade from a single photographic image taken from the street. This method analyzes histograms of vertical and horizontal contours of the facade image, to cut the image into cells each containing a facade element. However the analysis of these histograms does not allow to cut without error and precisely the facade images in cells. Indeed, some irregularities of the facades, such as decorative edges or decorative lines, give very sharp histograms and very difficult to analyze. The histograms used are therefore not very robust to the variations existing in the images of facades.
Il est à noter que ces techniques d'analyse d'image sont appliquées à des images de façade, mais elles pourraient être appliquées de manière plus générale à la détection d'éléments unitaires dans des images structurées, c'est-à-dire des images comportant deux directions suivant lesquelles sont rangées des éléments se distinguant d'un fond ou arrière-plan. En effet ces techniques exploitent le fait que dans une image de façade, les éléments de façade sont alignés verticalement et horizontalement par rapport aux axes de la façade sur une image de fond.It should be noted that these image analysis techniques are applied to facade images, but they could be applied more generally to the detection of unit elements in structured images, i.e. images having two directions in which are arranged elements distinguished from a background or background. Indeed, these techniques exploit the fact that in a facade image, the facade elements are aligned vertically and horizontally with respect to the axes of the facade on a background image.
De même, si une des applications de l'invention est l'analyse d'images de façades de bâtiments, pour en extraire les éléments tels que fenêtres, portes et balcons afin de construire les modèles procéduraux de façades associés, l'invention est également applicable à toute image contenant des éléments alignés suivant deux axes.Similarly, if one of the applications of the invention is the analysis of images of building facades, to extract elements such as windows, doors and balconies to build the procedural models of associated facades, the invention is also applicable to any image containing elements aligned along two axes.
La présente invention a pour but de résoudre les inconvénients de la technique antérieure en fournissant un procédé et un dispositif d'analyse d'une telle image, ainsi qu'un procédé et un système de modélisation d'image de façade. A cette fin, l'invention propose un procédé d'analyse d'une image contenant des éléments unitaires à détecter, alignés suivant deux directions horizontale et verticale, comportant les étapes de:It is an object of the present invention to overcome the disadvantages of the prior art by providing a method and apparatus for analyzing such an image, as well as a facade image modeling method and system. To this end, the invention proposes a method of analyzing an image containing unitary elements to be detected, aligned in two horizontal and vertical directions, comprising the steps of:
- Détection de contours et obtention d'une image de contours,- Detection of contours and obtaining an outline image,
- Calcul d'un histogramme selon une direction verticale ou horizontale, représentatif de ladite image de contours, appelé respectivement histogramme de contours verticaux ou histogramme de contours horizontaux, ledit procédé étant caractérisé en ce qu'il comporte les étapes supplémentaires de: - Calcul d'une image d'appartenance au fond correspondant aux distances entre les couleurs des pixels de ladite image contenant des éléments unitaires à détecter et une couleur moyenne de fond correspondant à une couleur uniformément répartie dans une zone de ladite image contenant des éléments unitaires à détecter, - Calcul d'un histogramme selon une direction verticale ou horizontale, représentatif de ladite image d'appartenance au fond, appelé respectivement histogramme de fond vertical ou histogramme de fond horizontal,Calculation of a histogram in a vertical or horizontal direction, representative of said contour image, respectively called vertical contour histogram or histogram of horizontal contours, said method being characterized in that it comprises the additional steps of: an image of belonging to the background corresponding to the distances between the colors of the pixels of said image containing unitary elements to be detected and an average background color corresponding to a uniformly distributed color in an area of said image containing unitary elements to be detected, - Calculation of a histogram in a vertical or horizontal direction, representative of said image of belonging to the background, called respectively vertical background histogram or horizontal background histogram,
- Fusion dudit histogramme de fond vertical ou horizontal avec respectivement ledit histogramme de contours verticaux ou ledit histogramme de contours horizontaux, en un histogramme appelé respectivement histogramme de fenêtre vertical ou histogramme de fenêtre horizontal.- Merging said vertical or horizontal background histogram respectively said vertical contour histogram or said histogram of horizontal contours, in a histogram called respectively vertical window histogram or horizontal window histogram.
Grâce à l'invention, on analyse automatiquement une image contenant des éléments alignés suivant deux axes de manière robuste et performante.Thanks to the invention, an image containing elements aligned along two axes is automatically analyzed in a robust and efficient manner.
En effet l'invention fusionne plusieurs types d'histogrammes fortement corrélés, ceux obtenus à partir d'une image de contours, et ceux obtenus à partir d'une image d'appartenance au fond, pour obtenir des histogrammes dits "de fenêtre" qui sont faciles à analyser. Autrement dit l'utilisation conjointe de l'information de couleur de fond de l'image et des informations de contours rend l'analyse d'image plus robuste. Ces histogrammes permettent ensuite de découper l'image contenant des éléments alignés suivant deux axes en cellules qui contiennent chacune un élément à détecter, de manière rapide, précise et efficace par rapport à l'art antérieur. Ce découpage en cellules est une étape préliminaire à la détection plus fine des éléments isolés dans chaque cellule, puis à la modélisation "procédurale" de l'image lorsque celle-ci est une image de façade. De plus pour effectuer l'analyse d'une façade, l'invention nécessite une seule image photographique de celle-ci.Indeed, the invention merges several types of highly correlated histograms, those obtained from a contour image, and those obtained from a background image, to obtain so-called "window" histograms. are easy to analyze. In other words, the joint use of the background color information of the image and the contour information makes the image analysis more robust. These histograms then make it possible to cut the image containing elements aligned along two axes in cells which each contain an element to be detected, in a fast, precise and efficient manner with respect to the prior art. This division into cells is a preliminary step to the finer detection of the isolated elements in each cell, then to the "procedural" modeling of the image when it is a facade image. In addition to performing the analysis of a facade, the invention requires a single photographic image thereof.
Selon une caractéristique préférée, dans l'étape de fusion l'histogramme de fond vertical ou horizontal est multiplié respectivement par l'histogramme de contours verticaux ou horizontaux. La fusion d'un histogramme de contours avec un histogramme de fond est réalisable de plusieurs manières, par exemple par combinaison linéaire ou par multiplication. Les résultats les meilleurs en termes d'efficacité et de robustesse ont été obtenus par la multiplication de ces deux types d'histogrammes.According to a preferred characteristic, in the melting step the vertical or horizontal background histogram is respectively multiplied by the histogram of vertical or horizontal contours. The fusion of a contour histogram with a background histogram is feasible in several ways, for example by linear combination or by multiplication. The best results in terms of efficiency and robustness were obtained by multiplying these two types of histograms.
Selon une caractéristique préférée, le procédé d'analyse d'une image selon l'invention comporte en outre une étape de détection de changement de couleur vertical ou horizontal, permettant de séparer respectivement l'histogramme de fenêtre vertical ou l'histogramme de fenêtre horizontal en deux sous-histogrammes chacun représentatif d'une couleur de ladite image contenant des éléments unitaires à détecter.According to a preferred feature, the method of analyzing an image according to the invention further comprises a vertical or horizontal color change detection step, for separating respectively the vertical window histogram or the horizontal window histogram. in two sub-histograms each representative of a color of said image containing unit elements to be detected.
Cette étape supplémentaire effectuée avant l'analyse des histogrammes de fenêtre pour le découpage en cellules, permet de scinder un histogramme de fenêtre aux endroits où se trouvent des perturbations dues à des changements de couleur de l'image. On obtient ainsi des sous- histogrammes dans lesquels ces perturbations ne sont pas gênantes lorsqu'on analyse ces sous-histogrammes séparément. Les rez-de-chaussée des bâtiments ayant souvent une couleur de façade différente de celle des étages supérieurs, cette étape est intéressante pour séparer une image de façade à analyser en deux sous-images à analyser séparément, l'une contenant le rez- de-chaussée et l'autre les étages supérieurs.This additional step, performed prior to analyzing the window histograms for cell clipping, makes it possible to split a window histogram at locations where there are disturbances due to color changes in the image. Thus, sub-histograms are obtained in which these disturbances are not troublesome when these sub-histograms are analyzed separately. Since the ground floors of buildings often have a facade color different from that of the upper floors, this step is useful for separating a facade image to be analyzed into two sub-images to be analyzed separately, one containing the floor of the building. -chaussée and the other the upper floors.
Selon une caractéristique préférée, les histogrammes de contours verticaux ou horizontaux sont obtenus après un filtrage respectivement horizontal ou vertical de ladite image de contours. Cette étape supplémentaire de filtrage permet de rendre les histogrammes de contours verticaux ou horizontaux plus caractéristiques des éléments unitaires à détecter, lorsque ces éléments unitaires sont composés de lignes verticales ou horizontales, comme par exemple des fenêtres.According to a preferred characteristic, the histograms of vertical or horizontal contours are obtained after respectively horizontal or vertical filtering of said contour image. This additional filtering step makes it possible to make the histograms of vertical or horizontal contours more characteristic of the unitary elements to be detected, when these unitary elements are composed of vertical or horizontal lines, for example windows.
Selon une caractéristique préférée, l'étape de détection de changement de couleur vertical comporte les étapes de: - Transformation de Hough d'une image des luminances de ladite image contenant des éléments unitaires à détecter,According to a preferred characteristic, the vertical color change detection step comprises the steps of: - Hough transformation of an image of the luminances of said image containing unit elements to be detected,
- Calcul d'un histogramme selon une direction verticale, représentatif de l'image résultante de ladite transformation, appelé histogramme de Hough vertical,Calculating a histogram in a vertical direction, representative of the resulting image of said transformation, called vertical Hough histogram,
- Calcul d'un histogramme appelé histogramme de rez-de- chaussée par combinaison linéaire dudit histogramme de fond vertical, dudit histogramme de Hough vertical, dudit histogramme de contours verticaux, et d'un histogramme selon une direction verticale représentatif de ladite image de contours filtrée verticalement.Calculating a histogram called a ground floor histogram by linear combination of said vertical background histogram, said vertical Hough histogram, said histogram of vertical contours, and a histogram in a vertical direction representative of said contour image filtered vertically.
L'histogramme de rez-de-chaussée obtenu par ces sous-étapes comporte un pic correspondant à l'endroit du changement de couleur dans l'image, ce qui permet de détecter ce changement. L'utilisation d'un tel histogramme est plus robuste qu'une étude classique des variations de couleurs sur l'image, car on associe l'utilisation d'informations colorimétriques et d'informations sur la présence ou l'absence de lignes horizontales sur l'image.The ground floor histogram obtained by these substeps has a peak corresponding to the location of the color change in the image, which makes it possible to detect this change. The use of such a histogram is more robust than a classical study of the color variations on the image, because the use of colorimetric information and information on the presence or absence of horizontal lines on the image is associated. the image.
Selon une caractéristique préférée, l'étape de calcul dudit histogramme de rez-de-chaussée utilise la formule suivante:According to a preferred characteristic, the step of calculating said ground floor histogram uses the following formula:
HRDC (y) = 3 • HFY (y) + 2 • Hy γ (y) + Hm (y) - H m (y)H RDC (y) = 3 • H FY (y) + 2 • H y γ (y) + H m (y) - H m (y)
OR
- HRDC (y) est la valeur dudit histogramme de rez-de-chaussée en une variable y de ligne de ladite image, - HfY(y) est la valeur dudit histogramme de fond vertical en ladite variable y,- H RDC (y) is the value of said ground floor histogram in a variable y of line of said image, - H fY (y) is the value of said vertical background histogram in said variable y,
- H1 γ (y) est la valeur dudit histogramme représentatif de ladite image de contours filtrée verticalement, selon une direction verticale, en ladite variable y, - Hm{y) est la valeur dudit histogramme de Hough vertical en ladite variable y,- H 1 γ (y) is the value of said histogram representative of said vertically filtered contour image, in a vertical direction, in said variable y, H m {y) is the value of said vertical Hough histogram in said variable y,
- et Hm {y) est la valeur dudit histogramme de contours verticaux en ladite variable y. Cette combinaison linéaire de différents histogrammes obtenus à partir de l'image permet de maximiser la valeur du pic de l'histogramme de fenêtre correspondant au changement de couleur à détecter, par rapport aux valeurs des autres pics de l'histogramme.and H m {y) is the value of said histogram of vertical contours in said variable y. This linear combination of different histograms obtained from the image makes it possible to maximize the peak value of the window histogram corresponding to the color change to be detected, compared to the values of the other peaks of the histogram.
Selon une autre caractéristique, on calcule à la fois un histogramme de fenêtre horizontal et un histogramme de fenêtre vertical, et le procédé d'analyse selon l'invention comporte les étapes supplémentaires de:According to another characteristic, both a horizontal window histogram and a vertical window histogram are computed, and the analysis method according to the invention comprises the additional steps of:
- segmentation de ladite image contenant des éléments unitaires à détecter en cellules comportant chacune un desdits éléments unitaires de ladite image, par analyse desdits histogrammes de fenêtre horizontal et vertical,segmentation of said image containing unitary elements to be detected into cells each comprising one of said unitary elements of said image, by analysis of said horizontal and vertical window histograms,
- détection desdits éléments unitaires par utilisation d'un processus de croissance de régions rectangulaires utilisant ladite image d'appartenance au fond et ladite image de contours.detecting said unitary elements by using a rectangular region growth process using said background image and said contour image.
L'utilisation conjointe de l'image d'appartenance au fond et de l'image de contours lors de la détection des éléments unitaires améliore l'efficacité de cette détection, préalablement par exemple à une modélisation procédurale de façade.The joint use of the image belonging to the background and the contour image during the detection of the unitary elements improves the effectiveness of this detection, prior to for example a procedural facade modeling.
Selon une caractéristique préférée, l'étape de segmentation en cellules utilise un filtrage fréquentiel d'au moins un desdits histogrammes de fenêtre horizontal et vertical.According to a preferred characteristic, the cell segmentation step uses a frequency filtering of at least one of said horizontal and vertical window histograms.
Ce filtrage fréquentiel facilite le découpage en cellules car il lisse les histogrammes, ce qui permet d'utiliser des seuils de segmentation sans nécessiter d'analyse complexe.This frequency filtering facilitates the division into cells because it smooths the histograms, which allows to use segmentation thresholds without requiring complex analysis.
L'invention concerne aussi un procédé de modélisation d'une image contenant des éléments unitaires à détecter, comportant les étapes de: - transformation perspective inverse de ladite image,The invention also relates to a method of modeling an image containing unitary elements to be detected, comprising the steps of: inverse perspective transformation of said image,
- analyse selon l'invention de ladite image ainsi transformée,analysis according to the invention of said image thus transformed,
- classification des éléments de ladite image, détectés à l'issue de ladite analyse, et des textures de fond de ladite image, à partir d'un catalogue d'éléments unitaires et de textures de fond,classification of the elements of said image, detected at the end of said analysis, and background textures of said image, from a catalog of unitary elements and background textures,
- modélisation de ladite image à partir dudit catalogue.modeling said image from said catalog.
Dans le cas de l'analyse d'une image de façade, les éléments unitaires à détecter sont des éléments de façade tels que des portes, des balcons ou des fenêtres. L'image de façade est décomposée, dans cette modélisation, en éléments de façade superposés à une image de texture de fond qui caractérise son revêtement.In the case of the analysis of a facade image, the unitary elements to be detected are facade elements such as doors, balconies or windows. The façade image is decomposed, in this modeling, into facade elements superimposed on a background texture image that characterizes its coating.
Ce procédé de modélisation permet d'obtenir des modèles procéduraux de façade, qui servent à reconstruire une image texture de façade visuellement proche de la façade réelle. Grâce à l'invention cette obtention de modèles est automatique, efficace, et ne nécessite qu'une photographie par façade de bâtiment. Seuls les éléments de façades les plus caractéristiques des façades à modéliser sont retenus dans le catalogue d'éléments de façade et de textures de fond. La visualisation sur un navigateur distant de modèles en deux ou trois dimensions de bâtiments fidèles à la réalité, avec des façades texturées de haute résolution, est ainsi possible.This modeling process provides procedural facade models, which are used to reconstruct a facade texture image visually close to the actual facade. Thanks to the invention this obtaining of models is automatic, effective, and requires only one photograph per building facade. Only the most characteristic facade elements of the façades to be modeled are retained in the catalog of facade elements and background textures. The visualization on a remote browser of models in two or three dimensions of buildings faithful to reality, with textured facades of high resolution, is possible.
L'invention concerne également un dispositif mettant en oeuvre le procédé d'analyse d'une image selon l'invention, ou le procédé de modélisation d'une image selon l'invention.The invention also relates to a device implementing the method of analyzing an image according to the invention, or the method of modeling an image according to the invention.
L'invention concerne encore un système de modélisation d'une image contenant des éléments unitaires à détecter, comportant:The invention also relates to a system for modeling an image containing unitary elements to be detected, comprising:
- des moyens d'analyse d'image mettant en œuvre le procédé d'analyse d'une image selon l'invention,image analysis means implementing the method for analyzing an image according to the invention,
- et des moyens de classification d'éléments unitaires et de textures de fond. L'invention concerne également un signal représentatif de données de visibilité, transportant un modèle d'image obtenu par analyse d'une image contenant des éléments unitaires alignés suivant deux directions horizontale et verticale, ladite analyse ayant donné lieu à l'obtention d'une image de contours et d'histogrammes de contours horizontaux et verticaux, représentatifs de ladite image de contours selon une direction respectivement horizontale et verticale, ledit signal étant caractérisé en ce qu'une image d'appartenance au fond ayant été calculée à partir de ladite image, et des histogrammes dits de fond vertical et horizontal représentatifs de ladite image d'appartenance au fond selon une direction respectivement verticale et horizontale ayant été calculés, ladite analyse utilise une fusion dudit histogramme de fond vertical avec ledit histogramme de contours verticaux et dudit histogramme de fond horizontal avec ledit histogramme de contours horizontaux.and means for classifying unitary elements and background textures. The invention also relates to a signal representative of visibility data, carrying an image model obtained by analyzing an image. containing unitary elements aligned in two horizontal and vertical directions, said analysis having resulted in an image of contours and histograms of horizontal and vertical contours, representative of said contour image in a respectively horizontal and vertical direction said signal being characterized in that a background image having been calculated from said image, and so-called vertical and horizontal background histograms representative of said background image in a respectively vertical and horizontal direction; having been calculated, said analysis uses a merge of said vertical background histogram with said histogram of vertical contours and said horizontal background histogram with said histogram of horizontal contours.
L'invention concerne enfin un programme d'ordinateur comportant des instructions pour mettre en œuvre l'un des procédés selon l'invention, lorsqu'il est exécuté sur un ordinateur.The invention finally relates to a computer program comprising instructions for implementing one of the methods according to the invention, when it is executed on a computer.
Le dispositif, le système de modélisation, le signal et le programme d'ordinateur présentent des avantages analogues à ceux des procédés.The device, the modeling system, the signal and the computer program have advantages similar to those of the methods.
D'autres caractéristiques et avantages apparaîtront à la lecture d'un mode de réalisation préféré décrit en référence aux figures dans lesquelles :Other features and advantages will appear on reading a preferred embodiment described with reference to the figures in which:
- la figure 1 représente différentes étapes du procédé de modélisation d'image de façade selon l'invention, tel que décrit dans ce mode de réalisation,FIG. 1 represents various steps of the facade image modeling method according to the invention, as described in this embodiment,
- la figure 2 représente des traitements opérés sur une image "perspective" de façade, c'est-à-dire prise depuis la rue de manière non orthogonale au plan de l'image,FIG. 2 represents treatments operated on a "perspective" façade image, that is to say taken from the street in a manner that is not orthogonal to the plane of the image;
- la figure 3 représente différentes étapes du procédé d'analyse d'image selon l'invention,FIG. 3 represents different steps of the image analysis method according to the invention,
- la figure 4 représente l'obtention d'histogrammes de contours à partir d'une image de contours, - la figure 5 représente des étapes d'une étape du procédé d'analyse d'image selon l'invention,FIG. 4 represents the obtaining of contour histograms from an outline image, FIG. 5 represents steps of a step of the image analysis method according to the invention,
- la figure 6 représente le filtrage fréquentiel d'un histogramme de fenêtre obtenu par le procédé d'analyse d'image selon l'invention, -la figure 7 représente une analyse de la périodicité d'un histogramme de fenêtre horizontal obtenu par le procédé d'analyse d'image selon l'invention, -la figure 8 représente un mode de réalisation du système de modélisation d'image de façade selon l'invention.FIG. 6 shows the frequency filtering of a window histogram obtained by the image analysis method according to the invention; FIG. 7 represents an analysis of the periodicity of a horizontal window histogram obtained by the method; According to the invention, FIG. 8 represents an embodiment of the facade image modeling system according to the invention.
Selon un mode préféré de réalisation de l'invention, le procédé d'analyse d'image selon l'invention est utilisé pour analyser des images de façade, et est intégré dans le procédé de modélisation d'image de façade selon l'invention. Cependant ce mode de réalisation est facilement adaptable à l'analyse d'images structurées autres que des images de façade, les principes de l'invention restants inchangés. Le procédé de modélisation d'image de façade est représenté à la figure 1 sous la forme d'un organigramme comportant sept étapes E1 à E7, les étapes E2 à E5 faisant partie du procédé d'analyse d'image selon l'invention.According to a preferred embodiment of the invention, the image analysis method according to the invention is used to analyze facade images, and is integrated in the facade image modeling method according to the invention. However, this embodiment is easily adaptable to the analysis of structured images other than facade images, the principles of the invention remaining unchanged. The facade image modeling method is represented in FIG. 1 in the form of a flowchart comprising seven steps E1 to E7, the steps E2 to E5 being part of the image analysis method according to the invention.
La première étape E1 du procédé de modélisation est la transformation perspective inverse d'une image de façade IP à analyser, représentée à la figure 2. Cette étape est nécessaire car l'image de façade IP est classiquement acquise par un système de prise de vue photographique à partir de la rue. La façade représentée sur l'image IP est alors déformée suivant des transformations perspectives, et contient des éléments étrangers à la façade, telle que des bouts de trottoir. Il faut donc recadrer l'image IP sur les bords de la façade et redresser celle-ci, afin d'obtenir une image orthographique de façade IO. L'image IO initialement en couleur est transformée en image en niveaux de gris. Pour une bonne performance du procédé de modélisation selon l'invention, cette image IO doit être de bonne résolution mais pas trop grande afin de limiter les temps de calculs nécessaires à l'analyse de l'image. Dans ce mode de réalisation elle est par exemple de résolution 700*500 pixels.The first step E1 of the modeling method is the inverse perspective transformation of an IP facade image to be analyzed, represented in FIG. 2. This step is necessary because the IP facade image is conventionally acquired by a system of photography photographic from the street. The facade represented on the IP image is then deformed according to perspective transformations, and contains elements foreign to the facade, such as sidewalk ends. It is therefore necessary to crop the IP image on the edges of the facade and straighten it, in order to obtain a spelling image IO facade. The initially colored IO image is transformed into a grayscale image. For a good performance of the modeling method according to the invention, this IO image must be of good resolution but not too large in order to limit the computation times necessary for the analysis of the image. In this embodiment, it is for example of resolution 700 * 500 pixels.
Cette étape E1 est supervisée et requière la sélection manuelle des quatre coins de la façade. La position des quatre points au sein de l'image et l'hypothèse que la façade est plane, permettent de calculer les paramètres de transformation perspective subits par la façade et d'appliquer la transformation inverse pour récupérer l'image redressée IO.This step E1 is supervised and requires the manual selection of the four corners of the facade. The position of the four points within the image and the assumption that the facade is flat, allow to calculate the perspective transformation parameters undergone by the facade and to apply the inverse transformation to recover the IO rectified image.
En variante cette étape est effectuée automatiquement, dès lors que l'on connaît la position exacte de la prise de vue correspondant à l'image IP, les paramètres de l'appareil de prise de vue et les dimensions de la façade représentée sur l'image IP.As a variant, this step is performed automatically, since the exact position of the shooting corresponding to the IP image is known, the parameters of the camera and the dimensions of the facade represented on the camera. IP image.
La seconde étape E2 est la création d'histogrammes dits "de fenêtre", à partir de l'image IO obtenue à l'étape E1. Ces histogrammes sont caractéristiques des positions des fenêtres ou d'autres éléments alignés sur l'image de façade IO. Leur analyse, décrite plus loin à l'étape E4, permet donc de segmenter l'image IO en cellules ne contenant chacune qu'un seul élément de façade. Cette étape E2 du procédé de modélisation selon l'invention se décompose en étapes ai à a6 représentées à la figure 3.The second step E2 is the creation of histograms called "window", from the image IO obtained in step E1. These histograms are characteristic of the positions of windows or other elements aligned with the IO facade image. Their analysis, described later in step E4, thus makes it possible to segment the IO image into cells each containing only one facade element. This step E2 of the modeling method according to the invention is broken down into steps a1 to a6 shown in FIG.
La première étape ai est une détection de contours sur l'image de façade IO, permettant d'obtenir une image IC de contours, représentée à la figure 4. Des exemples de méthodes permettant d'extraire les contours d'une image sont donnés dans les articles suivants:The first step ai is an edge detection on the facade image IO, making it possible to obtain an image IC of outlines, represented in FIG. 4. Examples of methods making it possible to extract the outlines of an image are given in FIG. the following articles:
- "Image Field Categorization and Edge/Comer Détection from Gradient Covariance", de S. Ando, publié en 2000 dans le magazine "Institute of- "Image Field Categorization and Edge / Comer Detection from Gradient Covariance", by S. Ando, published in 2000 in the magazine "Institute of
Electrical and Electronics Engineers (IEEE) Transactions on Pattern Analysis Machine Intelligence",Electrical and Electronics Engineers (IEEE) Transactions on Pattern Analysis Machine Intelligence,
- et "Edge Détection with Embedded Confidence", de P. Meer and B. Georgescu, publié en 2001 dans le même magazine. La deuxième étape a2 est un filtrage directionnel de cette image de contours IC: - l'image IC filtrée verticalement donne une image de contours filtrée verticalement IFV, représentée à la figure 4, débarrassée de traits verticaux,- and "Edge Detection with Embedded Confidence" by P. Meer and B. Georgescu, published in 2001 in the same magazine. The second step a2 is a directional filtering of this IC contour image: the vertically filtered image IC gives a vertically filtered contour image IFV, represented in FIG. 4, freed from vertical lines,
- et l'image IC filtrée horizontalement donne une image de contours filtrée horizontalement IFH, débarrassée de traits horizontaux.and the horizontally filtered IC image gives a horizontally filtered contour image IFH, free of horizontal lines.
La troisième étape a3 est le calcul d'histogrammes de contours à partir des images de contours filtrées IFV et IFH. Les valeurs des pixels de ces images sont sommées ligne par ligne pour donner des histogrammes selon une direction verticale, et colonne par colonne pour donner des histogrammes selon une direction horizontale. On obtient donc quatre histogrammes:The third step a3 is the calculation of contour histograms from the IFV and IFH filtered contour images. The pixel values of these images are summed line by line to give histograms in a vertical direction, and column by column to give histograms in a horizontal direction. We thus obtain four histograms:
- un histogramme de contours horizontaux HVX, obtenu par sommation colonne par colonne des pixels de l'image filtrée IFV, qui caractérise la façade en ayant de fortes valeurs dans les zones de l'image contenant des éléments de façade, et des creux dans les zones inter-éléments,a histogram of HVX horizontal contours, obtained by column-by-column summation of the pixels of the IFV filtered image, which characterizes the facade by having high values in the zones of the image containing facade elements, and troughs in the inter-element zones,
- un histogramme de contours HHX, obtenu par sommation colonne par colonne des pixels de l'image filtrée IFH, qui possède des pics dans les zones de bords verticaux des éléments de façade, ou dans les zones de lignes verticales sur la façade,an HHX contour histogram, obtained by column-by-column summation of the pixels of the IFH filtered image, which has peaks in the vertical edge zones of the facade elements, or in the zones of vertical lines on the facade,
- un histogramme de contours verticaux HHY, obtenu par sommation ligne par ligne des pixels de l'image filtrée horizontalement IFH, qui caractérise la façade en ayant de fortes valeurs dans les zones de l'image contenant des éléments de façade, et des creux dans les zones inter-éléments,a histogram of vertical contours HHY, obtained by row-by-line summation of the pixels of the horizontally filtered image IFH, which characterizes the facade by having strong values in the zones of the image containing facade elements, and troughs in the inter-element zones,
- et un histogramme de contours HVY, représentatif de l'image de contours filtrée verticalement IFV, obtenu par sommation ligne par ligne des pixels de l'image filtrée IFV, et qui possède des pics dans les zones de bords horizontaux des éléments de façade, ou dans les zones de lignes horizontales sur la façade. Seuls les histogrammes de contours horizontaux HVX et verticaux HHY sont utilisés pour le calcul des histogrammes de fenêtre dans cette étape E2, les autres histogrammes étant utilisés pour la détection d'un changement de couleur sur la façade à l'étape E3. La quatrième étape a4 est le calcul d'une image d'appartenance au fond IAF, représentée à la figure 2. Chaque pixel de cette image représente la distance, codée en niveaux de gris, entre la couleur moyenne du fond de l'image de façade IO, et le pixel correspondant de l'image de façade IO. Cette distance est définie comme une différence de valeurs de niveaux de gris. Ainsi plus les zones de l'image de façade IO sont proches de la couleur moyenne du fond, plus elles apparaissent noires sur l'image d'appartenance au fond IAF, car plus la distance des pixels correspondants avec la couleur moyenne du fond est petite.and an HVY contour histogram, representative of the vertically filtered contour image IFV, obtained by row-by-line summation of the pixels of the IFV filtered image, and which has peaks in the horizontal edge zones of the facade elements, or in areas of horizontal lines on the facade. Only horizontal HVX and vertical HHY contour histograms are used for calculating the window histograms in this step E2, the other histograms being used for the detection of a color change on the facade in step E3. The fourth step a4 is the calculation of an image belonging to the background IAF, represented in FIG. 2. Each pixel of this image represents the distance, coded in gray levels, between the average background color of the image of the image. IO facade, and the corresponding pixel of the IO facade image. This distance is defined as a difference in gray level values. Thus, the more the areas of the IO facade image are close to the middle color of the background, the more black they appear on the IAF background image, because the distance between the corresponding pixels and the average background color is small. .
Pour caractériser la couleur moyenne du fond, l'algorithme "Largest Empty Rectangle", décrit dans l'article "Automatic Techniques for Texture Mapping in Virtual Urban Environments", de R. G. Laycock et A. M. Day, publié en 2004 à l'occasion d'une conférence internationale "Computer Graphics International", ou encore dans l'article "Computing the largest empty rectangle Source", de B. Chazelle, R. L. Drysdale et D. T. Lee, publié en 1986 dans le magazine "Society for Industrial and Applied Mathematics (SIAM) Journal on Computing ", est utilisé. Pour un ensemble de points aléatoirement répartis sur l'image, cet algorithme recherche des zones rectangles de couleurs uniformes. Ces régions permettent d'analyser les couleurs uniformément réparties dans l'image et de détecter la couleur moyenne du fond.To characterize the average background color, the algorithm "Largest Empty Rectangle", described in the article "Automatic Techniques for Texture Mapping in Virtual Urban Environments", by RG Laycock and AM Day, published in 2004 on the occasion of an international conference "Computer Graphics International", or in the article "Computing the largest empty rectangle Source" by B. Chazelle, RL Drysdale and DT Lee, published in 1986 in the magazine "Society for Industrial and Applied Mathematics" (SIAM ) Journal on Computing ", is used. For a set of randomly distributed points on the image, this algorithm looks for rectangles of uniform colors. These regions make it possible to analyze the uniformly distributed colors in the image and to detect the average background color.
Il est à noter que l'algorithme de "Largest Empty Rectange" est appliqué sur l'image de façade IO initiale en couleurs, transposée dans le système de codage L*a*b* créé par la Commission Internationale de l'Eclairage (CIE). Les distances calculées entre la couleur moyenne du fond de l'image de façade IO, et le pixel correspondant de l'image de façade IO sont des distances exprimées dans le système de codage L*a*b*, car ce système de codage couleur permet de coder une distance entre couleurs cohérente avec les distances perçues par l'œil humain.It should be noted that the "Largest Empty Rectange" algorithm is applied to the initial IO facade image in color, transposed into the L * a * b * coding system created by the International Commission on Illumination (CIE). ). The distances calculated between the average background color of the facade image I0, and the corresponding pixel of the facade image I0 are distances expressed in the coding system L * a * b * , because this coding system color makes it possible to code a distance between colors coherent with the distances perceived by the human eye.
La cinquième étape a5 est le calcul d'histogrammes dits "de fond" représentatifs de l'image d'appartenance au fond IAF selon les directions verticale et horizontale:The fifth step a5 is the calculation of so-called "background" histograms representative of the image of belonging to the IAF background in the vertical and horizontal directions:
- l'histogramme de fond vertical HFY, représenté à la figure 2, est obtenu par sommation ligne par ligne des valeurs des pixels de l'image d'appartenance au fond IAF,the vertical background histogram HFY, represented in FIG. 2, is obtained by row-by-row summation of the values of the pixels of the image belonging to the background IAF,
- et l'histogramme de fond horizontal HFX est obtenu par sommation colonne par colonne des valeurs des pixels de l'image d'appartenance au fond IAF.and the horizontal background histogram HFX is obtained by summation column by column of the values of the pixels of the image belonging to the background IAF.
Ces histogrammes de fond caractérisent l'adéquation d'une ligne ou d'une colonne de pixels avec la couleur de fond de la façade: ils contiennent de fortes valeurs sur les zones de l'image contenant des éléments de façade, et de faibles valeurs sur les zones inter-éléments.These background histograms characterize the suitability of a row or column of pixels with the background color of the facade: they contain strong values on areas of the image containing facade elements, and low values on the inter-element zones.
La sixième étape a6 est la fusion des histogrammes de contours verticaux et horizontaux précédemment calculés, avec les histogrammes de fond respectivement vertical et horizontal. Ces quatre histogrammes sont relativement corrélés, ce qui permet de les fusionner pour sommer l'information et augmenter la robustesse de l'analyse de l'image de façade IO. La grande diversité des images de façades requière en effet de prévoir une méthode de segmentation en cellules robuste pour garantir un fort taux de résultats corrects. On obtient alors deux histogrammes dits "de fenêtre", l'un vertical et l'autre horizontal, définis par les formules: HFenétre (y) = HFY (y) - Hm {y)The sixth step a6 is the fusion of histograms of vertical and horizontal contours previously calculated, with the vertical and horizontal background histograms respectively. These four histograms are relatively correlated, which makes it possible to merge them to sum up the information and increase the robustness of the analysis of the IO facade image. The great diversity of façade images requires the provision of a robust cell segmentation method to ensure a high rate of correct results. We then obtain two so-called "window" histograms, one vertical and the other horizontal, defined by the formulas: H Window (y) = H FY (y) - H m {y)
HFenêlre(x) = HFX (x) - Hrx (x) OÙH Window (x) = H FX (x) - H rx (x) WHERE
- y est une variable désignant une ligne de pixels de l'image de façade IO, - x est une variable désignant une colonne de pixels de l'image de façade IO,y is a variable designating a pixel line of the IO facade image, x is a variable designating a column of pixels of the IO facade image,
- Hremjιe(y) est la valeur de l'histogramme de fenêtre vertical en la ligne de pixels y, - H Hnetιe(x) est la valeur de l'histogramme de fenêtre horizontal en la colonne de pixels x,- remjιe H (y) is the value of the vertical window histogram pixel line y - H Hnetιe (x) is the value of the horizontal window of the histogram by pixels of column x,
- H {y) est la valeur de l'histogramme de fond vertical HFY en la ligne de pixels y,- H {y) is the value of the vertical background histogram HFY in the row of pixels y,
- HhX (χ) est la valeur de l'histogramme de fond horizontal HFX en la colonne de pixels x,H HX (χ) is the value of the horizontal histogram HFX in the column of pixels x,
- HHY(y) est la valeur de l'histogramme de contours verticaux HHY en la ligne de pixels y,- H HY (y) is the value of the histogram of vertical contours HHY in the line of pixels y,
- et Hvx (x) est la valeur de l'histogramme de contours horizontaux HVX en la colonne de pixels x. II est à noter que dans ce mode de réalisation on multiplie les valeurs des histogrammes entre elles, mais d'autres modes de fusion sont utilisables, par exemple en utilisant des sommes pondérées.and H vx (x) is the horizontal contour histogram value HVX in the pixel column x. It should be noted that in this embodiment the values of the histograms are multiplied with one another, but other modes of fusion can be used, for example using weighted sums.
Ces histogrammes de fenêtre seront ensuite utilisés lors de l'étape E4 de segmentation de l'image de façade IO en cellules, car ils contiennent des pics sur les zones représentant des éléments de façade et des vallées dans les zones inter-éléments.These window histograms will then be used in step E4 of segmenting the IO facade image into cells, because they contain peaks on the zones representing facade elements and valleys in the inter-element zones.
La troisième étape E3 du procédé de modélisation selon l'invention est la détection d'un changement de couleur sur l'image de façade IO. En effet les histogrammes de fenêtre obtenus à l'étape E2 sont perturbés aux niveaux de changements de couleur sur la façade. Dans ce mode de réalisation de l'invention, on détecte seulement un changement de couleur suivant une direction verticale, car les bâtiments présentent très souvent des rez-de- chaussée revêtus d'une couleur différente de celle des étages supérieurs. Cependant il est aisé d'adapter ce mode de réalisation à la détection d'un changement de couleur suivant une direction horizontale, ou à plusieurs changements de couleur. Cette étape E3 se décompose en quatre étapes b1 à b4 représentées à la figure 5.The third step E3 of the modeling method according to the invention is the detection of a color change on the facade image IO. In fact, the window histograms obtained in step E2 are disturbed at the levels of color changes on the facade. In this embodiment of the invention, only a color change is detected in a vertical direction, because the buildings very often have ground floors coated with a different color from that of the upper floors. However, it is easy to adapt this embodiment to the detection of a color change in a horizontal direction, or with several color changes. This step E3 is broken down into four steps b1 to b4 shown in FIG.
L'étape b1 est une transformation de Hough d'une image des luminances IL obtenue à partir de l'image de façade IO initiale en couleur, et représentée sur la figure 2. L'image des luminances IL est calculée en changeant l'espace couleur de l'image IO. Les pixels de l'image IO sont représentés initialement dans le système de codage couleur Rouge/Vert/Bleu RGB d'après l'anglais "Red Green Blue", par des triplés représentant les valeurs de ces trois composantes. Ces couleurs codées dans le système RGB sont transformées en couleurs codées dans le système de codage CIE L*a*b*. Les composantes a* et b* représentent le plan de chrominance alors que l'axe L* représente les variations de Luminance. L'image des luminances IL est obtenue en ne gardant que la composante L* des couleurs L*a*b* ainsi calculées à partir de l'image IO couleur initiale.Step b1 is a Hough transformation of an image of the luminances IL obtained from the initial IO facade image in color, and shown in FIG. 2. The image of the luminances IL is calculated by changing the space color of the IO image. The pixels of the IO image are initially represented in the Red / Green / Blue RGB color coding system according to the English "Red Green Blue", by triplets representing the values of these three components. These colors encoded in the RGB system are converted into coded colors in the CIE coding system L * a * b * . The components a * and b * represent the chrominance plane while the L * axis represents the luminance variations. The image of the luminances IL is obtained by keeping only the L * component of the colors L * a * b * thus calculated from the initial color IO image.
Il est à noter que l'espace couleur CIE L*a*b* est utilisé dans l'invention pour calculer des distances entre couleurs et en particulier lors des algorithmes de "Largest Empty Rectange" lors de la détection de la couleur de fond et lors de la construction des histogrammes de Fond. La transformée de Hough de l'image des luminances IL est effectuée suivant une méthode connue décrite dans le brevet US3069654 de P.V.C. Hough, intitulé "Method and Means for Recognizing Complex Patterns". Cette transformée permet de détecter la présence de lignes au sein d'un signal bidimensionnel. L'image ITH résultante de cette transformée contient des lignes beaucoup plus marquées que celles présentes sur l'image de contours IC.It should be noted that the CIE L * a * b * color space is used in the invention to calculate distances between colors and in particular during the "Largest Empty Rectange" algorithms during the detection of the background color and when constructing Background histograms. The Hough transform of the IL luminance image is performed according to a known method described in Hough PVC US3069654 entitled "Method and Means for Recognizing Complex Patterns". This transform makes it possible to detect the presence of lines within a two-dimensional signal. The resulting ITH image of this transform contains much more marked lines than those present on the IC contour image.
L'étape b2 est le calcul d'un histogramme HTH dit "de Hough", selon une direction verticale de l'image résultante ITH. Cet histogramme est obtenu par sommation des valeurs des pixels de l'image ITH ligne par ligne. Il possède des pics très marqués au niveau de lignes horizontales sur l'image ITH et des pics moins marqués au niveau des bords horizontaux d'éléments de façade. Il est à noter que le calcul de l'histogramme de Hough HTH ne nécessite pas la construction complète de l'image de Hough, mais seulement la partie de l'image de Hough correspondant aux lignes verticales et horizontales. L'étape b3 est le calcul d'un histogramme dit "de rez-de-chaussée", obtenu par combinaison linéaire de l'histogramme de contours verticaux HHY, l'histogramme de fond vertical HFY, l'histogramme de Hough vertical HTH et l'histogramme de contours HVY, suivant la formule:Step b2 is the calculation of a HTH histogram called "Hough", in a vertical direction of the resulting image ITH. This histogram is obtained by summing the pixel values of the ITH image line by line. It has very sharp peaks at horizontal lines on the ITH image and smaller peaks at the horizontal edges of elements facade. It should be noted that the Hough HTH histogram calculation does not require the complete construction of the Hough image, but only the portion of the Hough image corresponding to the vertical and horizontal lines. Step b3 is the calculation of a so-called "ground floor" histogram, obtained by linear combination of the HHY vertical contour histogram, the HFY vertical background histogram, the Hough vertical HTH histogram, and the contour histogram HVY, according to the formula:
H^. (.y) = 3 • HFY (y) + 2 - H (y) + Hm (y) - H HY (y) oùH ^. (.y) = 3 • H FY (y) + 2 - H (y) + H m (y) - H HY (y) where
- y est une variable désignant une ligne de pixels de l'image de façade IO,y is a variable designating a pixel line of the IO facade image,
- HRDC(y) est la valeur de l'histogramme de rez-de-chaussée en la variable y, - HFY (y) est la valeur de l'histogramme de fond vertical HFY en la variable y,- H RDC (y) is the value of the ground floor histogram in the variable y, - H FY (y) is the value of the vertical background histogram HFY in the variable y,
- H(y) est la valeur de l'histogramme de contours HVY en la variable y.- H (y) is the value of the contour histogram HVY in the variable y.
- Hm (y) est la valeur de l'histogramme de Hough vertical HTH en la variable y,- H m (y) is the value of the Hough vertical histogram HTH in the variable y,
- et HHY(y) est la valeur de l'histogramme de contours verticaux HHY en la variable y.and H HY (y) is the value of the histogram of vertical contours HHY in the variable y.
Cet histogramme de rez-de-chaussée a été construit de manière à obtenir un pic sur la frontière entre deux zones de couleurs différentes. En effet:This ground floor histogram was constructed to obtain a peak on the boundary between two areas of different colors. Indeed:
- d'une part, on somme les histogrammes qui ont des fortes valeurs sur de telles zones de transitions, c'est-à-dire l'histogramme de contours HVY et l'histogramme de Hough HTH, car ils détectent les lignes horizontales, et l'histogramme de fond HFY, car il a de fortes valeurs sur la zone de rez-de-chaussée, - et d'autre part on soustrait l'histogramme de contours verticaux HHY car il doit être nul sur les zones de transitions, ce qui a pour effet d'atténuer les autres pics de l'histogramme de fenêtre. De manière similaire, si l'on souhaite détecter un changement de couleur suivant une direction horizontale, il suffit d'effectuer la combinaison linéaire symétrique de celle-ci, avec l'histogramme de contours horizontaux HVX, l'histogramme de fond horizontal HFX, un histogramme représentatif de l'image résultante ITH de la transformée de Hough suivant une direction horizontale, et l'histogramme de contours HHX. L'étape b4 est la détection du pic marquant la frontière entre le rez-de- chaussée et les étages de la façade de l'image IO, sur l'histogramme de rez- de-chaussée précédemment calculé. On cherche pour cela un maximum dans la moitié inférieure de l'histogramme. En effet, ne pouvant faire d'hypothèse sur le nombre d'étages dans la façade, on suppose simplement qu'il y a au moins deux niveaux dans le bâtiment. La limite entre le rez-de-chaussée et le ou les étages se situe donc dans la moitié inférieure de l'image de façade IO. On parcourt donc l'histogramme de rez-de-chaussée et, on cherche, sur tous les maxima de sa moitié inférieure, le pic de plus grande amplitude vérifiant les critères suivants: HRDC(i) > 2/3 ,on the one hand, we add the histograms which have strong values on such transition zones, ie the HVY contour histogram and the Hough HTH histogram, because they detect the horizontal lines, and the HFY background histogram because it has high values on the ground floor area, and on the other hand subtract the histogram of vertical contours HHY because it must be zero on the transition zones, which has the effect of attenuating the other peaks of the window histogram. Similarly, if it is desired to detect a color change in a horizontal direction, it suffices to perform the symmetrical linear combination thereof, with the horizontal contour histogram HVX, the horizontal histogram HFX, a histogram representative of the resulting ITH image of the Hough transform in a horizontal direction, and the HHX contour histogram. Step b4 is the detection of the peak marking the boundary between the ground floor and the floors of the facade of the image IO, on the histogram of ground floor previously calculated. We are looking for a maximum in the lower half of the histogram. Indeed, not being able to make hypothesis on the number of stages in the facade, one supposes simply that there are at least two levels in the building. The boundary between the ground floor and the floor or floors is therefore in the lower half of the IO façade image. So we go through the histogram of ground floor and, we look, on all the maxima of its lower half, the peak of greater amplitude satisfying the following criteria: H RDC (i)> 2/3,
Figure imgf000021_0001
7=0 et ∑HFe,,e/,eU) > 0.8 * ∑HFenelιe(j)
Figure imgf000021_0001
7 = 0 and ΣH Fe , e / , e U)> 0.8 * ΣH Fenelιe (j)
or
- i est une variable de ligne de pixels de l'image de façade IO correspondant à un pic sur la moitié inférieure de l'histogramme de rez- de-chaussée, - j est un indice parcourant les N valeurs de l'histogramme de fenêtre vertical de haut en bas par rapport à l'image de façade 10,i is a pixel line variable of the IO facade image corresponding to a peak on the lower half of the ground floor histogram, j is an index traversing the N values of the vertical window histogram from top to bottom with respect to the facade image 10,
- N est la taille de l'histogramme de fenêtre vertical,N is the size of the vertical window histogram,
- HRDC(i) est la valeur de l'histogramme de l'histogramme de rez-de- chaussée en la variable i,- H RDC (i) is the value of the histogram of the ground floor histogram in variable i,
- et Hfenetιe(j) est la valeur de l'histogramme de fenêtre vertical en la variable j.and H fenetιe (j) is the value of the vertical window histogram in the variable j.
On détermine ainsi la ligne de l'image de façade IO correspondant au pic de rez-de-chaussée. Ce critère supplémentaire de sélection des maxima de l'histogramme de rez-de-chaussée permet de supprimer les pics n'étant pas sur des zones de variations de la couleur moyenne du fond.This determines the line of the facade image IO corresponding to the peak ground floor. This additional criterion of selection of the maxima of the ground floor histogram makes it possible to eliminate the peaks not being on zones of variations of the average color of the bottom.
La quatrième étape E4 du procédé de modélisation selon l'invention est la segmentation en cellules de l'image de façade IO. Pour cela, on analyse les histogrammes de fenêtre obtenus à l'étape E2. L'histogramme de fenêtre vertical est séparé en deux sous-histogrammes correspondant à deux sous- images de l'image de façade IO, l'une contenant le rez-de-chaussée du bâtiment dont on analyse la façade, et l'autre contenant les étages supérieurs. Cette séparation utilise l'étape de détection E3 précédente, qui fournit la ligne de séparation de l'histogramme de fenêtre vertical. Elle permet de s'affranchir des perturbations sur l'histogramme de fenêtre vertical, dues au changement de couleur sur l'image de façade IO.The fourth step E4 of the modeling method according to the invention is the cell segmentation of the IO facade image. For this, the window histograms obtained in step E2 are analyzed. The vertical window histogram is separated into two sub-histograms corresponding to two sub-images of the IO facade image, one containing the ground floor of the building whose facade is being analyzed, and the other containing the upper floors. This separation uses the previous E3 detection step, which provides the separation line of the vertical window histogram. It eliminates disturbances on the vertical window histogram due to the color change on the IO facade image.
Comme indiqué plus haut, les histogrammes de fenêtre présentent des "vallées" dans les zones inter-éléments. L'analyse des minima du sous- histogramme de fenêtre vertical représentatif des étages, permet donc de déterminer les limites entre étages. De même l'analyse des minima de l'histogramme de fenêtre horizontal permet de déterminer les limites entre éléments de façade. Pour faciliter la recherche de minima, les hautes fréquences de ces histogrammes sont filtrées sur une base d'ondelettes. Plus précisément les signaux des histogrammes de fenêtre sont décomposés en fréquences sur une base d'ondelettes de Daubechies, et sont filtrés en supprimant les hautes fréquences. Cela permet de lisser les histogrammes, comme le montre par exemple le diagramme de la figure 6, ayant en abscisses l'axe AX1 de lignes de pixels et en ordonnées l'axe AY1 de valeurs du sous-histogramme de fenêtre vertical représentatif des étages : Le signal non filtré SO de ce sous- histogramme présente de nombreux pics dus à des irrégularités des éléments de façade, tandis que le signal filtré SF1 correspondant ne présente que quelques minima et maxima restants à analyser.As noted above, window histograms have "valleys" in the inter-element areas. The analysis of the minima of the vertical window sub-histogram representative of the stages thus makes it possible to determine the boundaries between stages. Similarly, the analysis of the minima of the horizontal window histogram makes it possible to determine the boundaries between facade elements. To facilitate the search for minima, the high frequencies of these histograms are filtered on a wavelet basis. More precisely, the signals of the window histograms are broken down into frequencies on a Daubechies wavelet basis, and are filtered by suppressing the high frequencies. This makes it possible to smooth the histograms, as shown, for example, in the diagram of FIG. 6, having on the abscissa the axis AX1 of lines of pixels and on the ordinate the axis AY1 of values of the vertical window sub-histogram representative of the stages: The unfiltered signal SO of this sub-histogram has many peaks due to irregularities of the facade elements, while the corresponding SF1 filtered signal has only a few minima and maxima remaining to be analyzed.
L'histogramme de fenêtre horizontal étant généralement plus sensible aux bruits et aux perturbations de l'image que l'histogramme de fenêtre vertical, l'histogramme de fenêtre horizontal subit dans cette étape E4, en plus de ce filtrage fréquentiel, un processus de temporisation périodique. Ce processus analyse la périodicité de l'histogramme de fenêtre horizontal par une étude de la covariance et le cas échant applique un ensemble de gaussiennes centrés sur les minimums des courbes répondant au critère de périodicité. Le diagramme de la figure 7, ayant en abscisses l'axe AX2 de lignes de pixels et en ordonnées l'axe AY2 de valeurs de l'histogramme de fenêtre horizontal montre le signal filtré en fréquences SF2 de cet histogramme, une gaussienne SG appliquée à ce signal filtré SF2, et l'histogramme résultant de cette application SR. Le signal filtré SF1 du sous-histogramme de fenêtre vertical et le signal résultant SR de l'histogramme de fenêtre horizontal sont ensuite analysés. Pour cela, les espaces des distributions des valeurs de ces signaux sont partitionnés, et des seuils sont fixés dynamiquement sur ces signaux à partir des partitions créées. Plus précisément ces partitions sont classées en quatre groupes par un algorithme de K-Mean, qui fixe dynamiquement trois seuils. Ainsi sur l'exemple de la figure 6, les valeurs du signal filtré SF1 sont réparties dans quatre intervalles en fonction de leurs positions par rapport à trois seuils S1 , S2 et S3. Ces seuils permettent de classer les minima des signaux pour ne garder que les minima globaux: on ne garde que les minima inférieurs au seuil le plus bas et on fusionne deux minima s'ils ne sont pas séparés d'un maximum supérieur au seuil médian. Cela permet de fusionner deux minima se trouvant dans la même zone inter-éléments.Since the horizontal window histogram is generally more sensitive to noise and image disturbances than the vertical window histogram, the horizontal window histogram undergoes in this step E4, in addition to this frequency filtering, a delaying process. periodic. This process analyzes the periodicity of the horizontal window histogram by a covariance study and, if applicable, applies a set of Gaussians centered on the minimums of the curves satisfying the criterion of periodicity. The diagram of FIG. 7, having on the abscissa the axis AX2 of lines of pixels and the ordinate axis AY2 of values of the horizontal window histogram shows the signal filtered in SF2 frequencies of this histogram, a Gaussian SG applied to this filtered signal SF2, and the histogram resulting from this application SR. The filtered signal SF1 of the vertical window sub-histogram and the resulting signal SR of the horizontal window histogram are then analyzed. For this, the distribution spaces of the values of these signals are partitioned, and thresholds are dynamically fixed on these signals from the partitions created. More precisely, these partitions are classified into four groups by a K-Mean algorithm, which dynamically sets three thresholds. Thus, in the example of FIG. 6, the values of the filtered signal SF1 are distributed in four intervals according to their positions with respect to three thresholds S1, S2 and S3. These thresholds make it possible to classify the minima of the signals to keep only the global minima: one keeps only minima lower than the lowest threshold and one merges two minima if they are not separated of a maximum higher than the median threshold. This makes it possible to merge two minima that are in the same inter-element zone.
Les minima globaux obtenus par analyse du signal filtré SF1 délimitent les étages entre eux et permettent de segmenter l'image de façade étage par étage. Les minima globaux obtenus par analyse du signal résultant SR délimitent les éléments de façade entre eux et permettent de segmenter les étages en cellules, chacune ne comprenant qu'un seul élément de façade.The global minima obtained by analysis of the SF1 filtered signal delimit the stages between them and make it possible to segment the facade image floor by floor. The global minima obtained by analyzing the resulting signal SR delimit the facade elements between them and make it possible to segment the floors into cells, each comprising only one facade element.
En variante, au lieu de calculer un seul histogramme de fenêtre horizontal à l'étape E2, on calcule à l'étape E4 un histogramme de fenêtre par étage, après segmentation par étages de l'image de contours filtrée verticalement, et segmentation par étages de l'image d'appartenance au fond, à partir des minima globaux obtenus par analyse du signal filtré SF1. Ceci permet d'affiner les résultats, par comparaison inter-étages des limites de cellules trouvées par analyse des différents histogrammes de fenêtre horizontaux. Ceci permet d'aligner les cellules, ce qui accroît la qualité visuelle de la segmentation, et de comparer la segmentation de chaque étage pour ajouter ou supprimer certaines cellules en fonction des étages voisins.Alternatively, instead of calculating a single horizontal window histogram in step E2, step E4 computes a window histogram per floor, after step segmentation of the vertically filtered contour image, and step segmentation. of the image belonging to the background, from the global minima obtained by analysis of the filtered signal SF1. This makes it possible to refine the results, by inter-stage comparison of the limits of cells found by analysis of the different horizontal window histograms. This makes it possible to align the cells, which increases the visual quality of the segmentation, and to compare the segmentation of each stage to add or remove some cells according to the neighboring stages.
La cinquième étape E5 du procédé de modélisation selon l'invention est la détection des éléments de façade dans les cellules obtenues à l'étape précédente. Cette étape consiste à extraire précisément les éléments de façade du fond de la façade. En effet une cellule est assimilable à un élément de façade entouré de zones de fond.The fifth step E5 of the modeling method according to the invention is the detection of the facade elements in the cells obtained in the previous step. This step consists in precisely extracting the facade elements from the bottom of the facade. Indeed a cell is comparable to a facade element surrounded by background areas.
Pour extraire précisément la zone de chaque cellule représentant l'élément de façade, un processus de croissance de régions rectangulaires est utilisé. Le principe de ce processus est d'agrandir une région possédant certaines propriétés de forme, ici une forme rectangulaire, en fonction d'une carte de distances calculée à partir de l'image. Un exemple d'algorithme de croissance de régions rectangulaires pour détecter des éléments de façade est décrit dans l'article de K. Schindler et J. Bauer cité plus haut.To accurately extract the area of each cell representing the facade element, a rectangular region growth process is used. The principle of this process is to enlarge a region having certain shape properties, here a rectangular shape, depending on a distance map calculated from the image. An example of an algorithm for growing rectangular regions to detect facade elements is described in the article by K. Schindler and J. Bauer cited above.
Plus précisément la carte de distances est créée dans cette étape E5 en additionnant les valeurs des pixels de l'image d'appartenance au fond IAF et les valeurs des pixels de l'image de contours IC. Il est à noter que la figure 4 représente pour des raisons pratiques une image de contours IC inversée, l'image de contours IC étant composée en réalité de contours blancs sur fond noir. Cette carte de distances est ensuite filtrée par une gaussienne calculée en fonction de la distribution de cette carte, c'est-à-dire en fonction de la moyenne et de la variance de la carte, pour atténuer le bruit et minimiser les valeurs proches de zéro, c'est-à-dire les valeurs des pixels des zones de fond, ou les valeurs proches de un, c'est-à-dire les valeurs des pixels sur des éléments de façade. Enfin, on soustrait la valeur moyenne de la carte filtrée à toutes les valeurs de cette carte pour obtenir une carte de distances positive sur les régions représentant des éléments de façade et négative ailleurs. La carte ainsi obtenue est alors fournie au processus de croissance de régions, qui à partir d'une petite zone rectangulaire de départ, positionnée au centre des cellules telles que délimitées à l'étape E4, converge vers la zone rectangulaire maximisant la valeur moyenne des pixels de la région correspondante.More precisely, the distance map is created in this step E5 by adding the values of the pixels of the membership image to the background IAF and the values of the pixels of the contour image IC. It should be noted that FIG. 4 represents for practical reasons an inverted IC contour image, the contour image IC being actually composed of white outlines on a black background. This distance map is then filtered by a Gaussian calculated according to the distribution of this map, that is to say according to the average and the variance of the map, to attenuate the noise and to minimize the values close to zero, that is to say the values of the pixels of the background areas, or the values close to one, that is to say the values of the pixels on facade elements. Finally, subtract the average value of the filtered map from all the values on this map to obtain a positive distance map for the regions representing facade elements and negative elsewhere. The map thus obtained is then supplied to the region growth process, which from a small rectangular starting area, positioned in the center of the cells as delimited in step E4, converges towards the rectangular zone maximizing the average value of the pixels of the corresponding region.
La sixième étape E6 du procédé de modélisation selon l'invention est la classification des éléments de façade et des textures de fond de l'image de façade IO, à partir d'un catalogue d'éléments de façade et de textures de fond. Ce catalogue est par exemple contenu dans une base de données BD2, représentée à la figure 8, le procédé de modélisation selon l'invention étant implémenté de manière logicielle dans un serveur de données de visualisation SERV, relié à une base de données BD1 d'images de façade d'une ville. En variante le procédé de modélisation selon l'invention est implémenté sur plusieurs machines fonctionnant en parallèle. Le catalogue d'éléments de façade est mis à jour au fur et à mesure que le serveur SERV analyse les images de façade de la base de donnéesThe sixth step E6 of the modeling method according to the invention is the classification of the facade elements and background textures of the facade image IO, from a catalog of facade elements and background textures. This catalog is for example contained in a database BD2, represented in FIG. 8, the modeling method according to the invention being implemented in a software manner in a servicing data server SERV, connected to a database BD1 of FIG. facade images of a city. In a variant, the modeling method according to the invention is implemented on several machines operating in parallel. The facade element catalog is updated as the SERV server parses the front images of the database
BD1. Il contient des images permettant de reconstruire des images de façade de synthèse le plus fidèlement possible par rapport aux images de façade réelles. Ces images sont de deux types:BD1. It contains images to reconstruct synthetic façade images as closely as possible to actual façade images. These images are of two types:
- des images de textures de fond des façades, de faible dimension, qui sont répétées sur le fond des images de synthèse pour créer des images hautes résolutions,images of background textures of the facades, of small dimensions, which are repeated on the background of the computer-generated images to create high-resolution images,
- et des images correspondant aux éléments de façades extraits des cellules lors de l'étape E5.and images corresponding to the elements of facades extracted from the cells during step E5.
Les images de textures de fond caractérisant les étages de l'image de façade sont créées en utilisant la carte de distances créée à l'étape E5 et à partir de laquelle on a extrait les éléments unitaires de façades. Cette carte est parcourue pour rechercher la plus grande zone rectangulaire pour laquelle la somme des pixels la composant est minimum. On extrait ensuite une région rectangulaire uniforme de petite taille correspondant à cette zone dans l'image de façade IO initiale en couleurs, que l'on répète pour recréer une image de fond de même taille que les étages de l'image de façade IO. Une autre image de texture de fond est créée de manière similaire pour caractériser le rez-de- chaussée.The background texture images characterizing the stages of the facade image are created using the distance map created in step E5 and from which the unitary elements of facades were extracted. This map is searched to find the largest rectangular area for which the sum of the pixels component is minimum. A small uniform rectangular region corresponding to this area is then extracted into the initial color IO facade image, which is repeated to recreate a background image of the same size as the stages of the IO facade image. Another background texture image is similarly created to characterize the ground floor.
Afin de permettre une reconstruction rapide d'images de façade depuis un terminal distant connecté à un serveur de données de visualisation, le catalogue ne garde que les images d'éléments de façade et les images de textures de fond les plus caractéristiques des images analysées au fur et à mesure selon l'invention. La constitution du catalogue est effectuée en même temps que l'analyse des images de façades, afin d'optimiser la construction des modèles procéduraux de façade.In order to allow a fast reconstruction of facade images from a remote terminal connected to a visualization data server, the catalog keeps only the images of facade elements and the most characteristic background texture images of the images analyzed in according to the invention. The constitution of the catalog is carried out at the same time as the analysis of the images of facades, in order to optimize the construction of the procedural facade models.
Pour cela, les images correspondant aux éléments de façades extraits lors de l'étape E5, sont analysées par des descripteurs de couleurs, de texture et de forme. De même des images de textures de fond extraites des images de façade de la base de données BD1 sont analysées par des descripteurs de couleurs et de textures. Suivant le résultat de l'étape E3 de détection de changement de couleur, plusieurs images de textures de fond par image de façade sont éventuellement décrites. La description de chaque élément permet de les représenter dans un espace de description de grande taille et de mesurer dans cette espace la similarité entre éléments. Les deux types d'images stockées dans le catalogue requièrent la mise en place de deux espaces de description, l'un pour les images de textures de fond et l'autre pour les images correspondant aux éléments de façade. En effet, bien que les descripteurs utilisés pour décrire les images de textures de fond et les descripteurs utilisés pour décrire les images correspondant aux éléments de façade extraits soient en partie identiques, notamment pour la description des couleurs et des textures, ces dernières images sont analysées séparément. Ils sont décrits également par des descripteurs de forme utilisant une approche région, par exemple utilisant la transformation Angular Radial Transform (ART).For this purpose, the images corresponding to the elements of façades extracted during step E5 are analyzed by color, texture and shape descriptors. In the same way, background texture images extracted from the facade images of the database BD1 are analyzed by descriptors of colors and textures. According to the result of the color change detection step E3, several background texture images per facade image are possibly described. The description of each element makes it possible to represent them in a large description space and to measure in this space the similarity between elements. The two types of images stored in the catalog require two description spaces, one for background texture images and the other for images corresponding to facade elements. Indeed, although the descriptors used to describe the background texture images and the descriptors used to describe the images corresponding to the extracted facade elements are partly identical, in particular for the description of the colors and textures, the latter images are analyzed. separately. They are also described by shape descriptors using a region approach, for example using the transformation Angular Radial Transform (ART).
Les descripteurs de couleurs sont créés en calculant des histogrammes couleurs des images à décrire. Cette approche est proposée par M. J. Swain et D. H. Ballard dans leur article "Color indexing" publié en 1991 dans le magazine "International Journal of Computer Vision". Elle consiste à représenter les pixels des images sous forme d'histogrammes des valeurs de leurs couleurs. Dans ce mode de réalisation de l'invention, trois histogrammes sont créés, une par composante couleur des pixels décrits dans l'espace couleur CIE L*a*b*. Ces histogrammes sont quantifiés pour réduire l'espace de description et la valeur de chaque quantification est stockée comme descripteur.The color descriptors are created by calculating color histograms of the images to be described. This approach is proposed by MJ Swain and DH Ballard in their article "Color indexing" published in 1991 in the magazine "International Journal of Computer Vision". It consists of representing the pixels of the images in the form of histograms of the values of their colors. In this embodiment of the invention, three histograms are created, one per color component of the pixels described in the CIE color space L * a * b * . These histograms are quantized to reduce the description space and the value of each quantization is stored as a descriptor.
Les descripteurs de texture utilisent une analyse de la texture des images. Cette analyse se base sur les travaux de Yong Man Ro, Munchurl Kim, Ho Kyung Kang, B. S. Manjunath, et Jinwoong Kim, décrits dans l'article "MPEG-7 Homogeneous Texture Descriptor" publié en 2001 dans le magazine "Electronics and Télécommunications Research lnstitute (ETRI) journal". Une fois tous les éléments et textures de fond des images de façade de la base de données BD1 indexés à l'aide de ces descripteurs dans le catalogue de la base de données BD2, les deux espaces de descriptions sont segmentés en classes d'éléments similaires par l'algorithme des nuées dynamiques. Cet algorithme est une méthode de classification automatique qui a pour objectif de partitionner l'espace en un certain nombre de classes. Il est décrit notamment dans les articles suivants:Texture descriptors use an image texture analysis. This analysis is based on the work of Yong Man Ro, Kim Munchurl, Kyung Kang Ho, BS Manjunath, and Jinwoong Kim, described in the article "MPEG-7 Homogeneous Texture Descriptor" published in 2001 in "Electronics and Telecommunications Research" magazine. Institute (ETRI) journal ". Once all the background elements and textures of the facade images of the database BD1 indexed using these descriptors in the catalog of the database BD2, the two description spaces are segmented into classes of similar elements. by the algorithm of dynamic clouds. This algorithm is an automatic classification method that aims to partition space into a certain number of classes. It is described in particular in the following articles:
- "Least squares quantization in puise-code modulation (PCM)", de S. P. Lloyd, publié en 1982 dans le magazine "IEEE Transactions on Information Theory",- P. Lloyd's "Least squares quantization in pulses-code modulation" (PCM), published in 1982 in the magazine "IEEE Transactions on Information Theory",
- et "Some Methods for classification and Analysis of Multivariate Observations", de J. B. MacQueen, publié en 1967 à l'occasion de la cinquième conférence "Berkeley Symposium on Mathematical Statistics and Probability". Le choix du nombre de classes à garder, et donc du nombre final de textures de fond et d'éléments de façades dans le catalogue, est défini en fonction de la précision du réalisme voulu et de la taille du catalogue que l'on souhaite.and J. B. MacQueen's "Some Methods for Classification and Analysis of Multivariate Observations" published in 1967 for the fifth "Berkeley Symposium on Mathematical Statistics and Probability". The choice of the number of classes to keep, and therefore the final number of background textures and facade elements in the catalog, is defined according to the accuracy of the desired realism and the size of the catalog that one wishes.
A l'issue de cette segmentation, on associe chaque image de texture de fond ou d'élément de façade à sa classe. Cette association est conservée pour chaque image de façade dans la base de données BD1 , qui mémorise aussi la position des éléments ou des textures sur les façades correspondantes. Puis on supprime du catalogue toutes les images n'étant pas définies par l'algorithme des nuées dynamiques comme un centre d'une classe. Ceci permet de ne garder que peu d'éléments de façade, tout en garantissant que chaque élément aura un représentant de classe visuellement proche qui le remplacera dans les images de synthèse.At the end of this segmentation, each image of background texture or facade element is associated with its class. This association is maintained for each facade image in the database BD1, which also stores the position of the elements or textures on the corresponding facades. Then we delete from the catalog all the images that are not defined by the dynamic clouds algorithm as a center of a class. This makes it possible to keep only a few facade elements, while ensuring that each element will have a visually close class representative who will replace it in the computer-generated images.
L'image de façade IO est associée dans ce mode de réalisation à deux images de textures de fond, l'une pour le rez-de-chaussée et l'autre pour les étages supérieurs. Chacune de ces images de textures sont classées, à l'issue de l'étape E6, dans une classe d'images de textures de fond très proches représentée par l'image du centre de cette classe. De même, les éléments de façade extraits à l'étape E5 sont classés dans des classes représentées chacune par un élément de façade très ressemblant. Suivant le réalisme souhaité ou le type de façade analysé, par exemple si plusieurs changements de couleurs de la façade sont détectés à l'étape E3, l'image de façade IO est associée à plus d'images de textures de fond: par exemple on associe à chaque étage de l'image de façade IO une image de texture de fond.The facade image IO is associated in this embodiment with two background texture images, one for the ground floor and the other for the upper floors. Each of these texture images are classified, at the end of step E6, in a very similar class of background texture images represented by the image of the center of this class. Similarly, façade elements extracted in step E5 are classified into classes each represented by a very similar façade element. Depending on the desired realism or the type of facade analyzed, for example if several color changes of the facade are detected in step E3, the facade image IO is associated with more images of background textures: for example one associates with each floor of the IO facade image a background texture image.
Enfin la septième étape E7 du procédé de modélisation selon l'invention est la modélisation de l'image de façade IO. Cette modélisation est par exemple la modélisation procédurale proposée dans la norme MPEG4, dans la partie "Animation Framework extension". Elle s'effectue par le remplissage de paramètres de modélisation définissant notamment:Finally, the seventh step E7 of the modeling method according to the invention is the modeling of the facade image IO. This modeling is for example the procedural modeling proposed in the MPEG4 standard, in the "Animation Framework extension" part. It is carried out by filling modeling parameters defining in particular:
- la position et la taille du rez-de-chaussée et des étages, - le nombre d'étages,- the position and size of the ground floor and floors, - the number of floors,
- pour chaque étage, le nombre et la position des cellules- for each floor, the number and position of the cells
- un numéro de classe associé à l'image de texture caractérisant les étages de l'image de façade IO,a class number associated with the texture image characterizing the stages of the IO facade image,
- un numéro de classe associé à l'image de texture caractérisant le rez- de-chaussée de l'image de façade IO,a class number associated with the texture image characterizing the ground floor of the IO facade image,
- pour chaque cellule, leur taille et un numéro de classe associé à un élément de façade éventuellement présent dans cette cellule, ainsi que sa position dans la cellule, sa taille, etc.for each cell, their size and a class number associated with a facade element possibly present in this cell, as well as its position in the cell, its size, etc.
Le serveur SERV de données de visualisation d'une ville est connecté à des terminaux clients par un réseau de communication RES, représenté à la figure 8. Lorsqu'un utilisateur navigue virtuellement dans la ville à l'aide d'un navigateur sur un terminal distant T relié au serveur SERV par le réseau RES, le terminal T demande au serveur SERV, par une requête REQ de données de visualisation, la transmission de données à afficher correspondant à l'endroit où se trouve virtuellement l'utilisateur dans la ville. Le serveur SERV envoie alors au terminal T une réponse REP contenant des données de façades à afficher. Ces données comportent les modèles procéduraux des façades à visualiser, et tout ou partie du catalogue d'éléments de façade et de textures de fond. Le signal d'information transportant les données de la requête REP est donc beaucoup plus compact que s'il fallait transmettre les images réelles des façades, et permet une reconstruction de bonne résolution et similaire aux façades d'origine. The server SERV of visualization data of a city is connected to client terminals by a communication network RES, represented in FIG. 8. When a user navigates virtually in the city using a browser on a terminal remote T connected to the server SERV by the network RES, the terminal T asks the server SERV, by a query REQ visualization data transmission to display corresponding to the location where the user is virtually in the city. The SERV server then sends the terminal T a REP response containing data facades to display. These data include the procedural models of the facades to be viewed, and all or part of the catalog of facade elements and background textures. The information signal conveying the data of the REP request is therefore much more compact than if it were necessary to transmit the real images of the facades, and allows a reconstruction of good resolution and similar to the original facades.

Claims

REVENDICATIONS
1. Procédé d'analyse d'une image (IO) contenant des éléments unitaires à détecter, alignés suivant deux directions horizontale et verticale, comportant les étapes de:A method of analyzing an image (IO) containing unitary elements to be detected, aligned in two horizontal and vertical directions, comprising the steps of:
- Détection (ai ) de contours et obtention d'une image de contours (IC), - Calcul (a3) d'un histogramme selon une direction verticale ou horizontale, représentatif de ladite image de contours (IC), appelé respectivement histogramme de contours verticaux (HHY) ou histogramme de contours horizontaux (HVX), ledit procédé étant caractérisé en ce qu'il comporte les étapes supplémentaires de:- Detection (ai) of contours and obtaining an outline image (IC), - Calculation (a3) of a histogram in a vertical or horizontal direction, representative of said contour image (IC), respectively called contour histogram vertical (HHY) or horizontal contour histogram (HVX), said method being characterized in that it comprises the additional steps of:
- Calcul (a4) d'une image d'appartenance au fond (IAF) correspondant aux distances entre les couleurs des pixels de ladite image (IO) contenant des éléments unitaires à détecter et une couleur moyenne de fond correspondant à une couleur uniformément répartie dans une zone de ladite image (IO) contenant des éléments unitaires à détecter,Calculation (a4) of a background image (IAF) corresponding to the distances between the colors of the pixels of said image (IO) containing unit elements to be detected and a mean background color corresponding to a uniformly distributed color in an area of said image (IO) containing unitary elements to be detected,
- Calcul (a5) d'un histogramme selon une direction verticale ou horizontale, représentatif de ladite image d'appartenance au fond (IAF), appelé respectivement histogramme de fond vertical (HFY) ou histogramme de fond horizontal (HFX),Calculating (a5) a histogram in a vertical or horizontal direction, representative of said background membership image (IAF), respectively called vertical background histogram (HFY) or horizontal background histogram (HFX),
- Fusion (a6) dudit histogramme de fond vertical (HFY) ou horizontal (HFX) avec respectivement ledit histogramme de contours verticaux (HHY) ou ledit histogramme de contours horizontaux (HVX), en un histogramme appelé respectivement histogramme de fenêtre vertical ou histogramme de fenêtre horizontal. - Merging (a6) of said vertical (HFY) or horizontal (HFX) vertical histogram with respectively said vertical contour histogram (HHY) or said horizontal contour histogram (HVX), in a histogram respectively called vertical window histogram or histogram of horizontal window.
2. Procédé d'analyse d'une image (1O) selon la revendication 1 , caractérisé en ce que dans l'étape de fusion (a6) l'histogramme de fond vertical (HFY) ou horizontal (HFX) est multiplié respectivement par l'histogramme de contours verticaux (HHY) ou horizontaux(HVX).2. An image analysis method (1O) according to claim 1, characterized in that in the melting step (a6) the vertical (HFY) or horizontal (HFX) vertical histogram is multiplied by 1 histogram of vertical (HHY) or horizontal (HVX) contours.
3. Procédé d'analyse d'une image (IO) selon la revendication 1 ou 2, comportant en outre une étape de détection (E3) de changement de couleur vertical ou horizontal, permettant de séparer respectivement l'histogramme de fenêtre vertical ou l'histogramme de fenêtre horizontal en deux sous- histogrammes chacun représentatif d'une couleur de ladite image (IO) contenant des éléments unitaires à détecter.The method of analyzing an image (IO) according to claim 1 or 2, further comprising a step of detecting (E3) vertical or horizontal color change, for respectively separating the vertical window histogram or the horizontal window histogram in two sub-histograms each representative of a color of said image (IO) containing unitary elements to be detected.
4. Procédé d'analyse d'une image (IO) selon l'une quelconque des revendications 1 à 3, dans lequel les histogrammes de contours verticauxAn image analysis method (IO) according to any one of claims 1 to 3, wherein the histograms of vertical contours
(HHY) ou horizontaux (HVX) sont obtenus après un filtrage respectivement horizontal ou vertical de ladite image de contours (IC).(HHY) or horizontal (HVX) are obtained after respectively horizontal or vertical filtering of said contour image (IC).
5. Procédé d'analyse d'une image (IO) selon les revendications 3 et 4, dans lequel l'étape de détection (E3) de changement de couleur vertical comporte les étapes de:The method of analyzing an image (IO) according to claims 3 and 4, wherein the step of detecting (E3) vertical color change comprises the steps of:
- Transformation (b1 ) de Hough d'une image des luminances (IL) de ladite image (IO) contenant des éléments unitaires à détecter, - Calcul (b2) d'un histogramme selon une direction verticale, représentatif de l'image résultante (ITH) de ladite transformation, appelé histogramme de Hough vertical (HTH),- Hough transformation (b1) of a luminance image (IL) of said image (IO) containing unit elements to be detected, - Calculation (b2) of a histogram in a vertical direction, representative of the resulting image ( ITH) of said transformation, called vertical Hough histogram (HTH),
- Calcul (b3) d'un histogramme appelé histogramme de rez-de- chaussée par combinaison linéaire dudit histogramme de fond vertical (HFY), dudit histogramme de Hough verticalCalculating (b3) a histogram called a ground floor histogram by linear combination of said vertical bottom histogram (HFY), said histogram of vertical Hough
(HTH), dudit histogramme de contours verticaux (HHY), et d'un histogramme (HVY) selon une direction verticale représentatif de ladite image de contours filtrée verticalement (IFV).(HTH), of said histogram of vertical contours (HHY), and a histogram (HVY) in a vertical direction representative of said vertically filtered contour image (IFV).
6. Procédé d'analyse d'une image (IO) selon la revendication 5, dans lequel l'étape de calcul (b3) dudit histogramme de rez-de-chaussée utilise la formule suivante:An image analysis method (IO) according to claim 5, wherein the step of calculating (b3) said ground floor histogram uses the following formula:
HRDC (y) = 3 - Hn ( y) + 2 • Hι γ (y) + Hn (y) - H m (y) OÙ - HRDC(y) est la valeur dudit histogramme de rez-de-chaussée en une variable y de ligne de ladite image (IO),H RDC (y) = 3 - H n (y) + 2 • H ι γ (y) + H n (y) - H m (y) OÙ - H RDC (y) is the value of said ground level histogram -shipped in a variable y of line of said image (IO),
- HFY(y) est la valeur dudit histogramme de fond vertical (HFY) en ladite variable y,- H FY (y) is the value of said vertical bottom histogram (HFY) in said variable y,
- H (y) est la valeur dudit histogramme (HVY) représentatif de ladite image de contours filtrée verticalement (IFV), selon une direction verticale, en ladite variable y,- H (y) is the value of said histogram (HVY) representative of said vertically filtered contour image (IFV), in a vertical direction, in said variable y,
- Hm(y) est la valeur dudit histogramme de Hough vertical (HTH) en ladite variable y,H m (y) is the value of said vertical Hough histogram (HTH) in said variable y,
- et H HY (y) est la valeur dudit histogramme de contours verticaux (HHY) en ladite variable y.and H HY (y) is the value of said histogram of vertical contours (HHY) in said variable y.
7. Procédé d'analyse d'une image (IO) selon l'une quelconque des revendications 1 à 6, dans lequel on calcule à la fois un histogramme de fenêtre horizontal et un histogramme de fenêtre vertical, caractérisé en ce qu'il comporte les étapes supplémentaires de:7. A method of analyzing an image (IO) according to any one of claims 1 to 6, wherein one calculates both a horizontal window histogram and a vertical window histogram, characterized in that it comprises the additional steps of:
- segmentation (E4) de ladite image (IO) contenant des éléments unitaires à détecter en cellules comportant chacune un desdits éléments unitaires de ladite image (IO), par analyse desdits histogrammes de fenêtre horizontal et vertical, - détection (E5) desdits éléments unitaires par utilisation d'un processus de croissance de régions rectangulaires utilisant ladite image d'appartenance au fond (IAF) et ladite image de contours (IC).segmentation (E4) of said image (IO) containing unitary elements to be detected in cells each comprising one of said unitary elements of said image (IO), by analysis of said horizontal and vertical window histograms, detecting (E5) said unitary elements by using a rectangular region growth process using said background membership image (IAF) and said contour image (IC).
8. Procédé d'analyse d'une image (1O) selon la revendication 7, dans lequel l'étape de segmentation (E4) en cellules utilise un filtrage fréquentiel d'au moins un desdits histogrammes de fenêtre horizontal et vertical.The image analysis method (10) of claim 7, wherein the cell segmentation step (E4) uses frequency filtering of at least one of said horizontal and vertical window histograms.
9. Procédé de modélisation d'une image (IP) contenant des éléments unitaires à détecter, comportant les étapes de:An image modeling method (IP) containing unitary elements to be detected, comprising the steps of:
- transformation (E1) perspective inverse de ladite image (IP),transformation (E1) inverse perspective of said image (IP),
- analyse (E2, E3, E4, E5) de ladite image ainsi transformée (IO) selon l'une quelconque des revendications 1 à 8,- analyzing (E2, E3, E4, E5) of said image thus transformed (IO) according to any one of claims 1 to 8,
- classification (E6) des éléments de ladite image, détectés à l'issue de ladite analyse (E2, E3, E4, E5), et des textures de fond de ladite image, à partir d'un catalogue d'éléments unitaires et de textures de fond,classification (E6) of the elements of said image, detected at the end of said analysis (E2, E3, E4, E5), and background textures of said image, from a catalog of unitary elements and background textures,
- modélisation (E7) de ladite image (IP) à partir dudit catalogue.modeling (E7) of said image (IP) from said catalog.
10. Dispositif (SERV) comportant des moyens adaptés à mettre en œuvre l'un des procédés selon l'une quelconque des revendications 1 à 9.10. Device (SERV) comprising means adapted to implement one of the methods according to any one of claims 1 to 9.
11. Système de modélisation d'une image (IP) contenant des éléments unitaires à détecter comportant:An image modeling system (IP) containing unitary elements to be detected comprising:
- des moyens d'analyse d'image mettant en œuvre le procédé d'analyse selon l'une quelconque des revendications 1 à 8,image analysis means implementing the analysis method according to any one of claims 1 to 8,
- et des moyens de classification d'éléments unitaires et de textures de fond.and means for classifying unitary elements and background textures.
12. Signal représentatif de données de visibilité, transportant un modèle d'image obtenu par analyse d'une image (IO) contenant des éléments unitaires alignés suivant deux directions horizontale et verticale, ladite analyse ayant donné lieu à l'obtention d'une image de contours (IC) et d'histogrammes de contours horizontaux (HVX) et verticaux (HHY), représentatifs de ladite image de contours selon une direction respectivement horizontale et verticale, ledit signal étant caractérisé en ce qu'une image d'appartenance au fond (IAF) ayant été calculée à partir de ladite image structurée, et des histogrammes dits de fond vertical (HFY) et horizontal (HFX) représentatifs de ladite image d'appartenance au fond (IAF) selon une direction respectivement verticale et horizontale ayant été calculés, ladite analyse utilise une fusion dudit histogramme de fond vertical (HFY) avec ledit histogramme de contours verticaux (HHY) et dudit histogramme de fond horizontal (HFX) avec ledit histogramme de contours horizontaux (HVX).12. Representative visibility data signal, carrying an image analysis (IO) image model containing unit elements aligned in two horizontal and vertical directions, said analysis giving rise to an image of contours (IC) and histograms of horizontal (HVX) and vertical (HHY) contours, representative of said contour image in a respectively horizontal and vertical direction, said signal being characterized in that a background image (IAF) having been calculated from said structured image, and so-called vertical (HFY) and horizontal (HFX) histograms representative of said background image (IAF) ) in a respectively vertical and horizontal direction having been calculated, said analysis uses a merge of said vertical background histogram (HFY) with said vertical contour histogram (HHY) and said horizontal background histogram (HFX) with said histogram of horizontal contours ( HVX).
13. Programme d'ordinateur comportant des instructions pour mettre en œuvre l'un des procédés selon l'une quelconque des revendications 1 à 9, lorsqu'il est exécuté sur un ordinateur. A computer program comprising instructions for implementing one of the methods according to any one of claims 1 to 9 when executed on a computer.
PCT/FR2007/052570 2006-12-21 2007-12-19 Methods for the analysis and modelling of an image containing unit elements to be detected, and corresponding system and device WO2008093029A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0655797A FR2910674A1 (en) 2006-12-21 2006-12-21 Building's frontage structured image analyzing method, involves merging vertical or horizontal basic histogram with vertical or horizontal contour histogram, in vertical window histogram or horizontal window histogram
FR0655797 2006-12-21

Publications (2)

Publication Number Publication Date
WO2008093029A2 true WO2008093029A2 (en) 2008-08-07
WO2008093029A3 WO2008093029A3 (en) 2009-07-23

Family

ID=38516148

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2007/052570 WO2008093029A2 (en) 2006-12-21 2007-12-19 Methods for the analysis and modelling of an image containing unit elements to be detected, and corresponding system and device

Country Status (2)

Country Link
FR (1) FR2910674A1 (en)
WO (1) WO2008093029A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354842A (en) * 2015-10-22 2016-02-24 武汉康美华医疗投资管理有限公司 Contour key point registration and identification method based on stable area
CN111597973A (en) * 2020-05-14 2020-08-28 大连工业大学 Method for detecting adulteration of qualified salted sea cucumbers by using machine vision

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2939915B1 (en) 2008-12-12 2011-01-14 Essilor Int PROCESS FOR PREPARING AN OPHTHALMIC LENS FOR MOUNTING ON A CAMBREE GOGGLE FRAME

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LAYCOCK, R.G. DAY, A.M.: "Automatic techniques for texture mapping in virtual urban environments" COMPUTER GRAPHICS INTERNATIONAL, 2004. PROCEEDINGS, juin 2004 (2004-06), pages 586-589, XP002452902 *
PAVLIDIS T ET AL: "PAGE SEGMENTATION AND CLASSIFICATION" CVGIP GRAPHICAL MODELS AND IMAGE PROCESSING, ACADEMIC PRESS, DULUTH, MA, US, vol. 54, no. 6, 1 novembre 1992 (1992-11-01), pages 484-496, XP000332317 ISSN: 1077-3169 *
R. G. LAYCOCK, A. M. DAY: "Image Registration in a Coarse Three-Dimensional Virtual Environment" COMPUTER GRAPHICS FORUM, vol. 25, no. 1, mars 2006 (2006-03), pages 69-82, XP002452895 *
SUNG CHUN LEE ET AL: "Extraction and integration of window in a 3D building model from ground view images" COMPUTER VISION AND PATTERN RECOGNITION, 2004. CVPR 2004. PROCEEDINGS OF THE 2004 IEEE COMPUTER SOCIETY CONFERENCE ON WASHINGTON, DC, USA 27 JUNE - 2 JULY 2004, PISCATAWAY, NJ, USA,IEEE, vol. 2, 27 juin 2004 (2004-06-27), pages 113-120, XP010708848 ISBN: 0-7695-2158-4 cité dans la demande *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354842A (en) * 2015-10-22 2016-02-24 武汉康美华医疗投资管理有限公司 Contour key point registration and identification method based on stable area
CN105354842B (en) * 2015-10-22 2017-12-29 武汉康美华医疗投资管理有限公司 A kind of profile key point registration and identification method based on stability region
CN111597973A (en) * 2020-05-14 2020-08-28 大连工业大学 Method for detecting adulteration of qualified salted sea cucumbers by using machine vision

Also Published As

Publication number Publication date
FR2910674A1 (en) 2008-06-27
WO2008093029A3 (en) 2009-07-23

Similar Documents

Publication Publication Date Title
Zhu et al. Haze removal method for natural restoration of images with sky
Li et al. Reconstructing building mass models from UAV images
US8755628B2 (en) Image de-hazing by solving transmission value
EP3707676B1 (en) Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program
US8798965B2 (en) Generating three-dimensional models from images
WO2018145470A1 (en) Image detection method and device
US11651477B2 (en) Generating an image mask for a digital image by utilizing a multi-branch masking pipeline with neural networks
US20140063275A1 (en) Visual saliency estimation for images and video
Hassan et al. Real-time image dehazing by superpixels segmentation and guidance filter
US11393100B2 (en) Automatically generating a trimap segmentation for a digital image by utilizing a trimap generation neural network
Zheng et al. Single image cloud removal using U-Net and generative adversarial networks
EP2637126B1 (en) Method and apparatus for detecting vehicle
CN111797712A (en) Remote sensing image cloud and cloud shadow detection method based on multi-scale feature fusion network
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
WO2023273011A1 (en) Method, apparatus and device for detecting object thrown from height, and computer storage medium
Wang et al. Haze removal algorithm based on single-images with chromatic properties
Singh et al. Visibility enhancement and dehazing: Research contribution challenges and direction
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
Zhao et al. Image dehazing based on haze degree classification
CN108647605B (en) Human eye gaze point extraction method combining global color and local structural features
WO2008093029A2 (en) Methods for the analysis and modelling of an image containing unit elements to be detected, and corresponding system and device
CN113421210A (en) Surface point cloud reconstruction method based on binocular stereo vision
CN115294162A (en) Target identification method, device, equipment and storage medium
Zhang et al. A multi-cues based approach for visual saliency detection
Ajay et al. Application of Image Processing Techniques for Pothole Detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07871983

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07871983

Country of ref document: EP

Kind code of ref document: A2