WO2014013064A1 - Procede de determination de parametres d'observation d'une surface d'eau par imagerie - Google Patents

Procede de determination de parametres d'observation d'une surface d'eau par imagerie Download PDF

Info

Publication number
WO2014013064A1
WO2014013064A1 PCT/EP2013/065324 EP2013065324W WO2014013064A1 WO 2014013064 A1 WO2014013064 A1 WO 2014013064A1 EP 2013065324 W EP2013065324 W EP 2013065324W WO 2014013064 A1 WO2014013064 A1 WO 2014013064A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation
image
water surface
reference points
coordinates
Prior art date
Application number
PCT/EP2013/065324
Other languages
English (en)
Inventor
Georges-Marie SAULNIER
Guillaume FOURQUET
Original Assignee
Université de Savoie
Centre National De La Recherche Scientifique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Université de Savoie, Centre National De La Recherche Scientifique filed Critical Université de Savoie
Priority to EP13739696.6A priority Critical patent/EP2875316B1/fr
Publication of WO2014013064A1 publication Critical patent/WO2014013064A1/fr

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C13/00Surveying specially adapted to open water, e.g. sea, lake, river or canal
    • G01C13/002Measuring the movement of open water
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/22Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water
    • G01F23/28Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water by measuring the variations of parameters of electromagnetic or acoustic waves applied directly to the liquid or fluent solid material
    • G01F23/284Electromagnetic waves
    • G01F23/292Light, e.g. infrared or ultraviolet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Definitions

  • the invention relates to a method for determining a water surface by imaging. More particularly, this method applies to the estimation of the level of a river as well as the estimation of its surface velocities in the context of river monitoring.
  • the river is a natural environment that can become extremely dangerous in times of flood. These periods are characterized by a rise in the river's water, caused by particular climatic and meteorological events.
  • the most devastating floods can cause considerable loss of life and property losses. Also, it is essential to be able to monitor the state of the rivers and to be able to warn the competent authorities in case of danger. Also monitoring of the hydrological regimes for the management of the water resource, especially in the context of climate change, requires monitoring the state of the rivers since the low water level, that is to say their lowest level, until at high water.
  • the parameters of the rivers to be monitored include the level as well as the surface velocities of the river.
  • the float is known which, associated with a set of pulleys and counterweights, moves in solidarity with the surface of the river.
  • the floats do not measure the surface speed of the river.
  • the installation and maintenance of this type of sensors are difficult and expensive.
  • electron probe floats or ultrasonic sensors are known. Also, these sensors measure only the height of water. They do not allow more control of the water level in real time situation.
  • intrusive sensors may be washed away and / or deteriorated during floods.
  • Digital imaging systems are known, for example cameras or cameras, attached to a structure, such as a pillar or a tree, and monitoring the evolution of the water level of a river. These devices require the presence of structural landmarks, such as a bank, a bridge pillar or a partially immersed graduated scale, in the field of the camera.
  • An algorithm is used to determine the intersection between the river and the structural landmark. This algorithm is based on the difference in brightness between the surface of the water surface and the brightness of the structural reference.
  • a disadvantage of this solution is that it requires the establishment of a luminosity threshold to distinguish the river from the structural reference point.
  • the luminosity of the water surface varies with the weather conditions, the time of day and the observation site. It is therefore difficult to establish a single threshold of brightness to distinguish the river accurately in any light condition.
  • the invention therefore aims to at least partially overcome the disadvantages of the prior art by providing a method for accurately determining the level of a water surface and its surface velocities.
  • the method is also easily adaptable depending on the geographical sites to be monitored and the means of shooting.
  • the subject of the invention is a method for determining an observation parameter associated with a surface of water by imaging, comprising the following steps:
  • o reference points are distributed on an observation site, said observation site comprising a surface of water, at least one permanent structure and at least one visual support at least partially immersed in the water surface, said points references including material reference points present on the permanent structure and the visual medium,
  • An observation phase comprising the following steps:
  • At least one observation image of the observation site is captured
  • a mathematical model is established making it possible to determine the image coordinates of an object comprised on the observation site, from geographic coordinates of said object, by virtue of the reference reference geographical coordinates, to the respective reference image coordinates of said points of reference; reference and to respective observation image coordinates of said reference points on the observation image,
  • the image coordinates of observation of the level of the water surface at the location of the at least one visual support on the observation image are established using visual support
  • the mathematical model is used with the image coordinates of observation of the water surface on the observation image to determine at least one observation parameter of the water surface
  • the invention makes it possible to improve the accuracy and / or the robustness of the results in a simple way.
  • the device for implementing the method can be placed at a distance from the surface of the water, thus, it is not likely to be degraded by water in case of floods.
  • the water surface is determined by colorimetry of the pixels.
  • the observation phase comprises an additional step in which:
  • the mathematical model is established from the reference geographical coordinates of said material reference points and said immaterial reference points, and from their respective corrected image coordinates.
  • the observation parameters comprise at least one parameter among the level of the water surface and the surface velocities of the water surface.
  • the image observation coordinates of the water surface at the location of the at least one visual medium are established as corresponding to the observation image coordinates of the actual intersection between the visual medium. and the water surface.
  • the determination of the actual intersection between the visual medium and the water surface comprises the following steps:
  • a plurality of possible intersections between the visual medium and the water surface are determined by analyzing the value of at least one parameter associated with the pixels representing an area of the image comprising at least the visual medium and part of the water surface,
  • the contours of the visual medium are determined by analyzing the value of at least one other parameter associated with the pixels representing an area of the image comprising at least the visual medium and a part of the surface of water,
  • the real intersection is determined as corresponding to both a possible intersection and a discontinuity of the contours of the visual medium.
  • At least one surface velocity is calculated from a first observation image and a second observation image, by estimating the displacement of at least one tracer on the surface of the water surface between said first observation image and said second observation image, and from a time interval between the capture of said first observation image and said second observation image.
  • the displacement of the tracer is determined by velocimetry by particle imaging.
  • the determination method comprises the following steps:
  • the value of at least one parameter associated with the pixels of the composite image is compared with a threshold of variation of the value of said parameter
  • Areas of the composite image defined by the pixels whose value of at least one parameter is greater than said threshold of variation of the value of said parameter are conserved; the zones of the composite image that are conserved are called moving zones;
  • the surface velocities of the tracers are determined from said moving zones.
  • the determination of at least one surface speed comprises an additional step in which a first image scaled from the first observation image and a second scaled image from the second observation image on which all the pixels represent the same geographic area.
  • the subject of the invention is also a system for determining an observation parameter associated with a water surface, for implementing a method for determining an observation parameter associated with a surface of water imaging as defined above,
  • a shooting device configured to capture data relating to an observation site comprising the water surface, said data comprising:
  • At least one observation image of the observation site comprising the water surface, at least one permanent structure and at least one visual medium at least partially immersed in the water surface, and
  • At least one reference image of the observation site comprising material and immaterial reference points, said material reference points being present on the permanent structure and on the visual medium, and the position of at least one immaterial reference point being indicated by means of at least one temporary structure on the remote observation site of the permanent structure and away from the visual medium, ⁇ means for determining geographical coordinates referencing said physical reference points and said reference points immaterial,
  • Data processing means configured for:
  • the camera is a digital camera.
  • FIG. 1 represents the division into pixels of an image captured by a camera
  • FIG. 2 schematizes the mathematical model for forming a two-dimensional image from a three-dimensional scene
  • FIG. 3a represents a first captured image for calculating the speed of movement of an object thanks to particle imaging velocimetry
  • FIG. 3b shows a second captured image for calculating the speed of movement of an object using particle imaging velocimetry
  • FIG. 4 schematizes an initialization step of the method
  • FIG. 5 represents a site to be monitored on which reference points for the georeferencing appear
  • FIG. 6 schematizes steps of the determination method
  • FIG. 7 schematizes a step of determining the level of a surface of water
  • FIG. 8a represents an observation image on which an individual displacement of reference points is indicated
  • FIG. 8b represents the observation image of FIG. 8a on which an overall displacement of the reference points is indicated
  • FIG. 9a shows part of the observation image of FIG. 8a in which an image position as a first approximation of a visual support is indicated
  • FIG. 9b represents a part of the observation image of FIG. 8a. on which a corrected image position of the visual support of Figure 9a is indicated
  • FIG. 10a represents a part of the observation image of FIG. 8a on which the possible intersections between the visual support of FIG. 9a and the surface of water are indicated
  • FIG. 10b represents a part of the observation image of FIG. 8a on which the contours of the visual support of FIG. 9a as well as the possible intersections between the visual support of FIG. 9a and the surface of water,
  • FIG. 10c represents a part of the observation image of FIG. 8a on which the final choice of the intersection between the visual support of FIG. 9a and the water surface
  • FIG. 11 schematizes a step of determination of surface velocities of the water surface
  • Figure 12 shows a site to watch and highlights the distances between different elements
  • FIG. 13 represents a scaled image of a part of the image of FIG. 8a as well as its division into pixels
  • FIG. 14a represents a first observation image comprising a tracer used in the estimation of surface velocities
  • FIG. 14b represents a second image comprising the tracer captured after the image of FIG. 9a and being used with the latter in the estimation of surface velocities
  • FIG. 14c represents a composite image obtained by subtracting the images represented by FIGS. 14a and 14b as a function of a color difference threshold
  • FIG. 14d represents a composite image obtained by subtracting the images represented by FIGS. 14a and 14b by function of a higher color difference threshold than that used for Figure 14b
  • Figure 15 shows a scaled image and the surface velocities of the estimated water surface.
  • the invention relates to a method for determining parameters of observation of a water surface by imaging.
  • a determination system comprises a shooting device, means for determining geographical coordinates reference point reference, data transmission means and data processing means.
  • the camera is capable of capturing data from an observation site comprising a water surface, the data includes images of the observation site.
  • the camera preferably comprises a digital camera (APN) as commercially available.
  • APN digital camera
  • the camera includes a digital camera instead of ⁇ .
  • the camera is configured to capture images at a frequency chosen by the user. In the case of using the digital camera, shooting can be done continuously.
  • the determination system also comprises means for determining geographic coordinates reference point references.
  • These reference geographical coordinate determining means comprise, for example, reference point indicating means, for example reflective targets able to indicate the position of a reference point on the observation site or for example easily recognizable points ( roof corner, building edge). These targets are also able to be arranged or present on the one hand on a permanent structure of the observation site, such as a bridge, thus indicating the position of a material reference point. On the other hand, the reflective targets are able to be arranged on a temporary structure, such as a beacon, thus indicating an immaterial reference point. On the other hand, recognizable targets are already present or newly arranged on the site. This will be described in detail later.
  • These coordinate determining means also comprise means for measuring geographical coordinates, for example a theodolite or a lidar.
  • the determination system comprises data transmission means able to transmit the data captured by the camera to the data processing means.
  • the data transmission is done over the Internet.
  • the data transmission means comprise, for example, an antenna fitted to the camera and configured to use the wireless network, or a cable in the context of a wireless transmission.
  • the data transmission is via the telephone network.
  • the camera can be integrated into a mobile phone or a microcomputer able to use the telephone network.
  • the data transmission takes place when a user comes to the site to retrieve the data.
  • the determination system also comprises means for storing data on the site, for example a memory card of the camera. These means of storing data on the site are accessible to users moving on the site.
  • the determination system also includes data processing means configured to process the transmitted data.
  • the data processing means comprise for example a computer and data processing algorithms.
  • the data processing algorithms are capable of determining a water surface height and surface velocities of the water surface, as well as making corrections to the transmitted data to improve the accuracy of the results.
  • the data processing means are, inter alia, configured to determine reference image coordinates of the material reference points and the immaterial reference points.
  • the data processing means are also configured to determine a mathematical model for calculating image coordinates from geographic coordinates of an object on the observation site by using the reference geographic coordinates and the reference reference reference coordinates coordinates. material and intangible reference points. This will be described in detail later.
  • Figure 1 shows an image 1 of an observation site captured by the camera. This image is a mosaic whose substantially square divisions are called pixels 3.
  • Each pixel 3 is characterized by its position on the image.
  • Figure 1 illustrates the image mark ( ⁇ ', I, J).
  • the position of a pixel 3 is expressed according to image coordinates (i, j) which may for example correspond to the line number (i) and the column number (j)
  • the origin O 'of the image reference ( ⁇ ', I, J) is conventionally chosen in the lower left corner of image 1.
  • the pixels 3 represented are not scaled with the image 1, in reality, there are several hundreds or even thousands of pixels 3 according to the width and the height of the image 1.
  • the first type of information is the image 1 itself, containing information relating to the desired measurements: the position of a pixel 3 and its colorimetric information.
  • the second type of information comes from a mathematical model that makes it possible to calculate the image position on image 1 of an object from its geographical coordinates in the world. Subsequently, the adjective "image” will qualify the characteristics of an image 1 captured by the camera. The adjective “geographical” will qualify the characteristics of the real world.
  • the determination method comprises on the one hand a referencing phase during which reference points are used in order to establish a reference correspondence between the position of an object situated on the site to be monitored and its position on a reference image. .
  • the determination method comprises an observation phase in which images of the site to be monitored are captured and processed using the reference correspondence, in order to determine the level of the water surface and advantageously its surface velocities.
  • the pixels 3 comprise the basic information provided by the camera disposed at the observation site.
  • the first information provided by a pixel 3 is light information. Indeed, each pixel 3 comprises a light information received by at least one light sensor.
  • a pixel 3 comprising three or four sensors gives a colorimetric luminous information. We thus obtain a picture 1 in color.
  • a pixel comprising a single sensor gives information comprising a single shade more or less bright. For example, a grayscale image is obtained.
  • the sensors are for example photodiodes sensitive to different wavelengths.
  • the determination of the water surface level 5 is based on the distinction on an image 1 of the intersection between the surface of the water surface 5 and at least one defined visual medium 7.
  • this distinction is made by detecting the colorimetric variation of the pixels 3 on the visual medium 7.
  • the visual medium 7 comprises a portion immersed in the water surface 5 and a non-immersed part.
  • the color of the immersed part is substantially homogeneous, whereas the immersed part is not visible with such a process because it is under the surface of water 5.
  • the colorimetric characteristics of the visual medium 7 have a discontinuity with the surface 5 which is detectable to the naked eye and by the camera.
  • the method of determining the level of the water surface highlights this colorimetric discontinuity.
  • the color of the visual medium 7 does not affect the method for estimating the level of the water surface 5.
  • colorimetry is particularly suitable for outdoor shooting in variable light conditions because it does not require the use of brightness threshold.
  • the process is therefore easily adaptable to all kinds of sites to watch, in all weather conditions and at any time of the day.
  • the colors come from a coding of several numerical parameters. Several types of coding are discernible.
  • a first type of coding is for example derived from an additive synthesis such as the RGB (of the English “Red Green Blue”) where are added several intensities of base units, in order to create a color.
  • the base units include three primary colors: red, green, and blue.
  • This coding also defines the K standard of a color that accounts for the luminous intensity received by a pixel.
  • the norm K is obtained according to equation (1):
  • K ⁇ R 2 + G 2 + B 2 (1)
  • R is the red intensity of the pixel
  • G is the green intensity of the pixel
  • B is the blue intensity of the pixel.
  • CMY Green Magenta Cyan
  • the determination method employs a plurality of codings in order to improve the accuracy of its results.
  • the determination method employs on the one hand, an HSV (Saturation Hue) coding
  • Luminance of the English "Hue Saturation Value” which is an additive-type coding. According to this coding, the hue represents pure colors ranging from red to green to blue. Saturation is a quantity of white, adding to the pure color and reflects the fact that the base color is more or less dull. Finally Luminance translates the general brightness of the color and quantifies the intensity of illumination.
  • HSV coding is particularly well suited for coding information from an outside medium, that is to say in uncontrolled illumination, with strong variations in light intensity during the day.
  • this coding the luminance directly accounts for the luminosity and thus makes it possible to compare the colors with each other by normalizing it.
  • This coding also makes it possible to avoid the problem of saturation of the intensities of the basic units.
  • the determination method also uses RGB coding.
  • the distinction between the visual medium and the water surface is detected by monitoring the brightness of the pixels of a grayscale image.
  • each pixel 3 is characterized by its position on the image 1 of the camera. By determining the pixels 3 corresponding to the surface of the water surface 5, it is therefore possible to define the level of the water surface 5.
  • the distances in the image 1 are expressed in pixels 3, in order to establish the geographical level of the water surface 5, these distances must be converted into metric units. For this, we match pixel distances with metric distances. For example, one can match the image size of an object measured in pixels on the two-dimensional image (2D) with its geographic size, for example measured with a meter in a three-dimensional (3D) site. This correspondence makes it possible to establish a mathematical model 911 realizing the conversion in a systematic way.
  • This mathematical model 911 is shown diagrammatically in FIG. 2. Any point A has geographical coordinates (x, y, z) defined in a geographical coordinate system (O, X, Y, Z) located in the 3D scene W. Said point Any A has a corresponding point image a having image coordinates (i, j) defined in an image reference (O ', I.J) located on the image.
  • the mathematical model 911 makes it possible to express the image coordinates (i, j) of the corresponding point image a as a function of the geographical coordinates (x, y, z) of any point A, and of a plurality of parameters specific to the geometry of the field of view and the camera.
  • the mathematical model 911 is based on eleven transformation parameters nti j .
  • the transformation parameters nti j comprise firstly parameters dependent on the 3D scene W, for example the position of the camera with respect to the geographical reference (O, X, Y, Z). On the other hand, parameters dependent on the camera, for example its focal length.
  • the eleven transformation parameters nti j can be established by the knowledge of the geographic coordinates (x “, y", z n ) and the image coordinates (i ", j") respectively of a number N of particular points (n being a integer ranging from 1 to N).
  • N reference points are arranged in the 3D W scene.
  • a minimum of six reference points is required to establish the mathematical model. Indeed each point of reference makes it possible to write two equations. We thus obtain twelve equations to solve a system with eleven unknowns nti j .
  • the transformation parameters are calculated by correspondence of the geographical coordinates (x ", y", z n ) of the N reference points with their respective image coordinates (i “, j").
  • the experimental nature of the determination method results in a variation of the transformation parameters due to a variation of the parameters dependent on the scene in 3D W.
  • the camera can change position under the effect of the wind.
  • the distance of the geographical objects to the camera, the imperfection of this camera can also increase the inaccuracy and a variation of the transformation parameters dependent on the scene in 3D.
  • reference geographical coordinates (x “o, y” o, z n0 ) are determined for each of the N reference points, and reference image coordinates (i “o, j" o) for each of the N particular points. These reference coordinates will be used as standards for the following measurements.
  • the geographic coordinates (x "o, y" o, z n0 ) of these reference points are measured during a referencing step.
  • the respective reference image coordinates (i "o, j n o) are obtained from reference images captured by the camera during the referencing step.
  • the mathematical model 911 therefore makes it possible to calculate image coordinates (i, j) from geographical coordinates (x, y, z). To be able to compute geographic coordinates (x, y, z) from image coordinates (i, j), it suffices to calculate the inversion of the mathematical model 911 '.
  • the image coordinates (i, j) of the water surface established thanks to the colorimetry of the pixels and detected on the visual support (s), and other the inversion of the mathematical model making it possible to calculate the geographical coordinates (x, y, z) of the height of the level of the water surface from the image coordinates (i, j) of the water surface by means of the knowledge of the geographic coordinates of the visual support (s), the water surface level can be calculated in metric units.
  • the method co-calculates the coordinates of points on the visual medium for height measurements, and the coordinates of points on the water surface for surface velocity estimates.
  • b. Measurement of surface velocities In order to measure the surface velocities of the water surface, Particle Image Velocimetry (PIV) velocimetry is preferably used. In fact, the PIV has a very short calculation time and facilitates image processing algorithm development. In addition, the PIV offers good measurement accuracy. This method is therefore efficient and easy to implement.
  • PIV Particle Image Velocimetry
  • the principle of VIP is illustrated in Figures 3a and 3b.
  • the principle of the PIV consists in estimating the displacement of the different zones 9, 11 apparent on images by establishing a cross correlation between these images.
  • a first image of PIV PIV1 and a second image of PIV PIV2 are captured at a short time interval, for example 0.5 seconds.
  • the first image of PIV PIV1 is cut into portions called windows 13 which are represented by the squares in solid lines in FIG. 3a.
  • moving areas 9 for example the chairlift, which on the second image of PIV PIV2, represented by Figure 3b, have moved.
  • On the first image of PIV PIVl and the second image of PIV PIV2 also appear fixed areas 11, such as the mountain and the cottage.
  • the PIV technique measures displacements by "sliding" the windows 13 of the first image of PIV PIV1 onto portions of the same dimensions as the windows 13 of the second image of PIV PIV2. All displacements are envisaged.
  • drag is meant to match the windows 13 of the first image of PIV PIV1 with portions of the second image of PIV PIV2 of the same size.
  • An example window 13a of the first image of PIV PIV1 contains the entire chairlift.
  • the example window 13a appears in bold lines in FIG. 3a.
  • the chairlift is no longer fully included in the example window 13a, now represented in dashed lines.
  • the PIV looks for a portion of the second PIV PIV2 image of the same size as the example window 13a of the first PIVI image PIV1 and containing a maximum of information common to the example window 13a. That is to say, in the case of the example, the PIV looks for the part of the second image of PIV PIV2 containing the chairlift.
  • the PIV compares the information contained in the example window 13a of the first image of PIV PIV1 with the totality of the second image of PIV PIV2.
  • the common information content is quantized by a correlation calculation.
  • Plus part of the second image of PIV PIV2 contains common information with the example window 13a, and the higher the value of the correlation between the example window 13a and this part of the second image of PIV PIV2 is high.
  • a calculation of the sum of the squared deviations can be made in place of the correlation.
  • the result 13b window in solid line corresponds to the part of the second image of
  • PIV PIV2 most similar to the example window 13a.
  • the displacement is expressed by a displacement vector represented by an arrow in FIG. 3b.
  • This operation is repeated for all the windows 13 cut in the first image of PIV PW1 in order to define a displacement field whose density depends on the number of windows 13.
  • the speed of movement of each window 13 is deduced from the knowledge of the time separating the shooting of the first image of PIV PIV1 and the shooting of the second image of PIV PIV2.
  • the determination method comprises a referencing phase during which data are acquired which will subsequently be used to establish the mathematical model ⁇ IL
  • the determination method also comprises an observation phase in which the parameters of observation of the water surface are determined.
  • the referencing phase El takes place before the observation phase E2.
  • the referencing phase E1 comprises a plurality of steps shown schematically in FIG.
  • the observation site comprises a water surface 5, at least one permanent structure 15, for example a pre-existing structure on the site such as a bridge, or a measuring station, and minus a visual medium 7 partially immersed in the water surface 5.
  • a permanent structure for example a pre-existing structure on the site such as a bridge, or a measuring station, and minus a visual medium 7 partially immersed in the water surface 5.
  • the permanent structure 15 if the permanent structure 15 is partially immersed in the water surface 5 and if its shape is easily recognizable, then said permanent structure 15 can be used as a visual support 7, for example a partially immersed bridge pier can serve as visual support 7.
  • the visual support 7 may be distinct from the permanent structure 15, for example a test pattern standardized by the state hydrometric services.
  • reference points 19,21 are placed or points of the present references 19,21 are selected on the site to be monitored.
  • the mathematical model gives even more precise results when an object whose coordinates are to be determined is located near a reference point 19, 21.
  • the reference points 19, 21 are therefore distributed over a large area. geographical.
  • at least one reference point 19, 21 must be placed at a distance from the camera substantially different from the distance of the rest of the reference points. 21.
  • a reference point 19, 21 may be placed on the opposite side of the water surface 5.
  • the reference points 19, 21 are arranged on the one hand on the permanent structure 15 and on the visual medium 7, and on the other hand at a distance from said permanent structure 15 or said visual medium 7.
  • the reference points placed or present on the permanent structure 15 or on the visual medium 7 are called physical reference points 19 because their geographical position has a correspondence with a material object.
  • These material reference points 19 are arranged on “easily" distinguishable parts of the permanent structure 15.
  • the material reference point 19 is represented by a pixel having a strong colorimetric variation with the adjacent pixels.
  • the material reference points 19 may be arranged on a roof corner, a wall or a barrier stop. Once the georeferencing is complete, a sufficient number material reference points 19 will always be distinguishable.
  • the material reference points are arranged on permanent structures 15 that are supposed to be immobile. Thus, their position and consequently their geographical coordinates are supposed to be invariant in time.
  • Placing physical reference points 19 on the visual medium 7 makes it possible to accurately know the geographic coordinates and the image coordinates of said visual medium 7, and thus to obtain accurate water level level estimates.
  • the reference points placed at a distance from the permanent structure (s) are called intangible reference points.
  • the immaterial reference points are thus named because, unlike the physical reference points, they are not Permanent immaterial reference points 21 may for example be distributed on both sides of the water surface 5, for example on the banks of the water surface 5. Intangible reference points 21 may also be placed in the bed of the water surface 5 when it is low.
  • the reference points 19,21 are georeferenced, that is to say the geographical coordinates references (x "o, y" o, z n0 ) of the reference points 19,21 are determined in a coordinate system.
  • the device used for georeferencing is preferably the theodolite because it allows fast and accurate measurements.
  • Other devices are possible for georeferencing, for example GPS (Global Positioning System) or lidar.
  • the measurement consists in placing a reflective target on each reference point 19, 21 to be georeferenced.
  • the theodolite emits a light wave that is reflected by reflective targets.
  • the phase difference between the light wave emitted by the theodolite and the light wave reflected by the reflecting target makes it possible to measure the distance between the theodolite and the reflecting target.
  • a geographical reference O, XY, Z.
  • OX horizontal axis
  • OZ vertical axis
  • OY axis
  • the position of a material reference point 19 and the position of an immaterial reference point 21 are indicated at the same time on the site to be observed, and their geographical coordinates references (x "o, y "O, z n0 ) are georeferenced.
  • This embodiment therefore requires as many temporary structures 20 as intangible reference points 21.
  • ten immaterial reference points 21 can be georeferenced in the bed of the water surface 5.
  • the position of the material reference points 19 is indicated in a first step, and their respective geographical coordinates (x "o, y" o, z n0 ) are georeferenced. Then, in a second step, for example after several days, the position of the intangible reference points is indicated thanks to a temporary structure 20.
  • This embodiment also requires as many temporary structures 20 as intangible reference points 21.
  • Another embodiment differs from the two other embodiments in that the intangible reference points 21 are georeferenced one by one. In this case, only one temporary structure 20 is used which is moved in order to indicate the position of each immaterial reference point 21. d. El 03: Capturing a reference image
  • a reference image of the observation site containing all the material and immaterial reference points 21 can then be captured by the camera 23 during a reference image capture step E1O3.
  • the camera 23 captures a single reference picture having all the material and immaterial reference points 21.
  • the camera 23 captures on the one hand a reference image having only the material reference points 19.
  • the device Shooting 23 captures an additional reference image each time the position of an immaterial reference point 21 is indicated by a temporary structure 20.
  • each immaterial reference point 21 has been indicated at the same time, then in the end we have a first reference image and an additional reference image.
  • the user can determine the reference image coordinates (i "o, j" o) of all the points of reference. material 19 and intangible reference 21 from this single reference image.
  • the user determines the reference image coordinates (i " o, j "o) of all the material reference points 19 from this first reference image.
  • the reference image coordinates (i "o, j" o) of the immaterial reference points 21 are determined from the additional reference image.
  • the coordinates of the material and immaterial reference points are expressed in the same image coordinate system by manual or automatic repositioning of the two reference images.
  • the reference image coordinates (i "o, j" o) of the immaterial reference points 21 are respectively determined from the additional reference images.
  • the coordinates of the material and immaterial reference points are expressed in the same image coordinate system by manual or automatic repositioning of all the reference images.
  • the geographical coordinates references (x “o, y” o, z n0 ) and the reference image coordinates (i “o, j" o) established during the referencing phase are then used for the exploitation of all the subsequent images.
  • the use of temporary structures 20 to indicate the position of intangible reference points 21 makes it possible to increase the number of reference points 19, 21 and thus makes it possible to obtain more accurate and / or more robust results.
  • the observation phase E2 starts after the referencing phase E1, as shown diagrammatically in FIG. 6.
  • the observation phase comprises a step E20 for determining the level of the water surface and a step E30 for determining the surface velocities of the water surface.
  • observation phase E2 uses the geographic coordinates references (no, y n o, z “o) and the reference image coordinates (i" o, j “o) respectively of the material reference points 19 and immaterial 21 determined during the El phase of referencing.
  • the step E20 for measuring the level of the water surface comprises a plurality of steps shown diagrammatically in FIG. 7.
  • an observation image capture step E201 the camera captures an observation image of the site to be monitored.
  • the level of the water surface 5 is determined from a single observation image as will be detailed later.
  • E202 Data transmission During a data transmission step E202, the captured observation image is transmitted in order to be processed.
  • the observation image captured by the camera is transmitted in real time to a unit where the processing of the observation images will be performed.
  • the transmission of the observation image can be carried out over the Internet thanks to a Wifî or f lakeaire connection.
  • the transmission can also be carried out via the telephone network.
  • the transmission can also be performed via a computer placed on site and connected to the camera.
  • the observation image is stored in a memory of the camera, and is retrieved by a user moving on the observation site.
  • the image can also be stored in the device's memory.
  • the physical reference points 19, are immobile in the geographical reference (O, X, Y, Z), unlike their corresponding in the image frame ( ⁇ ', I, J).
  • the geographic coordinates (x ", y", z n ) of the material reference points 19 therefore remain always equal to the geographical coordinates references ( n o, y n o, z n o).
  • the observation image coordinates (i n , j n ) of the material reference points 19 vary on each observation image with respect to the reference image coordinates (i "o, j" o) of the same material reference points. 19 determined during the referencing phase.
  • FIG. 8a represents an observation image on which the reference position defined by the reference image coordinates (ino, jno) on the reference image of the material reference points 19 is indicated by triangles.
  • the term reference image is used for the image captured during the referencing phase comprising all the material reference points 19. According to the embodiment of the method, either the single reference image or the first image of the method is used. reference.
  • the observation position defined by the observation image coordinates (i n , j n ) on the observation image of the material reference points 19 is indicated by squares.
  • the movement of the physical reference points 19 between the reference image and the observation image is indicated by arrows.
  • observation image coordinates (i n , j n ) of the material reference points 19 on the observation image Looking for the observation image coordinates (i n , j n ) of the material reference points 19 on the observation image.
  • the reference image and the observation image are divided into a plurality of windows. For example squares of 32x32 pixels. Then, for each window of the reference image containing at least one material reference point 19, the algorithm looks in the observation image, the window resembling it the most, that is to say having the best correlation .
  • the PIV is repeated for all the material reference points 19, thus obtaining the individual displacement of each material reference point 19.
  • All material reference points 19 are not recognized with the same quality in the observation image. As a result, the value of the correlation is not the same depending on the reference points, this may be due to particular climatic constraints, such as the appearance of fog, shadows, or if the material reference point 19 is temporarily hidden.
  • the value of the correlation between the reference position and the observation position of the physical reference points 19 is compared with a previously fixed threshold. If the calculated correlation value is below this threshold, then the hardware reference point 19 has not been well recognized. If the value of the calculated correlation is greater or equal to this threshold, then the material reference point has been recognized. This minimum correlation threshold was set at 0.7.
  • the overall displacement corresponds to the individual displacement common to a majority of material reference points 19, ie the most frequently observed displacement, among the physical reference points 19 having a correlation greater than or equal to the minimum correlation threshold.
  • the global displacement is not calculated for this observation image. We can then use the global displacement established for a previous observation image.
  • the determination method imposes that the camera 23 remains perfectly immobile between the capture of the reference image and the capture of the observation image.
  • ⁇ E204 Correction of the displacement of the observation image
  • a correction is applied to the reference points 19, 21.
  • the correction consists in determining corrected image coordinates (i nc , j " c ) of the points of the image. reference, so that all the reference points 19, 21 have undergone the same overall displacement between the reference image and the observation image.
  • Figure 8b illustrates the overall displacement identified.
  • the reference position of the material reference points 19 defined by the reference image coordinates (i "o, j" o) is indicated by a triangle.
  • the arrows represent the overall displacement of the observation image with respect to the reference image.
  • the circles represent the corrected positions defined by the corrected image coordinates (i nc , j " c ) of the material reference points 19 computed by the global displacement.
  • the dotted squares represent the observation positions defined by the observation coordinates (i n , j n ) detected on the observation image.
  • the physical reference points 19 for which the individual displacement had provided poor positions on the observation image are circled.
  • the mathematical model is established allowing the passage of the geographical reference (O, X, Y, Z) to the image marker in the observation image ( ⁇ ', I, J) .
  • a step E206 for correcting the position of the visual medium 7 the position of the visual medium 7 is corrected.
  • the image position of the visual medium 7 in the observation image is calculated. This is illustrated by Figures 9a, 9b.
  • Figure 6a shows a portion of the viewing image as captured by the camera.
  • the visual support having been georeferenced during the referencing phase, the global displacement is used to find its image position in first approximation. This image position in first approximation is indicated in dashed lines in FIG. 9a.
  • a colorimetric analysis of the neighboring pixels is then carried out at the pixels determining the image position as a first approximation of the visual medium 7. For example, a zone in addition at least five pixels around the position of the visual medium 7 as a first approximation is analyzed.
  • the visual medium 7 has a color distinguishable from that of its neighboring environment.
  • the analysis preferably comprises calculating a plurality of color gradients between adjacent pixels.
  • the analysis further includes a comparison of the plurality of color gradients as well as a selection of the maximum color gradients.
  • the maximum color gradients make it possible to identify the contours of the visual medium 7.
  • the selection of the maximum gradients makes it possible to dispense with the definition of a colorimetric variation threshold for highlighting the contours of the visual medium 7.
  • a gray level observation image is captured, and brightness gradients are calculated.
  • intersection between the visual medium 7 and the water surface 5 is determined during a step E207 for determining the intersection 25a between the visual medium 7 and the water surface 5.
  • the search for the position of the level of the water surface on the observation image takes place in two steps: a step of determining a plurality of possible intersections between the visual medium 7 and the surface of water 5, and a final selection step of the actual intersection 25a. These two steps are illustrated in Figures 10a, 10b, 10c.
  • the step of determining a plurality of possible intersections is illustrated in Figure 10a. This determination is made by analyzing the colorimetric discontinuities of the pixels corresponding to the improved image position of the visual medium 7.
  • the colorimetric characteristic allowing the best taking into account of the luminous variations is the Saturation in the HSV coding previously described.
  • Saturation describes the "purity" of a color, that is, the white gap from the base tint of a pixel. It is therefore preferably the Saturation of the pixels of the observation image which is used in the estimation of the level of the water surface 5.
  • the hue or luminance of the coding is used.
  • RGB coding is used.
  • this real intersection 25a is represented by a colorimetric discontinuity between the pixels “visual support color” and the pixels “color surface water”. It is therefore sufficient to seek the modification of the color on the visual medium 7. In good conditions, it includes good light conditions and a visual support 7 released.
  • the intensity of the colorimetric discontinuity depends on the light conditions at the time of capture of the viewing image.
  • the possible presence of objects, such as branches, leaves or snow on the visual medium 7 reveal new color discontinuities. Detection of colorimetric discontinuity is therefore not sufficient to estimate the level of the water surface 5. These possible intersections are illustrated by dashed horizontal lines in Figure 10a.
  • the position of the actual intersection 25a is identified.
  • the contours 27 of the visual medium 7 are shown in solid lines in FIG. 10b. Indeed the shape of the visual medium 7 is known and recognizable by the algorithm regardless of the light conditions or the state of recovery of the visual medium 7 by objects.
  • the visual medium 7 has the shape of a parallelogram.
  • a visual medium 7 having another shape use a visual medium 7 having another shape.
  • the gradients of a plurality of colorimetric characteristics of the pixels representing the visual medium 7 as well as of the neighboring pixels of the visual medium 7 are calculated.
  • the colorimetric characteristics comprise the Saturation, the Tint and the Standard.
  • a combination of color characteristics can be used to increase the accuracy of the results.
  • the observation image or part of it, including the visual medium (s) is convoluted with masks, such as masks. of Sobel or Prewitt further improving the accuracy of the improved image position of the visual medium 7.
  • the level of the water surface 5 is calculated during a step E208 for calculating the level of the water surface 5.
  • the distance in pixels between the immersed vertex of the support (s) is measured.
  • visual (s) 7 whose geographical positions have been identified, and the surface of the water surface 5. This distance in pixels is then converted into metric units by inverting the mathematical model 911 calculated for the observation image.
  • E30 Determination of surface velocities
  • the surface velocities of the water surface can be determined thanks to the PIV (velocimetry by particle imaging). Note that there is not a single uniform surface velocity across the entire water surface, but rather a plurality of surface velocities.
  • the step E30 for determining the surface speeds comprises a plurality of steps, shown schematically in FIG. 11.
  • the PIV method applied to the determination of surface velocities of the water surface 5 requires, on the one hand, two observation images, and on the other hand to know the level of the water surface 5 on these two images. observation. It is therefore possible to carry out twice the step E20 for determining the water surface level before being able to carry out the step E30 for determining surface velocities.
  • the step E20 is carried out once only, given the small variation in the level of the surface 5 in the short period of time separating the two observation images.
  • a tracer is defined as being an object moving on the surface of the water 5.
  • Each surface velocity of the water surface 5 is assimilated to a speed of displacement of a tracer at the surface of the water 5.
  • Most of the time the tracers include ripples on the surface of the water 5. The ripples are perceived with different colors of the water surface 5, since they are illuminated differently. Tracers may also include tree limbs or leaves floating on the surface of the water.
  • the speed of displacement of the tracers is deduced from the knowledge of the time separating the capture of the first observation image and the capture of the second observation image.
  • FIG. 12 schematizes a camera 23 placed on a right bank 31 of the water surface 5.
  • the right bank 31 and the left bank 33 are determined by the direction of flow of the water surface 5 which is indicated by an arrow.
  • the camera 23 is fixed on a tripod rising to a height h of 2m above the level of the water surface (excluding flood regime).
  • the line of sight 35 of the camera 23 makes a very small angle Malawi with the water surface, shown in dotted line, here of the order of 5 °.
  • the line of sight 35 of the camera 23 and the water surface 5 are therefore substantially parallel.
  • the distance L between the camera 23 and the visual medium 7 is approximately
  • the pixels representative of the left bank 33 of the water surface 5, that is to say a zone remote from the camera 23 represent a larger area than the pixels representative of the right bank. 31 of the river, that is to say an area close to the shooting device 23. So an object near the left bank 33 moving a pixel between two images of observation, will actually move d a distance greater than an object near the right bank moving also by one pixel between two observation images. In order to correct the geographical correspondence of pixel displacements, two types of correction can be applied.
  • a geometric correction is applied to the observation image in order to impose that all the pixels represent the same geographical area.
  • a step E301 for creating a "scaled” image is carried out during which a "scaling" image of the water surface 5 is created for which all the pixel images represent the same geographical area. This amounts to distorting the pixels distant from the camera 23 in the image by decreasing their area, and inversely increasing the area of the near pixels.
  • Fig. 13 shows the water surface 5 on the scaled image.
  • each division represents a deformed pixel 34.
  • the deformed pixels 34 all represent an area of 2.5 ⁇ 2.5 cm 2 .
  • This surface has been imposed regardless of the position of the pixel on the image.
  • Size is the number of distorted pixels 34 in this figure is not a representation of reality. Their numbers have been reduced and their size increased for better understanding. As said before, the image has several hundred or even several thousand pixels along each axis.
  • the surface of the pixels is fixed either by the user or by the dimensions of the observation image and the field of the camera.
  • the position of each pixel of the observation image in the scaled image is calculated based on its geographic coordinates and that fixed area.
  • the advantage of this method is that it makes it possible to calculate displacements in all directions in an identical manner, since the size of a tracer approaching or moving away from the camera does not change. This allows any arrangement of the camera with respect to the direction of flow of the water surface 5.
  • the PIV correlation functions are calculated directly from observation images not corrected by the scaling. This has the advantage of not degrading the shapes of the tracers. In this case the camera must be positioned so that the vertical axis or the horizontal axis of the observation image is parallel to the direction of flow of the water surface.
  • the fixed zones 11 on the observation image comprise, for example, the banks of the water surface 5, the permanent structures 15 or even the reflection of the trees on the water surface 5.
  • a step E302 of removing the fixed zones 11 is carried out on the scaled image (or on the observation image if the step E301 of imaging at scale was not performed) before using the VIP. For that, one must first determine the position of the fixed zones 11 and the position of the moving zones 9.
  • the fixed zones 11 and the moving zones 9 are determined by detecting the colors of the tracers 37. According to another embodiment, the contours of the tracers 37 are detected.
  • the color detection of the tracers 37 is preferably used because this solution is simpler to implement.
  • the modification of the position of a tracer 37 in the real world is represented by pixels whose color has been strongly modified between the first and the second observation image.
  • color we mean the colorimetric characteristics as described above.
  • a combination of the colorimetric characteristics of the RGB encoding is preferably used.
  • FIG. 14a represents a first observation image
  • FIG. 14b represents a second observation image captured after the first observation image.
  • FIGS. 14a and 14b both comprise the fixed zones 11 and the moving zones 9.
  • FIGS. 14a and 14b also comprise a tracer 37, for example a plastic container floating on the surface of the water surface 5.
  • the moving zone 9 corresponding to the image position of the tracer 37 has been surrounded in FIGS. 14a and 14b.
  • Figs. 14a and 14b show unscaled observation images.
  • a composite image is produced by subtracting the first to the second observation image (or vice versa).
  • Two examples of composite image are illustrated in Figures 14c and 14d.
  • the pixels representing a fixed zone 11 have a similar color on the first and the second observation image. Consequently, the composite image resulting from the subtraction of the first to the second observation image has a very low pixel value at the location of a fixed area 11.
  • the pixels representing a moving area 9 have different colors between the first and the second observation image is high.
  • the composite image will have a high pixel value at the location of a moving area 9.
  • Pixels whose color is substantially invariant from one observation image to another are not preserved. Thus, the information relating to the fixed areas 11 is deleted.
  • the concept of the iterative system is that the more the color of the same pixel varies between two observation images, the more we are sure to have detected a moving zone 9.
  • a first threshold of variation high. Pixels whose color variation is greater than the first color variation threshold are maintained for the next iteration, pixels whose color variation is less than the first color variation threshold will no longer be used in the iterative system.
  • FIGS. 14a and 14b show a first composite image.
  • moving zones in a first approximation 91 are shown in black, the fixed zones 11 are shown in white.
  • a first moving zone in first approximation 91a and a second moving zone in first approximation 91 correspond to the positions of the tracer 37 respectively indicated in FIGS. 14a and 14b.
  • the moving zones in first approximation 91 will appear in duplicate.
  • the tracer 37 appears twice on the first and the second composite image.
  • the first moving zone in first approximation 91a corresponds to the position of the tracer 37 on the first observation image.
  • the second moving zone in first approximation 91b corresponds to the position of the same tracer 37 on the second observation image.
  • first approximation 91c we also see parasitic moving areas in first approximation 91c, for example in the foreground of the first composite image. These moving zones are qualified as parasites because they do not provide information on the tracers 37. On the first composite image as an example, the moving parasitic zones in first approximation 91c correspond to plants having moved slightly because of the wind. .
  • FIG. 14d represents a second composite image obtained with a second variation threshold higher than the first variation threshold. Parashave moving areas in second approximation 93c appear, however their size is reduced compared to that of the parasitic zones in first approximation 91c.
  • the size of the first moving zone in second approximation 93a and the second moving zone in second approximation 93b is also reduced with respect to the size of the first moving zone in first approximation 91a and the second moving zone in first approximation 91b.
  • the iterative system is stopped when a minimum non-zero value of color variation is reached.
  • an intermediate value is chosen, for example that corresponding to 60% of the maximum value for which moving zones appear. The higher this stopping condition, the more the areas determined as moving 9 correspond to significant variations in color, and therefore they are more certain.
  • the fixed zones 11 are not removed.
  • the displacement of the tracer 37 is determined by the PIV during a PIV application step E303. If the fixed zones have been removed during the step E302 of removal of the fixed zones, then the calculation of the PIV is carried out on the pixels composing the moving areas 9 and no longer on the entire composite image. This correction makes it possible to reduce the uncertainty on the estimation of the surface velocity field of the surface of water.
  • the PIV computes two displacements in opposite directions.
  • the choice between the two displacements can for example be made by constraining the upstream-downstream direction of the current on the composite images.
  • the PIV determines the surface velocities in pixels per second by dividing the displacement of each tracer 37 by the time interval between the capture of the first observation image and the capture of the second observation image.
  • Figure 15 shows the surface velocities of the water surface 5. Each individual arrow represents the surface velocity of a tracer.
  • the pixel surface velocities are converted to metric surface velocities during an E304 step of calculating the metric surface velocities.
  • the method comprises a simple method for calculating metric displacements from displacements in pixels on the observation images.
  • the scaled image creation makes it possible to calculate the surface speed of a tracer 37 from equation (3):
  • o V (X , y) is the speed of a tracer, here in m. s " , calculated from the image coordinates of the tracer 37 corresponding to a geographical position (x, y) on the previously estimated level water surface.
  • o AJ ( i j ) are the displacements in pixels calculated by the PIV of the coordinate tracer (i), (the units of ⁇ and AJ are expressed in pixel unit, then divide by the time between two images for computed a speed in pixel unit, s- 1. The knowledge of the water depth in metric unit then makes it possible to express these displacements in ms "1 )
  • the metric size of the displacements is calculated by inverting the geometric transformation matrix for the two image points defining the vector, this relying on the knowledge the position of the water.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Hydrology & Water Resources (AREA)
  • Thermal Sciences (AREA)
  • Fluid Mechanics (AREA)
  • Image Processing (AREA)

Abstract

L'invention concerne un procédé détermination d'un paramètre d'observation associé à une surface d'eau (5) par imagerie. Ce procédé comprend une phase de référencement au terme de laquelle on obtient un modèle en trois dimensions d'un site d'observation comprenant la surface d'eau (5), à partir de point de références matériel (19) placé une structure permanente (15) et de points de référence immatériel (21) placé sur une structure temporaire. Le procédé comprend aussi une phase d'observation au cours de laquelle on détermine la hauteur de la surface d'eau. Pour cela un dispositif de prise de vues (23) capture des images du site d'observation, puis un algorithme de traitement de données détermine les coordonnées de la surface d'eau (5) grâce à un support visuel (7). La hauteur de la surface d'eau est déterminée en utilisant le modèle en trois dimensions du site d'observation. Le procédé permet en outre de déterminer ses vitesses de surfaces de la surface d'eau (5).

Description

Procédé de détermination de paramètres d'observation d'une surface d'eau par imagerie
L'invention concerne un procédé de détermination d'une surface d'eau par imagerie. Plus particulièrement ce procédé s'applique à l'estimation du niveau d'une rivière ainsi qu'à l'estimation de ses vitesses de surface dans le cadre de la surveillance des rivières.
La rivière est un milieu naturel qui peut devenir extrêmement dangereux en périodes de crues. Ces périodes sont caractérisées par une montée d'eau de la rivière, engendrée par des événements climatiques et météorologiques particuliers.
Les crues les plus dévastatrices peuvent causer des pertes humaines et des pertes matérielles considérables. Aussi, il est primordial de pouvoir surveiller l'état des rivières et de pouvoir avertir les autorités compétentes en cas de danger. Egalement le suivi des régimes hydrologiques pour la gestion de la ressource en eaux, notamment dans le contexte du changement climatique, nécessite de suivre l'état des rivières depuis l'étiage, c'est-à-dire leur niveau le plus bas, jusqu'aux hautes eaux. Les paramètres des rivières à surveiller incluent le niveau ainsi que les vitesses de surface de la rivière.
A ce jour, la plupart des capteurs en utilisation sont des dispositifs intrusifs nécessitant d'être placés au moins partiellement dans la rivière ou d'être situés à leur proximité.
On connaît par exemple le flotteur qui, associé à un jeu de poulies et de contrepoids, se déplace solidairement avec la surface de la rivière. D'autre part, les flotteurs ne permettent pas de mesurer la vitesse de surface de la rivière. De plus, l'installation et l'entretien de ce type de capteurs sont difficiles et onéreux. On connaît par exemple les flotteurs à sonde électronique ou les capteurs ultrasons. Egalement, ces capteurs ne mesurent que la hauteur d'eau. Ils ne permettent de plus pas de contrôle de la hauteur d'eau en situation en temps réel.
Par ailleurs, un inconvénient des capteurs intrusifs est qu'ils risquent d'être emportés et/ou détériorés en période de crues.
Il existe des capteurs non intrusifs permettant de surveiller le niveau d'eau des rivières à distance.
On connaît des systèmes d'imagerie numériques, par exemple des caméras ou appareils photos, fixés à une structure, tel un pilier ou un arbre, et surveillant l'évolution du niveau d'eau d'une rivière. Ces dispositifs nécessitent la présence de repères structurels, tels une berge, un pilier de pont ou d'une échelle graduée partiellement immergé, dans le champ de la caméra. Un algorithme permet de déterminer l'intersection entre la rivière et le point de repère structurel. Cet algorithme est basé sur la différence de luminosité entre la surface de la surface d'eau et la luminosité du repère structurel. Un inconvénient de cette solution est qu'elle nécessite d'établir un seuil de luminosité permettant de distinguer la rivière du repère structurel. Cependant, la luminosité de la surface d'eau varie selon les conditions météorologiques, le moment de la journée et le site d'observation. Il est donc difficile d'établir un unique seuil de luminosité permettant de distinguer la rivière avec précision dans n'importe quelle condition lumineuse.
Les systèmes d'imagerie numérique permettent en outre de déterminer les vitesses de surface des rivières, cependant les résultats manquent de précisions.
L'invention a donc pour objectif de pallier au moins partiellement les inconvénients de l'art antérieur en proposant une méthode de détermination précise du niveau d'une surface d'eau et de ses vitesses de surface. La méthode est en outre facilement adaptable en fonction des sites géographiques à surveiller et des moyens de prise de vues.
A cet effet, l'invention a pour objet un procédé de détermination d'un paramètre d'observation associé à une surface d'eau par imagerie, comprenant les étapes suivantes :
• une phase de référencement comprenant les étapes suivantes :
o on répartit des points de référence sur un site d'observation, ledit site d'observation comprenant une surface d'eau, au moins une structure permanente et au moins un support visuel au moins partiellement immergé dans la surface d'eau, lesdits points de références comprenant des points de référence matériels présents sur la structure permanente et sur le support visuel,
o on mesure les coordonnées géographiques référence desdits points de référence, o on détermine des coordonnées référence desdits points de référence à partir d'au moins une image référence,
• une phase d'observation comprenant les étapes suivantes :
o on capture au moins une image d'observation du site d'observation,
o on établit un modèle mathématique permettant de déterminer les coordonnées images d'un objet compris sur le site d'observation, à partir de coordonnées géographiques dudit objet, grâce aux coordonnées géographiques référence des points de référence, aux coordonnées images référence respectives desdits points de référence et à des coordonnées images d'observation respectives desdits points de référence sur l'image d'observation,
o on établit les coordonnées images d'observation du niveau de la surface d'eau à l'emplacement du au moins un support visuel sur l'image d'observation grâce au support visuel, o on utilise le modèle mathématique avec les coordonnées images d'observation de la surface d'eau sur l'image d'observation pour déterminer au moins un paramètre d'observation de la surface d'eau,
caractérisé en ce que la phase de référencement comprend l'étape suivante:
o on place au moins une structure temporaire sur le site d'observation à distance de la structure permanente et à distance du support visuel afin d'indiquer une position d'au moins un point de référence immatériel.
L'invention permet d'améliorer la précision et/ou la robustesse des résultats d'une façon simple. De plus, le dispositif permettant la mise en œuvre du procédé peut être placé à distance de la surface de l'eau, ainsi, il ne risque pas d'être dégradé par l'eau en cas de crues.
Selon un autre aspect du procédé de détermination, la surface d'eau est déterminée par colorimétrie des pixels.
Selon un autre aspect du procédé de détermination, la phase d'observation comprend une étape supplémentaire lors de laquelle :
• on détecte les points de référence matériels sur l'image d'observation,
• on compare les coordonnées images d'observation des points de référence matériels satisfaisant un seuil minimum de corrélation avec leurs coordonnées images référence respectives points de référence matériels,
• on détermine un déplacement individuel des points de référence matériels satisfaisant un seuil minimum de corrélation entre l'image d'observation et l'image référence,
• on détermine un déplacement global de l'image d'observation correspondant au déplacement individuel commun à une majorité de points de référence matériels satisfaisant un seuil minimum de corrélation,
• on corrige les coordonnées images de tous les points de référence de sorte que chaque point de référence se déplace d'une distance égale au déplacement global entre l'image de référence et l'image d'observation. On obtient ainsi des coordonnées images corrigées desdits points de référence matériels et desdits points de référence immatériels,
• on établit le modèle mathématique à partir des coordonnées géographiques référence desdits points de référence matériels et desdits points de référence immatériels, et de leurs coordonnées images corrigées respectives.
Selon un autre aspect du procédé de détermination, les paramètres d'observation comprennent au moins un paramètre parmi le niveau de la surface d'eau et les vitesses de surfaces de la surface d'eau. Selon un autre aspect du procédé de détermination, on établit les coordonnées images d'observation de la surface d'eau à l'emplacement du au moins un support visuel comme correspondant aux coordonnées images d'observation de l'intersection réelle entre le support visuel et la surface d'eau.
Selon un autre aspect du procédé de détermination, la détermination de l'intersection réelle entre le support visuel et la surface d'eau comprend les étapes suivantes :
• on détermine une pluralité d'intersections possibles entre le support visuel et la surface d'eau en analysant la valeur d'au moins un paramètre associé aux pixels représentant une zone de l'image comprenant au moins le support visuel et une partie de la surface d'eau,
• on détermine les contours du support visuel en analysant la valeur d'au moins un autre paramètre associé aux pixels représentant une zone de l'image comprenant au moins le support visuel et une partie de la surface d'eau,
• on détermine l'intersection réelle comme correspondant à la fois à une intersection possible et à une discontinuité des contours du support visuel.
Selon un autre aspect du procédé de détermination, au moins une vitesse de surface est calculée à partir d'une première image d'observation et d'une deuxième image d'observation, en estimant le déplacement d'au moins un traceur sur la surface de la surface d'eau entre ladite première image d'observation et ladite deuxième image d'observation, et à partir d'un intervalle de temps entre la capture de ladite première image d'observation et ladite deuxième image d'observation.
Selon un autre aspect du procédé de détermination, le déplacement du traceur est déterminé par vélocimétrie par imagerie de particules.
Selon un autre aspect du procédé de détermination, le procédé de détermination comprend les étapes suivantes :
• on soustrait deux images d'observation afin d'obtenir une image composite,
• on compare la valeur d'au moins un paramètre associé aux pixels de l'image composite à un seuil de variation de la valeur dudit paramètre,
• on conserve des zones de l'image composite définies par les pixels dont la valeur d'au moins un paramètre est supérieure audit seuil de variation de la valeur dudit paramètre, les zones de l'image composite conservées sont appelées zones mouvantes,
• on détermine les vitesses de surface des traceurs à partir desdites zones mouvantes.
Selon un autre aspect du procédé de détermination, la détermination d'au moins une vitesse de surface comprend une étape supplémentaire lors de laquelle on crée une première image mise à l'échelle à partir de la première image d'observation et une deuxième image mise à l'échelle à partir de la deuxième image d'observation sur lesquelles tous les pixels représentent la même surface géographique.
L'invention a aussi pour objet un système de détermination d'un paramètre d'observation associé à une surface d'eau, pour la mise en œuvre d'un procédé de détermination d'un paramètre d'observation associé à une surface d'eau par imagerie tel que défini précédemment,
caractérisé en ce que ledit système comprend :
• un dispositif de prise de vues configuré pour capturer des données relatives à un site d'observation comprenant la surface d'eau, lesdites données comprenant :
o au moins une image d'observation du site d'observation comprenant la surface d'eau, au moins une structure permanente et au moins un support visuel au moins partiellement immergé dans la surface d'eau, et
o au moins une image référence du site d'observation comprenant des points de référence matériels et immatériels, lesdits points de référence matériels étant présents sur la structure permanente et sur le support visuel, et la position d'au moins un point de référence immatériel étant indiquée à l'aide d'au moins une structure temporaire sur le site d'observation à distance de la structure permanente et à distance du support visuel, · des moyens de détermination de coordonnées géographiques référence desdits points de référence matériels et desdits points de référence immatériels,
• des moyens de traitement des données configurés pour :
o déterminer des coordonnées images références des points de référence matériels et des points de référence immatériels,
o déterminer un modèle mathématique permettant de calculer des coordonnées images à partir de coordonnées géographiques d'un objet sur le site d'observation en utilisant les coordonnées géographiques référence et coordonnées images référence des points de référence matériels et des points de référence immatériels et des coordonnées images d'observation respectives desdits points de référence sur l'image d'observation,
o établir les coordonnées images d'observation de la surface d'eau à l'emplacement du au moins un support visuel sur l'image d'observation grâce au support visuel, o utiliser le modèle mathématique avec les coordonnées images d'observation de la surface d'eau sur l'image d'observation pour déterminer au moins un paramètre d'observation de la surface d'eau, et • des moyens de transmission des données entre le dispositif de prise de vues et les moyens de traitement des données.
Selon un autre aspect du système de détermination d'un paramètre le dispositif de prise de vues est un dispositif de prise de vues numérique.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante, donnée à titre d'exemple illustratif et non limitatif, et des dessins annexés parmi lesquels :
la figure 1 représente le découpage en pixels d'une image capturée par un dispositif de prise de vues,
la figure 2 schématise le modèle mathématique permettant de former une image en deux dimensions à partir d'une scène en trois dimensions,
la figure 3 a représente une première image capturée pour calculer la vitesse de déplacement d'un objet grâce à la vélocimétrie par imagerie de particules,
la figure 3b représente une deuxième image capturée pour calculer la vitesse de déplacement d'un objet grâce à la vélocimétrie par imagerie de particules,
- la figure 4 schématise une étape d'initialisation du procédé,
la figure 5 représente un site à surveiller sur lequel apparaissent des points de référence pour le géoréférencement,
la figure 6 schématise des étapes du procédé de détermination,
la figure 7 schématise une étape de détermination de niveau d'une surface d'eau, - la figure 8a représente une image d'observation sur laquelle un déplacement individuel de points de référence est indiqué,
la figure 8b représente l'image d'observation de la figure 8a sur laquelle un déplacement global des points de référence est indiqué,
la figure 9a représente une partie de l'image d'observation de la figure 8a sur laquelle une position image en première approximation d'un support visuel est indiquée, la figure 9b représente une partie de l'image d'observation de la figure 8a sur laquelle une position image corrigée du support visuel de la figure 9a est indiquée, la figure 10a représente une partie de l'image d'observation de la figure 8a sur laquelle les intersections possibles entre le support visuel de la figure 9a et la surface d'eau sont indiquées,
la figure 10b représente une partie de l'image d'observation de la figure 8a sur laquelle les contours du support visuel de la figure 9a ainsi que les intersections possibles entre le support visuel de la figure 9a et la surface d'eau,
la figure 10c représente une partie de l'image d'observation de la figure 8a sur laquelle le choix final de l'intersection entre le support visuel de la figure 9a et la surface d'eau, la figure 11 schématise une étape de détermination de vitesses de surface de la surface d'eau,
la figure 12 schématise un site à surveiller et met en évidence les distances entre différents éléments,
la figure 13 représente une image mise à l'échelle d'une partie de l'image de la figure 8a ainsi que son découpage en pixels,
la figure 14a représente une première image d'observation comprenant un traceur utilisé dans l'estimation des vitesses de surface,
la figure 14b représente une deuxième image comprenant le traceur capturée après l'image de la figure 9a et étant utilisée avec cette dernière dans l'estimation des vitesses de surface,
la figure 14c représente une image composite obtenue par soustraction des images représentées par les figures 14a et 14b en fonction d'un seuil de différence de couleur, la figure 14d représente une image composite obtenue par soustraction des images représentées par les figures 14a et 14b en fonction d'un seuil de différence de couleur plus élevé que celui utilisé pour la figure 14b,
la figure 15 représente une image mise à l'échelle et les vitesses de surface de la surface d'eau estimée.
Dans ces figures, les éléments sensiblement identiques portent les mêmes références.
L'invention concerne un procédé de détermination de paramètres d'observation d'une surface d'eau par imagerie. Pour mettre en œuvre ce procédé, on utilise un système de détermination. Le système de détermination comprend un dispositif de prise de vue, des moyens de détermination de coordonnées géographiques référence de points de référence, des moyens de transmission de données et des moyens de traitement de données. Le dispositif de prise de vues est apte à capturer des données d'un site d'observation comprenant une surface d'eau, les données comprennent des images du site d'observation. Le dispositif de prise de vues comprend de préférence un appareil photographique numérique (APN) tel que disponible dans le commerce. Un APN d'entrée de gamme et peu coûteux peut par exemple être utilisé. Selon une variante, le dispositif de prise de vues comprend une caméra numérique à la place de ΓΑΡΝ.
Le dispositif de prise de vues est configuré pour capturer des images à une fréquence choisie par l'utilisateur. Dans le cas de l'utilisation de la caméra numérique, la prise de vues peut se faire de manière continue.
Le système de détermination comprend aussi des moyens de détermination de coordonnées géographiques références de points de références.
Ces moyens de détermination de coordonnées géographiques références comprennent par exemple des moyens d'indication de points de référence, par exemple cibles réfléchissantes aptes à indiquer la position d'un point de référence sur le site d'observation ou par exemple des points facilement reconnaissables (coin de toiture, arête de bâtiment). Ces cibles sont de plus aptes à être agencées ou présentes d'une part sur une structure permanente du site d'observation, tel un pont, indiquant ainsi la position d'un point de référence matériel. D'autre part, les cibles réfléchissantes sont aptes à être agencées sur une structure temporaire, telle une balise, indiquant ainsi un point de référence immatériel. D'autre part, les cibles reconnaissables sont déjà présentes ou nouvellement agencées sur le site. Ceci sera décrit en détail par la suite.
Ces moyens de détermination de coordonnées comprennent aussi des moyens de mesures des coordonnées géographiques, par exemple un théodolite ou un lidar.
Afin d'exploiter les images capturées par le dispositif de vues, le système de détermination comprend des moyens de transmission de données apte à transmettre les données capturées par le dispositif de prise de vues vers les moyens de traitement de données.
Selon une variante, la transmission de données se fait par internet. Dans ce cas, les moyens de transmission de données comprennent par exemple antenne équipant le dispositif de prise de vues et configurée pour utiliser le réseau Wifï, ou d'un câble dans le cadre d'une transmission fïlaire.
Selon une autre variante, la transmission de données se fait par le réseau téléphonique. Dans ce cas, le dispositif de prise de vues peut être intégré à un téléphone portable ou à un micro -ordinateur apte à utiliser le réseau téléphonique. Selon encore une autre variante, la transmission de données a lieu quand un utilisateur vient sur le site pour récupérer les données. Dans ce cas, le système de détermination comprend aussi des moyens de stockage de données sur le site, par exemple une carte mémoire du dispositif de prise de vues. Ces moyens de stockage de données sur le site sont accessibles aux utilisateurs se déplaçant sur le site.
Le système de détermination comprend aussi des moyens de traitement de données configurés pour traiter les données transmises. Les moyens de traitement de données comprennent par exemple un ordinateur et des algorithmes de traitement de données. Les algorithmes de traitement de données sont aptes à déterminer une hauteur de la surface d'eau et des vitesses de surfaces de la surface d'eau, ainsi que d'apporter des corrections aux données transmises afin d'améliorer la précision des résultats.
Les moyens de traitement des données sont, entre autres, configurés pour déterminer des coordonnées images références des points de référence matériels et des points de référence immatériels.
Les moyens de traitement des données sont aussi configurés pour déterminer un modèle mathématique permettant de calculer des coordonnées images à partir de coordonnées géographiques d'un objet sur le site d'observation en utilisant les coordonnées géographiques références et les coordonnées images références des points de référence matériels et des points de référence immatériels. Ceci sera décrit en détail par la suite.
La figure 1 représente une image 1 d'un site d'observation capturée par le dispositif de prise de vues. Cette image est une mosaïque dont les divisions sensiblement carrées sont appelées pixels 3.
Chaque pixel 3 est caractérisé par sa position sur l'image. La figure 1 illustre le repère image (Ο ', I, J). Dans ce repère image (Ο ', I, J), la position d'un pixel 3 est exprimée selon des coordonnées images (i, j) pouvant par exemple correspondre au numéro de ligne (i) et au numéro de colonne (j) d'un pixel 3. L'origine O ' du repère image (Ο ', I, J) est choisie conventionnellement dans le coin en bas à gauche de l'image 1.
Sur cette image 1, les pixels 3 représentés ne sont pas à l'échelle avec l'image 1, en réalité, il y a plusieurs centaines voire plusieurs milliers de pixels 3 selon la largeur et selon la hauteur de l'image 1.
Deux types d'information sont utilisés afin de mesurer un niveau de surface d'eau et avantageusement ses vitesses de surface. Le premier type d'information est l'image 1 elle-même, contenant des informations relatives aux mesures souhaitées : la position d'un pixel 3 et son information colorimétrique.
Le second type d'information provient d'un modèle mathématique permettant de calculer la position image sur l'image 1 d'un objet à partir de ses coordonnées géographiques dans le monde. Par la suite, l'adjectif « image » qualifiera les caractéristiques d'une image 1 capturée par le dispositif de prise de vues. L'adjectif « géographique » qualifiera les caractéristiques du monde réel.
Le procédé de détermination comprend d'une part une phase de référencement lors de laquelle on utilise des points de référence afin d'établir une correspondance référence entre la position d'un objet se situant sur le site à surveiller et sa position sur une image référence.
D'autre part, le procédé de détermination comprend une phase d'observation lors de laquelle on capture des images du site à surveiller et on les traite en utilisant la correspondance référence, afin de déterminer le niveau de la surface d'eau et avantageusement ses vitesses de surface.
Les principes du procédé vont être expliqués dans un premier temps, puis le procédé sera décrit en détail.
1. Principes du procédé a. Mesure du niveau d'eau • Colorimétrie
Les pixels 3 comprennent les informations de base, fournies par le dispositif de prise de vues disposé sur le site d'observation.
La première information fournie par un pixel 3 est une information lumineuse. En effet, chaque pixel 3 comprend une information lumineuse reçue par au moins un capteur de lumière.
Un pixel 3 comprenant trois ou quatre capteurs donne une information lumineuse colorimétrique. On obtient donc une image 1 en couleur.
Un pixel comprenant un seul capteur donne une information comprenant une seule teinte plus ou moins lumineuse. On obtient donc par exemple une image en niveaux de gris.
Les capteurs sont par exemple des photodiodes sensibles à différentes longueurs d'onde. La détermination du niveau de surface d'eau 5 repose sur la distinction sur une image 1 de l'intersection entre la surface de la surface d'eau 5 et au moins un support visuel 7 défini.
Selon une forme de réalisation préférentielle, cette distinction se fait en détectant la variation colorimétrique des pixels 3 sur le support visuel 7. En effet, le support visuel 7 comprend une partie immergée dans la surface d'eau 5 et une partie non immergée. La couleur de la partie non immergée est sensiblement homogène, alors que la partie immergée n'est pas visible avec un tel procédé car elle est sous la surface d'eau 5.
Les caractéristiques colorimétriques du support visuel 7 présentent une discontinuité avec la surface 5 qui est détectable à l'œil nu et par le dispositif de prise de vues. Le procédé de détermination du niveau de la surface d'eau 5 met en évidence cette discontinuité colorimétrique.
La couleur du support visuel 7 n'influe pas dans le procédé d'estimation du niveau de la surface d'eau 5.
L'utilisation de la colorimétrie est particulièrement adaptée à des prises de vues en extérieur dans des conditions lumineuses variables car elle ne nécessite pas l'utilisation de seuil de luminosité. Le procédé est donc facilement adaptable à toutes sortes de sites à surveiller, à toutes conditions météorologiques et à tout moment de la journée. En informatique, les couleurs sont issues d'un codage de plusieurs paramètres numériques. Plusieurs types de codage sont discernables.
Un premier type de codage est par exemple issu d'une synthèse additive telle que le codage RGB (de l'anglais « Red Green Blue ») où sont additionnées plusieurs intensités d'unités de base, afin de créer une couleur. Dans ce cas, les unités de base comprennent trois couleurs primaires : le rouge, le vert et le bleu. Ce codage définit aussi la norme K d'une couleur qui rend compte de l'intensité lumineuse reçue par un pixel. La norme K est obtenue selon l'équation (1) :
K= ^R2 +G2 +B2 (1) où R est l'intensité rouge du pixel, G est l'intensité verte du pixel, et B est l'intensité bleue du pixel.
Un autre type de codage est issu d'une synthèse soustractive telle que le codage CMJ (Cyan Magenta Jaune) où est soustraite à la lumière blanche l'intensité des unités de bases qui n'est pas nécessaire à la constitution de chaque couleur. Tous les types de codages permettent d'obtenir les mêmes couleurs, par mélange en différentes proportions des unités de base.
Le procédé de détermination emploie une pluralité de codages afin de pouvoir améliorer la précision de ses résultats.
Le procédé de détermination emploie d'une part, un codage HSV (Teinte Saturation
Luminance de l'anglais « Hue Saturation Value ») qui est un codage de type additif. Selon ce codage, la Teinte représente les couleurs pures allant du rouge, au vert et au bleu. La Saturation correspond à une quantité de blanc, s'ajoutant à la couleur pure et traduit le fait que la couleur de base est plus ou moins terne. Enfin la Luminance traduit la luminosité générale de la couleur et permet de quantifier l'intensité de l'éclairement.
Le codage HSV est particulièrement bien adapté pour le codage d'informations provenant d'un milieu en extérieur, c'est-à-dire en éclairement non contrôlé, présentant de fortes variations d'intensité lumineuse au cours de la journée. Selon ce codage, la Luminance rend directement compte de la luminosité et permet donc de comparer les couleurs les unes aux autres en la normant. Ce codage permet aussi d'éviter le problème de saturation des intensités des unités de base.
Le procédé de détermination emploie d'autre part le codage RGB. Selon une autre forme de réalisation, la distinction entre le support visuel et la surface d'eau est détectée en surveillant la luminosité des pixels d'une image en niveaux de gris.
le modèle mathématique
En plus de sa couleur, chaque pixel 3 est caractérisé par sa position sur l'image 1 du dispositif de prise de vues. En déterminant les pixels 3 correspondant à la surface de la surface d'eau 5 on peut donc définir le niveau de la surface d'eau 5.
Les distances sur l'image 1 sont exprimées en pixels 3, afin d'établir le niveau géographique de la surface d'eau 5, il faut convertir ces distances en unités métriques. Pour cela, on met en correspondance des distances pixels avec des distances métriques. Par exemple, on peut faire correspondre la taille image d'un objet mesuré en pixels sur l'image en deux dimensions (2D) avec sa taille géographique, par exemple mesurée avec un mètre dans un site en trois dimensions (3D). Cette correspondance permet d'établir un modèle mathématique 911 réalisant la conversion de façon systématique.
Ce modèle mathématique 911 est schématisé par la figure 2. Un point quelconque A présente des coordonnées géographiques (x, y, z) définies dans un repère géographique (O, X, Y, Z) situé dans la scène en 3D W. Ledit point quelconque A présente un point correspondant image a présentant des coordonnées images (i, j) définies dans un repère image (O '. I. J) situé sur l'image. Le modèle mathématique 911 permet d'exprimer les coordonnées images (i, j) du point correspondant image a en fonction des coordonnées géographiques (x, y, z) du point quelconque A, et d'une pluralité de paramètres propres à la géométrie du champ d'observation et au dispositif de prise de vues.
Le modèle mathématique 911 repose sur onze paramètres de transformation ntij . Les paramètres de transformation ntij comprennent d'une part des paramètres dépendant de la scène en 3D W, par exemple la position du dispositif de prise de vues par rapport au repère géographique (O, X, Y, Z). D'autre part, des paramètres dépendants du dispositif de prise de vues, par exemple sa distance focale.
Les onze paramètres de transformation ntij peuvent être établis par la connaissance des coordonnées géographiques (x„, y„, zn) et des coordonnées image (i„, j„) respectives d'un nombre N de points particuliers (n étant un nombre entier allant de 1 à N).
En ayant défini un nombre N de points particuliers, le modèle mathématique s'écrit sous la forme matricielle à 2N équations (2) :
Figure imgf000015_0001
La connaissance des coordonnées géographiques (x„, y„, zn) et des coordonnées images (in, jn) des N points particuliers est obtenue par des mesures expérimentales. A cet effet, on agence N points de référence dans la scène en 3D W. Un minimum de six points de référence est nécessaire pour établir le modèle mathématique. En effet chaque point de référence permet d'écrire deux équations. On obtient donc douze équations pour résoudre un système à onze inconnues ntij . Puis les paramètres de transformation sont calculés par correspondance des coordonnées géographiques (x„, y„, zn) des N points de référence avec leurs coordonnées images (i„, j„) respectives.
Cependant, la nature expérimentale du procédé de détermination entraîne une variation des paramètres de transformation due à une variation des paramètres dépendants de la scène en 3D W. Par exemple le dispositif de prise de vue peut changer de position sous l'effet du vent. La distance des objets géographiques au dispositif de prises de vues, l'imperfection de ce dispositif de prise de vues peut également augmenter l'imprécision et une variation des paramètres de transformation dépendants de la scène en 3D.
Par conséquent, on détermine des coordonnées géographiques références (x„o, y„o, zn0) pour chacun des N points de référence, et des coordonnées images références (i„o, j„o) pour chacun des N points particuliers. Ces coordonnées références seront utilisées comme étalons pour les mesures suivantes.
Les coordonnées géographiques références (x„o, y„o, zn0) de ces points de référence sont mesurées lors d'une étape de référencement. Les coordonnées images références (i„o,jno) respectives sont obtenues à partir d'images de référence capturées par le dispositif de prise de vues lors de l'étape de référencement.
Le modèle mathématique 911 permet donc de calculer des coordonnées images (i, j) à partir de coordonnées géographiques (x, y, z). Pour pouvoir calculer des coordonnées géographiques (x, y, z) à partir de coordonnées images (i,j), il suffit de calculer l'inversion du modèle mathématique 911' .
Par conséquent, en ayant d'une part les coordonnées images (i, j) de la surface d'eau, établies grâce à la colorimétrie des pixels et détectées sur le ou les support(s) visuel(s), et d'autre part l'inversion du modèle mathématique permettant de calculer les coordonnées géographiques (x, y, z) de la hauteur du niveau de la surface d'eau à partir des coordonnées images (i,j) de la surface d'eau grâce à la connaissance des coordonnées géographiques du ou des support(s) visuel(s), on peut calculer le niveau de la surface d'eau en unités métriques.
Le procédé permet de calculer conjointement les coordonnées de points sur le support visuel pour des mesures de hauteur, et les coordonnées de points sur la surface d'eau pour des estimations de vitesse de surface. b. Mesure de vitesses de surface Afin de mesurer les vitesses de surface de la surface d'eau on utilise de préférence la Vélocimétrie par Imagerie de Particules ou PIV (« Particle Image Velocimetry » en langue anglaise) En effet, la PIV présente un temps de calcul très court et facilite le développement d'algorithme de traitement d'image. De plus, la PIV offre une bonne précision de mesure. Cette méthode est donc performante et facile à mettre en œuvre.
Le principe de la PIV est illustré par les figures 3a et 3b. Le principe de la PIV consiste à estimer le déplacement des différentes zones 9, 11 apparentes sur des images en établissant une corrélation croisée entre ces images. Pour cela, une première image de PIV PIVl et une deuxième image de PIV PIV2 sont capturées à intervalle de temps court par exemple 0,5 seconde.
La première image de PIV PIVl est découpée en portions nommées fenêtres 13 qui sont représentées par les carrés en traits pleins sur la figure 3a. Sur la première image de PIV PIVl apparaissent des zones mouvantes 9, par exemple le télésiège, qui sur la deuxième image de PIV PIV2, représentée par la figure 3b, se sont déplacées. Sur la première image de PIV PIVl et la deuxième image de PIV PIV2 apparaissent aussi des zones fixes 11 , telles que la montagne et le chalet.
La technique de PIV mesure les déplacements en faisant « glisser » les fenêtres 13 de la première image de PIV PIVl sur des portions de mêmes dimensions que les fenêtres 13 de la deuxième image de PIV PIV2. Tous les déplacements sont envisagés. On entend par « glisser » faire correspondre les fenêtres 13 de la première image de PIV PIVl sur des portions de la deuxième image de PIV PIV2 de même taille.
Ceci est représenté par le déplacement de la zone mouvante 9 entre les figures 3a et 3b. Une fenêtre exemple 13a de la première image de PIV PIVl contient le télésiège entier. La fenêtre exemple 13a apparaît en traits gras sur la figure 3a. Sur la deuxième image de PIV PIV2, le télésiège n'est plus entièrement compris dans la fenêtre exemple 13a, maintenant représentée en pointillés. La PIV recherche alors une partie de la deuxième image de PIV PIV2 de même dimension que la fenêtre exemple 13a de la première image de PIV PIVl et contenant un maximum d'informations communes à la fenêtre exemple 13a. C'est-à-dire dans le cas de l'exemple, la PIV recherche la partie de la deuxième image de PIV PIV2 contenant le télésiège.
Pour cela, la PIV compare l'information contenue dans la fenêtre exemple 13a de la première image de PIV PIVl avec la totalité de la deuxième image de PIV PIV2.
Selon une forme de réalisation, le contenu commun d'informations est quantifié par un calcul de corrélation. Plus une partie de la deuxième image de PIV PIV2 contient d'informations communes avec la fenêtre exemple 13a, et plus la valeur de la corrélation entre la fenêtre exemple 13a et cette partie de la deuxième image de PIV PIV2 est élevée.
Selon une autre forme de réalisation, un calcul de la somme des écarts au carré peut être réalisé à la place de la corrélation.
La fenêtre résultat 13b en trait plein correspond à la partie de la deuxième image de
PIV PIV2 ressemblant le plus à la fenêtre exemple 13a. Le déplacement est exprimé par un vecteur de déplacement représenté par une flèche sur la figure 3b.
Cette opération est répétée pour toutes les fenêtres 13 découpées dans la première image de PIV PWl afin de définir un champ de déplacements dont la densité dépend du nombre de fenêtres 13. La vitesse de déplacement de chaque fenêtre 13 est déduite de la connaissance du temps séparant la prise de vue de la première image de PIV PIV1 et la prise de vue de la deuxième image de PIV PIV2.
On décrit à présent le procédé de détermination. Le procédé de détermination comprend une phase de référencement lors de laquelle on acquiert des données qui seront par la suite utilisées pour établir le modèle mathématique ©IL
Le procédé de détermination comprend aussi une phase d'observation lors de laquelle les paramètres d'observation de la surface d'eau sont déterminés. 2. El : Phase de référencement
La phase de référencement El a lieu avant la phase d'observation E2. La phase El de référencement comprend une pluralité d'étapes schématisée par la figure 4. a. Le site d'observation
On se réfère à la figure 5. Le site d'observation comprend une surface d'eau 5, au moins une structure permanente 15, par exemple une structure préexistante sur le site tel qu'un pont, ou une station de mesure, et au moins un support visuel 7 partiellement immergé dans la surface d'eau 5.
Selon une forme de réalisation, si la structure permanente 15 est partiellement immergée dans la surface d'eau 5 et si sa forme est facilement reconnaissable, alors ladite structure permanente 15 peut être utilisée comme support visuel 7, par exemple un pilier de pont partiellement immergé peut servir de support visuel 7. Selon une autre forme de réalisation, le support visuel 7 peut être distinct de la structure permanente 15, par exemple une mire normalisée par les services hydrométriques de l'Etat.
Selon une autre forme de réalisation, on peut utiliser une pluralité de supports visuels 7 placés à différentes hauteurs. De cette façon, si un support visuel 7 placé à basse hauteur est submergé par la surface d'eau 5, il est possible de continuer les mesures en utilisant un support visuel 7 plus haut placé. b. El 01 : Placement de points de référence 19,21
Lors d'une étape El 01 de placement de points de référence 19,21, on place des points de référence ou on choisit des points des références présents 19,21 sur le site à surveiller.
Plus les points de référence 19,21 sont nombreux et répartis dans la scène et plus le modèle mathématique donne des résultats précis et/ou robustes. En effet en disposant d'un grand nombre de coordonnées géographiques et des coordonnées images respectives on réduit l'incertitude sur le positionnement de chaque point de référence 19,21 considéré individuellement.
Le modèle mathématique donne des résultats d'autant plus précis qu'un objet dont on cherche à déterminer les coordonnées se trouve à proximité d'un point de référence 19, 21. On repartit donc les points de référence 19,21 sur une large zone géographique. De plus, afin que la profondeur du site d'observation soit prise en compte, il faut placer au moins un point de référence 19,21 à une distance du dispositif de prise de vue sensiblement différente de la distance du reste des points de référence 19,21. Par exemple on peut placer un point de référence 19, 21 sur la rive opposée de la surface d'eau 5.
Les points de référence 19,21 sont agencés d'une part sur la structure permanente 15 et sur le support visuel 7, et d'autre part à distance de ladite structure permanente 15 ou dudit support visuel 7.
Les points de référence placés ou présents sur la structure permanente 15 ou sur le support visuel 7 sont appelés points de référence matériels 19 car leur position géographique présente une correspondance avec un objet matériel. Ces points de référence matériels 19 sont agencés sur des parties «facilement » distinguâmes de la structure permanente 15. Par « facilement » distinguables, est entendu que le point de référence matériel 19 est représenté par un pixel présentant une forte variation colorimétrique avec les pixels adjacents. Par exemple, les points de référence matériels 19 peuvent être agencés sur un coin de toiture, une arrête d'un mur ou d'une barrière. Une fois le géoréférencement achevé, un nombre suffisant de points de référence matériels 19 seront toujours distinguables. De plus, les points de référence matériels sont agencés sur des structures permanentes 15 supposées immobiles. Ainsi, leur position et par conséquent leurs coordonnées géographiques sont supposées invariantes dans le temps.
Placer des points de référence matériels 19 sur le support visuel 7 permet de connaître avec précision les coordonnées géographiques et les coordonnées images dudit support visuel 7, et ainsi d'obtenir des estimations de niveau de la surface d'eau 5 précises.
Les points de référence placés à distance de la ou des structure(s) permanente(s) 15 sont appelés points de référence immatériels 21. Les points de référence immatériels 21 sont ainsi nommés car contrairement aux points de référence matériels 19, ils ne sont pas associés à une structure permanente 15. Les points de référence immatériels 21 peuvent par exemple être répartis de part et d'autre de la surface d'eau 5, par exemple sur les berges de la surface d'eau 5. Les points de référence immatériels 21 peuvent aussi être placés dans le lit de la surface d'eau 5 quand celui-ci est bas.
Afin de faire apparaître les points de référence immatériel 21 le temps du géoréférencement et du référencement image, on indique pour chaque point immatériel 21 sa position sur le site à surveiller grâce à une structure temporaire 20 qui sera retirée une fois la phase de référencement achevée. La structure temporaire peut par exemple comprendre une balise 20. c. El 02 : Détermination des coordonnées géographiques références (x„o, yno, z„o) des points de référence 19,21
Lors d'une étape El 02, on géoréférence les points de référence 19,21 c'est-à-dire on détermine les coordonnées géographiques références (x„o, y„o, zn0) des points de référence 19,21 dans un système de coordonnées.
Le dispositif utilisé pour le géoréférencement est de préférence le théodolite car il permet des mesures rapides et précises. D'autres dispositifs sont envisageables pour le géoréférencement, par exemple le GPS (Global Positioning System) ou le lidar.
Dans le cas de l'utilisation d'un théodolite (non représenté), la mesure consiste à placer une cible réfléchissante sur chaque point de référence 19, 21 à géoréférencer. Le théodolite émet une onde lumineuse qui est réfléchie par les cibles réfléchissantes. Le déphasage entre l'onde lumineuse émise par le théodolite et l'onde lumineuse réfléchie par la cible réfléchissante permet de mesurer la distance entre le théodolite et la cible réfléchissante. On définit un repère géographique (O, X Y, Z). Par exemple on définit un axe (OX) horizontal selon le sens de l'écoulement de la surface d'eau, un axe (OZ) vertical ; et un axe (OY) orienté d'une rive de la surface d'eau à l'autre.
A partir de mesures de distances entre les cibles réfléchissantes et le théodolite dans le repère géographique (O, X, Y, Z), on peut déduire les coordonnées géographiques références ( no, yno, z„o) des points de référence 19,21.
Selon une forme de réalisation préférentielle, la position d'un point de référence matériel 19 et la position d'un point de référence immatériel 21 sont indiquées en même temps sur le site à observer, et leurs coordonnées géographiques références (x„o, y„o, zn0) respectives sont géoréférencées. Cette forme de réalisation nécessite donc autant de structures temporaires 20 que de points de référence immatériels 21. Par exemple on peut géoréférencer dix points de référence immatériels 21 dans le lit de la surface d'eau 5.
Selon une autre forme de réalisation, la position des points de référence matériel 19 est indiquée dans un premier temps, et leurs coordonnées géographiques références (x„o, y„o, zn0) respectives sont géoréférencées. Puis dans un deuxième temps, par exemple après plusieurs jours, la position des points de référence immatériels est indiquée grâce à une structure temporaire 20. Cette forme de réalisation nécessite donc aussi autant de structures temporaires 20 que de points de référence immatériels 21.
Une autre forme de réalisation, diffère des deux autres formes de réalisation en ce qu'on géoréférence les points de référence immatériels 21 un par un. Dans ce cas, on utilise une seule structure temporaire 20 que l'on déplace afin d'indiquer la position de chaque point de référence immatériel 21. d. El 03 : Capture d'une image référence
Une image référence du site d'observation contenant tous les points de référence matériels 19 et immatériels 21 peut ensuite être capturée par le dispositif de prise de vues 23 lors d'une étape El 03 de capture d'image référence.
Dans le cas où tous les points de référence immatériels 21 ont été balisés en même temps, le dispositif de prise de vues 23 capture une image référence unique présentant tous les points de référence matériels 19 et immatériels 21.
Dans le cas où les points de référence immatériels 21 ont été indiqués séparément des points de référence matériels 19, le dispositif de prise de vues 23 capture d'une part une image référence présentant seulement les points de référence matériels 19. D'autre part, le dispositif de prise de vue 23 capture une image de référence supplémentaire à chaque fois que la position d'un point de référence immatériel 21 est indiqué par une structure temporaire 20.
Si la position de chaque point de référence immatériel 21 a été indiquée au même moment, alors au final on dispose d'une première image de référence et d'une image de référence supplémentaire.
Si la position de chaque point de référence immatériel 21 est indiquée l'une après l'autre, alors au final on dispose d'une première image de référence et d'autant d'images de référence supplémentaires que de points de référence immatériels 21. e. El 04 : Détermination des coordonnées images références (i„o, j„o) des points de référence 19,21
Lors d'une étape El 04 de détermination des coordonnées images références (i„o, j„o) des points de référence 19,21 , l'utilisateur détermine manuellement ou automatiquement les coordonnées images références (i„o, j„o) présentées par les points de référence matériels 19 et immatériels 21 pendant la phase de référencement. Pour cela l'utilisateur ou un algorithme de traitement détermine et enregistre le numéro référence de ligne et le numéro référence de colonne correspondant respectivement à chacun des points de référence matériels 19 et immatériels 21.
Dans le cas où l'utilisateur dispose d'une unique image référence présentant tous les points de référence matériels 19 et immatériels 21 , alors l'utilisateur peut déterminer les coordonnées images références (i„o, j„o) de tous les points de référence matériels 19 et immatériels 21 à partir de cette unique image référence.
Dans le cas où l'utilisateur dispose d'une première image référence présentant seulement les points de référence matériels 19, et d'une image de référence supplémentaire présentant tous les points de référence immatériels 21 , alors il détermine les coordonnées images références (i„o, j„o) de tous les points de référence matériels 19 à partir de cette première image de référence. Les coordonnées images références (i„o, j„o) des points de référence immatériels 21 sont déterminées à partir de l'image de référence supplémentaire.
Les coordonnées des points de référence matériel et immatériels sont exprimées dans un même système de coordonnées images par repositionnement manuel ou automatique des deux images de référence.
Dans le cas où l'utilisateur dispose d'une pluralité d'images de référence supplémentaires chacune représentant un point de référence immatériel 21 , les coordonnées images références (i„o, j„o) des points de référence immatériels 21 sont respectivement déterminées à partir des images de référence supplémentaires. Les coordonnées des points de référence matériel et immatériels sont exprimées dans un même système de coordonnées images par repositionnement manuel ou automatique de toutes les images de référence.
Les coordonnées géographiques références (x„o, y„o, zn0) et les coordonnées images références (i„o, j„o) établies lors de la phase de référencement sont ensuite utilisées pour l'exploitation de toutes les images subséquentes. L'utilisation des structures temporaires 20 pour indiquer la position de points de référence immatériels 21 permet d'augmenter le nombre de points de référence 19, 21 et permet ainsi d'obtenir des résultats plus précis et/ou plus robustes.
3. E2 : Phase d'observation
La phase E2 d'observation débute après la phase El de référencement, comme schématisée sur la figure 6. La phase d'observation comprend une étape E20 de détermination du niveau de la surface d'eau et une étape E30 de détermination de vitesses de surface de la surface d'eau.
Pour cela, la phase d'observation E2 utilise les coordonnées géographiques références ( no, yno, z„o) et les coordonnées images références (i„o, j„o) respectives des points de référence matériels 19 et immatériels 21 déterminées lors de la phase El de référencement.
La phase E2 d'observation est automatisée grâce à la création d'algorithmes permettant de mener à bien toutes les étapes qui vont maintenant être décrites. a. E20 : Mesure du niveau de surface d'eau
L'étape E20 de mesure du niveau de la surface d'eau comprend une pluralité d'étapes schématisée sur la figure 7.
• E201 : Capture d'une image d'observation
Lors d'une étape E201 de capture d'image d'observation, le dispositif de prise de vues capture une image d'observation du site à surveiller. Le niveau de la surface d'eau 5 est déterminé à partir d'une seule image d'observation tel que sera détaillé par la suite.
• E202 : Transmission des données Lors d'une étape E202 de transmission de données, l'image d'observation capturée est transmise afin d'être traitée.
Selon une forme de réalisation, l'image d'observation capturée par le dispositif de prise de vues est transmise en temps réel à une unité où le traitement des images d'observation sera effectué.
La transmission de l'image d'observation peut être réalisée par internet grâce à une connexion Wifî ou fïlaire. La transmission peut aussi être effectuée via le réseau téléphonique. La transmission peut aussi être effectuée via un ordinateur placé sur site et connecté au dispositif de prises de vues.
Selon une autre forme de réalisation l'image d'observation est mise en mémoire dans une mémoire du dispositif de prise de vues, et est récupérée par un utilisateur se déplaçant sur le site d'observation.
Dans le cas de la transmission en temps réel, l'image peut aussi être enregistrée dans la mémoire du dispositif.
• E203 : Détection des déplacements de l'image d'observation Sous l'effet de contraintes extérieures, par exemple le vent ou les manipulations d'un utilisateur, la position du dispositif de prise de vues peut changer d'une image d'observation à l'autre. Par conséquent les objets du site peuvent sembler se déplacer alors qu'ils restent en réalité immobiles, et leur position sur l'image d'observation peut être faussée. La détection et la quantification de ces déplacements sont nécessaires afin de pouvoir recalculer les paramètres du modèle mathématique 911 et de minimiser l'erreur dans l'estimation du niveau de la surface de la surface d'eau 5.
Comme dit précédemment, on suppose que les points de référence matériels 19, sont immobiles dans le repère géographique (O, X, Y, Z), contrairement à leurs correspondants dans le repère image (Ο ', I, J). Les coordonnées géographiques (x„, y„, zn) des points de référence matériels 19 restent donc toujours égales aux coordonnées géographiques références ( no, yno, zno). Au contraire, les coordonnés images d'observation (in, jn) des points de référence matériels 19 varient sur chaque image d'observation par rapport aux coordonnées images références (i„o, j„o) des mêmes points de référence matériels 19 déterminées lors de la phase de référencement.
Le modèle mathématique 911 doit donc être calculé pour chaque image d'observation. Pour cela, on mesure le déplacement des points de référence matériels 19 et du support visuel 7 d'une image d'observation à l'autre. Ce déplacement est illustré par la figure 8a. La figure 8a représente une image d'observation sur laquelle la position référence définie par les coordonnées images références (ino, jno) sur l'image référence des points de référence matériels 19 est indiquée par des triangles. On emploie le terme image de référence pour l'image capturée lors de la phase de référencement comprenant tous les points de référence matériels 19. Selon la forme de réalisation du procédé, on utilise soit l'unique image de référence, soit la première image de référence. La position d'observation définie par les coordonnées images d'observation (in, jn) sur l'image d'observation des points de référence matériels 19 est indiquée par des carrés. Le déplacement des points de référence matériels 19 entre l'image de référence et l'image d'observation est indiqué par des flèches.
On cherche les coordonnées images d'observation (in, jn) des points de référence matériels 19 sur l'image d'observation.
A cet effet, on applique la même méthode de corrélation que la PIV précédemment décrite. On découpe l'image référence ainsi que l'image d'observation en une pluralité de fenêtres. Par exemple des carrés de 32x32 pixels. Puis, pour chaque fenêtre de l'image référence contenant au moins un point de référence matériel 19, l'algorithme recherche dans l'image d'observation, la fenêtre lui ressemblant le plus, c'est-à-dire présentant la meilleure corrélation.
Bien entendu, cette opération ne peut pas utiliser les points de référence immatériels 21 car les structures temporaires 20 ont été retirées du site d'observation. En effet, à ce stade du procédé de détermination, les points de référence immatériels 21 n'ont plus de correspondants distinguables dans le site à observer. On ne peut donc pas calculer leur déplacement par rapport à l'image référence.
On répète la PIV pour tous les points de référence matériels 19, on obtient ainsi le déplacement individuel de chaque point de référence matériel 19.
Tous les points de référence matériels 19 ne sont pas reconnus avec la même qualité dans l'image d'observation. En conséquence, la valeur de la corrélation n'est pas la même selon les points de référence, cela peut être dû à des contraintes climatiques particulières, comme l'apparition de brouillard, de zones d'ombre, ou si le point de référence matériel 19 est temporairement masqué.
Pour cette raison, la valeur de la corrélation entre la position référence et la position d'observation des points de référence matériels 19 est comparée à un seuil préalablement fixé. Si la valeur de la corrélation calculée est inférieure à ce seuil, alors le point de référence matériel 19 n'a pas été bien reconnu. Si la valeur de la corrélation calculée est supérieure ou égale à ce seuil, alors le point de référence matériel a bien été reconnu. Ce seuil minimum de corrélation a été fixé à 0,7.
Puis un déplacement global de l'image d'observation est identifié. Le déplacement global correspond au déplacement individuel commun à une majorité de points de référence matériels 19, c'est à dire le déplacement le plus fréquemment observé, parmi les points de référence matériels 19 présentant une corrélation supérieure ou égale au seuil minimum de corrélation.
Si la corrélation des points de référence matériels est inférieure au seuil minimum de corrélation, alors le déplacement global n'est pas calculé pour cette image d'observation. On peut alors utiliser le déplacement global établi pour une précédente image d'observation.
Tolérer les mouvements possibles du dispositif de prises de vues 23 dans le protocole expérimental puis les corriger lors du traitement des images d'observation, permet de relâcher les contraintes physiques sur le dispositif de prise de vues 23 et rend ainsi le procédé de détermination plus simple à mettre en œuvre.
Selon une autre forme de réalisation, le procédé de détermination impose que le dispositif de prise de vues 23 reste parfaitement immobile entre la capture de l'image référence et la capture de l'image d'observation. · E204 : Correction du déplacement de l'image d'observation
Lors d'une étape E204 de correction du déplacement de l'image d'observation, une correction est appliquée aux points de référence 19, 21. La correction consiste à déterminer des coordonnées images corrigées (inc, j„c) des points de référence, de sorte que tous les points de référence 19, 21 aient subi le même déplacement global entre l'image de référence et l'image d'observation. La figure 8b illustre le déplacement global identifié. Sur cette figure, la position référence des points de référence matériels 19 définie par les coordonnées images références (i„o, j„o) est indiquée par un triangle. Les flèches représentent le déplacement global de l'image d'observation par rapport à l'image référence. Les cercles représentent les positions corrigées définies par les coordonnées images corrigées (inc, j„c) des points de référence matériels 19 calculées grâce au déplacement global. Les carrés en pointillés représentent les positions observation définies par les coordonnées d'observation (in, jn) détectées sur l'image d'observation. Les points de référence matériels 19 pour lesquels le déplacement individuel avait fourni de mauvaises positions sur l'image d'observation sont encerclés. • E205 : Détermination du modèle mathématique.
Lors d'une étape E205 de détermination du modèle mathématique, on établit le modèle mathématique permettant le passage du repère géographique (O, X, Y, Z) au repère image dans l'image d'observation (Ο ', I, J).
En effet, connaissant d'une part les coordonnées géographiques des points de référence matériels 19 et immatériels 21 , supposées invariantes et coordonnées images références (i„o, j„o), et d'autre part, leurs coordonnées images d'observation (in, jn) et la correction à appliquer à ces coordonnées d'observation (i„, j„), il est possible de déterminer les coefficients ntij du modèle mathématique
• E206 : Correction de la position du support visuel 7
Lors d'une étape E206 de correction de la position du support visuel 7, on corrige la position du support visuel 7. Pour cela, on calcule la position image du support visuel 7 dans l'image d'observation. Ceci est illustré par les figures 9a, 9b.
La figure 6a représente une partie de l'image d'observation telle que capturée par le dispositif de prise de vues.
Le support visuel ayant été géoréférencé lors de la phase de référencement, on utilise le déplacement global pour trouver sa position image en première approximation. Cette position image en première approximation est indiquée en pointillés sur la figure 9a.
Afin de déterminer la position améliorée image du support visuel 7 c'est-à-dire avec plus de précision, on effectue ensuite une analyse colorimétrique des pixels voisins aux pixels déterminant la position image en première approximation du support visuel 7. Par exemple une zone de plus au moins cinq pixels autour de la position du support visuel 7 en première approximation est analysée. Le support visuel 7 a une couleur distinguable de celle de son environnement voisin. L'analyse comprend de préférence le calcul d'une pluralité de gradients de couleur entre pixels adjacents. L'analyse comprend de plus une comparaison de la pluralité de gradients de couleur ainsi qu'une sélection des gradients de couleur maximum. Les gradients de couleur maximum permettent d'identifier les contours du support visuel 7. La sélection des gradients maximums permet de s'affranchir de la définition d'un seuil de variation colorimétrique pour la mise en évidence des contours du support visuel 7.
La position améliorée image est indiquée en traits pleins sur la figure 9b.
Selon une autre forme de réalisation, on capture une image d'observation en niveau de gris, et on calcule des gradients de luminosité. • E207 : Détermination de l'intersection 25a entre le support visuel 7 et la surface d'eau 5
Puis on détermine l'intersection entre le support visuel 7 et la surface d'eau 5 lors d'une étape E207 de détermination de l'intersection 25a entre le support visuel 7 et la surface d'eau 5.
La recherche de la position du niveau de la surface d'eau 5 sur l'image d'observation se déroule en deux étapes : une étape de détermination d'une pluralité d'intersections possibles 25 entre le support visuel 7 et la surface d'eau 5, et une étape de choix final de l'intersection réelle 25a. Ces deux étapes sont illustrées par les figures 10a, 10b, 10c.
L'étape de détermination d'une pluralité d'intersections possibles 25 est illustrée par la figure 10a. Cette détermination est réalisée en analysant les discontinuités colorimétriques des pixels correspondant à la position améliorée image du support visuel 7.
Il a été déterminé expérimentalement que la caractéristique colorimétrique permettant la meilleure prise en compte des variations lumineuses est la Saturation dans le codage HSV décrit précédemment. La Saturation décrit la « pureté » d'une couleur, c'est-à-dire l'écart de blanc par rapport à la Teinte de base d'un pixel. C'est donc, de préférence, la Saturation des pixels de l'image d'observation qui est utilisée dans l'estimation du niveau de la surface d'eau 5.
Selon une autre forme de réalisation, on utilise la Teinte ou la Luminance du codage
HSV.
Selon encore une autre forme de réalisation, on utilise le codage RGB.
Dans de bonnes conditions d'observation, cette intersection réelle 25a est représentée par une discontinuité colorimétrique entre les pixels « couleur support visuel » et les pixels « couleur surface d'eau ». Il est donc suffisant de rechercher la modification de la couleur sur le support visuel 7. Par bonnes conditions, on comprend de bonnes conditions lumineuses et un support visuel 7 dégagé.
Cependant, dans la plupart des cas, l'intensité de la discontinuité colorimétrique dépend des conditions lumineuses au moment de la capture de l'image d'observation. De plus, la présence possible d'objets, telle que des branches, des feuilles ou de la neige sur le support visuel 7 font apparaître de nouvelles discontinuités colorimétriques. La détection de discontinuité colorimétrique n'est donc pas suffisante pour estimer le niveau de la surface d'eau 5. Ces intersections possibles 25 sont illustrées par des traits horizontaux en pointillés sur la figure 10a.
La détection de discontinuité colorimétrique n'est donc pas suffisante pour estimer le niveau de la surface d'eau 5.
Lors de l'étape de choix final, on identifie la position de l'intersection réelle 25a.
A cet effet, on détermine les contours 27 du support visuel 7 représentés en traits plein sur la figure 10b. En effet la forme du support visuel 7 est connue et reconnaissable par l'algorithme quelles que soient les conditions lumineuses ou l'état de recouvrement du support visuel 7 par des objets. Sur les figures illustrant le procédé de détermination, le support visuel 7 présente la forme d'un parallélogramme.
Selon d'autres modes de réalisation, on utiliser un support visuel 7 présentant une autre forme.
Afin de déterminer les contours 27 du support visuel 7, on calcule les gradients d'une pluralité de caractéristiques colorimétriques des pixels représentant le support visuel 7 ainsi que des pixels voisins du support visuel 7. Les caractéristiques colorimétriques comprennent la Saturation, la Teinte et la Norme. On peut utiliser une combinaison des caractéristiques colorimétriques afin d'augmenter la précision des résultats Pour calculer les gradients, on convolue l'image d'observation ou une partie de celle-ci englobant le ou les supports visuels avec des masques, tels que les masques de Sobel ou Prewitt permettant encore d'améliorer la précision sur la position améliorée image du support visuel 7.
En utilisant ces gradients adaptés à la forme du support visuel 7, il est possible de détecter la disparition des contours 27 du support visuel 7 lorsque le support visuel 7 entre dans la surface d'eau 5. Parmi les intersections possibles 25, celle correspondant à la disparition des contours 27 du support visuel 7, est donc définie comme étant l'intersection réelle 25a. L'intersection réelle 25a est indiquée sur la figure 10c par un trait plein sensiblement horizontal.
• E208 : Calcul du niveau de la surface d'eau 5
Enfin, le niveau de la surface d'eau 5 est calculé lors d'une étape E208 de calcul du niveau de la surface d'eau 5. Pour cela, on mesure la distance en pixels entre le sommet immergé du ou des support(s) visuel(s) 7 dont on a identifié les positions géographiques, et la surface de la surface d'eau 5. Cette distance en pixels est ensuite convertie en unités métriques en inversant le modèle mathématique 911 calculé pour l'image d'observation. b. E30 : Détermination des vitesses de surface
Lors de l'étape E30 de détermination des vitesses de surface, les vitesses de surface de la surface d'eau peuvent être déterminées grâce à la PIV (vélocimétrie par imagerie de particules). On note qu'il n'y a pas une seule vitesse de surface uniforme sur toute l'étendue de la surface d'eau, mais plutôt une pluralité de vitesses de surfaces.
L'étape E30 de détermination des vitesses de surface comprend une pluralité d'étapes, schématisée par la figure 11.
• Capture et calcul du niveau de la surface d'eau de deux images d'observation
La méthode PIV appliquée à la détermination de vitesses de surface de la surface d'eau 5 nécessite d'une part, deux images d'observation, et d'autre part de connaître le niveau de la surface d'eau 5 sur ces deux images d'observation. Il est donc possible de réaliser deux fois l'étape E20 de détermination du niveau de surface d'eau 5 avant de pouvoir réaliser l'étape E30 de détermination de vitesses de surface.
Selon une variante, on réalise une seule fois l'étape E20 compte tenu de la faible variation de niveau de la surface 5 dans le faible laps de temps séparant les deux images d'observation.
Pour estimer les vitesses de surface de la surface d'eau 5, la PIV va utiliser le déplacement de traceurs. On définit un traceur comme étant un objet en déplacement à la surface de l'eau 5. Chaque vitesse de surface de la surface d'eau 5 est assimilée à une vitesse de déplacement d'un traceur à la surface de l'eau 5. La plupart du temps les traceurs comprennent des vaguelettes à la surface de l'eau 5. Les vaguelettes sont perçues avec des couleurs différentes de la surface d'eau 5, puisqu'elles sont éclairées différemment. Les traceurs peuvent aussi comprendre des branches d'arbres ou des feuilles flottant à la surface de l'eau 5.
La vitesse de déplacement des traceurs est déduite de la connaissance du temps séparant la capture de la première image d'observation et la capture de la deuxième image d'observation.
• E301 Création d'une image à l'échelle Plus la distance entre un objet et le dispositif de prise de vues 23 est grande, et plus un pixel couvre une large surface du site à surveiller. En d'autres termes, un objet éloigné du dispositif de prise de vues 23 se déplaçant de par exemple deux pixels, se sera déplacé plus loin dans le monde réel qu'un objet proche de la caméra se déplaçant de deux pixels Cette augmentation est d'autant plus marquée que l'angle entre l'axe de visée du dispositif de prise de vues 23 et la surface d'eau 5 est faible.
La figure 12 schématise un dispositif de prise de vues 23 placé sur une rive droite 31 de la surface d'eau 5. La rive droite 31 et la rive gauche 33 sont déterminées par le sens de l'écoulement de la surface d'eau 5 qui est indiqué par une flèche.
Sur cet exemple, le dispositif de prise de vues 23 est fixé sur un trépied s 'élevant à une hauteur h de 2m au-dessus du niveau de la surface d'eau (hors régime de crue). L'axe de visée 35, du dispositif de prise de vues 23 fait un angle Θ très faible avec la surface d'eau, représenté en pointillé, ici de l'ordre de 5°. L'axe de visée 35 du dispositif de prise de vues 23 et la surface d'eau 5 sont donc sensiblement parallèles.
La distance L entre le dispositif de prise de vues 23 et le support visuel 7 est environ
80m. Dans ces conditions, les pixels représentatifs de la rive gauche 33 de la surface d'eau 5, c'est-à-dire une zone éloignée du dispositif de prise de vues 23 représentent une surface plus grande que les pixels représentatifs de la rive droite 31 de la rivière, c'est-à-dire une zone proche du dispositif de prise de vues 23. Donc un objet proche de la rive gauche 33 se déplaçant d'un pixel entre deux images d'observation, se déplacera en réalité d'une distance plus grande qu'un objet proche de la rive droite se déplaçant aussi d'un pixel entre deux images d'observation. Afin de corriger la correspondance géographique des déplacements en pixel, on peut appliquer deux types de correction.
Selon une forme de réalisation préférentielle, on applique une correction géométrique à l'image d'observation afin d'imposer que tous les pixels représentent la même surface géographique. A cet effet, on réalise une étape E301 de création d'une image « mise à l'échelle » lors de laquelle on crée une image « mise à l'échelle » de la surface d'eau 5 pour laquelle tous les pixels images représentent la même surface géographique. Cela revient à déformer les pixels éloignés du dispositif de prise de vue 23 dans l'image en diminuant leur surface, et à inversement augmenter la surface des pixels proches.
La figure 13 représente la surface d'eau 5 sur l'image mise à l'échelle. Sur cet exemple chaque division représente un pixel déformé 34. Les pixels déformés 34 représentent tous une surface de 2,5x2,5 cm2. Cette surface a été imposée quelle que soit la position du pixel sur l'image. La taille est le nombre des pixels déformés 34 sur cette figure n'est pas une représentation de la réalité. Leur nombre a été réduit et leur taille augmentée pour une meilleure compréhension. Comme dit précédemment, l'image présente plusieurs centaines voire plusieurs milliers de pixels selon chaque axe.
Pour utiliser l'image mise à l'échelle, il est nécessaire de connaître la position du niveau de la surface d'eau 5 sur l'image d'observation, d'une part pour supprimer des zones fixes correspondant aux rives 31, 33 et aux structures matérielles permanentes, (l'intérêt de la suppression de zones fixes est décrite dans la partie suivante) et d'autre part pour pouvoir calculer les positions, dans l'espace géographique, de tous les pixels de la surface d'eau 5. Pour cela, le calcul du niveau de la surface d'eau 5, tel que défini précédemment, fournit les informations nécessaires.
La surface des pixels est fixée soit par l'utilisateur, soit par les dimensions de l'image d'observation et du champ du dispositif de prise de vue. La position de chaque pixel de l'image d'observation dans l'image mise à l'échelle est calculée en fonction de ses coordonnées géographiques et de cette surface fixée.
L'avantage de cette méthode est qu'elle permet de calculer des déplacements dans toutes les directions de façon identique, puisque la taille d'un traceur s'approchant ou s'éloignant du dispositif de prise de vues ne change pas. Ceci permet une disposition quelconque du dispositif de prise de vues par rapport au sens de l'écoulement de la surface d'eau 5.
Selon une autre forme de réalisation, les fonctions de corrélations de la PIV sont calculées directement à partir d'images d'observation non corrigées par la mise à l'échelle. Ceci a pour avantage de ne pas dégrader les formes des traceurs. Dans ce cas le dispositif de prise de vues doit être positionné de façon à ce que l'axe vertical ou l'axe horizontal de l'image d'observation soit parallèle au sens de l'écoulement de la surface d'eau.
• E302 : Suppression des zones fixes
Quand les zones fixes de l'image d'observation couvrent une surface plus grande que les traceurs dont on cherche à établir le déplacement, alors les résultats de la PIV peuvent être dégradés. En effet, la fonction de corrélation sera maximale lorsque les zones fixes de la première image de PIV et de la deuxième image de PIV se superposeront et non lorsque les traceurs des deux images de PIV se superposeront. On reprend l'exemple illustré par les figures 3a et 3b. Si la zone mouvante 9 télésiège apparaissait beaucoup plus petite que la zone fixe 11 montagne, alors la PIV aurait mesuré le déplacement de la zone fixe 11 montagne et non de la zone mouvante 9 télésiège.
Pour un traitement d'image d'observation optimal, on prend donc en compte l'existence de zones fixes 11 sur les images d'observation. Les zones fixes 11 sur l'image d'observation comprennent par exemple les rives de la surface d'eau 5, les structures permanentes 15 ou bien encore le reflet des arbres sur la surface d'eau 5.
Selon une forme préférentielle de réalisation, on effectue une étape E302 de suppression des zones fixes 11 sur l'image mise à l'échelle (ou sur l'image d'observation si l'étape E301 de création d'image à l'échelle n'a pas été réalisée) avant d'utiliser la PIV. Pour cela, on doit dans un premier temps déterminer la position des zones fixes 11 et la position des zones mouvantes 9.
Selon une forme de réalisation, on détermine les zones fixes 11 et les zones mouvantes 9, en détectant les couleurs des traceurs 37. Selon une autre forme de réalisation, on détecte les contours des traceurs 37.
On utilise de préférence la détection des couleurs des traceurs 37 car cette solution est plus simple à mettre en œuvre. Dans ce cas, la modification de la position d'un traceur 37 dans le monde réel est représentée par des pixels dont la couleur a été fortement modifiée entre la première et la deuxième image d'observation.
Par couleur, on entend les caractéristiques colorimétriques telles que décrites précédemment. Pour l'étape E302 de suppression des zones fixes, on utilise de préférence une combinaison des caractéristiques colorimétriques du codage RGB.
La figure 14a représente une première image d'observation, la figure 14b représente une deuxième image d'observation capturée après la première image d'observation. Les figures 14a et 14b comprennent toutes deux les zones fixes 11 et les zones mouvantes 9. Les figures 14a et 14b comprennent aussi un traceur 37, par exemple un bidon en plastique flottant à la surface de la surface d'eau 5. La zone mouvante 9 correspondant à la position image du traceur 37 a été entourée sur les figures 14a et 14b. Pour une meilleure compréhension, les figures 14a et 14b représentent des images d'observation non mises à l'échelle.
Pour mettre en évidence ces zones mouvantes 9, on réalise une image composite en soustrayant la première à la deuxième image d'observation (ou vice-versa). Deux exemples d'image composite sont illustrés par les figures 14c et 14d. Les pixels représentant une zone fixe 11, présentent une couleur semblable sur la première et la deuxième image d'observation. Par conséquent, l'image composite résultant de la soustraction de la première à la deuxième image d'observation présente une valeur de pixel très faible à l'emplacement d'une zone fixe 11.
Inversement, les pixels représentant une zone mouvante 9, présentent des couleurs différentes entre la première et la deuxième image d'observation est élevée. Par conséquent, l'image composite présentera une valeur de pixel élevée à l'emplacement d'une zone mouvante 9.
Les pixels dont la couleur est sensiblement invariante d'une image d'observation à l'autre ne sont pas conservés. Ainsi, l'information relative aux zones fixes 11 est supprimée.
Ne sont conservés pour analyse, que les pixels dont la couleur a fortement changé d'une image d'observation à l'autre. Le terme « fortement » se traduit par un seuil de variation de couleur. Afin de ne pas avoir à définir un seuil de variation de couleur adapté à chaque site d'observation et à chaque condition lumineuse, on utilise un système itératif de recherche de zones fixes 11. On pallie ainsi le problème du dimensionnement du seuil de variation de couleur.
En effet, le concept du système itératif est que plus la couleur d'un même pixel varie entre deux images d'observation, et plus on est certain d'avoir détecté une zone mouvante 9. Dans une première itération, on utilise un premier seuil de variation haut. Les pixels dont la variation de couleur est supérieure au premier seuil de variation de couleur sont conservés pour l'itération suivante, les pixels dont la variation de couleur est inférieure au premier seuil de variation de couleur ne seront plus utilisés dans le système itératif.
On réitère la comparaison en diminuant le seuil de variation de couleur à chaque itération, jusqu'à atteindre une valeur minimale du seuil de variation non nulle. On sélectionne alors l'image composite résultant d'une itération correspondant à un seuil moyen, par exemple 60% du seuil pour lequel commençait à apparaître des zones mouvantes. Ceci est illustré par la figure 14c représentant une première image composite. Sur cette figure, des zones mouvantes en première approximation 91 sont représentées en noir, les zones fixes 11 sont représentées en blanc. Une première zone mouvante en première approximation 91a et une deuxième zone mouvante en première approximation 91 correspondent aux positions du traceur 37 respectivement indiquées dans les figures 14a et 14b.
Selon le principe de composition d'une image composite par soustraction de deux images d'observation successives, les zones mouvantes en première approximation 91 vont apparaître en double. Selon l'exemple, le traceur 37 apparaît deux fois sur la première et la deuxième image composite. La première zone mouvante en première approximation 91a correspond à la position du traceur 37 sur la première image d'observation. La deuxième zone mouvante en première approximation 91b correspond à la position du même traceur 37 sur la deuxième image d'observation.
On voit aussi des zones mouvantes parasites en première approximation 91c, par exemple au premier plan de la première image composite. Ces zones mouvantes sont qualifiées de parasites car elles n'apportent pas d'information sur les traceurs 37. Sur la première image composite en exemple, les zones mouvantes parasites en première approximation 91c correspondent à des végétaux s 'étant légèrement déplacés à cause du vent.
Afin de supprimer les zones mouvantes parasites en première approximation 91c, on réalise une deuxième itération en diminuant le seuil de variation. Ainsi, des zones correspondant à des variations de couleurs de moins en moins élevées sont déterminées. La figure 14d représente une deuxième image composite obtenue avec un deuxième seuil de variation plus élevé que le premier seuil de variation. Des zones mouvantes parasites en deuxième approximation 93c apparaissent, cependant leur taille est réduite par rapport à celle des zones parasites en première approximation 91c.
La taille de la première zone mouvante en deuxième approximation 93 a et de la deuxième zone mouvante en deuxième approximation 93b est aussi réduite par rapport à la taille de la première zone mouvante en première approximation 91a et de la deuxième zone mouvante en première approximation 91b.
Le système itératif est arrêté lorsqu'une valeur minimale non nulle de variation de couleur est atteinte. Parmi toutes les valeurs de seuil testées, on choisit une valeur intermédiaire, par exemple celle correspondant à 60% de la valeur maximale pour laquelle des zones mouvantes apparaissent. Plus cette condition d'arrêt est élevée, plus les zones déterminées comme mouvantes 9 correspondent à des variations importantes de couleur, et donc plus elles sont certaines.
Selon une autre forme de réalisation, on ne procède pas à la suppression des zones fixes 11.
• E303 : Application de la PIV
Finalement, on détermine le déplacement du traceur 37 grâce à la PIV lors d'une étape E303 d'application de PIV. Si les zones fixes ont été supprimées lors de l'étape E302 de suppression des zones fixes, alors le calcul de la PIV est effectué sur les pixels composants les zones mouvantes 9 et non plus sur l'image composite entière. Cette correction permet de réduire l'incertitude sur l'estimation du champ de vitesse de surface de la surface d'eau.
Etant donné que le même traceur 37 apparaît à deux positions sur une même image composite, la PIV calcule deux déplacements de sens opposés. Le choix entre les deux déplacements peut par exemple s'effectuer en contraignant le sens amont-aval du courant sur les images composites.
Puis, la PIV détermine les vitesses de surface en pixel par seconde en divisant le déplacement de chaque traceur 37 par l'intervalle de temps entre la capture de la première image d'observation et la capture de la deuxième image d'observation.
La figure 15 représente les vitesses de surface de la surface d'eau 5. Chaque flèche individuelle représente la vitesse de surface d'un traceur.
• E304 : Calculs des vitesses de surface métriques
Finalement, on convertit les vitesses de surface en pixel en vitesses de surface métriques lors d'une étape E304 de calculs des vitesses de surface métriques. Le procédé comprend une méthode simple pour calculer les déplacements métriques à partir des déplacements en pixels sur les images d'observation. En effet, la création d'image à l'échelle permet de calculer la vitesse de surface d'un traceur 37 à partir de l'équation (3):
Figure imgf000036_0001
Où :
o V(X, y) est la vitesse d'un traceur, ici en m. s" , calculée à partir des coordonnées image du traceur 37 correspondant à une position géographique (x,y) sur la surface d'eau de niveau précédemment estimé.
o AJ(ij) sont les déplacements en pixels calculés par la PIV du traceur de coordonnées (i ), (les unités de ΔΙ et AJ sont exprimées en unité pixel. On divise ensuite par le temps entre deux images pour calculées une vitesse en unité pixel, s- 1. La connaissance de la hauteur d'eau en unité métrique permet ensuite d'exprimer ces déplacements en m.s"1)
o TH, Tv sont les dimensions métriques respectivement verticale et horizontale des pixels définis lors de la création de l'image à l'échelle. Dans l'exemple, TH=Tv=0,025m. Selon la forme de réalisation où on ne réalise pas d'image mise à l'échelle, la taille métrique des déplacements est calculée en inversant la matrice de transformation géométrique pour les deux points image définissant le vecteur, ceci en s 'appuyant sur la connaissance de la position du plan d'eau.
On comprend donc qu'un procédé détermination du niveau d'une surface d'eau et des vitesses de surface de la surface d'eau selon l'invention, utilisant des points de référence immatériels répartis sur tout le site d'observation permet d'améliorer la précision des résultats d'une façon simple et non intrusive et sans pour autant augmenter signifîcativement le coût du procédé par rapport aux solutions proposées par l'art antérieur.

Claims

REVENDICATIONS
1. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) par imagerie, comprenant les étapes suivantes :
• une phase de référencement comprenant les étapes suivantes :
o on répartit des points de référence (19,21) sur un site d'observation, ledit site d'observation comprenant une surface d'eau (5), au moins une structure permanente (15) et au moins un support visuel (7) au moins partiellement immergé dans la surface d'eau (5), lesdits points de références (19,21) comprenant des points de référence matériels (19) présents sur la structure permanente (15) et sur le support visuel (7),
o on mesure les coordonnées géographiques référence (x„o, y„o, zn0) desdits points de référence (19,21),
o on détermine des coordonnées référence (i„o, j„o) desdits points de référence (19,21) à partir d'au moins une image référence,
• une phase d'observation comprenant les étapes suivantes :
o on capture au moins une image d'observation du site d'observation,
o on établit un modèle mathématique (911) permettant de déterminer les coordonnées images d'un objet compris sur le site d'observation, à partir de coordonnées géographiques dudit objet, grâce aux coordonnées géographiques référence (x„o, yno, z„o) des points de référence (19,21), aux coordonnées images référence (i„o, jno) respectives desdits points de référence (19,21) et à des coordonnées images d'observation (in, jn) respectives desdits points de référence (19,21) sur l'image d'observation,
o on établit les coordonnées images d'observation (in, jn) de la surface d'eau (5) à l'emplacement du au moins un support visuel (7) sur l'image d'observation grâce au support visuel (7),
o on utilise le modèle mathématique (911) avec les coordonnées images d'observation (in, jn) de la surface d'eau (5) sur l'image d'observation pour déterminer au moins un paramètre d'observation de la surface d'eau (5),
caractérisé en ce que la phase de référencement comprend l'étape suivante:
o on place au moins une structure temporaire (20) sur le site d'observation à distance de la structure permanente (15) et à distance du support visuel (7) afin d'indiquer une position d'au moins un point de référence immatériel (21).
2. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon la revendication 1, caractérisé en ce que la surface d'eau est déterminée par colorimétrie des pixels.
3. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon l'une des revendications précédentes, caractérisé en ce que la phase d'observation comprend une étape supplémentaire lors de laquelle :
• on détecte les points de référence matériels (19) sur l'image d'observation,
• on compare les coordonnées images d'observation (in, jn) des points de référence matériels (19) satisfaisant un seuil minimum de corrélation avec leurs coordonnées images référence (i„o, jno) respectives points de référence matériels (19),
• on détermine un déplacement individuel des points de référence matériels (19) satisfaisant un seuil minimum de corrélation entre l'image d'observation et l'image référence,
• on détermine un déplacement global de l'image d'observation correspondant au déplacement individuel commun à une majorité de points de référence matériels (19) satisfaisant un seuil minimum de corrélation,
• on corrige les coordonnées images de tous les points de référence (19, 21) de sorte que chaque point de référence (19, 21) se déplace d'une distance égale au déplacement global entre l'image de référence et l'image d'observation, on obtient ainsi des coordonnées images corrigées (inc, j„c) desdits points de référence matériels (19) et desdits points de référence immatériels (21),
• on établit le modèle mathématique (911) à partir des coordonnées géographiques référence (x„o, y„o, zn0) desdits points de référence matériels (19) et desdits points de référence immatériels (21), et de leurs coordonnées images corrigées (inc, j„c) respectives.
4. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon l'une des revendications précédentes, caractérisé en ce que les paramètres d'observation comprennent au moins un paramètre parmi le niveau de la surface d'eau (5) et les vitesses de surfaces de la surface d'eau (5).
5. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon l'une des revendications précédentes, caractérisé en ce qu'on établit les coordonnées images d'observation de la surface d'eau (5) à l'emplacement du au moins un support visuel (7) comme correspondant aux coordonnées images d'observation de l'intersection réelle (25a) entre le au moins un support visuel (7) et la surface d'eau (5).
6. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon la revendication 5, caractérisé en ce que la détermination de l'intersection réelle (25a) entre le support visuel (7) et la surface d'eau (5) comprend les étapes suivantes :
• on détermine une pluralité d'intersections possibles (25) entre le support visuel (7) et la surface d'eau (5) en analysant la valeur d'au moins un paramètre associé aux pixels représentant une zone de l'image comprenant au moins le support visuel (7) et une partie de la surface d'eau (5),
• on détermine les contours (27) du support visuel (7) en analysant la valeur d'au moins un autre paramètre associé aux pixels représentant une zone de l'image comprenant au moins le support visuel (7) et une partie de la surface d'eau (5),
• on détermine l'intersection réelle (25a) comme correspondant à la fois à une intersection possible (25) et à une discontinuité des contours (27) du support visuel (V).
7. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon l'une des revendications 4 à 6, caractérisé en ce qu'au moins une vitesse de surface est calculée à partir d'une première image d'observation et d'une deuxième image d'observation, en estimant le déplacement d'au moins un traceur (37) sur la surface de la surface d'eau (5) entre ladite première image d'observation et ladite deuxième image d'observation, et à partir d'un intervalle de temps entre la capture de ladite première image d'observation et ladite deuxième image d'observation.
8. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon la revendication 7, caractérisé en ce que le déplacement du traceur (37) est déterminé par vélocimétrie par imagerie de particules.
Procédé de détermination d'un paramètre d'observation associé à une surface d' (5) selon l'une des revendications 7 ou 8, comprenant les étapes suivantes : • on soustrait deux images d'observation afin d'obtenir une image composite,
• on compare la valeur d'au moins un paramètre associé aux pixels de l'image composite à un seuil de variation de la valeur dudit paramètre,
• on conserve des zones de l'image composite définies par les pixels dont la valeur d'au moins un paramètre est supérieure audit seuil de variation de la valeur dudit paramètre, les zones de l'image composite conservées sont appelées zones mouvantes
(9),
• on détermine les vitesses de surface des traceurs (37) à partir desdites zones mouvantes.
10. Procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon l'une des revendications 7 à 9, caractérisé en ce que la détermination d'au moins une vitesse de surface comprend une étape supplémentaire lors de laquelle on crée une première image mise à l'échelle à partir de la première image d'observation et une deuxième image mise à l'échelle à partir de la deuxième image d'observation sur lesquelles tous les pixels représentent la même surface géographique.
11. Système de détermination d'un paramètre d'observation associé à une surface d'eau (5), pour la mise en œuvre d'un procédé de détermination d'un paramètre d'observation associé à une surface d'eau (5) par imagerie selon l'une quelconque des revendications précédentes, caractérisé en ce que ledit système comprend :
• un dispositif de prise de vues (23) configuré pour capturer des données relatives à un site d'observation comprenant la surface d'eau (5), lesdites données comprenant : o au moins une image d'observation du site d'observation comprenant la surface d'eau (5), au moins une structure permanente (15) et au moins un support visuel (7) au moins partiellement immergé dans la surface d'eau (5), et
o au moins une image référence du site d'observation comprenant des points de référence matériels (19) et immatériels (21), lesdits points de référence matériels étant présents sur la structure permanente (15) et sur le support visuel (7), et la position d'au moins un point de référence immatériel (21) étant indiquée à l'aide d'au moins une structure temporaire (20) sur le site d'observation à distance de la structure permanente (15) et à distance du support visuel (7), • des moyens de détermination de coordonnées géographiques référence (x„o, yno, zno) desdits points de référence matériels (19) et desdits points de référence immatériels (21),
• des moyens de traitement des données configurés pour :
o déterminer des coordonnées images références (i„o, j„o) des points de référence matériels (19) et des points de référence immatériels (21),
o déterminer un modèle mathématique (911) permettant de calculer des coordonnées images à partir de coordonnées géographiques d'un objet sur le site d'observation en utilisant les coordonnées géographiques référence (x„o, y„o, zn0) et coordonnées images référence (i„o, j„o) des points de référence matériels (19) et des points de référence immatériels (21) et des coordonnées images d'observation (in, jn) respectives desdits points de référence (19,21) sur l'image d'observation, o établir les coordonnées images d'observation (in, jn) de la surface d'eau (5) à l'emplacement du au moins un support visuel (7) sur l'image d'observation grâce au support visuel (7),
o utiliser le modèle mathématique (911) avec les coordonnées images d'observation (in, jn) de la surface d'eau (5) sur l'image d'observation pour déterminer au moins un paramètre d'observation de la surface d'eau (5), et
• des moyens de transmission des données entre le dispositif de prise de vues (23) et les moyens de traitement des données.
12. Système de détermination d'un paramètre d'observation associé à une surface d'eau (5) selon la revendication 1 1 , caractérisé en ce que le dispositif de prise de vues (23) est un dispositif de prise de vues numérique.
PCT/EP2013/065324 2012-07-19 2013-07-19 Procede de determination de parametres d'observation d'une surface d'eau par imagerie WO2014013064A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP13739696.6A EP2875316B1 (fr) 2012-07-19 2013-07-19 Procede de determination de parametres d'observation d'une surface d'eau par imagerie

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1256965 2012-07-19
FR1256965A FR2993689B1 (fr) 2012-07-19 2012-07-19 Procede de determination de parametres d'observation d'une surface d'eau par imagerie

Publications (1)

Publication Number Publication Date
WO2014013064A1 true WO2014013064A1 (fr) 2014-01-23

Family

ID=47902048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/065324 WO2014013064A1 (fr) 2012-07-19 2013-07-19 Procede de determination de parametres d'observation d'une surface d'eau par imagerie

Country Status (3)

Country Link
EP (1) EP2875316B1 (fr)
FR (1) FR2993689B1 (fr)
WO (1) WO2014013064A1 (fr)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104482989A (zh) * 2014-12-31 2015-04-01 贵州东方世纪科技股份有限公司 一种利用遥感图像监测水位的方法
EP3018483A1 (fr) * 2014-11-07 2016-05-11 photrack AG Procédé et système permettant de déterminer la vitesse et le niveau de la surface d'un fluide en mouvement
CN106092061A (zh) * 2016-05-31 2016-11-09 河海大学 基于倾斜视角下透镜成像模型的河流水面流场定标方法
CN109297463A (zh) * 2018-11-20 2019-02-01 中铁大桥勘测设计院集团有限公司 一种跨河水准测量方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114255574A (zh) * 2020-09-11 2022-03-29 英业达科技有限公司 淹水警示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6098029A (en) * 1994-06-14 2000-08-01 Hitachi, Ltd. Liquid-level position measuring method and system
FR2865802A1 (fr) * 2004-01-30 2005-08-05 France Etat Ponts Chaussees Dispositif de mesure du niveau d'un liquide
US20100322462A1 (en) * 2009-06-17 2010-12-23 National Applied Research Laboratories Liquid Level Detection Method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6098029A (en) * 1994-06-14 2000-08-01 Hitachi, Ltd. Liquid-level position measuring method and system
FR2865802A1 (fr) * 2004-01-30 2005-08-05 France Etat Ponts Chaussees Dispositif de mesure du niveau d'un liquide
US20100322462A1 (en) * 2009-06-17 2010-12-23 National Applied Research Laboratories Liquid Level Detection Method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUILLAUME FOURQUET: "Développement d'un système hydrométrique par analyses d'images numériques : évaluation d'une année de fonctionnement continu sur l'Isère à Saint Martin d'Hères", 17 March 2005 (2005-03-17), XP055067996, Retrieved from the Internet <URL:http://www.lthe.fr/PagePerso/boudevil/THESES/fourquet_05.pdf> [retrieved on 20130624] *
J.D. CREUTIN ET AL: "River gauging using PIV techniques: a proof of concept experiment on the Iowa River", JOURNAL OF HYDROLOGY, vol. 277, no. 3-4, 1 June 2003 (2003-06-01), pages 182 - 194, XP055068009, ISSN: 0022-1694, DOI: 10.1016/S0022-1694(03)00081-7 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3018483A1 (fr) * 2014-11-07 2016-05-11 photrack AG Procédé et système permettant de déterminer la vitesse et le niveau de la surface d'un fluide en mouvement
WO2016071281A1 (fr) * 2014-11-07 2016-05-12 Photrack Ag Procédé et système destinés à déterminer la vitesse d'une surface de fluide en déplacement
CN107077740A (zh) * 2014-11-07 2017-08-18 富川安可股份公司 用于确定移动流体表面的速度的方法和系统
US10444255B2 (en) 2014-11-07 2019-10-15 Photrack Ag Method and system for determining the velocity of a moving fluid surface
CN104482989A (zh) * 2014-12-31 2015-04-01 贵州东方世纪科技股份有限公司 一种利用遥感图像监测水位的方法
CN106092061A (zh) * 2016-05-31 2016-11-09 河海大学 基于倾斜视角下透镜成像模型的河流水面流场定标方法
CN106092061B (zh) * 2016-05-31 2018-07-24 河海大学 基于倾斜视角下透镜成像模型的河流水面流场定标方法
CN109297463A (zh) * 2018-11-20 2019-02-01 中铁大桥勘测设计院集团有限公司 一种跨河水准测量方法
CN109297463B (zh) * 2018-11-20 2021-05-04 中铁大桥勘测设计院集团有限公司 一种跨河水准测量方法

Also Published As

Publication number Publication date
EP2875316B1 (fr) 2016-12-21
EP2875316A1 (fr) 2015-05-27
FR2993689B1 (fr) 2014-09-05
FR2993689A1 (fr) 2014-01-24

Similar Documents

Publication Publication Date Title
Bishop-Taylor et al. Mapping Australia's dynamic coastline at mean sea level using three decades of Landsat imagery
Sánchez-García et al. An efficient protocol for accurate and massive shoreline definition from mid-resolution satellite imagery
Sagar et al. Extracting the intertidal extent and topography of the Australian coastline from a 28 year time series of Landsat observations
Marteau et al. Application of Structure‐from‐Motion photogrammetry to river restoration
Vázquez-Tarrío et al. Using UAS optical imagery and SfM photogrammetry to characterize the surface grain size of gravel bars in a braided river (Vénéon River, French Alps)
Boak et al. Shoreline definition and detection: a review
Guariglia et al. A multisource approach for coastline mapping and identification of shoreline changes
Bell et al. A temporal waterline approach to mapping intertidal areas using X-band marine radar
Eltner et al. Automatic image‐based water stage measurement for long‐term observations in ungauged catchments
Vousdoukas et al. The role of combined laser scanning and video techniques in monitoring wave-by-wave swash zone processes
EP2875316B1 (fr) Procede de determination de parametres d&#39;observation d&#39;une surface d&#39;eau par imagerie
Smith et al. Monitoring beach face volume with a combination of intermittent profiling and video imagery
Guimarães et al. A data set of sea surface stereo images to resolve space-time wave fields
Turner et al. CZM applications of Argus coastal imaging at the Gold Coast, Australia
He et al. Mapping topo-bathymetry of transparent tufa lakes using UAV-based photogrammetry and RGB imagery
Carvalho et al. Structure‐from‐motion photogrammetry analysis of historical aerial photography: Determining beach volumetric change over decadal scales
CN109186706A (zh) 一种用于城市雨洪淹没区预警的方法
Talavera et al. UAS as tools for rapid detection of storm-induced morphodynamic changes at Camposoto beach, SW Spain
Filhol et al. Time‐Lapse Photogrammetry of Distributed Snow Depth During Snowmelt
Flener Estimating deep water radiance in shallow water: adapting optical bathymetry modelling to shallow river environments.
Lira et al. The 20 February 2010 Madeira Island flash-floods: VHR satellite imagery processing in support of landslide inventory and sediment budget assessment
Heine et al. Monitoring seasonal changes in the water surface areas of reservoirs using TerraSAR-X time series data in semiarid northeastern Brazil
Elias et al. Photogrammetric water level determination using smartphone technology
Neckel et al. Helicopter-borne RGB orthomosaics and photogrammetric digital elevation models from the MOSAiC Expedition
Makboul et al. Performance assessment of ANN in estimating remotely sensed extracted bathymetry. Case study: Eastern harbor of alexandria

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13739696

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2013739696

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013739696

Country of ref document: EP