WO2009101151A1 - Correction d'images captees et stabilisees - Google Patents

Correction d'images captees et stabilisees Download PDF

Info

Publication number
WO2009101151A1
WO2009101151A1 PCT/EP2009/051661 EP2009051661W WO2009101151A1 WO 2009101151 A1 WO2009101151 A1 WO 2009101151A1 EP 2009051661 W EP2009051661 W EP 2009051661W WO 2009101151 A1 WO2009101151 A1 WO 2009101151A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
captured
motion
pixel
Prior art date
Application number
PCT/EP2009/051661
Other languages
English (en)
Inventor
Michel Broekaert
Joel Budin
Original Assignee
Sagem Defense Securite
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagem Defense Securite filed Critical Sagem Defense Securite
Priority to EP09710568.8A priority Critical patent/EP2243115B9/fr
Priority to US12/867,173 priority patent/US8654202B2/en
Publication of WO2009101151A1 publication Critical patent/WO2009101151A1/fr
Priority to IL207574A priority patent/IL207574A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response

Definitions

  • the present invention relates to a processing of images captured by an image capture device, such as a camera or binoculars for example, and more particularly, a correction of a 'shake' effect on the captured images, or 'motion blur' or spun '.
  • image quality impairments that are related to defects in the image sensor itself, such as defects related to an integration of image. the light captured at the sensor, or degradations that are related to elements outside the sensor, such as a camera shake.
  • a camera shake is a degradation that can affect an image captured when the line of sight is moving when the image is captured. This degradation can be materialized on the image by a visible yarn that introduces a fuzzy area on a captured scene.
  • the camera shake is usually caused by a movement of the sensor's line of sight during image capture.
  • captured images may have a blur that corresponds to visual effects harmful to the quality of the images .
  • the captured image which is affected by motion blur, can be represented by a convolution product between a Point Spead Function, or PSF, associated with motion blur and the original scene. O captured within the captured image.
  • this deconvolution operation corresponds to the product of convolution between the captured image and the point spreading function associated with the motion blur.
  • filter filters of Wiener based Fourrier, or other algorithms in other bases, as described in the paper 'A Wavelet Tower of Signal Processing' Stéphane Mallat.
  • Such a step may require complex calculations.
  • Image capture systems are adapted to reduce such visual effects. Indeed, some of these systems stabilize the line of sight by integrating a mechanical module for inertial stabilization in the camera or by arranging the camera on a mechanical module such as a platform that allows inertial stabilization.
  • the mechanics of these systems can be controlled based on information from gyroscopes. They thus make it possible to stabilize the line of sight of a camera in an inertial reference frame. In such a context, it is then possible to capture images completely independently of the irregular movements that are imposed on the support of the camera used.
  • Such a system of shooting based on an inertial reference system effectively avoids the visual effects due to irregular movements of the camera support, that is to say the blur of shake.
  • image capture systems may include a digital stabilization module that aims to stabilize the captured images by applying digital processing thereto.
  • a disturbance in the captured images may be deplored which corresponds to a fixed spatial noise.
  • the term 'spatial noise' is understood to mean an unwanted offset (or offset) between the values of the pixels of the same image which should theoretically be equal, that is to say in the case where the pixels correspond to the same signal input. This type of degradation may be related to intrinsic characteristics of the sensor considered.
  • a digital image is represented by a matrix of pixels, each corresponding to a color level or a gray level of the image.
  • An image corresponds to a scene captured by a matrix of flux detectors, then the light energies received respectively by these detectors are transformed into respective electrical signals.
  • the different detectors of the detector array are generally theoretically identical but, in practice, they have differences which induce undesired shifts, as defined above, between different pixels of a captured image of a scene which corresponds to an input stream that is identical in every point of the captured image, and therefore a spatial noise in this image.
  • the offsets between the values of the pixels of the same image which are due to the spatial noise, can vary over time, in particular as a function of the temperature, it may be advantageous to repeat a correction step of these offsets regularly during the capture of images, without having to interrupt the operation of capturing images.
  • the spatial noise is an annoying disturbance, since disturbances relating to the movement of the line of sight are avoided. It is therefore all the more interesting in such a context to be able to correct this spatial noise.
  • the captured images can be affected by motion blur, and, on the other hand, in an image capture system in which the movement of the line of sight is stabilized in an inertial manner, the images captured are affected by spatial noise disturbances.
  • the present invention aims to overcome the aforementioned drawbacks.
  • a first aspect of the present invention provides a method of image processing in a system for capturing a series of images of a scene including an image capture device having an axis oriented flow detector array. of aiming, said image-capturing device comprising a stabilizing module which stabilizes the line of sight of the captured images, said line of sight being animated by a defined, cyclic and cycle-wise motion at the level of the matrix flux detectors, an amplitude of n pixels, n being an integer greater than 2, and less than n max , n max being determined so that the images picked up during a cycle have a predominantly common part; said method comprising the following steps applying to a series of successive images captured during a cycle:
  • 121 obtain a corrected image captured from the scene by applying a convolution product between said intermediate image and a function point spreading function, said point spreading function being determined on the basis of the defined motion.
  • stabilization module is intended here to mean a module that makes it possible to stabilize the line of sight of the captured images either numerically or mechanically or again in a combined digital and mechanical manner.
  • the terms 'line of sight' of a captured image correspond to the center of this captured image.
  • the stabilization module When the stabilization module stabilizes the line of sight of the images captured by digital image processing, it can rely on a selection function of best stabilized image estimation.
  • the spatial noise affecting the captured images can be advantageously corrected on the basis of the movement imposed on the line of sight, since this movement allows the same detector of the matrix of detectors to be exposed to different points of the scene. captured during the cycle of the movement considered.
  • the offsets of each of the detectors can be corrected while still capturing images. Due to the fact that the line of sight of an image capture device is animated by a defined movement, it is then advantageously possible to set up an offset correction of pixel values, in order to correct the spatial noise. , based on the captured images that succeed each other. Thus, it is not required, to make such a correction, to interrupt the capture of images in progress.
  • the stabilization module is adapted to stabilize the images successively captured either numerically or by mechanisms of the inertial gyroscope type controlling the axis of sight initially.
  • an image processing method such as that which is applied in an image capture context by an image capture system which is not stabilized, and which therefore has irregular movements of the axis of view induced by the support of this system, as described in document FR 2 828 315. It is thus possible to correct the spatial noise, without interrupting the capture of images, while benefiting from the advantages provided by a stabilized image capture system that is either inertial or still digital.
  • Such a movement of the axis of view of the sensor introduces a blur of shake in the captured images.
  • This motion blur can be appropriately corrected in the captured images according to one embodiment of the present invention.
  • the defined movement can be performed at constant speed or constant acceleration.
  • the motion blur can be corrected on a series of captured images corresponding at least to those captured during the period during which the line of sight describes the complete cycle of motion imposed upon it. .
  • This series of images is noted Ni for i between 1 and K.
  • a spread function of the PSF point corresponds to the accumulated motion blur on this series of captured images.
  • major common part the same part that is found in several images and occupies in these images a majority.
  • This defined movement is a cyclic movement, that is, it implies that the line of sight is periodically oriented in the same orientation. Thus, one is able to apply a spatial noise correction that converges. Then, this defined movement has an amplitude between a number n greater than 2, so as to allow browse the neighboring pixels around a pixel for which we seek to correct the value. In addition, this defined amplitude of motion remains smaller than a maximum number which must make it possible to find in a series of successive images captured during a cycle of the movement a predominantly common part, in particular in order to be able to apply a correction over a large area. images.
  • the stabilization module can be adapted to stabilize captured images based on digital image processing. Alternatively, it can be provided that the stabilization module may correspond to a mechanical inertial stabilization module.
  • Such a defined movement may for example correspond to a circle having a diameter of a value greater than or equal to 3 pixels at the flux detector matrix.
  • the movement imposed on the line of sight is controlled, it is possible to predict its speed as a function of the value of the integration time of the flux detectors of the matrix of the detectors of the image capture device.
  • the pixel values of the common portion of the previous image and the next image are successively corrected from the determined offset by traversing a pixel string comprising, from of the reference pixel in the preceding image, pixels that correspond alternately in the next image and in the previous image, a pixel of the following image corresponding to a pixel of the preceding image when said pixels correspond to the same point of the captured scene, and a pixel of the previous image corresponding to a pixel of the next image when said pixels correspond to the same flux detector of the matrix of detectors.
  • the motion animating the line of sight since the motion animating the line of sight is defined, it is possible to correct the spatial noise by applying a movement that is inverse to the movement defined to the images successively captured, so as to counterbalance the movement of the line of sight and thus allow the images to be correctly repositioned.
  • the position of the next pixel in the next image can then be determined from the position of the reference pixel in the previous image based on the characteristics of the defined motion applied to the line of sight and a period of time elapsed. between successive images. Then, this can be done all along the correction pixel chain.
  • the measurement of the defined motion is performed by applying a digital processing of the previous and next images.
  • the movement that is imposed on the line of sight can advantageously be defined as a function of the integration time of the detectors used.
  • a method according to an embodiment of the present invention may be particularly advantageous in the case where no movement animates the support of the camera capturing the series of images considered, and where the scene captured is a static scene. Indeed, in this case, the defined movement applied to the line of sight makes it possible to obtain a good quality of the processed images according to an embodiment of the present invention.
  • a second aspect of the present invention provides a system for capturing a series of images suitable for implementing an image processing method according to the first aspect of the present invention.
  • a third aspect of the present invention proposes a computer program intended to be installed in a capture system according to the second aspect of the present invention, comprising instructions able to implement the method according to the first aspect of the present invention. invention, during a program execution by processing means of the capture system.
  • FIG. 1 illustrates an image capture system according to an embodiment of the present invention
  • Figure 2 illustrates the main steps of the method according to an embodiment of the present invention
  • Fig. 3 illustrates a defined movement of the line of sight relative to the flux detector array of the image capture device according to an embodiment of the present invention
  • Figure 4 illustrates a spatial noise correction applied to a previous image and a subsequent image of the series of captured images according to an embodiment of the present invention.
  • Fig. 1 illustrates an image capture system according to an embodiment of the present invention.
  • a system 10 thus comprises an image capture device 11 having a matrix of flux detectors oriented along an axis of sight z. This axis of view has an orientation that is controlled by a stabilization module 12.
  • This stabilization module 12 may be an inertial mechanical stabilization module or a stabilization module by digital processing of the captured images.
  • the present invention covers any type of image stabilization module and no limitation is attached thereto. In one embodiment, it may be provided that such a stabilization module corresponds to inertial gyroscopes, which are well known to those skilled in the art.
  • the present invention is described in application to an inertial stabilization module, without however limiting the application of this invention to other types of stabilization modules.
  • the gyroscopes impose on the axis of sight an orientation which is independent of the angular and linear vibrations which animate the support and which, therefore, makes it possible to benefit from mechanical stabilization inertia and all the advantages, well known to those skilled in the art, which derive therefrom.
  • the present invention covers any type of support on which such an image capture system can be installed.
  • This support can be in particular a man, or any type of air vehicle, land or sea.
  • the support of this capture system 10 may be in motion along any trajectory, or may be stationary.
  • an embodiment of the present invention may be applied in the case where the aiming gaz orientation is maintained so that, despite the movement of the medium, the same scene is captured over the course of time. time.
  • This inertia-stabilized image capture system further comprises a motion control module 13 which is adapted to apply a defined motion to the line of sight.
  • the present invention covers any type of motion control module that can apply a defined motion to the line of sight of the image capture device.
  • This motion control module 13 may for example correspond to an opto mechanical mechanism well known to those skilled in the art.
  • the defined motion imposed by the motion control module 13 on the line of sight z is a cyclic motion.
  • the line of sight periodically resumes the same orientations relative to the support on which the image capture system 10 is positioned.
  • a captured image l ca p t> at a detector with x and y coordinates in the array of detectors considered, can verify the following equation, when the line of sight is not moving, it is when the captured image is not affected by motion blur: K ap , ⁇ *.
  • y) PSF 100 (x, y) O (x, y) + B (x, y) (1)
  • I ca p t represents the image picked up by the sensor at the detector (x, y);
  • PSF capt (x > y) is the point spreading function representing a motionless blur, that is, a blur that is not a motion blur, and which is attached to the detector (x, y) the sensor;
  • O (x, y) corresponds to the real scene captured by the sensor at the detector (x, y), ie to the image picked up by the sensor (x, y) without any blur or no other noise related to capture;
  • B (x, y) is the sum of temporal and spatial noise affecting the captured image I cap t (x »y) -
  • B (x, y, N 1 ) Btemp (x, y, N 1 ) + Bsf (x, y) + Bech (x, y, N 1 )
  • Btemp (x, y , Ni) represents the temporal noise of photon or electron
  • Bsf (xy) represents fixed or slowly variable spatial noise
  • Bech (x, y, Ni) represents the sampling spatial noise.
  • it is intended to capture a series of images respectively represented by the indices Ni to Nk, k being an integer greater than 1, these k images being captured while the line of sight of the sensor describes a complete cycle of the defined motion.
  • Figure 2 illustrates the main steps of a processing method according to an embodiment of the present invention.
  • a variable Nj is initialized to the value N 1 corresponding to the first image of the series of images captured during a cycle according to one embodiment of the present invention.
  • the image is stitched according to this image N 1 , it is to the image N 2 on the image Ni, on the basis of the defined motion imposed on the axis of sight of the sensor.
  • Nj in the series of images considered " one thus proceeded to a setting of image on the preceding one, or a successive stabilization of two images with respect to the other one.
  • This stabilization step aims to recalibrate two images successively captured, these two successive captured images having been shifted based on the movement of the line of sight.
  • a step 22 it corrects a spatial noise that can be detected with respect to these two images Ni and N 2 .
  • Steps 21 and 22 are repeated on the next current image. For all current images in the image series N M ⁇ , except for the last image N k .
  • This intermediate image corresponds to an image obtained from the images of the series N 1-k , by accumulation of the latter and correction of fixed spatial noise affecting this series of images.
  • the movement of the axis of view corresponds to the course of a circle at a constant speed.
  • Such a movement corresponds to a yarn function having a rectangle shape of length L satisfying the following equation:
  • Tin tee gration is the integration time of the sensor, that is to say the opening time of the detectors of the sensor matrix.
  • the rectangle representing the yarn function then has a height 1 / L, the yarn function representing the displacement of a point of the image during the integration time.
  • the defined motion is made at the line of sight not at constant speed but at constant acceleration.
  • the yarn function corresponds to a trapezoidal speed.
  • the motion blur can then be considered as a cylinder of surface S and of height 1 / S.
  • the application of such a motion blur to the captured image can be equivalent to the application of a defocus of radius L.
  • the following equation is then verified:
  • PSF ghhal (x, y, N, _ k ) PSF ⁇ apt (x, y) ® Cycl (S, h) + B (x, y)
  • x and y are the coordinates of pixels in an image captured by the detector (x, y) of the detector matrix
  • PSFgiobai is the correction point spreading function representing the motion blur attached to the image sequence Nr k captured during the cycle period of the motion of the line of sight
  • PSF ca p t (x, y) is the point spreading function representing the motion blur attached to the sensor (x, y);
  • B (x, y) satisfies the following equation:
  • B (x, y, N 1 ) Btemp (x, y, N 1 ) + Bsf (x, y) + Bech (x, y, N 1 )
  • Btemp (x, y, Nj) represents the temporal noise of photon or electron
  • Bsf (x, y) represents fixed or slowly variable spatial noise
  • Bech (x, y, Ni) represents the sampling spatial noise.
  • the speed V of the defined motion is considered to be constant, and has a component V x on the X axis and a component V y on the Y axis, X and Y being the coordinate axes. considered in the sensor array of sensors.
  • step 21 is implemented on the basis of the following equation:
  • the point spreading function corresponding to the motion blur introduced by a motion cycle defined in a series of captured images can then be written in the form:
  • step 25 in the case where the speed of the defined motion is constant, an intermediate intermediate image is obtained which can verify the following equation:
  • B (x, y) represents the sum of the temporal and spatial noises affecting the images of index Nj. Equation (4) can still be written as follows according to equation (5):
  • GhMe PSF (x, y, N t _ k) PSF Cpl (x, y) ⁇ 8> £ ⁇ nol ⁇ m PSF (x, y, N 1) + B (x, y) (6)
  • the temporal noise is also reduced in a root ratio of k, where k is the number of images in the Ni- ⁇ image series. This reduction of the temporal noise makes it possible to improve the result obtained after deconvolution.
  • the correction point spreading function may advantageously be determined not on the basis of motion assumptions which may have animated the line of sight during image capture, but on the basis of the actual motion. which animates this line of sight.
  • FIG. 3 illustrates a matrix 52 of flux detectors D ( ⁇ , j) of an image capture device in an image capture system according to an embodiment of the present invention, where i represents the index of rows of the matrix and j the column index of the matrix
  • the defined movement applied by the motion control module 13 advantageously allows different detectors D (i, j) of the detector array 52, to capture the same point of a scene captured by the image capture system.
  • This defined movement preferably has, at the level of the matrix of flux detectors 52, an amplitude of n pixels, n being an integer greater than 2, and less than n max , n max being determined so that the captured images during a cycle have a predominantly common part.
  • Such an image capture system 10 further comprises an intermediate processing module 15 adapted to provide an intermediate image from the series of images, captured during a defined cycle of motion, based on a repetition of the operations. following: - stalling a next image N, + i of said series of images on a previous image N, according to the defined motion, and
  • It also includes a correction module 14 adapted to provide a corrected image captured from the scene by applying a convolution product between the intermediate image and a PSF correction point spread function g ⁇ O bai. this correction point spreading function being determined on the basis of the defined motion.
  • the motion control module 13 may be adapted to apply a defined motion corresponding to a circle having a diameter of a value greater than or equal to 3 pixels at the level of the flow detector array.
  • the motion control module 13 may be adapted to apply a defined motion having a speed which is determined according to an integration time of the flux detectors of the image capture device.
  • the correction module can be adapted to successively correct, from the determined offset, the pixel values of the common part of the previous image 31 and the following image 32, as illustrated in FIG. 4, by traversing a pixel string comprising, from the reference pixel
  • the correction module can then be further adapted to determine the position of the reference pixel Pi in the common part according to the defined movement and a period of time elapsed between the two images.
  • the correction module can be adapted to determine the position of the following pixel P ⁇ in the following image 32 from the position of the reference pixel P 1 in the preceding image as a function of information relating to the defined motion that are provided by the motion control module and a period of time elapsed between the previous and next images.
  • the correction module 14 can be adapted to determine the movement defined by applying a digital processing of the previous and successive images, such as that described for example in the document FR 2 828 315.
  • Figure 3 illustrates a defined motion 53 according to an embodiment of the present invention with respect to the flux sensor array of the image capture device. This defined movement imposes on the line of sight, at the level of the detector array, a displacement along a square of pixels having sides of a length of 3 pixels.
  • the line of sight z describes a circle of diameter greater than or equal to 3 pixels.
  • the aiming axis is imposed on the detector array with a minimum amplitude of movement so as to ensure that the spatial noise correction is relevant, since it is then performed on a representative sample of detectors of the detector array. Then, on the other hand, it imposes the fact that this amplitude of movement is less than a maximum value which is determined so as to ensure that a large common part of the captured scene is present on all the images that are captured. during a cycle of defined motion applied to the line of sight.
  • Figure 4 illustrates a spatial noise correction applied to a previous image and a subsequent image of the captured image series.
  • Two successive images, a previous image 31 and a subsequent image 32, are captured according to an embodiment of the present invention.
  • a balloon B is represented in the center of the previous image 31, then, it is represented in the right angle on the following image 32, since the line of sight has been displaced between the respective moments of capture of the two successive images. 31 and 32, according to the defined movement imposed by the motion control module 13.
  • the pixels within a captured image are referenced in the reference of the detector matrix 52, which comprises the detectors D (i, j) for i ranging from 1 to the total number of rows of the matrix 52 and for including j between 1 and the total number of columns of the matrix 52.
  • the central detector D (x, y) of the detector array senses a central point of the balloon B for the previous image 31. Then, the sighting axis z having been oriented differently for capturing the next image 32, the central point of the balloon B is then picked up by another detector D (x ', y') of the matrix of the detectors.
  • the pixels representing the center point of the balloon B respectively in the previous image 31 and in the next image 32 should be positioned at the same value. If this is not the case in practice, it should be remedied.
  • V corr (P 4 ) V 0 Ofr (P 3 ).
  • the shift ⁇ is transferred to the value of the pixel of the image 31 which has been picked up by the detector D (x ", y") of the detector matrix 52. It is thus possible to traverse a string of pixels that the it is possible to correct successively and alternatively between the preceding image 31 and the following image 32.
  • a pixel of the next image corresponds to a pixel of the previous image when it represents the same point of the captured scene; and, a pixel of the following image corresponds to a pixel of the preceding image, when these two pixels correspond to the same flux detector in the detector matrix 52.
  • the motion of a pixel from a previous image to a next image is determined from the knowledge that the image capture system 10 has of this mechanical motion.
  • One embodiment of the present invention may advantageously be implemented in a context of capturing a substantially static scene, since it makes it possible to improve the quality of the captured images, by reducing both the spatial noise and the temporal noise. .
  • system configuration data such as, for example, the temperature can also be taken into account. of operation, or a scaling factor between the angular dimensions of the image space and the linear dimensions of the array of detectors.
  • the yarn function when represented in polar coordinates, it may be a one-dimensional function, this one-dimensional function being different at each frame.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Picture Signal Circuits (AREA)

Abstract

Dans un système de capture d'une série d'images d'une scène comprenant un dispositif de capture d'images ayant une matrice (52) de détecteurs de flux orientée selon un axe de visée (z), comprenant un module de stabilisation qui stabilise l'axe de visée des images captées, l'axe de visée étant animé d'un mouvement défini, cyclique, on applique les étapes suivantes à une série d'images (N1-K) successives captées pendant un cycle. On répète les étapes /i/ et /ii/ depuis la première image captée jusqu'à Ia dernière image captée de la série et on obtient une image intermédiaire (Iintermédiaire) • - /i/ caler (21) une image suivante (Ni+i) sur une image précédente (Ni) en fonction du mouvement défini; - /ii/ corriger (22) un bruit spatial relatif aux détecteurs de flux et affectant la partie commune des images. Puis, on obtient (25) une image captée corrigée de la scène en appliquant un produit de convolution (26) entre l'image intermédiaire et une fonction d'étalement de point de correction (PSFglobal) qui est déterminée sur la base du mouvement défini.

Description

CORRECTION D'IMAGES CAPTEES ET STABILISEES
La présente invention concerne un traitement d'images capturées par un dispositif de capture d'image, tel qu'une caméra ou des jumelles par exemple, et plus particulièrement, une correction d'un effet de 'bougé' sur les images captées, ou 'flou de bougé' ou encore filé'.
Sur des images captées par un dispositif de capture d'image, il est possible de déplorer des dégradations de la qualité d'image qui sont liées à des défauts du capteur d'image en lui-même, comme des défauts liés à une intégration de la lumière captée au niveau du capteur, ou encore des dégradations qui sont liées à des éléments extérieurs au capteur, comme par exemple un flou de bougé.
Un flou de bougé est une dégradation qui peut affecter une image captée lorsque l'axe de visée est en mouvement au moment de la capture de l'image. Cette dégradation peut se matérialiser sur l'image par un filé visible qui introduit une zone floue sur une scène captée. Le flou de bougé a donc en général pour origine un mouvement de l'axe de visée du capteur pendant la capture d'images. Lorsqu'une caméra est portée par un support en mouvement, comme un homme en marche ou même à l'arrêt, ou encore un véhicule, les images capturées peuvent présenter un flou de bougé qui correspond à des effets visuels nuisibles à la qualité des images. L'image captée, qui est affectée du flou de bougé, peut être représentée par un produit de convolution entre une fonction d'étalement du point, ou PSF pour 'Point Spead Function', associée au flou de bougé et la scène d'origine O capturée au sein de l'image captée. Ainsi, pour corriger l'image captée affectée du flou de bougé, on connaît des méthodes basées sur une déconvolution de l'image captée avec une fonction d'étalement de point qui est susceptible de représenter le flou de bougé qui a affecté l'image captée. Plus précisément, cette opération de déconvolution correspond au produit de convolution entre l'image captée et la fonction d'étalement de point associée au flou de bougé. On peut notamment prévoir de mettre en œuvre une telle déconvolution par application d'un filtre (filtres de Wiener en base de Fourrier, ou autres algorithmes dans d'autres bases, comme décrit dans le document 'A wavelet Tour of Signal Processing' de Stéphane Mallat.
Toutefois, afin d'appliquer de telles méthodes, il convient de déterminer une forme du flou de bougé ayant affecté l'image à corriger afin de pouvoir définir la fonction de point d'étalement qui lui est associée pour ensuite appliquer une opération de déconvolution sur la base de cette fonction associée.
La mise en œuvre d'une telle étape peut requérir des calculs complexes. En outre, il convient de baser une telle étape de détermination de la fonction d'étalement du point associée à un flou de bougé sur des hypothèses préalables, qui peuvent par la suite s'avérer être plus ou moins pertinentes et de ce fait, conduire à une correction insatisfaisante de l'image captée.
Des systèmes de capture d'images sont adaptés pour réduire de tels effets visuels. En effet, certains de ces systèmes stabilisent la ligne de visée en intégrant un module mécanique de stabilisation inertielle dans la caméra ou encore en agençant la caméra sur un module mécanique tel qu'une plateforme qui permet une stabilisation inertielle. La mécanique de ces systèmes peut être commandée en fonction des informations émanant de gyroscopes. Ils permettent donc de stabiliser l'axe de visée d'une caméra dans un référentiel inertiel. Dans un tel contexte, il est alors possible de capter des images de manière complètement indépendante des mouvements irréguliers qui sont imposés au support de la caméra utilisée. Un tel système de prise de vue basé sur un référentiel inertiel permet d'éviter de manière efficace les effets visuels dus aux mouvements irréguliers du support de la caméra, c'est- à-dire le flou de bougé.
D'autres de ces systèmes de capture d'images peuvent intégrer un module de stabilisation numérique qui vise à stabiliser les images captées en appliquant un traitement numérique à ces dernières. Toutefois, lorsque le flou de bougé est réduit par un contrôle inertiel du mouvement de l'axe de visée, on peut déplorer une perturbation dans les images captées qui correspond à un bruit spatial fixe. On entend par les termes 'bruit spatial', un décalage indésirable (ou offset) entre les valeurs des pixels d'une même image qui devraient théoriquement être égales, c'est-à-dire dans le cas où les pixels correspondent au même signal d'entrée. Ce type de dégradation peut être lié à des caractéristiques intrinsèques au capteur considéré.
Une image numérique est représentée par une matrice de pixels, chacun correspondant à un niveau de couleur ou à un niveau de gris de l'image. Une image correspond à une scène captée par une matrice de détecteurs de flux, puis les énergies lumineuses reçues respectivement par ces détecteurs sont transformées en des signaux électriques respectifs. Les différents détecteurs de la matrice de détecteurs sont en général théoriquement identiques mais, en pratique, ils présentent des différences qui induisent des décalages indésirables, tels que définis ci-dessus, entre différents pixels d'une image captée d'une scène qui correspond à un flux d'entrée qui est identique en tout point de l'image captée, et de ce fait un bruit spatial dans cette image.
Il est possible de corriger un tel bruit spatial en capturant une image d'un corps noir et en calculant sur cette image les décalages indésirables entre les différents pixels respectivement captés par les détecteurs de flux de la matrice, afin de corriger ces décalages sur les prochaines images captées. Toutefois» ce type de correction requiert une interruption dans la capture d'images en cours.
Or, étant donné que les décalages entre les valeurs des pixels d'une même image, qui sont dus au bruit spatial, peuvent varier au cours du temps, notamment en fonction de la température, il peut être intéressant de réitérer une étape de correction de ces décalages régulièrement au cours de la capture d'images, sans avoir à interrompre l'opération de capture d'images.
Dans le contexte d'un système de capture d'images à stabilisation inertielle, le bruit spatial est une perturbation gênante, puisque les perturbations relatives au mouvement de l'axe de visée sont évitées. Il est donc d'autant plus intéressant dans un tel contexte de pouvoir corriger ce bruit spatial.
Il convient donc de noter, que, d'un côté, dans un système de capture d'image au sein duquel le mouvement de l'axe de visée n'est pas stabilisé de manière inertielle, les images captées peuvent être affectées de flou de bougé, et que, d'un autre côté, dans un système de capture d'image au sein duquel le mouvement de l'axe de visée est stabilisé de manière inertielle, les images captées sont affectées de perturbations relatives au bruit spatial. La présente invention vise à remédier aux inconvénients précités.
Un premier aspect de la présente invention propose un procédé de traitement d'images dans un système de capture d'une série d'images d'une scène comprenant un dispositif de capture d'images ayant une matrice de détecteurs de flux orientée selon un axe de visée, ledit dispositif de capture d'images comprenant un module de stabilisation qui stabilise l'axe de visée des images captées, ledit axe de visée étant animé d'un mouvement défini, cyclique et présentant sur un cycle, au niveau de la matrice des détecteurs de flux, une amplitude de n pixels, n étant un nombre entier supérieur à 2, et inférieur à nmax , nmax étant déterminé de sorte que les images captées au cours d'un cycle présentent une partie majoritairement commune; ledit procédé comprenant les étapes suivantes appliquer à une série d'images successives captées pendant un cycle :
/1/ répéter les étapes /i/ et IWI depuis la première image captée jusqu'à la dernière image captée de ladite série et obtenir une image intermédiaire :
- /i/ caler une image suivante de ladite série d'images sur une image précédente en fonction du mouvement défini ;
- /ii/ corriger un bruit spatial relatif aux détecteurs de flux et affectant la partie commune des images de ladite série d'images, en fonction d'au moins un décalage déterminé entre une valeur d'un pixel de référence dans la partie commune de l'image précédente et une valeur d'un pixel suivant qui représente un même point de ladite scène que ledit pixel de référence dans ladite partie commune de l'image suivante ;
121 obtenir une image captée corrigée de la scène en appliquant un produit de convolution entre ladite image intermédiaire et une fonction d'étalement de point, ladite fonction d'étalement de point étant déterminée sur la base du mouvement défini.
On entend ici par 'module de stabilisation' un module qui permet de stabiliser l'axe de visée des images captées soit de manière numérique soit de manière mécanique soit encore de manière combinée numérique et mécanique. Les termes 'axe de visée' d'une image captée correspondent au centre de cette image captée.
Lorsque le module de stabilisation stabilise l'axe de visée des images captées par traitement numérique d'images, il peut se fonder sur une fonction de choix de meilleure estimée d'image stabilisée.
Grâce à ces dispositions, et plus précisément grâce au mouvement, contrôlé animant l'axe de visée du dispositif de capture, on est en mesure de corriger de manière pertinente à la fois le bruit spatial affectant les images captées ainsi que le flou de bougé. Le mouvement du dispositif de capture d'images
En effet, le bruit spatial affectant les images captées peut être avantageusement corrigé sur la base du mouvement imposé à l'axe de visée, puisque ce mouvement permet à un même détecteur de la matrice de détecteurs d'être exposé à différents points de la scène captée au cours du cycle du mouvement considéré. Sur la base de ces différentes expositions, on peut corriger les offsets de chacun des détecteurs, tout en continuant de capter des images. Grâce au fait que l'axe de visée d'un dispositif de capture d'images est animé d'un mouvement défini, il est alors avantageusement possible de mettre en place une correction de décalage de valeurs de pixels, afin de corriger le bruit spatial, sur la base des images capturées qui se succèdent. Ainsi, il n'est pas requis, pour effectuer une telle correction, d'interrompre la capture d'images en cours.
En introduisant ainsi, une déstabilisation contrôlée des images capturées dans un système ayant un module de stabilisation d'images, on est alors avantageusement en mesure de déterminer un mouvement défini adapté au besoin de traitement d'images destiné à corriger le bruit spatial. Puis, en conséquence, on peut tirer partie de la connaissance de ce mouvement pour calculer des corrections du bruit spatial. Le module de stabilisation est adapté pour stabiliser les images successivement captées soit de manière numérique, soit par des mécanismes du type gyroscopes inertiels contrôlant l'axe de visée initialement.
Par exemple, grâce à ce mouvement défini, il est alors possible d'appliquer de manière optimale un procédé de traitement d'images, tel que celui qui est appliqué dans un contexte de capture d'images par un système de capture d'images qui n'est pas stabilisé, et qui présente donc des mouvements irréguliers de l'axe de visée induits par le support de ce système, comme décrit dans le document FR 2 828 315. On peut ainsi corriger le bruit spatial, sans interrompre la capture d'images, tout en bénéficiant des avantages fournis par un système de capture d'images à stabilisation soit inertielle soit encore numérique.
Un tel mouvement de l'axe de visée du capteur introduit un flou de bougé dans les images captées. Ce flou de bougé peut être de manière pertinente corrigé dans les images captées selon un mode de réalisation de la présente invention.
Il convient de noter qu'un tel traitement d'images peut avantageusement être adapté même lorsque l'intégration des détecteurs de flux est quasiment permanente, comme c'est le cas pour les détecteurs infra-rouge non refroidis (par exemple ceux de la famille des bolomètres). En effet, ici, contrairement à certains traitements de l'art antérieur, il est prévu d'appliquer un mouvement soit à vitesse constante soit à accélération constante, quelles que soient les périodes d'intégration des détecteurs. Il est d'autant plus avantageux d'appliquer un mouvement à l'axe de visée quelles que soient les périodes d'intégration des détecteurs, puisque ces périodes d'intégration peuvent varier en fonction des conditions extérieures, notamment climatiques. Ce mouvement peut donc être concomitant avec les périodes d'intégration.
Le mouvement défini peut être effectué à vitesse constante ou à accélération constante. Dans un mode de réalisation de la présente invention, le flou de bougé peut être corrigé sur une série d'images captées correspondant au moins à celles captées durant la période pendant laquelle l'axe de visée décrit le cycle complet du mouvement qui lui est imposé. Cette série d'images est notée Ni pour i compris entre 1 et K. Une fonction d'étalement du point PSF correspond au flou de bougé accumulé sur cette série d'images captées.
On entend par 'partie majoritairement commune', une même partie qui se retrouve dans plusieurs images et qui occupe dans ces images une partie majoritaire.
Ce mouvement défini est un mouvement cyclique, c'est-à-dire qu'il implique que l'axe de visée est périodiquement orienté selon la même orientation. Ainsi, on est en mesure d'appliquer une correction du bruit spatial qui converge. Puis, ce mouvement défini présente une amplitude comprise entre un nombre n supérieur à 2, de sorte à permettre de parcourir les pixels voisins autour d'un pixel pour lequel on cherche à corriger la valeur. En outre, cette amplitude du mouvement défini reste inférieure à un nombre maximum qui doit permettre de retrouver dans une série d'images successives captées au cours d'un cycle du mouvement une partie majoritairement commune afin notamment de pouvoir appliquer une correction sur une grande étendue des images.
Dans un mode de réalisation de la présente invention, la fonction d'étalement de point de correction vérifie l'équation suivante : k k PSFgbMe(x, y,Nι_k ) = PSFcapl(x,y) ®∑PSFmliιm(x,y,Ni) + ∑B(x,y,Ni)
I=I I=I où PSFgiobai est la fonction d'étalement de point de correction ; où x et y sont des coordonnées d'un détecteur au sein de la matrice de détecteurs ; où Ni-k est la série d'images captées, chaque image captée étant représentée par un indice Nj pour i compris entre 1 et k, k étant supérieur à 1 ; où PSFoapt est une fonction d'étalement de point relative au capteur au niveau du détecteur de coordonnées x et y dans la matrice ; où PSFmotion est une fonction d'étalement de point relative au mouvement défini de l'axe de visée ; et où B(x,y,Ni) représente la somme des bruits temporels et spatiaux affectant une image captée d'indice Nj et vérifie l'équation suivante : B(x, y, N1 ) = Btemp(x, y, N1 ) + Bsf(x, y) + Bech(x, y, N1 ) où Btemp(x,y,Ni) représente le bruit temporel de photon ou d'électron où Bsf{x,y) représente le bruit spatial fixe ou lentement variable où Beeh(x,y,Nj) représente le bruit spatial d'échantillonnage. Cette fonction d'étalement de point de correction est adaptée pour corriger le flou de bougé introduit par le mouvement défini.
En appliquant un produit de convolution entre la fonction d'étalement de point de correction et l'image intermédiaire, on obtient aisément une image captée de la scène considérée qui est corrigée à la fois du bruit spatial et du flou de bougé qui est introduit par le mouvement défini. Les bruits temporels et d'échantillonnage diminuent avec le nombre k d'images sommées et rendent la déconvolution plus facile.
Le module de stabilisation peut être adapté pour stabiliser les images captées sur la base d'un traitement numérique des images. Alternativement, on peut prévoir que le module de stabilisation peut correspondre à un module de stabilisation inertielle mécanique.
Un tel mouvement défini peut par exemple correspondre à un cercle présentant un diamètre d'une valeur supérieure ou égale à 3 pixels au niveau de la matrice de détecteurs de flux. Avantageusement, puisque le mouvement imposé à l'axe de visée est contrôlé, on peut prévoir de déterminer sa vitesse en fonction de la valeur du temps d'intégration des détecteurs de flux de la matrice des détecteurs du dispositif de capture d'images.
On peut également par exemple prévoir que le mouvement défini correspond à une rosace qui décrit plusieurs arcs de cercle ayant des rayons et des centres divers.
Dans un mode de réalisation de la présente invention, on corrige successivement, à partir du décalage déterminé, des valeurs de pixels de la partie commune de l'image précédente et de l'image suivante, en parcourant une chaîne de pixels comprenant, à partir du pixel de référence dans l'image précédente, des pixels qui se correspondent alternativement dans l'image suivante et dans l'image précédente, un pixel de l'image suivante correspondant à un pixel de l'image précédente lorsque lesdits pixels correspondent à un même point de la scène capturée, et un pixel de l'image précédente correspondant à un pixel de l'image suivante lorsque lesdits pixels correspondent au même détecteur de flux de la matrice de détecteurs. Ainsi, il peut être avantageux de déterminer la position du pixel de référence dans la partie commune en fonction du mouvement défini et d'une période de temps écoulée entre les images capturées. En effet, en fonction de la position du pixel de référence choisi, et du mouvement défini en découle un sens de parcours des images par la chaîne de pixels de correction. Il est donc avantageux de choisir un pixel qui permette d'obtenir une longue chaîne de pixels.
Dans un mode de réalisation de la présente invention, puisque le mouvement qui anime l'axe de visée est défini, on peut prévoir de corriger le bruit spatial par application d'un mouvement inverse au mouvement défini aux images successivement capturées, de façon à contrebalancer le mouvement de l'axe de visée et ainsi permettre de recaler les images correctement. La position du pixel suivant dans l'image suivante peut alors être déterminée à partir de la position du pixel de référence dans l'image précédente en fonction des caractéristiques du mouvement défini appliqué à l'axe de visée et d'une période de temps écoulée entre des images successives. Puis, on peut procéder ainsi tout au long de la chaîne de pixels de correction.
Toutefois, même dans le cas où le mouvement imposé à l'axe de visée est théoriquement connu avec une grande précision, il est possible que ce mouvement soit entaché de bruit en pratique. Dans un tel cas, il peut alors être intéressant de mettre en place un procédé de traitement d'images numériques permettant de déterminer exactement le mouvement des mêmes points de la scène d'une image précédente à une image suivante.
A cet effet, il peut être avantageux de mettre en place un traitement numérique visant à déterminer le mouvement de l'axe de visée entre deux images consécutives, tel que celui qui est décrit dans le document FR 2 828 315, ou encore dans le document US 5 502 482. L'application d'un tel traitement permet avantageusement d'obtenir de très bonnes performances quant à la correction du bruit spatial. Ainsi, dans un autre mode de réalisation de la présente invention, la mesure du mouvement défini est réalisée par application d'un traitement numérique des images précédente et suivante.
Dans le contexte de la présente invention, contrairement à ce qui est décrit dans les documents ci-dessus cités, le mouvement de l'axe de visée est contrôlé et connu. Il en résulte une meilleure qualité d'image que ce qui peut être obtenu dans un système qui ne bénéficie pas de stabilisation.
Ici, on est en mesure de déterminer un mouvement qui permet à la fois de corriger le bruit spatial et de limiter les effets visuels qui peuvent notamment découler de mouvements de l'axe de visée trop rapide par rapport au temps d'intégration des détecteurs, comme des effets de filé par exemple, c'est-à-dire une dégradation traduite par une fonction d'étalement de points
(ou encore PSF pour 'Point Spread Function'). En effet, le mouvement qui est imposé à l'axe de visée peut avantageusement être défini en fonction du temps d'intégration des détecteurs utilisés.
Grâce au contrôle de ce mouvement de l'axe de visée, il est possible d'éviter d'introduire une déstabilisation à haute fréquence des images capturées, contrairement à ce qui peut être le cas dans un système de capture d'images à stabilisation numérique comme celui qui est décrit dans le document FR 2828315.
Un procédé selon un mode de réalisation de la présente invention peut être notamment très avantageux dans le cas où aucun mouvement n'anime le support de la caméra capturant la série d'images considérée, et où la scène capturée est une scène statique. En effet, dans ce cas là, le mouvement défini appliqué à l'axe de visée permet d'obtenir une bonne qualité des images traitées selon un mode de réalisation de la présente invention.
Un deuxième aspect de la présente invention propose un système de capture d'une série d'images adapté pour la mise en œuvre d'un procédé de traitement d'images selon le premier aspect de la présente invention, Un troisième aspect de la présente invention propose un programme d'ordinateur destiné à être installé dans un système de capture selon le deuxième aspect de la présente invention, comprenant des instructions aptes à mettre en œuvre le procédé selon le premier aspect de la présente invention, lors d'une exécution du programme par des moyens de traitement du système de capture.
L'invention sera également mieux comprise à l'aide des dessins, sur lesquels : - la figure 1 illustre un système de capture d'images selon un mode de réalisation de la présente invention ; la figure 2 illustre les principales étapes du procédé selon un mode de réalisation de la présente invention ; la figure 3 illustre un mouvement défini de l'axe de visée relativement à la matrice de détecteurs de flux du dispositif de capture d'images selon un mode de réalisation de la présente invention; et la figure 4 illustre une correction de bruit spatial appliquée à une image précédente et une image suivante de la série d'images captées selon un mode de réalisation de la présente invention.
La figure 1 illustre un système de capture d'images selon un mode de réalisation de la présente invention. Un tel système 10 comprend donc un dispositif de capture d'images 11 ayant une matrice de détecteurs de flux orientée selon un axe de visée z. Cet axe de visée a une orientation qui est contrôlée par un module de stabilisation 12. Ce module de stabilisation 12 peut être un module de stabilisation mécanique inertielle ou encore un module de stabilisation par traitement numérique des images captées. La présente invention couvre tout type de module de stabilisation d'images et aucune limitation ne lui est attachée. Dans un mode de réalisation, on peut prévoir qu'un tel module de stabilisation correspond à des gyroscopes inertiels, bien connus de l'homme du métier. Par la suite, la présente invention est décrite dans con application à un module de stabilisation inertielle, sans toutefois limitée aucunement l'application de cette invention à d'autres types de modules de stabilisation. Ici, malgré les mouvements qui peuvent animer le support du système de capture d'images, les gyroscopes imposent à l'axe de visée une orientation qui est indépendante des vibrations angulaires et linéaires qui animent le support et qui, de ce fait, permet de bénéficier d'une stabilisation mécanique inertielie et de tous les avantages, bien connus de l'homme du métier, qui en découlent.
La présente invention couvre tout type de support sur lequel peut être posé un tel système de capture d'images. Ce support peut être notamment un homme, ou encore tout type de véhicule aérien, terrestre ou marin.
Le support de ce système de capture 10 peut être en mouvement selon une trajectoire quelconque, ou encore être stationnaire. Lorsque le support est en mouvement, un mode de réalisation de la présente invention peut être appliqué dans le cas où l'orientation de Taxe de visée est maintenue de telle sorte que, malgré le mouvement du support, la même scène est capturée au fil du temps.
Ce système de capture d'images à stabilisation inertielie comprend en outre un module de contrôle de mouvement 13 qui est adapté pour appliquer à l'axe de visée un mouvement défini. La présente invention couvre tout type de module de contrôle de mouvement qui peut appliquer un mouvement défini à l'axe de visée du dispositif de capture d'images. Ce module de contrôle de mouvement 13 peut par exemple correspondre à un mécanisme opto mécanique bien connu de l'homme du métier.
Dans un mode de réalisation de la présente invention, le mouvement défini qu'impose le module de contrôle de mouvement 13 à l'axe de visée z est un mouvement cyclique. Ainsi, l'axe de visée reprend périodiquement les mêmes orientations relatives au support sur lequel est positionné le système de capture d'images 10.
On appelle produit de convolution entre une fonction f et une fonction g, noté ® , un produit tel que défini par l'équation suivante :
(f ® g)(x) = [j(x-t).g((t).dt = £f(t).g(x~t).dt Un tel produit de convolution correspond à une multiplication dans l'espace de Fourier.
Une image capturée lcapt> au niveau d'un détecteur ayant des coordonnées x et y dans la matrice des détecteurs considérées, peut vérifier l'équation suivante, lorsque l'axe de visée n'est pas en mouvement, c'est-à- dire lorsque l'image captée n'est pas affectée de flou de bougé : Kap, <*. y) = PSF100 (x, y) ® O(x, y) + B(x, y) (1 ) où Icapt représente l'image captée par le capteur au niveau du détecteur (x,y) ; où PSFcapt(x>y) est la fonction d'étalement de point représentant un flou sans mouvement, c'est-à-dire un flou qui n'est pas un flou de bougé, et qui est attaché au détecteur (x, y) du capteur ; où O(x,y) correspond à la scène réelle captée par le capteur au niveau du détecteur (x,y), c'est-à-dire à l'image captée par le capteur (x,y) sans aucun flou ni aucun autre bruit lié à la capture ; et où B(x,y) représente la somme des bruits temporels et spatiaux affectant l'image captée Icapt(x»y)-
Lorsque i'axe de visée du capteur est animé d'un mouvement selon un mode de réalisation de la présente invention, une image N captée, notée l(x, y, N) vérifie l'équation suivante : I(x,y,N) = PSFcapt(x, y) Θ PSFmtmon(x,y,N) Θ O(x,y) + B(x, y) (2) où PSFcapt(x,y) est une fonction d'étalement du point liée au flou introduit dans l'image captée au niveau du détecteur x,y ; où PSFmotion(x, y, N) est une fonction d'étalement du point liée au mouvement de l'axe de visée ; et où B(x,y) vérifie l'équation suivante :
Figure imgf000014_0001
où B(x,y,Nj) est la somme des bruits temporels et spatiaux affectant une image captée d'indice Nj.
L'équation suivante peut être vérifiée : B(x, y, N1 ) = Btemp(x, y, N1) + Bsf(x, y) + Bech(x, y, N1 ) où Btemp(x,y,Ni) représente le bruit temporel de photon ou d'électron ; où Bsf(x.y) représente le bruit spatial fixe ou lentement variable ; où Bech(x,y,Ni) représente le bruit spatial d'échantillonnage. Dans un mode de réalisation de la présente invention, on prévoit de capter une série d'images respectivement représentées par les indices Ni à Nk, k étant un entier supérieur à 1 , ces k images étant captées pendant que l'axe de visée du capteur décrit un cycle complet du mouvement défini.
La figure 2 illustre les principales étapes d'un procédé de traitement selon un mode de réalisation de la présente invention. A une étape 20, on initialise une variable Nj à la valeur N1 correspondant à la première image de la série d'images captées au cours d'un cycle selon un mode de réalisation de la présente invention.
Ensuite à une étape 21, on cale l'image suivant cette image N1, c'est à l'image N2 sur l'image Ni , sur la base du mouvement défini imposé à l'axe de visée du capteur. A chaque nouvelle image captée, Nj dans la série d'images considérée» on procède donc à un calage d'image sur la précédente, ou encore une stabilisation successive de deux images l'une par rapport à l'autre.
Cette étape de stabilisation vise à recaler deux images successivement captées, ces deux images captées successives ayant été décalées sur la base du mouvement de l'axe de visée.
A une étape 22, on corrige alors un bruit spatial que l'on peut détecter relativement à ces deux images Ni et N2.
On vérifie à une étape 23, si l'indice i de l'image courante Ni, c'est-à-dire de l'image en cours de traitement, est inférieur à l'entier k-1 , c'est-à-dire que l'image N, ne correspond par à l'avant dernière image de la série d'images captées N1-k. Dans ce cas, on passe à l'image courante en incrémentant par un l'indice i, à une étape 23.
On répète les étapes 21 et 22 sur l'image courante suivante. Pour toutes les images courantes de la série d'images NM<, à l'exception de la dernière image Nk.
Puis, à l'issue de ces répétitions d'étapes 21 et 22, on obtient une image intermédiaire imtemiediaire à une étape 25.
Cette image intermédiaire correspond à une image obtenue à partir des images de la série N1-k, par accumulation de ces dernières et par correction du bruit spatial fixe affectant cette série d'images.
Enfin» à cette image intermédiaire (intermédiaire on applique par un produit de convolution une fonction d'étalement de point de correction PSFgιObaι, à une étape 26. L'obtention de cette fonction d'étalement de point de correction PSFgιObai est décrite dans des sections suivantes selon un mode de réalisation de la présente invention.
A titre illustratif , on peut par exemple prévoir que le mouvement de l'axe de visée correspond au parcours d'un cercle a une vitesse constante. A un tel mouvement correspond une fonction de filé ayant une forme de rectangle de longueur L vérifiant l'équation suivante :
L = R.ω.Tintégratioπ où R est le rayon du cercle décrit par l'axe de visée lors du mouvement contrôlé ; où ω est un angle représentant l'orientation de l'axe de visée dans un repère de coordonnées polaires ;
Tingration est le temps d'intégration du capteur, c'est-à-dire le temps d'ouverture des détecteurs de la matrice du capteur. Le rectangle représentant la fonction de filé a alors une hauteur 1/L, la fonction de filé représentant le déplacement d'un point de l'image pendant le temps d'intégration.
Il convient de noter que l'on peut également prévoir que le mouvement défini soit effectué au niveau de l'axe de visée non pas à vitesse constante mais à accélération constante. Dans ces conditions, la fonction de filé correspond à une vitesse en forme de trapèze.
En prenant en considération toutes les orientations ω, le flou de bougé peut alors être considéré comme un cylindre de surface S et de hauteur 1/S. L'application d'un tel flou de bougé à l'image captée peut être équivalente à l'application d'une défocalisation de rayon L. L'équation suivante est alors vérifiée :
PSFghhal (x, y, N,_k ) = PSFιapt (x, y) ® Cycl(S, h) + B(x, y) où x et y sont les coordonnées de pixels dans une image captée par le détecteur (x, y) de la matrice des détecteurs ; où PSFgiobai est la fonction d'étalement de point de correction représentant le flou de bougé attaché à la séquence d'images Nrk captée pendant la période du cycle du mouvement de l'axe de visée ; où PSFcapt(x,y) est la fonction d'étalement de point représentant le flou de bougé attaché au capteur (x, y) ; où B(x,y) vérifie l'équation suivante :
B(x, y) = ∑B(x,y,N, )
1=1 où B(x,y(Ni) est la somme des bruits temporels et spatiaux affectant une image captée d'indice Nj. L'équation suivante peut donc être vérifiée :
B(x, y, N1 ) = Btemp(x, y, N1 ) + Bsf(x, y) + Bech(x, y, N1 ) où Btemp(x,y,Nj) représente le bruit temporel de photon ou d'électron ; où Bsf(x,y) représente le bruit spatial fixe ou lentement variable ; où Bech(x,y,Ni) représente le bruit spatial d'échantillonnage. où Cycl(S, h) représente le flou de bougé pour un mouvement décrivant un cylindre, S et h vérifiant respectivement les équations suivantes : S = τr.L2 ; h = 1/S.
A titre illustratif également, on considère par la suite que la vitesse V du mouvement défini est constante, et a une composante Vx sur l'axe X et une composante Vy sur l'axe Y, X et Y étant les axes de coordonnées considérés dans la matrice de détecteurs du capteur.
Dans le contexte d'une vitesse constante du mouvement de l'axe de visée, l'étape 21 selon un mode de réalisation de la présente invention est mise en œuvre sur la base de l'équation suivante :
Λ«» U > '. N1 ) = /(*, y, N1 ) + I(x - Vx , y - Vv , _V,_, ) où lstab est une image stabilisée, image calée, correspondant à l'image captée Ni, au niveau du détecteur (x,y), à partir des deux images captées successives N, et NM dans la série d'images NI-R ; où l(x,y,N,) représente l'image captée au niveau du détecteur (x,y) à la capture Nj de la série de captures Ni+^. Sur la base de cette équation, on est en mesure de stabiliser chaque image de la série d'images considérée, l'une par rapport à l'autre successivement.
Lorsque la vitesse V est sensiblement constante, on prévoit de décrire le flou de bougé introduit dans la série d'images captées Ni à Nk, c'est-à-dire pendant un cycle de mouvement défini de l'axe de visée, par une fonction cylindre de surface S≈P.L2 et de hauteur 1/S, L correspondant à la longueur du vecteur suivant :
où T,nt correspondant au temps d'intégration du détecteur de flux
(χ,y); et où Ti est la période de temps qui s'écoule entre deux captures successives d'images N1 à Nl+i.
Dans un mode de réalisation de la présente invention, la fonction d'étalement de point correspondant au flou de bougé introduit par un cycle de mouvement défini dans une série d'images captées, peut alors s'écrire sous la forme :
PSFglMe(x,y,N) = ψ:rect(Vx ,Vv))
où Ti représente le temps qui s'écoule entre la capture de deux images consécutives ; où rect(x,y) est une fonction rectangle de longueur x et de hauteur y à énergie constante.
A l'étape 25, dans le cas où la vitesse du mouvement défini est constante, on obtient une image intermédiaire Imtermediaire qui peut vérifier l'équation suivante :
Imen*amn( τ, y>Nl-* ) = nx, y,Nk ) + Yl I(x- Vκ , y- V^N^ ) (3) i≈l où Ni-K représente la série de k images captées selon un mode de réalisation de la présente invention.
A partir des équations (2) et (3), on déduit l'équation (4) suivante :
Figure imgf000019_0001
4(^,a,^J.^)=^f^>-)®P5^^;y,Nt)®α[-*;}')+^y) où B(x,y) représente la somme des bruits temporel et spatiaux affectant les images d'indice Nj. L'équation (4) peut encore s'écrire comme suit selon l'équation (5) :
'π*π**Jk * A^ ) = (Kx, y) ®PSFLapt{x, y) ®PSFφhal£^ y,Nk) + B(x, y) (5) A ce stade, à partir de l'équation (5) ci-dessus, on détermine avantageusement une fonction d'étalement de point de correction sur la base de laquelle on est en mesure d'obtenir une image captée dans laquelle plusieurs types de dégradations sont corrigés de manière aisée.
Cette fonction de correction de correction PSFgιObai vérifie l'équation suivante selon un mode de réalisation de la présente invention :
PSFghMe (x, y, Nt_k ) = PSFcapl (x, y) <8> £ PSFιnolιm (x, y, N1) + B(x, y) (6)
Sur la base d'une telle fonction globale de correction PSFgιobaι, on est donc en mesure de corriger des dégradations des deux types affectant une série d'images captées. En effet, en mettant en œuvre un produit de déconvolution entre une image intermédiaire obtenue selon un mode de réalisation de la présente invention, sur la base de la série d'images captées, et la fonction d'étalement de point de correction PSFgιObai selon un mode de réalisation de la présente invention, on peut obtenir une image corrigée des dégradations introduites dans la série d'images captées dues au bruit spatial et au flou de bougé.
Le bruit temporel est également réduit dans un rapport de racine de k, où k est le nombre d'images de la série d'images Ni-κ. Cette réduction du bruit temporel permet d'améliorer le résultat obtenu après déconvolution.
En procédant ainsi, on est en mesure de restaurer une série d'images non pas en prenant en considération chacune de ces images une par une individuellement, mais de manière globale, ce qui permet d'accroître l'efficacité d'une telle correction. En outre, la fonction d'étalement de point de correction, peut avantageusement être déterminée, non pas sur la base de suppositions relatives au mouvement qui a pu animer l'axe de visée pendant la capture des images, mais sur Ia base du mouvement réel qui anime cet axe de visée. En outre, en contrôlant ainsi le mouvement de l'axe de visée dans un système de capture tel que celui décrit ci-avant, on peut définir un mouvement qui permette de réduire le flou de bougé et qui permette une détermination aisée de la fonction d'étalement de point associée PSFmotion.
La figure 3 illustre une matrice 52 de détecteurs de flux D(ι,j) d'un dispositif de capture d'images dans un système de capture d'images selon un mode de réalisation de la présente invention, où i représente l'indice de lignes de la matrice et j l'indice de colonne de la matrice
Le mouvement défini appliqué par le module de contrôle de mouvement 13 permet avantageusement à différents détecteurs D(i,j) de la matrice de détecteurs 52, de capter un même point d'une scène capturée par le système de capture d'images.
Ce mouvement défini présente, de préférence, au niveau de la matrice des détecteurs de flux 52, une amplitude de n pixels, n étant un nombre entier supérieur à 2, et inférieur à nmax , nmax étant déterminé de sorte que les images captées au cours d'un cycle présentent une partie majoritairement commune. Un tel système de capture d'images 10 comprend en outre un module de traitement intermédiaire 15 adapté pour fournir une image intermédiaire à partir de la série d'images, captées pendant un cycle du mouvement défini, sur la base d'une répétition des opérations suivantes : - caler une image suivante N,+i de la dite série d'images sur une image précédente N, en fonction du mouvement défini , et
- corriger un bruit spatial relatifs auxdits détecteurs de flux et affectant la partie commune des images précédente et suivante, sur la base dudit mouvement défini, en fonction d'au moins un décalage déterminé entre une valeur d'un pixel de référence Pi dans la partie commune d'une image précédente et une valeur d'un pixel suivant P≥ qui représente un même point de ladite scène que ledit pixel de référence dans ladite partie commune d'une image suivante.
Il comprend également un module de correction 14 adapté pour fournir une image captée corrigée de la scène en appliquant un produit de convolution entre l'image intermédiaire et une fonction d'étalement de point de correction PSFgιObai. cette fonction d'étalement de point de correction étant déterminée sur la base du mouvement défini.
Le module de contrôle de mouvement 13 peut être adapté pour appliquer un mouvement défini correspondant à un cercle présentant un diamètre d'une valeur supérieure ou égale à 3 pixels au niveau de la matrice de détecteurs de flux.
Le module de contrôle de mouvement 13 peut être adapté pour appliquer un mouvement défini présentant une vitesse qui est déterminée en fonction d'un temps d'intégration des détecteurs de flux du dispositif de capture d'images.
Le module de correction peut être adapté pour corriger successivement, à partir du décalage déterminé, des valeurs de pixels de la partie commune de l'image précédente 31 et de l'image suivante 32, telles qu'illustrées en figure 4, en parcourant une chaîne de pixels comprenant, à partir du pixel de référence
P1 dans l'image précédente, des pixels qui se correspondent alternativement dans l'image suivante et dans l'image précédente, un pixel de l'image suivante correspondant à un pixel de l'image précédente lorsque lesdits pixels correspondent à un même point de la scène capturée, et un pixel de l'image précédente correspondant à un pixel de l'image suivante lorsque lesdits pixels correspondent au même détecteur de flux de la matrice de détecteurs.
Le module de correction peut alors en outre être adapté pour déterminer la position du pixel de référence Pi dans la partie commune en fonction du mouvement défini et d'une période de temps écoulée entre les deux images.
Le module de correction peut être adapté pour déterminer la position du pixel suivant P dans l'image suivante 32 à partir de la position du pixel de référence P1 dans l'image précédente en fonction d'informations relatives au mouvement défini qui sont fournies par le module de contrôle de mouvement et d'une période de temps écoulée entre les images précédente et suivante.
Le module de correction 14 peut être adapté pour déterminer le mouvement défini par application d'un traitement numérique des images précédente et successive, tel que celui qui est décrit par exemple dans le document FR 2 828 315.
La figure 3 illustre un mouvement défini 53 selon un mode de réalisation de la présente invention relativement à la matrice de détecteurs de flux du dispositif de capture d'images. Ce mouvement défini impose à l'axe de visée, au niveau de la matrice de détecteurs, un déplacement le long d'un carré de pixels ayant des côtés d'une longueur de 3 pixels.
Dans ces conditions, lorsque le mouvement a en outre une vitesse qui permet un déplacement d'un pixel entre deux images consécutivement captées, 8 détecteurs différents de la matrice 52 captent le même point de la scène captée en un cycle du mouvement défini, c'est à dire les pixels positionnés le long de la circonférence du carré illustré en figure 2.
On peut également prévoir d'appliquer un mouvement défini présentant une amplitude supérieure à 3 pixels.
On peut aussi prévoir, qu'au lieu de décrire un carré, au niveau de la matrice des détecteurs 52, l'axe de visée z décrit un cercle de diamètre supérieur ou égal à 3 pixels.
De manière générale, d'une part, on impose à l'axe de visée au niveau de la matrice de détecteurs, une amplitude de mouvement minimale de manière à s'assurer que la correction du bruit spatial est pertinente, car elle est alors réalisée sur un échantillon représentatif de détecteurs de la matrice de détecteurs. Puis, d'autre part, on impose le fait que cette amplitude de mouvement soit inférieure à une valeur maximale qui est déterminée de manière à s'assurer qu'une importante partie commune de la scène captée soit présente sur toutes les images qui sont captées pendant un cycle du mouvement défini appliqué à l'axe de visée.
La figure 4 illustre une correction de bruit spatial appliquée à une image précédente et une image suivante de la série d'images captées. Deux images successives, une image précédente 31 et une image suivante 32, sont captées selon un mode de réalisation de la présente invention. Un ballon B est représenté au centre de l'image précédente 31 , puis, il est représenté dans l'angle droit sur l'image suivante 32, puisque l'axe de visée a été déplacé entre les moments respectifs de capture des deux images successives 31 et 32, selon le mouvement défini imposé par le module de contrôle de mouvement 13.
Les pixels au sein d'une image captée sont référencés dans le référentiei de la matrice de détecteurs 52, qui comprend les détecteurs D(i,j) pour i compris entre 1 et le nombre total de lignes de la matrice 52 et pour j compris entre 1 et le nombre total de colonnes de la matrice 52.
Le détecteur central D(x,y) de la matrice des détecteurs capte un point central du ballon B pour l'image précédente 31. Puis, l'axe de visée z ayant été orienté différemment pour la capture de l'image suivante 32, le point central du ballon B est ensuite capté par un autre détecteur D(x',y') de la matrice des détecteurs.
Théoriquement, les pixels représentant le point central du ballon B respectivement dans l'image précédente 31 et dans l'image suivante 32, devraient être positionnés à la même valeur. Si tel n'est pas le cas en pratique, il convient d'y remédier.
A cet effet, dans un mode de réalisation de la présente invention, en premier lieu est déterminé le mouvement que tous les détecteurs de la matrice de détecteurs ont subi entre le moment de capture de l'image précédente 31 et celui de l'image suivante 32. Etant donné que ce mouvement correspond au mouvement défini contrôlé par !e module de contrôle de mouvement 13, au sein du système de capture d'images 10, on connaît ce mouvement, c'est-à-dire sa forme, ainsi que sa vitesse.
Par conséquent, il est aisé de déterminer pour un pixel de référence P^ de l'image précédente 31 , un pixel suivant correspondant dans l'image suivante 32, c'est-à-dire un pixel qui représente le même point de la scène captée dans l'image suivante 32. Puis, on calcule un décalage entre la valeur V(Pi) du pixel de référence et la valeur Sf(P2) du pixel suivant, et on obtient un décalage qui vérifie l'équation : δ = V(P2) - V(P1) Ce décalage δ est ensuite utilisé pour corriger la valeur d'un pixel Pi de l'image précédente, qui a été capté par le détecteur D(x,y), en fonction de la valeur du pixel P. On obtient donc une valeur corrigée Vcor du pixel Pi qui vérifie l'équation suivante :
Figure imgf000024_0001
O On peut appliquer une telle méthode de correction du bruit spatial sur tous les pixels qui correspondent à la même scène dans les deux images considérées.
Dans un mode de réalisation de la présente invention, on prévoit d'appliquer une propagation de la correction de décalage de la façon suivante. Le décalage δ tel que déterminé ci-dessus, permet également de corriger la valeur d'un troisième pixel P3 dans l'image précédente 31 correspondant au détecteur D(x',y'). En effet, cette valeur est entachée du même décalage δ et peut donc être corrigée pour fournir une valeur corrigée VCOrr(P3) qui vérifie l'équation suivante : Vcorr(P3) = V(P3) + δ
Puis, à partir de cette valeur de pixel corrigée, on est en mesure de corriger un quatrième pixel P4 qui a été capté par un détecteur D(x", y"), qui a capté le même point de la scène que le détecteur D(x',y') pour l'image précédente. En effet, la valeur corrigée de ce pixel P4 vérifie l'équation suivante :
Vcorr(P4) = V0Ofr(P3).
Puis, on reporte le décalage δ sur la valeur du pixel de l'image 31 qui a été captée par le détecteur D(x", y") de la matrice de détecteurs 52. On peut ainsi parcourir une chaîne de pixels que l'on peut corriger successivement et alternativement entre l'image précédente 31 et l'image suivante 32.
En procédant ainsi, on corrige successivement des valeurs de pixels de la partie commune de l'image précédente 31 et de l'image suivante 32, en parcourant une chaîne de pixels comprenant successivement, à partir d'un pixel de référence dans l'image précédente, des pixels qui se correspondent alternativement dans les images suivante et précédente. Dans une telle chaîne de pixels, un pixel de l'image suivante correspond à un pixel de l'image précédente lorsqu'il représente un même point de la scène captée ; et, un pixel de l'image suivante correspond à un pixel de l'image précédente, lorsque ces deux pixels correspondent au même détecteur de flux dans la matrice de détecteurs 52.
Dans les sections ci-avant, le mouvement d'un pixel depuis une image précédente à une image suivante est déterminé à partir de la connaissance que le système de capture d'images 10 a de ce mouvement mécanique.
Il se peut que cette connaissance du mouvement défini soit insuffisamment précise. Tel est notamment le cas lorsque ce mouvement défini est en pratique entaché de bruit. Dans un tel cas, le mouvement défini qui est théoriquement appliqué à l'axe de visée z diffère du mouvement qui lui est réellement appliqué. Dans ce contexte, il peut être avantageux de déterminer le mouvement de cet axe de visée au niveau de la matrice des détecteurs, sur la base d'un traitement numérique des images captées. Un tel procédé de traitement numérique visant à déterminer le mouvement de l'axe de visée entre deux images captées consécutivement est décrit dans le document US 5 502482 ou encore dans le document FR 2 828 315.
Un mode de réalisation de la présente invention peut avantageusement être mis en œuvre dans un contexte de capture d'une scène sensiblement statique, car if permet d'améliorer la qualité des images captées, en réduisant à la fois le bruit spatial et le bruit temporel.
Dans un mode de réalisation de la présente invention, on peut se fonder sur des données qui peuvent être déterminées à partir de la stabilisation des images pour estimer de façon simple la fonction de filé, ces données étant relatives au tangage, au roulis et au lacet des images traitées. Afin d'estimer plus précisément la fonction de filé, on peut en outre prend en compte des données de configuration de système telles que par exemple la température de fonctionnement, ou encore un facteur d'échelle entre les dimensions angulaires de l'espace de l'image et les dimensions linéaires de la matrice des détecteurs.
On peut ainsi, dans certains cas, représenter la fonction de filé dans un repère adapté qui permet de simplifier nettement les calculs à effectuer. Notamment, il convient de noter que lorsque la fonction de filé est représentée dans des coordonnées polaires, elle peut être une fonction monodimensionnelle, cette fonction monodimensionnelle étant différente à chaque trame.

Claims

REVENDICATIONS
1. Procédé de traitement d'images dans un système de capture (10) d'une série d'images d'une scène comprenant un dispositif de capture d'images (11) ayant une matrice (52) de détecteurs de flux orientée selon un axe de visée
(Z). ledit dispositif de capture d'images comprenant un module de stabilisation (12) qui stabilise l'axe de visée des images captées, ledit axe de visée étant animé d'un mouvement défini, cyclique et présentant sur un cycle, au niveau de la matrice des détecteurs de flux, une amplitude de n pixels, n étant un nombre entier supérieur à 2, et inférieur à nmaχ , nmax étant déterminé de sorte que les images captées au cours d'un cycle présentent une partie majoritairement commune; ledit procédé comprenant les étapes suivantes appliquer à une série d'images (Ni-k) successives captées pendant un cycle :
/1/ répéter les étapes N et /ii/ depuis la première image captée jusqu'à la dernière image captée de ladite série et obtenir une image intermédiaire (lintemédiaire) "
- IM caler (21) une image suivante (Ni+i) de ladite série d'images sur une image précédente (Ni) en fonction du mouvement défini ; - /ϋ/ corriger (22) un bruit spatial relatif aux détecteurs de flux affectant la partie commune des images suivante et précédente, en fonction d'au moins un décalage déterminé entre une valeur d'un pixel de référence (Pi) dans la partie commune de l'image précédente (31) et une valeur d'un pixel (P2) suivant qui représente un même point de ladite scène que ledit pixel de référence dans ladite partie commune de l'image suivante (32) ; 121 obtenir (25) une image captée corrigée de la scène en appliquant un produit de convolution (26) entre ladite image intermédiaire et une fonction d'étalement de point de correction (PSFg|Obai), ladite fonction d'étalement de point de correction étant déterminée sur la base du mouvement défini.
2. Procédé de traitement d'images selon Ia revendication 1 , dans lequel le mouvement défini est effectué à vitesse constante ou à accélération constante.
3. Procédé de traitement d'images selon la revendication 1 ou 2, dans lequel la fonction d'étalement de point de correction vérifie l'équation suivante
PSF glM (x, y, Nt_k ) = PSFcapt (x, y) Θ PSFmtlwn (x, y, N1 ) + B(x, y)
Figure imgf000028_0001
où PSFgiobai est la fonction d'étalement de point de correction de correction ; où x et y sont des coordonnées d'un détecteur au sein de la matrice de détecteurs ; où N1-K est la série d'images captées, chaque image captée étant représentée par un indice Nj pour i compris entre 1 et k, k étant supérieur e 1 ; où PSFcapt est une fonction d'étalement de point relative au capteur au niveau du détecteur de coordonnées x et y dans la matrice ; où PSFmotion est une fonction d'étalement de point relative au mouvement défini de l'axe de visée ; et où B(x,y) vérifie l'équation suivante :
Figure imgf000028_0002
où B(x,y,N() est la somme des bruits temporels et spatiaux affectant une image captée d'indice N1-.
4. Procédé de traitement d'images selon l'une quelconque des revendications précédentes, dans lequel le module de stabilisation est adapté pour stabiliser les images captées sur la base d'un traitement numérique des images.
5. Procédé de traitement d'images selon l'une quelconque des revendications précédentes, dans lequel le module de stabilisation est un module de stabilisation inertielle mécanique.
6. Procédé de traitement d'images selon l'une quelconque des revendications précédentes, dans lequel le mouvement défini est un cercle présentant un diamètre d'une valeur supérieure ou égale à 3 pixels au niveau de la matrice de détecteurs de flux.
7. Procédé de traitement d'images selon l'une quelconque des revendications précédentes, dans lequel la vitesse du mouvement défini est déterminée en fonction d'un temps d'intégration des détecteurs de flux de la matrice des détecteurs (52) du dispositif de capture d'images (11).
8. Procédé de traitement d'images selon l'une quelconque des revendications précédentes, dans lequel on corrige successivement, à partir du décalage déterminé, des valeurs de pixels de la partie commune de l'image précédente (31) et de l'image suivante (32), en parcourant une chaîne de pixels comprenant, à partir du pixel de référence (Pi) dans l'image précédente, des pixels qui se correspondent alternativement dans l'image suivante et dans l'image précédente, un pixel de l'image suivante correspondant à un pixel de l'image précédente lorsque lesdits pixels correspondent à un même point de la scène capturée, et un pixel de l'image précédente correspondant à un pixel de l'image suivante lorsque lesdits pixels correspondent au même détecteur de flux de la matrice de détecteurs.
9. Procédé de traitement d'images selon la revendication 8, dans lequel la position du pixel de référence (Pi) dans la partie commune est déterminée en fonction du mouvement défini et d'une période de temps écoulée entre lesdites images.
10. Procédé de traitement d'images selon l'une quelconque des revendications précédentes, dans lequel la position du pixel suivant dans l'image suivante est déterminée à partir de la position du pixel de référence dans l'image précédente en fonction de caractéristiques du mouvement défini appliqué à l'axe de visée et d'une période de temps écoulée entre lesdites images.
11. Procédé de traitement d'images selon l'une quelconque des revendications précédentes, dans lequel le mouvement défini est déterminé par application d'un traitement numérique des images précédente et suivante.
12. Système de capture d'une série d'images d'une scène comprenant un dispositif de capture d'images (11) ayant une matrice de détecteurs de flux orientée selon un axe de visée, ledit système de capture comprenant : un module de stabilisation (12) qui stabilise l'axe de visée des images captées; un module de contrôle de mouvement (13) qui est adapté pour appliquer à l'axe de visée un mouvement défini, cyclique et présentant sur un cycle au niveau de la matrice des détecteurs de flux une amplitude de n pixels, n étant un nombre entier supérieur à 2, et inférieur à nmax , nmax étant déterminé de sorte que les images captées au cours d'un cycle présentent une partie majoritairement commune ; un module de traitement intermédiaire (15) adapté pour fournir une image intermédiaire à partir de la série d'images, captées pendant un cycle du mouvement défini, sur la base d'une répétition des opérations suivantes :
- caler une image suivante (Nj+i) de la dite série d'images sur une image précédente (Nj) en fonction du mouvement défini ; et
- corriger un bruit spatial relatifs auxdits détecteurs de flux et affectant la partie commune des images précédente et suivante, sur la base dudit mouvement défini, en fonction d'au moins un décalage déterminé entre une valeur d'un pixel de référence (Pi) dans la partie commune d'une image précédente (31) et une valeur d'un pixel suivant (P2) qui représente un même point de ladite scène que ledit pixel de référence dans ladite partie commune d'une image suivante (32) ; - un module de correction (14) adapté pour fournir une image captée corrigée de la scène en appliquant un produit de convolution (26) entre ladite image intermédiaire et une fonction d'étalement de point de correction (PSFgiobai), ladite fonction d'étalement de point de correction étant déterminée sur la base du mouvement défini.
13. Système de traitement d'images selon la revendication 12, dans lequel le module de contrôle de mouvement (13) est adapté pour appliquer le mouvement défini à vitesse constante ou à accélération constante.
14. Système de traitement d'images selon la revendication 12 ou 13, dans lequel la fonction d'étalement de point de correction vérifie l'équation suivante :
PSF glM (x, y, NUk ) = PSFcapl (x, y) Φ ∑ PSFιm>Λιm (x, y, N1 ) + B(x, y)
1=1 où PSFgiobai est la fonction d'étalement de point de correction de correction ; où x et y sont des coordonnées d'un détecteur au sein de la matrice de détecteurs ; où Ni-k est la série d'images captées, chaque image captée étant représentée par un indice N, pour i compris entre 1 et k, k étant supérieur à 1 ; où PSFcapt est une fonction d'étalement de point relative au capteur au niveau du détecteur de coordonnées x et y dans la matrice ; où PSFmotion est une fonction d'étalement de point relative au mouvement défini de l'axe de visée ; et où B(x,y) vérifie l'équation suivante :
B(x, y) = ∑B(x,y,N, )
(=1 où B(x,y,Nj) est la somme des bruits temporels et spatiaux affectant une image captée d'indice Nj.
15. Système de capture selon l'une quelconque des revendications 12 à 14, caractérisé en ce que le module de contrôle de mouvement (13) est adapté pour appliquer un mouvement défini correspondant à un cercle présentant un diamètre d'une valeur supérieure ou égale à 3 pixels au niveau de la matrice de détecteurs de flux.
16. Programme d'ordinateur destiné à être installé dans un système de capture (10) selon l'une quelconque des revendications 12 à 15, comprenant des instructions aptes à mettre en œuvre le procédé selon l'une quelconque des revendications 1 à 11, lors d'une exécution du programme par des moyens de traitement du système de capture.
PCT/EP2009/051661 2008-02-12 2009-02-12 Correction d'images captees et stabilisees WO2009101151A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP09710568.8A EP2243115B9 (fr) 2008-02-12 2009-02-12 Correction d'images captees et stabilisees
US12/867,173 US8654202B2 (en) 2008-02-12 2009-02-12 Correction of captured and stabilized images
IL207574A IL207574A (en) 2008-02-12 2010-08-12 Correction of property and stability images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0850880 2008-02-12
FR0850880A FR2927448B1 (fr) 2008-02-12 2008-02-12 Correction d'images captees et stabilisees

Publications (1)

Publication Number Publication Date
WO2009101151A1 true WO2009101151A1 (fr) 2009-08-20

Family

ID=39711135

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2009/051661 WO2009101151A1 (fr) 2008-02-12 2009-02-12 Correction d'images captees et stabilisees

Country Status (5)

Country Link
US (1) US8654202B2 (fr)
EP (1) EP2243115B9 (fr)
FR (1) FR2927448B1 (fr)
IL (1) IL207574A (fr)
WO (1) WO2009101151A1 (fr)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2958486B1 (fr) * 2010-03-30 2013-02-08 Sagem Defense Securite Stabilisation d'images captees
US9336574B2 (en) * 2013-01-07 2016-05-10 GM Global Technology Operations LLC Image super-resolution for dynamic rearview mirror
US9070180B2 (en) * 2013-02-21 2015-06-30 Applied Materials Israel, Ltd. Method, system, and computer program product for detection of defects based on multiple references
FR3024627B1 (fr) * 2014-07-30 2016-08-19 Mbda France Procede pour diminuer la composante basse frequence du bruit de mesure d'un imageur photosensible et ses applications
WO2016106347A1 (fr) * 2014-12-22 2016-06-30 The Research Foundation For The State University Of New York Détermination de la répartition spatiale des faisceaux de particules chargées
CN104811588B (zh) * 2015-04-10 2018-04-20 浙江工业大学 一种基于陀螺仪的船载稳像控制方法
US10495518B2 (en) * 2016-06-23 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Infrared detection apparatus
JP6765064B2 (ja) 2016-06-23 2020-10-07 パナソニックIpマネジメント株式会社 赤外線検出装置
FR3085081A1 (fr) 2018-08-16 2020-02-21 Psa Automobiles Sa Procede de correction en temps reel d’images alterees provenant d’une camera embarquee presentant des salissures

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6642497B1 (en) * 2002-06-14 2003-11-04 Hewlett-Packard Development Company, Lp. System for improving image resolution via sensor rotation
EP1783686A1 (fr) * 2005-11-02 2007-05-09 NEC Electronics Corporation Stabilisation d'images

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9217098D0 (en) * 1992-08-12 1992-09-23 British Broadcasting Corp Derivation of studio camera position and motion from the camera image
US6778210B1 (en) * 1999-07-15 2004-08-17 Olympus Optical Co., Ltd. Image pickup apparatus with blur compensation
FR2828315B1 (fr) * 2001-07-31 2005-08-05 Sagem Stabilisation des images d'une scene, correction des offsets de niveaux de gris, detection d'objets mobiles et harmonisation de deux appareils de prise de vues fondes sur la stabilisation des images
US7657123B2 (en) * 2001-10-03 2010-02-02 Microsoft Corporation Text document capture with jittered digital camera
WO2004001667A2 (fr) * 2002-06-21 2003-12-31 The Trustees Of Columbia University In The City Of New York Systemes et procedes destines a rendre nettes des images obtenues floues en raison d'un deplacement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6642497B1 (en) * 2002-06-14 2003-11-04 Hewlett-Packard Development Company, Lp. System for improving image resolution via sensor rotation
EP1783686A1 (fr) * 2005-11-02 2007-05-09 NEC Electronics Corporation Stabilisation d'images

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BEN-EZRA M., ZOMET A., NAYAR S. K.: "Jitter Camera: a Super-Resolution Video Camera", PROC. OF SPIE-IS&T ELECTRONIC IMAGING, vol. 6077, 2005, XP002495750 *
IRANI M ET AL: "SUPER RESOLUTION FROM IMAGE SEQUENCES", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION. ATLANTIC CITY, JUNE 16 - 21, 1990. CONFERENCE A : COMPUTER VISION AND CONFERENCE B : PATTERN RECOGNITION SYSTEMS AND APPLICATIONS; [PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON PAT, vol. 2, 16 June 1990 (1990-06-16), pages 115 - 120, XP000166484, ISBN: 978-0-8186-2062-1 *
MIN KYU PARK ET AL: "Super-resolution image reconstruction: a technical overview", IEEE SIGNAL PROCESSING MAGAZINE, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 20, no. 3, 1 May 2003 (2003-05-01), pages 21 - 36, XP011097476, ISSN: 1053-5888 *
PHAM T. Q., VAN VLIET L. J., SHUTTE K.: "Influence of Signal-to-Noice Ratio and Point Spread Function on Limits of Super-Resolution", SPIE AND IS&T, vol. 5672, 2005, XP002495298 *

Also Published As

Publication number Publication date
IL207574A (en) 2015-10-29
FR2927448A1 (fr) 2009-08-14
EP2243115B1 (fr) 2019-04-03
EP2243115A1 (fr) 2010-10-27
FR2927448B1 (fr) 2011-03-04
IL207574A0 (en) 2010-12-30
US8654202B2 (en) 2014-02-18
EP2243115B9 (fr) 2019-09-11
US20110037860A1 (en) 2011-02-17

Similar Documents

Publication Publication Date Title
EP2243115B9 (fr) Correction d&#39;images captees et stabilisees
EP3171589B1 (fr) Drone muni d&#39;une camera video delivrant des sequences d&#39;images corrigees de l&#39;effet wobble
EP1298592B1 (fr) Stabilisation des images d&#39;une scène, correction des offsets de niveaux de gris, détection d&#39;objets mobiles et harmonisation de deux appareils de prise de vues fondés sur la stabilisation des images
EP2933775B1 (fr) Drone à voilure tournante muni d&#39;une caméra video délivrant des séquences d&#39;images stabilisées
EP2753971B1 (fr) Stabilisation d&#39;une ligne de visée d&#39;un système d&#39;imagerie embarqué à bord d&#39;un satellite
EP1843295B1 (fr) Procédé de restitution de mouvements de la ligne de visée d&#39;un instrument optique
FR3027143A1 (fr) Appareil mobile, notamment drone a voilure tournante, muni d&#39;une camera video delivrant des sequences d&#39;images corrigees dynamiquement de l&#39;effet &#34;wobble&#34;
CN110708465B (zh) 视频抖动校正方法、装置、可读存储介质及电子设备
FR2952744A1 (fr) Procede d&#39;estimation du mouvement d&#39;un instrument d&#39;observation a defilement survolant un corps celeste
EP2460143B1 (fr) Procédé d&#39;estimation de décalages d&#39;images lignes obtenues par un capteur à défilement spatial ou aéroporté
EP3385677B1 (fr) Systeme et procede d&#39;analyse et de surveillance des mouvements parasites d&#39;une centrale inertielle pendant une phase d alignement statique
EP2375724B1 (fr) Stabilisation d&#39;images captées
EP1927953B1 (fr) Correction de bruit dans des images captées par un système à stabilisation inertielle
EP2210059A1 (fr) Procede d&#39;integration d&#39;un signal vibratoire a partir de differentielles du signal et procede correspondant de correction d&#39;un signal acquis par un capteur d&#39;images
EP2113460B1 (fr) Procédé de caractérisation des vibrations pour un satellite d&#39;observation.
EP0965946A1 (fr) Procédé d&#39;amelioration du rapport signal/bruit de l&#39;image d&#39;un objet en mouvement
EP2522140A1 (fr) Estimation de mouvement global et dense
FR2968499A1 (fr) Procede d&#39;utilisation d&#39;un capteur d&#39;image.
EP0629082A1 (fr) Procédé de correction spatiale d&#39;image numérique
EP4352454A1 (fr) Systeme d&#39;imagerie a balayage pour saisir des images selon deux valeurs d&#39;inclinaison de ligne de visee
EP3899867A1 (fr) Dispositif et procédé d&#39;estimation de mouvement d&#39;un capteur d&#39;images entre deux images, programme d&#39;ordinateur associé
FR2863750A1 (fr) Procede et dispositif de stabilisation d&#39;images acquises en lignes ou en colonnes
FR2952195A1 (fr) Procede d&#39;acquisition d&#39;une image numerique stabilisee par un appareil photo
FR3020168A1 (fr) Drone a voilure tournante muni d&#39;une camera video delivrant des sequences d&#39;images stabilisees

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09710568

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009710568

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 207574

Country of ref document: IL

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12867173

Country of ref document: US