FR3085081A1 - METHOD FOR REAL-TIME CORRECTION OF DAMAGED IMAGES FROM AN ON-BOARD CAMERA WITH DIRT - Google Patents

METHOD FOR REAL-TIME CORRECTION OF DAMAGED IMAGES FROM AN ON-BOARD CAMERA WITH DIRT Download PDF

Info

Publication number
FR3085081A1
FR3085081A1 FR1857505A FR1857505A FR3085081A1 FR 3085081 A1 FR3085081 A1 FR 3085081A1 FR 1857505 A FR1857505 A FR 1857505A FR 1857505 A FR1857505 A FR 1857505A FR 3085081 A1 FR3085081 A1 FR 3085081A1
Authority
FR
France
Prior art keywords
image
neural network
camera
images
board camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1857505A
Other languages
French (fr)
Inventor
Thomas Hannagan
Emilien Lauret
David Bertrand
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR1857505A priority Critical patent/FR3085081A1/en
Publication of FR3085081A1 publication Critical patent/FR3085081A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

Procédé de correction en temps réel d'images altérées provenant d'une caméra embarquée présentant des salissures, comprenant successivement les étapes de capture d'une image altérée (la) par ladite caméra embarquée (100), présentation de ladite image altérée (la) à un réseau neuronal artificiel préalablement entrainé à partir d'une base d'apprentissage formée par des couples d'images comprenant chacun une première image altérée captée par ladite caméra embarquée présentant des salissures et une seconde image propre captée simultanément par une seconde caméra dépourvue de salissures et implantée temporairement à proximité de cette caméra embarquée (200), génération par ledit réseau neuronal d'une image corrigée intermédiaire (Ii) dont le champ de vision correspond à celui de ladite seconde caméra (300), présentation de ladite image corrigée intermédiaire (Ii) à un algorithme projecteur (400), et génération par ce dernier d'une image corrigée finale (If) dont le champ de vision correspond à celui de ladite caméra embarquée (500).Method for the correction in real time of altered images coming from an on-board camera presenting soiling, successively comprising the steps of capturing an altered image (la) by said on-board camera (100), presentation of said altered image (la) to an artificial neural network previously trained from a learning base formed by pairs of images each comprising a first altered image captured by said on-board camera having dirt and a second clean image captured simultaneously by a second camera devoid of soiling and temporarily located near this on-board camera (200), generation by said neural network of an intermediate corrected image (Ii) whose field of vision corresponds to that of said second camera (300), presentation of said intermediate corrected image (Ii) to a projector algorithm (400), and generation by the latter of a cor image final rigée (If) whose field of vision corresponds to that of said on-board camera (500).

Description

D'IMAGES ALTEREES PROVENANT D'UNE CAMERAALTERED IMAGES FROM A CAMERA

Figure FR3085081A1_D0001

llllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllllll

Titre de l'inventionTitle of invention

Procédé de correction en temps réel d'images altérées provenant d'une caméra embarquée présentant des salissuresMethod for correcting altered images in real time from an on-board camera with soiling

Domaine de l'inventionField of the invention

La présente invention concerne le domaine de la détection d'objets dans l'environnement d'un véhicule automobile. Elle vise en particulier un procédé de correction en temps réel d'images altérées provenant d'une caméra embarquée présentant des salissures.The present invention relates to the field of object detection in the environment of a motor vehicle. It relates in particular to a process for the correction in real time of altered images originating from an on-board camera presenting soiling.

Arrière-plan de l'inventionInvention background

Les véhicules automobiles ont tendance à être de plus en plus équipés de systèmes d'aides à la conduite sophistiqués, communément désignés sous l'acronyme anglophone ADAS pour « Advanced Driver Assistant Systems », et ayant pour objectif d'améliorer le confort de conduite et/ou la sécurité des passagers.Motor vehicles tend to be increasingly equipped with sophisticated driver assistance systems, commonly referred to by the English acronym ADAS for "Advanced Driver Assistant Systems", and intended to improve driving comfort and / or passenger safety.

Ces systèmes d'aides à la conduite mettent en œuvre des dispositifs d'imagerie dotés de caméras aptes à visualiser l'environnement routier du véhicule et dont la face externe du système optique est particulièrement exposée aux intempéries, aux projections (boue, poussières, sable, terre, etc...), ou encore à des phénomènes de condensation qui peuvent dégrader fortement la qualité des images formées à travers ou par ce système optique, au préjudice du confort et de la sécurité du conducteur.These driver assistance systems use imaging devices fitted with cameras capable of visualizing the road environment of the vehicle and the external face of the optical system of which is particularly exposed to bad weather and projections (mud, dust, sand , earth, etc ...), or to condensation phenomena which can greatly degrade the quality of the images formed through or by this optical system, to the detriment of the driver's comfort and safety.

On connaît de tels dispositifs d'imagerie comportant un module d’analyse conçu pour détecter des salissures sur la face externe du système optique de la caméra.There are known such imaging devices comprising an analysis module designed to detect dirt on the external face of the optical system of the camera.

La demande internationale WO2017021377A1 divulgue ainsi un dispositif d'imagerie comprenant :The international application WO2017021377A1 thus discloses an imaging device comprising:

- une caméra comprenant un capteur d'images ainsi qu'un système optique associé optiquement au capteur d'images et comportant une lentille liquide de focale commandable, ledit système optique étant adapté à former sur le capteur d’images une image d’un environnement extérieur visualisé par la caméra à travers une face externe du système optique ;a camera comprising an image sensor as well as an optical system optically associated with the image sensor and comprising a controllable focal lens, said optical system being adapted to form on the image sensor an image of an environment exterior viewed by the camera through an external face of the optical system;

- un module de commande conçu pour commander la lentille liquide successivement à deux valeurs de focale distinctes, pour obtenir une première image nette d'une zone de l'environnement extérieur distante de la face externe du système optique, puis une deuxième image nette de ladite face externe ; eta control module designed to control the liquid lens successively at two distinct focal values, in order to obtain a first clear image of an area of the external environment distant from the external face of the optical system, then a second sharp image of said external face; and

- un module d'analyse conçu pour détecter un élément altérant un trajet optique au niveau de la face externe du système optique, par analyse de ladite deuxième image.- an analysis module designed to detect an element altering an optical path at the external face of the optical system, by analysis of said second image.

Ce système de détection ne peut toutefois pas être mise en œuvre avec des caméras monoculaires.However, this detection system cannot be implemented with monocular cameras.

On connaît également, par exemple de la demande japonaise JP 2001-171491, des dispositifs de lavage de la face externe du système optique d'une caméra embarquée sur un véhicule.Also known, for example from Japanese application JP 2001-171491, are devices for washing the external face of the optical system of a camera on board a vehicle.

Un tel dispositif de lavage est équipé d'un module de génération d'air à haute pression permettant de pulvériser de l'eau de lavage à haute pression sur la face externe du système optique pour la nettoyer et en retirer les salissures.Such a washing device is equipped with a high-pressure air generation module making it possible to spray high-pressure washing water on the external face of the optical system to clean it and remove dirt therefrom.

Toutefois, l'utilisation d'un tel dispositif a tendance à laisser des gouttelettes d'eau sur la face externe du système optique ce qui dégrade également la qualité des images formées à travers ou par ce système optique jusqu'à ce que l’eau de lavage pulvérisée soit complètement évaporée et séchée.However, the use of such a device tends to leave water droplets on the external face of the optical system which also degrades the quality of the images formed through or by this optical system until the water washing spray is completely evaporated and dried.

On connaît également, en particulier de la demande FR 2 927 448 Al, des procédés de traitement d'image permettant de corriger les effets de bougé des images formées à travers ou par le système optique d'une caméra.There are also known, in particular from application FR 2 927 448 A1, image processing methods making it possible to correct the effects of camera shake of the images formed through or by the optical system of a camera.

Toutefois ce type de procédé ne donne pas satisfaction pour le traitement d'images altérées du fait de salissures présentes sur la face externe du système optique de la caméra.However, this type of method is not satisfactory for the processing of images altered due to soiling present on the external face of the optical system of the camera.

Objet et résumé de l'inventionSubject and summary of the invention

La présente invention vise à améliorer la situation.The present invention aims to improve the situation.

Elle propose à cet effet un procédé de correction en temps réel d'images altérées provenant d'une caméra embarquée présentant des salissures, caractérisé en ce qu'il comprend les étapes suivantes :To this end, it proposes a method for the correction in real time of altered images coming from an on-board camera presenting soiling, characterized in that it comprises the following steps:

- capture d'une image altérée par ladite caméra embarquée ;- capture of an image altered by said on-board camera;

- présentation de ladite image altérée à un algorithme correcteur et projecteur constitué par un premier réseau neuronal artificiel, préalablement entraîné à partir d'une première base d'apprentissage formée par des couples d'images comprenant chacun une première image altérée captée par ladite caméra embarquée présentant des salissures et une seconde image propre captée simultanément par une seconde caméra dépourvue de salissures et implantée temporairement à proximité de cette caméra embarquée de sorte à présenter un champ de vision se superposant quasiintégralement avec celui de cette dernière ;presentation of said altered image to a corrective algorithm and projector formed by a first artificial neural network, previously trained from a first learning base formed by pairs of images each comprising a first altered image captured by said on-board camera having dirt and a second clean image captured simultaneously by a second camera devoid of dirt and temporarily installed near this on-board camera so as to present a field of vision which is almost entirely superimposed on that of the latter;

- génération par ledit réseau neuronal d'une image corrigée intermédiaire dont le champ de vision correspond à celui de ladite seconde caméra ;- Generation by said neural network of an intermediate corrected image whose field of vision corresponds to that of said second camera;

- présentation de ladite image corrigée intermédiaire à un algorithme projecteur ; et- presentation of said intermediate corrected image to a projector algorithm; and

- génération par ledit algorithme projecteur d'une image corrigée finale dont le champ de vision correspond à celui de ladite caméra embarquée.- Generation by said projector algorithm of a final corrected image whose field of vision corresponds to that of said on-board camera.

Le procédé selon l'invention permet d'obtenir une image corrigée finale très proche de celle qu'aurait prise la caméra embarquée en l'absence de salissures.The method according to the invention makes it possible to obtain a final corrected image very close to that which the on-board camera would have taken in the absence of dirt.

Ce réalisme dans la correction est essentiellement dû au fait que les images altérées de la base d'apprentissage dudit premier réseau neuronal sont constituées par des images réellement captées par une caméra et non par des images dont l'altération est générée artificiellement par un algorithme.This realism in correction is essentially due to the fact that the altered images of the learning base of said first neural network are constituted by images actually captured by a camera and not by images whose alteration is artificially generated by an algorithm.

Selon des caractéristiques préférées du procédé selon l'invention, prises seules ou en combinaison :According to preferred characteristics of the process according to the invention, taken alone or in combination:

- ledit premier réseau neuronal comporte une pluralité de couches convolutives et un nombre identique de couches déconvolutives agencées symétriquement ;- Said first neural network comprises a plurality of convolutional layers and an identical number of deconvolutionary layers arranged symmetrically;

- ledit premier réseau neuronal comporte des connections directes entre deux couches convolutive et déconvolutive symétriques ;- Said first neural network includes direct connections between two symmetrical convolutional and deconvolutionary layers;

- ledit premier réseau neuronal est dépourvu de couches de sous-échantillonnage ;- Said first neural network is devoid of subsampling layers;

- ledit premier réseau neuronal comporte une fonction de perte de type erreur quadratique moyenne ;- Said first neural network includes a loss function of the mean square error type;

- ladite première base d'apprentissage est formée de plusieurs dizaines de milliers de dits couples d'images ;- Said first learning base is formed of several tens of thousands of said pairs of images;

- lesdits couples d'images formant ladite première base d'apprentissage sont prétraités par rectification de sorte que leurs lignes épipolaires soient horizontales ;- Said pairs of images forming said first learning base are pretreated by rectification so that their epipolar lines are horizontal;

- ledit algorithme projecteur est constitué par un second réseau neuronal artificiel, préalablement entraîné à partir d'une seconde base d'apprentissage formée par des couples d'images comprenant chacun une première image propre captée par ladite caméra embarquée dépourvue de salissures et une seconde image propre captée simultanément par ladite seconde caméra dépourvue de salissures ;said projector algorithm is constituted by a second artificial neural network, previously trained from a second learning base formed by pairs of images each comprising a first clean image captured by said on-board camera devoid of dirt and a second image clean captured simultaneously by said second camera devoid of dirt;

- ledit second réseau neuronal présente une architecture identique à celle dudit premier réseau neuronal ; et/ou- said second neural network has an architecture identical to that of said first neural network; and or

- ledit procédé comporte, après ladite étape de génération d'une image corrigée finale, une étape d'évaluation du niveau de salissure de ladite caméra embarquée par comparaison entre cette image corrigée finale et ladite image altérée.- Said method comprises, after said step of generating a final corrected image, a step of evaluating the level of soiling of said on-board camera by comparison between this final corrected image and said altered image.

Brève description des dessinsBrief description of the drawings

L'exposé de l'invention sera maintenant poursuivi par la description détaillée d'un exemple de réalisation, donnée ci-après à titre illustratif mais non limitatif, en référence aux dessins annexés, sur lesquels :The description of the invention will now be continued with the detailed description of an exemplary embodiment, given below by way of illustration but not limitation, with reference to the appended drawings, in which:

- la figure 1 est un diagramme fonctionnel d'un dispositif d'imagerie 1 destiné à être intégré dans un système avancé d'aide à la conduite (ADAS) de véhicule automobile ;- Figure 1 is a functional diagram of an imaging device 1 intended to be integrated into an advanced driving assistance system (ADAS) of a motor vehicle;

- la figure 2 représente un organigramme du procédé selon l'invention de correction en temps réel d'images altérées provenant d'une caméra embarquée présentant des salissures ;- Figure 2 shows a flowchart of the method according to the invention for real-time correction of altered images from an on-board camera with dirt;

- les figures 3 à 5 illustrent respectivement l'image altérée captée par la caméra embarquée, l'image corrigée intermédiaire et l'image corrigée finale générées par le procédé selon l'invention ; et- Figures 3 to 5 respectively illustrate the altered image captured by the on-board camera, the intermediate corrected image and the final corrected image generated by the method according to the invention; and

- la figure 6 représente l'architecture du premier réseau neuronal artificiel.- Figure 6 shows the architecture of the first artificial neural network.

Description détailléedetailed description

La figure 1 illustre un dispositif d'imagerie 1 destiné à être intégré dans un système avancé d'aide à la conduite (ADAS) de véhicule automobile tel qu'un régulateur de vitesse adaptatif.FIG. 1 illustrates an imaging device 1 intended to be integrated into an advanced driving assistance system (ADAS) of a motor vehicle such as an adaptive cruise control.

Le dispositif d'imagerie 1 comporte une caméra optique monoculaire 10 embarquée sur le véhicule et étant dotée d'un capteur d'images bidimensionnelles 11, par exemple de type CCD (acronyme en langue anglaise de « Charge-Coupled Device » se traduisant en français par « dispositif à transfert de charge ») ou CMOS (acronyme en langue anglaise de « Complementary Metal-Oxide Semiconductor » se traduisant en français par « semi-conducteur à oxyde de métal complémentaire »).The imaging device 1 comprises a monocular optical camera 10 on board the vehicle and being provided with a two-dimensional image sensor 11, for example of the CCD type (acronym in English of "Charge-Coupled Device" translating into French by "charge transfer device") or CMOS (acronym in English of "Complementary Metal-Oxide Semiconductor" translating into French by "complementary metal oxide semiconductor").

La caméra 10 comprend également un système optique 12 associé au capteur d'images 11 et étant adapté à former sur ce dernier une image d’un environnement extérieur du véhicule visualisé par la caméra à travers une face externe de ce système optique.The camera 10 also includes an optical system 12 associated with the image sensor 11 and being adapted to form on the latter an image of an external environment of the vehicle viewed by the camera through an external face of this optical system.

Le dispositif d'imagerie 1 comporte également un module de traitement 20 relié à la caméra embarquée 10 (ou intégré à cette dernière) et apte à corriger en temps réel les images captées par cette dernière lorsque la face externe de son système optique présente de la buée ou des salissures.The imaging device 1 also includes a processing module 20 connected to the on-board camera 10 (or integrated into the latter) and capable of correcting in real time the images captured by the latter when the external face of its optical system exhibits fogging or soiling.

Le module de traitement 20 comporte un calculateur 21 ainsi qu'un module de stockage 22 comprenant de la mémoire non volatile de type EEPROM ou FLASH et de la mémoire vive.The processing module 20 comprises a computer 21 as well as a storage module 22 comprising non-volatile memory of the EEPROM or FLASH type and random access memory.

La mémoire non volatile stocke un processus de traitement en temps réel des images captées par la caméra embarquée 10 et dont l'organigramme est représenté sur la figure 2.The non-volatile memory stores a process for processing in real time the images captured by the on-board camera 10 and the flowchart of which is shown in FIG. 2.

Selon un mode préféré de réalisation, l'ensemble des informations contenues dans cette mémoire non volatile peut être mis à jour par des moyens de communication ou des moyens de lecture d'un support de données.According to a preferred embodiment, all of the information contained in this non-volatile memory can be updated by means of communication or means of reading a data medium.

On va maintenant décrire en détails et à l'appui de l'organigramme de la figure 2, les différentes étapes de ce processus.We will now describe in detail and in support of the flowchart of Figure 2, the different stages of this process.

Celui-ci est initié à chaque nouvelle capture, par le capteur d'image 11 de la caméra embarquée 10, d'une image altérée la (voir figure 3) du fait de la présence de salissures (gouttelettes d'eau, projections, buée) sur la face externe du système optique 12 (étape 100).This is initiated with each new capture, by the image sensor 11 of the on-board camera 10, of an altered image 1a (see FIG. 3) due to the presence of soiling (water droplets, projections, fogging ) on the external face of the optical system 12 (step 100).

Cette image altérée la est ensuite présentée à un algorithme correcteur et projecteur (étape 200) constitué par un premier réseau neuronal artificiel RN (voir figure 6) dont l'architecture décrite ci-après est inspirée de celles décrites dans les articles « Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections » (Mao et al., 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016) et « Unsupervised Monocular Depth Estimation with Left-Right Consistency » (Godard et al., Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition CVPR, 2017).This altered image 1a is then presented to a corrective and projector algorithm (step 200) constituted by a first artificial neural network RN (see FIG. 6) whose architecture described below is inspired by those described in the articles “Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections "(Mao et al., 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016) and" Unsupervised Monocular Depth Estimation with Left-Right Consistency "(Godard et al., Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition CVPR, 2017).

Ce premier réseau neuronal RN comporte une pluralité de couches convolutives C (avantageusement entre 10 et 15) et un nombre identique de couches déconvolutives D agencées symétriquement.This first neural network RN comprises a plurality of convolutional layers C (advantageously between 10 and 15) and an identical number of deconvolutionary layers D arranged symmetrically.

Les couches convolutives ont appris à extraire les caractéristiques de l'image altérée qui se prêtent le mieux à la reconstruction d'une image nette (voir procédure d'apprentissage cidessous).The convolutional layers have learned to extract the characteristics of the altered image which lend themselves best to the reconstruction of a sharp image (see learning procedure below).

Les couches déconvolutives ont appris quant à elles à effectuer cette reconstruction, dans le but d'obtenir une image nette de la scène « projetée » sur la caméra 2.The deconvolutionary layers have learned to carry out this reconstruction, in order to obtain a clear image of the scene "projected" on the camera 2.

Les deux opérations de correction/projection sont encodées dans les poids des connections de tout le réseau, a priori on ne peut pointer vers une couche qui effectuerait plus la projection qu'une autre, bien que le signal se rapproche de la projection recherchée dans les couches finales de déconvolution.The two correction / projection operations are encoded in the weights of the connections of the whole network, a priori one cannot point to a layer which would carry out the projection more than another, although the signal approaches the projection sought in the final layers of deconvolution.

Chaque couche convolutive ou déconvolutive est composée avantageusement de 64 filtres de taille 3X3 générant 64 cartes de caractéristiques (dénommées couramment sous le terme anglo-saxon « features maps ») à partir de l'image entrant dans cette couche.Each convolutional or deconvolutionary layer is advantageously composed of 64 filters of size 3 × 3 generating 64 characteristic maps (commonly known under the term “features maps”) from the image entering this layer.

En variante, le nombre de filtres constituant chaque couche est différent (par exemple égal à 32 ou 128). La taille de ces filtres peut également être différente (par exemple égale à 5X5, 7X7 ou 9X9).As a variant, the number of filters constituting each layer is different (for example equal to 32 or 128). The size of these filters can also be different (for example equal to 5X5, 7X7 or 9X9).

Pour éviter la perte de signal d'erreur inhérente à l'entrainement de tels réseaux neuronaux profonds, des connections directes S (dénommées couramment sous le terme anglo-saxon « skip connections ») sont prévues entre deux couches convolutive et déconvolutive symétriques.To avoid the loss of error signal inherent in the training of such deep neural networks, direct connections S (commonly called under the Anglo-Saxon term "skip connections") are provided between two convolutional and deconvolutionary layers.

Ces connections directes présentent avantageusement un pas égal à trois, c'est à-dire qu'elles s'étendent toutes les trois couches convolutives vers les couches déconvolutives symétriques correspondantes.These direct connections advantageously have a pitch equal to three, that is to say that they extend all the three convolutional layers towards the corresponding symmetrical deconvolutionary layers.

Elles sont en outre bijectives pour chaque filtre : chaque unité dans le filtre canal convolutif d'entrée étant connectée à son équivalent dans le filtre déconvolutif de sortie (connectivité one-to-one).They are also bijective for each filter: each unit in the convolutional input channel filter being connected to its equivalent in the deconvolutive output filter (one-to-one connectivity).

L'information passant par ces connections directes contient ainsi plus de détails ce qui aide les couches déconvolutives à générer une version propre plus détaillée.The information passing through these direct connections thus contains more details which helps the deconvolutional layers to generate a more detailed clean version.

Chacune des couches convolutives ou déconvolutives est suivie d'une fonction d'activation avantageusement de type ReLU (acronyme en langue anglaise de « Rectified Linear Unit » se traduisant en français par « Unité Linéaire Rectifiée »).Each of the convolutional or deconvolutionary layers is followed by an activation function advantageously of ReLU type (acronym in English of “Rectified Linear Unit” translating into French by “Unit Linear Rectified”).

Cette fonction, appelée aussi « fonction d'activation non saturante », augmente les propriétés non linéaires de la fonction de décision et de l'ensemble du réseau sans affecter les champs récepteurs de la couche convolutive ou déconvolutive.This function, also called "non-saturation activation function", increases the non-linear properties of the decision function and of the whole network without affecting the receptive fields of the convolutional or deconvolutionary layer.

Ce premier réseau neuronal correcteur et projecteur RN est en outre avantageusement dépourvu de couches de sous-échantillonnage (dénommées couramment sous le terme anglo-saxon « pooling ») car ces dernières ont tendance à éliminer certains détails présents dans l'image initiale.This first correcting neural network and projector RN is also advantageously devoid of subsampling layers (commonly called by the English term "pooling") because the latter tend to eliminate certain details present in the initial image.

Les images d'entrée et de sortie ont le même format de résolution (I x h x c), avec I, h et c qui représentent respectivement la largeur, la hauteur et le nombre de canaux de ces images (c étant égal à 1 pour une image monochrome et à 3 pour une image couleur codée en RVB).The input and output images have the same resolution format (I xhxc), with I, h and c representing respectively the width, the height and the number of channels of these images (c being equal to 1 for an image monochrome and 3 for a color image coded in RGB).

Ce format de résolution sera avantageusement de 800 x 480 x 3 pour des raisons de praticité (format usuel des caméras optiques implantées dans les véhicules) et de rapidité des calculs.This resolution format will advantageously be 800 x 480 x 3 for reasons of practicality (usual format of optical cameras installed in vehicles) and speed of calculations.

Ce premier réseau neuronal correcteur et projecteur RN est en outre préalablement entraîné à partir d'une première base d'apprentissage formée par plusieurs dizaines de milliers de couples d'images (avantageusement, au moins 40 000 et de préférence 60 000).This first correcting neural network and projector RN is furthermore previously trained from a first learning base formed by several tens of thousands of pairs of images (advantageously at least 40,000 and preferably 60,000).

Chaque couple d'images comprend une première image altérée captée par la caméra embarquée 10 dont la face externe du système optique 12 présente des salissures, et une seconde image propre captée simultanément par une seconde caméra identique à la caméra 10 dont la face externe du système optique est dépourvue de salissures et étant implantée de manière temporaire à proximité de cette caméra 10 de sorte à présenter un champ de vision se superposant quasi intégralement avec celui de cette dernière.Each pair of images comprises a first altered image captured by the on-board camera 10, the external face of the optical system 12 of which is dirty, and a second clean image captured simultaneously by a second camera identical to the camera 10, the external face of the system. optical is free of dirt and being temporarily located near this camera 10 so as to present a field of vision which is almost entirely superimposed on that of the latter.

Préalablement à l'acquisition des images, ces différences de salissures entre les faces externes des systèmes optiques des deux caméras peuvent être obtenues par simple roulage avec caméras désactivées, en obstruant la face externe du système optique de la seconde caméra jumelle mais pas celle de la caméra 10.Prior to image acquisition, these differences in soiling between the external faces of the optical systems of the two cameras can be obtained by simple rolling with cameras deactivated, by obstructing the external face of the optical system of the second twin camera but not that of the camera 10.

Lors de la phase d'acquisition des images, le roulage reprend avec les deux caméras actives.During the image acquisition phase, taxiing resumes with the two active cameras.

Les couples d'images provenant de la base d'apprentissage sont prétraités par rectification de sorte que leurs lignes épipolaires soient horizontales.The image pairs from the learning base are preprocessed by rectification so that their epipolar lines are horizontal.

Les performances du réseau neuronal augmentant avec le volume et la variété de la base d'apprentissage, un arbitrage est donc requis entre le coût lié à l'acquisition des images lors de la phase de roulage et le gain lié à la précision des deux réseaux.As the performance of the neural network increases with the volume and variety of the learning base, an arbitration is therefore required between the cost linked to the acquisition of images during the rolling phase and the gain linked to the precision of the two networks. .

Cependant, étant donné qu'aucune labellisation de ces images n'est nécessaire pour cette base d'apprentissage (les images obtenues par chaque caméra étant utilisées pour une supervision croisée), son prix de revient est réduit car constitué uniquement par les coûts de roulage et de stockage des images.However, since no labeling of these images is necessary for this learning base (the images obtained by each camera being used for cross-supervision), its cost price is reduced because it consists solely of the running costs and image storage.

Par ailleurs, de nouveaux couples d'images sont avantageusement créés par transformation miroir et interversion à partir des couples d'images générés lors de la phase d'acquisition.Furthermore, new pairs of images are advantageously created by mirror transformation and inversion from the pairs of images generated during the acquisition phase.

Cette technique dite d'augmentation permet de multiplier par deux le nombre de couples d'images de la base d'entrainement (et donc d'améliorer les performances du réseau neuronal) sans nécessiter de roulage supplémentaire.This so-called augmentation technique makes it possible to double the number of pairs of images of the training base (and therefore to improve the performance of the neural network) without requiring additional running.

Ce premier réseau neuronal correcteur et projecteur RN comporte en outre une fonction de perte de type erreur quadratique moyenne (communément désignée sous l'acronyme anglophone MSE pour « Mean Squarred Error) et permettant de calculer l’erreur de classification sur des lots issus de la base d'apprentissage et comprenant par exemple entre 5 et 100 couples d'images.This first correcting neural network and projector RN further comprises a loss function of the quadratic mean error type (commonly known under the English acronym MSE for “Mean Squarred Error”) and making it possible to calculate the classification error on batches originating from the learning base and comprising for example between 5 and 100 pairs of images.

Ainsi, étant donné un lot de N couples d'image (Xi,Yi) :Thus, given a lot of N image pairs (Xi, Yi):

MSE = Σ^=1 ||F(Xi) - Yill2 avec F(Xj) qui représente l'image corrigée par le réseau neuronal de l'image Xi.MSE = Σ ^ = 1 || F (Xi) - Yill 2 with F (Xj) which represents the image corrected by the neural network of the image Xi.

Les valeurs des poids des couches sont apprises par un algorithme de descente de gradient stochastique basé sur la rétropropagation du gradient : on calcule progressivement pour chaque couche, en partant de la fin du réseau, les paramètres qui minimisent cette fonction de perte.The values of the weights of the layers are learned by a stochastic gradient descent algorithm based on the backpropagation of the gradient: the parameters which minimize this loss function are gradually calculated for each layer, starting from the end of the network.

Cet algorithme est avantageusement l'algorithme ADAM (Kingma et Ba, « A method for stochastic optimization » , 3rd International Conference for Learning Representations, San Diego, 2015), utilisé avec un taux d'apprentissage égal à 10-4.This algorithm is advantageously the ADAM algorithm (Kingma and Ba, "A method for stochastic optimization", 3rd International Conference for Learning Representations, San Diego, 2015), used with a learning rate equal to 10 -4 .

En variante, les filtres de couches déconvolutives ne sont pas obtenus par apprentissage et sont constitués par les transposés des filtres des couches convolutives leur étant symétriques.As a variant, the filters of deconvolutive layers are not obtained by learning and are constituted by the transposed filters of the convolutional layers being symmetrical to them.

Ce premier réseau neuronal peut également présenter une architecture différente, en étant par exemple dépourvu de couches déconvolutives.This first neural network can also have a different architecture, for example being devoid of deconvolutionary layers.

A partir de l'image corrompue lui étant présentée au cours de l'étape 200, ce premier réseau neuronal RN va ainsi générer une image corrigée intermédiaire li (voir figure 4) dont le champ de vision correspond à celui de la seconde caméra utilisée uniquement pour constituer la base d'apprentissage et absente du dispositif d'imagerie 1 (étape 300).From the corrupted image presented to it during step 200, this first neural network RN will thus generate an intermediate corrected image li (see FIG. 4) whose field of vision corresponds to that of the second camera used only. to constitute the learning base and absent from the imaging device 1 (step 300).

Cette image corrigée intermédiaire li est ensuite présentée à un algorithme projecteur (étape 400) constitué par un second réseau neuronal artificiel dont l'architecture est identique à celle décrite ciavant du premier réseau neuronal artificiel.This intermediate corrected image li is then presented to a projector algorithm (step 400) constituted by a second artificial neural network whose architecture is identical to that described above of the first artificial neural network.

Ce second réseau neuronal est préalablement entraîné à partir d'une seconde base d'apprentissage comportant également plusieurs dizaines de milliers de couples d'images (sa taille étant avantageusement identique à celle la première base d'apprentissage).This second neural network is previously trained from a second learning base also comprising several tens of thousands of pairs of images (its size being advantageously identical to that of the first learning base).

Chaque couple d'images est constitué par une première image propre captée par la seconde caméra dont la face externe du système optique est dépourvue de salissures, et par une seconde image propre captée simultanément par la caméra 10 dont la face externe du système optique est également dépourvue de salissures.Each pair of images is formed by a first own image captured by the second camera whose external face of the optical system is free of dirt, and by a second own image captured simultaneously by the camera 10 whose external face of the optical system is also free of dirt.

A partir de l'image corrigée intermédiaire lui étant présentée au cours de l'étape 400, ce second réseau neuronal va ainsi générer une image corrigée finale If (voir figure 5) dont le champ de vision correspond à celui de la caméra embarquée 10 (étape 500).From the intermediate corrected image presented to it during step 400, this second neural network will thus generate a final corrected image If (see FIG. 5) whose field of vision corresponds to that of the on-board camera 10 ( step 500).

Cette image corrigée finale If approxime ainsi l'image qu'aurait captée la caméra embarquée 10 si la face externe de son système optique n'était pas altérée.This final corrected image If thus approximates the image that the on-board camera 10 would have captured if the external face of its optical system were not altered.

La comparaison des deux images peut utiliser comme mesure une simple erreur quadratique moyenne, une mesure PSNR (acronyme en langue anglaise de «Peak Signal to Noise Ratio » se traduisant en français par « rapport signal-bruit de crête ») faisant intervenir le logarithme de l'inverse de l'erreur quadratique, ou encore une mesure de type similarité structurelle calculée sur la base des moments (moyenne et variance) de ce images.The comparison of the two images can use a simple mean square error as a measure, a PSNR measure (acronym in English of “Peak Signal to Noise Ratio” translating into French as “signal-to-peak noise ratio”) involving the logarithm of the inverse of the quadratic error, or a structural similarity measure calculated on the basis of the moments (mean and variance) of this image.

De manière avantageuse, le procédé comporte également une dernière étape d'évaluation du niveau de salissure de ladite caméra embarquée par comparaison entre cette image corrigée finale If et l'image altérée la (étape 600).Advantageously, the method also includes a final step of evaluating the level of soiling of said on-board camera by comparison between this final corrected image If and the altered image 1a (step 600).

Afin d'éviter des calculs inutiles, on peut également prévoir que les étapes 200 à 600 ne soient réalisées, pour les n images suivantes capturées par le capteur 11 de la caméra embarquée 10, que si ce niveau de salissure est supérieur ou égal à une valeur seuil prédéterminée (la valeur de n correspondant par exemple au nombre d'images par seconde capturées par ce capteur 11 de sorte que ces étapes 200 à 500 soient au moins réalisées toutes les secondes).In order to avoid unnecessary calculations, it can also be provided that steps 200 to 600 are only performed, for the following n images captured by the sensor 11 of the on-board camera 10, only if this level of soiling is greater than or equal to one. predetermined threshold value (the value of n corresponding for example to the number of images per second captured by this sensor 11 so that these steps 200 to 500 are at least performed every second).

Selon d'autres variantes de réalisation, le second réseau neuronal projecteur présente une architecture différente de celle du premier réseau neuronal correcteur et projecteur.According to other alternative embodiments, the second projector neural network has an architecture different from that of the first correcting neural network and projector.

Selon encore d'autres variantes de réalisation, l'algorithme projecteur n'est pas constitué par un réseau neuronal. Cet algorithme peut par exemple consister en une transformation géométrique non apprise semblable à celles utilisées dans les applications de localisation et cartographie simultanée.According to yet other alternative embodiments, the projector algorithm is not constituted by a neural network. This algorithm can for example consist of an untrained geometric transformation similar to those used in localization and simultaneous mapping applications.

Cette transformation géométrique non apprise et pré-calculée peut consister en la matrice fondamentale entre les deux images la et , 5 permettant de calculer pour chaque pixel de l'image 2 une ligne épipolaire sur l'image 1, le long de laquelle on recherchera ensuite le pixel le mieux apparié. Cependant cette recherche nécessite une mesure de similarité entre pixels, qui est laborieuse à définir et idiosyncratique. »This untrained and pre-calculated geometric transformation can consist of the fundamental matrix between the two images la and, 5 making it possible to calculate for each pixel of image 2 an epipolar line on image 1, along which we will then search the best matched pixel. However, this research requires a measure of similarity between pixels, which is laborious to define and idiosyncratic. "

D'une manière générale, on rappelle que la présente invention ne se limite pas aux formes de réalisation décrites et représentées, mais qu'elle englobe toute variante d'exécution à la portée de l'homme du métier.In general, it is recalled that the present invention is not limited to the embodiments described and shown, but that it encompasses any variant of execution within the reach of the skilled person.

Claims (10)

REVENDICATIONS 1. Procédé de correction en temps réel d'images altérées provenant d'une caméra embarquée (10) présentant des salissures, caractérisé en ce qu'il comprend les étapes suivantes :1. A method of correcting altered images in real time from an on-board camera (10) presenting soiling, characterized in that it comprises the following steps: - capture d'une image altérée (la) par ladite caméra embarquée (10) (100) ;- Capture of an altered image (la) by said on-board camera (10) (100); - présentation de ladite image altérée (la) à un algorithme correcteur et projecteur constitué par un premier réseau neuronal artificiel (RN), préalablement entraîné à partir d'une première base d'apprentissage formée par des couples d'images comprenant chacun une première image altérée captée par ladite caméra embarquée (10) présentant des salissures et une seconde image propre captée simultanément par une seconde caméra dépourvue de salissures et implantée temporairement à proximité de cette caméra embarquée de sorte à présenter un champ de vision se superposant quasiintégralement avec celui de cette dernière (200) ;- presentation of said altered image (la) to a corrective algorithm and projector formed by a first artificial neural network (RN), previously trained from a first learning base formed by pairs of images each comprising a first image altered captured by said on-board camera (10) having dirt and a second clean image captured simultaneously by a second camera devoid of soiling and temporarily installed near this on-board camera so as to present a field of vision which is almost entirely superimposed on that of this last (200); - génération par ledit premier réseau neuronal (RN) d'une image corrigée intermédiaire (li) dont le champ de vision correspond à celui de ladite seconde caméra (300) ;- Generation by said first neural network (RN) of an intermediate corrected image (li) whose field of vision corresponds to that of said second camera (300); - présentation de ladite image corrigée intermédiaire (li) à un algorithme projecteur (400) ; et- presentation of said intermediate corrected image (li) to a projector algorithm (400); and - génération par ledit algorithme projecteur d'une image corrigée finale (If) dont le champ de vision correspond à celui de ladite caméra embarquée (10) (500).- Generation by said projector algorithm of a final corrected image (If) whose field of vision corresponds to that of said on-board camera (10) (500). 2. Procédé selon la revendication 1, caractérisé en ce que ledit premier réseau neuronal (RN) comporte une pluralité de couches convolutives (C) et un nombre identique de couches déconvolutives (D) agencées symétriquement.2. Method according to claim 1, characterized in that said first neural network (RN) comprises a plurality of convolutional layers (C) and an identical number of deconvolutionary layers (D) arranged symmetrically. 3. Procédé selon la revendication 2, caractérisé en ce que ledit premier réseau neuronal comporte des connections directes (S) entre deux couches convolutive (C) et déconvolutive (D) symétriques.3. Method according to claim 2, characterized in that said first neural network comprises direct connections (S) between two convolutional (C) and deconvolutionary (D) layers. 4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce que ledit premier réseau neuronal (RN) est dépourvu de couches de sous-échantillonnage.4. Method according to one of claims 1 to 3, characterized in that said first neural network (RN) is devoid of subsampling layers. 5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que ledit premier réseau neuronal (RN) comporte une fonction de perte de type erreur quadratique moyenne.5. Method according to one of claims 1 to 4, characterized in that said first neural network (RN) comprises a loss function of the quadratic mean error type. 6. Procédé selon l'une des revendications 1 à 5, caractérisé en ce que ladite première base d'apprentissage est formée de plusieurs dizaines de milliers de dits couples d'images.6. Method according to one of claims 1 to 5, characterized in that said first learning base is formed of several tens of thousands of said pairs of images. 7. Procédé selon l'une des revendications 1 à 6, caractérisé en ce que lesdits couples d'images formant ladite première base d'apprentissage sont prétraités par rectification de sorte que leurs lignes épipolaires soient horizontales.7. Method according to one of claims 1 to 6, characterized in that said pairs of images forming said first learning base are pretreated by rectification so that their epipolar lines are horizontal. 8. Procédé selon l'une des revendications 1 à 7, caractérisé en ce que ledit algorithme projecteur est constitué par un second réseau neuronal artificiel, préalablement entraîné à partir d'une seconde base d'apprentissage formée par des couples d'images comprenant chacun une première image propre captée par ladite caméra embarquée (10) dépourvue de salissures et une seconde image propre captée simultanément par ladite seconde caméra dépourvue de salissures.8. Method according to one of claims 1 to 7, characterized in that said projector algorithm is constituted by a second artificial neural network, previously trained from a second learning base formed by pairs of images each comprising a first clean image captured by said on-board camera (10) free of dirt and a second clean image captured simultaneously by said second camera free of dirt. 9. Procédé selon la revendication 8, caractérisé en ce que ledit second réseau neuronal présente une architecture identique à celle dudit premier réseau neuronal (RN).9. Method according to claim 8, characterized in that said second neural network has an architecture identical to that of said first neural network (RN). 10. Procédé selon l'une des revendications 1 à 9, caractérisé en ce qu'il comporte, après ladite étape (500) de génération d'une image corrigée finale (If), une étape d'évaluation du niveau de salissure de ladite caméra embarquée (10) par comparaison entre cette image corrigée finale (If) et ladite image altérée (la) (600).10. Method according to one of claims 1 to 9, characterized in that it comprises, after said step (500) of generating a final corrected image (If), a step of evaluating the level of soiling of said on-board camera (10) by comparison between this final corrected image (If) and said altered image (la) (600).
FR1857505A 2018-08-16 2018-08-16 METHOD FOR REAL-TIME CORRECTION OF DAMAGED IMAGES FROM AN ON-BOARD CAMERA WITH DIRT Pending FR3085081A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1857505A FR3085081A1 (en) 2018-08-16 2018-08-16 METHOD FOR REAL-TIME CORRECTION OF DAMAGED IMAGES FROM AN ON-BOARD CAMERA WITH DIRT

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1857505 2018-08-16
FR1857505A FR3085081A1 (en) 2018-08-16 2018-08-16 METHOD FOR REAL-TIME CORRECTION OF DAMAGED IMAGES FROM AN ON-BOARD CAMERA WITH DIRT

Publications (1)

Publication Number Publication Date
FR3085081A1 true FR3085081A1 (en) 2020-02-21

Family

ID=65201097

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1857505A Pending FR3085081A1 (en) 2018-08-16 2018-08-16 METHOD FOR REAL-TIME CORRECTION OF DAMAGED IMAGES FROM AN ON-BOARD CAMERA WITH DIRT

Country Status (1)

Country Link
FR (1) FR3085081A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001171491A (en) 1999-12-16 2001-06-26 Matsushita Electric Ind Co Ltd On-vehicle camera device and on-vehicle camera cleaning method
FR2927448A1 (en) 2008-02-12 2009-08-14 Sagem Defense Securite CORRECTION OF CAPTURED AND STABILIZED IMAGES
WO2017021377A1 (en) 2015-07-31 2017-02-09 Valeo Schalter Und Sensoren Gmbh Fr Imaging device, associated control method, and motor vehicle equipped with such an imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001171491A (en) 1999-12-16 2001-06-26 Matsushita Electric Ind Co Ltd On-vehicle camera device and on-vehicle camera cleaning method
FR2927448A1 (en) 2008-02-12 2009-08-14 Sagem Defense Securite CORRECTION OF CAPTURED AND STABILIZED IMAGES
WO2017021377A1 (en) 2015-07-31 2017-02-09 Valeo Schalter Und Sensoren Gmbh Fr Imaging device, associated control method, and motor vehicle equipped with such an imaging device

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
DAVID EIGEN ET AL: "Restoring an Image Taken through a Window Covered with Dirt or Rain", 2013 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, 1 December 2013 (2013-12-01), pages 633 - 640, XP055450390, ISBN: 978-1-4799-2840-8, DOI: 10.1109/ICCV.2013.84 *
GODARD ET AL.: "Unsupervised Monocular Depth Estimation with Left-Right Consistency", PROCEEDINGS OF THE IEEE CONFÉRENCE ON COMPUTER VISION AND PATTERN RÉCOGNITION CVPR, 2017
JIE CHEN ET AL: "Robust Video Content Alignment and Compensation for Clear Vision Through the Rain", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 24 April 2018 (2018-04-24), XP081229927 *
KINGMA; BA: "A method for stochastic optimization", 3RD INTERNATIONAL CONFÉRENCE FOR LEARNING REPRÉSENTATIONS, 2015
LUO WENJIE ET AL: "Efficient Deep Learning for Stereo Matching", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), IEEE, 27 June 2016 (2016-06-27), pages 5695 - 5703, XP033021767, DOI: 10.1109/CVPR.2016.614 *
MAO ET AL.: "Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections", 30TH CONFÉRENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 2016
QIAN RUI ET AL: "Attentive Generative Adversarial Network for Raindrop Removal from A Single Image", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, IEEE, 18 June 2018 (2018-06-18), pages 2482 - 2491, XP033476214, DOI: 10.1109/CVPR.2018.00263 *
XIAO-JIAO MAO ET AL: "Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections", 29TH CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS (NIPS 2016),, 30 March 2016 (2016-03-30), Barcelona, Spain., pages 1 - 9, XP055516211, Retrieved from the Internet <URL:https://arxiv.org/pdf/1603.09056.pdf> [retrieved on 20181017] *

Similar Documents

Publication Publication Date Title
US9792668B2 (en) Photographic image acquistion device and method
EP3707676B1 (en) Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program
FR2882160A1 (en) Video image capturing method for e.g. portable telephone, involves measuring local movements on edges of images and estimating parameters of global movement model in utilizing result of measurement of local movements
CN110807749B (en) Single image raindrop removing method based on dense multi-scale generation countermeasure network
EP3138079A1 (en) Method of tracking shape in a scene observed by an asynchronous light sensor
EP3657784B1 (en) Method for estimating a fault of an image capturing system and associated systems
EP2930659B1 (en) Method for detecting points of interest in a digital image
CN111275627A (en) Image snow removing algorithm based on snow model and deep learning fusion
FR3088467A1 (en) METHOD FOR CLASSIFYING A REPRESENTATIVE INPUT IMAGE OF A BIOMETRIC TRAIT USING A CONVOLUTIONAL NEURON NETWORK
WO2018109372A1 (en) Method for digital image processing
FR3088755A1 (en) METHOD FOR UNFLOUTING AN IMAGE
Tan et al. Codedstereo: Learned phase masks for large depth-of-field stereo
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
Cheng et al. A mutually boosting dual sensor computational camera for high quality dark videography
FR3085081A1 (en) METHOD FOR REAL-TIME CORRECTION OF DAMAGED IMAGES FROM AN ON-BOARD CAMERA WITH DIRT
FR3089662A1 (en) Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle
EP0447306B1 (en) Device for recognising sequences in a multidimensional signal
WO2019166720A1 (en) Dynamic detection of stray light in a digital image
Nguyen et al. M2gan: A multi-stage self-attention network for image rain removal on autonomous vehicles
FR3041458A1 (en) IMAGING DEVICE, MOTOR VEHICLE EQUIPPED WITH SUCH IMAGING DEVICE, AND ASSOCIATED METHOD
EP2825995B1 (en) System for identification of a digital camera starting from a picture and method implemented with said system
FR3102324A1 (en) Method for acquiring a color image and an infrared image and a system implementing said method
FR3066633A1 (en) METHOD FOR DEFLOWING AN IMAGE
FR3073068A1 (en) METHOD FOR RESTORING IMAGES
Karam et al. Optimizing the image correction pipeline for pedestrian detection in the thermal-infrared domain

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200221

RX Complete rejection

Effective date: 20210805