FR3089662A1 - Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle - Google Patents

Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle Download PDF

Info

Publication number
FR3089662A1
FR3089662A1 FR1872352A FR1872352A FR3089662A1 FR 3089662 A1 FR3089662 A1 FR 3089662A1 FR 1872352 A FR1872352 A FR 1872352A FR 1872352 A FR1872352 A FR 1872352A FR 3089662 A1 FR3089662 A1 FR 3089662A1
Authority
FR
France
Prior art keywords
image
neural network
camera
classification
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1872352A
Other languages
French (fr)
Inventor
Thomas Hannagan
Thibault Fouqueray
Sergey Abrashov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR1872352A priority Critical patent/FR3089662A1/en
Publication of FR3089662A1 publication Critical patent/FR3089662A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

L’invention concerne un procédé de reconnaissance d’un objet au moyen d’une caméra embarquée dans un véhicule automobile, le procédé comportant les étapes suivantes :- capture (100) d’une première image par ladite caméra ;- présentation (200) de l’image à un premier réseau neuronal, préalablement entrainé sur une première base d’apprentissage formée par des couples comprenant chacun une image captée par ladite caméra et une deuxième image, correspondant à une image captée simultanément à la première image par une seconde caméra implantée temporairement de sorte à présenter une orientation angulaire différente par rapport à la caméra, et de telle sorte que les deux images présentent une zone de recouvrement ; - génération (300) d’une deuxième image correspondant à la première image (300) ;- présentation (400) des deux images à un deuxième réseau neuronal ;- classification (500) des images ;- évaluation (600) de la robustesse de la classification. Figure pour l’abrégé : Fig. 3The invention relates to a method of recognizing an object by means of a camera on board a motor vehicle, the method comprising the following steps: - capture (100) of a first image by said camera; - presentation (200) of the image to a first neural network, previously trained on a first learning base formed by couples each comprising an image captured by said camera and a second image, corresponding to an image captured simultaneously with the first image by a second camera temporarily implanted so as to have a different angular orientation with respect to the camera, and so that the two images have an overlap area; - generation (300) of a second image corresponding to the first image (300); - presentation (400) of the two images to a second neural network; - classification (500) of the images; - evaluation (600) of the robustness of the classification. Figure for the abstract: Fig. 3

Description

DescriptionDescription

Titre de l'invention : Procédé de reconnaissance d’objets tels que des panneaux de signalisation au moyen d’une caméra embarquée dans un véhicule automobileTitle of the invention: Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle

[0001] La présente invention se rapporte au domaine de la détection et de la reconnaissance d’objets dans l’environnement d’un véhicule automobile. Elle vise en particulier un procédé améliorant la reconnaissance en temps réel de panneaux de signalisation figurant sur des images captées par une caméra embarquée dans un véhicule automobile.The present invention relates to the field of detection and recognition of objects in the environment of a motor vehicle. It relates in particular to a method improving the recognition in real time of traffic signs appearing on images captured by an on-board camera in a motor vehicle.

[0002] Les véhicules automobiles sont de plus en plus équipés de systèmes d’aides à la conduite sophistiqués, communément désignés sous l’acronyme anglophone ADAS (pour « Advanced Driver Assistant Systems »), ces systèmes ayant pour objectif d’améliorer la sécurité et/ou le confort de conduite.Motor vehicles are increasingly equipped with sophisticated driver assistance systems, commonly known by the English acronym ADAS (for "Advanced Driver Assistant Systems"), these systems having the objective of improving safety and / or driving comfort.

[0003] Certains systèmes d’aides à la conduite mettent en œuvre des dispositifs d’imagerie dotés de caméras dite intelligentes, intégrant des réseaux de neurones artificiels pour la détection et la reconnaissance d’objets, tels que des panneaux de signalisation. Ces réseaux de neurones sont dits profonds : ils possèdent de nombreuses couches de neurones, et sont entraînés sur des millions d’exemplaires d’images avant de développer des performances jugées satisfaisantes pour la fonction désirée. Les inventeurs ont constaté que les réseaux de neurones ayant développé une expertise uniquement en vision, comme par exemple dans le sous-domaine visuel qu’est la détection de panneaux de signalisation, ne classifient pas les images de la même manière qu’un être humain. En particulier, il est possible de générer artificiellement des attaques adverses (connues sous le nom de « adversarial attacks » ou « adversarial examples » en anglais), qui, lorsqu’ils sont superposés à l’image d’origine, sont indétectables ou anodins pour l’œil humain, mais qui sont cependant susceptibles d’induire en erreur le réseau de neurones de manière radicale, et donc potentiellement dangereuse.Some driver assistance systems use imaging devices equipped with so-called intelligent cameras, integrating artificial neural networks for the detection and recognition of objects, such as traffic signs. These neural networks are said to be deep: they have many layers of neurons, and are trained on millions of copies of images before developing performances deemed satisfactory for the desired function. The inventors have found that neural networks that have developed expertise only in vision, such as in the visual sub-domain of detecting traffic signs, do not classify images in the same way as a human being. . In particular, it is possible to artificially generate adverse attacks (known as "adversarial attacks" or "adversarial examples" in English), which, when superimposed on the original image, are undetectable or harmless for the human eye, but which are however likely to mislead the neural network in a radical way, and therefore potentially dangerous.

[0004] De telles attaques adverses existent en très grand nombre, et un exemple est présenté sur la figure 1. La figure 1 représente une image d’un panneau de signalisation, l’image étant affectée par une attaque adverse d’origine physique, en l’espèce des autocollants de formes et de couleurs diverses apposés sur le panneau. Une telle image est par exemple susceptible d’être classée par un réseau de neurones artificiels connu comme représentant un panneau de limitation de vitesse et non un panneau stop. Les attaques adverses peuvent également être d’origine numérique, et être notamment spécialement conçue pour présenter, du point de vue du réseau de neurones, tous les signes diag2Such adverse attacks exist in very large numbers, and an example is presented in FIG. 1. FIG. 1 represents an image of a traffic sign, the image being affected by an adverse attack of physical origin, in this case stickers of various shapes and colors affixed to the panel. Such an image is for example capable of being classified by an artificial neural network known as representing a speed limit sign and not a stop sign. Adverse attacks can also be of digital origin, and in particular be specially designed to present, from the point of view of the neural network, all the diag2 signs

[0005][0005]

[0006][0006]

[0007][0007]

[0008][0008]

[0009] nostiques d’une autre catégorie d’objet. Une telle attaque adverse est susceptible d’aboutir à une classification erronée de l’image, le panneau de signalisation étant alors confondu avec un objet différent.Nostics of another category of object. Such an adverse attack is likely to result in an incorrect classification of the image, the road sign then being confused with a different object.

Ces interprétations aberrantes sont particulièrement critiques dans le cas d’un véhicule autonome. En particulier, l’erreur suscitée par l’attaque adverse d’origine physique représentée par la figure 1 est préoccupante par sa facilité de mise en œuvre, puisqu’il s’agit de simples autocollants, et par son impact potentiellement désastreux en termes de sécurité routière.These outliers are particularly critical in the case of an autonomous vehicle. In particular, the error caused by the opposing physical attack shown in Figure 1 is worrying for its ease of implementation, since they are simple stickers, and for its potentially disastrous impact in terms of road safety.

La présente invention vise à pallier les inconvénients de l’état de la technique, et plus particulièrement ceux-ci-dessus exposés, en proposant un procédé de reconnaissance d’objets situés dans l’environnement d’un véhicule automobile qui soit robuste aux images adverses, et qui permette notamment d’éviter des erreurs d’interprétation et de classification d’une image constituant une attaque adverse d’origine physique ou numérique.The present invention aims to overcome the drawbacks of the state of the art, and more particularly those described above, by proposing a method for recognizing objects located in the environment of a motor vehicle which is robust to images. adversaries, and which makes it possible in particular to avoid errors of interpretation and classification of an image constituting an adverse attack of physical or digital origin.

Elle propose à cet effet un procédé de reconnaissance d’un objet, tel qu’un panneau de signalisation, l’objet figurant sur une image provenant d’une caméra embarquée dans un véhicule automobile, la caméra embarquée étant de type monoculaire, le procédé comportant les étapes suivantes :To this end, it proposes a method of recognizing an object, such as a traffic sign, the object appearing on an image coming from an on-board camera in a motor vehicle, the on-board camera being of monocular type, the method with the following steps:

- capture d’une image, ci-après image captée, par ladite caméra embarquée ;- capture of an image, hereinafter captured image, by said on-board camera;

- présentation de l’image captée à un premier réseau neuronal artificiel formant un réseau de neurones projecteur, préalablement entraîné sur une première base d’apprentissage formée par des couples d’images comprenant chacun une première image captée par ladite caméra embarquée et une seconde image, ci-après image jumelle, correspondant à une image telle que captée simultanément à la première image par une seconde caméra implantée temporairement à proximité de cette caméra embarquée de sorte à présenter une orientation angulaire différente par rapport à la caméra embarquée, et orientée de telle sorte que les images de la seconde caméra présentent une zone de recouvrement avec la première image;presentation of the captured image to a first artificial neural network forming a projector neural network, previously trained on a first learning base formed by pairs of images each comprising a first image captured by said on-board camera and a second image , hereinafter twin image, corresponding to an image as captured simultaneously with the first image by a second camera temporarily installed near this on-board camera so as to have a different angular orientation with respect to the on-board camera, and oriented in such a way so that the images of the second camera have an overlap area with the first image;

- génération par ledit premier réseau neuronal d’une image jumelle correspondant à l’image captée ;- generation by said first neural network of a twin image corresponding to the captured image;

- présentation de l’image captée et de l’image jumelle correspondante à un deuxième réseau neuronal formant un réseau classifieur ;- presentation of the captured image and the corresponding twin image to a second neural network forming a classifier network;

- classification par le deuxième réseau neuronal de l’image captée et de l’image jumelle ;- classification by the second neural network of the captured image and the twin image;

- évaluation de la robustesse de la classification de l’image captée.- evaluation of the robustness of the classification of the captured image.

Ainsi, en mettant en œuvre un premier réseau neuronal préalablement entraîné avec des couples d’images, chaque couple comportant une première image correspondant à une image captée par la caméra monoculaire d’un véhicule, et une deuxième image, ou image jumelle, correspondant à une image qui aurait été captée simultanément à la première image par une caméra « jumelle » de la caméra embarquée (c’est-à-dire une caméra temporairement implantée à proximité de cette dernière et effectuant des prises de vues sous un angle légèrement différent), le procédé conforme à l’invention permet d’améliorer grandement la robustesse de la reconnaissances d’objets tels que des panneaux de signalisation. En effet, les inventeurs ont constaté que ces attaques adverses ne sont effectives que pour une plage de distance et une plage d’angle de vue très limitées. Ainsi, un changement d’angle de vue ou de distance à l’objet devant être reconnu permet d’obtenir la classification correcte de cet objet.Thus, by implementing a first neural network previously trained with pairs of images, each couple comprising a first image corresponding to an image captured by the monocular camera of a vehicle, and a second image, or twin image, corresponding to an image which would have been captured simultaneously with the first image by a “twin” camera of the on-board camera (that is to say a camera temporarily located near the latter and taking shots from a slightly different angle) , the method according to the invention makes it possible to greatly improve the robustness of the recognition of objects such as traffic signs. Indeed, the inventors have found that these adversary attacks are effective only for a very limited range of range and range of view angles. Thus, a change of angle of view or distance to the object to be recognized makes it possible to obtain the correct classification of this object.

[0010] Dans une réalisation, la classification de l’image captée est évaluée comme étant robuste si la classification de l’image captée et de l’image jumelle sont identiques.In one embodiment, the classification of the captured image is evaluated as being robust if the classification of the captured image and of the twin image are identical.

[0011] Dans une réalisation, si la classification est évaluée comme non robuste, alors la précédente classification évaluée comme robuste est prise en compte.In one embodiment, if the classification is evaluated as non-robust, then the previous classification evaluated as robust is taken into account.

[0012] Dans une réalisation, le taux de recouvrement entre l’image jumelle et l’image captée est supérieur ou égal à 80%, de préférence supérieur à 90% et par exemple supérieur à 95%.In one embodiment, the recovery rate between the twin image and the captured image is greater than or equal to 80%, preferably greater than 90% and for example greater than 95%.

[0013] Dans une réalisation, ledit premier réseau neuronal comporte une pluralité de couches convolutives et un nombre identique de couches déconvolutives agencées symétriquement.In one embodiment, said first neural network comprises a plurality of convolutional layers and an identical number of deconvolutionary layers arranged symmetrically.

[0014] Dans une réalisation, ledit premier réseau neuronal comporte des connections directes entre deux couches convolutive et déconvolutive symétriques.In one embodiment, said first neural network includes direct connections between two symmetrical convolutional and deconvolutionary layers.

[0015] Dans une réalisation, ledit premier réseau neuronal est dépourvu de couches de souséchantillonnage.In one embodiment, said first neural network is devoid of subsampling layers.

[0016] Dans une réalisation, ledit premier réseau neuronal comporte une fonction de perte de type erreur quadratique moyenne.In one embodiment, said first neural network includes a loss function of the mean square error type.

[0017] Dans une réalisation, ladite première base d’apprentissage est formée de plusieurs dizaines de milliers de couples d’images.In one embodiment, said first learning base is made up of several tens of thousands of pairs of images.

[0018] Dans une réalisation, ledit second réseau neuronal artificiel est préalablement entraîné sur une seconde base d’apprentissage formée par des d’images comportant des objets à reconnaître, incluant des panneaux de signalisation.In one embodiment, said second artificial neural network is previously trained on a second learning base formed by images comprising objects to be recognized, including traffic signs.

[0019] Dans une réalisation, ledit second réseau neuronal présente une architecture de réseau à convolution standard, différente de celle dudit premier réseau neuronal, notamment en ce qu’elle ne comporte pas de couches déconvolutives.In one embodiment, said second neural network has a standard convolutional network architecture, different from that of said first neural network, in particular in that it does not include deconvolutionary layers.

[0020] L’invention concerne également un produit programme d'ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celuici à mettre en œuvre les étapes du procédé tel que défini ci-dessus.The invention also relates to a computer program product comprising instructions which, when the program is executed by a computer, lead the latter to implement the steps of the method as defined above.

[0021] L’invention concerne également un véhicule automobile équipé d’une caméra embarquée et d’un calculateur agencés pour mettre en œuvre un procédé tel que défini plus haut.The invention also relates to a motor vehicle equipped with an on-board camera and a computer arranged to implement a method as defined above.

[0022] L’exposé de l’invention sera maintenant poursuivi par la description détaillée d’un exemple de réalisation, donnée ci-après à titre illustratif mais non limitatif, en référence aux dessins annexés, sur lesquels :The description of the invention will now be continued with the detailed description of an exemplary embodiment, given below by way of illustration but not limitation, with reference to the accompanying drawings, in which:

[0023] [fig.l][Fig.l]

La figure 1 illustre une image d’un panneau de signalisation captée par une caméra embarquée dans un véhicule automobile, l’image présentant une attaque adverse d’origine physique ;FIG. 1 illustrates an image of a traffic sign captured by an on-board camera in a motor vehicle, the image presenting an adverse attack of physical origin;

[0024] [fig.2][Fig.2]

La figure 2 est un schéma d’un dispositif d’imagerie destiné à être intégré dans un système d’aide à la conduite de véhicule automobile ;FIG. 2 is a diagram of an imaging device intended to be integrated into a driving assistance system for a motor vehicle;

[0025] [fig.3][Fig.3]

La figure 3 est un organigramme détaillant les étapes d’un procédé conforme à l’invention ;Figure 3 is a flowchart detailing the steps of a method according to the invention;

[0026] [fig.4][Fig.4]

La figure 4 représente une image captée par une caméra embarquée dans un véhicule automobile ;FIG. 4 represents an image captured by a camera on board a motor vehicle;

[0027] [fig.5][Fig.5]

La figure 5 représente une image jumelle de l’image de la figure 4 ;Figure 5 shows a twin image of the image of Figure 4;

[0028] [fig.6][Fig.6]

La figure 6 représente un exemple d’architecture du premier réseau neuronal artificiel ;FIG. 6 represents an example of architecture of the first artificial neural network;

[0029] [fig.7][Fig.7]

La figure 7 représente un exemple d’architecture du deuxième réseau neuronal artificiel.FIG. 7 represents an example of architecture of the second artificial neural network.

[0030] La figure 2 illustre un dispositif d’imagerie 1 destiné à être intégré dans un système avancé d’aide à la conduite (ADAS) de véhicule automobile tel qu’un régulateur de vitesse adaptatif.FIG. 2 illustrates an imaging device 1 intended to be integrated into an advanced driving assistance system (ADAS) of a motor vehicle such as an adaptive cruise control.

[0031] Le dispositif d’imagerie 1 comporte une caméra 10 optique monoculaire embarquée sur le véhicule et étant dotée d’un capteur d’images bidimensionnelles 11, par exemple de type CCD (acronyme en langue anglaise de « Charge-Coupled Device » se traduisant en français par « dispositif à transfert de charge ») ou CMOS (acronyme en langue anglaise de « Complementary Metal-Oxide Semiconductor » se traduisant en français par « semi-conducteur à oxyde de métal complémentaire »).The imaging device 1 comprises a monocular optical camera 10 on board the vehicle and being provided with a two-dimensional image sensor 11, for example of the CCD type (acronym in English for "Charge-Coupled Device"). translating into French as “charge transfer device”) or CMOS (acronym in English of “Complementary Metal-Oxide Semiconductor” translating into French as “complementary metal oxide semiconductor”).

[0032] La caméra 10 comprend également un système optique 12 associé au capteur d’images 11 et étant adapté à former sur ce dernier une image d'un environnement extérieur du véhicule visualisé par la caméra à travers une face externe de ce système optique.The camera 10 also includes an optical system 12 associated with the image sensor 11 and being adapted to form on the latter an image of an exterior environment of the vehicle viewed by the camera through an external face of this optical system.

[0033] Le dispositif d’imagerie 1 comporte également un module de traitement 20 relié à la caméra embarquée 10 (ou intégré à cette dernière) et apte à corriger en temps réel les images captées par cette dernière lorsque la face externe de son système optique présente de la buée ou des salissures.The imaging device 1 also includes a processing module 20 connected to the on-board camera 10 (or integrated therein) and capable of correcting in real time the images captured by the latter when the external face of its optical system has fogging or soiling.

[0034] Le module de traitement 20 comporte un calculateur 21 ainsi qu’un module de stockage 22 comprenant de la mémoire non volatile, par exemple de type EEPROM ou FLASH et de la mémoire vive.The processing module 20 comprises a computer 21 as well as a storage module 22 comprising non-volatile memory, for example of the EEPROM or FLASH type and random access memory.

[0035] La mémoire non volatile stocke un processus de traitement en temps réel des images captées par la caméra embarquée 10.The non-volatile memory stores a process for processing in real time the images captured by the on-board camera 10.

[0036] Selon un mode préféré de réalisation, l’ensemble des informations contenues dans cette mémoire non volatile peut être mis à jour par des moyens de communication ou des moyens de lecture d’un support de données.According to a preferred embodiment, all of the information contained in this non-volatile memory can be updated by means of communication or means of reading a data medium.

[0037] On va maintenant décrire en détails en relation avec l’organigramme de la figure 3, les différentes étapes d’un procédé conforme à l’invention.We will now describe in detail in relation to the flow diagram of Figure 3, the different steps of a method according to the invention.

[0038] Celui-ci est initié à chaque nouvelle capture, par le capteur d’image 11 de la caméra embarquée 10, d’une image captée Ic (étape 100), telle que l’image représentée à la figure 4. L’image captée Ic est susceptible de représenter une attaque adverse, c’est-à-dire qu’au moins une partie de l’image est susceptible de comporter une attaque adverse d’origine numérique ou physique, comme par exemple celle représentée sur la figure 1 (étape 100). Une attaque adverse, comme expliqué plus haut, est susceptible d’aboutir à une reconnaissance (ou classification) erronée d’un ou plusieurs objets figurant sur cette image, comme par exemple un panneau de signalisation.This is initiated with each new capture, by the image sensor 11 of the on-board camera 10, of a captured image I c (step 100), such as the image shown in FIG. 4. L captured image I c is likely to represent an adverse attack, that is to say that at least part of the image is likely to include an adverse attack of digital or physical origin, such as for example that represented on Figure 1 (step 100). An adverse attack, as explained above, is likely to result in an erroneous recognition (or classification) of one or more objects appearing on this image, such as for example a traffic sign.

[0039] L’image captée Ic est ensuite présentée à un algorithme projecteur (étape 200) implémenté par un premier réseau neuronal Ri artificiel. L’architecture de ce premier réseau neuronal Rb ou réseau projecteur, décrite ci-après, est avantageusement inspirée de celles décrites dans les articles « Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections » (Mao et al., 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016) et « Unsupervised Monocular Depth Estimation with Left-Right Consistency » (Godard et al., Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition CVPR, 2017).The captured image I c is then presented to a projector algorithm (step 200) implemented by a first artificial neural network Ri. The architecture of this first neural network R b or projector network, described below, is advantageously inspired by those described in the articles “Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections” (Mao et al., 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016) and “Unsupervised Monocular Depth Estimation with Left-Right Consistency” (Godard et al., Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition CVPR, 2017).

[0040] Ce premier réseau neuronal Rb comme illustré par la figure 6, comporte une pluralité de couches convolutives C (avantageusement entre 10 et 15 couches) et un nombre identique de couches déconvolutives D agencées symétriquement.This first neural network R b as illustrated in FIG. 6, comprises a plurality of convolutional layers C (advantageously between 10 and 15 layers) and an identical number of deconvolutionary layers D arranged symmetrically.

[0041] Le réseau projecteur Ri dans son ensemble a fait l’objet d’un apprentissage visant à le rendre apte à extraire les caractéristiques de l’image captée qui se prêtent le mieux à une interprétation correcte des objets figurant sur cette image, c’est-à-dire une inter prétation conforme à la réalité en ce qui concerne le ou les objets présents dans l’image captée par la caméra 2.The projector network Ri as a whole has been the subject of an apprenticeship aimed at making it suitable for extracting the characteristics of the captured image which lend themselves best to a correct interpretation of the objects appearing in this image, c that is to say an interpretation in accordance with reality with regard to the object or objects present in the image captured by the camera 2.

[0042] L’opération de projection est encodée dans les poids des connections de tout le réseau, a priori on ne peut pointer vers une couche qui effectuerait plus la projection qu’une autre, bien que le signal se rapproche de la projection recherchée dans les couches finales de déconvolution.The projection operation is encoded in the weights of the connections of the entire network, a priori one cannot point to a layer which would carry out the projection more than another, although the signal approaches the projection sought in the final deconvolution layers.

[0043] Chaque couche convolutive ou déconvolutive est composée avantageusement de 64 filtres de taille 3X3 générant 64 cartes de caractéristiques (dénommées couramment sous le terme anglo-saxon « features maps ») à partir de l’image entrant dans cette couche.Each convolutional or deconvolutionary layer is advantageously composed of 64 filters of 3X3 size generating 64 characteristic maps (commonly known under the term "features maps") from the image entering this layer.

[0044] En variante, le nombre de filtres constituant chaque couche est différent (par exemple égal à 32 ou 128). La taille de ces filtres peut également être différente (par exemple égale à 5X5, 7X7 ou 9X9).As a variant, the number of filters constituting each layer is different (for example equal to 32 or 128). The size of these filters can also be different (for example equal to 5X5, 7X7 or 9X9).

[0045] Pour éviter la perte de signal d’erreur inhérente à l’entrainement de tels réseaux neuronaux profonds, des connections directes S (dénommées couramment sous le terme anglo-saxon « skip connections ») sont prévues entre deux couches convolutive et déconvolutive symétriques.To avoid the loss of error signal inherent in the training of such deep neural networks, direct connections S (commonly known by the English term "skip connections") are provided between two convolutional and deconvolutionary layers symmetrical .

[0046] Ces connections directes présentent avantageusement un pas égal à trois, c’est à-dire qu’elles s’étendent toutes les trois couches convolutives vers les couches déconvolutives symétriques correspondantes.These direct connections advantageously have a pitch equal to three, that is to say that they all extend the three convolutional layers towards the corresponding symmetrical deconvolutionary layers.

[0047] Elles sont en outre bijectives pour chaque filtre : chaque unité dans le filtre canal convolutif d’entrée étant connectée à son équivalent dans le filtre déconvolutif de sortie (connectivité dite « one-to-one »).They are also bijective for each filter: each unit in the convolutional input channel filter being connected to its equivalent in the deconvolutive output filter (so-called "one-to-one" connectivity).

[0048] Chacune des couches convolutives ou déconvolutives est suivie d’une fonction d’activation avantageusement de type ReLU (acronyme en langue anglaise de « Rectified Linear Unit » se traduisant en français par « Unité Linéaire Rectifiée »).Each of the convolutional or deconvolutional layers is followed by an activation function advantageously of the ReLU type (acronym in English of "Rectified Linear Unit" translating into French as "Unit Linear Rectified").

[0049] Cette fonction, appelée aussi « fonction d'activation non saturante », confère des propriétés non linéaires à la fonction de décision et à l'ensemble du réseau qui impactent positivement sur ses performances.This function, also called "non-saturating activation function", gives non-linear properties to the decision function and to the entire network which positively impact on its performance.

[0050] Ce premier réseau neuronal Ri projecteur est en outre avantageusement dépourvu de couches de sous-échantillonnage (dénommées couramment sous le terme anglo-saxon « pooling »).This first neural network Ri projector is also advantageously devoid of subsampling layers (commonly known by the English term "pooling").

[0051] Les images d’entrée et de sortie ont le même format de résolution (1 x h x c), avec 1, h et c qui représentent respectivement la largeur, la hauteur et le nombre de canaux de ces images (c étant égal à 1 pour une image monochrome et à 3 pour une image couleur codée en RVB).The input and output images have the same resolution format (1 xhxc), with 1, h and c which respectively represent the width, the height and the number of channels of these images (c being equal to 1 for a monochrome image and 3 for a color image coded in RGB).

[0052] Ce format de résolution sera avantageusement de 800 x 480 x 3 pour des raisons de praticité (format usuel des caméras optiques implantées dans les véhicules) et de rapidité des calculs.This resolution format will advantageously be 800 x 480 x 3 for reasons of practicality (usual format of optical cameras installed in vehicles) and speed of calculations.

[0053] Ce premier réseau neuronal Ri projecteur est en outre préalablement entraîné à partir d’une première base d’apprentissage formée par plusieurs dizaines de milliers de couples d’images (avantageusement, au moins 40 000 et de préférence au moins 60 000).This first neural network Ri projector is also previously trained from a first learning base formed by several tens of thousands of pairs of images (advantageously, at least 40,000 and preferably at least 60,000) .

[0054] Chaque couple d’images comprend une première image captée par la caméra embarquée 10 (qui peut être bruitée ou non), et une seconde image captée simultanément par une seconde caméra identique à la caméra 10, implantée de manière temporaire à proximité de cette caméra 10 de sorte à présenter un angle de vision différent de celui de cette dernière.Each pair of images comprises a first image captured by the on-board camera 10 (which may or may not be noisy), and a second image captured simultaneously by a second camera identical to the camera 10, temporarily installed near this camera 10 so as to present a different viewing angle from that of the latter.

[0055] Les performances du réseau neuronal augmentant avec le volume et la variété de la base d’apprentissage, un arbitrage est donc requis entre le coût lié à l’acquisition des images lors de la phase de roulage et le gain lié à la précision des deux réseaux.The performance of the neural network increasing with the volume and variety of the learning base, an arbitration is therefore required between the cost linked to the acquisition of the images during the rolling phase and the gain linked to the precision. of the two networks.

[0056] Cependant, étant donné qu’aucune labellisation de ces images n’est nécessaire pour cette base d’apprentissage (les images obtenues par chaque caméra étant utilisées pour une supervision croisée), son prix de revient est réduit car constitué uniquement par les coûts de roulage et de stockage des images.However, since no labeling of these images is necessary for this learning base (the images obtained by each camera being used for cross-supervision), its cost price is reduced because it consists solely of the costs of rolling and storing images.

[0057] Par ailleurs, de nouveaux couples d’images sont avantageusement créés par transformation miroir et interversion à partir des couples d’images générés lors de la phase d’acquisition.In addition, new pairs of images are advantageously created by mirror transformation and inversion from the pairs of images generated during the acquisition phase.

[0058] Cette technique dite d’augmentation permet de multiplier le nombre de couples d’images de la base d’entrainement (et donc d’améliorer les performances du réseau neuronal) sans nécessiter de roulage supplémentaire.This so-called augmentation technique makes it possible to multiply the number of pairs of images of the training base (and therefore to improve the performance of the neural network) without requiring additional running.

[0059] Ce premier réseau neuronal projecteur Ri comporte en outre une fonction de perte de type erreur quadratique moyenne (communément désignée sous l’acronyme anglophone MSE pour « Mean Squarred Error ») et permettant de calculer l'erreur de classification sur des lots issus de la base d’apprentissage et comprenant par exemple entre 5 et 100 couples d’images.This first projector neural network Ri further comprises a loss function of the mean square error type (commonly known by the English acronym MSE for “Mean Squarred Error”) and making it possible to calculate the classification error on batches originating from of the learning base and comprising for example between 5 and 100 pairs of images.

[0060] Ainsi, étant donné un lot de N couples d’image (Xi5 Y;) :Thus, given a batch of N image pairs (X i5 Y ; ):

[0061] [Math.l][Math.l]

MSE= IIF(Xi)-YiII2 MSE = IIF (Xi) -YiII 2

[0062] Avec F(X;) qui représente l’image corrigée par le réseau neuronal de l’image X;.With F (X ; ) which represents the image corrected by the neural network of the image X ; .

[0063] Les valeurs des poids des couches sont apprises par un algorithme de descente de gradient stochastique basé sur la rétropropagation du gradient : on calcule progressivement pour chaque couche, en partant de la fin du réseau, les paramètres qui minimisent cette fonction de perte.The values of the weights of the layers are learned by a stochastic gradient descent algorithm based on the backpropagation of the gradient: the parameters which minimize this loss function are gradually calculated for each layer, starting from the end of the network.

[0064] Cet algorithme est avantageusement l’algorithme ADAM (Kingma et Ba, « A method for stochastic optimization », 3rd International Conference for Learning Representations, San Diego, 2015), utilisé avec un taux d’apprentissage égal à 10-4.This algorithm is advantageously the ADAM algorithm (Kingma and Ba, "A method for stochastic optimization", 3rd International Conference for Learning Representations, San Diego, 2015), used with a learning rate equal to 10-4.

[0065] En variante, les filtres de couches déconvolutives ne sont pas obtenus par apprentissage et sont constitués par les transposés des filtres des couches convolutives leur étant symétriques.As a variant, the filters of deconvolutional layers are not obtained by learning and are constituted by the transposed filters of the convolutional layers being symmetrical to them.

[0066] Ce premier réseau neuronal Ri peut également présenter une architecture différente, en étant par exemple dépourvu de couches déconvolutives.This first neural network Ri can also have a different architecture, for example being devoid of deconvolutionary layers.

[0067] A partir de l’image captée Ic lui étant présentée au cours de l’étape 200, ce premier réseau neuronal Ri va ainsi générer une image jumelle Ij (voir figure 5), cette image correspondant à une image prise par une seconde caméra, dite caméra jumelle, cette caméra étant utilisée uniquement pour constituer la base d’apprentissage et absente du dispositif d’imagerie 1 (étape 300).From the captured image I c presented to it during step 200, this first neural network Ri will thus generate a twin image Ij (see FIG. 5), this image corresponding to an image taken by a second camera, called twin camera, this camera being used only to constitute the learning base and absent from the imaging device 1 (step 300).

[0068] L’image captée Ic et l’image jumelle Ij sont ensuite présentées à un algorithme classifieur (étape 400) constitué par un second réseau neuronal R2 artificiel dont l’architecture est différente de celle décrite ci-avant du premier réseau neuronal Ri artificiel. L’architecture du second réseau neuronal est celle d’un réseau profond à convolution standard, et ne comporte pas de couches déconvolutives. La figure 7 illustre un exemple de réalisation de l’architecture du second réseau neuronal, qui comporte des couches convolutives C, la dernière de ces couches étant intégralement connectée à un ensemble de couches intégralement connectées F (généralement connues sous l’appellation anglaise « fully connected layers »).The captured image I c and the twin image Ij are then presented to a classifier algorithm (step 400) consisting of a second artificial neural network R 2 whose architecture is different from that described above of the first network neuronal artificial Ri. The architecture of the second neural network is that of a standard convolution deep network, and does not include deconvolutionary layers. FIG. 7 illustrates an exemplary embodiment of the architecture of the second neural network, which comprises convolutional layers C, the last of these layers being integrally connected to a set of integrally connected layers F (generally known by the English designation connected layers ”).

[0069] Ce second réseau neuronal R2 va effectuer la classification à la fois de l’image captée et de l’image jumelle.This second neural network R 2 will perform the classification of both the captured image and the twin image.

[0070] Ce second réseau neuronal est à cet effet préalablement entraîné à partir d’une seconde base d’apprentissage comportant également plusieurs dizaines de milliers d’images (sa taille étant avantageusement identique à celle la première base d’apprentissage).This second neural network is for this purpose previously trained from a second learning base also comprising several tens of thousands of images (its size being advantageously identical to that of the first learning base).

[0071] Le procédé comporte une étape d’évaluation (600) de la robustesse de la classification, qui consiste à comparer les classifications respectives de l’image captée et de l’image jumelle. Lorsque celles-ci sont identiques, la classification sera alors considérée comme robuste. Dans le cas contraire, différentes stratégies pourront être mises en œuvre, comme par exemple de retenir la précédente classification évaluée comme robuste.The method includes a step of evaluating (600) the robustness of the classification, which consists in comparing the respective classifications of the captured image and of the twin image. When these are identical, the classification will then be considered robust. Otherwise, different strategies can be implemented, such as retaining the previous classification evaluated as robust.

[0072] Selon d’autres variantes de réalisation, le second réseau neuronal classifieur présente une architecture identique à celle du premier réseau neuronal correcteur et projecteur.According to other alternative embodiments, the second classifier neural network has an architecture identical to that of the first corrective neural network and projector.

Claims (1)

Revendications Claims [Revendication 1] [Claim 1] Procédé de reconnaissance d’un objet, tel qu’un panneau de signalisation, au moyen d’une caméra embarquée (10) dans un véhicule automobile, la caméra embarquée (10) étant de type monoculaire, le procédé comportant les étapes suivantes : - capture (100) d’une image, ci-après image captée (Ic) par ladite caméra embarquée (10) ; - présentation (200) de l’image captée (Ic) à un premier réseau neuronal (Ri) artificiel formant un réseau de neurones projecteur, préalablement entraîné sur une première base d’apprentissage formée par des couples d’images comprenant chacun une première image captée par ladite caméra embarquée (10) et une seconde image, ci-après image jumelle (Ij ), correspondant à une image telle que captée simultanément à la première image par une seconde caméra implantée temporairement à proximité de cette caméra embarquée de sorte à présenter une orientation angulaire différente par rapport à la caméra embarquée, et orientée de telle sorte que les images de la seconde caméra présentent une zone de recouvrement avec la première image; - génération (300) par ledit premier réseau neuronal (RJ d’une image jumelle correspondant à l’image captée (300) ; - présentation (400) de l’image captée et de l’image jumelle (Ij) correspondante à un deuxième réseau neuronal (R2) formant un réseau de neurones classifieur ; et - classification (500) par le deuxième réseau neuronal (R2) de l’image captée (Ic) et de l’image jumelle (Ij) ; - évaluation (600) de la robustesse de la classification de l’image captée.Method for recognizing an object, such as a traffic sign, by means of an on-board camera (10) in a motor vehicle, the on-board camera (10) being of monocular type, the method comprising the following steps: - capture (100) of an image, hereinafter image captured (I c ) by said on-board camera (10); presentation (200) of the captured image (I c ) to a first artificial neural network (Ri) forming a projector neural network, previously trained on a first learning base formed by pairs of images each comprising a first image captured by said on-board camera (10) and a second image, hereinafter twin image (Ij), corresponding to an image as captured simultaneously with the first image by a second camera temporarily installed near this on-board camera so as to having a different angular orientation relative to the on-board camera, and oriented so that the images of the second camera have an overlap zone with the first image; - generation (300) by said first neural network (RJ of a twin image corresponding to the captured image (300); - presentation (400) of the captured image and of the twin image (Ij) corresponding to a second neural network (R 2 ) forming a classifier neural network; and - classification (500) by the second neural network (R 2 ) of the captured image (I c ) and of the twin image (Ij); - evaluation ( 600) of the robustness of the classification of the captured image. [Revendication 2] [Claim 2] Procédé selon la revendication 1, caractérisé en ce que la classification de l’image captée est évaluée comme étant robuste si la classification de l’image captée et de l’image jumelle sont identiques. Method according to claim 1, characterized in that the classification of the captured image is evaluated as being robust if the classification of the captured image and of the twin image are identical. [Revendication 3] [Claim 3] Procédé selon la revendication précédente, dans lequel, si la classification est évaluée comme non robuste, alors la précédente classification évaluée comme robuste est prise en compte. Method according to the preceding claim, in which, if the classification is evaluated as non-robust, then the previous classification evaluated as robust is taken into account. [Revendication 4] [Claim 4] Procédé selon l’une des revendications précédentes, caractérisé en ce que ledit premier réseau neuronal (RJ comporte une pluralité de couches convolutives (C) et un nombre identique de couches déconvolutives (D) agencées symétriquement. Method according to one of the preceding claims, characterized in that said first neural network (RJ comprises a plurality of convolutional layers (C) and an identical number of deconvolutionary layers (D) arranged symmetrically. [Revendication 5] [Claim 5] Procédé selon la revendication précédente, caractérisé en ce que ledit Method according to the preceding claim, characterized in that said
[Revendication 6] [Revendication 7] [Revendication 8] [Revendication 9] [Revendication 10] premier réseau neuronal (RJ comporte des connections directes (S) entre deux couches convolutive (C) et déconvolutive (D) symétriques. Procédé selon l’une des revendications précédentes, caractérisé en ce que ledit premier réseau neuronal (RJ est dépourvu de couches de souséchantillonnage.[Claim 6] [Claim 7] [Claim 8] [Claim 9] [Claim 10] first neural network (RJ comprises direct connections (S) between two symmetrical convolutional (C) and deconvolutive (D) layers. one of the preceding claims, characterized in that said first neural network (RJ is devoid of subsampling layers. Procédé selon l’une des revendications précédentes, caractérisé en ce que ledit premier réseau neuronal (RJ comporte une fonction de perte de type erreur quadratique moyenne.Method according to one of the preceding claims, characterized in that the said first neural network (RJ comprises a loss function of the mean square error type. Procédé selon l’une des revendications précédentes, caractérisé en ce que ladite première base d’apprentissage est formée de plusieurs dizaines de milliers de couples d’images.Method according to one of the preceding claims, characterized in that said first learning base is formed by several tens of thousands of pairs of images. Procédé selon l’une des revendications précédentes, caractérisé en ce que ledit second réseau neuronal (R2) est préalablement entraîné sur une seconde base d’apprentissage formée par des d’images comportant des objets à reconnaître, incluant des panneaux de signalisation.Method according to one of the preceding claims, characterized in that said second neural network (R 2 ) is previously trained on a second learning base formed by images comprising objects to be recognized, including traffic signs. Procédé selon l’une des revendications précédentes, caractérisé en ce que ledit second réseau neuronal (R2) présente une architecture de réseau profond à convolution standard, différente de celle dudit premier réseau neuronal, notamment en ce qu’elle ne comporte pas de couches déconvolutives.Method according to one of the preceding claims, characterized in that said second neural network (R 2 ) has a standard convolution deep network architecture, different from that of said first neural network, in particular in that it does not include layers deconvolutionary.
FR1872352A 2018-12-05 2018-12-05 Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle Withdrawn FR3089662A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1872352A FR3089662A1 (en) 2018-12-05 2018-12-05 Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1872352A FR3089662A1 (en) 2018-12-05 2018-12-05 Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle

Publications (1)

Publication Number Publication Date
FR3089662A1 true FR3089662A1 (en) 2020-06-12

Family

ID=66049313

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1872352A Withdrawn FR3089662A1 (en) 2018-12-05 2018-12-05 Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle

Country Status (1)

Country Link
FR (1) FR3089662A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3122392A1 (en) 2021-04-29 2022-11-04 Psa Automobiles Sa Method for managing the operation of driving aid equipment and a man-machine interface of a motor vehicle in connection with an anti-slip accessory

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
ARNA GHOSH ET AL: "SAD-GAN: Synthetic Autonomous Driving using Generative Adversarial Networks", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 27 November 2016 (2016-11-27), XP080734796 *
BENJAMIN PLANCHE ET AL: "Seeing Beyond Appearance - Mapping Real Images into Geometrical Domains for Unsupervised CAD-based Recognition", 9 October 2018 (2018-10-09), XP055561666, Retrieved from the Internet <URL:https://arxiv.org/pdf/1810.04158.pdf> [retrieved on 20190823] *
GODARD ET AL.: "Unsupervised Monocular Depth Estimation with Left-Right Consistency", PROCEEDINGS OF THE IEEE CONFÉRENCE ON COMPUTER VISION AND PATTERN RE-COGNITION CVPR, 2017
JIAJUN LU ET AL: "NO Need to Worry about Adversarial Examples in Object Detection in Autonomous Vehicles", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 12 July 2017 (2017-07-12), XP080776051 *
JIANAN LI ET AL: "Perceptual Generative Adversarial Networks for Small Object Detection", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 16 June 2017 (2017-06-16), XP080770370, DOI: 10.1109/CVPR.2017.211 *
KEVIN EYKHOLT ET AL: "Robust Physical-World Attacks on Deep Learning Models", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 27 July 2017 (2017-07-27), XP081312592 *
KINGMA; BA: "A method for stochastic optimization", 3RD INTERNATIONAL CONFÉRENCE FOR LEARNING REPRE-SENTATIONS, 2015
MAO ET AL.: "Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections", CONFÉRENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 2016

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3122392A1 (en) 2021-04-29 2022-11-04 Psa Automobiles Sa Method for managing the operation of driving aid equipment and a man-machine interface of a motor vehicle in connection with an anti-slip accessory

Similar Documents

Publication Publication Date Title
US10733477B2 (en) Image recognition apparatus, image recognition method, and program
EP3707676B1 (en) Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program
WO2020108009A1 (en) Method, system, and computer-readable medium for improving quality of low-light images
CN112581409B (en) Image defogging method based on end-to-end multiple information distillation network
FR2882160A1 (en) Video image capturing method for e.g. portable telephone, involves measuring local movements on edges of images and estimating parameters of global movement model in utilizing result of measurement of local movements
FR3088467A1 (en) METHOD FOR CLASSIFYING A REPRESENTATIVE INPUT IMAGE OF A BIOMETRIC TRAIT USING A CONVOLUTIONAL NEURON NETWORK
EP3901794A1 (en) Method for authentication and identification of an individual
FR3053500B1 (en) METHOD FOR DETECTING FRAUD OF AN IRIS RECOGNITION SYSTEM
CN115034982A (en) Underwater image enhancement method based on multi-scale attention mechanism fusion
EP3608835B1 (en) Method for processing images of fingerprints
CN115375615A (en) Electronic device for generating depth information of a region of interest and method of operating the same
FR3089662A1 (en) Method for recognizing objects such as traffic signs by means of an on-board camera in a motor vehicle
EP2174268B1 (en) Method, device and system for merging information from several sensors
EP0447306B1 (en) Device for recognising sequences in a multidimensional signal
FR3102324A1 (en) Method for acquiring a color image and an infrared image and a system implementing said method
EP2825995B1 (en) System for identification of a digital camera starting from a picture and method implemented with said system
EP3929809A1 (en) Method of detection of at least one visible biometric trait on an input image by means of a convolutional neural network
WO2017005930A1 (en) Detection of objects by image processing
WO2019166720A1 (en) Dynamic detection of stray light in a digital image
FR3104291A1 (en) Method and system for configuring an imaging device of a motor vehicle comprising N sensors and N dedicated encoder neural networks
FR3041458A1 (en) IMAGING DEVICE, MOTOR VEHICLE EQUIPPED WITH SUCH IMAGING DEVICE, AND ASSOCIATED METHOD
Babu et al. Development and performance evaluation of enhanced image dehazing method using deep learning networks
WO2008104208A1 (en) Method of identifying symbolic points on an image of a person&#39;s face
CN116645547B (en) Visual identification method, system, equipment and medium for double-channel feature exploration
WO2018015654A1 (en) Method and device for aiding the navigation of a vehicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200612

ST Notification of lapse

Effective date: 20210806