FR3128563A1 - Process for optimizing the detection of an element in an image - Google Patents
Process for optimizing the detection of an element in an image Download PDFInfo
- Publication number
- FR3128563A1 FR3128563A1 FR2205887A FR2205887A FR3128563A1 FR 3128563 A1 FR3128563 A1 FR 3128563A1 FR 2205887 A FR2205887 A FR 2205887A FR 2205887 A FR2205887 A FR 2205887A FR 3128563 A1 FR3128563 A1 FR 3128563A1
- Authority
- FR
- France
- Prior art keywords
- images
- sequence
- label
- camera
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
Abstract
Procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra, ledit procédé, mis en œuvre par un module de traitement d’images, comprenant notamment les étapes d’entrainement (E2) d’un classifieur, de classification (E3) des images au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images, d’extraction (E4) d’au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label, de détermination (E5) de l’au moins un label à partir de l’au moins une donnée extraite, de génération (E6) automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée, d’ajout (E7) de la pluralité d’images de référence synthétisées générées à un ensemble d’entrainement. Figure pour l’abrégé : Fig 3Method for optimizing the detection of an element in a sequence of images generated by a camera, said method, implemented by an image processing module, comprising in particular the steps of training (E2) a classifier, for classifying (E3) the images at the end of which at least one incorrect detection of the element is carried out in at least one of the images, for extracting (E4) at least one datum from the said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label, determination (E5) of the at least one label from the at least one extracted datum, for automatic generation (E6) of a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased, for adding (E7) the plurality of synthesized reference images generated to a training set. Figure for abstract: Fig 3
Description
La présente invention se rapporte au domaine du traitement d’images et concerne plus particulièrement un procédé d’apprentissage automatique à partir d’une séquence d’images. L’invention s’applique en particulier à l’assistance à la conduite dans un véhicule automobile.The present invention relates to the field of image processing and relates more particularly to a method of automatic learning from a sequence of images. The invention applies in particular to driving assistance in a motor vehicle.
En traitement d’images, il est connu de détecter des objets ou des personnes dans une séquence d’images. Afin d’automatiser cette détection, il est connu d’utiliser un algorithme dit « d’apprentissage ». Un tel algorithme est mis en œuvre par un réseau de neurones qui analyse les images et détecte les objets ou personnes à partir d’un ensemble de données de référence. Cet ensemble de données de référence est renseigné une première fois avec des données brutes, par exemple des images ou des vidéos, qui sont ensuite triées et annotées afin de constituer un ensemble d’entrainement, appelé « trainset », constitué d’un ensemble de différentes images de références représentant toutes un élément recherché.In image processing, it is known to detect objects or people in a sequence of images. In order to automate this detection, it is known to use a so-called “learning” algorithm. Such an algorithm is implemented by a neural network that analyzes images and detects objects or people from a set of reference data. This set of reference data is filled in a first time with raw data, for example images or videos, which are then sorted and annotated in order to constitute a training set, called "trainset", consisting of a set of different reference images all representing a searched item.
L’ensemble d’entrainement est utilisé par l’algorithme afin de savoir par classification si un élément recherché est présent ou non sur une image et à quel endroit sur l’image. Ces annotations peuvent prendre la forme d’une étiquette (« tag »), d’un cadre de délimitation (« bounding box ») ou d’un polygone délimitant l’élément recherché sur l’image.The training set is used by the algorithm to know by classification if a sought element is present or not on an image and where on the image. These annotations can take the form of a label (“tag”), a bounding box or a polygon delimiting the element sought on the image.
L’algorithme d’apprentissage est appliqué plusieurs fois sur des séquences d’images afin d’être entrainé à détecter les objets ou les personnes souhaités (par exemple une voiture, un visage, etc.). Lors d’un entrainement, l’algorithme peut obtenir des détections correctes ou des détections incorrectes. Les détections correctes ne nécessitent pas de traitement ultérieur. En revanche, les détections incorrectes nécessitent un traitement afin de les annoter davantage pour que l’algorithme puisse s’améliorer et détecter davantage d’éléments recherchés. Ces annotations supplémentaires sont réalisées manuellement par un opérateur après analyse des images ayant généré des détections incorrectes, ce qui est particulièrement chronophage.The learning algorithm is applied several times on sequences of images in order to be trained to detect the desired objects or people (for example a car, a face, etc.). During training, the algorithm can obtain correct detections or incorrect detections. Correct detections do not require further processing. On the other hand, incorrect detections require processing to annotate them further so that the algorithm can improve and detect more searched elements. These additional annotations are carried out manually by an operator after analysis of the images having generated incorrect detections, which is particularly time-consuming.
Afin d’augmenter rapidement la taille de l’ensemble des images de références pour entrainer plus rapidement l’algorithme, il est connu d’utiliser des données générées par un simulateur. Un tel simulateur fonctionne à partir d’un fichier de configuration qui définit les caractéristiques de l’élément à rechercher dans les images. L’augmentation de la rapidité de l’entrainement ne permet toutefois pas de réduire efficacement le nombre de détections incorrectes, ni d’augmenter leur vitesse de traitement, ce qui présente des inconvénients importants.In order to quickly increase the size of the set of reference images to train the algorithm more quickly, it is known to use data generated by a simulator. Such a simulator works from a configuration file which defines the characteristics of the element to be searched for in the images. However, increasing the speed of training does not effectively reduce the number of incorrect detections, nor increase their processing speed, which has significant drawbacks.
Il existe donc le besoin d’une solution permettant de remédier au moins en partie à ces inconvénients.There is therefore a need for a solution making it possible to at least partially remedy these drawbacks.
Un but de l’invention est de permettre un traitement plus rapide des détections incorrectes. Un autre but de l’invention est de permettre un traitement plus simple des détections incorrectes. Un autre but de l’invention est de permettre un traitement plus efficace des détections incorrectes.An object of the invention is to allow faster processing of incorrect detections. Another object of the invention is to allow simpler processing of incorrect detections. Another object of the invention is to allow more effective processing of incorrect detections.
A cette fin, l’invention a tout d’abord pour objet un procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra, ledit procédé, mis en œuvre par un module de traitement d’images, comprenant les étapes de :
entrainement d’un classifieur sur un ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classification des images de la séquence d’images de synthèse par ledit classifieur entrainé, au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images,
- extraction d’au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- détermination de l’au moins un label à partir de l’au moins une donnée extraite,
- génération automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajout de la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement afin d’optimiser, c’est-à-dire améliorer, la classification des futures séquences d’images.To this end, the invention firstly relates to a method for optimizing the detection of an element in a sequence of images generated by a camera, said method, implemented by a processing module of images, including the steps of:
training of a classifier on a training set comprising a sequence of synthetic images,
- classification of the images of the sequence of synthetic images by said trained classifier, at the end of which at least one incorrect detection of the element is carried out in at least one of the images,
- extraction of at least one datum from said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determination of the at least one label from the at least one data item extracted,
- automatic generation of a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased,
- adding the plurality of generated synthesized reference images to the training set in order to optimize, that is to say improve, the classification of future image sequences.
Par les termes « détection incorrecte », on entend que l’élément est détecté dans une image à un endroit précis alors qu’il n’est en réalité pas présent à cet endroit précis de l’image.By the term “incorrect detection”, we mean that the element is detected in an image at a specific location when it is not actually present at this specific location in the image.
Le procédé selon l’invention, qui se veut de préférence itératif, permet de réduire, voire de supprimer, le nombre de détections incorrectes en augmentant le nombre d’images de références présentant des caractéristiques spécifiques aux détections incorrectes précédentes. Cette augmentation du nombre d’images de référence appropriées a pour effet d’accroître les chances de reconnaître l’élément à détecter dans les images.The method according to the invention, which is preferably intended to be iterative, makes it possible to reduce, or even eliminate, the number of incorrect detections by increasing the number of reference images exhibiting characteristics specific to the previous incorrect detections. This increase in the number of appropriate reference images has the effect of increasing the chances of recognizing the element to be detected in the images.
Dans un mode de réalisation, le procédé est mis en œuvre par un module de traitement d’images.In one embodiment, the method is implemented by an image processing module.
Dans un mode de réalisation, ce module de traitement d’images peut être embarqué dans un véhicule automobile comprenant en outre une caméra configurée pour générer la séquence d’images, par exemple de l’intérieur (de l’habitable) du véhicule.In one embodiment, this image processing module can be embedded in a motor vehicle further comprising a camera configured to generate the sequence of images, for example of the interior (of the passenger compartment) of the vehicle.
De préférence, la génération comprend la mise à jour d’un fichier de configuration d’un sous-module de génération, ladite mise à jour comprenant l’augmentation de la probabilité de distribution du paramètre caractérisant chaque label déterminé.Preferably, the generation comprises updating a configuration file of a generation sub-module, said updating comprising increasing the probability of distribution of the parameter characterizing each determined label.
Avantageusement, l’au moins une donnée extraite est sélectionnée parmi l’angle d’orientation de la caméra par rapport à la tête d’une personne située dans l’habitacle, par exemple du conducteur, la luminosité, la taille de l’objet à détecter et la position de l’objet ou de la caméra dans l’habitacle.Advantageously, the at least one piece of data extracted is selected from the orientation angle of the camera relative to the head of a person located in the passenger compartment, for example the driver, the brightness, the size of the object to be detected and the position of the object or the camera in the passenger compartment.
Dans un mode de réalisation, les paramètres comprennent l’un parmi le nombre d’occupants d’un véhicule, leur taille, la forme de leur visage, la couleur de leur peau ou la longueur de leurs cheveux ou autre.In one embodiment, the parameters include one of the number of occupants of a vehicle, their height, face shape, skin color or hair length or the like.
Selon un aspect de l’invention, le procédé comprend une étape préliminaire initiale de génération d’une séquence d’images de synthèse initiales pour l’entrainement du classifieur.According to one aspect of the invention, the method comprises an initial preliminary step of generating a sequence of initial synthetic images for training the classifier.
De préférence, la génération de la séquences d’images de synthèse initiales est une génération automatique d’une pluralité d’images de référence synthétisées à partir d’un ensemble de paramètres caractérisant chacun un label et dont la probabilité de distribution est égale.Preferably, the generation of the sequence of initial synthetic images is an automatic generation of a plurality of reference images synthesized from a set of parameters each characterizing a label and whose distribution probability is equal.
Selon un exemple de réalisation, le classifieur est entrainé, simultanément, sur une séquence d’images générées par la caméra.According to an exemplary embodiment, the classifier is trained, simultaneously, on a sequence of images generated by the camera.
L’invention concerne également un produit programme d’ordinateur caractérisé en ce qu’il comporte un ensemble d’instructions de code de programme qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs, configurent le ou les processeurs pour mettre en œuvre un procédé tel que présenté précédemment.The invention also relates to a computer program product characterized in that it comprises a set of program code instructions which, when executed by one or more processors, configure the processor or processors to implement a process as presented above.
L’invention concerne également un module de traitement d’images, ledit module de traitement d’images comprenant un ensemble d’entrainement et un classifieur, ledit classifieur étant configuré pour :
- être entrainé sur l’ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classifier les images de la séquence d’images de synthèse en réalisant au moins une détection incorrecte de l’élément dans au moins l’une des images,
- extraire au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- déterminer l’au moins un label à partir de l’au moins une donnée extraite,
- générer automatiquement une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajouter la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement.The invention also relates to an image processing module, said image processing module comprising a training assembly and a classifier, said classifier being configured to:
- be trained on the training set comprising a sequence of synthetic images,
- classifying the images of the sequence of synthetic images by carrying out at least one incorrect detection of the element in at least one of the images,
- extracting at least one datum from said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determining the at least one label from the at least one extracted data item,
- automatically generate a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased,
- adding the plurality of generated synthesized reference images to the training set.
De préférence, le module de traitement d’images est configuré pour, lors de la génération, mettre à jour un fichier de configuration d’un sous-module de génération en augmentant la probabilité de distribution du paramètre caractérisant chaque label déterminé.Preferably, the image processing module is configured to, during generation, update a configuration file of a generation sub-module by increasing the probability of distribution of the parameter characterizing each determined label.
Selon un autre exemple de réalisation, le classifieur est également configuré pour être entrainé sur une séquence d’images générées par la caméra.According to another exemplary embodiment, the classifier is also configured to be trained on a sequence of images generated by the camera.
L’invention concerne également un système comprenant une caméra, configurée pour générer une séquence d’images, et un module de traitement d’images tel que présenté précédemment.The invention also relates to a system comprising a camera, configured to generate a sequence of images, and an image processing module as presented above.
L’invention concerne encore un véhicule, notamment automobile, comprenant un système tel que présenté ci-dessus.The invention also relates to a vehicle, in particular an automobile, comprising a system as presented above.
D’autres caractéristiques et avantages de l’invention apparaîtront encore à la lecture de la description qui va suivre. Celle-ci est purement illustrative et doit être lue en regard des dessins annexés sur lesquels :Other characteristics and advantages of the invention will become apparent on reading the description which follows. This is purely illustrative and must be read in conjunction with the appended drawings on which:
Claims (14)
- entrainement (E2) d’un classifieur sur un ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classification (E3) des images de la séquence d’images de synthèse par ledit classifieur (120) entrainé, au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images (I_inc),
- extraction (E4) d’au moins une donnée de ladite au moins une image (I_inc) pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- détermination (E5) de l’au moins un label à partir de l’au moins une donnée extraite,
- génération (E6) automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajout (E7) de la pluralité d’images de référence synthétisées générées à un ensemble d’entrainement (110).Method for optimizing the detection of an element in a sequence of images generated by a camera (20), said method, implemented by an image processing module (10), comprising the steps of:
- training (E2) of a classifier on a training set comprising a sequence of synthetic images,
- classification (E3) of the images of the sequence of synthetic images by said trained classifier (120), at the end of which at least one incorrect detection of the element is carried out in at least one of the images (I_inc),
- extraction (E4) of at least one datum from said at least one image (I_inc) for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determination (E5) of the at least one label from the at least one data item extracted,
- automatic generation (E6) of a plurality of synthesized reference images in which the probability of distribution of a parameter characterizing each determined label is increased,
- adding (E7) the plurality of generated synthesized reference images to a training set (110).
- être entrainé sur l’ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classifier les images de la séquence d’images de synthèse en réalisant au moins une détection incorrecte de l’élément dans au moins l’une des images (I_inc),
- extraire au moins une donnée de ladite au moins une image (I_inc) pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label, pour déterminer l’au moins un label à partir de l’au moins une donnée extraite, pour générer automatiquement une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée, et pour ajouter la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement (110).Image processing module (10), said image processing module (10) comprising a training assembly (110) and a classifier (120), said classifier (120) being configured to:
- be trained on the training set comprising a sequence of synthetic images,
- classify the images of the sequence of synthetic images by carrying out at least one incorrect detection of the element in at least one of the images (I_inc),
- extracting at least one datum from said at least one image (I_inc) for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label, to determine the at least one label to be from the at least one datum extracted, to automatically generate a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased, and to add the plurality of generated synthesized reference images to the drive assembly (110).
A vehicle comprising a system according to claim 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2022/078563 WO2023066790A1 (en) | 2021-10-21 | 2022-10-13 | Method for optimising the detection of an element in an image |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2111195A FR3128562A1 (en) | 2021-10-21 | 2021-10-21 | Process for optimizing the detection of an element in an image |
FR2111195 | 2021-10-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3128563A1 true FR3128563A1 (en) | 2023-04-28 |
Family
ID=83506488
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2111195A Pending FR3128562A1 (en) | 2021-10-21 | 2021-10-21 | Process for optimizing the detection of an element in an image |
FR2205887A Pending FR3128563A1 (en) | 2021-10-21 | 2022-06-16 | Process for optimizing the detection of an element in an image |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2111195A Pending FR3128562A1 (en) | 2021-10-21 | 2021-10-21 | Process for optimizing the detection of an element in an image |
Country Status (1)
Country | Link |
---|---|
FR (2) | FR3128562A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110002531A1 (en) * | 2009-07-01 | 2011-01-06 | Honda Motor Co., Ltd. | Object Recognition with 3D Models |
US20140079314A1 (en) * | 2012-09-18 | 2014-03-20 | Yury Yakubovich | Method and Apparatus for Improved Training of Object Detecting System |
US20190180082A1 (en) * | 2017-12-12 | 2019-06-13 | Seiko Epson Corporation | Methods and systems for training an object detection algorithm using synthetic images |
US20210133510A1 (en) * | 2018-07-12 | 2021-05-06 | Flir Commercial Systems, Inc. | Closed loop automatic dataset creation systems and methods |
-
2021
- 2021-10-21 FR FR2111195A patent/FR3128562A1/en active Pending
-
2022
- 2022-06-16 FR FR2205887A patent/FR3128563A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110002531A1 (en) * | 2009-07-01 | 2011-01-06 | Honda Motor Co., Ltd. | Object Recognition with 3D Models |
US20140079314A1 (en) * | 2012-09-18 | 2014-03-20 | Yury Yakubovich | Method and Apparatus for Improved Training of Object Detecting System |
US20190180082A1 (en) * | 2017-12-12 | 2019-06-13 | Seiko Epson Corporation | Methods and systems for training an object detection algorithm using synthetic images |
US20210133510A1 (en) * | 2018-07-12 | 2021-05-06 | Flir Commercial Systems, Inc. | Closed loop automatic dataset creation systems and methods |
Also Published As
Publication number | Publication date |
---|---|
FR3128562A1 (en) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3640843B1 (en) | Method for extracting characteristics of a fingerprint represented by an input image | |
EP3333765A1 (en) | Image-processing system | |
US20160167669A1 (en) | Systems and methods for determining a condition of a road surface | |
WO2012131181A1 (en) | Method for the automated extraction of a planogram from images of shelving | |
EP3195077B1 (en) | Localisation and mapping method and system | |
EP3572976A1 (en) | Method for processing a video image stream | |
CA2457271C (en) | Process using several images for the optical recognition of mail | |
Rahim et al. | Automatic screening and classification of diabetic retinopathy fundus images | |
EP3570213A1 (en) | Character recognition method | |
WO2004002637A1 (en) | Method for detecting single postal covers and postal covers stuck together in a mail sorting machine | |
FR3128563A1 (en) | Process for optimizing the detection of an element in an image | |
WO2015132531A1 (en) | Method for analysing sedimentary samples with automatic recognition of nanofossils | |
EP3428841B1 (en) | Method for fraud detection during iris recognition | |
WO2019129985A1 (en) | Method for forming a neural network for the recognition of a sequence of characters, and associated recognition method | |
WO2023066790A1 (en) | Method for optimising the detection of an element in an image | |
EP1840799A1 (en) | Method using the multi-resolution of images for optical recognition of postal shipments | |
FR3083352A1 (en) | METHOD AND DEVICE FOR FAST DETECTION OF REPETITIVE STRUCTURES IN THE IMAGE OF A ROAD SCENE | |
WO2017005930A1 (en) | Detection of objects by image processing | |
Baviskar et al. | Auto Number Plate Recognition | |
WO2020212619A1 (en) | Image processing method for an identity document | |
EP3929809A1 (en) | Method of detection of at least one visible biometric trait on an input image by means of a convolutional neural network | |
Zhang et al. | Vehicle-logo recognition based on convolutional neural network with multi-scale parallel layers | |
WO2019002236A1 (en) | Processing data obtained from an obstacle detector | |
Stallkamp et al. | Introduction to the special issue on machine learning for traffic sign recognition | |
FR3049094A1 (en) | METHOD OF IDENTIFYING A SET OF ROW BOOKS TO AUTOMATICALLY ESTABLISH THEIR LIST |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLSC | Publication of the preliminary search report |
Effective date: 20230428 |
|
PLFP | Fee payment |
Year of fee payment: 2 |