FR3128563A1 - Process for optimizing the detection of an element in an image - Google Patents

Process for optimizing the detection of an element in an image Download PDF

Info

Publication number
FR3128563A1
FR3128563A1 FR2205887A FR2205887A FR3128563A1 FR 3128563 A1 FR3128563 A1 FR 3128563A1 FR 2205887 A FR2205887 A FR 2205887A FR 2205887 A FR2205887 A FR 2205887A FR 3128563 A1 FR3128563 A1 FR 3128563A1
Authority
FR
France
Prior art keywords
images
sequence
label
camera
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2205887A
Other languages
French (fr)
Inventor
Rémi TRICHET
Sergey Abrashov
Zachary LEBON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to PCT/EP2022/078563 priority Critical patent/WO2023066790A1/en
Publication of FR3128563A1 publication Critical patent/FR3128563A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Abstract

Procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra, ledit procédé, mis en œuvre par un module de traitement d’images, comprenant notamment les étapes d’entrainement (E2) d’un classifieur, de classification (E3) des images au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images, d’extraction (E4) d’au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label, de détermination (E5) de l’au moins un label à partir de l’au moins une donnée extraite, de génération (E6) automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée, d’ajout (E7) de la pluralité d’images de référence synthétisées générées à un ensemble d’entrainement. Figure pour l’abrégé : Fig 3Method for optimizing the detection of an element in a sequence of images generated by a camera, said method, implemented by an image processing module, comprising in particular the steps of training (E2) a classifier, for classifying (E3) the images at the end of which at least one incorrect detection of the element is carried out in at least one of the images, for extracting (E4) at least one datum from the said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label, determination (E5) of the at least one label from the at least one extracted datum, for automatic generation (E6) of a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased, for adding (E7) the plurality of synthesized reference images generated to a training set. Figure for abstract: Fig 3

Description

Procédé d’optimisation de la détection d’un élément dans une imageProcess for optimizing the detection of an element in an image

La présente invention se rapporte au domaine du traitement d’images et concerne plus particulièrement un procédé d’apprentissage automatique à partir d’une séquence d’images. L’invention s’applique en particulier à l’assistance à la conduite dans un véhicule automobile.The present invention relates to the field of image processing and relates more particularly to a method of automatic learning from a sequence of images. The invention applies in particular to driving assistance in a motor vehicle.

En traitement d’images, il est connu de détecter des objets ou des personnes dans une séquence d’images. Afin d’automatiser cette détection, il est connu d’utiliser un algorithme dit « d’apprentissage ». Un tel algorithme est mis en œuvre par un réseau de neurones qui analyse les images et détecte les objets ou personnes à partir d’un ensemble de données de référence. Cet ensemble de données de référence est renseigné une première fois avec des données brutes, par exemple des images ou des vidéos, qui sont ensuite triées et annotées afin de constituer un ensemble d’entrainement, appelé « trainset », constitué d’un ensemble de différentes images de références représentant toutes un élément recherché.In image processing, it is known to detect objects or people in a sequence of images. In order to automate this detection, it is known to use a so-called “learning” algorithm. Such an algorithm is implemented by a neural network that analyzes images and detects objects or people from a set of reference data. This set of reference data is filled in a first time with raw data, for example images or videos, which are then sorted and annotated in order to constitute a training set, called "trainset", consisting of a set of different reference images all representing a searched item.

L’ensemble d’entrainement est utilisé par l’algorithme afin de savoir par classification si un élément recherché est présent ou non sur une image et à quel endroit sur l’image. Ces annotations peuvent prendre la forme d’une étiquette (« tag »), d’un cadre de délimitation (« bounding box ») ou d’un polygone délimitant l’élément recherché sur l’image.The training set is used by the algorithm to know by classification if a sought element is present or not on an image and where on the image. These annotations can take the form of a label (“tag”), a bounding box or a polygon delimiting the element sought on the image.

L’algorithme d’apprentissage est appliqué plusieurs fois sur des séquences d’images afin d’être entrainé à détecter les objets ou les personnes souhaités (par exemple une voiture, un visage, etc.). Lors d’un entrainement, l’algorithme peut obtenir des détections correctes ou des détections incorrectes. Les détections correctes ne nécessitent pas de traitement ultérieur. En revanche, les détections incorrectes nécessitent un traitement afin de les annoter davantage pour que l’algorithme puisse s’améliorer et détecter davantage d’éléments recherchés. Ces annotations supplémentaires sont réalisées manuellement par un opérateur après analyse des images ayant généré des détections incorrectes, ce qui est particulièrement chronophage.The learning algorithm is applied several times on sequences of images in order to be trained to detect the desired objects or people (for example a car, a face, etc.). During training, the algorithm can obtain correct detections or incorrect detections. Correct detections do not require further processing. On the other hand, incorrect detections require processing to annotate them further so that the algorithm can improve and detect more searched elements. These additional annotations are carried out manually by an operator after analysis of the images having generated incorrect detections, which is particularly time-consuming.

Afin d’augmenter rapidement la taille de l’ensemble des images de références pour entrainer plus rapidement l’algorithme, il est connu d’utiliser des données générées par un simulateur. Un tel simulateur fonctionne à partir d’un fichier de configuration qui définit les caractéristiques de l’élément à rechercher dans les images. L’augmentation de la rapidité de l’entrainement ne permet toutefois pas de réduire efficacement le nombre de détections incorrectes, ni d’augmenter leur vitesse de traitement, ce qui présente des inconvénients importants.In order to quickly increase the size of the set of reference images to train the algorithm more quickly, it is known to use data generated by a simulator. Such a simulator works from a configuration file which defines the characteristics of the element to be searched for in the images. However, increasing the speed of training does not effectively reduce the number of incorrect detections, nor increase their processing speed, which has significant drawbacks.

Il existe donc le besoin d’une solution permettant de remédier au moins en partie à ces inconvénients.There is therefore a need for a solution making it possible to at least partially remedy these drawbacks.

Un but de l’invention est de permettre un traitement plus rapide des détections incorrectes. Un autre but de l’invention est de permettre un traitement plus simple des détections incorrectes. Un autre but de l’invention est de permettre un traitement plus efficace des détections incorrectes.An object of the invention is to allow faster processing of incorrect detections. Another object of the invention is to allow simpler processing of incorrect detections. Another object of the invention is to allow more effective processing of incorrect detections.

A cette fin, l’invention a tout d’abord pour objet un procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra, ledit procédé, mis en œuvre par un module de traitement d’images, comprenant les étapes de :
entrainement d’un classifieur sur un ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classification des images de la séquence d’images de synthèse par ledit classifieur entrainé, au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images,
- extraction d’au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- détermination de l’au moins un label à partir de l’au moins une donnée extraite,
- génération automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajout de la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement afin d’optimiser, c’est-à-dire améliorer, la classification des futures séquences d’images.
To this end, the invention firstly relates to a method for optimizing the detection of an element in a sequence of images generated by a camera, said method, implemented by a processing module of images, including the steps of:
training of a classifier on a training set comprising a sequence of synthetic images,
- classification of the images of the sequence of synthetic images by said trained classifier, at the end of which at least one incorrect detection of the element is carried out in at least one of the images,
- extraction of at least one datum from said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determination of the at least one label from the at least one data item extracted,
- automatic generation of a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased,
- adding the plurality of generated synthesized reference images to the training set in order to optimize, that is to say improve, the classification of future image sequences.

Par les termes « détection incorrecte », on entend que l’élément est détecté dans une image à un endroit précis alors qu’il n’est en réalité pas présent à cet endroit précis de l’image.By the term “incorrect detection”, we mean that the element is detected in an image at a specific location when it is not actually present at this specific location in the image.

Le procédé selon l’invention, qui se veut de préférence itératif, permet de réduire, voire de supprimer, le nombre de détections incorrectes en augmentant le nombre d’images de références présentant des caractéristiques spécifiques aux détections incorrectes précédentes. Cette augmentation du nombre d’images de référence appropriées a pour effet d’accroître les chances de reconnaître l’élément à détecter dans les images.The method according to the invention, which is preferably intended to be iterative, makes it possible to reduce, or even eliminate, the number of incorrect detections by increasing the number of reference images exhibiting characteristics specific to the previous incorrect detections. This increase in the number of appropriate reference images has the effect of increasing the chances of recognizing the element to be detected in the images.

Dans un mode de réalisation, le procédé est mis en œuvre par un module de traitement d’images.In one embodiment, the method is implemented by an image processing module.

Dans un mode de réalisation, ce module de traitement d’images peut être embarqué dans un véhicule automobile comprenant en outre une caméra configurée pour générer la séquence d’images, par exemple de l’intérieur (de l’habitable) du véhicule.In one embodiment, this image processing module can be embedded in a motor vehicle further comprising a camera configured to generate the sequence of images, for example of the interior (of the passenger compartment) of the vehicle.

De préférence, la génération comprend la mise à jour d’un fichier de configuration d’un sous-module de génération, ladite mise à jour comprenant l’augmentation de la probabilité de distribution du paramètre caractérisant chaque label déterminé.Preferably, the generation comprises updating a configuration file of a generation sub-module, said updating comprising increasing the probability of distribution of the parameter characterizing each determined label.

Avantageusement, l’au moins une donnée extraite est sélectionnée parmi l’angle d’orientation de la caméra par rapport à la tête d’une personne située dans l’habitacle, par exemple du conducteur, la luminosité, la taille de l’objet à détecter et la position de l’objet ou de la caméra dans l’habitacle.Advantageously, the at least one piece of data extracted is selected from the orientation angle of the camera relative to the head of a person located in the passenger compartment, for example the driver, the brightness, the size of the object to be detected and the position of the object or the camera in the passenger compartment.

Dans un mode de réalisation, les paramètres comprennent l’un parmi le nombre d’occupants d’un véhicule, leur taille, la forme de leur visage, la couleur de leur peau ou la longueur de leurs cheveux ou autre.In one embodiment, the parameters include one of the number of occupants of a vehicle, their height, face shape, skin color or hair length or the like.

Selon un aspect de l’invention, le procédé comprend une étape préliminaire initiale de génération d’une séquence d’images de synthèse initiales pour l’entrainement du classifieur.According to one aspect of the invention, the method comprises an initial preliminary step of generating a sequence of initial synthetic images for training the classifier.

De préférence, la génération de la séquences d’images de synthèse initiales est une génération automatique d’une pluralité d’images de référence synthétisées à partir d’un ensemble de paramètres caractérisant chacun un label et dont la probabilité de distribution est égale.Preferably, the generation of the sequence of initial synthetic images is an automatic generation of a plurality of reference images synthesized from a set of parameters each characterizing a label and whose distribution probability is equal.

Selon un exemple de réalisation, le classifieur est entrainé, simultanément, sur une séquence d’images générées par la caméra.According to an exemplary embodiment, the classifier is trained, simultaneously, on a sequence of images generated by the camera.

L’invention concerne également un produit programme d’ordinateur caractérisé en ce qu’il comporte un ensemble d’instructions de code de programme qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs, configurent le ou les processeurs pour mettre en œuvre un procédé tel que présenté précédemment.The invention also relates to a computer program product characterized in that it comprises a set of program code instructions which, when executed by one or more processors, configure the processor or processors to implement a process as presented above.

L’invention concerne également un module de traitement d’images, ledit module de traitement d’images comprenant un ensemble d’entrainement et un classifieur, ledit classifieur étant configuré pour :
- être entrainé sur l’ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classifier les images de la séquence d’images de synthèse en réalisant au moins une détection incorrecte de l’élément dans au moins l’une des images,
- extraire au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- déterminer l’au moins un label à partir de l’au moins une donnée extraite,
- générer automatiquement une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajouter la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement.
The invention also relates to an image processing module, said image processing module comprising a training assembly and a classifier, said classifier being configured to:
- be trained on the training set comprising a sequence of synthetic images,
- classifying the images of the sequence of synthetic images by carrying out at least one incorrect detection of the element in at least one of the images,
- extracting at least one datum from said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determining the at least one label from the at least one extracted data item,
- automatically generate a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased,
- adding the plurality of generated synthesized reference images to the training set.

De préférence, le module de traitement d’images est configuré pour, lors de la génération, mettre à jour un fichier de configuration d’un sous-module de génération en augmentant la probabilité de distribution du paramètre caractérisant chaque label déterminé.Preferably, the image processing module is configured to, during generation, update a configuration file of a generation sub-module by increasing the probability of distribution of the parameter characterizing each determined label.

Selon un autre exemple de réalisation, le classifieur est également configuré pour être entrainé sur une séquence d’images générées par la caméra.According to another exemplary embodiment, the classifier is also configured to be trained on a sequence of images generated by the camera.

L’invention concerne également un système comprenant une caméra, configurée pour générer une séquence d’images, et un module de traitement d’images tel que présenté précédemment.The invention also relates to a system comprising a camera, configured to generate a sequence of images, and an image processing module as presented above.

L’invention concerne encore un véhicule, notamment automobile, comprenant un système tel que présenté ci-dessus.The invention also relates to a vehicle, in particular an automobile, comprising a system as presented above.

D’autres caractéristiques et avantages de l’invention apparaîtront encore à la lecture de la description qui va suivre. Celle-ci est purement illustrative et doit être lue en regard des dessins annexés sur lesquels :Other characteristics and advantages of the invention will become apparent on reading the description which follows. This is purely illustrative and must be read in conjunction with the appended drawings on which:

La illustre schématiquement une forme de réalisation d’un véhicule selon l’invention. There schematically illustrates an embodiment of a vehicle according to the invention.

La illustre schématiquement un système comprenant le module de traitement d’images et la caméra du véhicule de la . There schematically illustrates a system comprising the image processing module and the vehicle camera of the .

La illustre schématiquement un mode de réalisation du procédé selon l’invention. There schematically illustrates an embodiment of the method according to the invention.

Claims (14)

Procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra (20), ledit procédé, mis en œuvre par un module de traitement d’images (10), comprenant les étapes de :
- entrainement (E2) d’un classifieur sur un ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classification (E3) des images de la séquence d’images de synthèse par ledit classifieur (120) entrainé, au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images (I_inc),
- extraction (E4) d’au moins une donnée de ladite au moins une image (I_inc) pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- détermination (E5) de l’au moins un label à partir de l’au moins une donnée extraite,
- génération (E6) automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajout (E7) de la pluralité d’images de référence synthétisées générées à un ensemble d’entrainement (110).
Method for optimizing the detection of an element in a sequence of images generated by a camera (20), said method, implemented by an image processing module (10), comprising the steps of:
- training (E2) of a classifier on a training set comprising a sequence of synthetic images,
- classification (E3) of the images of the sequence of synthetic images by said trained classifier (120), at the end of which at least one incorrect detection of the element is carried out in at least one of the images (I_inc),
- extraction (E4) of at least one datum from said at least one image (I_inc) for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determination (E5) of the at least one label from the at least one data item extracted,
- automatic generation (E6) of a plurality of synthesized reference images in which the probability of distribution of a parameter characterizing each determined label is increased,
- adding (E7) the plurality of generated synthesized reference images to a training set (110).
Procédé selon la revendication 1, dans lequel la génération comprend la mise à jour d’un fichier de configuration (141), ladite mise à jour comprenant l’augmentation de la probabilité de distribution du paramètre caractérisant chaque label déterminé.Method according to claim 1, in which the generation comprises updating a configuration file (141), said updating comprising increasing the probability of distribution of the parameter characterizing each determined label. Procédé selon l’une des revendications 1 ou 2, caractérisé en ce que la caméra (20) génère une séquence d’images de l’habitacle d’un véhicule (1).Method according to one of Claims 1 or 2, characterized in that the camera (20) generates a sequence of images of the passenger compartment of a vehicle (1). Procédé selon l’une quelconque des revendications précédentes, dans lequel l’au moins une donnée extraite est sélectionnée parmi, l’angle d’orientation de la caméra (20) par rapport à la tête d’une personne située dans l’habitacle, la luminosité, la taille de l’objet à détecter et la position de l’objet ou de la caméra (20) dans l’habitacle.Method according to any one of the preceding claims, in which the at least one piece of data extracted is selected from, the angle of orientation of the camera (20) with respect to the head of a person located in the passenger compartment, the luminosity, the size of the object to be detected and the position of the object or of the camera (20) in the passenger compartment. Procédé selon l’une quelconque des revendications précédentes, dans lequel les paramètres comprennent l’un parmi le nombre d’occupants d’un véhicule, leur taille, la forme de leur visage, la couleur de leur peau ou la longueur de leurs cheveux.A method according to any preceding claim, wherein the parameters include one of the number of occupants of a vehicle, their height, face shape, skin color or hair length. Procédé selon l’une quelconque des revendications précédentes, comprenant une étape préliminaire initiale de génération d’une séquence d’images de synthèse initiales.Method according to any one of the preceding claims, comprising an initial preliminary step of generating a sequence of initial synthetic images. Procédé selon la revendication précédente, dans lequel la génération de la séquence d’images de synthèse initiales est une génération automatique d’une pluralité d’images de référence synthétisées à partir d’un ensemble de paramètres caractérisant chacun un label et dont la probabilité de distribution est égale.Method according to the preceding claim, in which the generation of the sequence of initial synthetic images is an automatic generation of a plurality of reference images synthesized from a set of parameters each characterizing a label and whose probability of distribution is equal. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le classifieur (120) est entrainé, simultanément, sur une séquence d’images générées par la caméra (20).Method according to any one of the preceding claims, characterized in that the classifier (120) is trained, simultaneously, on a sequence of images generated by the camera (20). Produit programme d’ordinateur caractérisé en ce qu’il comporte un ensemble d’instructions de code de programme qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs, configurent le ou les processeurs pour mettre en œuvre un procédé selon l’une quelconque des revendications précédentes.Computer program product characterized in that it comprises a set of program code instructions which, when executed by one or more processors, configure the processor or processors to implement a method according to any previous claims. Module de traitement d’images (10), ledit module de traitement d’images (10) comprenant un ensemble d’entrainement (110) et un classifieur (120), ledit classifieur (120) étant configuré pour :
- être entrainé sur l’ensemble d’entrainement comprenant une séquence d’images de synthèse,
- classifier les images de la séquence d’images de synthèse en réalisant au moins une détection incorrecte de l’élément dans au moins l’une des images (I_inc),
- extraire au moins une donnée de ladite au moins une image (I_inc) pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label, pour déterminer l’au moins un label à partir de l’au moins une donnée extraite, pour générer automatiquement une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée, et pour ajouter la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement (110).
Image processing module (10), said image processing module (10) comprising a training assembly (110) and a classifier (120), said classifier (120) being configured to:
- be trained on the training set comprising a sequence of synthetic images,
- classify the images of the sequence of synthetic images by carrying out at least one incorrect detection of the element in at least one of the images (I_inc),
- extracting at least one datum from said at least one image (I_inc) for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label, to determine the at least one label to be from the at least one datum extracted, to automatically generate a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased, and to add the plurality of generated synthesized reference images to the drive assembly (110).
Module de traitement d’images (10) selon la revendication précédente, ledit module de traitement d’images (10) étant configuré pour, lors de la génération, mettre à jour un fichier de configuration (141) en augmentant la probabilité de distribution du paramètre caractérisant chaque label déterminé.Image processing module (10) according to the preceding claim, said image processing module (10) being configured to, during generation, update a configuration file (141) by increasing the probability of distribution of the parameter characterizing each determined label. Module selon l’une des revendications 10 et 11, caractérisé en ce que le classifieur (120) est également configuré pour être entrainé sur une séquence d’images générées par la caméra (20).Module according to one of Claims 10 and 11, characterized in that the classifier (120) is also configured to be trained on a sequence of images generated by the camera (20). Système comprenant une caméra (20), configurée pour générer une séquence d’images, et un module de traitement d’images (10) selon l’une quelconque des revendications 10 à 12.System comprising a camera (20), configured to generate a sequence of images, and an image processing module (10) according to any one of Claims 10 to 12. Véhicule comprenant un système selon la revendication 13.
A vehicle comprising a system according to claim 13.
FR2205887A 2021-10-21 2022-06-16 Process for optimizing the detection of an element in an image Pending FR3128563A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2022/078563 WO2023066790A1 (en) 2021-10-21 2022-10-13 Method for optimising the detection of an element in an image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2111195A FR3128562A1 (en) 2021-10-21 2021-10-21 Process for optimizing the detection of an element in an image
FR2111195 2021-10-21

Publications (1)

Publication Number Publication Date
FR3128563A1 true FR3128563A1 (en) 2023-04-28

Family

ID=83506488

Family Applications (2)

Application Number Title Priority Date Filing Date
FR2111195A Pending FR3128562A1 (en) 2021-10-21 2021-10-21 Process for optimizing the detection of an element in an image
FR2205887A Pending FR3128563A1 (en) 2021-10-21 2022-06-16 Process for optimizing the detection of an element in an image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
FR2111195A Pending FR3128562A1 (en) 2021-10-21 2021-10-21 Process for optimizing the detection of an element in an image

Country Status (1)

Country Link
FR (2) FR3128562A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110002531A1 (en) * 2009-07-01 2011-01-06 Honda Motor Co., Ltd. Object Recognition with 3D Models
US20140079314A1 (en) * 2012-09-18 2014-03-20 Yury Yakubovich Method and Apparatus for Improved Training of Object Detecting System
US20190180082A1 (en) * 2017-12-12 2019-06-13 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
US20210133510A1 (en) * 2018-07-12 2021-05-06 Flir Commercial Systems, Inc. Closed loop automatic dataset creation systems and methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110002531A1 (en) * 2009-07-01 2011-01-06 Honda Motor Co., Ltd. Object Recognition with 3D Models
US20140079314A1 (en) * 2012-09-18 2014-03-20 Yury Yakubovich Method and Apparatus for Improved Training of Object Detecting System
US20190180082A1 (en) * 2017-12-12 2019-06-13 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
US20210133510A1 (en) * 2018-07-12 2021-05-06 Flir Commercial Systems, Inc. Closed loop automatic dataset creation systems and methods

Also Published As

Publication number Publication date
FR3128562A1 (en) 2023-04-28

Similar Documents

Publication Publication Date Title
EP3640843B1 (en) Method for extracting characteristics of a fingerprint represented by an input image
EP3333765A1 (en) Image-processing system
US20160167669A1 (en) Systems and methods for determining a condition of a road surface
WO2012131181A1 (en) Method for the automated extraction of a planogram from images of shelving
EP3195077B1 (en) Localisation and mapping method and system
EP3572976A1 (en) Method for processing a video image stream
CA2457271C (en) Process using several images for the optical recognition of mail
Rahim et al. Automatic screening and classification of diabetic retinopathy fundus images
EP3570213A1 (en) Character recognition method
WO2004002637A1 (en) Method for detecting single postal covers and postal covers stuck together in a mail sorting machine
FR3128563A1 (en) Process for optimizing the detection of an element in an image
WO2015132531A1 (en) Method for analysing sedimentary samples with automatic recognition of nanofossils
EP3428841B1 (en) Method for fraud detection during iris recognition
WO2019129985A1 (en) Method for forming a neural network for the recognition of a sequence of characters, and associated recognition method
WO2023066790A1 (en) Method for optimising the detection of an element in an image
EP1840799A1 (en) Method using the multi-resolution of images for optical recognition of postal shipments
FR3083352A1 (en) METHOD AND DEVICE FOR FAST DETECTION OF REPETITIVE STRUCTURES IN THE IMAGE OF A ROAD SCENE
WO2017005930A1 (en) Detection of objects by image processing
Baviskar et al. Auto Number Plate Recognition
WO2020212619A1 (en) Image processing method for an identity document
EP3929809A1 (en) Method of detection of at least one visible biometric trait on an input image by means of a convolutional neural network
Zhang et al. Vehicle-logo recognition based on convolutional neural network with multi-scale parallel layers
WO2019002236A1 (en) Processing data obtained from an obstacle detector
Stallkamp et al. Introduction to the special issue on machine learning for traffic sign recognition
FR3049094A1 (en) METHOD OF IDENTIFYING A SET OF ROW BOOKS TO AUTOMATICALLY ESTABLISH THEIR LIST

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20230428

PLFP Fee payment

Year of fee payment: 2