FR3128562A1 - Process for optimizing the detection of an element in an image - Google Patents

Process for optimizing the detection of an element in an image Download PDF

Info

Publication number
FR3128562A1
FR3128562A1 FR2111195A FR2111195A FR3128562A1 FR 3128562 A1 FR3128562 A1 FR 3128562A1 FR 2111195 A FR2111195 A FR 2111195A FR 2111195 A FR2111195 A FR 2111195A FR 3128562 A1 FR3128562 A1 FR 3128562A1
Authority
FR
France
Prior art keywords
images
sequence
label
training set
reference images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2111195A
Other languages
French (fr)
Inventor
Rémi TRICHET
Sergey Abrashov
Zachary LEBON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to FR2111195A priority Critical patent/FR3128562A1/en
Priority to FR2205887A priority patent/FR3128563A1/en
Priority to PCT/EP2022/078563 priority patent/WO2023066790A1/en
Publication of FR3128562A1 publication Critical patent/FR3128562A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra d’un véhicule, ledit procédé, mis en œuvre par un module de traitement d’images embarqué dans le véhicule, comprenant notamment les étapes d’entrainement (E2) d’un classifieur, de classification (E3) des images de la séquence à partir d’un ensemble d’entrainement au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images, d’extraction (E4) d’au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label, de détermination (E5) de l’au moins un label à partir de l’au moins une donnée extraite, de génération (E6) automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée, d’ajout (E7) de la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement. Figure pour l’abrégé : Fig 3Method for optimizing the detection of an element in a sequence of images generated by a camera of a vehicle, said method, implemented by an image processing module on board the vehicle, comprising in particular the steps of training (E2) of a classifier, classification (E3) of the images of the sequence from a training set at the end of which at least one incorrect detection of the element is carried out in at least one images, extracting (E4) at least one datum from said at least one image for which an incorrect detection of the element has been performed, said at least one datum being associated with at least one label, determining ( E5) of the at least one label from the at least one datum extracted, of automatic generation (E6) of a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is augmented by adding (E7) the plurality of generated synthesized reference images to the training set. Figure for abstract: Fig 3

Description

Procédé d’optimisation de la détection d’un élément dans une imageProcess for optimizing the detection of an element in an image

La présente invention se rapporte au domaine du traitement d’images et concerne plus particulièrement un procédé d’apprentissage automatique à partir d’une séquence d’images. L’invention s’applique en particulier à l’assistance à la conduite dans un véhicule automobile.The present invention relates to the field of image processing and relates more particularly to a method of automatic learning from a sequence of images. The invention applies in particular to driving assistance in a motor vehicle.

En traitement d’images, il est connu de détecter des objets ou des personnes dans une séquence d’images. Afin d’automatiser cette détection, il est connu d’utiliser un algorithme dit « d’apprentissage ». Un tel algorithme est mis en œuvre par un réseau de neurones qui analyse les images et détecte les objets ou personnes à partir d’un ensemble de données de référence. Cet ensemble de données de référence est renseigné une première fois avec des données brutes, par exemple des images ou des vidéos, qui sont ensuite triées et annotées afin de constituer un ensemble d’entrainement, appelé « trainset », constitué d’un ensemble de différentes images de références représentant toutes un élément recherché.In image processing, it is known to detect objects or people in a sequence of images. In order to automate this detection, it is known to use a so-called “learning” algorithm. Such an algorithm is implemented by a neural network that analyzes images and detects objects or people from a set of reference data. This set of reference data is filled in a first time with raw data, for example images or videos, which are then sorted and annotated in order to constitute a training set, called "trainset", consisting of a set of different reference images all representing a searched item.

L’ensemble d’entrainement est utilisé par l’algorithme afin de savoir par classification si un élément recherché est présent ou non sur une image et à quel endroit sur l’image. Ces annotations peuvent prendre la forme d’une étiquette (« tag »), d’un cadre de délimitation (« bounding box ») ou d’un polygone délimitant l’élément recherché sur l’image.The training set is used by the algorithm to know by classification if a sought element is present or not on an image and where on the image. These annotations can take the form of a label (“tag”), a bounding box or a polygon delimiting the element sought on the image.

L’algorithme d’apprentissage est appliqué plusieurs fois sur des séquences d’images afin d’être entrainé à détecter les objets ou les personnes souhaités (par exemple une voiture, un visage, etc.). Lors d’un entrainement, l’algorithme peut obtenir des détections correctes ou des détections incorrectes. Les détections correctes ne nécessitent pas de traitement ultérieur. En revanche, les détections incorrectes nécessitent un traitement afin de les annoter davantage pour que l’algorithme puisse s’améliorer et détecter davantage d’éléments recherchés. Ces annotations supplémentaires sont réalisées manuellement par un opérateur après analyse des images ayant généré des détections incorrectes, ce qui est particulièrement chronophage.The learning algorithm is applied several times on sequences of images in order to be trained to detect the desired objects or people (for example a car, a face, etc.). During training, the algorithm can obtain correct detections or incorrect detections. Correct detections do not require further processing. On the other hand, incorrect detections require processing to annotate them further so that the algorithm can improve and detect more searched elements. These additional annotations are carried out manually by an operator after analysis of the images having generated incorrect detections, which is particularly time-consuming.

Afin d’augmenter rapidement la taille de l’ensemble des images de références pour entrainer plus rapidement l’algorithme, il est connu d’utiliser des données générées par un simulateur. Un tel simulateur fonctionne à partir d’un fichier de configuration qui définit les caractéristiques de l’élément à rechercher dans les images. L’augmentation de la rapidité de l’entrainement ne permet toutefois pas de réduire efficacement le nombre de détections incorrectes, ni d’augmenter leur vitesse de traitement, ce qui présente des inconvénients importants.In order to quickly increase the size of the set of reference images to train the algorithm more quickly, it is known to use data generated by a simulator. Such a simulator works from a configuration file which defines the characteristics of the element to be searched for in the images. However, increasing the speed of training does not effectively reduce the number of incorrect detections, nor increase their processing speed, which has significant drawbacks.

Il existe donc le besoin d’une solution permettant de remédier au moins en partie à ces inconvénients.There is therefore a need for a solution making it possible to at least partially remedy these drawbacks.

Un but de l’invention est de permettre un traitement plus rapide des détections incorrectes. Un autre but de l’invention est de permettre un traitement plus simple des détections incorrectes. Un autre but de l’invention est de permettre un traitement plus efficace des détections incorrectes.An object of the invention is to allow faster processing of incorrect detections. Another object of the invention is to allow simpler processing of incorrect detections. Another object of the invention is to allow more effective processing of incorrect detections.

A cette fin, l’invention a tout d’abord pour objet un procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra de l’habitacle d’un véhicule, ledit procédé, mis en œuvre par un module de traitement d’images embarqué dans le véhicule, comprenant les étapes de :
- réception d’une séquence d’images générée par la caméra,
- entrainement d’un classifieur sur la séquence d’images reçue afin de générer un ensemble d’entrainement comprenant une pluralité d’images de référence,
- classification des images de la séquence par ledit classifieur à partir dudit ensemble d’entrainement, au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images,
- extraction d’au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- détermination de l’au moins un label à partir de l’au moins une donnée extraite,
- génération automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajout de la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement afin d’optimiser, c’est-à-dire améliorer, la classification des futures séquences d’images.
To this end, the invention firstly relates to a method for optimizing the detection of an element in a sequence of images generated by a camera of the passenger compartment of a vehicle, said method, implemented implemented by an image processing module on board the vehicle, comprising the steps of:
- reception of a sequence of images generated by the camera,
- training of a classifier on the sequence of images received in order to generate a training set comprising a plurality of reference images,
- classification of the images of the sequence by said classifier from said training set, at the end of which at least one incorrect detection of the element is carried out in at least one of the images,
- extraction of at least one datum from said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determination of the at least one label from the at least one data item extracted,
- automatic generation of a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased,
- adding the plurality of generated synthesized reference images to the training set in order to optimize, that is to say improve, the classification of future image sequences.

Par les termes « détection incorrecte », on entend que l’élément est détecté dans une image à un endroit précis alors qu’il n’est en réalité pas présent à cet endroit précis de l’image.By the term “incorrect detection”, we mean that the element is detected in an image at a specific location when it is not actually present at this specific location in the image.

Le procédé selon l’invention, qui se veut de préférence itératif, permet de réduire, voire de supprimer, le nombre de détections incorrectes en augmentant le nombre d’images de références présentant des caractéristiques spécifiques aux détections incorrectes précédentes. Cette augmentation du nombre d’images de référence appropriées a pour effet d’accroître les chances de reconnaître l’élément à détecter dans les images.The method according to the invention, which is preferably intended to be iterative, makes it possible to reduce, or even eliminate, the number of incorrect detections by increasing the number of reference images exhibiting characteristics specific to the previous incorrect detections. This increase in the number of appropriate reference images has the effect of increasing the chances of recognizing the element to be detected in the images.

Dans un mode de réalisation, le procédé est mis en œuvre par un module de traitement d’images. Ce module de traitement d’images peut être embarqué dans un véhicule automobile comprenant en outre une caméra configurée pour générer la séquence d’images, par exemple de l’intérieur du véhicule.In one embodiment, the method is implemented by an image processing module. This image processing module can be embedded in a motor vehicle further comprising a camera configured to generate the sequence of images, for example from inside the vehicle.

De préférence, la génération comprend la mise à jour d’un fichier de configuration d’un sous-module de génération, ladite mise à jour comprenant l’augmentation de la probabilité de distribution du paramètre caractérisant chaque label déterminé.Preferably, the generation comprises updating a configuration file of a generation sub-module, said updating comprising increasing the probability of distribution of the parameter characterizing each determined label.

Avantageusement, l’au moins une donnée extraite est sélectionnée parmi l’angle d’orientation de la caméra par rapport à la tête d’une personne située dans l’habitacle, par exemple du conducteur, la luminosité, la taille de l’objet à détecter et la position de l’objet ou de la caméra dans l’habitacle.Advantageously, the at least one piece of data extracted is selected from the orientation angle of the camera relative to the head of a person located in the passenger compartment, for example the driver, the brightness, the size of the object to be detected and the position of the object or the camera in the passenger compartment.

Dans un mode de réalisation, les paramètres comprennent l’un parmi le nombre d’occupants d’un véhicule, leur taille, la forme de leur visage, la couleur de leur peau ou la longueur de leurs cheveux ou autre.In one embodiment, the parameters include one of the number of occupants of a vehicle, their height, face shape, skin color or hair length or the like.

Selon un aspect de l’invention, le procédé comprend une étape préliminaire initiale de génération de l’ensemble d’entrainement comprenant une pluralité d’images de référence.According to one aspect of the invention, the method comprises an initial preliminary step of generating the training set comprising a plurality of reference images.

De préférence, la génération initiale de l’ensemble d’entrainement est une génération automatique d’une pluralité d’images de référence synthétisées à partir d’un ensemble de paramètres caractérisant chacun un label et dont la probabilité de distribution est égale.Preferably, the initial generation of the training set is an automatic generation of a plurality of reference images synthesized from a set of parameters each characterizing a label and whose distribution probability is equal.

L’invention concerne également un produit programme d’ordinateur caractérisé en ce qu’il comporte un ensemble d’instructions de code de programme qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs, configurent le ou les processeurs pour mettre en œuvre un procédé tel que présenté précédemment.The invention also relates to a computer program product characterized in that it comprises a set of program code instructions which, when executed by one or more processors, configure the processor or processors to implement a process as presented above.

L’invention concerne également un module de traitement d’images, notamment pour véhicule automobile, ledit module de traitement d’images comprenant un ensemble d’entrainement et un classifieur, ledit classifieur étant configuré pour :
- recevoir une séquence d’images,
- être entrainé sur la séquence d’images reçue afin de générer un ensemble d’entrainement, ledit ensemble d’entrainement comprenant une pluralité d’images de référence,
- classifier les images de la séquence à partir dudit ensemble d’entrainement en réalisant au moins une détection incorrecte de l’élément dans au moins l’une des images,
- extraire au moins une donnée de ladite au moins une image pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- déterminer l’au moins un label à partir de l’au moins une donnée extraite,
- générer automatiquement une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajouter la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement.
The invention also relates to an image processing module, in particular for a motor vehicle, said image processing module comprising a training assembly and a classifier, said classifier being configured for:
- receive a sequence of images,
- be trained on the sequence of images received in order to generate a training set, said training set comprising a plurality of reference images,
- classifying the images of the sequence from said training set by carrying out at least one incorrect detection of the element in at least one of the images,
- extracting at least one datum from said at least one image for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determining the at least one label from the at least one extracted data item,
- automatically generate a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased,
- adding the plurality of generated synthesized reference images to the training set.

De préférence, le module de traitement d’images est configuré pour, lors de la génération, mettre à jour un fichier de configuration d’un sous-module de génération en augmentant la probabilité de distribution du paramètre caractérisant chaque label déterminé.Preferably, the image processing module is configured to, during generation, update a configuration file of a generation sub-module by increasing the probability of distribution of the parameter characterizing each determined label.

L’invention concerne également un véhicule automobile comprenant une caméra, configurée pour générer une séquence d’images, et un module de traitement d’images tel que présenté précédemment.The invention also relates to a motor vehicle comprising a camera, configured to generate a sequence of images, and an image processing module as presented previously.

D’autres caractéristiques et avantages de l’invention apparaîtront encore à la lecture de la description qui va suivre. Celle-ci est purement illustrative et doit être lue en regard des dessins annexés sur lesquels :Other characteristics and advantages of the invention will become apparent on reading the description which follows. This is purely illustrative and must be read in conjunction with the appended drawings on which:

La illustre schématiquement une forme de réalisation du véhicule selon l’invention. There schematically illustrates an embodiment of the vehicle according to the invention.

La illustre schématiquement le module de traitement d’images du véhicule de la . There schematically illustrates the vehicle image processing module of the .

La illustre schématiquement un mode de réalisation du procédé selon l’invention. There schematically illustrates an embodiment of the method according to the invention.

Claims (10)

Procédé d’optimisation de la détection d’un élément dans une séquence d’images générée par une caméra (20) de l’habitacle d’un véhicule (1), ledit procédé, mis en œuvre par un module de traitement d’images (10) embarqué dans le véhicule (1), comprenant les étapes de :
- réception (E1) d’une séquence d’images générée par la caméra (20),
- entrainement (E2) d’un classifieur sur la séquence d’images reçue afin de générer un ensemble d’entrainement (110) comprenant une pluralité d’images de référence,
- classification (E3) des images de la séquence par ledit classifieur (120) à partir dudit ensemble d’entrainement (110), au terme de laquelle au moins une détection incorrecte de l’élément est réalisée dans au moins l’une des images (I_inc),
- extraction (E4) d’au moins une donnée de ladite au moins une image (I_inc) pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label,
- détermination (E5) de l’au moins un label à partir de l’au moins une donnée extraite,
- génération (E6) automatique d’une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée,
- ajout (E7) de la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement (110).
Method for optimizing the detection of an element in a sequence of images generated by a camera (20) of the passenger compartment of a vehicle (1), said method, implemented by an image processing module (10) on board the vehicle (1), comprising the steps of:
- reception (E1) of a sequence of images generated by the camera (20),
- training (E2) of a classifier on the sequence of images received in order to generate a training set (110) comprising a plurality of reference images,
- classification (E3) of the images of the sequence by said classifier (120) from said training set (110), at the end of which at least one incorrect detection of the element is carried out in at least one of the images (I_inc),
- extraction (E4) of at least one datum from said at least one image (I_inc) for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label,
- determination (E5) of the at least one label from the at least one data item extracted,
- automatic generation (E6) of a plurality of synthesized reference images in which the probability of distribution of a parameter characterizing each determined label is increased,
- adding (E7) the plurality of generated synthesized reference images to the training set (110).
Procédé selon la revendication 1, dans lequel la génération comprend la mise à jour d’un fichier de configuration (141), ladite mise à jour comprenant l’augmentation de la probabilité de distribution du paramètre caractérisant chaque label déterminé.Method according to claim 1, in which the generation comprises updating a configuration file (141), said updating comprising increasing the probability of distribution of the parameter characterizing each determined label. Procédé selon l’une quelconque des revendications précédentes, dans lequel l’au moins une donnée extraite est sélectionnée parmi, l’angle d’orientation de la caméra (20) par rapport à la tête d’une personne située dans l’habitacle, la luminosité, la taille de l’objet à détecter et la position de l’objet ou de la caméra (20) dans l’habitacle.Method according to any one of the preceding claims, in which the at least one piece of data extracted is selected from, the angle of orientation of the camera (20) with respect to the head of a person located in the passenger compartment, the luminosity, the size of the object to be detected and the position of the object or of the camera (20) in the passenger compartment. Procédé selon l’une quelconque des revendications précédentes, dans lequel les paramètres comprennent l’un parmi le nombre d’occupants d’un véhicule, leur taille, la forme de leur visage, la couleur de leur peau ou la longueur de leurs cheveux.A method according to any preceding claim, wherein the parameters include one of the number of occupants of a vehicle, their height, face shape, skin color or hair length. Procédé selon l’une quelconque des revendications précédentes, comprenant une étape préliminaire initiale de génération de l’ensemble d’entrainement (110) comprenant une pluralité d’images de référence.A method according to any preceding claim, comprising an initial preliminary step of generating the training set (110) comprising a plurality of reference images. Procédé selon la revendication précédente, dans lequel la génération initiale de l’ensemble d’entrainement (110) est une génération automatique d’une pluralité d’images de référence synthétisées à partir d’un ensemble de paramètres caractérisant chacun un label et dont la probabilité de distribution est égale.Method according to the preceding claim, in which the initial generation of the training set (110) is an automatic generation of a plurality of reference images synthesized from a set of parameters each characterizing a label and whose distribution probability is equal. Produit programme d’ordinateur caractérisé en ce qu’il comporte un ensemble d’instructions de code de programme qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs, configurent le ou les processeurs pour mettre en œuvre un procédé selon l’une quelconque des revendications précédentes.Computer program product characterized in that it comprises a set of program code instructions which, when executed by one or more processors, configure the processor or processors to implement a method according to any previous claims. Module de traitement d’images (10), notamment pour véhicule automobile, ledit module de traitement d’images (10) comprenant un ensemble d’entrainement (110) et un classifieur (120), ledit classifieur (120) étant configuré pour :
- recevoir une séquence d’images,
- être entrainé sur la séquence d’images reçue afin de générer un ensemble d’entrainement (110) comprenant une pluralité d’images de référence,
- classifier les images de la séquence à partir dudit ensemble d’entrainement (110) en réalisant au moins une détection incorrecte de l’élément dans au moins l’une des images (I_inc),
- extraire au moins une donnée de ladite au moins une image (I_inc) pour laquelle une détection incorrecte de l’élément a été réalisée, ladite au moins une donnée étant associée avec au moins un label, pour déterminer l’au moins un label à partir de l’au moins une donnée extraite, pour générer automatiquement une pluralité d’images de référence synthétisées dans laquelle la probabilité de distribution d’un paramètre caractérisant chaque label déterminé est augmentée, et pour ajouter la pluralité d’images de référence synthétisées générées à l’ensemble d’entrainement (110).
Image processing module (10), in particular for a motor vehicle, said image processing module (10) comprising a drive assembly (110) and a classifier (120), said classifier (120) being configured to:
- receive a sequence of images,
- be trained on the sequence of images received in order to generate a training set (110) comprising a plurality of reference images,
- classifying the images of the sequence from said training set (110) by carrying out at least one incorrect detection of the element in at least one of the images (I_inc),
- extracting at least one datum from said at least one image (I_inc) for which an incorrect detection of the element has been carried out, said at least one datum being associated with at least one label, to determine the at least one label to be from the at least one datum extracted, to automatically generate a plurality of synthesized reference images in which the distribution probability of a parameter characterizing each determined label is increased, and to add the plurality of generated synthesized reference images to the drive assembly (110).
Module de traitement d’images (10) selon la revendication précédente, ledit module de traitement d’images (10) étant configuré pour, lors de la génération, mettre à jour un fichier de configuration (141) en augmentant la probabilité de distribution du paramètre caractérisant chaque label déterminé.Image processing module (10) according to the preceding claim, said image processing module (10) being configured to, during generation, update a configuration file (141) by increasing the probability of distribution of the parameter characterizing each determined label. Véhicule (1) automobile comprenant une caméra (20), configurée pour générer une séquence d’images, et un module de traitement d’images (10) selon l’une quelconque des revendications 8 ou 9.Automotive vehicle (1) comprising a camera (20), configured to generate a sequence of images, and an image processing module (10) according to any one of claims 8 or 9.
FR2111195A 2021-10-21 2021-10-21 Process for optimizing the detection of an element in an image Pending FR3128562A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR2111195A FR3128562A1 (en) 2021-10-21 2021-10-21 Process for optimizing the detection of an element in an image
FR2205887A FR3128563A1 (en) 2021-10-21 2022-06-16 Process for optimizing the detection of an element in an image
PCT/EP2022/078563 WO2023066790A1 (en) 2021-10-21 2022-10-13 Method for optimising the detection of an element in an image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2111195 2021-10-21
FR2111195A FR3128562A1 (en) 2021-10-21 2021-10-21 Process for optimizing the detection of an element in an image

Publications (1)

Publication Number Publication Date
FR3128562A1 true FR3128562A1 (en) 2023-04-28

Family

ID=83506488

Family Applications (2)

Application Number Title Priority Date Filing Date
FR2111195A Pending FR3128562A1 (en) 2021-10-21 2021-10-21 Process for optimizing the detection of an element in an image
FR2205887A Pending FR3128563A1 (en) 2021-10-21 2022-06-16 Process for optimizing the detection of an element in an image

Family Applications After (1)

Application Number Title Priority Date Filing Date
FR2205887A Pending FR3128563A1 (en) 2021-10-21 2022-06-16 Process for optimizing the detection of an element in an image

Country Status (1)

Country Link
FR (2) FR3128562A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8422797B2 (en) * 2009-07-01 2013-04-16 Honda Motor Co., Ltd. Object recognition with 3D models
US9031317B2 (en) * 2012-09-18 2015-05-12 Seiko Epson Corporation Method and apparatus for improved training of object detecting system
US10552665B2 (en) * 2017-12-12 2020-02-04 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
WO2020014286A1 (en) * 2018-07-12 2020-01-16 Flir Commercial Systems, Inc. Closed loop automatic dataset creation systems and methods

Also Published As

Publication number Publication date
FR3128563A1 (en) 2023-04-28

Similar Documents

Publication Publication Date Title
CN108764202B (en) Airport foreign matter identification method and device, computer equipment and storage medium
EP3640843B1 (en) Method for extracting characteristics of a fingerprint represented by an input image
EP3572976A1 (en) Method for processing a video image stream
CA2457271C (en) Process using several images for the optical recognition of mail
EP3570212A1 (en) Character recognition method
EP3570213A1 (en) Character recognition method
BE1025006A1 (en) COMPUTER-IMPLEMENTED PROCESS AND OPTICAL CHARACTER RECOGNITION SYSTEM
CN110046701B (en) Method for processing and generating image data in a connected network
WO2004002637A1 (en) Method for detecting single postal covers and postal covers stuck together in a mail sorting machine
FR3128562A1 (en) Process for optimizing the detection of an element in an image
EP3428841B1 (en) Method for fraud detection during iris recognition
WO2015132531A1 (en) Method for analysing sedimentary samples with automatic recognition of nanofossils
WO2019129985A1 (en) Method for forming a neural network for the recognition of a sequence of characters, and associated recognition method
WO2023066790A1 (en) Method for optimising the detection of an element in an image
EP1840799A1 (en) Method using the multi-resolution of images for optical recognition of postal shipments
FR3083352A1 (en) METHOD AND DEVICE FOR FAST DETECTION OF REPETITIVE STRUCTURES IN THE IMAGE OF A ROAD SCENE
EP4099228A1 (en) Automatic learning without annotation improved by adaptive groupings in open assembly of classes
FR3038760A1 (en) DETECTION OF OBJECTS BY PROCESSING IMAGES
EP3956809A1 (en) Image processing method for an identity document
FR3127602A1 (en) method for generating an augmented image and associated device
EP3929809A1 (en) Method of detection of at least one visible biometric trait on an input image by means of a convolutional neural network
CA3161385A1 (en) Method for segmenting an input image showing a document containing structured information
WO2019002236A1 (en) Processing data obtained from an obstacle detector
FR3072931A1 (en) DATA PROCESSING METHOD FOR VEHICLE DRIVER ASSISTANCE SYSTEM AND DRIVING ASSISTANCE SYSTEM
FR3049094A1 (en) METHOD OF IDENTIFYING A SET OF ROW BOOKS TO AUTOMATICALLY ESTABLISH THEIR LIST

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2