FR3102597A1 - Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible - Google Patents

Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible Download PDF

Info

Publication number
FR3102597A1
FR3102597A1 FR1912142A FR1912142A FR3102597A1 FR 3102597 A1 FR3102597 A1 FR 3102597A1 FR 1912142 A FR1912142 A FR 1912142A FR 1912142 A FR1912142 A FR 1912142A FR 3102597 A1 FR3102597 A1 FR 3102597A1
Authority
FR
France
Prior art keywords
target
camera
pattern
characteristic
light signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1912142A
Other languages
English (en)
Other versions
FR3102597B1 (fr
Inventor
Damien JOUBERT
Christophe Lavergne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR1912142A priority Critical patent/FR3102597B1/fr
Publication of FR3102597A1 publication Critical patent/FR3102597A1/fr
Application granted granted Critical
Publication of FR3102597B1 publication Critical patent/FR3102597B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

L’invention concerne une méthode de détermination d’une caractéristique d’une cible (C) par un véhicule (V), le véhicule (V) comprenant une caméra (2) mixte qui peut alterner entre une utilisation synchrone dans laquelle, à intervalle de temps régulier, l’ensemble des signaux générés par les pixels photosensibles est enregistré sur une mémoire, et une utilisation asynchrone dans laquelle la caméra enregistre sur la mémoire des évènements déclenchés par des changements relatifs de l’intensité lumineuse captée par les pixels photosensibles, la cible (C) comportant un dispositif (1) émettant un signal lumineux (L) modulé possédant au moins un motif prédéterminé. Selon l’invention, la méthode comprenant les étapes suivantes : - l’acquisition par la caméra (2) d’une série d’évènements, la cible (C) se trouvant dans le champ de vue de la caméra (2), - la reconnaissance du motif prédéterminé du signal lumineux (L) émis par la cible (C), à partir de la série d’évènements, - la détermination de la caractéristique de la cible (C) en fonction du motif prédéterminé. Figure pour l’abrégé : Fig. 1.

Description

Méthodede détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible
Domaine technique de l'invention
La présente invention concerne de manière générale la sécurité des véhicules automobiles.
Elle concerne plus particulièrement une méthode de détermination d’une caractéristique d’une cible par un véhicule.
Elle concerne également un véhicule automobile équipé d’un calculateur programmé pour mettre en œuvre une telle méthode.
Elle concerne aussi une cible équipée d’un calculateur programmé pour que la cible puisse être caractérisée par le véhicule.
Etat de la technique
Actuellement, les systèmes vidéo d’aide à la conduite servant à détecter des cibles sont des systèmes passifs, c’est-à-dire qu’ils utilisent l’image d’une scène pour reconnaitre des cibles, telles que des véhicules ou des piétons, au moyen d’algorithmes d’analyse d’images, de reconnaissance de formes et de classification de données.
Ces systèmes permettent d’assister le conducteur dans son interaction avec l’environnement (détecteurs de dépassement, de franchissement de lignes, détection de piétons ou véhicules, freinage d’urgence) de manière à limiter l’apparition de situations dangereuses pouvant mener à un accident.
Les systèmes vidéo pour la reconnaissance passive de cibles sont bien connus. Le document EP2219133 présente par exemple une méthode pour détecter des objets situés en face d’un véhicule en comparant les images acquises par une caméra à des modèles préenregistrés.
Néanmoins, ces systèmes sont limités par la quantité de données à traiter et les performances des algorithmes d’analyse, à la fois en termes de rapidité et en terme de précision. Ces limites deviennent notamment critiques pour des applications telles que le freinage d’urgence où les temps de réaction requis sont très faibles. La robustesse des algorithmes actuels, par exemple la capacité de déduire d’une image que la cible est un camion, n’est pas suffisamment élevée, ce qui signifie dans notre exemple que dans certains cas (mauvaise visibilité, cible trop lointaine), le camion sera classifié comme une voiture ou même ne sera pas détecté du tout.
Présentation de l'invention
Afin d’améliorer les performances des systèmes vidéo d’aide à la conduite, la présente invention propose un système vidéo mixte basé sur la détection d’un signal lumineux modulé émis par une cible.
Plus particulièrement, on propose selon l’invention une méthode de détermination d’une caractéristique d’une cible par un véhicule, le véhicule comprenant une caméra mixte qui comprend une matrice de pixels photosensibles aptes à générer un signal électrique représentatif de l’intensité lumineuse qu'ils captent, et qui peut alterner entre un mode d’utilisation synchrone dans lequel, à intervalle de temps régulier, l’ensemble des signaux générés par les pixels photosensibles est enregistré sur une mémoire, et un mode d’utilisation asynchrone dans lequel la mémoire enregistre des évènements déclenchés par des changements relatifs de l’intensité lumineuse captée par les pixels photosensibles de la caméra, la cible comportant un dispositif émettant un signal lumineux modulé possédant au moins un motif prédéterminé, la méthode comprenant les étapes suivantes :
- une étape d’acquisition asynchrone dans laquelle la caméra, en utilisation asynchrone, acquiert une série d’évènements, la cible se trouvant dans le champ de vue de la caméra,
- une étape de reconnaissance du motif prédéterminé du signal lumineux émis par le dispositif de la cible, à partir de la série d’évènements acquise à l’étape d’acquisition asynchrone, et
- une étape de détermination d’une caractéristique, au cours de laquelle la caractéristique de la cible est déterminée en fonction du motif prédéterminé reconnu à l’étape de reconnaissance du motif.
Ainsi, l’invention propose de faire en sorte que la cible émette de la lumière d’une façon permettant au véhicule de la caractériser facilement et rapidement. De ce fait, les algorithmes de reconnaissance de cibles mis en œuvre par le calculateur embarqué dans le véhicule sont plus légers et permettent une reconnaissance très rapide de ces cibles, ce qui convient pour des applications telles que le freinage d’urgence.
Utiliser une caméra en mode asynchrone sur une voiture peut sembler contre-productif, puisque, la voiture étant en mouvement, presque toute la scène que filme la caméra est en mouvement.
Mais dans le cadre de la détection d’un signal lumineux modulé à haute fréquence, cela présente l’avantage de limiter la quantité d’informations à traiter. En effet, sur une période d’acquisition très courte, ce ne sont presqu’exclusivement que les pixels photosensibles recevant le signal lumineux modulé émis par le dispositif de la cible qui vont transmettre de l’information.
Avantageusement, la méthode comprend en outre les étapes suivantes :
- une étape d’acquisition synchrone dans laquelle la caméra, en utilisation synchrone, acquiert au moins une image sur laquelle la cible apparait,
- une étape de détermination d’une forme générale de la cible, à partir au moins de l’image acquise à l’étape d’acquisition synchrone,
et à l’étape de détermination d’une caractéristique, la caractéristique de la cible est déterminée en fonction également de la forme générale de la cible déterminée à l’étape de détermination d’une forme.
Ainsi, les systèmes vidéo d’aide à la conduite classiques peuvent être utilisés dans le cadre de la présente invention sans modifier leur fonctionnement actuel. Ils sont alors utilisés en parallèle de la détection d’un signal lumineux modulé. La fusion de ces deux modes de détection permet de ne pas perturber les systèmes actuellement sur le marché ; de rendre plus robuste la détections de cibles porteuses de sources de lumière modulée ; de mieux définir les régions d’intérêt dans les images à analyser.
On comprend alors que cette innovation peut être implémentée de façon graduelle dans le parc automobile actuel. Les cibles souhaitant être mieux détectées vont progressivement s’équiper de source de lumière modulée.
D’autres caractéristiques avantageuses et non limitatives de la méthode conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :
- à l’étape d’acquisition synchrone, il est prévu d’acquérir l’image sur une durée inférieure ou égale à 20 ms ;
- à l’étape d’acquisition asynchrone, les évènements de la série sont horodatés et la série est préférentiellement acquise sur une durée inférieure à 5 ms ;
- à l’étape de détermination d’une forme, une position de la cible dans l’image est déterminée et à l’étape de reconnaissance du motif, le motif prédéterminé est recherché seulement parmi la série d’événements provenant d’un ensemble restreint de pixels photosensibles de la caméra, l’ensemble restreint étant déduit de la position de la cible dans l’image ;
- le signal lumineux émis par le dispositif de la cible est modulé à une fréquence de modulation comprises entre 5 kHz et 100 kHz ;
- le signal lumineux émis par le dispositif de la cible possède un motif caractérisé par une ou des fréquences et/ou un rapport de cycle, et le motif est reconnu en déterminant la ou les fréquences et/ou le rapport de cycle ;
- chaque motif comprend une première suite de deux groupes de deux périodes, les périodes de l’un des groupes étant modulées à une fréquence de modulation prédéterminée différente de la fréquence de modulation des périodes de l’autre des groupes, et une seconde suite de deux groupes identique à la première ;
- le dispositif émettant un signal lumineux multi-spectral comprenant une pluralité de bandes spectrales, chacune possédant au moins un motif prédéterminé, la caméra mixte étant une caméra multi-spectrale :
i) à l’étape de reconnaissance du motif, la reconnaissance du motif de chaque bande spectrale est effectuée ;
ii) à l’étape de détermination d’une caractéristique, la détermination de la caractéristique de la cible prend en compte le motif de chaque bande spectrale reconnu à l’étape de reconnaissance du motif ;
- la caractéristique de la cible comprend au moins l’un des paramètres suivants :
i) le type de véhicule qu’est la cible ;
ii) la vitesse de la cible ;
iii) l’accélération de la cible ;
iv) le fait que la cible soit en freinage d’urgence.
L’invention propose également un véhicule automobile comprenant un calculateur et une caméra mixte qui comprend une matrice de pixels photosensibles aptes à générer un signal électrique représentatif de l’intensité lumineuse qu'ils captent, et qui peut alterner entre un mode d’utilisation synchrone dans lequel, à intervalle de temps régulier, l’ensemble des signaux générés par les pixels photosensibles est enregistré sur une mémoire, et un mode d’utilisation asynchrone dans lequel la mémoire enregistre des évènements déclenchés par des changements relatifs de l’intensité lumineuse captée par les pixels photosensibles, le calculateur étant programmé pour mettre en œuvre une méthode de détermination d’une caractéristique d’une cible comportant un dispositif émettant un signal lumineux modulé possédant au moins un motif prédéterminé, la méthode comprenant les étapes suivantes :
- une étape d’acquisition asynchrone dans laquelle la caméra, en utilisation asynchrone, acquiert une série d’évènements, la cible se trouvant dans le champ de vue de la caméra,
- une étape de reconnaissance du motif prédéterminé du signal lumineux émis par le dispositif de la cible, à partir de la série d’évènements acquise à l’étape d’acquisition asynchrone,
- une étape de détermination d’une caractéristique, au cours de laquelle de la caractéristique de la cible est déterminée en fonction du motif prédéterminé reconnu à l’étape de reconnaissance du motif.
L’invention propose également une cible comportant un dispositif adapté à émettre un signal lumineux et un calculateur, le calculateur étant programmé pour moduler le signal lumineux de façon à ce qu’il présente un motif prédéterminé qui caractérise la cible
Bien entendu, les différentes caractéristiques, variantes et formes de réalisation de l'invention peuvent être associées les unes avec les autres selon diverses combinaisons dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres.
Description détaillée de l'invention
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.
Sur les dessins annexés :
est une représentation schématique d’une cible et d’un véhicule conformés pour mettre en œuvre la méthode selon l’invention ;
est un schéma bloc d’une séquence d’étapes permettant la détermination d’une caractéristique de la cible par le véhicule de la figure 1 ;
est une représentation schématique d’un signal lumineux carré émis par une source de lumière de la cible de la figure 1.
Sur la figure 1, on a représenté les éléments essentiels à la réalisation de la méthode selon l’invention. Une cible C est équipée d’un dispositif 1 conçu pour émettre un signal lumineux L modulé. Un véhicule V, ici un véhicule automobile, est équipé d’une caméra 2.
Ce véhicule V peut être de tout type (voiture, camion, moto, bateau, avion…). Il est prévu pour fonctionner de façon autonome ou de façon pilotée par un usager.
Classiquement, le véhicule V comprend une unité électronique de calcul et de commande, encore appelée calculateur. Ce calculateur comprend une unité de mémorisation ou mémoire. C’est sur cette mémoire que sont par exemple enregistrées les évènements et les images acquis par la caméra 2. Dans le contexte de l’invention, le calculateur est connecté à la caméra 2 de manière à traiter les informations acquises par la caméra 2. Le calculateur est en outre programmé pour mettre en œuvre le procédé qui sera décrit ci-après.
Sur la figure 1, la cible C est schématiquement représentée par une voiture mais il pourrait s’agir de tout type d’objet se trouvant sur ou à côté de la route. Ainsi, la cible C peut être un piéton, un vélo, une voiture, un camion etc… On pourrait aussi prévoir que la cible C soit un objet fixe par rapport à la route comme une barrière de passage à niveau ou le tablier d’un pont. En pratique, la cible C est principalement définie par le fait d’être équipée du dispositif 1 conçu pour émettre un signal lumineux L modulé.
Le dispositif 1 conçu pour émettre un signal lumineux L modulé comporte une source de lumière, par exemple une diode électroluminescente (ci-après appelée « LED »), un ensemble de LED ou un laser. Ici, le spectre du signal lumineux L modulé est situé dans le spectre de la lumière visible ou dans l’infrarouge.
Ce dispositif 1 est spécifiquement conçu pour l’invention, ce qui facilite sa conception. En variante, le dispositif 1 pourrait être un feu avant ou arrière d’un véhicule.
Le dispositif 1 comporte en outre un circuit électronique ici programmé pour moduler le signal lumineux L en fréquence et en rapport de cycle. Ces deux modes de modulation ont l’avantage d’avoir une faible distorsion de propagation. A contrario, le signal lumineux L pourrait être modulé en amplitude mais l’intensité du signal acquis par la caméra 2 (et donc la justesse de la détection) dépendrait alors de la distance entre la caméra 2 et le dispositif 1 et des conditions de visibilité.
Dans un premier mode de réalisation, le dispositif 1 émet une lumière mono-spectrale. Ici, la source de lumière du dispositif 1 est une LED possédant deux états : un état « allumée », lorsqu’elle est sous tension, où elle émet de la lumière ; un état « éteint », lorsqu’elle est hors tension, où elle n’émet pas de lumière. La LED permet donc d’émettre un signal carré modulé en alternant les états « allumés » et « éteints ». Ce système à LED a l’avantage d’être très simple à mettre en place, d’être particulièrement résistant et de consommer peu d’énergie. La fréquence du signal lumineux L émis par la LED peut être modulée en ajustant les temps de passage d’un état à l’autre et le rapport de cycle peut être modulé en ajustant la durée des états « allumés » par rapport à la durée des états « éteints ».
Dans un second mode de réalisation, le dispositif 1 émet une lumière multi-spectrale. Ici, la source de lumière du dispositif 1 est un ensemble de LED émettant à des longueurs d’onde différentes. A titre d’exemple, avec quatre LED, on peut prévoir que le dispositif 1 soit un système d’émission quadri-bandes émettant dans le proche infrarouge, le rouge, le vert et le bleu. Comme dans le premier mode de réalisation, chaque LED possède deux états et peut émettre un signal carré modulé en fréquence et en rapport de cycle.
La caméra 2 comprend une matrice de pixels photosensibles. Les pixels photosensibles génèrent, par effet photoélectrique, un signal électrique représentatif de l’intensité lumineuse qu'ils captent.
La caméra 2 est une caméra mixte qui peut permuter entre deux modes de fonctionnement, un mode synchrone et un mode asynchrone.
En variante, la caméra 2 est un système comprenant deux capteurs d’images, un capteur synchrone et un capteur asynchrone.
En mode synchrone, le calculateur enregistre sur la mémoire, à une fréquence donnée appelée fréquence d’échantillonnage, c’est-à-dire à intervalle de temps régulier, l’ensemble des signaux électriques générés par les pixels photosensibles. La récupération de l’ensemble des signaux est réglée par un signal d’horloge. Classiquement, avec une fréquence d’échantillonnage de 50 Hz, la caméra 2 produit une image de l’ensemble d’une scène se trouvant dans son champ de vue toutes les 20 millisecondes (ms).
Ici, en utilisation synchrone, la caméra 2 possède une fréquence d’échantillonnage d’au moins jusqu’à 50 Hz.
En mode asynchrone, les pixels photosensibles peuvent fonctionner indépendamment les uns des autres. Ils possèdent en outre des fonctions de traitement élémentaires qui leur permettent d’envoyer des requêtes au calculateur. L’envoi d’une requête est déclenché par un changement relatif (une augmentation ou une diminution) de l’intensité lumineuse reçue par le pixel photosensible qui est supérieure à une valeur seuil. Ce changement est qualifié de relatif car la valeur seuil peut être fonction de l’intensité lumineuse que reçoit le pixel photosensible. Par exemple, un changement de luminosité de plus ou moins 10% peut déclencher l’envoi d’une requête. En termes techniques, lorsque la tension aux bornes d’un pixel photosensible croit (ou décroit) au-dessus (ou en dessous) d’une tension de référence, on considère que le pixel photosensible est actif et contient une nouvelle information qui doit être enregistrée. Ainsi, en mode asynchrone, seule une partie des signaux générés par les pixels photosensibles de la caméra 2 est enregistrée sur la mémoire du calculateur à chaque intervalle de temps (sauf à ce que le signal change au niveau de chaque pixel, ce qui sera ici très improbable).
Lorsque le calculateur reçoit une requête d’un pixel photosensible, il enregistre un évènement comprenant une information sur la position du pixel photosensible dans la matrice de pixel photosensible et une information sur la valeur du changement relatif d’intensité lumineuse sur le pixel photosensible. La position du pixel photosensible dans la matrice est également appelée son adresse, d’où le nom de protocole « AER », de l’anglais Adress Event Representaion (représentation de l’évènement par son adresse), pour ce mode de lecture des signaux générés par les pixels photosensibles. Tous les évènements sont horodatés avec précision. Ils sont horodatés avec d’autant plus de précision que le nombre d’évènements est faible.
Ainsi, une image peut être reconstruite sur la base d’une combinaison entre une image antérieure et les changements relatifs d’intensité lumineuse captés par certains pixels photosensibles. Le mode asynchrone permet donc d’enregistrer uniquement les parties animées de la scène. Le nombre limité de signaux à traiter pour le calculateur permet de réduire la bande passante et la puissance de calcul nécessaire pour traiter les images et permet également une bonne datation de l’information transmise.
En mode asynchrone, le temps de réaction des pixels photosensibles, c’est-à-dire le délai minimum entre les envois de deux requêtes successives, est très faible, de l’ordre que quelques microsecondes. Cela permet de suivre des variations très rapides d’intensité lumineuse.
Dans le premier mode de réalisation, la caméra 2 équipant le véhicule V est une caméra monochrome. Par exemple une caméra noir et blanc ou une caméra infrarouge.
Dans le second mode de réalisation, afin de pouvoir analyser un signal lumineux L multi-spectral, la caméra 2 est une caméra multi-spectrale. Une telle caméra multi-spectrale peut, en une seule acquisition, acquérir des images à plusieurs longueurs d’onde, plus précisément sur plusieurs bandes spectrales, ces images pouvant ensuite être analysées individuellement ou de façon combinée. Des techniques de démodulation permettent de retrouver la phase du signal lumineux L émis par le dispositif 1. Nous verrons plus tard que cela augmente la quantité d’information qui peut être transmise de la cible C au véhicule V.
En pratique, ce second mode de réalisation n’est pas limité à un signal lumineux L quadri-bandes (ou même tri-bandes). L’évolution des caméras multi-spectrales permettra d’utiliser encore plus de bandes spectrales (seize ou même trente-deux) et donc de transmettre encore plus d’informations entre la cible C et le véhicule V.
La méthode, mise en œuvre conjointement par le dispositif 1, la caméra 2 et le calculateur du véhicule V, est une méthode qui permet de déterminer une caractéristique d’une cible C.
Sur la figure 2 est représenté l’ensemble des étapes de détermination d’une caractéristique d’une cible C dont le dispositif 1 émet un signal lumineux L modulé possédant au moins un motif prédéterminé.
Par « motif prédéterminé », on entend que le signal lumineux L présente une forme périodique dont les caractéristiques sont associées à une caractéristique de la cible C. Le motif est notamment qualifié de prédéterminé en ce que sa forme est associée à une caractéristique selon une table de correspondance convenue en amont. Le motif est caractérisé par ses variations temporelles, on peut donc le qualifier de motif temporel.
Cette méthode comprend deux procédures pouvant être combinées. En variante, seule la première de ces procédures pourrait être mise en œuvre.
Cette première procédure comprend les étapes d’acquisition asynchrone e2, de reconnaissance du motif e5 et de détermination d’une caractéristique e6. Elle est appelée procédure d’imagerie rapide. Elle utilise le signal lumineux L modulé et la caméra 2 en mode asynchrone.
Une seconde procédure comprend les étapes d’acquisition synchrone e3, de détermination d’une forme e4 et de détermination d’une caractéristique e6. Cette seconde procédure est appelée procédure d’imagerie classique car elle met en œuvre des méthodes de détection passive déjà présentes sur le marché et la caméra 2 en mode synchrone.
Dans un premier temps, nous décrirons en détail la procédure d’imagerie rapide. Puis nous décrirons la procédure d’imagerie classique, assez brièvement, et surtout, nous décrirons la combinaison de ces deux procédures.
Dans la procédure d’imagerie rapide, la cible C émet, par l’intermédiaire du dispositif 1, un signal lumineux L modulé de motif prédéterminé. Ce motif permet de transmettre une information sur une caractéristique de la cible C au véhicule V. En pratique, les caractéristiques de la cible C peuvent être le type d’objet qu’est la cible C (piéton, voiture, structure …) ; la vitesse de la cible C ; l’accélération de la cible C ; le fait que la cible C soit en freinage d’urgence ; ou toute autre information utile notamment pour éviter une collision.
Ce motif peut donc être toujours le même (par exemple s’il ne fournit qu’une information qui est le type de la cible) ou peut être calculé et modifié en temps réel par le circuit électronique équipant le dispositif 1 de la cible C (ce circuit devant alors comporter des moyens d’acquisition de données dynamiques de la cible C telles que sa vitesse).
La détermination du motif par le véhicule V informe alors ce dernier sur au moins une caractéristique de la cible C.
De façon préférentielle, un motif est caractérisé par une fréquence de modulation et/ou un rapport de cycle. La fréquence de modulation est comprise entre 5 kHz et 100 kHz. Le signal modulé peut par exemple prendre 5 valeurs de rapport de cycle : 25%, 37,5%, 50%, 62,5%, 75%. Une LED d’un dispositif 1 émettant un signal lumineux L modulé avec un rapport de cycle de 50% aura des états « allumés » aussi long que les états « éteints ». Une LED d’un dispositif 1 émettant un signal lumineux L modulé avec un rapport de cycle de 75% aura des états « allumés » trois fois plus longs que les états « éteints ».
En pratique, le rapport de cycle réglé est à 50% et le motif est uniquement caractérisé pas la ou les fréquences de modulation qu’il comprend.
Dans cette perspective, un motif est défini par une séquence de fréquences. Une séquence de fréquences est une suite de groupes d’un nombre défini de périodes à une certaine fréquence de modulation. Ici, un motif est une séquence de deux fréquences répétées une fois. Ainsi, un motif est représenté par deux groupes à deux fréquences répétées une fois, chaque groupe comprenant deux périodes de modulation.
La figure 3 montre un exemple d’un tel motif. Ce motif comprend deux périodes à 5 kHz suivies de deux périodes à 10 kHz, cela répété une fois. Ce motif est donc caractérisé par la séquence 5-10-5-10 (kHz). Dans cet exemple, les états de la LED (ligne du haut) sont espacés de 0,05 ms, le premier groupe G1 a une durée de 0,4 ms, le deuxième groupe G2 à une durée de 0,2 ms et le motif M1 a une durée totale de 1,2 ms.
Ainsi, par exemple, on peut considérer qu’un tel motif (figure 3) peut transmettre l’information que la cible C est une voiture et un motif défini par la séquence de fréquences 15-10-15-10 (kHz) peut transmettre l’information que cible C est un camion.
D’autres configurations de motifs sont envisageables, par exemple avec plus ou moins de périodes par groupe ou plus ou moins de fréquences dans la séquence de fréquences.
A l’étape d’acquisition asynchrone e2, la caméra 2 du véhicule V acquière, en mode d’utilisation asynchrone, une série d’évènements, la cible C se trouvant alors dans le champ de vue de la caméra 2. La durée d’acquisition étant faible, de l’ordre de quelques millisecondes, les pixels photosensibles qui adressent des requêtes au calculateur sont principalement ceux qui reçoivent le signal lumineux L.
En effet, si on observe une scène sur un intervalle de temps de l’ordre de la milliseconde, la plus grande partie de la scène vue par la caméra 2 est immobile. Par contre, si dans la scène se trouve une source lumineuse modulée à plusieurs kilohertz, par exemple à 10 kHz, alors le signal lumineux L va déclencher dix évènements positifs (augmentation de l’intensité lumineuse) et dix évènements négatifs (diminution de l’intensité lumineuse) sur quelques pixels photosensibles de la caméra 2 pendant cette période d’observation.
Ainsi la quantité d’informations à traiter est faible et les évènements peuvent être horodatés avec une grande précision. Cet horodatage très précis permet au calculateur de facilement déterminer la ou les fréquences de modulation du signal lumineux L.
Les pixels photosensibles sont aptes à adresser des requêtes à une fréquence d’au moins 200 kHz. Le signal lumineux L émis par la cible C peut donc être modulé au moins jusqu’à 100 kHz.
Avantageusement, la durée d’acquisition à l’étape d’acquisition asynchrone e2 est inférieure à 5 ms. Cela permet d’une part, comme nous l’avons vu, d’acquérir des évènements sur une durée courte pour limiter l’envoi de requêtes aux seuls pixels photosensibles captant le signal lumineux L. Et d’autre part, cela permet d’alterner rapidement les procédures d’imagerie rapide et d’imagerie classique. Cette faible durée d’acquisition est possible grâce à la modulation à très haute fréquence du signal lumineux L, ce qui permet d’avoir un motif de très courte durée, ici d’une durée de moins de 5 ms (par exemple 1,2 ms dans l’exemple de la figure 3). Pour capter cette modulation très haute fréquence, la caméra 2 est utilisée en mode asynchrone.
Lors de la procédure d’acquisition rapide, les données de chaque pixel photosensible de la caméra 2 sont acquises par le calculateur et enregistrées dans sa mémoire.
A l’étape de reconnaissance du motif e5, le calculateur tente de reconnaitre le motif prédéterminé de la cible C, à partir de la série d’évènements acquise à l’étape d’acquisition asynchrone e2. Le motif est reconnu en analysant, grâce à un algorithme, les données des pixels photosensibles qui ont reçu le signal lumineux L. Cette analyse permet de déterminer la ou les fréquences et/ou le rapport de cycle du signal lumineux L acquis par la caméra 2, ce qui permet alors de reconnaitre le motif. Ici, le motif est reconnu en déterminant la séquence de fréquences du signal lumineux L.
La détection des fréquences de la séquence de fréquences est simple à réaliser à partir du moment où les évènements déclenchés par le signal lumineux L sont horodatés avec précision.
Par exemple, si sur un pixel photosensible captant le signal lumineux L, un évènement négatif est déclenché 0,05 ms après un évènement positif puis un autre évènement positif est déclenché 0,05 ms après l’évènement négatif, le signal lumineux L contient au moins la fréquence 10 kHz.
A l’étape de détermination d’une caractéristique e6, le calculateur détermine la caractéristique de la cible C en fonction du motif prédéterminé reconnu à l’étape de reconnaissance du motif e5. Cela nécessite l’existence d’un langage commun, c’est-à-dire un standard, entre la cible C et le véhicule V. Un motif, ici une séquence de fréquences, renseigne sur une caractéristique de la cible C, par exemple son type ou sa vitesse.
Dans le premier mode de réalisation, le dispositif 1 de la cible C émet un signal lumineux L monochrome. Avec un tel signal, sur la base d’un motif à deux fréquences (répétées deux fois), le nombre de motifs disponibles est extrêmement grand. En effet, la caméra 2 en mode asynchrone est par exemple capable de distinguer les fréquences 10 kHz et 9 kHz, soit une précision relative de 10%. On comprend bien qu’avec des fréquences de modulation pouvant varier entre 5 KHz et 100 kHz, le nombre de motifs disponibles est très élevé.
Tous ces motifs disponibles sont autant de façons de coder une information que la cible C souhaite transmettre au véhicule V, c’est-à-dire une caractéristique de la cible C. Avec cent motifs disponibles, la cible C peut par exemple transmettre cent valeurs de vitesse différentes, par exemple de 0 à 200 km/h par pas de 2 km/h.
Dans le deuxième mode de réalisation, le dispositif 1 de la cible C émet un signal lumineux L multi-spectral comprenant une pluralité de bandes spectrales, et chaque bande spectrale possède un motif prédéterminé. La caméra 2 multi-spectrale est capable, lors de l’étape d’acquisition asynchrone e2, d’acquérir le signal de chaque bande spectrale indépendamment et de façon synchronisée.
A l’étape reconnaissance du motif e5, le motif de chaque bande spectrale est reconnu. Cela permet, à l’étape de détermination d’une caractéristique e6, de déterminer une caractéristique de la cible C en prenant en compte le motif de chaque bande spectrale reconnu à l’étape reconnaissance du motif e5. Ainsi, la caractéristique de la cible C peut être encodée par une combinaison de motifs, ce qui démultiplie le nombre d’information pouvant être transmises.
On peut signaler que les technologies des caméras évoluent dans le temps avec l’amélioration de la sensibilité et de la dynamique des pixels photosensibles, qui ont pourtant des dimensions toujours plus faibles. De même, de nouvelles technologies de filtres spectraux déposés sur chaque pixel photosensible ont vu le jour ces derniers temps. Il est aujourd’hui possible de déposer des filtres spectraux à bande étroites sur chaque pixel photosensible. Par conséquent, il est possible d’augmenter le nombre de bandes spectrales détectables de façon robuste par la caméra 2.
En considérant, dans ce second mode de réalisation, qu’un motif est une combinaison des motifs de chaque bande spectrale, le nombre de motifs disponibles peut donc être nettement supérieur à celui du premier mode de réalisation. Par exemple, le nombre de motifs disponibles peut donc être égal au nombre de motifs disponibles du premier mode de réalisation à la puissance 4 pour une source quadri-bandes. Dans ce cas, chaque cible C pourra être identifiée par un code spécifique avec certitude.
On peut ainsi prévoir que chaque cible C dispose de son propre identifiant.
La procédure d’imagerie classique comprend les étapes d’acquisition synchrone e3, de détermination d’une forme e4 et de détermination d’une caractéristique e6 représentées sur la figure 2. La procédure d’imagerie classique est identique pour les deux modes de réalisation.
Elle prévoit d’acquérir, en plus de la série d’évènements acquise en mode asynchrone, une ou des images à une fréquence d’échantillonnage prédéterminée.
Ainsi, à l’étape d’acquisition synchrone e3, la caméra 2 acquiert une série d’au moins une image sur laquelle la cible C apparaît. En pratique, la série d’images est acquise à une fréquence classique d’imagerie d’environ 50 Hz. Ici, une unique image est acquise lors de l’étape d’acquisition synchrone e3 avec un temps d’intégration de la caméra 2 de 20 ms. Le temps d’intégration est la durée pendant laquelle les pixels photosensibles de la caméra 2 accumulent des photons, le signal électrique qu’ils génèrent dépend du nombre de photons qu’ils ont accumulé.
A l’étape de détermination d’une forme e4, la forme générale de la cible C est déterminée à partir d’au moins une image de la série d’images acquises à l’étape d’acquisition synchrone e3, ici, à partir de l’unique image acquise en 20 ms. Pour cela, les techniques actuelles de reconnaissance d’images peuvent être mises en œuvre par le calculateur du véhicule V. Ces systèmes passifs, par exemple connus sous le nom ADAS (de l’anglais Advanced Driver Assistance Systems), déjà présents dans de nombreux véhicules, ne seront pas présentés dans ce document.
A l’étape de détermination d’une caractéristique e6, une caractéristique de la cible C est déterminée en fonction également de la forme générale de la cible C déterminée à l’étape de détermination d’une forme e4. La forme générale de la cible C permet, par exemple, de déterminer le type d’objet qu’est la cible C ou d’en estimer la distance (une cible C plus petite est probablement plus loin).
Comme déjà mentionné, un des grands intérêts de l’invention est de pouvoir coupler la procédure d’imagerie rapide avec la procédure d’imagerie classique. Les séries d’acquisitions des étapes d’acquisition asynchrone e2 et d’acquisition synchrone e3 peuvent s’alterner très rapidement. Par exemple, une série d’évènements est acquise en mode asynchrone pendant 5 ms (étape e2) puis une image classique est acquise sur 20 ms (étape e3). Ce schéma peut ensuite être répété. Cela est rendu possible grâce à la faible durée d’acquisition de chaque procédure.
A chaque nouvelle acquisition d’une série d’évènements, par exemple toutes les 25 ms, le motif du signal lumineux L peut changer. Cela permet de suivre en direct l’évolution d’une caractéristique de la cible C, comme par exemple sa vitesse. En pratique, une actualisation des caractéristiques de la cible C toutes les 25 ms est plus que suffisante, et il est plus judicieux de répéter un motif plus longtemps (de l’ordre de la seconde) pour rendre sa détermination par le véhicule V plus robuste.
Puisque le nombre de motifs disponibles est extrêmement grand, on peut envisager qu’un motif transmette une information sur deux caractéristiques de la cible C. Par exemple, on peut prévoir qu’un motif 10-50-10-50 (kHz) transmette l’information qu’une cible C est une voiture qui roule à 50 km/h et qu’un motif 10-70-10-70 (kHz) transmette l’information qu’une cible C est une voiture qui roule à 70 km/h.
On peut alors envisager qu’à chaque nouvelle acquisition d’une série d’évènements, par exemple toutes les 25 ms, le motif du signal lumineux L change pour transmettre une caractéristique actualisée sur la vitesse de la cible C tout en indiquant en continue que la cible C est une voiture. Par exemple en à l’aide des deux motifs précités.
Ainsi, grâce aux hautes fréquences de modulation et à l’acquisition en mode asynchrone, la procédure d’imagerie rapide des sources modulées peut être mise en place tout en conservant les techniques de détection actuellement présentes sur le parc automobile. Ce système poussera naturellement les entités qui veulent être bien protégées, détectées, reconnues ou identifiées à s’équiper de sources lumineuses modulées et à en garantir la bonne maintenance et le bon fonctionnement : d’où la création d’un cercle vertueux pour l’introduction progressive de ce système sur le marché.
Ce couplage permet, entre autres, une double vérification qui rend plus robuste la détermination d’une caractéristique de la cible C à l’étape de détermination d’une caractéristique e6. Par exemple, si la procédure d’imagerie rapide reconnait un motif prédéterminé correspondant à une information « camion » et que la procédure d’imagerie classique détermine que la forme générale de la cible C est une forme « camion », la détermination, à l’étape de détermination d’une caractéristique e6, de la caractéristique « la cible est un camion », est quasiment absolue.
De plus, ces deux procédures d’imagerie sont avantageusement combinables. Lorsqu’une position de la cible C dans l’image est déterminée à l’étape de détermination d’une forme e4, à l’étape de reconnaissance du motif e5, le motif prédéterminé est recherché seulement parmi les évènements provenant des pixels photosensibles qui ont servis à imager la cible C à l’étape de détermination d’une forme e4. Les évènements potentiels provenant d’autres pixels photosensibles ne sont pas pris en compte. Cela permet d’analyser les données d’un nombre restreint de pixels photosensibles de la caméra 2 et donc d’augmenter la vitesse de traitement des données.
D’un point de vue technique, on associe de préférence les fréquences de modulation élevées aux rapports de cycle faibles afin de conserver la visibilité du signal lumineux L modulé tout en améliorant sa détectabilité. Judicieusement, on garde les modulations à faible rapport de cycle pour la détection de cibles à longue distance, avec des conditions météorologiques défavorables ou encore pour les situations d’extrêmes urgences. Par exemple, les signaux lumineux L émis par la face avant d’un véhicule V sont modulés avec une fréquence élevée du fait de la vitesse de rapprochement potentiellement élevée de deux véhicules en configuration de croisement fronto-frontale. Le motif peut ainsi être répété plus de fois qu’à une fréquence de modulation plus basse, ce qui rend sa reconnaissance plus robuste. De même, le déclenchement du freinage d’urgence d’un véhicule, entrainera l’émission d’un signal lumineux L de fréquence élevée.
Plusieurs applications de l’invention sont particulièrement intéressantes.
Premièrement, l’invention peut être utilisée pour la détection de cibles C à longue distance. La procédure d’imagerie rapide de signaux lumineux L modulés peut, par exemple, être privilégiée pour les cibles C dans une gamme de distances comprises entre 80 m et 250 m. La performance de détection des systèmes existants de reconnaissance passifs dans ces gammes de distances n’est pas très bonne à cause des limites en résolution des caméras. Dans cette gamme de distance, le temps de résidence (durée pendant laquelle la source de lumière est vue par un pixel photosensible ; la source de lumière se déplaçant, au bout d’une certaine durée, sur un pixel photosensible voisin) du signal lumineux L modulé sur un pixel photosensible est suffisant long pour détecter un plus grand nombre de périodes du signal lumineux L sur un même pixel photosensible (par exemple trois ou quatre répétitions d’une séquence de deux fréquences). Ce plus grand nombre de périodes de modulation sur un même pixel photosensible, permet d’améliorer encore plus la robustesse de la détection du signal lumineux L.
Deuxièmement, l’invention peut être utilisée pour la détection de freinages d’urgence. Dans le second mode de réalisation de l’invention, une bande spectrale peut être dédiée à des situations de conduite critiques, comme notamment le freinage d’urgence. Lors d’un freinage, le signal lumineux L est modulé avec une fréquence de modulation très élevée et en utilisant un code spécifiquement réservé à cette situation et ayant une robustesse de détection extrêmement élevée afin d’empêcher l’occurrence de fausses détections (c’est-à-dire en utilisant le code qui produit le moins d’erreurs à la détection). Par exemple, on utilisera un rapport de cycle de 50% sur une fréquence de modulation maximale et « isolée » c’est-à-dire une fréquence de modulation autour de laquelle il n’y a pas d’autres fréquences lumineuses produites par les objets cibles C. De plus, l’utilisation d’une fréquence de modulation élevée garantie le fait qu’elle ne peut pas être produite naturellement par la scène routière.
Troisièmement, l’invention peut être utilisée pour la transmission d’informations inter-véhicules. En effet, le nombre extrêmement grand de codes disponibles, notamment dans le deuxième mode de réalisation, permet de transmettre un grand nombre d’informations entre la cible C et le véhicule V. Si le véhicule V est également équipé d’un dispositif 1 apte à émettre un signal lumineux L modulé de motif prédéterminé et que la cible C possède une caméra 2 mixte synchrone/asynchrone, les deux pourront ainsi échanger rapidement des informations. La contrainte majeure pour la mise en application de tels systèmes reste la définition d’un standard de communication unique entre les cibles émettrices et les systèmes de détection des sources modulées.

Claims (10)

  1. Méthode de détermination d’une caractéristique d’une cible (C) par un véhicule (V), le véhicule (V) comprenant une caméra (2) mixte qui comprend une matrice de pixels photosensibles aptes à générer un signal électrique représentatif de l’intensité lumineuse qu'ils captent, et qui peut alterner entre un mode d’utilisation synchrone dans lequel, à intervalle de temps régulier, l’ensemble des signaux générés par les pixels photosensibles est enregistré sur une mémoire, et un mode d’utilisation asynchrone dans lequel la mémoire enregistre des évènements déclenchés par des changements relatifs de l’intensité lumineuse captée par les pixels photosensibles de la caméra (2), la cible (C) comportant un dispositif (1) émettant un signal lumineux (L) modulé possédant au moins un motif prédéterminé, la méthode comprenant les étapes suivantes :
    - une étape d’acquisition asynchrone (e2) dans laquelle la caméra (2), en utilisation asynchrone, acquiert une série d’évènements, la cible (C) se trouvant dans le champ de vue de la caméra (2),
    - une étape de reconnaissance du motif (e5) prédéterminé du signal lumineux (L) émis par le dispositif (1) de la cible (C), à partir de la série d’évènements acquise à l’étape d’acquisition asynchrone (e2), et
    - une étape de détermination d’une caractéristique (e6), au cours de la laquelle la caractéristique de la cible (C) est déterminée en fonction du motif prédéterminé reconnu à l’étape de reconnaissance du motif (e5).
  2. Méthode selon la revendication 1, comprenant en outre les étapes suivantes :
    - une étape d’acquisition synchrone (e3) dans laquelle la caméra (2), en utilisation synchrone, acquiert au moins une image sur laquelle la cible (C) apparait,
    - une étape de détermination d’une forme (e4) générale de la cible (C), à partir au moins de l’image acquise à l’étape d’acquisition synchrone (e3),
    et dans laquelle, à l’étape de détermination d’une caractéristique (e6), la caractéristique de la cible (C) est déterminée en fonction également de la forme générale de la cible (C) déterminée à l’étape de détermination d’une forme (e4).
  3. Méthode selon la revendication 2, dans laquelle à l’étape d’acquisition synchrone (e3), il est prévu d’acquérir ladite au moins une image sur une durée inférieure ou égale à 20 ms.
  4. Méthode selon l’une des revendications 2 et 3, dans laquelle à l’étape de détermination d’une forme (e4), une position de la cible (C) dans ladite image est déterminée et dans laquelle, à l’étape de reconnaissance du motif (e5), le motif prédéterminé est recherché seulement parmi la série d’événements provenant d’un ensemble restreint de pixels photosensibles de la caméra (2), ledit ensemble restreint étant déduit de la position de la cible (C) dans ladite image.
  5. Méthode selon l’une des revendications 1 à 4, dans laquelle à l’étape d’acquisition asynchrone (e2), les événements de la série sont horodatés et la série est préférentiellement acquise sur une durée inférieure à 5 ms.
  6. Méthode selon l’une des revendications 1 à 5, dans laquelle le signal lumineux (L) émis par le dispositif (1) de la cible (C) est modulé à une fréquence de modulation comprises entre 5 kHz et 100 kHz.
  7. Méthode selon l’une des revendications 1 à 6, dans laquelle le signal lumineux (L) émis par le dispositif (1) de la cible (C) possède un motif caractérisé par au moins une fréquence et/ou un rapport de cycle, et dans laquelle le motif est reconnu en déterminant ladite au moins une fréquence et/ou ledit rapport de cycle.
  8. Méthode selon l’une des revendications 1 à 7, dans laquelle chaque motif comprend une première suite de deux groupes (G1 ; G2) de deux périodes, les périodes de l’un des groupes étant modulées à une fréquence de modulation prédéterminée différente de la fréquence de modulation des périodes de l’autre des groupes, et une seconde suite de deux groupes identique à la première.
  9. Véhicule automobile (V) comprenant un calculateur et une caméra (2) mixte qui comprend une matrice de pixels photosensibles aptes à générer un signal électrique représentatif de l’intensité lumineuse qu'ils captent, et qui peut alterner entre un mode d’utilisation synchrone dans lequel, à intervalle de temps régulier, l’ensemble des signaux générés par les pixels photosensibles est enregistré sur une mémoire, et un mode d’utilisation asynchrone dans lequel la mémoire enregistre des évènements déclenchés par des changements relatifs de l’intensité lumineuse captée par les pixels photosensibles, caractérisé en ce que le calculateur est programmé pour mettre en œuvre une méthode de détermination d’une caractéristique d’une cible (C) comportant un dispositif (1) émettant un signal lumineux (L) modulé possédant au moins un motif prédéterminé, ladite méthode comprenant les étapes suivantes :
    - une étape d’acquisition asynchrone (e2) dans laquelle la caméra (2), en utilisation asynchrone, acquiert une série d’évènements, la cible (C) se trouvant dans le champ de vue de la caméra (2),
    - une étape de reconnaissance du motif (e5) prédéterminé du signal lumineux (L) émis par le dispositif (1) de la cible (C), à partir de la série d’évènements acquise à l’étape d’acquisition asynchrone (e2),
    - une étape de détermination d’une caractéristique (e6), au cours de laquelle de la caractéristique de la cible (C) est déterminée en fonction du motif prédéterminé reconnu à l’étape reconnaissance du motif (e5).
  10. Cible (C) comportant un dispositif (1) adapté à émettre un signal lumineux (L) et un calculateur, caractérisé en ce que le calculateur est programmé pour moduler le signal lumineux (L) de façon à ce qu’il présente un motif prédéterminé qui caractérise la cible (C).
FR1912142A 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible Active FR3102597B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1912142A FR3102597B1 (fr) 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1912142A FR3102597B1 (fr) 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible
FR1912142 2019-10-29

Publications (2)

Publication Number Publication Date
FR3102597A1 true FR3102597A1 (fr) 2021-04-30
FR3102597B1 FR3102597B1 (fr) 2021-10-29

Family

ID=69743347

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1912142A Active FR3102597B1 (fr) 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible

Country Status (1)

Country Link
FR (1) FR3102597B1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2219133A1 (fr) 2009-02-17 2010-08-18 Autoliv Development AB Procédé et système de détection automatique d'objets en face d'un véhicule à moteur
US10345447B1 (en) * 2018-06-27 2019-07-09 Luminar Technologies, Inc. Dynamic vision sensor to direct lidar scanning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2219133A1 (fr) 2009-02-17 2010-08-18 Autoliv Development AB Procédé et système de détection automatique d'objets en face d'un véhicule à moteur
US10345447B1 (en) * 2018-06-27 2019-07-09 Luminar Technologies, Inc. Dynamic vision sensor to direct lidar scanning

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CENSI ANDREA ET AL: "Low-latency localization by active LED markers tracking using a dynamic vision sensor", 2013 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, IEEE, 3 November 2013 (2013-11-03), pages 891 - 898, XP032537154, ISSN: 2153-0858, [retrieved on 20131226], DOI: 10.1109/IROS.2013.6696456 *
DAMIEN JOUBERT ET AL: "Characterization setup for event-based imagers applied to modulated light signal detection", APPLIED OPTICS, vol. 58, no. 6, 12 February 2019 (2019-02-12), US, pages 1305, XP055627843, ISSN: 1559-128X, DOI: 10.1364/AO.58.001305 *
LI JIANING ET AL: "Event-Based Vision Enhanced: A Joint Detection Framework in Autonomous Driving", 2019 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME), IEEE, 8 July 2019 (2019-07-08), pages 1396 - 1401, XP033590271, DOI: 10.1109/ICME.2019.00242 *

Also Published As

Publication number Publication date
FR3102597B1 (fr) 2021-10-29

Similar Documents

Publication Publication Date Title
US20180203122A1 (en) Gated structured imaging
EP2096611A1 (fr) Procédé et dispositif de détection multi-technologie de véhicule
FR3083942A1 (fr) Systeme de communication optique sans fil pour vehicule
CA2859900A1 (fr) Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere
US11108957B1 (en) Low power operation of differential image sensor pixels
FR3102597A1 (fr) Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible
FR2972827A1 (fr) Procede et dispositif pour determiner la distance entre un vehicule et un objet
FR3102596A1 (fr) Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible
EP3759518B1 (fr) Procédé et système d'émission et de réception d'impulsions laser
FR2893171A1 (fr) Systeme d'assistance a la conduite d'un vehicule automobile par detection de l'environnement
EP3926529A1 (fr) Systèmes et méthodes de détermination d'un nombre de personnes dans un véhicule
EP3310039B1 (fr) Dispositif électronique d'analyse d'une scène
CA3143971A1 (fr) Dispositif de classification d'une source lumineuse
FR2992088A1 (fr) Regroupement de donnees attachees a des images
EP3987688A1 (fr) Module de detection de visage et de communication optique sans fil
WO2019166720A1 (fr) Détection dynamique de lumière parasite dans une image numérique
FR3133245A1 (fr) Système sécurisé de capture d’images
FR2893172A1 (fr) Systeme d'assistance a la conduite d'un vehicule automobile par detection de l'environnement
WO2021250258A1 (fr) Procédé de mise en œuvre d'un dispositif lidar avec descripteurs
FR3098903A1 (fr) Dispositif de detection d'impulsions optiques
WO2021190910A1 (fr) Dispositif et procédé d'aide à la décision d'un système cognitif artificiel
EP3734329A1 (fr) Système de détection d'objet pour véhicule automobile
WO2024074582A1 (fr) Système de désignation comprenant un appareil de suivi d'une désignation d'au moins une cible
EP2735886B1 (fr) Procédé d'imagerie 3D
EP3895373A1 (fr) Procede pour verifier l'affichage d'un contenu par un dispositif d'affichage numerique et systeme d'affichage numerique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210430

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

CA Change of address

Effective date: 20221005

PLFP Fee payment

Year of fee payment: 5