FR3102596A1 - Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible - Google Patents

Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible Download PDF

Info

Publication number
FR3102596A1
FR3102596A1 FR1912145A FR1912145A FR3102596A1 FR 3102596 A1 FR3102596 A1 FR 3102596A1 FR 1912145 A FR1912145 A FR 1912145A FR 1912145 A FR1912145 A FR 1912145A FR 3102596 A1 FR3102596 A1 FR 3102596A1
Authority
FR
France
Prior art keywords
target
signal
images
series
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1912145A
Other languages
English (en)
Other versions
FR3102596B1 (fr
Inventor
Pierre Chavel
Christophe Lavergne
Louis LEWIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Renault SAS
Institut dOptique Graduate School
Original Assignee
Centre National de la Recherche Scientifique CNRS
Renault SAS
Institut dOptique Graduate School
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS, Renault SAS, Institut dOptique Graduate School filed Critical Centre National de la Recherche Scientifique CNRS
Priority to FR1912145A priority Critical patent/FR3102596B1/fr
Publication of FR3102596A1 publication Critical patent/FR3102596A1/fr
Application granted granted Critical
Publication of FR3102596B1 publication Critical patent/FR3102596B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

L’invention concerne une méthode de détermination d’une caractéristique d’une cible par un véhicule, le véhicule comprenant une caméra, la cible comportant un dispositif émettant un signal lumineux modulé possédant au moins un motif prédéterminé. Selon l’invention, la méthode comprenant les étapes suivantes : - une étape d’acquisition dans laquelle la caméra acquiert une série de d’images sur lesquelles la cible apparaît, - une étape de reconnaissance du motif prédéterminé de la cible, à partir de ladite série d’images, - une étape de détermination de la caractéristique de la cible en fonction du motif prédéterminé reconnu à l’étape de reconnaissance. Figure pour l’abrégé : Fig. 1 

Description

Méthodede détermination d’une caractéristique d’une cible par un véhicule,véhicule automobile et cible
Domaine technique de l'invention
La présente invention concerne de manière générale la sécurité des véhicules automobiles.
Elle concerne plus particulièrement une méthode de détermination d’une caractéristique d’une cible par un véhicule.
Elle concerne également un véhicule automobile équipé d’un calculateur programmé pour mettre en œuvre une telle méthode.
Elle concerne aussi une cible équipée d’un calculateur programmé pour que la cible puisse être caractérisée par le véhicule.
Etat de la technique
Actuellement, les systèmes vidéo d’aide à la conduite servant à détecter des cibles sont des systèmes passifs, c’est-à-dire qu’ils utilisent l’image d’une scène pour reconnaitre des cibles, telles que des véhicules ou des piétons, au moyen d’algorithmes d’analyse d’images, de reconnaissance de forme et de classification de données.
Ces systèmes permettent d’assister le conducteur dans son interaction avec l’environnement (détecteurs de dépassement, de franchissement de lignes, détection de piétons ou véhicules, freinage d’urgence) de manière à limiter l’apparition de situations dangereuses pouvant mener à un accident.
Les systèmes vidéo pour la reconnaissance passive de cibles sont bien connus. Le document EP2219133 présente par exemple une méthode pour détecter des objets situés en face d’un véhicule en comparant les images acquises par une caméra à des modèles préenregistrés.
Néanmoins, ces systèmes sont limités par la quantité de données à traiter et les performances des algorithmes d’analyse, à la fois en termes de rapidité et en terme précision. Ces limites deviennent notamment critiques pour des applications telles que le freinage d’urgence où les temps de réaction requis sont très faibles. La robustesse des algorithmes actuels, par exemple la capacité de déduire d’une image que la cible est un camion, n’est pas très élevé, ce qui signifie en suivant l’exemple que dans certains cas (mauvaise visibilité, cible trop lointaine) le camion sera classifié comme une voiture ou même ne sera pas détecté du tout.
Présentation de l'invention
Afin d’améliorer les performances des systèmes vidéo d’aide à la conduite, la présente invention propose un système vidéo basé sur la détection d’un signal lumineux modulé porté par une cible.
Plus particulièrement, on propose selon l’invention une méthode de détermination d’une caractéristique d’une cible par un véhicule, le véhicule comprenant une caméra, la cible comportant un dispositif émettant un signal lumineux modulé possédant au moins un motif prédéterminé, la méthode comprenant les étapes suivantes :
- une étape d’acquisition d’une série d’images dans laquelle la caméra acquiert une série d‘images sur lesquelles la cible apparaît,
- une étape de reconnaissance du motif prédéterminé du signal lumineux émis par le dispositif de la cible, à partir de la série d’images acquise à l’étape d’acquisition d’une série d’images,
- une étape de détermination d’une caractéristique, au cours de laquelle la caractéristique de la cible est déterminé en fonction du motif prédéterminé reconnu à l’étape de reconnaissance.
Ainsi, l’invention propose de faire en sorte que la cible émette de la lumière d’une façon permettant au véhicule de la caractériser facilement et rapidement. De ce fait, les algorithmes de reconnaissance de cibles mis en œuvre par le calculateur embarqué dans le véhicule sont plus légers et permettent une reconnaissance très rapide de ces cibles, ce qui convient pour des applications telles que le freinage d’urgence.
Avantageusement, la méthode comprend en outre les étapes suivantes :
- une étape d’acquisition d’une image dans laquelle la caméra acquiert, pendant une période d’acquisition correspondant à une fréquence inférieure à celle utilisée pour acquérir ladite série d’image, au moins une autre image sur laquelle la cible apparaît,
- une étape de détermination d’une forme générale de la cible, à partir au moins de ladite autre image acquise à l’étape d’acquisition d’une image,
et, à l’étape de détermination d’une caractéristique, la caractéristique de la cible est déterminé en fonction également de la forme générale de la cible déterminée à l’étape de détermination d’une forme.
Ainsi, les systèmes vidéo d’aide à la conduite classiques peuvent être utilisés dans le cadre de la présente invention sans modifier leur fonctionnement actuel. Ils sont alors utilisés en parallèle de la détection d’un signal lumineux modulé. La fusion de ces deux modes de détection permet de ne pas perturber les systèmes actuellement sur le marché ; de rentre plus robuste la détection de cibles porteuses de sources de lumière modulée ; de mieux définir les régions d’intérêt dans les images à analyser.
On comprend alors que cette innovation peut être implémentée de façon graduelle dans le parc automobile actuel. Les cibles souhaitant être mieux détectées vont progressivement s’équiper de source de lumière modulée.
D’autres caractéristiques avantageuses et non limitatives de la méthode conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :
- à l’étape d’acquisition d’une image, il est prévu d’acquérir ladite au moins une autre image sur une durée inférieure à 20 ms ;
- à l’étape de détermination d’une forme, une position de la cible dans ladite au moins une autre image est déterminée et à l’étape de reconnaissance, le motif prédéterminé est recherché dans une partie seulement de chaque image de ladite série d’images, ladite partie étant déduite de ladite position ;
- le signal lumineux émis par le dispositif de la cible est modulé à une fréquence de modulation comprise entre 250 Hz et 1 kHz et à l’étape d’acquisition d’une série d’images, ladite série d’images est acquise à une fréquence supérieure à 2 kHz sur une durée prédéterminée inférieure à 8 ms ;
- le signal lumineux émis par le dispositif de la cible possède un motif caractérisé par une fréquence et/ou par un rapport de cycle, et le motif est reconnu en déterminant la fréquence et/ou le rapport de cycle ;
- le dispositif de la cible émet un signal lumineux multispectral comprenant une pluralité de bandes spectrales, chacune possédant au moins un motif prédéterminé, et la caméra est multispectrale ;
- à l’étape de reconnaissance, la reconnaissance du motif de chaque bande spectrale est effectuée et à l’étape de détermination d’une caractéristique, la détermination de la caractéristique de la cible prend en compte le motif de chaque bande spectrale reconnu à l’étape de reconnaissance ;
- le signal lumineux est un signal rectangulaire et à l’étape de reconnaissance, la reconnaissance du motif lumineux est au moins en partie effectuée par un algorithme comprenant les étapes suivantes :
i) une étape de génération d’un vecteur signal dont les composantes correspondent, directement ou indirectement, au signal acquis par un pixel de la caméra lors de l’étape d’acquisition d’une série d’images,
ii) une étape de calcul d’un second vecteur dont les composantes correspondent à la différence entre deux composantes du vecteur signal,
iii) une étape de filtrage principal qui permet de déduire du second vecteur la fréquence et le rapport de cycle du signal lumineux, et, préférentiellement :
iv) une étape de filtrage secondaire qui permet d’affiner la déduction de l’étape de filtrage principal et qui comprend :
1) une comparaison des fronts montants et des fronts descendants du vecteur signal pour s’assurer que le signal acquis par la caméra est un signal rectangulaire,
2) une évaluation de la stabilité du vecteur signal pour s’assurer que le signal acquis par la caméra est un signal rectangulaire,
3) une élimination des fréquences multiples de la fréquence du signal lumineux, et
4) une restriction sur les valeurs de rapport de cycle ;
- la caractéristique de la cible comprend au moins l’un des paramètres suivants :
i) le type de véhicule qu’est la cible,
ii) la vitesse de la cible,
iii) l’accélération de la cible,
iv) le fait que la cible soit en freinage d’urgence.
L’invention propose également un véhicule automobile comprenant une caméra et un calculateur, le calculateur étant programmé pour mettre en œuvre une méthode de détermination d’une caractéristique d’une cible comportant un dispositif émettant un signal lumineux modulé possédant au moins un motif prédéterminé, ladite méthode comprenant les étapes suivantes :
- une étape d’acquisition d’une série d’images dans laquelle la caméra acquiert une série d’images sur lesquelles la cible apparaît,
- une étape de reconnaissance du motif prédéterminé du signal lumineux émis par le dispositif de la cible, à partir de ladite série d’images acquise à l’étape d’acquisition d’une série d’images,
- une étape de détermination d’une caractéristique, au cours de laquelle la caractéristique de la cible est déterminé en fonction du motif prédéterminé reconnu à l’étape de reconnaissance.
L’invention propose également une cible comportant un dispositif adapté à émettre un signal lumineux et un calculateur, le calculateur étant programmé pour moduler le signal lumineux de façon à ce qu’il présente un motif prédéterminé qui caractérise la cible.
Bien entendu, les différentes caractéristiques, variantes et formes de réalisation de l'invention peuvent être associées les unes avec les autres selon diverses combinaisons dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres.
Description détaillée de l'invention
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.
Sur les dessins annexés :
est une représentation schématique d’un véhicule et d’une cible conformés pour mettre en œuvre la méthode selon l’invention ;
est un schéma bloc d’une séquence d’étapes permettant la détermination d’une caractéristique de la cible par le véhicule de la figure 1 ;
est une représentation schématique d’un signal lumineux rectangulaire émis par une source de lumière de la cible de la figure 1 ;
est un schéma bloc d’une séquence d’étapes permettant l’analyse de la fréquence et du rapport de signal d’un signal lumineux émis par la source de lumière de la cible de la figure 1.
Sur la figure 1, on a représenté les éléments essentiels à la réalisation de la méthode selon l’invention. Une cible C est équipée d’un dispositif 1 conçu pour émettre un signal lumineux L modulé. Un véhicule V, ici un véhicule automobile, est équipé d’une caméra 2.
Ce véhicule V peut être de tout type (voiture, camion, moto, bateau, avion…). Il est prévu pour fonctionner de façon autonome ou de façon pilotée par un usager.
Classiquement, le véhicule V comprend une unité électronique de calcul et de commande, encore appelée calculateur. Ce calculateur comprend une unité de mémorisation ou mémoire. C’est sur cette mémoire que sont par exemple enregistrées les images acquises par la caméra 2. Dans le contexte de l’invention, le calculateur est connecté à la caméra 2 de manière à traiter les informations acquises par la caméra 2. Le calculateur est en outre programmé pour mettre en œuvre le procédé qui sera décrit ci-après.
Sur la figure 1, la cible C est schématiquement représentée par une voiture mais il pourrait s’agir de tout type d’objet se trouvant sur ou à côté de la route. Ainsi, la cible C peut être un piéton, un vélo, une voiture, un camion etc… On pourrait aussi prévoir que la cible C soit un objet fixe par rapport à la route comme une barrière de passage à niveau ou le tablier d’un pont. En pratique, la cible C est principalement définie par le fait d’être équipée du dispositif 1 conçu pour émettre un signal lumineux L modulé.
Le dispositif 1 conçu pour émettre un signal lumineux L modulé comporte une source de lumière, par exemple une diode électroluminescente (ci-après appelée « LED »), un ensemble de LED ou un laser. Ici, le spectre du signal lumineux L modulé est situé dans le spectre de la lumière visible ou dans l’infrarouge.
Ce dispositif 1 est spécifiquement conçu pour l’invention, ce qui facilite sa conception. En variante, le dispositif 1 pourrait être un feu de signalisation d’un véhicule.
Le dispositif 1 comporte en outre un circuit électronique ici programmé pour moduler le signal lumineux L en fréquence et en rapport de cycle. Ces deux modes de modulation ont l’avantage d’avoir une faible distorsion de propagation. Par exemple, le signal lumineux L pourrait être modulé en amplitude mais l’intensité du signal acquis par la caméra 2 (et donc la justesse de la détection) dépendrait alors de la distance entre la caméra 2 et le dispositif 1 ou des conditions de visibilité.
Dans un premier mode de réalisation, le dispositif 1 émet une lumière mono-spectrale. Ici, la source de lumière du dispositif 1 est une LED possédant deux états : un état « allumée », lorsqu’elle est sous tension, où elle émet de la lumière ; un état « éteint », lorsqu’elle est hors tension, où elle n’émet pas de lumière. La LED permet donc d’émettre un signal rectangulaire modulé en alternant les états « allumés » et « éteints ». Ce système à LED a l’avantage d’être très simple à mettre en place, d’être particulièrement résistant et de consommer peut d’énergie. La fréquence du signal lumineux L émis par la LED peut être modulée en ajustant les temps de passage d’un état à l’autre et le rapport de cycle peut être modulé en ajustant la durée des états « allumés » par rapport à la durée des états « éteints ».
Dans ce premier mode de réalisation, la caméra 2 équipant le véhicule V est une caméra monochrome qui possède une fréquence d’échantillonnage élevée. La fréquence d’échantillonnage de la caméra 2 est supérieure à 2 kHz et est de préférence supérieure à 8 kHz.
Dans un second mode de réalisation, le dispositif 1 émet une lumière multispectrale. Ici, la source de lumière du dispositif 1 est un ensemble de LED émettant à des longueurs d’onde différentes. A titre d’exemple, avec quatre LED, on peut prévoir que le dispositif 1 soit un système d’émission quadri-bandes émettant dans le proche infrarouge, le rouge, le vert et le bleu. Comme dans le premier mode de réalisation, chaque LED possède deux états et peut émettre un signal rectangulaire modulé en fréquence et en rapport de cycle.
Dans ce second mode de réalisation, afin de pouvoir analyser un signal lumineux multispectral, la caméra 2 est une caméra couleur ou multispectrale haute fréquence. Une telle caméra couleur ou multispectrale peut, en une seule acquisition, acquérir des images à plusieurs longueurs d’onde, plus précisément sur plusieurs bandes spectrales, ces images pouvant ensuite être analysées individuellement ou de façon combinée. Des techniques de démodulation permettent de retrouver la phase du signal émis par le dispositif 1. Nous verrons plus tard que cela augmente la quantité d’information qui peut être transmise de la cible C au véhicule V. La fréquence d’échantillonnage de la caméra 2 est supérieure à 2 kHz et est de préférence supérieure à 8 kHz.
En pratique, ce second mode de réalisation n’est pas limité à un signal lumineux L quadri-bandes (ou même tri-bandes). L’évolution des caméras multispectrales permettra d’utiliser encore plus de bandes spectrales (seize ou même trente-deux) et donc de transmettre encore plus d’informations entre la cible C et le véhicule V.
La méthode, mise en œuvre conjointement par le dispositif 1, la caméra 2 et le calculateur du véhicule V, est une méthode qui permet de déterminer une caractéristique d’une cible C.
Sur la figure 2 est représenté l’ensemble des étapes de détermination d’une caractéristique d’une cible C dont le dispositif 1 émet un signal lumineux L modulé possédant au moins un motif prédéterminé.
Par « motif prédéterminé », on entend que le signal présente une forme périodique dont les caractéristiques sont associées à une caractéristique de la cible C. Le motif est notamment qualifié de prédéterminé en ce que sa forme est associée à une caractéristique selon une table de correspondance convenue en amont. Le motif est caractérisé par ses variations temporelles, on peut donc le qualifier de motif temporel.
Cette méthode comprend deux procédures pouvant être combinées.
Une première procédure comprend les étapes d’acquisition d’une série d’images e2, de reconnaissance e5 et de détermination d’une caractéristique e6. Cette première procédure est appelée procédure d’imagerie rapide et utilise le signal lumineux L modulé.
Une deuxième procédure comprend les étapes d’acquisition d’une image e3, de détermination d’une forme e4 et de détermination d’une caractéristique e6. Cette deuxième procédure est appelée procédure d’imagerie classique car elle met en œuvre des méthodes de détection passive déjà présentes sur le marché et décrites dans l’introduction.
Dans un premier temps, nous décrirons en détail la procédure d’imagerie rapide. Puis nous décrirons la procédure d’imagerie classique, assez brièvement, et surtout, nous décrirons la combinaison de ces deux procédures.
Dans la procédure d’imagerie rapide, la cible C émet, par l’intermédiaire du dispositif 1, un signal lumineux L modulé de motif prédéterminé. Ce motif permet de transmettre une information sur une caractéristique de la cible C au véhicule V. En pratique, les caractéristiques de la cible C peuvent être le type d’objet qu’est la cible C (piéton, voiture, structure …) ; la vitesse de la cible C ; l’accélération de la cible C ; le fait que la cible C soit en freinage d’urgence ; ou toute autre information utile pour éviter une collision.
Ce motif peut donc être toujours le même (par exemple s’il ne fournit qu’une information qui est le type de la cible) ou peut être calculé et modifié en temps réel par le circuit électronique équipant le dispositif 1 de la cible C (ce circuit devant alors comporter des moyens d’acquisition de données dynamiques de la cible C telles que sa vitesse).
La détermination du motif par le véhicule V informe alors ce dernier sur une caractéristique au moins de la cible C.
De façon préférentielle, un motif est caractérisé par une fréquence de modulation et/ou un rapport de cycle. La fréquence de modulation est comprise entre 250 Hz et 1 kHz, de façon à être inférieure à la fréquence d’échantillonnage de la caméra 2. Dans l’exemple que nous allons utiliser pour décrire l’invention, le signal est modulé avec une fréquence de 500 Hz. Le motif est également caractérisé par son rapport de cycle. Ici, dans l’exemple que nous allons utiliser pour décrire l’invention, le signal modulé peut prendre 5 valeurs de rapport de cycle : 25%, 37,5%, 50%, 62,5%, 75%. Une LED d’un dispositif 1 émettant un signal lumineux L modulé avec un rapport de cycle de 50% aura des états « allumés » aussi long que les états « éteints ». Une LED d’un dispositif 1 émettant un signal lumineux L modulé avec un rapport de cycle de 75% aura des états « allumés » trois fois plus longs que les états « éteints ».
Ici, un motif est défini par une paire fréquence – rapport de cycle. Par exemple, un motif #01 est défini par une fréquence de 500 Hz avec un rapport de cycle de 50% (un tel motif est représenté sur la figure 3) et un motif #02 est défini par une fréquence de 500 Hz avec un rapport de cycle de 25%. Le motif #01 peut transmettre l’information que la cible C est une voiture et le motif #02 que la cible C est un camion.
En reconnaissant ces motifs (étape e5) le véhicule V détermine des caractéristiques de la cible C (étape e6). La figure 3 représente sur la ligne du haut l’état d’une LED modulant le motif #01 vu par la caméra 2, et sur la ligne du bas le signal lumineux L qui en résulte. Le signal lumineux L est modulé à 500 Hz avec un rapport de cycle de 50%, la LED reste donc dans un état « allumé » ou « éteint » pendant 1 ms. La caméra 2 acquière à une fréquence de 4000 Hz, soit une image toute les 0.25 ms. Comme représenté sur la ligne du haut, pour la caméra 2, la LED reste dans un même état sur 4 images consécutives.
La durée totale d’acquisition de 4 périodes ce signal lumineux L est de 8 ms.
A l’étape d’acquisition d’une série d’images e2, la caméra 2 du véhicule V acquière une série d’images, appelés premières images, comprenant la cible C. La série de premières images est acquise à haute fréquence, de préférence à une fréquence huit fois supérieure à la fréquence de modulation de manière à avoir au moins huit points échantillonnés par période du signal lumineux L, comme c’est le cas sur la figure 3. De préférence, la série de premières images, à l’étape d’acquisition d’une série d’images e2, est acquise à une fréquence supérieure à 1 kHz. Dans l’exemple, la série de premières images est acquise à une fréquence supérieure à 4000 Hz.
Avantageusement, la durée d’acquisition à l’étape d’acquisition d’une série d’images e2 est inférieure à 8 ms. Comme nous allons le voir, cela permet d’alterner rapidement les procédures d’imagerie rapide et d’imagerie classique.
Le demandeur a montré lors de ses essais que la reconnaissance du motif (étape e5), grâce à un algorithme qui sera présenté en dernière partie de cette description, est efficace sur une base de deux à quatre périodes de modulation. Ici, avoir huit points par période permet de discriminer efficacement des rapports de cycle de 25%, 37,5%, 50%, 62,5% et 75% puisque chaque rapport de cycle possède un minimum de deux points dans un état « allumé » ou « éteint » de la LED. Avec un point minimum, la détection serait incertaine.
Lors de la procédure d’acquisition rapide, les données de chaque pixel de la caméra 2 sont acquises par le calculateur et enregistrées dans sa mémoire. Ici, dans l’exemple utilisé pour décrire l’invention, le signal lumineux à 500 Hz est échantillonné à 4 kHz pendant 4,25 périodes, les données d’un pixel sont donc un vecteur linéaire de 34 termes.
A l’étape de reconnaissance e5, le calculateur tente de reconnaitre le motif prédéterminé de la cible, à partir de la série de premières images acquise à l’étape d’acquisition d’une série d’images e2. Le motif est reconnu en analysant, grâce à un algorithme, les données des pixels qui ont reçu le signal lumineux L. Cette analyse permet de déterminer la fréquence et/ou le rapport de cycle du signal lumineux L acquis par la caméra 2, ce qui permet alors de reconnaitre le motif. Ici, le motif est reconnu en déterminant la fréquence et le rapport de cycle du signal lumineux L acquis par la caméra 2.
A l’étape de détermination d’une caractéristique e6, le calculateur détermine la caractéristique de la cible C en fonction du motif prédéterminé reconnu à l’étape de reconnaissance e5. Cela nécessite l’existence d’un langage commun, c’est-à-dire un standard, entre la cible C et le véhicule V. Un motif, ici une fréquence et un rapport de cycle, renseigne sur une caractéristique de la cible C, par exemple son type ou sa vitesse.
A ce stade, on comprend que le nombre d’informations que la cible C peut communiquer au véhicule V dans le premier mode de réalisation est assez restreint.
En revanche, pour une fréquence de modulation donnée, le nombre de motifs disponibles est beaucoup plus important dans le second mode de réalisation de l’invention que dans le premier mode de réalisation. Dans les paragraphes suivants, nous allons donner un exemple du nombre de « codes » disponibles, à une fréquence donnée, dans chacun des deux modes de réalisation. Dans la suite, le terme « code » désigne un motif ou un ensemble de motifs lié de façon unique à une caractéristique, un code doit posséder la même signification pour la cible C que pour le véhicule V.
Dans l’exemple en cours, selon le premier mode de réalisation, c’est-à-dire avec un dispositif 1 qui est une source de lumière mono-spectrale, cinq motifs sont disponibles. Ces cinq motifs peuvent être utilisées comme cinq codes permettant par exemple de reconnaître la nature des cibles (piéton, vélo, moto, véhicule, poids lourds) ou un état de la cible (arrêt, vitesse constante, gamme de freinage 1, gamme de freinage 2, gamme de freinage 3).
Néanmoins, il est possible d’augmenter le nombre de motifs disponibles en augmentant la fréquence d’acquisition des premières images à l’étape d’acquisition d’une série d’images e2. En effet, le pas minimum de rapport de cycle détectable par l’algorithme est donné par le rapport de la fréquence de modulation du signal lumineux L sur la fréquence d’acquisition des images par la caméra 2. Plus une période de modulation est échantillonnée, plus on pourra distinguer deux rapports de cycle proches. Par exemple, avec seize points par période, on peut distinguer treize valeurs de rapport de cycle allant de 12,5% à 87,5% par pas de 6,25%, soit treize codes.
Dans le deuxième mode de réalisation, le dispositif 1 de la cible C émet un signal lumineux L multispectral comprenant une pluralité de bandes spectrales, et chaque bande spectrale possède un motif prédéterminé. La caméra 2 multispectrale est capable, lors de l’étape d’acquisition d’une série d’images e2, d’acquérir le signal de chaque bande spectrale indépendamment et de façon synchronisée.
A l’étape de reconnaissance e5, le motif de chaque bande spectrale est reconnu. Cela permet, à l’étape de détermination d’une caractéristique e6, de déterminer une caractéristique de la cible en prenant en compte le motif de chaque bande spectrale reconnu à l’étape de reconnaissance e5. Ainsi, un code peut être une combinaison de motifs, ce qui démultiplie le nombre de codes accessibles.
Par exemple, avec une source lumineuse multispectrale et quadri bande, il est possible de transmettre, toujours dans le cadre des cinq valeurs de rapport de cycle disponibles, 54codes, puisque pour chacune des quatre bandes spectrales, cinq motifs sont disponibles. Cela représente six cent vingt-cinq codes. Cela permet de réaliser une description bien plus précise de la nature des cibles et de leur état.
Enfin, toujours sur la base de l’exemple d’un signal modulé à 500 Hz et échantillonné à 4000 Hz, la position du premier front montant, un front montant étant généré par le passage du dispositif 1 d’un état « éteint » à un état « allumé », le signal peut être discrétisé en huit cas. Cette information de position du front montant peut être assimilée à une information de phase. Ainsi, on conçoit qu’il est possible de transmettre des informations supplémentaires par le biais de ce paramètre de phase. Pour ce faire, un canal spectral est dédié à la transmission de la phase de référence. Dans le cas d’une source multispectrale quadri-bande et des paramètres utilisés jusqu’à présent, on se retrouve donc avec :
  • cinq motifs disponibles pour la bande spectrale réservée à la phase de référence du signal ;
  • cinq motifs disponibles fois huit positions du premier front montant pour les trois autres bandes spectrales.
Il est donc ainsi possible de transmettre 5x(40)3codes soit trois cents vingt mille codes.
On peut signaler que les technologies des caméras évoluent dans le temps avec l’amélioration de la sensibilité et de la dynamique des pixels, qui ont pourtant des dimensions toujours plus faibles. De même, de nouvelles technologies de filtres spectraux déposés sur chaque pixel ont vu le jour ces derniers temps. Il est aujourd’hui possible de déposer des filtres spectraux à bande étroites sur chaque pixel. Par conséquent, il est possible d’augmenter le nombre de bandes spectrales détectables de façon robuste par la caméra 2. Le nombre de codes transmis par les sources de lumière multispectrales pourront donc être nettement supérieur à celui indiqué ci-dessus. Par exemple, 6,5.1012codes sont disponibles pour un dispositif 1 multispectral à neuf bandes spectrales. Dans ce dernier cas, chaque cible C pourra être identifiée par un code spécifique avec certitude.
On peut ainsi prévoir que chaque cible C dispose de son propre identifiant.
La procédure d’imagerie classique comprend les étapes d’acquisition d’une image e3, de détermination d’une forme e4 et de détermination d’une caractéristique e6 représentées sur la figure 2. La procédure d’imagerie classique est identique pour les deux modes de réalisation.
Elle prévoit d’acquérir, en plus de la série de premières images acquises à haute fréquence, au moins une autre image, appelée deuxième image, sur une période d’acquisition correspondant à une fréquence plus restreinte.
Ainsi, à l’étape d’acquisition d’une image e3, la caméra 2 acquiert au moins une deuxième image sur lesquelles la cible apparaît. De préférence, la caméra 2 acquiert une série de deuxièmes images. En pratique, la série de deuxièmes images est acquise à une fréquence classique d’imagerie d’environ 50 Hz. Ici, une unique deuxième image est acquise lors de l’étape d’acquisition d’une image e3 avec un temps d’intégration de la caméra 2 de 20 ms. Le temps d’intégration est la durée pendant laquelle les pixels de la caméra accumulent des photons pour former une image.
A l’étape de détermination d’une forme e4, la forme générale de la cible est déterminée à partir d’au moins une image de la série de deuxièmes images acquises à l’étape d’acquisition d’une image e3, ici, à partir de l’unique deuxième image acquise en 20 ms. Pour cela, les techniques actuelles de reconnaissance d’image peuvent être mises en œuvre par le calculateur du véhicule V. Ces systèmes passifs, par exemple connu sous le nom ADAS (de l’anglais Advanced Driver Assistance Systems), déjà présents dans de nombreux véhicules, ne seront pas présentés dans ce document.
A l’étape de détermination d’une caractéristique e6, une caractéristique de la cible est déterminée en fonction également de la forme générale de la cible déterminée à l’étape de détermination d’une forme e4. La forme générale de la cible C permet, par exemple, de déterminer le type d’objet qu’est la cible C ou d’en estimer la distance (une cible C plus petite est probablement plus loin).
Comme déjà mentionné, un des grands intérêts de l’invention est de pouvoir coupler la procédure d’imagerie rapide avec la procédure d’imagerie classique. Les séries d’acquisition des étapes d’acquisition d’une série d’images e2 et d’acquisition d’une image e3 peuvent s’alterner très rapidement. Par exemple, une rafale d’acquisition haute fréquence est réalisée pendant 8 ms (étape e2) puis une image classique est acquise sur 20 ms (étape e3). Ce schéma peut ensuite être répété. Cela est rendu possible grâce à la faible durée d’acquisition de chaque procédure.
A chaque nouvelle rafale d’acquisition haute fréquence, par exemple toutes les 28 ms, le motif du signal lumineux L peut changer. Cela permet de suivre en direct l’évolution d’une caractéristique de la cible C, comme par exemple sa vitesse. En pratique, une actualisation des caractéristiques de la cible C toutes les 28 ms est plus que suffisant, il est plus judicieux de répéter un motif plus longtemps (de l’ordre de quelques centaines de millisecondes) pour rendre sa détermination par le véhicule V plus robuste.
Ainsi, grâce aux hautes fréquences de modulation et d’acquisition, la procédure d’imagerie rapide des sources modulées peut être mise en place tout en conservant les techniques de détection actuellement présente sur le parc automobile. Ce système poussera naturellement les entités qui veulent être bien protégées, détectées, reconnues ou identifiées à s’équiper de sources lumineuses modulées et à en garantir la bonne maintenance et le bon fonctionnement : d’où la création d’un cercle vertueux pour l’introduction progressive de ce système sur le marché.
Ce couplage permet, entre outre, une double vérification qui rend plus robuste la détermination d’une caractéristique de la cible C à l’étape de détermination d’une caractéristique e6. Par exemple, si la procédure d’imagerie rapide reconnait un motif prédéterminé correspondant à une information « camion » et que la procédure d’imagerie classique détermine que la forme générale de la cible est une forme « camion », la détermination, à l’étape de détermination d’une caractéristique e6, de la caractéristique « la cible est un camion », est quasiment absolue.
De plus, ces deux procédures d’imagerie sont avantageusement combinables. Lorsqu’une position de la cible C dans l’image est déterminée à l’étape de détermination d’une forme e4, à l’étape de reconnaissance e5, le motif prédéterminé est recherché seulement dans une partie l’image qui comprend la cible C. Cela permet d’analyser les données d’un nombre plus faible de pixels de la caméra 2 et donc d’augmenter la vitesse de traitement des données.
D’un point de vue technique, on associe de préférence les fréquences de modulation élevées aux rapports de cycle faibles afin de conserver la visibilité du signal lumineux L modulé tout en améliorant sa détectabilité. Judicieusement, on garde les modulations à faible rapport de cycle pour la détection de cibles à longue distance, avec des conditions météorologiques défavorables ou encore pour les situations d’extrêmes urgences. Par exemple, les signaux lumineux émis par la face avant d’un véhicule sont modulés avec une fréquence importante du fait de la vitesse de rapprochement potentiellement élevée de deux véhicules en configuration de croisement fronto-frontale. Le motif peut ainsi être répété plus de fois qu’à une fréquence de modulation plus faible, ce qui rend sa reconnaissance plus robuste. De même, le déclenchement du freinage d’urgence d’un véhicule, entrainera l’émission d’une modulation d’intensité élevée.
Plusieurs applications de l’invention sont particulièrement intéressantes.
Premièrement, l’invention peut être utilisée pour la détection de cibles à longue distance. La procédure d’imagerie rapide de signaux lumineux modulés peut, par exemple, être privilégiée pour les cibles C dans une gamme de distance comprise entre 80 m et 250 m. La performance de détection des systèmes existants de reconnaissance passifs dans ces gammes de distances n’est pas très bonne à cause des limites en résolution des caméras. Dans cette gamme de distance, le temps de résidence (durée pendant laquelle la source de lumière est vue par un pixel ; la source de lumière se déplaçant, au bout d’une certaine durée, sur un pixel voisin) du signal lumineux L modulé sur un pixel est suffisant long pour détecter un plus grand nombre de périodes du signal sur un même pixel (par exemple supérieur à quatre). Ce plus grand nombre de périodes de modulation sur un même pixel, permet d’améliorer encore plus la robustesse de la détection du signal lumineux L modulé.
Deuxièmement, l’invention peut être utilisée pour la détection de freinages d’urgence. Dans le second mode de réalisation de l’invention, une bande spectrale peut être dédiée à des situations de conduite critiques, comme notamment le freinage d’urgence. Lors d’un freinage, le signal lumineux L est modulé avec une intensité de modulation très élevée et en utilisant un code spécifiquement réservé à cette situation et ayant une robustesse de détection extrêmement élevée afin d’empêcher l’occurrence de fausses détections (c’est-à-dire en utilisant le code qui produit le moins d’erreurs à la détection). Par exemple, pour assurer une telle robustesse, on utilisera un rapport de cycle de 50% sur une fréquence de modulation maximale et « isolée » c’est-à-dire une fréquence de modulation autour de laquelle il n’y a pas d’autres fréquences lumineuses produites par les objets cibles C. De plus, l’utilisation d’une fréquence de modulation élevée garantie le fait qu’elle ne peut pas être produite naturellement par la scène routière.
Troisièmement, l’invention peut être utilisée pour la transmission d’informations inter-véhicules. Selon le deuxième mode de réalisation de l’invention, on a vu qu’une source de lumière multispectrale à neuf bandes pourrait permettre de transmettre 6,5.1012codes. Ce nombre extrêmement grand de codes disponibles permet de transmettre un grand nombre d’informations entre la cible C et le véhicule V. Si le véhicule V est également équipé d’un dispositif 1 apte à émettre un signal lumineux L modulé de motif prédéterminé et que la cible C possède une caméra 2, les deux pourront ainsi échanger rapidement des informations. La contrainte majeure pour la mise en application de tels systèmes reste la définition d’un standard de communication unique entre les cibles émettrices et les systèmes de détection des sources modulées.
Nous allons maintenant présenter l’algorithme d’analyse du signal lumineux L modulé acquis par la caméra 2. Cet algorithme permet, à l’étape de détermination d’une forme e4 de déterminer la fréquence et/ou le rapport de cycle du signal lumineux L modulé et ainsi de reconnaitre le motif.
La présentation du principe de l’algorithme sera faite sur la base de l’exemple déjà utilisé dans cette description, à savoir 4,25 périodes d’un signal modulé à 500 Hz avec cinq rapports cycle possibles (25%, 37,5%, 50%, 62,5% et 75%) et une fréquence d’acquisition à 4000 Hz. La généralisation à d’autres valeurs de ces paramètres ne pose pas de problème particulier.
Ici, l’algorithme est conçu pour être capable de détecter ces valeurs de rapport de cycle particulières et s’attend à ce que la fréquence de modulation soit de 500 Hz.
L’algorithme présenté permet d’analyser un signal rectangulaire, par exemple émis par une LED alternant les états « éteints » et « allumés », et comprenant les étapes suivantes :
a1) une étape de génération d’un vecteur signal X dont les composantes correspondent, directement ou indirectement, au signal acquis par un pixel de la caméra 2 lors de l’étape d’acquisition d’une série d’images e2,
a2) une étape de calcul d’un second vecteur X2 dont les composantes correspondent à l’écart entre deux termes du vecteur signal X,
a4) une étape de filtrage principal qui permet de déduire du second vecteur X2 la fréquence et le rapport de cycle du signal lumineux L, et, préférentiellement,
a6) une étape de filtrage secondaire.
L’architecture de cet algorithme est présentée en figure 4.
Le vecteur signal X généré à l’étape a1) est un ensemble de données, acquises à l’étape d’acquisition d’une série d’images e2, variant temporellement et issues directement ou indirectement des valeurs d’un pixel de la caméra 2. Ici, le vecteur signal X est un vecteur linéaire de 34 composantes.
A l’étape a2), un premier traitement est appliqué au vecteur signal X pour obtenir le premier vecteur X1. Soit xiune composante du vecteur signal X, et x1 iune composante du premier vecteur X1, les 33 composantes du premier vecteur sont calculées selon la formule x1 i= xi + 1– xi, i variant de 1 à 33. Le premier vecteur X1 est appelé dérivée un point du vecteur X. Toujours à l’étape a2), un deuxième traitement est appliqué au vecteur signal X pour obtenir le second vecteur X2. Soit xiune composante du vecteur signal X, et x2 iune composante du second vecteur X2, les 32 composantes du second vecteur sont calculées selon la formule x2 i= xi+2– xi, i variant de 1 à 32. Le second vecteur X2 est appelé dérivée deux points.
A l’étape a4), huit filtres notés de V1à V8de 32 composantes sont appliqués au second vecteur X2 pour sélectionner les potentiels fronts montants du signal lumineux modulé. Par exemple, le filtre V1est égal à [1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0], le filtre V2à [0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0] et ainsi de suite jusqu’au filtre V8égal à [0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1]. Le filtrage du second vecteur X2 par les huit filtres V1à V8produits 8 vecteurs M21à M28de quatre composantes chacun, composantes qui correspondent à l’intensité des potentiels fronts montants du second vecteur X2. Par exemple, les vecteurs M21à M28sont définis par les formules suivantes, M21= V1*X2 = [x2 1 ;x2 9 ;x2 17 ;x2 25], M22= V2*X2 = [x2 2 ;x2 10 ;x2 18 ;x2 26] et ainsi de suite jusqu’à M28= V8*X2 = [x2 8 ;x2 16 ;x2 24 ;x2 32]. De même le filtrage du premier vecteur X1 par les huit filtres V1à V8produit 8 vecteurs M11à M18de quatre composantes chacun, composantes qui correspondent à l’intensité des potentiels fronts montants du premier vecteur X1. Par exemple les vecteurs M11à M18sont définis par les formules suivantes, M11= V1*X1 = [x1 1 ;x1 9 ;x1 17 ;x1 25], M12= V2*X1 = [x1 2 ;x1 10 ;x1 18 ;x1 26] et ainsi de suite jusqu’à M18= V8*X1 = [x1 8 ;x1 16 ;x1 24 ;x1 32].
Des filtres spécifiques sont ensuite appliqués aux premier X1 et second vecteurs X2 pour extraire les potentiels fronts descendants du signal modulé. La forme de ces filtres dépend à la fois de la position du premier front montant et du rapport de cycle du signal modulé. On notera U1 50%le filtre utilisé pour extraire le potentiel front descendant d’un signal modulé avec un rapport de cycle de 50% et un front montant détecté sur le premier échantillon du signal modulé. Pour la détection d’un signal modulé à 50% on utilise donc les 8 filtres U1 50% ; U2 50%  ; U3 50%; U4 50%; U5 50%; U6 50% ; U7 50% ; U8 50%. Il en est de même pour chaque rapport de cycle que l’on veut détecter. Par exemple, le filtre U1 50% est de la forme [0 0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 0 ], le filtre U2 50%  est de la forme [0 0 0 0 0-1 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 ] et ainsi de suite jusqu’au filtre U8 50%  qui est de la forme [0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 ]. Le filtrage du second vecteur X2 par les huit filtres U1 50% ; U2 50% ; U3 50%; U4 50%; U5 50%; U6 50% ; U7 50% ; U8 50%produits 8 vecteurs D2-50% 1à D2-50% 8de quatre composantes chacun, composantes qui correspondent à l’intensité des potentiels fronts descendants du second vecteur X2 dans le cas où il représente un signal modulé avec un rapport de cycle à 50%. Par exemple, les vecteurs D2-50% 1à D2-50% 8sont définis par les formules suivantes, D2-50% 1= U1 50%*X2 = [-x2 5 ;-x2 13 ;-x2 21 ;-x2 29], D2-50% 2= U2 50%*X2 = [-x2 6 ;-x2 14 ;-x2 22 ;-x2 30] et ainsi de suite à D2-50% 8= U8 50%*X2 = [-x2 4 ;-x2 12 ;-x2 20 ;-x2 28]. De même le filtrage du premier vecteur X1 par les huit filtres U1 50% ; U2 50% ; U3 50%; U4 50% ; U5 50%; U6 50% ; U7 50% ; U8 50%produits 8 vecteurs D1-50% 1à D1-50% 8de quatre composantes chacun, composantes qui correspondent à l’intensité des potentiels fronts descendants du premier vecteur X1 dans le cas où il représente un signal modulé avec un rapport de cycle à 50%. Par exemple, les vecteurs D1-50% 1à D1-50% 8sont définis par les formules suivantes, D1-50% 1= U1 50%*X1 = [-x1 5  ;-x1 13  ;-x1 21  ;-x1 29], D1-50% 2= U2 50%*X1 = [-x1 6 ;-x1 14  ;-x1 22  ;-x1 30] et ainsi de suite jusqu’à D1-50% 8= U8 50%*X1 = [-x1 ;-x1 12  ;-x1 20  ;-x1 28].
Les étapes de traitement du signal modulé qui ci-dessus permettent de coder le vecteur signal X (ici un vecteur de 34 composantes), en un signal X1F qui ne comprend que les valeurs absolues des potentiels fronts montants et descendants du vecteur signal X qui sont extraites du signal dérivé 1 point X1. Par exemple, avec les vecteurs M1 de composantes [m1; m2; m3; m4] et D1 de composante [d1; d2; d3; d4], le vecteur X1F est de la forme [m1; d1  ;m2; d2 ;m3; d3 ; m4  ;d4]. Le vecteur X2F ne comprend que les valeurs absolues des potentiels fronts montants et descendants du vecteur signal X extrait du signal dérivé 2 point X2. Par exemple, avec les vecteurs M2 de composantes [n1; n2; n3; n4] et D2 de composantes [e1; e2; e3; e4], le vecteur X2F est de la forme [n1; e1 ;n2; e2 ;n3; e3 ; n4 ;e4].
Le filtrage principal s’applique sur les 40 vecteurs X2F obtenus par les traitements décrits ci-dessus. Pour rappel, à partir du vecteur signal X contenant l’information numérisée des variations d’intensité temporelle du signal modulé sur 34 composantes, on obtient le second vecteur X2, dérivée deux points sur 32 composantes du vecteur signal X. Ici, on obtient 40 vecteurs X2Fα βou α est associé aux valeurs de rapports de cycles possibles soit ici 25% ; 37,5% ; 50% ; 67,5% ; 75% et β associé à la position possible du 1erfront montant sur une période du signal qui est échantillonné 8 fois. Ici, β peut donc prendre les valeurs {1,2,3,4,5,6,7,8}. Comme le montre la figure 4, huit calculs sont effectués en parallèle, un pour chaque position possible du premier front montant. Chaque étape de calcul en parallèle est appelée « branche ». Il y a huit vecteurs de filtrage montant différents (V1,…,V8) qui permettent d’obtenir les 8 vecteurs M21à M28. Sur chacune de ces 8 branches de l’algorithme est ensuite appliqué le filtrage pour détecter le front descendant pour chacun des 5 rapports de cycles possibles. Ainsi sur la branche correspondant à la détection du front montant sur le 1eréchantillon est appliqué sur le second vecteur X2 les cinq filtres U1 25%; U1 37.5% ; U1 50% ; U1 67.5% ; U1 75%. Sur la branche correspondant à la détection du front montant sur le 2èmeéchantillon est appliqué sur le second vecteur X2 les cinq filtres U2 25%; U2 37.5% ; U2 50% ; U2 67.5% ; U2 75%  et ainsi de suite jusqu’à la branche correspondant à la détection du front montant sur le 8ièmeéchantillon sur le second vecteur X2 sur lequel est appliqué les 5 filtres U8 25%; U8 37.5% ; U8 50% ; U8 67.5% ; U8 75%.
Le calcul des 40 vecteurs X2Fα βà 8 composantes peut donc être fait de façon parallèle, ainsi que le calcul de la fonction de filtrage primaire qui est décrit ci-dessous. Mettre ainsi le calcul en parallèle est une façon avantageuse de gagner en temps de calcul. Sur chaque branche correspondant à la détection d’un possible front montant dans une position donnée, et sur chaque sous branche correspondant à la détection des possibles fronts descendants des 5 rapports de cycle, sont appliquées deux critères de décisions. Le premier critère consiste à vérifier que l’amplitude du plus petit front montant ou descendant est supérieure à une valeur seuil donnée. Le deuxième critère consiste à vérifier que l’écart entre l’amplitude du plus grand front montant et descendant et l’amplitude du plus petit front montant ou descendant est inférieur à un pourcentage donné de l’amplitude du plus grand front montant ou descendant. On s’assure ainsi que les fronts montants et descendants ne sont pas générés par le bruit de la caméra 2 et qu’ils ont des amplitudes suffisamment proches pour correspondre à un signal modulé de type rectangulaire.
Si les deux critères ci-dessus sont vérifiés alors la variable λdcest mise à une valeur non nulle. Si un des deux critères ou les deux critères ne sont pas vérifiés alors la variable λdcest mise à zéro. Si aucune modulation avec un des rapports de cycles recherchés n’est détectée alors λdcest mise à zéro. Si un rapport de cycle de 25% est détecté λdcvaut 1. Si un rapport de cycle de 37.5% est détecté λdcvaut 2. Si un rapport de cycle de 50% est détecté λdcvaut 4. Si un rapport de cycle de 67.5% est détecté λdcvaut 5. Si un rapport de cycle de 75% est détecté λdcvaut 7.
Cependant, il est possible que, même après les filtrages secondaires (FS) que nous allons présenter ci-dessous. En sortie d’une branche correspondant à la détection d’un possible front montant dans une position donnée, deux rapports de cycle consécutifs peuvent être détectés par l’algorithme. Dans le cas de la détection de deux rapports de cycles consécutifs la variable λdcest égale à la somme de ces valeurs pour les deux rapports de cycle concernés. Ainsi lors de la détection simultanée des deux rapports de cycle de 25% et de 37,5% λdcest égale à 3 (1+2), lors de la détection simultanée des deux rapports de cycles de 35,5% et de 50% λdcest égale à 6 (2+4), lors de la détection simultanée des deux rapports de cycles de 50% et de 62,5% λdcest égale à 9 (4+5) et enfin lors de la détection simultanée des deux rapports de cycles de 62,5% et de 75% λdcest égale à 12 (5+7). Le demandeur a démontré qu’en théorie, dans le cas de la détection de deux rapports cycles, le rapport de cycle correct est le plus grand détecté (bloc « MAX » sur la figure 4). En pratique, une mauvaise réponse de la caméra 2 (effets de saturation notamment) peut fausser ce résultat. Ainsi lorsque λdcprend une valeur de 3 (1+2), c’est la valeur de λdcégale à 2 qui est retenue soit le rapport de cycle de 37,5%, lorsque λdcprend une valeur de 6 (2+4), c’est la valeur de λdcégale à 4 qui est retenue soit le rapport de cycle de 50%, lorsque λdcprend une valeur de 9 (4+5), c’est la valeur de λdcégale à 5 qui est retenue soit le rapport de cycle de 62,5%, enfin lorsque λdcprend une valeur de 12 (5+7), c’est la valeur de λdcégale à 7 qui est retenue soit le rapport de cycle de 75%.
Un filtrage secondaire (étape a6) composé de trois sous-filtres est appliqué à chaque branche et permet d’affiner la détection de la fréquence et du rapport de cycle par rapport au filtrage principal (étape a4). Ce filtrage secondaire permet d’éliminer des faux-positifs sur les résultats de filtrage principal.
Le premier sous filtrage (Filtrage plateau) est une restriction sur la stabilité du vecteur signal X et plus précisément sur la stabilité des états « hauts », entre un front montant et un front descendant, et des états « bas », entre un front descendant et un front montant. Ce sous filtrage mesure la variation d’amplitude des états « hauts » et des états « bas » qui doit être inférieure à une valeur prédéterminée. Ce premier sous filtrage est complémentaire du filtrage principal et permet de s’assurer que l’algorithme est bien en présence d’un signal rectangulaire. Si les échantillons correspondants aux états hauts et bas du signal modulé dépassent la valeur seuil fixée alors λdcest mis à 0, sinon λdcgarde sa valeur d’entrée.
Le deuxième sous filtrage (Filtrage fronts opposés) est une restriction sur la fréquence de modulation du signal lumineux L. Ce filtrage permet d’éliminer les détections de fréquences multiples de la fréquence de modulation. Ici, ce sous filtrage permet typiquement d’éliminer les fréquences telles que 1500 ou 2500 Hz. Il consiste à appliquer, sur le ou les vecteurs X2Fα βqui ont passé avec succès le filtrage principal, le filtrage plateau sur les fronts montants opposés (FM+3 et FM+5). Par exemple si le vecteur X2F50% 5,qui contient les amplitudes d’un front montant et descendant d’un signal modulé avec un rapport de cycle de 50% dont le 1erfront montant a été détecté sur le 5ièmeéchantillon, alors ce deuxième sous filtrage consiste à vérifier que les fronts en position 8, 16, 24 et 32 et que les fronts 2, 10, 18 et 26 ne dépassent pas une valeur seuil fixée. Si ces fronts dépassent la valeur seuil fixée alors λdcest mis à 0 sinon λdcgarde sa valeur d’entrée.
Le troisième sous filtrage est une restriction sur les valeurs de rapport de cycle détectée. Ce troisième sous filtrage calcule la différence entre le rapport de l’amplitude du premier front montant du vecteur M1x(x indique la position du 1erfront montant) sur l’amplitude du premier front montant du vecteur M2x(x indique la position du 1erfront montant) d’une part et le rapport de l’amplitude du premier front descendant du vecteur D1x ysur l’amplitude du premier front descendant du vecteur D2x yd’autre part (x indique la position du 1erfront montant, et y la valeur du rapport de cycle). Si l’écart entre ces deux rapports est supérieur à une valeur seuil alors on considère que le signal modulé n’est pas modulé avec le rapport de cycle recherché et n’est donc pas produit par une cible à détecter. La variable λdcest donc mise à 0 sinon λdcgarde sa valeur d’entrée. L’objectif est d’être plus strict sur la sélection de l’intervalle de rapport de cycle autorisé. Par exemple avec, ici, des rapports de cycle de 25%, 37,5%, 50%, 62,5% et 75%, un rapport de cyclé détecté à 48% est assimilé à 50% mais un rapport de cycle à 44% est rejeté et la variable λdcest mise à 0. Pour éliminer les cas où le signal est saturé, ce filtre vérifie aussi que l’amplitude du premier front montant du vecteur M1xest inférieure à l’amplitude du premier front montant du vecteur M2xd’une valeur seuil fixée et représentative du bruit d’échantillonnage des pixels de la caméra. Si cette condition n’est pas vérifiée, la variable λdcest mise à 0 sinon λdcgarde sa valeur d’entrée.
La sortie de l’algorithme (après le bloc « MAX ») est un entier. Ici, cet entier est codé sur 3 bits et varie par exemple de 0 à 5 (puisqu’il y a cinq rapports de cycle possibles plus la non-détection). Chaque entier labélise un motif prédéterminé. Par exemple, 0 labélise une non-détection de signal modulé, 1 labélise une détection d’un signal à 500 Hz avec un rapport de cycle de 25%, 2 labélise une détection d’un signal à 500 Hz avec un rapport de cycle de 37,5%, etc… Un label ou une combinaison de labels permet de reconnaitre le motif prédéterminé du signal lumineux. Une liste de correspondance entre les labels, ou les combinaisons de label, et les motifs est enregistrée dans la mémoire du véhicule V.

Claims (12)

  1. Méthode de détermination d’une caractéristique d’une cible (C) par un véhicule (V), le véhicule (V) comprenant une caméra (2), la cible (C) comportant un dispositif (1) émettant un signal lumineux (L) modulé possédant au moins un motif prédéterminé, la méthode comprenant les étapes suivantes :
    - une étape d’acquisition d’une série d’images (e2) dans laquelle la caméra (2) acquiert une série d‘images sur lesquelles la cible (C) apparaît,
    - une étape de reconnaissance (e5) du motif prédéterminé du signal lumineux (L) émis par le dispositif (1) de la cible (C), à partir de la série d’images acquise à l’étape d’acquisition d’une série d’images (e2),
    - une étape de détermination de caractéristique (e6), au cours de laquelle la caractéristique de la cible (C) est déterminée en fonction du motif prédéterminé reconnu à l’étape de reconnaissance (e5).
  2. Méthode selon la revendication 1, comprenant en outre les étapes suivantes :
    - une étape d’acquisition d’une image (e3) dans laquelle la caméra (2) acquiert, pendant une période d’acquisition correspondant à une fréquence inférieure à celle utilisée pour acquérir ladite série d’images, au moins une autre image sur laquelle la cible (C) apparaît,
    - une étape de détermination d’une forme (e4) générale de la cible (C), à partir au moins de ladite autre image acquise à l’étape d’acquisition d’une image (e3),
    et dans laquelle, à l’étape de détermination de caractéristique (e6), la caractéristique de la cible (C) est déterminée en fonction également de la forme générale de la cible (C) déterminée à l’étape de détermination d’une forme (e4).
  3. Méthode selon la revendication 2, dans laquelle à l’étape d’acquisition d’une image (e3), il est prévu d’acquérir ladite au moins une autre image sur une durée inférieure à 20 ms.
  4. Méthode selon l’une des revendications 2 et 3, dans laquelle, à l’étape de détermination d’une forme (e4), une position de la cible (C) dans ladite au moins une autre image est déterminée et dans laquelle, à l’étape de reconnaissance (e5), le motif prédéterminé est recherché dans une partie seulement de chaque image de ladite série d’images, ladite partie étant déduite de ladite position de la cible (C).
  5. Méthode selon l’une des revendications 1 à 4, dans laquelle le signal lumineux (L) émis par le dispositif (1) de la cible (C) est modulé à une fréquence de modulation comprise entre 250 Hz et 1 kHz et dans laquelle à l’étape d’acquisition d’une série d’images (e2), ladite série d’images est acquise à une fréquence supérieure à 2 kHz sur une durée prédéterminée inférieure à 8 ms.
  6. Méthode selon l’une des revendications 1 à 5, dans laquelle le signal lumineux (L) émis par le dispositif (1) de la cible (C) possède un motif caractérisé par une fréquence et/ou par un rapport de cycle, et dans laquelle le motif est reconnu en déterminant la fréquence et/ou le rapport de cycle.
  7. Méthode selon l’une des revendications 1 à 6, dans laquelle le dispositif de la cible (C) émet un signal lumineux multispectral comprenant une pluralité de bandes spectrales, chacune possédant au moins un motif prédéterminé et dans laquelle la caméra (2) est multispectrale.
  8. Méthode selon la revendication 7, dans laquelle à l’étape de reconnaissance (e5), une reconnaissance du motif de chaque bande spectrale est effectuée et à l’étape de détermination de caractéristique (e6), la détermination de la caractéristique de la cible (C) prend en compte le motif de chaque bande spectrale reconnu à l’étape de reconnaissance (e5).
  9. Méthode selon l’une des revendications 1 à 8, dans laquelle le signal lumineux (L) est un signal rectangulaire et dans laquelle à l’étape de reconnaissance (e5), la reconnaissance du motif lumineux est au moins en partie effectuée par un algorithme comprenant les étapes suivantes :
    - une étape de génération (a1) d’un vecteur signal (X) dont les composantes correspondent, directement ou indirectement, au signal acquis par un pixel de la caméra (2) lors de l’étape d’acquisition d’une série d’images (e2),
    - une étape de calcul (a2) d’un second vecteur (X2) dont les composantes correspondent à la différence entre deux composantes du vecteur signal (X),
    - une étape de filtrage principal (a4) qui permet de déduire du second vecteur (X2) la fréquence et le rapport de cycle du signal lumineux (L),
    et, préférentiellement :
    - une étape de filtrage secondaire (a6) qui permet d’affiner la déduction de l’étape de filtrage principal (a4) et qui comprend :
    - une comparaison des fronts montants et des fronts descendants du vecteur signal (X) pour s’assurer que le signal acquis par la caméra (2) est un signal rectangulaire,
    - une évaluation de la stabilité du vecteur signal (X) pour s’assurer que le signal acquis par la caméra (2) est un signal rectangulaire,
    - une élimination des fréquences multiples de la fréquence du signal lumineux (L), et
    - une restriction sur les valeurs de rapport de cycle.
  10. Méthode selon l’une des revendications 1 à 9, dans laquelle la caractéristique de la cible (C) comprend au moins l’un des paramètres suivants :
    - le type de véhicule qu’est la cible (C) ;
    - la vitesse de la cible (C) ;
    - l’accélération de la cible (C) ;
    - le fait que la cible (C) soit en freinage d’urgence.
  11. Véhicule (V) automobile comprenant une caméra (2) et un calculateur, caractérisé en ce que le calculateur est programmé pour mettre en œuvre une méthode de détermination d’une caractéristique d’une cible (C) comportant un dispositif (1) émettant un signal lumineux (L) modulé possédant au moins un motif prédéterminé, ladite méthode comprenant les étapes suivantes :
    - une étape d’acquisition d’une série d’images (e2) dans laquelle la caméra (2) acquiert une série d’images sur lesquelles la cible (C) apparaît,
    - une étape de reconnaissance (e5) du motif prédéterminé du signal lumineux (L) émis par le dispositif (1) de la cible (C), à partir de ladite série d’images acquise à l’étape d’acquisition d’une série d’images (e2),
    - une étape de détermination d’une caractéristique (e6), au cours de laquelle la caractéristique de la cible (C) est déterminé en fonction du motif prédéterminé reconnu à l’étape de reconnaissance (e5).
  12. Cible (C) comportant un dispositif (1) adapté à émettre un signal lumineux (L) et un calculateur, caractérisé en ce que le calculateur est programmé pour moduler le signal lumineux (L) de façon à ce qu’il présente un motif prédéterminé qui caractérise la cible (C).
FR1912145A 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible Active FR3102596B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1912145A FR3102596B1 (fr) 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1912145 2019-10-29
FR1912145A FR3102596B1 (fr) 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible

Publications (2)

Publication Number Publication Date
FR3102596A1 true FR3102596A1 (fr) 2021-04-30
FR3102596B1 FR3102596B1 (fr) 2021-10-29

Family

ID=69468811

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1912145A Active FR3102596B1 (fr) 2019-10-29 2019-10-29 Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible

Country Status (1)

Country Link
FR (1) FR3102596B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115565371A (zh) * 2022-09-21 2023-01-03 北京汇通天下物联科技有限公司 应急停车检测方法、装置、电子设备及可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2219133A1 (fr) 2009-02-17 2010-08-18 Autoliv Development AB Procédé et système de détection automatique d'objets en face d'un véhicule à moteur

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2219133A1 (fr) 2009-02-17 2010-08-18 Autoliv Development AB Procédé et système de détection automatique d'objets en face d'un véhicule à moteur

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FELIPE JIMÉNEZ ET AL: "Advanced Driver Assistance System for Road Environments to Improve Safety and Efficiency", TRANSPORTATION RESEARCH PROCEDIA, vol. 14, 1 January 2016 (2016-01-01), pages 2245 - 2254, XP055710350, ISSN: 2352-1465, DOI: 10.1016/j.trpro.2016.05.240 *
TAKAI ISAMU ET AL: "Optical Vehicle-to-Vehicle Communication System Using LED Transmitter and Camera Receiver", IEEE PHOTONICS JOURNAL, IEEE, USA, vol. 6, no. 5, 1 October 2014 (2014-10-01), pages 1 - 14, XP011558456, DOI: 10.1109/JPHOT.2014.2352620 *
TORU NAGURA ET AL: "Improved Decoding Methods of Visible Light Communication System for ITS Using LED Array and High-Speed Camera", 2010 IEEE VEHICULAR TECHNOLOGY CONFERENCE (VTC 2010-SPRING) - 16-19 MAY 2010 - TAIPEI, TAIWAN, IEEE, US, 16 May 2010 (2010-05-16), pages 1 - 5, XP031696183, ISBN: 978-1-4244-2518-1 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115565371A (zh) * 2022-09-21 2023-01-03 北京汇通天下物联科技有限公司 应急停车检测方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
FR3102596B1 (fr) 2021-10-29

Similar Documents

Publication Publication Date Title
EP0755524B1 (fr) Procede de surveillance de trafic pour la detection automatique d'incident de vehicules
EP3195077A1 (fr) Procédé et système de localisation et de cartographie
FR3019359A1 (fr) Procede de determination d'un etat d'obstruction d'au moins une camera embarquee dans un systeme stereoscopique
FR3102596A1 (fr) Méthode de détermination d’une caractéristique d’une cible par un véhicule , véhicule automobile et cible
EP1610279B1 (fr) Procédé et système de surveillance de véhicules en déplacement
FR2706211A1 (fr) Procédé de traitement d'images routières et de suivi d'obstacles, et dispositif pour sa mise en Óoeuvre.
EP0588815A1 (fr) Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles
EP2862154B1 (fr) Regroupement de donnees attachees a des images
FR3041589A1 (fr) Dispositif d'aide a la conduite pour estimation du danger d'une situation
EP2756483B1 (fr) Procédé et système d'acquisition et de traitement d'images pour la détection du mouvement
EP3759518B1 (fr) Procédé et système d'émission et de réception d'impulsions laser
FR3102597A1 (fr) Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible
FR3067144A1 (fr) Procede de determination du type de route sur laquelle evolue un vehicule
EP3310039B1 (fr) Dispositif électronique d'analyse d'une scène
FR3111449A1 (fr) Systèmes et méthodes de détermination d’un nombre de personnes dans un véhicule
FR2976091A1 (fr) "procede et dispositif de deconnexion automatique des systemes d'aide a la conduite d'un vehicule en approche d'une barriere de peage"
EP0359314B1 (fr) Système de traitement d'images
FR3078427A1 (fr) Detection dynamique de lumiere parasite dans une image numerique
EP2984639B1 (fr) Dispositif et procede de suivi 3d video d'objets d'interêt
FR2617315A1 (fr) Procede et dispositif de discrimination du type d'un vehicule automobile en circulation
EP1835306B1 (fr) Procédé et dispositif de détection d'un obstacle au voisinage d'un véhicule en mouvement
WO2021250258A1 (fr) Procédé de mise en œuvre d'un dispositif lidar avec descripteurs
FR3105511A1 (fr) Procédé de reconnaissance automatique de signalisation routière pour véhicule autonome
FR3069362A1 (fr) Procede et dispositif reducteur de nombre de candidats a detecter d'un procede de reconnaissance d'objet
FR3115144A1 (fr) Procédé de traitement d’images

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210430

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

CA Change of address

Effective date: 20221005

PLFP Fee payment

Year of fee payment: 5