FR3082936A1 - Traitement stereoscopique de donnees de vehicules connectes - Google Patents

Traitement stereoscopique de donnees de vehicules connectes Download PDF

Info

Publication number
FR3082936A1
FR3082936A1 FR1855440A FR1855440A FR3082936A1 FR 3082936 A1 FR3082936 A1 FR 3082936A1 FR 1855440 A FR1855440 A FR 1855440A FR 1855440 A FR1855440 A FR 1855440A FR 3082936 A1 FR3082936 A1 FR 3082936A1
Authority
FR
France
Prior art keywords
vehicle
data
axis
sensor
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1855440A
Other languages
English (en)
Inventor
Stefano Mafrica
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR1855440A priority Critical patent/FR3082936A1/fr
Publication of FR3082936A1 publication Critical patent/FR3082936A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/18Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with one observation point at each end of the base
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/04Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • G01S2013/468Indirect determination of position data by Triangulation, i.e. two antennas or two sensors determine separately the bearing, direction or angle to a target, whereby with the knowledge of the baseline length, the position data of the target is determined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Procédé de détection dans un espace à trois dimensions d'un objet (0) par des capteurs compris sur un premier véhicule (V1) et sur un deuxième véhicule (V2), le premier véhicule et le deuxième véhicule étant configurés pour échanger, directement ou indirectement, des données, le procédé comportant les étapes de : - réception de premières données relatives à l'objet acquises par au moins un capteur du premier véhicule ; - réception de deuxièmes données relatives à l'objet acquises par au moins un capteur du deuxième véhicule ; - réception de données de position relative du premier véhicule par rapport au deuxième véhicule ; - génération d'une information de spatialisation de l'objet à partir des premières données, des deuxièmes données et des données de position relative, l'information de spatialisation étant configurée pour localiser l'objet dans l'espace à trois dimensions.

Description

La présente invention appartient au domaine du véhicule connecté. Elle concerne en particulier un procédé de détection dans un espace à trois dimensions d’un objet par des capteurs compris sur un premier véhicule et sur un deuxième véhicule.
Elle est particulièrement avantageuse pour donner de la profondeur à la détection d’un objet par un véhicule automobile autonome.
On entend par « véhicule » tout type de véhicule tel qu’un véhicule automobile, un cyclomoteur, une motocyclette, une brouette, un véhicule sur rails, etc. On entend par « véhicule connecté » tout type de véhicule apte à échanger des données, par exemple via une liaison radiofréquence avec tout autre type d’entité connecté, tel qu’une station de base d’un réseau de communication étendu, un autre véhicule, une infrastructure routière, etc.
Un « espace à trois dimension » est par exemple un espace euclidien de dimension 3, noté IR3. Dans l’espace à trois dimensions, les coordonnées d’un point s’expriment par exemple dans un système de coordonnées cartésiennes d’un référentiel galiléen.
Un des enjeux principaux de la conduite autonome tient à la détection fiable et précise des objets que peut rencontrer un véhicule autonome. En particulier, une difficulté importante dans la détection tient à la « spatialisation » des objets dans l’environnement du véhicule.
En effet, les capteurs principalement utilisés à l’heure actuelle sont les caméras. La caméra, frontale notamment, est un capteur inévitable pour la conduite autonome car c’est un des seuls capteurs capables d’identifier la nature d’un objet (véhicule, piéton, etc.).
Or, une caméra simple ne peut pas placer un objet dans un espace à trois dimensions. Aucun phénomène physique ne rend par exemple possible la détermination de la distance entre l’objet et le véhicule autonome à partir des seules données de la caméra. Une telle caméra ne peut placer l’objet que dans un plan, que l’on pourrait par exemple illustrer par un écran situé en face de la caméra.
Pour résoudre ce problème, il a pu être proposé de multiplier les capteurs. En particulier, des capteurs aptes à mesurer le temps mis par un signal pour effectuer le trajet aller-retour véhicule autonome - objet ont pu être utilisés. Toutefois, la précision de tels capteurs n’est pas toujours bonne, notamment par temps de pluie. De tels capteurs sont par ailleurs très coûteux et le traitement des signaux acquis par ces capteurs nécessite d’importantes ressources de calcul. De plus, il n’est pas toujours aisé d’associer les distances détectées par de tels capteurs et les objets détectés par une caméra. En outre, la portée de ces capteurs peut être réduite par rapport à la portée d’autres capteurs tel qu’une caméra.
Il a également pu être proposé des caméras stéréoscopiques. Pour fonctionner, de telles caméras utilisent au moins deux objectifs afin de pouvoir de placer dans la profondeur les objets qu’elles détectent. De telles caméras sont naturellement très complexes à utiliser et très onéreuses. Il est donc particulièrement difficile de les intégrer dans un véhicule autonome. En outre, leur calibration est très complexe car la distance séparant les objectifs est quasiment négligeable par rapport à la distance avec l’objet.
Il n’existe donc pas de système fiable, simple et économique rendant possible une spatialisation de la détection des objets.
La présente invention vient améliorer la situation.
A cet effet, un premier aspect de l’invention concerne un procédé de détection dans un espace à trois dimensions d’un objet par des capteurs compris sur un premier véhicule et sur un deuxième véhicule, le premier véhicule et le deuxième véhicule étant configurés pour échanger, directement ou indirectement, des données, le procédé comportant les étapes de :
- réception de premières données relatives à l’objet acquises par au moins un capteur du premier véhicule ;
- réception de deuxièmes données relatives à l’objet acquises par au moins un capteur du deuxième véhicule ;
- réception de données de position relative du premier véhicule par rapport au deuxième véhicule ;
- génération d’une information de spatialisation de l’objet à partir des premières données, des deuxièmes données et des données de position relative, l’information de spatialisation étant configurée pour localiser l’objet dans l’espace à trois dimensions.
L’invention consiste donc à tirer profit de la connexion des véhicules entre eux pour obtenir l’information de spatialisation, via un effet qui peut être qualifié de stéréoscopique.
Ainsi, il n’est plus nécessaire de prévoir de coûteux composants pour obtenir le placement dans l’espace de l’objet. L’échange de données entre les véhicules est suffisant pour obtenir l’information de spatialisation.
En outre, la précision obtenue pour placer l’objet dans l’espace est très bonne. En effet, la distance relativement importante (en comparaison de la distance entre les deux objectifs d’une caméra stéréoscopique) réduit la marge d’erreur dans les calculs de spatialisation de l’objet.
De plus, dans le cas où une information de spatialisation est déjà disponible, l’utilisation de l’effet stéréoscopique introduit de la redondance et améliore donc la fiabilité de détection de l’objet, critique pour le véhicule autonome. En outre, pour les procédés de conduite autonome fondés sur un apprentissage (notamment machine learning, pour apprentissage automatique en français), l’introduction de cette redondance facilite sensiblement l’apprentissage en ce que des données fiabilisées sont disponibles pour l’apprentissage sans nécessiter d’intervention humaine.
On entend par « le premier véhicule et le deuxième véhicule étant configurés pour échanger, directement ou indirectement, des données » l’aptitude pour le premier et le deuxième véhicule à communiquer entre eux. Cette communication peut être directe, il s’agit alors typiquement d’une communication « Car2Car », voiture à voiture en français. Cette communication peut également être indirecte lorsqu’elle est réalisée par l’intermédiaire d’au moins un dispositif connecté, tel qu’un serveur distant par exemple, la communication fait alors typiquement intervenir une communication « Car2lnfrastructure », voiture à infrastructure. Les communications Car2Car et Car2lnfrastructure sont des communications de type « Car2X », pour « car to everything » en anglais, c’est-à-dire « voiture à tout dispositif » en français, ou encore « V2X », pour « vehicle to everything » en anglais, c’est-à-dire « véhicule à tout dispositif » en français. Ces communications sont fondées sur différents protocoles, connus de l’homme du métier, tels que les protocoles visés par les normes ITS-G5, 3GPP 5G V2X, etc.
Dans un mode de réalisation, l’information de spatialisation comprend une valeur de distance entre l’un au moins des véhicules et l’objet. Déterminer avec précision la valeur de distance est capital pour la sécurité du véhicule concerné par l’objet.
Dans un mode de réalisation :
• les premières données comprennent une valeur d’un angle entre un axe qui lie le premier véhicule à l’objet et un axe qui lie le premier et le deuxième véhicule ;
• les deuxième données comprennent une valeur d’un angle entre un axe qui lie le deuxième véhicule à l’objet et un axe qui lie le premier et le deuxième véhicule ;
• les données de position relative comprennent une valeur de distance entre le premier et le deuxième véhicule.
En particulier, dans un mode de réalisation, soit θ l’angle entre l’axe qui lie le premier véhicule à l’objet et l’axe qui lie le premier et le deuxième véhicule, soit φ l’angle entre l’axe qui lie le deuxième véhicule à l’objet et l’axe qui lie le premier et le deuxième véhicule et soit L la distance entre le premier véhicule et le deuxième véhicule. La distance X entre le deuxième véhicule et l’objet est alors égale à :
sin Θ
X = L·—77---?
sin(0 + φ)
Ces calculs sont simples à mettre en œuvre tout en rendant possible une détection fiable et efficace de la distance entre le deuxième véhicule et l’objet.
Dans un autre mode de réalisation, les premières et/ou les deuxièmes données sont obtenues à partir de l’un au moins des éléments suivants : un relevé radiogoniométrique, un relevé radar, un relevé lidar, un relevé d’une caméra, un relevé d’un appareil photo. Dans le cas de relevés radiogoniométrique, radar et/ou lidar, l’invention améliore par exemple la fiabilité de la détection de l’information de spatialisation en introduisant de la redondance. Dans le cas de relevés caméra ou photographiques, l’utilisation des données de deux véhicules différents rend possible la mise en profondeur, impossible en utilisant une seule caméra et/ou appareil photographique. De plus, l’association de l’information de spatialisation avec l’objet détecté par la caméra est aisée car les mêmes données sont utilisées pour la détermination de l’information de spatialisation et la détection de l’objet.
Dans un mode de réalisation, les données de position relative du premier véhicule par rapport au deuxième véhicule sont obtenues à partir de l’un au moins des éléments suivants : un capteur de position du premier véhicule et/ou un capteur de position du deuxième véhicule, un relevé radiogoniométrique, un relevé radar, un relevé lidar, un relevé d’une caméra, un relevé d’un appareil photo.
Dans un mode de réalisation, le procédé comporte en outre les étapes de :
- détermination d’une première zone de détection fiable par le capteur du premier véhicule ;
- détermination d’une deuxième zone de détection fiable par le capteur du deuxième véhicule ;
- détermination d’une zone de spatialisation fiable à partir de la première zone de détection fiable, de la deuxième zone de détection fiable et des données de position relative, l’information de spatialisation pouvant être obtenue dans la zone de spatialisation avec un degré de fiabilité prédéterminé. Ainsi, une fois les données relatives à l’objet consolidées, il est possible de déterminer un niveau de confiance relatif à ces données, notamment quant au fait que l’objet soit positionné dans l’espace ou non.
Dans un autre mode de réalisation, les premières et les deuxièmes données sont des données brutes, c’est-à-dire que les données brutes n’ont pas subi de traitement d’un niveau applicatif.
Ainsi, le temps de traitement des données est avantageusement réduit. L’objet peut donc plus facilement être positionné dans l’espace en temps réel. Par exemple, les images acquises par les caméras sont transmises brutes pour la génération de l’information de spatialisation.
Un deuxième aspect de l’invention vise un programme informatique comportant des instructions pour la mise en œuvre du procédé selon le premier aspect de l’invention, lorsque ces instructions sont exécutées par un processeur.
Un troisième aspect de l’invention vise un dispositif de détection dans un espace à trois dimensions d’un objet par des capteurs compris sur un premier véhicule et sur un deuxième véhicule, le premier véhicule et le deuxième véhicule étant configurés pour échanger, directement ou indirectement, des données, le dispositif comportant au moins une mémoire et un processeur agencés pour effectuer les opérations de :
- réception de premières données relatives à l’objet acquises par au moins un capteur du premier véhicule ;
- réception de deuxièmes données relatives à l’objet acquises par au moins un capteur du deuxième véhicule ;
- réception de données de position relative du premier véhicule par rapport au deuxième véhicule ;
- génération d’une information de spatialisation de l’objet à partir des premières données, des deuxièmes données et des données de position relative, l’information de spatialisation étant configurée pour localiser l’objet dans l’espace à trois dimensions.
Un quatrième aspect de l’invention vise un véhicule comportant le dispositif selon le troisième aspect de l’invention.
D’autres caractéristiques et avantages de l’invention apparaîtront à l’examen de la description détaillée ci-après, et des dessins annexés sur lesquels :
la figure 1 illustre un contexte d’application de l’invention ;
la figure 2 est une représentation, vue de haut, du contexte d’application de l’invention sur laquelle sont représentées les grandeurs utilisées par un procédé de détection d’un objet dans un espace à trois dimensions, selon un mode de réalisation de l’invention ;
la figure 3 illustre un procédé de détection dans un espace à trois dimensions d’un objet, selon un mode de réalisation de l’invention ;
la figure 4 illustre un dispositif de détection dans un espace à trois dimensions d’un objet, selon un mode de réalisation de l’invention.
L’invention est décrite ci-après dans son application, non limitative, au cas d’un premier et d’un deuxième véhicule automobile circulant sur une route à deux voies de circulation. L’invention n’est pas limitée à une telle application illustrative et peut par exemple mise en œuvre par un cyclomoteur connecté et une poussette connectée sur une piste cyclable sans voie de circulation déterminée.
La figure 1 illustre le contexte de mise en œuvre de l’invention.
Sur la figure 1, un premier véhicule V1 et un deuxième véhicule V2 abordent un objet 0 situé sur une route R comprenant deux voies de circulation.
Le premier véhicule V1 comprend une antenne A1 configurée pour rendre possible un échange de données avec le deuxième véhicule V2 et un serveur débarqué SERV. Le véhicule V1 comprend en outre :
- au moins un capteur C1 configuré pour l’acquisition de données relatives à l’objet 0 situé dans l’environnement du premier et du deuxième véhicule ;
- un dispositif D1 pour la mise en œuvre d’au moins certaines étapes du procédé selon l’invention, et en particulier pour un traitement en vue d’une transmission des données acquises par le capteur C1. Ces étapes sont décrites ci-après en référence à la figure 3 et le dispositif D1 en référence à la figure 4.
Dans un mode de réalisation décrit ci-après en référence à la figure 3, le serveur SERV met en œuvre au moins certaines étapes du procédé selon l’invention. Il comprend à cet effet un dispositif D3, tel que décrit ci-après en référence à la figure 4.
Le deuxième véhicule V2 comporte une antenne A2 configurée pour la transmission de données vers le serveur SERV et le véhicule V1. Il comprend en outre un capteur C2 configuré pour l’acquisition de données relatives à l’objet 0 et un dispositif de traitement D2, également décrit ci-après en référence à la figure 4.
Le capteur C1 et/ou le capteur C2 comprennent, pour l’acquisition des données relatives à l’objet 0, l’un au moins des éléments suivants : un radiogoniomètre, un radar, un lidar, une caméra et/ou un appareil photo.
Le premier véhicule et/ou le deuxième véhicule comprennent en outre, pour l’acquisition de données de position relative du premier véhicule par rapport au deuxième véhicule, l’un au moins des éléments suivants : un capteur de position du premier véhicule et/ou un capteur de position du deuxième véhicule, un radiogoniomètre, un radar, un lidar, une caméra et/ou un appareil photo. L’élément pour l’acquisition des données de position relative peut également être utilisé pour l’acquisition des données relatives à l’objet 0. L’acquisition des données de position relative est décrite ci-après en référence à la figure 3, étapes S1 et S2.
Le capteur de position est par exemple un système de positionnement global GNSS (GNSS signifie Global Navigation Satellite System en anglais, pour système de navigation satellite global en français), aussi connu par le sigle GPS (GPS signifie Global Positionning System en anglais, soit système de positionnement global en français). Le capteur de position peut également être un accéléromètre ou un renseignement par un utilisateur du véhicule V1 ou du véhicule V2.
Comme cela est détaillé ci-après en référence à la figure 2, les données de fonctionnement du groupe motopropulseur du deuxième véhicule V2 sont transmises au serveur SERV et/ou au premier véhicule V1.
La figure 2 est une représentation, vue de haut, du contexte décrit figure 1 sur laquelle sont représentées les grandeurs utilisées par le procédé de détection décrit ci-après en référence à la figure 3.
Les véhicules V1 et V2, la route R et l’objet 0 sont représentés vus de haut sur la figure 2.
Pour les calculs, le véhicule V1 est considéré comme étant un point matériel P1. La position du point matériel P1 peut par exemple être exprimée dans un système de coordonnées cartésiennes (0, u, v) d’un référentiel galiléen. De même, le véhicule V2 est considéré comme étant un point matériel P2.
Comme détaillé ci-après en référence à la figure 3, dans un mode de réalisation de l’invention, les distances Y et X respectivement entre l’objet 0 et le véhicule V1 et entre l’objet 0 et le véhicule V2 sont déterminées par des calculs géométriques dans le triangle ayant pour sommets 0, P1 et P2.
En particulier, la valeur d’un angle θ entre l’axe P10 qui lie le premier véhicule V1 à l’objet 0 et l’axe P1P2 qui lie le premier et le deuxième véhicule et la valeur d’un angle φ entre l’axe P20 qui lie le deuxième véhicule V2 à l’objet 0 et l’axe P1P2 qui lie le premier et le deuxième véhicule sont utilisées.
Une distance L entre le point matériel P1 du premier véhicule V1 et le point matériel P2 du deuxième véhicule V2 est utilisée pour les calculs décrits ci-après en référence à la figure 3.
La figure 3 illustre le procédé selon l’invention, dans un mode de réalisation. Dans ce mode de réalisation illustratif, on considère que les capteurs 01 et C2 sont des caméras simples (c’est-à-dire non stéréoscopiques).
Les calculs et étapes décrites ci-après sont largement simplifiées pour la clarté des explications. Par exemple, les calculs ci-après sont effectués dans le plan, défini par le repère (0 ; u ; v) mentionné ci-avant en référence à la figure 2, mais, dans la pratique, ces calculs pourront être transposés dans l’espace. Ainsi, la différence de hauteur entre les caméras 01 et C2 ou la hauteur de l’objet pourront par exemple être prise en compte dans les calculs géométriques.
Sur la figure 3, les lignes pointillées ont pour objet d’indiquer quelles étapes sont effectuées par le premier véhicule V1, par le dispositif D2 du deuxième véhicule V2 ou par les différents capteurs 02, GPS du véhicule V2. Le capteur GPS, non représenté, fait référence au capteur de position mentionné ci-avant en référence à la figure 1.
A l’étape S1, la valeur de l’angle θ et la position du point P1 sont acquises.
Pour acquérir la valeur de l’angle Θ, une analyse d’une image acquise par la caméra 01 peut être effectuée. En particulier, une fois l’objet détecté dans l’image selon des procédés connus, typiquement fondés sur un réseau neuronal convolutif, un angle entre un point prédéterminé de l’objet O (par exemple un barycentre) et une direction fixe prédéterminée de la caméra peut être déterminée. La direction fixe prédéterminée correspond par exemple à un axe longitudinal du véhicule situé à la hauteur de la caméra.
Une fois cet angle connu, il est soustrait à un angle entre l’axe P1P2 et la direction fixe prédéterminée pour que soit obtenu l’angle Θ. Dans un mode de réalisation, des coordonnées de l’axe P1P2 sont obtenues via une localisation du véhicule V2 par un capteur du véhicule V1. Dans un autre mode de réalisation, les coordonnées de l’axe P1P2 sont obtenues avec une donnée de positionnement de P2, transmise par le véhicule V2. Dans un autre mode de réalisation, seul l’angle entre le point prédéterminé de l’objet 0 et la direction fixe prédéterminée est transmise et l’angle θ est déterminé par une entité, tel que le véhicule V2 ou le serveur distant SERV, ayant connaissance de la position du point P2.
A l’étape S2, la valeur de l’angle θ et les données de positionnement du point P1 sont transmises au véhicule V2.
De manière similaire à ce qui a été expliqué ci-avant en référence à l’étape S1, la valeur de l’angle φ et la position du point P2 sont acquises, respectivement par le capteur C2 et le capteur de position GPS, à l’étape S3. La valeur de l’angle φ et la position du point P2 sont ensuite transmises au dispositif D2 du véhicule V2 à l’étape S4.
La valeur des angles θ et φ et les positions des points P1 et P2 sont reçues par le dispositif D2 du véhicule V2 à l’étape S5. La valeur de l’angle θ est une première donnée relative à l’objet 0 acquise par le capteur C1 du premier véhicule V1. La valeur de l’angle φ est une deuxième donnée relative à l’objet 0 acquise par le capteur C2 du premier véhicule V2. Les positions des points P1 et P2 sont des données de position relative du premier véhicule par rapport au deuxième véhicule.
Dans un mode de réalisation, les premières et les deuxièmes données reçues par D2 sont des données brutes, c’est-à-dire que les données brutes n’ont pas subi de traitement d’un niveau applicatif. Par exemple, les images acquises par les caméras C1 et C2 ainsi que les relevés de position des points P1 et P2 sont directement transmis au dispositif D2. Le dispositif D2 effectue alors les étapes de traitement applicatif consistant notamment à récupérer les valeurs des angles θ et φ.
A l’étape S6, la distance L entre les points P1 et P2 est calculée. La position des points P1 et P2 étant connue, le calcul de la distance est simple.
A l’étape S7, la distance X entre l’objet 0 et le point P2 du deuxième véhicule V2 est calculée. La distance X est calculée par une fonction f à partir des valeurs des angles θ et φ et de la distance L. Parmi les manières de calculer cette distance, la formule mathématique suivante peut être utilisée :
sin Θ
X = L-—77---7 sin(0 + φ)
La distance X est une information de spatialisation de l’objet 0 en ce qu’elle permet de localiser l’objet dans l’espace à trois dimensions, et plus seulement dans un plan, que l’on pourrait par exemple illustrer par un écran situé en face de la caméra. En effet, l’objet O est ainsi positionné en profondeur par rapport au véhicule V2.
A l’étape S8, la distance X est envoyée aux dispositifs concernés par la détection de l’objet 0. La distance X peut également être directement traitée par les composants du dispositif D2 qui seraient en charge de la conduite autonome.
On a décrit ci-avant une architecture de mise en œuvre du procédé dans laquelle le dispositif D2 était en charge des étapes de réception S5 et de calcul S6 et S7. Dans un autre mode de réalisation, ces étapes sont mises en œuvre de manière délocalisée par le dispositif D3 du serveur distant SERV.
Dans un autre mode de réalisation, la distance Y entre l’objet 0 et le point P1 du premier véhicule V1 est calculée, par exemple par le dispositif D1 du véhicule V1. Dans ce mode de réalisation, une formule pour déterminer Y peut-être :
sin φ
Y — £_-------' sin(0 + φ)
La figure 4 représente un exemple de dispositif D du véhicule V1, du véhicule V2 ou du serveur SERV, sur les figures précédentes ces dispositifs sont respectivement notés D1, D2 et D3. Ce dispositif D peut être utilisé en tant que dispositif centralisé en charge d’au moins certaines étapes du procédé effectuée par le véhicule V1, le véhicule V2 ou par le serveur SERV, selon l’invention.
Ce dispositif D peut prendre la forme d’un boîtier comprenant des circuits imprimés, de tout type d’ordinateur ou encore d’un smartphone.
Le dispositif D comprend une mémoire vive 1 pour stocker des instructions pour la mise en œuvre par un processeur 2 d’au moins une étape du procédé tel que décrit ci-avant. Le dispositif comporte aussi une mémoire de masse 3 pour le stockage de données destinées à être conservées après la mise en œuvre du procédé. La mémoire vive 1 et/ou la mémoire de masse 3 stockent par exemple l’historique des authentifications de passagers.
Le dispositif D peut en outre comporter un processeur de signal numérique (DSP) 4. Ce DSP 4 reçoit les données des capteurs pour mettre en forme, démoduler et amplifier, de façon connue en soi ces données.
Le dispositif comporte également une interface d’entrée 5 pour la réception des données mises en œuvre par le procédé selon l’invention, comme les premières données, les deuxièmes données et les données de position relative et une interface de sortie 6 pour la transmission des données mises en œuvre par le procédé, comme l’information de spatialisation.
La présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d’exemples ; elle s’étend à d’autres variantes.
Ainsi, on a décrit ci-avant un exemple dans lequel le premier véhicule V1 suivait le deuxième véhicule V2. L’invention ne se limite pas à un tel exemple et les véhicules peuvent bien sûr se croiser, être plus espacés sur une autoroute, etc.
De plus, on a décrit ci-avant un mode de réalisation dans lequel les capteurs C1 et C2 sont des caméras. D’autres types de capteurs, tels que des radars ou des lidars peuvent également mettre partiellement ou totalement en œuvre le procédé selon l’invention. Par exemple, le procédé selon l’invention peut être utilisé pour confirmer une distance à l’objet détectée de manière non fiable par un lidar.
En outre, on a décrit ci-avant un exemple d’application à un véhicule automobile autonome. D’autres applications sont envisageables, notamment une application d’assistance simple à la conduite par l’entremise d’alertes diffusées au conducteur du véhicule.

Claims (10)

1. Procédé de détection dans un espace à trois dimensions d’un objet (0) par des capteurs compris sur un premier véhicule (V1) et sur un deuxième véhicule (V2), le premier véhicule et le deuxième véhicule étant configurés pour échanger, directement ou indirectement, des données, le procédé comportant les étapes de :
- réception de premières données relatives à l’objet acquises par au moins un capteur du premier véhicule ;
- réception de deuxièmes données relatives à l’objet acquises par au moins un capteur du deuxième véhicule ;
- réception de données de position relative du premier véhicule par rapport au deuxième véhicule ;
- génération d’une information de spatialisation de l’objet à partir des premières données, des deuxièmes données et des données de position relative, l’information de spatialisation étant configurée pour localiser l’objet dans l’espace à trois dimensions.
2. Procédé selon la revendication 1, dans lequel l’information de spatialisation comprend une valeur de distance (X) entre l’un au moins des véhicules (V1 ; V2) et l’objet (0).
3. Procédé selon la revendication 2, dans lequel :
• les premières données comprennent une valeur d’un angle entre un axe qui lie le premier véhicule à l’objet et un axe qui lie le premier et le deuxième véhicule ;
• les deuxième données comprennent une valeur d’un angle entre un axe qui lie le deuxième véhicule à l’objet et un axe qui lie le premier et le deuxième véhicule ;
• les données de position relative comprennent une valeur de distance entre le premier et le deuxième véhicule.
4. Procédé selon la revendication 3, dans lequel, soit θ l’angle entre l’axe qui lie le premier véhicule à l’objet et l’axe qui lie le premier et le deuxième véhicule ;
soit φ l’angle entre l’axe qui lie le deuxième véhicule à l’objet et l’axe qui lie le premier et le deuxième véhicule ;
soit L la distance entre le premier véhicule et le deuxième véhicule ;
la distance X entre le deuxième véhicule et l’objet est égale à :
sin Θ
X = L-—72---?
sin(0 + φ)
5. Procédé selon l’une des revendications précédentes, dans lequel les premières et/ou les deuxièmes données sont obtenues à partir de l’un au moins des éléments suivants :
• un relevé radiogoniométrique ;
• un relevé radar ;
• un relevé lidar ;
• un relevé d’une caméra ;
• un relevé d’un appareil photo.
6. Procédé selon l’une des revendications précédentes, dans lequel les données de position relative du premier véhicule par rapport au deuxième véhicule sont obtenues à partir de l’un au moins des éléments suivants :
• un capteur de position du premier véhicule et/ou un capteur de position du deuxième véhicule ;
• un relevé radiogoniométrique ;
• un relevé radar ;
• un relevé lidar ;
• un relevé d’une caméra ;
un relevé d’un appareil photo.
7. Procédé selon l’une des revendications précédentes, dans lequel les premières et les deuxièmes données reçues sont des données brutes, c’est-à-dire que les données brutes n’ont pas subi de traitement d’un niveau applicatif.
8. Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur (2).
9. Dispositif (D) de détection dans un espace à trois dimensions d’un objet par des capteurs compris sur un premier véhicule et sur un deuxième véhicule, le premier véhicule et le deuxième véhicule étant configurés pour échanger, directement ou indirectement, des données, le dispositif comportant au moins une mémoire (1) et un processeur (2) agencés pour effectuer les opérations de :
- réception de premières données relatives à l’objet acquises par au moins un capteur du premier véhicule ;
- réception de deuxièmes données relatives à l’objet acquises par au moins un capteur du deuxième véhicule ;
- réception de données de position relative du premier véhicule par rapport au deuxième véhicule ;
- génération d’une information de spatialisation de l’objet à partir des premières données, des deuxièmes données et des données de position relative, l’information de spatialisation étant configurée pour localiser l’objet dans l’espace à trois dimensions.
10. Véhicule (V1 ; V2) comportant le dispositif (D) selon la revendication 9.
FR1855440A 2018-06-20 2018-06-20 Traitement stereoscopique de donnees de vehicules connectes Withdrawn FR3082936A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1855440A FR3082936A1 (fr) 2018-06-20 2018-06-20 Traitement stereoscopique de donnees de vehicules connectes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1855440A FR3082936A1 (fr) 2018-06-20 2018-06-20 Traitement stereoscopique de donnees de vehicules connectes
FR1855440 2018-06-20

Publications (1)

Publication Number Publication Date
FR3082936A1 true FR3082936A1 (fr) 2019-12-27

Family

ID=63834138

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1855440A Withdrawn FR3082936A1 (fr) 2018-06-20 2018-06-20 Traitement stereoscopique de donnees de vehicules connectes

Country Status (1)

Country Link
FR (1) FR3082936A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202200009593A1 (it) * 2022-05-10 2023-11-10 Fiat Ricerche "Veicolo equipaggiato con un sistema per rilevare la distanza di un oggetto antistante il veicolo, sulla base di una comunicazione di tipo V2X con altri veicoli e sulla base di un rilevamento di posizione"

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050114023A1 (en) * 2003-11-26 2005-05-26 Williamson Walton R. Fault-tolerant system, apparatus and method
US20140132707A1 (en) * 2011-09-05 2014-05-15 Mitsubishi Electric Corporation Image processing apparatus and image processing method
US20170053169A1 (en) * 2015-08-20 2017-02-23 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle
WO2017057044A1 (fr) * 2015-09-30 2017-04-06 ソニー株式会社 Dispositif de traitement d'informations et procédé de traitement d'informations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050114023A1 (en) * 2003-11-26 2005-05-26 Williamson Walton R. Fault-tolerant system, apparatus and method
US20140132707A1 (en) * 2011-09-05 2014-05-15 Mitsubishi Electric Corporation Image processing apparatus and image processing method
US20170053169A1 (en) * 2015-08-20 2017-02-23 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle
WO2017057044A1 (fr) * 2015-09-30 2017-04-06 ソニー株式会社 Dispositif de traitement d'informations et procédé de traitement d'informations
EP3358550A1 (fr) * 2015-09-30 2018-08-08 Sony Corporation Dispositif de traitement d'informations et procédé de traitement d'informations

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202200009593A1 (it) * 2022-05-10 2023-11-10 Fiat Ricerche "Veicolo equipaggiato con un sistema per rilevare la distanza di un oggetto antistante il veicolo, sulla base di una comunicazione di tipo V2X con altri veicoli e sulla base di un rilevamento di posizione"
WO2023218293A1 (fr) * 2022-05-10 2023-11-16 C.R.F. Società Consortile Per Azioni Véhicule équipé d'un système de détection de la distance d'un objet devant le véhicule sur la base d'une communication de type v2x avec d'autres véhicules et sur la base d'une détection de position

Similar Documents

Publication Publication Date Title
WO2012048876A1 (fr) Dispositif de localisation d'un vehicule et procede de generation d'une information de localisation d'un vehicule
EP3680615A1 (fr) Methode de determination d'un rayon de protection d'un systeme de navigation base sur la vision
FR2906632A1 (fr) Procede de localisation d'un vehicule.
FR2975484A1 (fr) Procede de determination a distance d'un azimut absolu d'un point cible
FR3082936A1 (fr) Traitement stereoscopique de donnees de vehicules connectes
FR3053554A1 (fr) Procede de calibration rapide d'une camera de vehicule automobile
JP2023068009A (ja) 地図情報作成方法
FR3085082A1 (fr) Estimation de la position geographique d'un vehicule routier pour la production participative de base de donnees routieres
FR3080189A1 (fr) Dispositif de geo-localisation d'un objet mobile
WO2018041978A1 (fr) Dispositif de détermination d'une limitation de vitesse, système embarqué comprenant un tel dispositif et procédé de détermination d'une limitation de vitesse.
FR3119817A1 (fr) Procédé et dispositif de détermination d’une trajectoire pour un véhicule autonome
FR3062836A1 (fr) Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule
FR3106665A1 (fr) Procédé et dispositif de localisation d’un véhicule
FR3106553A1 (fr) Procédé et dispositif de traitement de données d’environnement de véhicule
WO2016146823A1 (fr) Procédé d'estimation de paramètres géométriques représentatifs de la forme d'une route, système d'estimation de tels paramètres et véhicule automobile équipé d'un tel système
WO2024095450A1 (fr) Système de création de données cartographiques, dispositif de génération d'informations de sonde et procédé de création de données cartographiques
JP6907952B2 (ja) 自己位置補正装置及び自己位置補正方法
WO2019151109A1 (fr) Procédé d'acquisition d'informations de surface de route
WO2021249809A1 (fr) Procede de calibration d'une camera et dispositif associe
FR3117253A1 (fr) Procédé et dispositif d’émission d’éléments de guidage par un premier véhicule
WO2024115827A1 (fr) Procédé et dispositif de contrôle d'un système d'aide à la conduite dans un environnement comportant un croisement
WO2024052561A1 (fr) Procédé de détection d'une collision prochaine, procédé d'étalonnage d'un système de détection de collision et véhicule automobile associé
FR3090126A1 (fr) Procédé de localisation, dans un repère absolu, d’un dispositif, calculateur et véhicule associé.
FR3137780A1 (fr) Procédé et dispositif de détermination d’un tracé arrière d’au moins une délimitation latérale de voie de circulation
FR3080176A1 (fr) Dispositif de synchronisation d'une position primaire d'un objet mobile avec une position secondaire

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20191227

PLFP Fee payment

Year of fee payment: 3

ST Notification of lapse

Effective date: 20220205