FR3052560B1 - Systeme embarque et procede de determination d'une position relative - Google Patents
Systeme embarque et procede de determination d'une position relative Download PDFInfo
- Publication number
- FR3052560B1 FR3052560B1 FR1655224A FR1655224A FR3052560B1 FR 3052560 B1 FR3052560 B1 FR 3052560B1 FR 1655224 A FR1655224 A FR 1655224A FR 1655224 A FR1655224 A FR 1655224A FR 3052560 B1 FR3052560 B1 FR 3052560B1
- Authority
- FR
- France
- Prior art keywords
- directions
- sensor
- vehicle
- image
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 10
- 230000004807 localization Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Un système embarqué (2) comprend un premier capteur (6) apte à mesurer une distance libre (di) pour diverses directions (αi) dans un environnement rencontré par un véhicule (V) et un second capteur (4) apte à générer une image (IMG) dudit environnement. Le système embarqué comprend en outre un module de regroupement d'une pluralité desdites directions (αi) sur la base des distances libres (di) mesurées pour les directions (αi) de ladite pluralité, un module de localisation d'au moins un objet (O, O') au sein d'une région (R) de l'image (IMG) correspondant auxdites directions (αi) de ladite pluralité, et un module de sélection des directions (αi) correspondant à la localisation dudit objet (O ; O') parmi ladite pluralité de directions (αi). Un procédé de détermination d'une position relative d'un objet (O ; O') est également proposé.
Description
Système embarqué et procédé de détermination d’une position relative
Domaine technique auquel se rapporte l'invention
La présente invention concerne les systèmes embarqués pour véhicule.
Elle concerne plus particulièrement un système embarqué et un procédéde détermination d’une position relative. L’invention s’applique particulièrement avantageusement dans le cas oùle système embarqué comprend un capteur d’image et un capteur de temps devol.
ARRIERE-PLAN TECHNOLOGIQUE
On utilise de plus en plus de nos jours des systèmes permettantd’appréhender (au moyen de capteurs) l’environnement routier d’un véhicule etd’analyser cet environnement, dans un but d’assistance à la conduite, voire depilotage automatique du véhicule.
Parmi les capteurs utilisés dans ce cadre, certains permettent d’obtenirune image de l’environnement ; ils sont toutefois en général assez peu précislorsqu’il s’agit de déterminer la distance des objets observés. C’est pourquoi onutilise également des capteurs de mesure de distance, par exemple des capteursd’obstacles, dont les directions de mesure sont toutefois en nombre limité afin deréduire le coût de tels capteurs.
Objet de l’invention
Dans ce contexte, la présente invention propose un système embarquécomprenant un premier capteur apte à mesurer une distance libre pour unepluralité de directions dans un environnement rencontré par un véhicule et unsecond capteur apte à générer une image dudit environnement, caractérisé par unmodule de regroupement d’une pluralité desdites directions sur la base desdistances libres mesurées pour les directions de ladite pluralité, un module delocalisation d’au moins un objet au sein d’une région de l’image correspondantauxdites directions de ladite pluralité, et un module de sélection des directionscorrespondant à la localisation dudit objet parmi ladite pluralité de directions.
On combine ainsi astucieusement les informations fournies par deuxtypes de capteur différents pour obtenir une évaluation précise du positionnementde l’objet concerné, typiquement un autre véhicule, situé devant le véhicule équipédu système embarqué.
Selon des caractéristiques envisageables à titre optionnel (et donc nonlimitatif) : - le premier capteur est un capteur de temps de vol, par exemple untélémètre laser à balayage ou un capteur d’obstacle ; - le second capteur est une caméra vidéo, ou un radar, ou encore unsystème à ultrasons ; - le système embarqué comprend un module de commande d’unactionneur en fonction des directions sélectionnées ; - l’actionneur est un système de commande de direction. L’invention propose également un procédé de détermination d’uneposition relative d’un objet par rapport à un véhicule, au moyen d’un systèmeembarqué comprenant un premier capteur apte à mesurer une distance libre pourune pluralité de directions dans un environnement rencontré par le véhicule et unsecond capteur apte à générer une image dudit environnement, caractérisé parles étapes suivantes : - regroupement d’une pluralité desdites directions sur la base desdistances libres mesurées pour les directions de ladite pluralité ; - localisation de l’objet au sein d’une région de l’image correspondantauxdites directions de ladite pluralité ; - sélection des directions correspondant à la localisation dudit objet parmiladite pluralité de directions.
Les caractéristiques présentées à titre optionnel pour le systèmeembarqué peuvent également s’appliquer à un tel procédé.
Description detaillee d’un exemple de réalisation
La description qui va suivre en regard des dessins annexés, donnés àtitre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention etcomment elle peut être réalisée.
Sur les dessins annexés : - la figure 1 représente schématiquement les éléments principaux d’unsystème embarqué dans un véhicule ; - la figure 2 représente, sous forme de blocs fonctionnels, une unité detraitement du système embarqué de la figure 1.
La figure 1 représente schématiquement les éléments principaux d’unsystème embarqué 2 dans un véhicule V (ici un véhicule automobile).
Ce système embarqué comprend un capteur d’image 4, un capteur detemps de vol 6, un actionneur 8 et une unité de traitement 10.
Le capteur d’image 4 est par exemple une caméra vidéo. Le capteurd’image 4 est placé dans le véhicule de manière à capturer une image IMG del’environnement extérieur du véhicule V, situé à l’avant du véhicule (c’est-à-direrencontré par le véhicule V lorsque ce dernier avance), dans un angle solide Acorrespondant au champ de vision du capteur d’image 4. Comme représentéschématiquement en figure 1, cet environnement comprend un premier objet O, iciun second véhicule automobile, et un second objet O’, ici un troisième véhiculeautomobile.
En variante, le capteur d’image 4 pourrait être un radar ou un système àultrasons. On remarque que, dans ces cas notamment, l’image capturée par lecapteur d’image 4 peut alors être une image (ou représentation)monodimensionnelle de l’environnement situé à l’avant du véhicule V.
Le capteur de temps de vol 6 est par exemple un capteur d’obstacle(typiquement à infrarouge ou à laser). En variante, il pourrait s’agir d’un télémètrelaser à balayage (ou "laser scannei1' selon l’appellation anglo-saxonne parfoisutilisée).
Un tel capteur de temps de vol 6 permet de mesurer, pour chacune d’unepluralité de directions a, dans l’environnement faisant face au véhicule V, ladistance libre d, jusqu’au premier obstacle rencontré dans la direction a,concernée, généralement en décomptant le temps mis par un rayon lumineux (ouplus généralement une onde électromagnétique) émis dans la direction concernéea, pour être détecté au niveau du capteur de temps de vol 6 après réflexion sur lepremier obstacle rencontré (au niveau d’un point d’impact P,).
Du fait de la technique utilisée, les mesures de distance effectuées par lecapteur de temps de vol 6 sont précises.
Dans l’exemple décrit ici, le capteur de temps de vol 6 est conçu pourmesurer les distances libres d, respectivement associées à N directions a, (où ipeut donc varier entre 1 et N, avec N compris entre 10 et 24, ici N = 16) ; ces Ndirections a, sont ici toutes horizontales (ou quasiment horizontales), etcorrespondent à une pluralité d’angle répartis sur une plage angulaire d’étendueinférieure à 45° située à l’avant du véhicule. L’actionneur 8 permet de commander au moins en partie la trajectoire du véhicule V. Dans l’exemple décrit ici, l’actionneur 8 est un système de commandede direction. Il pourrait s’agir en variante d’un groupe motopropulseur ou d’unsystème de freinage.
Comme expliqué plus bas, l’unité de traitement 10 peut commanderl’actionneur 8 au moyen d’un signal de commande CMD déterminé en fonction dedivers traitements effectués au sein de l’unité de traitement 10. L’unité de traitement 10 est par exemple conçue pour commander, aumoyen de l’actionneur 8, une trajectoire consistant à suivre le second véhicule(premier objet O en figure 1), dans un but d’assistance à la conduite (cettetrajectoire étant suivie en l’absence de commande différente du conducteur), oudans un but de pilotage automatique du véhicule V (cas d’un véhicule autonome).
La figure 2 représente l’unité de traitement 10 sous forme de blocsfonctionnels, ou modules.
Chaque module 12, 14, 16, 18 représenté sur la figure 2 correspond àune fonctionnalité particulière mise en oeuvre par l’unité de traitement 10.Plusieurs (voire tous les) modules peuvent toutefois en pratique être mis en oeuvrepar une même entité physique, par exemple un processeur sur lequel s’exécutedes instructions de programme mémorisées dans une mémoire associé auprocesseur (chaque module étant alors dans ce cas mis en oeuvre par l’exécutiond’un jeu particulier d’instructions mémorisées dans ladite mémoire). L’unité de traitement 10 comprend ainsi un module de regroupement 12conçu pour regrouper (ou associer entre elles) une pluralité des directionsd’observation a, du capteur de temps de vol 6, sur la base d’un critère utilisant lesdistances libres d, mesurées par le capteur de temps de vol 6.
On note dans la suite {ctj}jes l’ensemble des directions ainsi regroupées(ou associées).
Si on note v,(t) la vitesse relative au point d’impact P, déterminée àl’instant t par dérivation de la distance libre d, correspondante (c’est-à-direVj(t) = [di(t) - dj(t-At)]/At), deux directions Oj, ar sont par exemple regroupées (i.e.jeS et j’eS) si les vitesses Vj(t), Vj (t) déterminées pour ces deux directions Oj, arsont suffisamment proches (c’est-à-dire en pratique si on a : | Vj(t) - Vj (t) | < ε, avecε un seuil prédéterminé).
En variante, on pourrait regrouper les directions cq sur la base du critèrede proximité des distance libres dj mesurées (à un instant donné) : deux directions cq, οψ sont dans ce cas regroupées si les distances libres dj, dp pour ces deuxdirections Oj, ar sont suffisamment proches (c’est-à-dire en pratique si on a : | dj -dj’ | < ε’, avec ε’ un seuil prédéterminé). L’unité de traitement 10 comprend également un module de localisation14 d’objet(s) O, O’ au sein d’une région R de l’image IMG qui correspond auxditesdirections regroupées Oj.
Un tel module de localisation 14 est conçu pour identifier un ou plusieursobjet(s) O, O’ (par exemple au moyen d’un algorithme de reconnaissance deforme) au sein de la région R correspondant aux directions regroupées Oj et pourfournir des données L représentatives de la localisation (par exemple dans l’imageIMG ou, en variante, dans la région R) du ou des objet(s) identifié(s) O, O’. L’association entre les différentes directions possibles a, et la région Rde l’image IMG associée à chacune d’elle est prédéfinie (d’après la positionrelative fixe du capteur d’image 4 et du capteur de temps de vol 6) et mémoriséepar exemple dans une table de correspondance au sein de l’unité de traitement10.
On remarque ici que, bien que les directions regroupées Ojcorrespondent en général (par construction) à un seul objet, l’identification (i.e. ladétection) d’une pluralité d’objets O, O’ au sein de la région correspondant auxdirections regroupées Oj est possible lorsque plusieurs objets O, O’ sont procheset/ou ou un comportement (par exemple une vitesse) proche, commeschématiquement représenté en figure 1, et n’ont de ce fait pas pu être distinguésau sein du module de regroupement 12. L’unité de traitement 10 comprend un module de sélection 16 conçu poursélectionner, pour chaque objet O, O’ identifié dans la région R par le module delocalisation 14, l’ensemble des directions {ak}keS’ correspondant à l’objet concernéO, O’ parmi l’ensemble des directions regroupées {aj}jeS déterminé par le modulede regroupement 12.
Pour ce faire, pour chaque objet O, O’, le module de sélection 16détermine, parmi les directions regroupées Oj, lesquelles correspondent auxdonnées L représentatives de la localisation de l’objet O concerné. Comme déjàindiqué, l’association entre les différentes directions possibles a, et l’image IMG(les données L étant exprimées au sein de cette image IMG) est par exemplemémorisée dans une table de correspondance au sein de l’unité de traitement 10.
Le module de sélection 16 peut ainsi fournir, pour chaque objet O, O’,l’ensemble des directions sélectionnées {ak}keS’ associées à cet objet O, O’.
On obtient ainsi une cartographie de l’environnement situé à l’avant duvéhicule V, basée sur les données fournies par le capteur de temps de vol 6, maisdont la robustesse est améliorée grâce à l’utilisation des données (image IMG)fournies par le capteur d’image 4.
Dans l’exemple décrit ici, l’unité de traitement 10 comprend en outre unmodule de commande 18 conçu pour générer une commande de direction CMDdestinée à l’actionneur 8 en fonction de la cartographie précitée, précisément enfonction des directions sélectionnées {ak}keS’ relatives à l’objet O, c’est-à-dire ici levéhicule à suivre (second véhicule). Le module de commande 18 émet parexemple une commande CMD telle que, par action de l’actionneur 8 (ici unsystème de commande de direction), le véhicule V s’oriente vers une directionmoyenne déterminée sur la base des directions sélectionnées précitées ak.
Pour ce faire, on peut prévoir que le module de commande 18 distinguel’objet O (véhicule à suivre) d’un autre objet O’ en choisissant l’objet pour lequelles directions sélectionnées {ak}keS’ sont les plus proches de la directiond’avancement du véhicule V ou, en variante, en choisissant l’objet suivi à l’itérationprécédente (par exemple par comparaison des directions sélectionnées pour lesdifférents objets à l’instant courant avec les directions sélectionnés pour levéhicule suivi à l’itération précédente).
Claims (7)
- REVENDICATIONS1. Système embarqué (2) comprenant un premier capteur (6) apte àmesurer une distance libre (d,) pour diverses directions (a,) dans unenvironnement rencontré par un véhicule (V) et un second capteur (4) apte àgénérer une image (IMG) dudit environnement, comprenant : - un module de regroupement (12) d’une pluralité desdites directions (aj)sur la base des distances libres (d.) mesurées pour les directions (a,) de laditepluralité ; - un module de localisation (14) d’au moins un objet (O, O’) au sein d’unerégion (R) de l’image (IMG) correspondant auxdites directions (aj) de laditepluralité ; et - un module de sélection (16) des directions (ak) correspondant à lalocalisation (L) dudit objet (O ; O’) parmi ladite pluralité de directions (Oj) caractérisé en ce que le second capteur (4) est une caméra vidéo.
- 2. Système embarqué selon la revendication 1, dans lequel le premiercapteur (6) est un capteur de temps de vol.
- 3. Système embarqué selon la revendication 2, dans lequel le premiercapteur est un télémètre laser à balayage.
- 4. Système embarqué selon la revendication 2, dans lequel le premiercapteur (6) est un capteur d’obstacle.
- 5. Système embarqué selon l’une des revendications 1 à 4, comprenantun module de commande (18) d’un actionneur (8) en fonction des directionssélectionnées (ak).
- 6. Système embarqué selon l’une des revendications 1 à 5, dans lequell’actionneur (8) est un système de commande de direction.
- 7. Procédé de détermination d’une position relative d’un objet (O ; O’) parrapport à un véhicule (V), au moyen d’un système embarqué (2) comprenant un premier capteur (6) apte à mesurer une distance libre (d,) pour diverses directions(a,) dans un environnement rencontré par le véhicule (V) et une caméra vidéo entant que second capteur (4) apte à générer une image (IMG) duditenvironnement, caractérisé par les étapes suivantes : - regroupement d’une pluralité desdites directions (aj) sur la base desdistances libres (d,) mesurées pour les directions (aj) de ladite pluralité ; - localisation de l’objet (O ; O’) au sein d’une région (R) de l’image (IMG)correspondant auxdites directions (aj) de ladite pluralité ; - sélection des directions (ακ) correspondant à la localisation (L) duditobjet (O ; O’) parmi ladite pluralité de directions (aj).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1655224A FR3052560B1 (fr) | 2016-06-08 | 2016-06-08 | Systeme embarque et procede de determination d'une position relative |
PCT/EP2017/063725 WO2017211837A1 (fr) | 2016-06-08 | 2017-06-06 | Système embarqué et procédé de détermination d'une position relative |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1655224A FR3052560B1 (fr) | 2016-06-08 | 2016-06-08 | Systeme embarque et procede de determination d'une position relative |
FR1655224 | 2016-06-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3052560A1 FR3052560A1 (fr) | 2017-12-15 |
FR3052560B1 true FR3052560B1 (fr) | 2019-08-16 |
Family
ID=57190041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1655224A Active FR3052560B1 (fr) | 2016-06-08 | 2016-06-08 | Systeme embarque et procede de determination d'une position relative |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR3052560B1 (fr) |
WO (1) | WO2017211837A1 (fr) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3913878B2 (ja) * | 1998-01-14 | 2007-05-09 | 本田技研工業株式会社 | 車両用物体検知装置 |
US7142150B2 (en) * | 2004-12-15 | 2006-11-28 | Deere & Company | Method and system for detecting an object using a composite evidence grid |
US9025140B2 (en) * | 2013-05-07 | 2015-05-05 | Google Inc. | Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors |
-
2016
- 2016-06-08 FR FR1655224A patent/FR3052560B1/fr active Active
-
2017
- 2017-06-06 WO PCT/EP2017/063725 patent/WO2017211837A1/fr active Application Filing
Also Published As
Publication number | Publication date |
---|---|
FR3052560A1 (fr) | 2017-12-15 |
WO2017211837A1 (fr) | 2017-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107144839B (zh) | 通过传感器融合检测长对象 | |
US20220172487A1 (en) | Method for detecting an operating capability of an environment sensor, control unit and vehicle | |
CN112612009B (zh) | 用于车辆的雷达系统的方法和用于车辆中的系统 | |
US20190257949A1 (en) | Self-calibrating sensor system for a wheeled vehicle | |
US11954918B2 (en) | Object detection device, object detection method, and storage medium | |
CN108780149B (zh) | 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆 | |
US20210033706A1 (en) | Methods and systems for automatically labeling point cloud data | |
JP6740470B2 (ja) | 測定装置、測定方法およびプログラム | |
CN117826179A (zh) | 分类和去除光探测和测距点云中对象伪影以增强探测的系统和方法 | |
JP2024116258A (ja) | 路面情報取得方法、路面情報取得装置、及び路面情報取得プログラム | |
JP2024038322A (ja) | 測定装置、測定方法およびプログラム | |
WO2017036927A1 (fr) | Système de vision pour un véhicule à moteur et procédé de commande d'un système de vision | |
WO2013169185A1 (fr) | Système et procédé de vision pour véhicule à moteur | |
FR3052560B1 (fr) | Systeme embarque et procede de determination d'une position relative | |
JP2023118759A (ja) | 測定装置、測定方法およびプログラム | |
JP2023099851A (ja) | 測定装置、測定方法およびプログラム | |
FR3085082A1 (fr) | Estimation de la position geographique d'un vehicule routier pour la production participative de base de donnees routieres | |
FR3052568A1 (fr) | Systeme embarque et procede de determination d'un cap | |
FR3055287A1 (fr) | Dispositif de determination d'une limitation de vitesse, systeme embarque comprenant un tel dispositif et procede de determination d'une limitation de vitesse | |
EP3865816B1 (fr) | Méthodes et systèmes pour mesurer à distance l'orientation angulaire d'un véhicule au sein d'un convoi automobile routier. | |
WO2019077010A1 (fr) | Procede de traitement de donnees et systeme embarque associe | |
FR3082936A1 (fr) | Traitement stereoscopique de donnees de vehicules connectes | |
US20240010195A1 (en) | Method for ascertaining an approximate object position of a dynamic object, computer program, device, and vehicle | |
US20230243923A1 (en) | Method for detecting intensity peaks of a specularly reflected light beam | |
US11935256B1 (en) | Remote distance estimation system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20171215 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |