FR3072931A1 - DATA PROCESSING METHOD FOR VEHICLE DRIVER ASSISTANCE SYSTEM AND DRIVING ASSISTANCE SYSTEM - Google Patents

DATA PROCESSING METHOD FOR VEHICLE DRIVER ASSISTANCE SYSTEM AND DRIVING ASSISTANCE SYSTEM Download PDF

Info

Publication number
FR3072931A1
FR3072931A1 FR1760252A FR1760252A FR3072931A1 FR 3072931 A1 FR3072931 A1 FR 3072931A1 FR 1760252 A FR1760252 A FR 1760252A FR 1760252 A FR1760252 A FR 1760252A FR 3072931 A1 FR3072931 A1 FR 3072931A1
Authority
FR
France
Prior art keywords
data
vehicle
image
instant
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1760252A
Other languages
French (fr)
Other versions
FR3072931B1 (en
Inventor
Nicolas Olivier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Comfort and Driving Assistance SAS
Original Assignee
Valeo Comfort and Driving Assistance SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Comfort and Driving Assistance SAS filed Critical Valeo Comfort and Driving Assistance SAS
Priority to FR1760252A priority Critical patent/FR3072931B1/en
Priority to PCT/EP2018/079208 priority patent/WO2019086314A1/en
Priority to EP18789168.4A priority patent/EP3704625A1/en
Publication of FR3072931A1 publication Critical patent/FR3072931A1/en
Application granted granted Critical
Publication of FR3072931B1 publication Critical patent/FR3072931B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Vehicle Engines Or Engines For Specific Uses (AREA)

Abstract

L'invention concerne un procédé de traitement de données pour système d'aide à la conduite (1) d'un véhicule (3) comprenant des étapes suivantes: a) acquisition d'un ensemble de données relatives à l'environnement du véhicule, ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l'environnement du véhicule et un deuxième ensemble de données relatives à une deuxième partie de l'environnement du véhicule, b) traitement du premier ensemble de données selon un premier processus et à un premier instant, c) traitement du deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant distinct du premier instant. Un tel système d'aide à la conduite est également décrit.The invention relates to a data processing method for a driving assistance system (1) of a vehicle (3) comprising the following steps: a) acquisition of a set of data relating to the environment of the vehicle, said data set comprising a first set of data relating to a first part of the vehicle environment and a second set of data relating to a second part of the vehicle environment, b) processing the first set of data according to a first process and at a first instant, c) processing the second set of data according to a second process distinct from the first process or at a second distinct time from the first instant. Such a driver assistance system is also described.

Description

La présente invention concerne de manière générale le domaine du traitement des données acquises par un capteur.The present invention relates generally to the field of processing the data acquired by a sensor.

Elle concerne plus particulièrement un procédé de traitement de données acquises par le capteur d’un système d’aide à la conduite d’un véhicule et un tel système d’aide à la conduite.It relates more particularly to a method of processing data acquired by the sensor of a driving assistance system for a vehicle and such a driving assistance system.

Arriere-plan technologiqueTechnological background

Il est connu d’équiper les véhicules d’un système d’aide à la conduite permettant d’analyser l’environnement du véhicule et de fournir au conducteur des informations lui facilitant la conduite.It is known to equip vehicles with a driving assistance system which makes it possible to analyze the environment of the vehicle and to provide the driver with information facilitating driving.

De tels systèmes d’aide à la conduite comprennent généralement un capteur de données, de type caméra vidéo, apte à acquérir des images de l’environnement du véhicule, une unité de traitement apte à appliquer des algorithmes de traitement aux données acquises afin d’en extraire les informations pertinentes, ainsi qu’une unité d’affichage permettant au conducteur de visualiser les informations extraites.Such driving assistance systems generally comprise a data sensor, of the video camera type, capable of acquiring images of the environment of the vehicle, a processing unit capable of applying processing algorithms to the data acquired in order to extract the relevant information therefrom, as well as a display unit allowing the driver to view the extracted information.

Cependant, la quantité de données à traiter ainsi que la complexité croissante des algorithmes de traitement utilisés nécessitent des ressources matérielles puissantes (microprocesseur, mémoire, etc.).However, the amount of data to be processed as well as the increasing complexity of the processing algorithms used require powerful hardware resources (microprocessor, memory, etc.).

Il est par ailleurs souhaitable dans certains cas de procéder à l’affichage des informations pertinentes rapidement après l’acquisition des données (si possible quasiment en temps réel).It is also desirable in some cases to display relevant information quickly after data acquisition (if possible almost in real time).

Objet de l’inventionObject of the invention

Dans ce contexte, la présente invention propose un procédé de traitement de données pour système d’aide à la conduite d’un véhicule comprenant une étape d’acquisition d’un ensemble de données relatives à l’environnement du véhicule, ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l’environnement du véhicule et un deuxième ensemble de données relatives à une deuxième partie de l’environnement du véhicule,In this context, the present invention provides a data processing method for a vehicle driving assistance system comprising a step of acquiring a set of data relating to the environment of the vehicle, said set of data. comprising a first set of data relating to a first part of the vehicle environment and a second set of data relating to a second part of the vehicle environment,

Selon l’invention, le procédé comprend en outre des étapes de :According to the invention, the method further comprises steps of:

- traitement du premier ensemble de données selon un premier processus et à un premier instant,- processing of the first set of data according to a first process and at a first instant,

- traitement du deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant distinct du premier instant.processing of the second set of data according to a second process distinct from the first process or at a second instant distinct from the first instant.

En distinguant plusieurs ensemble de données et en leur appliquant des traitements différents et/ou à des instants différents, le système d’aide à la conduite permet de réduire le volume de données traitées et d’augmenter la rapidité d’affichage des informations obtenues. En effet, le système permet d’allouer plus de ressources matérielles au traitement d’ensemble de données permettant d’obtenir les informations les plus pertinentes qu’à celles contenant peu d’intérêt.By distinguishing several sets of data and applying different treatments to them and / or at different times, the driver assistance system makes it possible to reduce the volume of data processed and to increase the speed of display of the information obtained. Indeed, the system allows to allocate more material resources to the processing of data sets allowing to obtain the most relevant information than to those containing little interest.

D’autres caractéristiques non limitatives et avantageuses du procédé conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :Other non-limiting and advantageous characteristics of the process according to the invention, taken individually or in any technically possible combination, are the following:

- le deuxième ensemble de données est traité au deuxième instant et le deuxième instant est postérieur au premier instant,- the second set of data is processed at the second instant and the second instant is after the first instant,

- le premier processus comprend un échantillonnage du premier ensemble de données selon un premier taux d’échantillonnage,- the first process comprises a sampling of the first set of data according to a first sampling rate,

- le deuxième processus comprend un échantillonnage du deuxième ensemble de données selon un deuxième taux d’échantillonnage, le premier taux d’échantillonnage étant supérieur au deuxième taux d’échantillonnage,the second process comprises sampling the second set of data according to a second sampling rate, the first sampling rate being greater than the second sampling rate,

- l’échantillonnage du premier ensemble de données et l’échantillonnage du deuxième ensemble de données sont des échantillonnages spatiaux,- the sampling of the first data set and the sampling of the second data set are spatial samplings,

- l’échantillonnage du premier ensemble de données et l’échantillonnage du deuxième ensemble de données sont des échantillonnages temporels,- the sampling of the first data set and the sampling of the second data set are temporal samples,

- le procédé comprend en outre une étape de détection d’un objet se trouvant dans l’environnement du véhicule et/ou une étape de détermination d’un sous-ensemble de données correspondant audit objet dans l’ensemble de données,the method further comprises a step of detecting an object located in the environment of the vehicle and / or a step of determining a subset of data corresponding to said object in the data set,

- un nombre d’algorithmes est appliqué au sous-ensemble de données, et dans lequel ledit nombre d’algorithmes est fonction d’une localisation de l’objet,- a number of algorithms is applied to the data subset, and in which said number of algorithms is a function of a location of the object,

- la localisation de l’objet comprend une appartenance du sous-ensemble de données au premier ensemble de données (le sous-ensemble de données formant alors un premier sous-ensemble de données), ou au second ensemble de données (le sous-ensemble de données formant alors un deuxième sousensemble de données),the location of the object comprises a membership of the data subset in the first data set (the data subset then forming a first data subset), or in the second data set (the subset then forming a second subset of data),

- un premier nombre d’algorithme(s) est appliqué audit premier sousensemble de données,- a first number of algorithm (s) is applied to said first subset of data,

- un deuxième nombre d’algorithme(s) est appliqué audit deuxième sousensemble de données, le premier nombre d’algorithmes étant supérieur au deuxième nombre d’algorithmes,- a second number of algorithm (s) is applied to said second subset of data, the first number of algorithms being greater than the second number of algorithms,

- la localisation de l’objet comprend une distance entre l’objet et le véhicule,- the location of the object includes a distance between the object and the vehicle,

- la distance est mesurée grâce à un dispositif de télémétrie,- the distance is measured using a telemetry device,

- le procédé comprend en outre une étape de superposition d’une information obtenue par le traitement du premier ensemble de données à l’objet au moyen d’un afficheur tête-haute (par exemple un afficheur tête haute à réalité augmentée),the method further comprises a step of superimposing information obtained by processing the first set of data on the object by means of a head-up display (for example an head-up display with augmented reality),

- l’ensemble de données acquises représente une image acquise,- the set of acquired data represents an acquired image,

- le premier ensemble de données représente une première partie d’image,- the first set of data represents a first part of the image,

- la première partie d’image correspond à une zone d’affichage du système d’aide à la conduite.- the first part of the image corresponds to a display area of the driving assistance system.

L’invention propose également un système d’aide à la conduite pour véhicule comprenant :The invention also provides a vehicle driving assistance system comprising:

- un capteur adapté à acquérir un ensemble de données relatives à l’environnement du véhicule, ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l’environnement du véhicule et un deuxième ensemble de données relatives à une deuxième partie de l’environnement du véhicule,a sensor adapted to acquire a set of data relating to the environment of the vehicle, said set of data comprising a first set of data relating to a first part of the environment of the vehicle and a second set of data relating to a second part vehicle environment,

- une unité de traitement électronique apte à traiter le premier ensemble de données selon un premier processus et à un premier instant, et apte à traiter le deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant distinct du premier instant.an electronic processing unit capable of processing the first set of data according to a first process and at a first instant, and capable of processing the second set of data according to a second process distinct from the first process or at a second instant distinct from the first instant .

D’autres caractéristiques non limitatives et avantageuses du système conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :Other non-limiting and advantageous characteristics of the system according to the invention, taken individually or in any technically possible combination, are the following:

- le système comprend un afficheur tête haute (par exemple un afficheur tête haute à réalité augmentée),- the system includes a head-up display (for example an augmented reality head-up display),

- l’unité de traitement électronique est apte à produire une information au moyen du premier processus,- the electronic processing unit is capable of producing information by means of the first process,

- ledit afficheur tête haute (à réalité augmentée) est apte à superposer ladite information à un objet se trouvant dans l’environnement du véhicule.- said head-up display (augmented reality) is capable of superimposing said information on an object located in the environment of the vehicle.

Description detaillee d’un exemple de réalisationDetailed description of an exemplary embodiment

La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.The description which follows with reference to the appended drawings, given by way of nonlimiting examples, will make it clear what the invention consists of and how it can be carried out.

Sur les dessins annexés :In the accompanying drawings:

- la figure 1 représente schématiquement, un véhicule vu de dessus équipé d’un système d’aide à la conduite,- Figure 1 shows schematically, a vehicle seen from above equipped with a driving assistance system,

- la figure 2 représente schématiquement une image acquise par le système d’aide à la conduite et traitée au moyen du procédé de traitement de données conforme à l’invention,FIG. 2 schematically represents an image acquired by the driving assistance system and processed using the data processing method according to the invention,

- la figure 3 représente schématiquement une image acquise par le système d’aide à la conduite et traitée selon une variante du procédé de traitement de données, etFIG. 3 schematically represents an image acquired by the driving assistance system and processed according to a variant of the data processing method, and

- la figure 4 représente schématiquement une image acquise par le système d’aide à la conduite et traitée selon une autre variante du procédé de traitement de données.- Figure 4 schematically represents an image acquired by the driving assistance system and processed according to another variant of the data processing method.

Sur la figure 1, on a représenté schématiquement les principaux éléments d’un système d’aide à la conduite 1 destiné à équiper un véhicule 3, par exemple un véhicule automobile, un train, un bateau tel qu’une péniche, un tramway ou un bus, pour en faciliter la conduite.In Figure 1, there is shown schematically the main elements of a driving assistance system 1 intended to equip a vehicle 3, for example a motor vehicle, a train, a boat such as a barge, a tram or a bus, to facilitate driving.

Ce système d’aide à la conduite 1 comprend ici un afficheur tête-haute. L’afficheur tête-haute comprend une source de lumière, une unité de projection et une lame partiellement transparente. La lame partiellement transparente sert de zone d’affichage 5 (voir figure 2) et permet l’affichage d’une information 2 relative au véhicule 3 et/ou à son environnement sous forme d’image virtuelle. Ces éléments de l’afficheur tête-haute sont connus de l’homme du métier et ne seront pas décrits plus en détails.This driving assistance system 1 here includes a head-up display. The head-up display includes a light source, a projection unit and a partially transparent slide. The partially transparent blade serves as display area 5 (see FIG. 2) and allows the display of information 2 relating to the vehicle 3 and / or to its environment in the form of a virtual image. These elements of the head-up display are known to a person skilled in the art and will not be described in more detail.

Le système d’aide à la conduite 1 décrit ici est particulièrement avantageux quand l’afficheur tête-haute susmentionné est un afficheur tête-haute à réalité augmentée. Un tel afficheur tête-haute à réalité augmentée permet de superposer (pour le conducteur du véhicule) la ou les information(s) affichée(s) 2 à un objet 7 (piéton, animal, autre véhicule, etc.) situé face au véhicule 3.The driving assistance system 1 described here is particularly advantageous when the aforementioned head-up display is an augmented reality head-up display. Such an augmented reality head-up display makes it possible to superimpose (for the driver of the vehicle) the information (s) displayed (s) 2 on an object 7 (pedestrian, animal, other vehicle, etc.) located in front of the vehicle 3.

Pour cela, la lame partiellement transparente comprend par exemple le pare-brise 9 du véhicule 3, et la zone d’affichage 5 peut alors s’étendre sur une partie au moins dudit pare-brise 9.For this, the partially transparent blade comprises for example the windshield 9 of the vehicle 3, and the display area 5 can then extend over at least part of said windshield 9.

Le système d’aide à la conduite 1 comprend en outre un dispositif de détection. Ledit dispositif de détection comprend typiquement un capteur adapté à acquérir un ensemble de données relatives à l’environnement du véhicule 3. Le capteur comprend par exemple une unité d’acquisition d’images 11, par exemple une caméra vidéo. Dans ce cas, l’ensemble de données relatives à l’environnement représente une image acquise 13 (voir figure 2) et/ou une séquence d’images 13. L’image acquise 13 comprend une pluralité de pixels, agencés généralement sous forme d’une matrice de pixels.The driving assistance system 1 also comprises a detection device. Said detection device typically comprises a sensor adapted to acquire a set of data relating to the environment of the vehicle 3. The sensor comprises for example an image acquisition unit 11, for example a video camera. In this case, the set of data relating to the environment represents an acquired image 13 (see FIG. 2) and / or a sequence of images 13. The acquired image 13 comprises a plurality of pixels, generally arranged in the form of 'a matrix of pixels.

L’unité d’acquisition d’image 11 est disposée à l’avant du véhicule 3, par exemple au niveau du rétroviseur intérieur (central) du véhicule 3. L’unité d’acquisition d’image 11 présente un angle de champ 111 qui s’étend face au véhicule 3. De manière avantageuse, l’angle de champ 111 couvre l’angle solide correspondant au pare-brise 9 du véhicule (tel que vu depuis le conducteur) et s’étend au-delà de l’angle solide correspondant audit pare-brise 9.The image acquisition unit 11 is disposed at the front of the vehicle 3, for example at the level of the interior (central) rear view mirror of the vehicle 3. The image acquisition unit 11 has a field of view 111 which extends opposite the vehicle 3. Advantageously, the field angle 111 covers the solid angle corresponding to the windshield 9 of the vehicle (as seen from the driver) and extends beyond the solid angle corresponding to said windshield 9.

Le système d’aide à la conduite 1 comprend en outre une unité de traitement électronique 15. L’unité de traitement électronique 15 est programmée pour traiter des données de l’image acquise 13.The driving assistance system 1 further comprises an electronic processing unit 15. The electronic processing unit 15 is programmed to process data of the acquired image 13.

Ce traitement comprend au moins un algorithme sélectionné parmi une pluralité d’algorithmes. Ladite pluralité d’algorithmes est mémorisée par le système d’aide à la conduite 1, par exemple dans une unité de mémoire 17.This processing comprises at least one algorithm selected from a plurality of algorithms. Said plurality of algorithms is stored by the driving assistance system 1, for example in a memory unit 17.

La pluralité d’algorithmes comprend par exemple des algorithmes aptes à obtenir des informations 2 sur l’image acquise 13, par exemple détecter la présence ou l’absence d’un objet 7, à identifier l’objet 7, à suivre l’objet 7 sur une séquence d’images acquises 13, à prédire l’évolution de la position de l’objet 7 dans le temps, à extraire des caractéristiques de l’objet 7 (distance, orientation, taille, vitesse etc.), à calculer le temps restant avant une potentielle collision entre l’objet 7 et le véhicule 3. La pluralité d’algorithmes comprend aussi des algorithmes d’échantillonnage permettant d’échantillonner l’image acquise 13 et ainsi de réduire le volume de données à traiter par la suite.The plurality of algorithms includes, for example, algorithms capable of obtaining information 2 on the acquired image 13, for example detecting the presence or absence of an object 7, identifying the object 7, tracking the object 7 on a sequence of acquired images 13, to predict the evolution of the position of the object 7 over time, to extract characteristics of the object 7 (distance, orientation, size, speed etc.), to be calculated the time remaining before a potential collision between the object 7 and the vehicle 3. The plurality of algorithms also includes sampling algorithms making it possible to sample the acquired image 13 and thus to reduce the volume of data to be processed by the after.

On décrit à présent en référence aux figures 2 à 4 différents exemples possibles pour le procédé de traitement d’image mise en oeuvre par le système d’aide à la conduite 1 du véhicule 3.We now describe with reference to FIGS. 2 to 4 different possible examples for the image processing method implemented by the driving assistance system 1 of the vehicle 3.

De manière générale, lors d’une étape a) d’acquisition de l’ensemble de données, l’unité d’acquisition d’image 11 acquiert l’image 13 de l’environnement situé à l’avant du véhicule 3.Generally, during a step a) of acquiring the data set, the image acquisition unit 11 acquires the image 13 of the environment located at the front of the vehicle 3.

L’ensemble de données comprend un premier ensemble de données et un deuxième ensemble de données. Le premier ensemble de données représente ici une première partie d’image 19 relative à une première partie de l’environnement. Le deuxième ensemble de données représente quant à lui une deuxième partie d’image 21 relative à une deuxième partie de l’environnement.The data set includes a first data set and a second data set. The first set of data here represents a first part of image 19 relating to a first part of the environment. The second set of data represents a second part of image 21 relating to a second part of the environment.

Dans certains des exemples décrits ci-dessous, afin de distinguer la première partie d’image 19 de la deuxième partie d’image 21, lesdites première et deuxième parties d’image 19, 21 présentent des coordonnées en pixels mémorisées dans l’unité de mémoire 17.In some of the examples described below, in order to distinguish the first image part 19 from the second image part 21, said first and second image parts 19, 21 have coordinates in pixels stored in the unit of memory 17.

Dans le cas d’un afficheur tête-haute (éventuellement à réalité augmentée), la première partie d’image 19 correspond à la zone d’affichage 5 de l’afficheur tête-haute, laquelle correspond comme déjà indiqué à une partie au moins du pare-brise 9 du véhicule 3.In the case of a head-up display (possibly with augmented reality), the first image part 19 corresponds to the display area 5 of the head-up display, which corresponds as already indicated to at least one part of the windshield 9 of the vehicle 3.

C’est ici sur cette première partie d’image 19 que l’obtention rapide d’informations 2 relatives à l’environnement est souhaitée. En effet, dans le cas d’un afficheur tête-haute à réalité augmentée, la zone d’affichage 5 est la zone sur laquelle les informations 2 se superposent à l’environnement et donc la zone pour laquelle l’analyse de l’image acquise 13 bénéficie le plus au conducteur.It is here on this first part of image 19 that the rapid obtaining of information 2 relating to the environment is desired. Indeed, in the case of an augmented reality head-up display, the display area 5 is the area over which the information 2 is superimposed on the environment and therefore the area for which the image analysis acquired 13 benefits the driver the most.

La deuxième partie d’image 21 comprend une zone périphérique entourant la première partie d’image 19.The second image part 21 includes a peripheral zone surrounding the first image part 19.

L’image acquise 13 est transmise à l’unité de traitement électronique 15.The acquired image 13 is transmitted to the electronic processing unit 15.

Lors d’une étape b) de traitement de la première partie d’image 19, l’unité de traitement électronique 15 applique un premier processus de traitement sur la première partie d’image 19 à un premier instant h. Plus précisément, le premier processus est appliqué aux pixels de la première partie d’image 19. Le premier processus peut comprendre en pratique un seul premier algorithme ou une pluralité de premiers algorithmes.During a step b) of processing the first image part 19, the electronic processing unit 15 applies a first processing process to the first image part 19 at a first instant h. More specifically, the first process is applied to the pixels of the first image part 19. The first process can in practice comprise a single first algorithm or a plurality of first algorithms.

Lors d’une sous-étape de détection, le premier processus met par exemple en œuvre un algorithme permettant de détecter si un objet 7 se trouvant dans l’environnement du véhicule 3 se trouve plus précisément dans l’angle solide correspondant à la zone d’affichage 5.During a detection sub-step, the first process uses for example an algorithm making it possible to detect whether an object 7 located in the environment of the vehicle 3 is more precisely in the solid angle corresponding to the area d 'display 5.

Puis, lors d’une sous-étape de détermination, si un objet 7 a été détecté, le premier processus met en œuvre un deuxième algorithme permettant d’extraire un premier sous-ensemble de données 719 correspondant à l’objet 7 dans la première partie d’image 19.Then, during a determination sub-step, if an object 7 has been detected, the first process implements a second algorithm making it possible to extract a first subset of data 719 corresponding to the object 7 in the first part of image 19.

Lors d’une étape c) de traitement de la deuxième partie d’image 21, l’unité de traitement électronique 15 applique le deuxième processus aux pixels de la deuxième partie d’image 21.During a step c) of processing the second image part 21, the electronic processing unit 15 applies the second process to the pixels of the second image part 21.

Selon un premier mode de réalisation de l’invention, l’unité de traitement électronique 15 applique le premier processus aux pixels de la deuxième partie d’image 21 à un deuxième instant l2 distinct du premier instant h, le premier instant h étant antérieur au deuxième instant l2. Ainsi la première partie d’image 19 est traitée en priorité, ce qui permet un affichage rapide des informations 2 obtenues grâce au premier processus.According to a first embodiment of the invention, the electronic processing unit 15 applies the first process to the pixels of the second image part 21 at a second instant l 2 distinct from the first instant h, the first instant h being earlier at the second instant l 2 . Thus, the first image part 19 is processed as a priority, which allows rapid display of the information 2 obtained by the first process.

On comprend que l’on propose dans ce premier mode de réalisation d’appliquer le même premier processus aux pixels de la première partie d’image 19 et de la deuxième partie d’image 21 (mais à des instants distincts).It is understood that it is proposed in this first embodiment to apply the same first process to the pixels of the first image part 19 and the second image part 21 (but at separate times).

Pour reprendre les algorithmes précédemment donnés en exemple, lors d’une sous-étape de détection, le premier processus met en œuvre l’algorithme permettant de détecter si un objet 7 se trouvant dans l’environnement du véhicule 3 se trouve plus précisément hors de l’angle solide correspondant à la zone d’affichage 5.To use the algorithms previously given as an example, during a detection sub-step, the first process implements the algorithm making it possible to detect whether an object 7 located in the environment of the vehicle 3 is more precisely outside of the solid angle corresponding to the display area 5.

Puis, lors d’une sous-étape de détermination, si un objet 7 a été détecté, le premier processus permet de d’extraire un deuxième sous-ensemble de données 721 correspondant à l’objet 7 dans la deuxième partie d’image 21.Then, during a determination sub-step, if an object 7 has been detected, the first process makes it possible to extract a second subset of data 721 corresponding to the object 7 in the second image part 21 .

Enfin, lors d’une étape d) d’affichage, le système d’aide à la conduite 1 projette les informations 2 sur la zone d’affichage 5 ce qui permet au conducteur de les visualiser sous forme d’images virtuelles.Finally, during a display step d), the driving assistance system 1 projects the information 2 onto the display area 5, which allows the driver to view it in the form of virtual images.

Dans le cas d’un afficheur tête-haute à réalité augmentée, les informations 2 sont projetées de telle sorte qu’elles apparaissent superposées aux objets 7 se trouvant dans l’environnement du véhicule 3. Selon l’exemple décrit, l’information 2 contient par exemple un symbole ou un contour qui, superposé à l’objet 7 ou placé à proximité, permet de souligner sa présence. Cette information 2 est particulièrement pertinente dans le cas d’objets 7 difficilement visibles par le conducteur.In the case of an augmented reality head-up display, the information 2 is projected so that it appears superimposed on the objects 7 located in the environment of the vehicle 3. According to the example described, the information 2 contains for example a symbol or an outline which, superimposed on the object 7 or placed near it, makes it possible to underline its presence. This information 2 is particularly relevant in the case of objects 7 that are difficult for the driver to see.

Quand ce premier mode de réalisation est mis en œuvre (seul ou en combinaison avec d’autres qui seront décrit par la suite), il est avantageux d’accomplir l’étape d’affichage à la fin du traitement selon le premier processus et avant d’initier le traitement selon le deuxième processus. Ainsi l’information 2 obtenue au moyen du premier processus peut être rapidement affichée au conducteur.When this first embodiment is implemented (alone or in combination with others which will be described later), it is advantageous to perform the display step at the end of the treatment according to the first process and before initiate treatment according to the second process. Thus the information 2 obtained by means of the first process can be quickly displayed to the driver.

On décrit à présent d’autres modes de réalisation des étapes b) et c) de traitement.We now describe other embodiments of steps b) and c) of processing.

Selon un deuxième mode de réalisation, l’unité de traitement électronique 15 applique au premier instant h un deuxième processus distinct du premier processus aux pixels de la deuxième partie d’image 21. Le deuxième processus peut comprendre un seul deuxième algorithme ou une pluralité de deuxièmes algorithmes. Dans le cas où l’unité de traitement électronique 15 applique une pluralité de deuxièmes algorithmes, la pluralité de deuxièmes algorithmes peut comprendre un ou plusieurs algorithmes de la pluralité de premiers algorithmes.According to a second embodiment, the electronic processing unit 15 applies at the first instant h a second process distinct from the first process to the pixels of the second image part 21. The second process can comprise a single second algorithm or a plurality of second algorithms. In the case where the electronic processing unit 15 applies a plurality of second algorithms, the plurality of second algorithms may include one or more algorithms from the plurality of first algorithms.

Ce mode de réalisation est particulièrement avantageux quand un objet 7 est détecté dans l’environnement du véhicule 3. L’unité de traitement électronique 15 peut alors appliquer une pluralité d’algorithmes au premier sous-ensemble 719 ou au deuxième sous ensemble 721 afin de mesurer une pluralité de caractéristiques de l’objet 7.This embodiment is particularly advantageous when an object 7 is detected in the environment of the vehicle 3. The electronic processing unit 15 can then apply a plurality of algorithms to the first subset 719 or to the second subset 721 in order to measure a plurality of characteristics of the object 7.

En effet, il est plus intéressant d’obtenir des informations 2 pour un premier sous-ensemble 719 que pour un deuxième sous-ensemble 721. En effet, pour un tel deuxième sous-ensemble, aucune information 2 ne peut être superposée par l’afficheur tête-haute à réalité augmentée à l’objet 7 qu’il représente (ces objets 7 étant en dehors de l’angle solide correspondant à la zone d’affichage 5).Indeed, it is more advantageous to obtain information 2 for a first subset 719 than for a second subset 721. Indeed, for such a second subset, no information 2 can be superimposed by the augmented reality head-up display to the object 7 which it represents (these objects 7 being outside the solid angle corresponding to the display area 5).

Par exemple, l’unité de traitement électronique 15 peut appliquer un premier nombre de premiers algorithmes aux pixels du premier sous-ensembleFor example, the electronic processing unit 15 can apply a first number of first algorithms to the pixels of the first subset

719, et un deuxième nombre de deuxièmes algorithmes aux pixels du deuxième sous-ensemble 721. Le premier nombre de premiers algorithmes est supérieur au deuxième nombre de deuxièmes algorithmes, ainsi on obtient plus d’informations 2 sur un premier sous-ensemble 719 (par exemple la taille, la distance, la nature, etc. de l’objet 7 qu’il représente) que sur un deuxième sous-ensemble 721 (par exemple seulement la distance)719, and a second number of second algorithms to the pixels of the second subset 721. The first number of first algorithms is greater than the second number of second algorithms, thus more information 2 is obtained on a first subset 719 (by example the size, the distance, the nature, etc. of the object 7 which it represents) than on a second subset 721 (for example only the distance)

Ainsi le procédé de traitement de données permet de réduire le nombre d’opérations réalisées par l’unité de traitement électronique 15.Thus the data processing method makes it possible to reduce the number of operations performed by the electronic processing unit 15.

Selon un troisième mode de réalisation, le premier processus et le deuxième processus comprennent un échantillonnage des pixels de l’image acquise 13. Lors de cet échantillonnage, la deuxième partie d’image 21 est souséchantillonnée par rapport à la première partie d’image 19. Seuls les pixels échantillonnés seront par la suite traités selon d’autres algorithmes. Ceci permet de réduire le volume de données à traiter et d’ainsi accélérer le traitement d’image tout en diminuant les ressources électroniques nécessaires.According to a third embodiment, the first process and the second process comprise a sampling of the pixels of the acquired image 13. During this sampling, the second image part 21 is undersampled with respect to the first image part 19 Only the sampled pixels will subsequently be processed according to other algorithms. This makes it possible to reduce the volume of data to be processed and thus speed up image processing while reducing the electronic resources required.

L’échantillonnage est par exemple mis en oeuvre par l’unité de traitement électronique 15.The sampling is for example implemented by the electronic processing unit 15.

Selon une première variante du troisième mode de réalisation, l’échantillonnage comprend un échantillonnage spatial des pixels. Les pixels de la première partie d’image 19 sont échantillonnés selon un premier taux d’échantillonnage spatial tsi. Les pixels de la deuxième partie d’image 21 sont échantillonnés selon un deuxième taux d’échantillonnage spatial ts2.According to a first variant of the third embodiment, the sampling comprises a spatial sampling of the pixels. The pixels of the first image part 19 are sampled according to a first spatial sampling rate t s i. The pixels of the second image part 21 are sampled according to a second spatial sampling rate t s2 .

Le premier taux d’échantillonnage spatial tsi est supérieur au deuxième taux d’échantillonnage spatial tS2, ainsi la résolution de la première partie d’image échantillonnée est supérieure à la résolution de la deuxième partie d’image échantillonnée. Par exemple le premier taux d’échantillonnage spatial tsi est égal à 1, et le deuxième taux d’échantillonnage spatial ts2est égal à 1/2, 1/3, 1/4, etc.The first spatial sampling rate t s i is greater than the second spatial sampling rate t S 2, thus the resolution of the first sampled image part is greater than the resolution of the second sampled image part. For example, the first spatial sampling rate t s i is equal to 1, and the second spatial sampling rate t s2 is equal to 1/2, 1/3, 1/4, etc.

Par exemple, quand l’algorithme appliqué permet de mesurer la taille d’un objet 7, la taille d’un objet 7 correspondant au premier sous-ensemble 719 est calculée avec plus de précision que la taille d’un objet 7 correspondant au deuxième sous-ensemble 721 (cette taille peut alors être sous-estimée ou surestimée).For example, when the algorithm applied makes it possible to measure the size of an object 7, the size of an object 7 corresponding to the first subset 719 is calculated with more precision than the size of an object 7 corresponding to the second subset 721 (this size can then be underestimated or overestimated).

Grâce à ces différents taux d’échantillonnage, on réduit le volume de données à traiter et ainsi le nombre d’opérations à effectuer pour obtenir les informations 2 relatives à l’environnement du véhicule 3, tout en conservant une bonne précision dans les informations 2 pertinentes.Thanks to these different sampling rates, the volume of data to be processed and therefore the number of operations to be carried out in order to obtain information 2 relating to the environment of the vehicle 3 is reduced, while maintaining good accuracy in the information 2 relevant.

Selon une deuxième variante du troisième mode de réalisation, l’échantillonnage comprend un échantillonnage temporel des pixels.According to a second variant of the third embodiment, the sampling comprises a temporal sampling of the pixels.

Les pixels de la première partie d’image 19 sont échantillonnés selon un premier taux d’échantillonnage temporel tti. Les pixels de la deuxième partie d’image 21 sont échantillonnés selon un deuxième taux d’échantillonnage temporel tt2Le premier taux d’échantillonnage temporel tu est supérieur au deuxième taux d’échantillonnage temporel tt2, ainsi les informations 2 obtenues sont mises à jour plus fréquemment pour la première partie d’image 19 que pour la deuxième partie d’image 21. Par exemple, le premier taux d’échantillonnage temporel tti est égal à 1, et le deuxième taux d’échantillonnage temporel tt2 est égal à 1/2, 1/3, 1/4, etc.The pixels of the first image part 19 are sampled according to a first temporal sampling rate t t i. The pixels of the second image part 21 are sampled according to a second temporal sampling rate t t 2 The first temporal sampling rate tu is greater than the second temporal sampling rate t t 2, thus the information 2 obtained is put updated more frequently for the first image part 19 than for the second image part 21. For example, the first temporal sampling rate t t i is equal to 1, and the second temporal sampling rate t t 2 equals 1/2, 1/3, 1/4, etc.

Par exemple, quand l’algorithme appliqué permet de mesurer la position d’un objet 7, la position d’un objet 7 correspondant au premier sous-ensemble 719 est calculée sur toutes les premières parties d’images 19 quand le premier taux d’échantillonnage temporel tu est égal à 1. La position d’un objet 7 correspondant au deuxième sous-ensemble 721 est calculée une sur une deuxième partie d’image sur 21 deux quand le deuxième taux d’échantillonnage temporel tt2 est égal à 1/2.For example, when the algorithm applied makes it possible to measure the position of an object 7, the position of an object 7 corresponding to the first subset 719 is calculated on all the first parts of images 19 when the first rate of temporal sampling tu is equal to 1. The position of an object 7 corresponding to the second subset 721 is calculated one on a second part of the image out of 21 two when the second temporal sampling rate t t 2 is equal to 1 / 2.

Ainsi, la position de l’objet 7 correspondant au premier sous-ensemble 719 est connue avec précision dans le temps, ce qui permet par exemple un suivi précis dudit premier objet 719. En revanche, le suivi de l’objet 7 correspondant au deuxième sous-ensemble 721 est moins précis.Thus, the position of the object 7 corresponding to the first subset 719 is known with precision over time, which allows for example a precise monitoring of said first object 719. On the other hand, the monitoring of object 7 corresponding to the second subset 721 is less precise.

En ne traitant pas la totalité des pixels de l’image acquise 13, on réduit le volume de données à traiter et ainsi le nombre d’opérations à effectuer pour obtenir les informations 2 relatives à l’environnement du véhicule 3.By not processing all the pixels of the acquired image 13, the volume of data to be processed and therefore the number of operations to be carried out to obtain information 2 relating to the environment of the vehicle 3 is reduced.

Les différents modes de réalisation ainsi que les variantes peuvent être combinés entre eux afin de réduire encore plus le nombre d’opérations effectuées. Ainsi le procédé gagne en rapidité et le besoin en ressources matérielles nécessaires à sa mise en oeuvre diminue.The different embodiments as well as the variants can be combined with one another in order to further reduce the number of operations carried out. Thus the process gains speed and the need for material resources necessary for its implementation decreases.

Selon un exemple avantageux illustré sur la figure 4, la deuxième partie d’image 21 peut comprendre une pluralité de zones, par exemple une première zone et une deuxième zone. Ici, les zones de la deuxième partie d’image 21 forment des zones périphériques 211, 213 disposées de façon concentrique autour de la première partie d’image 19, comme représentées sur la figure 3. Selon cet exemple, une première zone périphérique 211 entoure la première partie d’image 19 et une deuxième zone périphérique 213 entoure la première zone périphérique 211.According to an advantageous example illustrated in FIG. 4, the second image part 21 can comprise a plurality of zones, for example a first zone and a second zone. Here, the zones of the second image part 21 form peripheral zones 211, 213 arranged concentrically around the first image part 19, as shown in FIG. 3. According to this example, a first peripheral zone 211 surrounds the first image part 19 and a second peripheral zone 213 surrounds the first peripheral zone 211.

Selon cet exemple, plus la zone périphérique 211,213 est éloignée de la première partie d’image 19 et moins l’information 2 qu’elle contient est considérée importante.According to this example, the further the peripheral zone 211,213 is from the first image part 19, the less the information 2 that it contains is considered important.

Les modes de réalisation précédemment décrits ainsi que leurs variantes peuvent être appliqués aux zones périphériques 211,213 afin de réduire encore le nombre d’opérations effectuées et d’augmenter la rapidité de calcul et d’affichage d’informations 2 sur la zone d’affichage 5.The previously described embodiments and their variants can be applied to the peripheral areas 211,213 in order to further reduce the number of operations performed and increase the speed of calculation and display of information 2 on the display area 5 .

Dans le cas du premier mode de réalisation, la première partie d’image 19 est traitée au premier instant h, la première zone périphérique 211 est traitée au deuxième instant h distinct du premier instant, et la deuxième zone périphérique 213 est traité à un troisième instant l3, ledit troisième instant étant distinct du premier instant h et du deuxième instant l2. De plus, le troisième instant l3 est postérieur au deuxième instant l2, le deuxième instant l2 étant lui-même postérieur au premier instant h.In the case of the first embodiment, the first image part 19 is processed at the first instant h, the first peripheral zone 211 is processed at the second instant h distinct from the first instant, and the second peripheral zone 213 is processed at a third instant l 3 , said third instant being distinct from the first instant h and the second instant l 2 . In addition, the third instant l 3 is after the second instant l 2 , the second instant l 2 itself being after the first instant h.

Dans le cas du deuxième mode de réalisation, le troisième nombre de troisièmes algorithmes appliqués à la deuxième zone périphérique 213 est inférieur au deuxième nombre de deuxièmes algorithmes appliqués sur la première zone périphérique 211. Le deuxième nombre d’algorithmes appliqués sur la première zone périphérique 211 est quant à lui inférieur au premier nombre de premiers algorithmes appliqués sur la première partie d’image 19.In the case of the second embodiment, the third number of third algorithms applied to the second peripheral area 213 is less than the second number of second algorithms applied to the first peripheral area 211. The second number of algorithms applied to the first peripheral area 211 is less than the first number of first algorithms applied to the first image part 19.

Dans le cas du troisième mode de réalisation, les taux d’échantillonnage spatial ts et les taux d’échantillonnage temporel tt décroissent en fonction de l’éloignement de la première partie d’image 19.In the case of the third embodiment, the spatial sampling rates t s and the temporal sampling rates t t decrease as a function of the distance from the first image part 19.

Par exemple, toutes les images sont sélectionnées pour la première partie d’image 19, seulement une image sur deux est sélectionnée pour la première zone périphérique 211, et une image sur quatre est sélectionnée pour la deuxième zone périphérique 213. Les informations 2 extraites des zones périphériques 211,213 sont donc moins précises que celles de la première partie d’image 19.For example, all the images are selected for the first image part 19, only one image out of two is selected for the first peripheral zone 211, and one image out of four is selected for the second peripheral zone 213. The information 2 extracted from peripheral areas 211,213 are therefore less precise than those of the first image part 19.

La figure 4 illustre les positions 7N, 7N+1, 7N+2, 7N+3 d’un objet 7 sur une superposition d’une séquence d’images acquises N, N+1, N+2, N+3. Ainsi la position initiale représente l’objet 7 sur une image initiale N etc.FIG. 4 illustrates the positions 7 N , 7 N + 1 , 7 N + 2 , 7 N + 3 of an object 7 on a superposition of a sequence of acquired images N, N + 1, N + 2, N 3. Thus the initial position represents the object 7 on an initial image N etc.

L’objet 7, par exemple un piéton, est tout d’abord détecté à une première position 7N dans la deuxième zone périphérique 213 de la première image acquise N.The object 7, for example a pedestrian, is first of all detected at a first position 7 N in the second peripheral zone 213 of the first acquired image N.

Dans cet exemple, la deuxième zone périphérique 213 présente un taux d’échantillonnage temporel ts2i3 est égal à 1/4, alors la deuxième position 7N+1 de l’objet 7 ne sera pas connue sur la deuxième image capturée N+1. En effet, l’objet 7 est toujours dans la deuxième zone périphérique 213.In this example, the second peripheral zone 213 has a temporal sampling rate t s2 i3 is equal to 1/4, then the second position 7 N + 1 of the object 7 will not be known on the second captured image N + 1. Indeed, the object 7 is still in the second peripheral zone 213.

Le taux d’échantillonnage temporel ts2n de la première zone périphérique est égal à 1/2.The temporal sampling rate t s2 n of the first peripheral zone is equal to 1/2.

Entre l’acquisition de la deuxième image acquise N+1 et celle de la troisième image acquise N+2, l’objet 7 est entré dans la première zone périphérique 211. L’objet 7 est donc détecté à une troisième position 7n+2 dans la première zone périphérique 211 sur la troisième image acquise N+2.Between the acquisition of the second acquired image N + 1 and that of the third acquired image N + 2, the object 7 entered the first peripheral zone 211. The object 7 is therefore detected at a third position 7n + 2 in the first peripheral zone 211 on the third acquired image N + 2.

Puis l’objet 7 entre dans la première partie d’image 19, et sa quatrième position 7N+3 peut être détectée sur la quatrième image acquise N+3.Then the object 7 enters the first image part 19, and its fourth position 7 N + 3 can be detected on the fourth acquired image N + 3.

Si l’objet était resté dans la première zone périphérique 211 ou qu’il était retourné dans la deuxième zone périphérique, sa présence n’aurait pas été détectée sur la quatrième image N+3.If the object had remained in the first peripheral zone 211 or had returned to the second peripheral zone, its presence would not have been detected on the fourth image N + 3.

En réduisant encore la fréquence de traitement des zones périphériques 211, 213 on réduit la charge de calcul nécessaire pour le traitement de l’image acquise 13.By further reducing the processing frequency of the peripheral areas 211, 213, the computational load necessary for processing the acquired image 13 is reduced.

Il est en outre possible d’augmenter le nombre de zones périphériques 211, 213 comprises dans la deuxième partie d’image 21 afin de contrôler avec précision le nombre d’opération réalisées.It is also possible to increase the number of peripheral zones 211, 213 included in the second image part 21 in order to precisely control the number of operations performed.

Les modes de réalisation décrits ainsi que leurs variantes peuvent être combinés.The embodiments described and their variants can be combined.

Selon un quatrième mode de réalisation, le système d’aide à la conduite 1 comprend un dispositif de détection hybride. Dans ce cas, le dispositif de détection hybride comprend de multiples capteurs. Par exemple, en plus de l’unité d’acquisition d’image 11, le dispositif de détection hybride comprend un dispositif de télémétrie 23 permettant de mesurer une distance entre l’objet 7 et le véhiculeAccording to a fourth embodiment, the driving assistance system 1 comprises a hybrid detection device. In this case, the hybrid detection device includes multiple sensors. For example, in addition to the image acquisition unit 11, the hybrid detection device comprises a telemetry device 23 making it possible to measure a distance between the object 7 and the vehicle

3.3.

Le dispositif de télémétrie 23 comprend par exemple un lidar (selon l’acronyme anglo-saxon de « Llght Détection And Ranging »), ou encore un radar. Ledit dispositif de télémétrie 23 est apte à émettre une onde électromagnétique et à acquérir l’onde électromagnétique réfléchie par l’objet 7 présent dans un champ de détection du dispositif de télémétrie 23. La distance entre l’objet 7 et le véhicule 3 est alors calculée en mesurant un temps de vol de l’onde lumineuse ou de l’onde radio réfléchie par cet objet 7, ce temps de vol étant obtenu à partir du signal d’écho capturé par ce lidar ou ce radar.The telemetry device 23 comprises for example a lidar (according to the English acronym of "Llght Detection And Ranging"), or even a radar. Said telemetry device 23 is capable of emitting an electromagnetic wave and of acquiring the electromagnetic wave reflected by the object 7 present in a detection field of the telemetry device 23. The distance between the object 7 and the vehicle 3 is then calculated by measuring a time of flight of the light wave or of the radio wave reflected by this object 7, this time of flight being obtained from the echo signal captured by this lidar or this radar.

On propose dans le présent mode de réalisation que chaque partie d’image soit déterminée comme un ensemble de pixels correspondant à des objets situés sur une certaine plage de distances telles que mesurées par le dispositif de télémétrie 23. (Chaque partie d’image peut alors être formée de sousparties disjointes.)It is proposed in this embodiment that each image part is determined as a set of pixels corresponding to objects located over a certain range of distances as measured by the telemetry device 23. (Each image part can then be made up of separate subparties.)

Ainsi la première partie d’image 19 peut comprendre l’ensemble des pixels correspondant à des objets situés à une distance mesurée inférieure à une valeur seuil (par exemple de 20 m).Thus the first part of image 19 can comprise all of the pixels corresponding to objects located at a measured distance less than a threshold value (for example 20 m).

Le dispositif de télémétrie 23 permet de déterminer une première partie d’image 19 de taille réduite et ainsi d’augmenter la rapidité du procédé et de réduire le nombre d’opérations.The telemetry device 23 makes it possible to determine a first image portion 19 of reduced size and thus to increase the speed of the process and to reduce the number of operations.

Par exemple, une pluralité d’objets 7 est détectée par télémétrie, chaque objet 7 se trouvant à une distance différente du véhicule 3. La première partie d’image 19 correspond alors au premier ensemble de pixels représentant un objet, ou à une pluralité d’ensembles de pixels représentant une pluralité d’objets, se trouvant à une distance inférieure à la valeur seuil. La deuxième partie d’image 21 correspond alors au deuxième ensemble de pixels représentant un objet, ou à une pluralité d’ensembles de pixels représentant une pluralité d’objets, se trouvant à une distance supérieure à la valeur seuil. .For example, a plurality of objects 7 is detected by telemetry, each object 7 being at a different distance from the vehicle 3. The first image part 19 then corresponds to the first set of pixels representing an object, or to a plurality of 'sets of pixels representing a plurality of objects, located at a distance less than the threshold value. The second image part 21 then corresponds to the second set of pixels representing an object, or to a plurality of sets of pixels representing a plurality of objects, located at a distance greater than the threshold value. .

Avantageusement, une pluralité de valeurs seuil peut être mémorisée dans l’unité de mémoire 17 du véhicule. Ainsi, la deuxième partie d’image 21 peut comprendre une pluralité de zones définies en fonction des valeurs seuil.Advantageously, a plurality of threshold values can be stored in the memory unit 17 of the vehicle. Thus, the second image part 21 can comprise a plurality of zones defined as a function of the threshold values.

Par exemple, la première zone de la deuxième partie d’image 21 comprend le ou les ensembles de pixels représentant un ou des objets situés entre 20 m et 30 m du véhicule 3. La deuxième zone correspond au troisième ensemble de pixels représentant un ou des objets situés à plus de 30 m du véhicule 3 etc.For example, the first area of the second image part 21 comprises the set or sets of pixels representing one or more objects located between 20 m and 30 m from the vehicle 3. The second area corresponds to the third set of pixels representing one or more objects located more than 30 m from the vehicle 3 etc.

Ce quatrième mode de réalisation est combinable avec les autres modes de réalisations ainsi que leurs variantes. Ainsi, les processus appliqués à la première partie d’image 19, à la première zone et à la deuxième zone peuvent être tels que ceux précédemment décrits. De plus, les informations 2 correspondants à l’objet le plus proche du véhicule 3 peuvent être affichées en priorité.This fourth embodiment can be combined with the other embodiments and their variants. Thus, the processes applied to the first image part 19, to the first zone and to the second zone can be such as those previously described. In addition, the information 2 corresponding to the object closest to the vehicle 3 can be displayed in priority.

Le dispositif de télémétrie 23 peut en outre permettre de confirmer certaines informations 2 obtenues grâce à l’unité d’acquisition d’image 11, par exemple la distance entre l’objet 7 et le véhicule 3.The telemetry device 23 can also make it possible to confirm certain information 2 obtained thanks to the image acquisition unit 11, for example the distance between the object 7 and the vehicle 3.

Pour tous ces différents modes de réalisation, l’étape d) d’affichage est réalisée comme décrite précédemment.For all these different embodiments, display step d) is carried out as described above.

Claims (15)

1. Procédé de traitement de données pour système d’aide à la conduite (1) d’un véhicule (3) comprenant des étapes suivantes:1. Data processing method for driving assistance system (1) of a vehicle (3) comprising the following steps: a) acquisition d’un ensemble de données relatives à l’environnement du véhicule (3), ledit ensemble de données comprenant un premier ensemble de données relatives à une première partie de l’environnement du véhicule (3) et un deuxième ensemble de données relatives à une deuxième partie de l’environnement du véhicule (3),a) acquisition of a set of data relating to the environment of the vehicle (3), said set of data comprising a first set of data relating to a first part of the environment of the vehicle (3) and a second set of data relating to a second part of the environment of the vehicle (3), b) traitement du premier ensemble de données selon un premier processus et à un premier instant (h),b) processing of the first set of data according to a first process and at a first instant (h), c) traitement du deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant (l2) distinct du premier instant (h).c) processing of the second set of data according to a second process distinct from the first process or at a second instant (l 2 ) distinct from the first instant (h). 2. Procédé de traitement de données selon la revendication 1, dans lequel le deuxième ensemble de données est traité au deuxième instant (l2) et dans lequel le deuxième instant (l2) est postérieur au premier instant (h).2. A data processing method according to claim 1, in which the second set of data is processed at the second instant (l 2 ) and in which the second instant (l 2 ) is after the first instant (h). 3. Procédé de traitement d’image selon la revendication 1 ou 2, dans lequel le premier processus comprend un échantillonnage du premier ensemble de données selon un premier taux d’échantillonnage (tsi, tti), et dans lequel le deuxième processus comprend un échantillonnage du deuxième ensemble de données selon un deuxième taux d’échantillonnage (ts2, tt2), le premier taux d’échantillonnage (tsi, tti) étant supérieur au deuxième taux d’échantillonnage (ts2, W,The image processing method according to claim 1 or 2, in which the first process comprises sampling the first set of data according to a first sampling rate (t s i, t t i), and in which the second process includes sampling the second data set according to a second sampling rate (t s2 , t t2 ), the first sampling rate (t s i, t t i) being greater than the second sampling rate (t s2 , W, 4. Procédé de traitement d’image selon la revendication 3, dans lequel l’échantillonnage du premier ensemble de données et l’échantillonnage du deuxième ensemble de données sont des échantillonnages spatiaux.4. The image processing method according to claim 3, in which the sampling of the first set of data and the sampling of the second set of data are spatial samplings. 5. Procédé de traitement d’image selon la revendication 3, dans lequel l’échantillonnage du premier ensemble de données et l’échantillonnage du deuxième ensemble de données sont des échantillonnages temporels.5. The image processing method according to claim 3, in which the sampling of the first set of data and the sampling of the second set of data are temporal samplings. 6. Procédé de traitement d’image selon l’une des revendications précédentes, comprenant en outre les étapes suivantes :6. Image processing method according to one of the preceding claims, further comprising the following steps: - détection d’un objet (7) se trouvant dans l’environnement du véhicule (3),- detection of an object (7) located in the environment of the vehicle (3), - détermination d’un sous-ensemble de données (719, 721) correspondant audit objet (7) dans l’ensemble de données.- determination of a subset of data (719, 721) corresponding to said object (7) in the data set. 7. Procédé de traitement d’image selon la revendication 6, dans lequel un nombre d’algorithmes est appliqué au sous-ensemble de données (719, 721), et dans lequel ledit nombre d’algorithmes est fonction d’une localisation de l’objet (7).7. The image processing method according to claim 6, in which a number of algorithms is applied to the subset of data (719, 721), and in which said number of algorithms is a function of a location of l object (7). 8. Procédé de traitement d’image selon la revendication 7, dans lequel la localisation de l’objet (7) comprend une appartenance du sous-ensemble de données (719, 721) au premier ensemble de données ou au second ensemble de données.8. The image processing method according to claim 7, wherein the location of the object (7) comprises belonging to the subset of data (719, 721) to the first set of data or to the second set of data. 9. Procédé de traitement d’image selon la revendication 7, dans lequel la localisation de l’objet (7) comprend une distance entre l’objet (7) et le véhicule (3).9. The image processing method according to claim 7, wherein the location of the object (7) comprises a distance between the object (7) and the vehicle (3). 10. Procédé de traitement d’image selon la revendication 9, dans lequel ladite distance est mesurée grâce à un dispositif de télémétrie (23).10. The image processing method according to claim 9, wherein said distance is measured using a telemetry device (23). 11. Procédé de traitement d’image selon l’une des revendications 6 à 10, comprenant en outre une étape de superposition d’une information (2) obtenue par le traitement du premier ensemble de données à l’objet (7) au moyen d’un afficheur tête-haute.11. Image processing method according to one of claims 6 to 10, further comprising a step of superimposing information (2) obtained by processing the first set of data on the object (7) by means a head-up display. 12. Procédé de traitement d’image selon l’une des revendications précédentes, dans lequel l’ensemble de données acquises représente une image acquise (13), dans lequel le premier ensemble de données représente une première partie d’image (19), et dans lequel ladite première partie d’image (19) correspond à une zone d’affichage (5) du système d’aide à la conduite (1).12. Image processing method according to one of the preceding claims, in which the set of acquired data represents an acquired image (13), in which the first set of data represents a first image part (19), and wherein said first image part (19) corresponds to a display area (5) of the driving assistance system (1). 13. Système d’aide à la conduite (1) pour véhicule (3) comprenant :13. Driving assistance system (1) for vehicle (3) comprising: - un capteur adapté à acquérir un ensemble de données relatives à l’environnement du véhicule (3), ledit ensemble de données comprenant un- a sensor adapted to acquire a set of data relating to the environment of the vehicle (3), said set of data comprising a 5 premier ensemble de données relatives à une première partie de l’environnement du véhicule (3) et un deuxième ensemble de données relatives à une deuxième partie de l’environnement du véhicule (3),5 first set of data relating to a first part of the vehicle environment (3) and a second set of data relating to a second part of the vehicle environment (3), - une unité de traitement électronique (15) apte à traiter le premier ensemble de données selon un premier processus et à un premier instant (h), etan electronic processing unit (15) capable of processing the first set of data according to a first process and at a first instant (h), and 10 apte à traiter le deuxième ensemble de données selon un deuxième processus distinct du premier processus ou à un deuxième instant (l2) distinct du premier instant (h).10 capable of processing the second set of data according to a second process distinct from the first process or at a second instant (l 2 ) distinct from the first instant (h). 14. Système d’aide à la conduite (1) selon la revendication 13,14. Driving assistance system (1) according to claim 13, 15 comprenant un afficheur tête haute, l’unité de traitement électronique (15) étant apte à produire une information au moyen du premier processus, ledit afficheur tête haute étant apte à superposer ladite information (2) à un objet (7) se trouvant dans l’environnement du véhicule (3).15 comprising a head-up display, the electronic processing unit (15) being capable of producing information by means of the first process, said head-up display being able to superimpose said information (2) on an object (7) located in the environment of the vehicle (3). 1/21/2
FR1760252A 2017-10-30 2017-10-30 DATA PROCESSING METHOD FOR A DRIVING ASSISTANCE SYSTEM OF A VEHICLE AND ASSOCIATED DRIVING ASSISTANCE SYSTEM Active FR3072931B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1760252A FR3072931B1 (en) 2017-10-30 2017-10-30 DATA PROCESSING METHOD FOR A DRIVING ASSISTANCE SYSTEM OF A VEHICLE AND ASSOCIATED DRIVING ASSISTANCE SYSTEM
PCT/EP2018/079208 WO2019086314A1 (en) 2017-10-30 2018-10-24 Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving
EP18789168.4A EP3704625A1 (en) 2017-10-30 2018-10-24 Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1760252 2017-10-30
FR1760252A FR3072931B1 (en) 2017-10-30 2017-10-30 DATA PROCESSING METHOD FOR A DRIVING ASSISTANCE SYSTEM OF A VEHICLE AND ASSOCIATED DRIVING ASSISTANCE SYSTEM

Publications (2)

Publication Number Publication Date
FR3072931A1 true FR3072931A1 (en) 2019-05-03
FR3072931B1 FR3072931B1 (en) 2021-07-23

Family

ID=61027895

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1760252A Active FR3072931B1 (en) 2017-10-30 2017-10-30 DATA PROCESSING METHOD FOR A DRIVING ASSISTANCE SYSTEM OF A VEHICLE AND ASSOCIATED DRIVING ASSISTANCE SYSTEM

Country Status (3)

Country Link
EP (1) EP3704625A1 (en)
FR (1) FR3072931B1 (en)
WO (1) WO2019086314A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7151234B2 (en) * 2018-07-19 2022-10-12 株式会社デンソー Camera system and event recording system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120140984A1 (en) * 2010-12-02 2012-06-07 Aisin Aw Co., Ltd. Driving support system, driving support program, and driving support method
US20120307062A1 (en) * 2010-02-10 2012-12-06 Hitachi Automotive Stystems, Ltd Vehicle-mounted image processing apparatus
DE102012213291A1 (en) * 2012-07-27 2014-01-30 Robert Bosch Gmbh Method and device for determining situation data based on image data
US20150153184A1 (en) * 2013-12-04 2015-06-04 GM Global Technology Operations LLC System and method for dynamically focusing vehicle sensors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120307062A1 (en) * 2010-02-10 2012-12-06 Hitachi Automotive Stystems, Ltd Vehicle-mounted image processing apparatus
US20120140984A1 (en) * 2010-12-02 2012-06-07 Aisin Aw Co., Ltd. Driving support system, driving support program, and driving support method
DE102012213291A1 (en) * 2012-07-27 2014-01-30 Robert Bosch Gmbh Method and device for determining situation data based on image data
US20150153184A1 (en) * 2013-12-04 2015-06-04 GM Global Technology Operations LLC System and method for dynamically focusing vehicle sensors

Also Published As

Publication number Publication date
FR3072931B1 (en) 2021-07-23
EP3704625A1 (en) 2020-09-09
WO2019086314A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
FR3025898A1 (en) METHOD AND SYSTEM FOR LOCALIZATION AND MAPPING
FR2932595A1 (en) METHOD FOR DISPLAYING PARKING ASSIST.
WO2022002531A1 (en) System and method for detecting an obstacle in an area surrounding a motor vehicle
FR3072931A1 (en) DATA PROCESSING METHOD FOR VEHICLE DRIVER ASSISTANCE SYSTEM AND DRIVING ASSISTANCE SYSTEM
FR3056530A1 (en) OBSTRUCTION DETECTION BY FUSION OF OBJECTS FOR MOTOR VEHICLE
EP1646967A1 (en) Method for measuring the proximity of two contours and system for automatic identification of targets
EP3698321A1 (en) Data processing method and associated onboard system
EP3155446B1 (en) Method and system for estimating a parameter in a motor vehicle, and motor vehicle provided with such a system
FR3107114A1 (en) Method and device for validating mapping data of a vehicle road environment
FR3106108A1 (en) Method and device for determining the trajectory of a road
FR3092545A1 (en) ASSISTANCE IN DRIVING A VEHICLE, BY DETERMINING THE TRAFFIC LANE IN WHICH AN OBJECT IS LOCATED
FR3084628A1 (en) METHOD FOR DETERMINING A TYPE OF PARKING LOCATION
EP3757943B1 (en) Method and device for passive telemetry by image processing and use of three-dimensional models
FR3057693A1 (en) LOCATION DEVICE AND DEVICE FOR GENERATING INTEGRITY DATA
WO2023161568A1 (en) Method for computing three-dimensional surfaces for a vehicle equipped with a driver-assistance system
WO2021099395A1 (en) Method for detecting intensity peaks of a specularly reflected light beam
FR3100641A1 (en) DETERMINATION OF REAL-TIME ENVIRONMENTAL INFORMATION AND SELECTIVE REGRESSION, FOR A SYSTEM
EP4165601A1 (en) Method for calibrating a camera and associated device
EP3931741A1 (en) Vehicle driving assistance by reliable determination of objects in deformed images
FR3105961A1 (en) Method and device for determining a lane change indicator for a vehicle
WO2022033902A1 (en) Method for aligning at least two images formed by three-dimensional points
WO2023067130A1 (en) Method for implementing a lidar device with descriptors employing distance evaluation
WO2021250258A1 (en) Method for using a lidar device with descriptors
EP3757942A1 (en) Method and device for passive telemetry by image processing
WO2018069059A1 (en) Device and method for locating a vehicle

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190503

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7