FR3118747A1 - Procédé et dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement d’une route - Google Patents
Procédé et dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement d’une route Download PDFInfo
- Publication number
- FR3118747A1 FR3118747A1 FR2100199A FR2100199A FR3118747A1 FR 3118747 A1 FR3118747 A1 FR 3118747A1 FR 2100199 A FR2100199 A FR 2100199A FR 2100199 A FR2100199 A FR 2100199A FR 3118747 A1 FR3118747 A1 FR 3118747A1
- Authority
- FR
- France
- Prior art keywords
- data
- vehicle
- information representative
- coating
- grip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000011248 coating agent Substances 0.000 claims abstract description 46
- 238000000576 coating method Methods 0.000 claims abstract description 46
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 36
- 210000002569 neuron Anatomy 0.000 claims description 18
- 230000002123 temporal effect Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 239000000463 material Substances 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 210000004205 output neuron Anatomy 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000897276 Termes Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 125000002015 acyclic group Chemical group 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/068—Road friction coefficient
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/90—Single sensor for two or more measurements
- B60W2420/905—Single sensor for two or more measurements the sensor being an xyz axis sensor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
- B60W2520/105—Longitudinal acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/12—Lateral speed
- B60W2520/125—Lateral acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/16—Pitch
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/18—Roll
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Abstract
L’invention concerne un procédé et un dispositif de détermination de l’adhérence entre un véhicule (10) et le revêtement d’une route (100), une telle détermination étant mise en œuvre dans un réseau neuronal convolutif (11). A cet effet, une ou plusieurs images du revêtement sont acquises par une caméra (101) embarquée dans le véhicule (10). Des deuxièmes données inertielles du véhicule et des troisièmes données d’angle volant du véhicule (10) sont également obtenues. Les premières données d’image du revêtement sont fournies en entrée d’une partie convolutive (111) du réseau neuronal convolutif (11) pour déterminer un ensemble de caractéristiques associées au revêtement. Les caractéristiques du revêtement sont fournies en entrée d’une partie densément connectée (112) du réseau neuronal convolutif (11) avec les deuxièmes et troisièmes données pour déterminer l’adhérence. Figure pour l’abrégé : Figure 1
Description
L’invention concerne un procédé et un dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement de route sur laquelle circule le véhicule. L’invention concerne également le véhicule embarquant le dispositif de détermination d’information représentative d’adhérence et/ou mettant en œuvre le procédé de détermination d’information représentative d’adhérence.
Arrière-plan technologique
Les systèmes embarqués dans certains véhicules contemporains offrent des fonctions d’aide à la conduite qui peuvent permettre aux véhicules qui en sont équipés de percevoir un risque et de réagir automatiquement. Ces systèmes d’aide à la conduite sont connus sous le nom de systèmes dits ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé »). Les systèmes d’aide à la conduite les plus aboutis assurent le contrôle du véhicule qui devient un véhicule dit autonome, c’est-à-dire un véhicule apte à rouler dans l’environnement routier sans intervention du conducteur.
Pour prévoir les risques potentiels et assister efficacement le conducteur, ces systèmes ont besoin de connaitre l’environnement dans lequel évolue le véhicule par le biais de paramètres mesurés ou déterminés.
L’adhérence entre le véhicule et le revêtement de la route sur laquelle circule le véhicule fait partie de ces paramètres décrivant l’environnement du véhicule et utile à un ou plusieurs systèmes embarqués dans le véhicule. Des méthodes connues d’estimation de l’adhérence s’appuient sur l’utilisation d’une caméra neuromorphique et d’un modèle analytique de la dynamique du véhicule. Une caméra neuromorphique présente l’inconvénient d’être un dispositif coûteux nécessitant un temps d’observation de la route relativement long. L’utilisation d’un modèle analytique entraine des erreurs dans l’estimation de l’adhérence, le modèle étant approximatif et dépendant de paramètres non connus ou mal maitrisés, tels que la charge du véhicule ou l’usure des pneus par exemple.
Un objet de la présente invention est d’améliorer l’estimation en temps réel de l’adhérence entre un véhicule et la route sur laquelle il circule.
Selon un premier aspect, l’invention concerne un procédé de détermination d’au moins une information représentative d’adhérence entre un véhicule et un revêtement d’une route, le procédé comprenant les étapes suivantes :
- réception de premières données représentatives d’au moins une image du revêtement, la au moins une image étant acquise par une caméra embarquée dans le véhicule ;
- réception de deuxièmes données inertielles du véhicule et de troisièmes données représentatives d’au moins un angle volant du véhicule ;
- détermination d’informations représentatives de caractéristiques du revêtement à partir des premières données, la détermination étant mise en œuvre dans une partie dite convolutive d’un réseau neuronal convolutif, la partie convolutive mettant en œuvre un traitement convolutif des premières données ;
- détermination de la au moins une information représentative d’adhérence à partir des informations représentatives de caractéristiques du revêtement et des deuxièmes et troisièmes données, la détermination étant mise en œuvre dans une partie dite densément connectée du réseau neuronal convolutif, la partie densément connectée comprenant au moins une couche de neurones densément connectés.
Selon une variante, les informations représentatives de caractéristiques du revêtement sont déterminées à partir de motifs détectés dans la au moins une image à partir des premières données par la partie convolutive du réseau neuronal convolutif, les motifs étant détectés par application d’une pluralité de filtres de convolution aux premières données.
Selon une autre variante, les informations représentatives de caractéristiques du revêtement et les deuxièmes et troisièmes données sont fournies en entrée de la partie densément connectée du réseau neuronal convolutif.
Selon une variante supplémentaire, la partie densément connectée met en œuvre une étape de classification des informations représentatives de caractéristiques du revêtement associées aux deuxièmes et troisièmes données, la au moins une couche de neurones densément connectés ayant en sortie une pluralité de neurones, une classe représentative d’une information représentative d’adhérence étant associée à chaque neurone de la pluralité de neurones en sortie.
Selon encore une variante, la au moins une information représentative d’adhérence est déterminée par filtrage temporel d’une pluralité d’informations représentatives d’adhérence déterminées à partir d’une pluralité d’images du revêtement et de deuxièmes et troisièmes données associées.
Un tel filtrage temporel est par exemple réalisé ou mis en œuvre par un filtre numérique défini par une équation mathématique, par exemple une équation aux différences, ou par un réseau de neurone, par exemple récurrent.
Selon une variante additionnelle, le procédé comprend en outre une étape d’apprentissage supervisé à partir d’une pluralité d’images de revêtements aux caractéristiques connues et de jeux de deuxièmes et troisièmes données obtenus lors de séances de roulage du véhicule pour lesquels une information représentative d’adhérence associée est connue.
Selon une autre variante, les informations représentatives de caractéristiques du revêtement comprennent au moins une information représentative d’un matériau constituant le revêtement et au moins une information représentative d’un état courant du revêtement.
Selon une variante supplémentaire, les deuxièmes données inertielles sont obtenues d’un système de contrôle électronique de stabilité équipant le véhicule.
Selon un deuxième aspect, l’invention concerne un dispositif de détermination d’au moins une information représentative d’adhérence entre un véhicule et un revêtement d’une route, le dispositif comprenant une mémoire associée à un processeur configuré pour la mise en œuvre des étapes du procédé selon le premier aspect de l’invention.
Selon un troisième aspect, l’invention concerne un véhicule, par exemple de type automobile, comprenant un dispositif tel que décrit ci-dessus selon le deuxième aspect de l’invention.
Selon un quatrième aspect, l’invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé selon le premier aspect de l’invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Selon un cinquième aspect, l’invention concerne un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon le premier aspect de l’invention.
D’une part, le support d’enregistrement peut être n'importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d'enregistrement magnétique ou un disque dur.
D'autre part, ce support d’enregistrement peut également être un support transmissible tel qu'un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d'autres moyens. Le programme d’ordinateur selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Brève description des figures
D’autres caractéristiques et avantages de l’invention ressortiront de la description des modes de réalisation non limitatifs de l’invention ci-après, en référence aux figures 1 à 3 annexées, sur lesquelles :
Un procédé et un dispositif de détermination d’au moins une information représentative d’adhérence entre un véhicule et le revêtement d’une route vont maintenant être décrits dans ce qui va suivre en référence conjointement aux figures 1 à 3. Des mêmes éléments sont identifiés avec des mêmes signes de référence tout au long de la description qui va suivre.
Selon un exemple particulier et non limitatif de réalisation de l’invention, une ou plusieurs informations représentatives de l’adhérence entre un véhicule et le revêtement d’une route sur laquelle circule le véhicule est avantageusement déterminées via un réseau neuronal convolutif mis en œuvre dans un dispositif de traitement de données embarqué dans le véhicule. A cet effet, une ou plusieurs images du revêtement d’une route sont acquises par une caméra embarquée dans un véhicule circulant sur la route. Un ensemble de premières données est associé à chaque image acquise, les premières données correspondant par exemple aux données d’image (par exemple des données RGB (de l’anglais « Red, Green, Blue » ou en français « Rouge, vert, bleu ») associées à chaque pixel de l’image acquise. Des deuxièmes données inertielles du véhicule et des troisièmes données d’angle volant du véhicule sont également obtenues. Les premières données d’image du revêtement sont fournies en entrée d’une partie dite convolutive du réseau neuronal convolutif pour que la partie convolutive du réseau neuronal détermine un ensemble de caractéristiques associées au revêtement, par exemple le type du revêtement et son état. Les caractéristiques du revêtement sont fournies en entrée d’une partie densément connectée du réseau neuronal convolutif avec les deuxièmes et troisièmes données pour que la partie densément connectée du réseau neuronal détermine la ou les informations représentatives de l’adhérence entre le véhicule et le revêtement, par exemple une ou plusieurs valeurs d’adhérence.
Un réseau neuronal convolutif, également appelé réseau de neurones convolutifs ou réseau de neurones à convolution et noté CNN ou ConvNet (de l’anglais « Convolutional Neural Networks ») correspond à un réseau de neurones artificiels acycliques (de l’anglais « feed-forward »). Un tel réseau neuronal convolutif comprend une partie convolutive mettant en œuvre une ou plusieurs couches de convolution et une partie densément connectée mettant en œuvre une ou plusieurs couches de neurones densément connectées (ou entièrement connectés) assurant la classification des informations selon un modèle de type MLP (de l’anglais « Multi Layers Perceptron » ou en français « Perceptrons multicouches ») par exemple.
L’utilisation d’un réseau neuronal convolutif recevant en entrée une ou plusieurs images de la route et des données inertielles et d’angles volant du véhicule permet de s’affranchir de l’utilisation d’un modèle inverse de la dynamique du véhicule pour l’estimation de l’adhérence, un tel modèle étant approximatif et cause d’erreurs dans l’estimation de l’adhérence. Le réseau neuronal convolutif se base quant à lui sur des données fiables tenant compte de la réalité terrain, c’est-à-dire des données d’images acquises par une caméra filmant la route d’une part et des données inertielles et d’angle volant mesurées par un ou plusieurs dispositifs ou capteurs embarqués dans le véhicule. La détermination de l’adhérence s’en trouve améliorée car plus fiable et non sujette aux erreurs induites par l’utilisation du modèle dynamique du véhicule.
Selon l’exemple de la , le véhicule 10 correspond à un véhicule automobile. Cependant, l’objet de l’invention ne se limite pas aux véhicules automobiles, mais s’étend à tout type de véhicule terrestre, par exemple un camion, un bus, une motocyclette.
Le véhicule 10 correspond à un véhicule circulant sous la supervision totale d’un conducteur ou circulant dans un mode autonome ou semi-autonome. Le véhicule circule selon un niveau d’autonomie égale à 0 ou selon un niveau d’autonomie allant de 1 à 5 par exemple, selon l’échelle définie par l’agence fédérale américaine qui a établi 5 niveaux d’autonomie allant de 1 à 5, le niveau 0 correspondant à un véhicule n’ayant aucune autonomie, dont la conduite est sous la supervision totale du conducteur, et le niveau 5 correspondant à un véhicule complètement autonome.
Le véhicule 10 correspond par exemple à un véhicule équipé d’un ou plusieurs systèmes d’aide à la conduite, dit ADAS (de l’anglais « Advanced Driver-Assistance System » ou en français « Système d’aide à la conduite avancé »), un tel système étant configuré pour assister le conducteur du véhicule 10.
Le véhicule 10 embarque avantageusement une caméra 101 positionnée de manière à acquérir une ou plusieurs images du revêtement de la route 100 pendant que le véhicule 10 circule sur cette route, c’est-à-dire que le champ de vision de la caméra 101 comprend une portion de la route 100 située devant le véhicule 10. Une telle caméra 101 comprend avantageusement un système optique associé à une grille de capteurs photosensibles (formant par exemple un capteur photosensible de type CCD (de l’anglais « Charge-Coupled Device » ou en français « Dispositif à transfert de charges » ou CMOS (de l’anglais « Complementary Metal-Oxide-Semiconductor » ou en français « semiconducteur d’oxyde de métal complémentaire »)) permettant l’acquisition d’image(s) du revêtement de la route 100. Une image acquise par la caméra 101 correspond à une grille de pixels, à chaque pixel étant associée un niveau de gris (par exemple un niveau de gris dont la valeur est comprise entre 0 et 255 si les premières données de l’image sont codées sur 8 bits), ou un niveau de gris par canal de couleur, par exemple un niveau de gris par canal RGB (de l’anglais « Red, Green, Blue » ou en français « Rouge, vert, bleu »). Les données associées à chaque pixel d’une image forment un ensemble de données appelées premières données représentatives de l’image considérée.
La résolution de la caméra 101 est par exemple égale à 1920 x 1080 pixels (résolution dite Full HD (ou « pleine haute définition » en français) ou supérieure, par exemple égale à 2304 x 1296 pixels ou encore 2560 x 1440 pixels. Selon un autre exemple, la résolution est inférieure à 1920 x 1080 pixels, par exemple égale à 640 x 480 pixels.
Les images acquises par la caméra 100 sont acquises à une fréquence déterminée, par exemple à une fréquence de 1, 10, 24, 30, 50, 60, 100 ou plus images par seconde. Selon une variante, l’acquisition d’une ou plusieurs images de la route 100 par la caméra 101 est faite à la réception d’une requête par la caméra 101, par exemple à la réception d’une requête émise par un calculateur du système embarqué, par exemple le calculateur en charge de la détermination de l’adhérence entre le véhicule 10 et le revêtement de la route 100.
Le véhicule 10 embarque également un dispositif ou un système 102 configuré pour mesurer les paramètres dynamiques ou données inertielles du véhicule 10, dites deuxièmes données inertielles dans le reste de la description. Le dispositif 102 correspond par exemple à une centrale inertielle, dite IMU (de l’anglais « Inertial Measurement Unit » ou en français « centrale à inertie »). Le dispositif 102 comprend par exemple trois gyromètres fournissant des données permettant de déterminer la vitesse de rotation et l’attitude du véhicule 10 et trois accéléromètres fournissant des données permettant de déterminer les déplacements du véhicule 10 selon les trois axes orthogonaux du repère monde ou d’un repère associé au véhicule 10. Les deuxièmes données inertielles comprennent par exemple les données suivantes :
- accélération selon chaque axe du repère ; et/ou
- vitesse angulaire autour de chaque axe du repère, c’est-à-dire vitesse de tangage, vitesse de roulis et vitesse de lacet.
La centrale inertielle 102 correspond par exemple à la centrale inertielle d’un système ADAS tel que le système de contrôle électronique de stabilité équipant le véhicule 10, connu sous les acronymes ESC (de l’anglais « Electronic Stability Control » ou en français « Contrôle électronique de la stabilité »), DSC (de l’anglais « Dynamic Stability Control » ou en français « Contrôle dynamique de la stabilité ») ou encore ESP (de l’anglais « Electronic Stability Program » ou en français « Programme électronique de la stabilité »).
Le véhicule 10 embarque également un capteur d’angle volant (dit capteur CAV et également appelé transmetteur d’angle de braquage) configuré pour mesurer les valeurs d’angle volant. Les mesures de l’angle volant sont par exemple transmises au calculateur en charge de contrôler le système de contrôle électronique de stabilité équipant le véhicule 10, par exemple le système ESP.
Les deuxièmes données inertielles et les troisièmes données correspondant aux mesures d’angle volant sont avantageusement transmises au calculateur en charge de déterminer l’adhérence entre le véhicule 10 et le revêtement de la route 100.
Les deuxièmes et troisièmes données sont par exemple transmises au calculateur en charge de déterminer l’adhérence par le calculateur en charge de contrôler le système de contrôle électronique de stabilité équipant le véhicule 10, par exemple le système ESP. Selon une variante, les deuxièmes données inertielles sont transmises par la centrale inertielle 102 (ou par le calculateur en charge de contrôler la centrale inertielle 102) au calculateur en charge de déterminer l’adhérence et les troisièmes données sont transmises par le calculateur en charge de contrôler le capteur d’angle volant au calculateur en charge de déterminer l’adhérence.
Les premières données, deuxièmes données et troisièmes données sont avantageusement échangées entre les calculateurs via un bus de communication, par exemple un bus de données multiplexées, par exemple un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458) ou Ethernet (standardisé par la norme ISO/IEC 802-3).
Un exemple de calculateur en charge de déterminer l’adhérence est illustré en regard de la , un tel calculateur mettant en œuvre un réseau neuronal convolutif 11 configuré pour déterminer une ou plusieurs informations représentatives de l’adhérence entre le véhicule 10 et le revêtement de la route 100 à partir des premières, deuxièmes et troisièmes données, selon un processus décrit ci-dessous.
Dans une première opération, le calculateur mettant en œuvre le réseau neuronal convolutif 11 reçoit les premières données représentatives d’une ou plusieurs images du revêtement de la route 100 acquises par la caméra 101. Le calculateur mettant en œuvre le réseau neuronal convolutif reçoit également les deuxièmes données inertielles mesurées par la centrale inertielle 102 et les troisièmes données représentatives des mesures d’angle volant réalisées par le capteur d’angle volant. Ces premières, deuxièmes et troisièmes données sont par exemple enregistrées dans une mémoire tampon du calculateur. Ces premières, deuxièmes et troisièmes données sont avantageusement associées, c’est-à-dire que les deuxièmes données inertielles et les troisièmes données d’angle volant correspondent aux données mesurées par la centrale inertielle 102 et par le capteur d’angle volant à l’instant où l’image représentée par les premières données a été acquise par la caméra 101. Par exemple, l’acquisition d’une image à un instant ‘t’ déclenche la mesure des deuxièmes et troisièmes données à cet instant ‘t’. Selon une variante, l’acquisition des images par la caméra 101 est synchronisée avec la mesure des deuxièmes et troisièmes données, une information temporelle correspondant à l’instant d’acquisition étant par exemple associée aux premières données et une information temporelle correspondant à l’instant de mesure étant par exemple associée aux deuxièmes et troisièmes données. Ces informations temporelles sont par exemple enregistrées dans une table de correspondance (ou LUT, pour « Look-Up Table » en anglais) pour retrouver les premières, deuxièmes et troisièmes données associées à un même instant temporel.
Dans une deuxième opération, les premières données sont fournies en entrée d’une partie dite convolutive 111 du réseau neuronal convolutif 11 pour déterminer des informations représentatives des caractéristiques du revêtement. La partie convolutive 111 met avantageusement en œuvre une ou plusieurs couches de convolution pour traiter les premières données d’image(s) et en extraire un ensemble de caractéristiques. Un ensemble de filtres de convolution sont appliquées aux premières données d’image, ces premières données étant par exemple fournies sous la forme d’une matrice à deux dimensions (correspondant à la grille de pixels d’une image par exemple). Par exemple, 50, 100, 200 ou plus de filtres de convolution sont appliqués, chaque filtre ayant une taille et un pas (de l’anglais « stride ») déterminés. Par exemple, chaque filtre a une taille égale à 1x7 et un pas de 1. Autrement dit, la matrice d’entrée contenant les premières données passe dans une première couche de convolution et des opérations de convolutions sont appliquées à cette matrice d’entrée sur la base des filtres de taille et pas déterminés.
Le pas (ou « stride » en anglais) correspond au nombre de pixels par lesquels la fenêtre correspondant au filtre se déplace dans le tenseur d’entrée (matrice d’entrée par exemple).
Selon une variante, une ou plusieurs opérations de convolution successives sont appliquées aux premières données, avec pour chaque opération de convolution l’application d’un ensemble de filtres de convolutions aux données obtenues en sortie de l’opération de convolution précédente.
Selon encore une variante, une ou plusieurs opérations dites de « mise en commun » (par exemple une ou plusieurs opérations de « mise en commun par maximum » (de l’anglais « max pooling ») et/ou une ou plusieurs opérations de « mise en commun par moyenne » (de l’anglais « average pooling »)) sont mises en œuvre et appliquées aux données obtenues de la ou les opérations de convolution. Selon cette variante, la ou les opérations de « mise en commun » sont par exemple, et optionnellement, assorties ou associées à une opération de désactivation aléatoire d’une partie des neurones du réseau, avec une probabilité déterminée, par exemple une probabilité de 0.2 (20 %), 0.3 (30 %) ou 0.4 (40 %), cette technique étant connue sous le nom de « dropout ».
Les caractéristiques associées à une image du revêtement comprennent par exemple le type de revêtement (par exemple le ou les matériaux constituant le revêtement) et l’état courant du revêtement.
Le type du revêtement correspond par exemple à un des types suivants :
- revêtement bitumeux à base de bitume,
- revêtement terreux à base de terre (par exemple chemin de terre),
- revêtement composé de graviers,
- revêtement composé de béton de ciment,
- revêtement composé de pavés.
L’état courant du revêtement correspond par exemple à un ou plusieurs des états suivants :
- sec,
- humide,
- enneigé,
- glacé,
- abimé ou dégradé,
- sablonneux.
Les informations représentatives de caractéristiques sont par exemple obtenues par la ou les opérations de filtrage par convolution. L’objectif de la ou les couches de convolution mises en œuvre dans la partie convolutive 111 du réseau CNN 11 est de détecter la présence de caractéristique(s) (de l’anglais « feature ») (ou de motifs présents dans l’image et associés aux caractéristiques recherchées) dans l’image introduite en entrée (via les premières données) de la partie convolutive. Chaque filtre de convolution représente par exemple une caractéristique déterminée recherchée dans l’image en faisant glisser la fenêtre correspondant au filtre sur l’image, et en calculant le produit de convolution entre cette caractéristique déterminée et chaque portion de l’image balayée par le filtre associé à cette caractéristique déterminée. Le résultat du produit de convolution permet de déterminer la présence ou l’absence de la caractéristique déterminée dans l’image d’entrée.
La partie convolutive 111 du réseau CNN 11 sort un ensemble de caractéristique(s) détectée(s) dans la ou les images fournies en entrée de la partie convolutive 111. Les informations représentatives de la présence de caractéristique(s) déterminées dans la ou les images d’entrée sont fournies à une partie dite densément connectée 112 du réseau CNN 11. Ces informations sont fournies avec les deuxièmes données inertielles et les troisièmes données d’angle volant associées aux premières données d’image traitées par la partie convolutive 111 du réseau CNN 11 pour lesquelles les informations sur la ou les caractéristiques détectées ont été obtenues dans la deuxième opération.
Dans une troisième opération, les informations représentatives de la ou les caractéristiques du revêtement et les deuxièmes et troisièmes données associées sont traitées par la partie densément connectée 112 du réseau neuronal convolutif 11.
La partie densément connectée 112 du réseau CNN 11 comprend une ou plusieurs couches de neurones densément connectés ou totalement connectés (de l’anglais « fully-connected »). Une couche de neurones densément connectés reçoit par exemple en entrée un vecteur d’entrée et produit un vecteur de sortie. Pour cela, la couche applique une combinaison linéaire puis optionnellement une fonction d’activation aux valeurs reçues en entrée et contenues dans le vecteur d’entrée.
Le vecteur d’entrée comprend par exemple les informations représentatives de la ou les caractéristiques détectées dans une image du revêtement, les deuxièmes données inertielles mesurées lors de l’acquisition de l’image du revêtement et les troisièmes données d’angle volant mesurées lors de l’acquisition de l’image du revêtement.
La couche densément connectée met en œuvre une opération de classification des données contenues dans le vecteur d’entrée, c’est-à-dire des données représentatives des caractéristiques détectées dans l’image et des deuxièmes et troisièmes données associées. La couche densément connectée renvoie en sortie un vecteur de taille N, où N correspond au nombre de classes de la classification, chaque classe correspondant à une information représentative d’adhérence. Chaque élément du vecteur de sortie fournit la probabilité pour l’ensemble comprenant les premières, deuxièmes et troisièmes informations d’appartenir à une classe.
Le vecteur d’entrée passe par exemple par une couche de neurones densément connectés, avec par exemple 128, 256 ou plus de neurones chacun connecté à chacun des neurones d’une couche comprenant autant de neurones qu’il y a de classes, une classe représentative d’une valeur ou d’un niveau d’adhérence (ou d’un intervalle de valeurs d’adhérence) étant associée à chaque neurone de la couche de sortie. Une information représentative d’adhérence correspond par exemple à une valeur ou à un coefficient d’adhérence. Selon un autre exemple, une information représentative d’adhérence correspond à un intervalle de valeurs ou de coefficients d’adhérence.
Les valeurs des filtres de convolution sont avantageusement déterminées dans une phase dite d’apprentissage, par exemple d’apprentissage supervisé, selon une méthode connue de l’homme du métier. Dans une phase d’apprentissage, un nombre important (par exemple des centaines, des milliers, des dizaines de millier ou plus) d’images de revêtement dont on connait les caractéristiques (c’est-à-dire le type (matériau constitutif) et l’état) associées sont utilisés pour apprendre les différents valeurs ou coefficients des filtres de convolution. Dans une telle phase d’apprentissage, une méthode connue sous le nom de rétropropagation du gradient de l’erreur est par exemple mise en œuvre. De la même manière, dans cette phase d’apprentissage, un nombre important (par exemple des centaines, des milliers, des dizaines de millier ou plus) d’associations de données représentatives de caractéristiques de revêtement, de données inertielles et de données d’angle volant pour lesquelles on connait la classe associée (c’est-à-dire l’adhérence ou le niveau d’adhérence) associées sont utilisés pour apprendre les paramètres de la partie densément connectée permettant la classification.
L’apprentissage est par exemple réalisé à partir de données de séquences de roulage réalisées en milieu maitrisé. Selon une variante, l’apprentissage est également réalisé à partir de données de séquences de roulage numériques issues de simulations dynamiques photoréalistes.
Selon une variante de réalisation particulière, une valeur ou un niveau d’adhérence est déterminé pour chaque image d’une séquence d’images consécutives, à partir des premières données, deuxièmes données et troisièmes données associées à chaque image de la séquence d’images. Une pluralité de valeurs d’adhérence est ainsi obtenue pour la séquence avec autant de valeurs d’adhérence qu’il y a d’images dans la séquence. Un filtrage temporel (par exemple une moyenne) est avantageusement appliqué à cette pluralité de valeurs d’adhérence pour déterminer l’information représentative d’adhérence entre le véhicule 10 et le revêtement de la route 100. Un tel filtrage temporel est par exemple réalisé ou mis en œuvre par un filtre numérique connu de l’homme du métier, par exemple défini par une équation mathématique, telle qu’une équation aux différences, ou par un réseau de neurone, par exemple récurrent.
Le dispositif 2 est par exemple configuré pour la mise en œuvre des opérations décrites en regard de la et/ou des étapes du procédé décrit en regard de la . Des exemples d’un tel dispositif 2 comprennent, sans y être limités, un équipement électronique embarqué tel qu’un ordinateur de bord d’un véhicule, un calculateur électronique tel qu’une UCE (« Unité de Commande Electronique »), un téléphone intelligent, une tablette, un ordinateur portable. Les éléments du dispositif 2, individuellement ou en combinaison, peuvent être intégrés dans un unique circuit intégré, dans plusieurs circuits intégrés, et/ou dans des composants discrets. Le dispositif 2 peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d’une combinaison de circuits électroniques et de modules logiciels. Selon différents modes de réalisation particuliers, le dispositif 2 est couplé en communication avec d’autres dispositifs ou systèmes similaires et/ou avec des dispositifs de communication, par exemple une TCU (de l’anglais « Telematic Control Unit » ou en français « Unité de Contrôle Télématique »), par exemple par l’intermédiaire d’un bus de communication ou au travers de ports d’entrée / sortie dédiés.
Le dispositif 2 comprend un (ou plusieurs) processeur(s) 20 configurés pour exécuter des instructions pour la réalisation des étapes du procédé et/ou pour l’exécution des instructions du ou des logiciels embarqués dans le dispositif 2. Le processeur 20 peut inclure de la mémoire intégrée, une interface d’entrée/sortie, et différents circuits connus de l’homme du métier. Le dispositif 2 comprend en outre au moins une mémoire 21 correspondant par exemple une mémoire volatile et/ou non volatile et/ou comprend un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique.
Le code informatique du ou des logiciels embarqués comprenant les instructions à charger et exécuter par le processeur est par exemple stocké sur la mémoire 21.
Selon un mode de réalisation particulier et non limitatif, le dispositif 2 comprend un bloc 22 d’éléments d’interface pour communiquer avec des dispositifs externes, par exemple un ordinateur distant, un dispositif de diagnostic. Les éléments d’interface du bloc 22 comprennent une ou plusieurs des interfaces suivantes :
- interface radiofréquence RF, par exemple de type Bluetooth® ou Wi-Fi®, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à long terme »), LTE-Advanced (ou en français LTE-avancé) ;
- interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
- interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimedia Haute Definition » en français) ;
- interface LIN (de l’anglais « Local Interconnect Network », ou en français « Réseau interconnecté local »).
Selon un autre mode de réalisation particulier, le dispositif 2 comprend une interface de communication 23 qui permet d’établir une communication avec d’autres dispositifs (tels que d’autres calculateurs du système embarqué) via un canal de communication 230. L’interface de communication 23 correspond par exemple à un transmetteur configuré pour transmettre et recevoir des informations et/ou des données via le canal de communication 230. L’interface de communication 23 correspond par exemple à un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de contrôleurs »), CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »), FlexRay (standardisé par la norme ISO 17458) ou Ethernet (standardisé par la norme ISO/IEC 802-3).
Selon un mode de réalisation particulier supplémentaire, le dispositif 2 peut fournir des signaux de sortie à un ou plusieurs dispositifs externes, tels qu’un écran d’affichage, un ou des haut-parleurs et/ou d’autres périphériques via respectivement des interfaces de sortie non représentées.
Dans une première étape 31, des premières données représentatives d’au moins une image du revêtement sont reçues, par exemple d’une caméra embarquée dans le véhicule ou du calculateur contrôlant l’acquisition d’images par la caméra embarquée.
Dans une deuxième étape 32, des deuxièmes données inertielles du véhicule et des troisièmes données représentatives d’au moins un angle volant du véhicule sont reçues.
Dans une troisième étape 33, un ensemble d’informations représentatives de caractéristiques du revêtement est déterminé à partir des premières données dans une partie dite convolutive d’un réseau neuronal convolutif, la partie convolutive mettant en œuvre un traitement convolutif des premières données.
Dans une quatrième étape 34, la ou les informations représentatives d’adhérence sont déterminées à partir des informations représentatives de caractéristiques du revêtement et des deuxièmes et troisièmes données dans une partie dite densément connectée du réseau neuronal convolutif. La partie densément connectée comprend au moins une couche de neurones densément connectés.
Les étapes 31 à 34 sont avantageusement réitérées à intervalle régulier ou sur requête, par exemple sur requête d’un système ADAS du véhicule ayant besoin de l’information d’adhérence pour assister le conducteur ou pour contrôler le véhicule dans un mode de conduite autonome du véhicule.
Bien entendu, l’invention ne se limite pas aux modes de réalisation décrits ci-avant mais s’étend à un procédé de contrôle d’un véhicule en fonction de la au moins une information d’adhérence, ainsi qu’au dispositif configuré pour la mise en œuvre d’un tel procédé.
L’invention concerne également un véhicule, par exemple automobile ou plus généralement un véhicule à moteur terrestre, comprenant le dispositif 2 de la .
Claims (10)
- Procédé de détermination d’au moins une information représentative d’adhérence entre un véhicule (10) et un revêtement d’une route (100), ledit procédé comprenant les étapes suivantes :
- réception (31) de premières données représentatives d’au moins une image dudit revêtement, ladite au moins une image étant acquise par une caméra (101) embarquée dans ledit véhicule (10) ;
- réception (32) de deuxièmes données inertielles dudit véhicule (10) et de troisièmes données représentatives d’au moins un angle volant dudit véhicule (10) ;
- détermination (33) d’informations représentatives de caractéristiques dudit revêtement à partir desdites premières données, ladite détermination étant mise en œuvre dans une partie (111) dite convolutive d’un réseau neuronal convolutif (11), ladite partie convolutive (111) mettant en œuvre un traitement convolutif desdites premières données ;
- détermination (34) de ladite au moins une information représentative d’adhérence à partir desdites informations représentatives de caractéristiques dudit revêtement et desdites deuxièmes et troisièmes données, ladite détermination (34) étant mise en œuvre dans une partie (112) dite densément connectée dudit réseau neuronal convolutif (11), la partie densément connectée (112) comprenant au moins une couche de neurones densément connectés. - Procédé selon la revendication 1, pour lequel les informations représentatives de caractéristiques dudit revêtement sont déterminées à partir de motifs détectés dans ladite au moins une image à partir desdites premières données par ladite partie convolutive (111) dudit réseau neuronal convolutif (11), lesdits motifs étant détectés par application d’une pluralité de filtres de convolution auxdites premières données.
- Procédé selon la revendication 1 ou 2, pour lequel lesdites informations représentatives de caractéristiques dudit revêtement et lesdites deuxièmes et troisièmes données sont fournies en entrée de ladite partie densément connectée (112) dudit réseau neuronal convolutif (11).
- Procédé selon l’une des revendications 1 à 3, pour lequel ladite partie densément connectée (112) met en œuvre une étape de classification desdites informations représentatives de caractéristiques dudit revêtement associées auxdites deuxièmes et troisièmes données, ladite au moins une couche de neurones densément connectés ayant en sortie une pluralité de neurones, une classe représentative d’une information représentative d’adhérence étant associée à chaque neurone de ladite pluralité de neurones en sortie.
- Procédé selon l’une des revendications 1 à 4, pour lequel ladite au moins une information représentative d’adhérence est déterminée par filtrage temporel d’une pluralité d’informations représentatives d’adhérence déterminées à partir d’une pluralité d’images dudit revêtement et de deuxièmes et troisièmes données associées.
- Procédé selon l’une des revendications 1 à 5, comprenant en outre une étape d’apprentissage supervisé à partir d’une pluralité d’images de revêtements aux caractéristiques connues et de jeux de deuxièmes et troisièmes données obtenus lors de séances de roulage dudit véhicule pour lesquels une information représentative d’adhérence associée est connue.
- Procédé selon l’une des revendications 1 à 6, pour lequel les informations représentatives de caractéristiques du revêtement comprennent au moins une information représentative d’un matériau constituant ledit revêtement et au moins une information représentative d’un état courant dudit revêtement.
- Procédé selon l’une des revendications 1 à 7, pour lequel lesdites deuxièmes données inertielles sont obtenues d’un système de contrôle électronique de stabilité équipant ledit véhicule (10).
- Dispositif (2) de détermination d’au moins une information représentative d’adhérence entre un véhicule et un revêtement d’une route, ledit dispositif (2) comprenant une mémoire (21) associée à au moins un processeur (20) configuré pour la mise en œuvre des étapes du procédé selon l’une quelconque des revendications 1 à 8.
- Véhicule (10) comprenant le dispositif (6) selon la revendication 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2100199A FR3118747A1 (fr) | 2021-01-11 | 2021-01-11 | Procédé et dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement d’une route |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2100199 | 2021-01-11 | ||
FR2100199A FR3118747A1 (fr) | 2021-01-11 | 2021-01-11 | Procédé et dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement d’une route |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3118747A1 true FR3118747A1 (fr) | 2022-07-15 |
Family
ID=74759103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2100199A Withdrawn FR3118747A1 (fr) | 2021-01-11 | 2021-01-11 | Procédé et dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement d’une route |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3118747A1 (fr) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013222634A1 (de) * | 2013-11-07 | 2015-05-07 | Volkswagen Aktiengesellschaft | Verfahren zur Prognostizierung eines Fahrbahn-Reibungsbeiwerts sowie Verfahren zum Betrieb eines Kraftfahrzeugs |
EP3259916A1 (fr) * | 2015-02-19 | 2017-12-27 | Magic Pony Technology Limited | Traitement visuel à l'aide de convolutions de sous-pixels |
CN110203193B (zh) * | 2019-06-13 | 2020-02-11 | 智邮开源通信研究院(北京)有限公司 | 车辆控制方法、装置、汽车及存储介质 |
US20200223443A1 (en) * | 2020-03-26 | 2020-07-16 | Intel Corporation | Safety system for a vehicle |
WO2020252971A1 (fr) * | 2019-06-19 | 2020-12-24 | 商汤集团有限公司 | Procédé et appareil de commande de conduite intelligente, ainsi que dispositif électronique |
-
2021
- 2021-01-11 FR FR2100199A patent/FR3118747A1/fr not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013222634A1 (de) * | 2013-11-07 | 2015-05-07 | Volkswagen Aktiengesellschaft | Verfahren zur Prognostizierung eines Fahrbahn-Reibungsbeiwerts sowie Verfahren zum Betrieb eines Kraftfahrzeugs |
EP3259916A1 (fr) * | 2015-02-19 | 2017-12-27 | Magic Pony Technology Limited | Traitement visuel à l'aide de convolutions de sous-pixels |
CN110203193B (zh) * | 2019-06-13 | 2020-02-11 | 智邮开源通信研究院(北京)有限公司 | 车辆控制方法、装置、汽车及存储介质 |
WO2020252971A1 (fr) * | 2019-06-19 | 2020-12-24 | 商汤集团有限公司 | Procédé et appareil de commande de conduite intelligente, ainsi que dispositif électronique |
US20200223443A1 (en) * | 2020-03-26 | 2020-07-16 | Intel Corporation | Safety system for a vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2994259A1 (fr) | Procede d'estimation de la masse d'un vehicule. | |
WO2020089230A1 (fr) | Procédé d'élaboration d'une consigne de pilotage d'un véhicule automobile | |
FR3096637A1 (fr) | Procédé et dispositif de détermination d’un chemin pour un véhicule autonome | |
WO2020165544A1 (fr) | Identification de zones roulables avec prise en compte de l'incertitude par une méthode d'apprentissage profond | |
FR3118747A1 (fr) | Procédé et dispositif de détermination d’information représentative d’adhérence entre un véhicule et un revêtement d’une route | |
EP3635615B1 (fr) | Procede de determination du type de route sur laquelle evolue un vehicule | |
FR3106108A1 (fr) | Procédé et dispositif de détermination de trajectoire d’une route | |
FR3121110A1 (fr) | Procédé et système de contrôle d’une pluralité de systèmes d’aide à la conduite embarqués dans un véhicule | |
EP4090565B1 (fr) | Procédé et dispositif de contrôle d'un vehicule | |
FR3119480A1 (fr) | Procédé et dispositif de contrôle d’un véhicule à partir d’une prédiction de l’intention d’un piéton de traverser une chaussée sur laquelle circule ledit véhicule. | |
FR3134779A1 (fr) | Procédé et dispositif de contrôle d’un système d’aide à la conduite de véhicule en fonction d’un type de ligne de marquage au sol déterminé à partir de données caméra et de données dynamiques du véhicule | |
EP4332914A1 (fr) | Procede et dispositif de detection d'objets materiels dans un espace environnant un robot autonome | |
EP4256412A1 (fr) | Système et procédé de contrôle de véhicule à base d'apprentissage machine | |
FR3098176A1 (fr) | Procédé et système de traitement d’image pour véhicule | |
WO2023161568A1 (fr) | Procédé de calcul de surfaces tridimensionnelles pour véhicule équipé d'un système d'aide à la conduite | |
EP4277820A1 (fr) | Procédé et dispositif de contrôle d'accélération d'un véhicule | |
FR3122756A1 (fr) | Procédé et dispositif de détection d’un comportement d’un usager d’un véhicule. | |
FR3118745A1 (fr) | Procédé et dispositif de détermination d’une accélération d’un objet mobile dans un environnement d’un véhicule | |
FR3127187A1 (fr) | Procédé et dispositif de contrôle d’un système d’adaptation intelligente de vitesse | |
FR3118746A1 (fr) | Procédé et dispositif d’aide à la conduite d’un véhicule circulant sur une chaussée comprenant plusieurs voies de circulation | |
FR3132069A1 (fr) | Procédé et dispositif de contrôle d’accélération d’un véhicule embarquant un système de régulation de vitesse | |
FR3129911A1 (fr) | Procédé et dispositif de contrôle d’un système d’aide à la conduite | |
FR3129909A1 (fr) | Procédé et dispositif de contrôle d’un système de régulation adaptative de vitesse d’un véhicule | |
WO2023105128A1 (fr) | Procédé et dispositif de contrôle d'un système de régulation adaptative de vitesse d'un véhicule | |
FR3132068A1 (fr) | Procédé et dispositif de contrôle d’un système d’aide à la conduite embarqué dans un véhicule |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20220715 |
|
ST | Notification of lapse |
Effective date: 20230905 |