FR3073482A1 - METHOD FOR THE RELIABILITY OF THE CONTROL OF AN AUTONOMOUS VEHICLE - Google Patents

METHOD FOR THE RELIABILITY OF THE CONTROL OF AN AUTONOMOUS VEHICLE Download PDF

Info

Publication number
FR3073482A1
FR3073482A1 FR1760789A FR1760789A FR3073482A1 FR 3073482 A1 FR3073482 A1 FR 3073482A1 FR 1760789 A FR1760789 A FR 1760789A FR 1760789 A FR1760789 A FR 1760789A FR 3073482 A1 FR3073482 A1 FR 3073482A1
Authority
FR
France
Prior art keywords
vehicle
video signal
detection
control
convergence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1760789A
Other languages
French (fr)
Inventor
Pascal Gouriet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR1760789A priority Critical patent/FR3073482A1/en
Publication of FR3073482A1 publication Critical patent/FR3073482A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

L'invention porte sur un procédé de fiabilisation de la commande d'un véhicule autonome pendant une phase de roulage autonome sur une voie de circulation (V), ledit procédé comprenant une étape de génération, à partir d'images capturées, d'un signal vidéo de détection déterminant la voie de circulation (V) sur laquelle circule le véhicule, et une étape de génération, à partir du signal vidéo de détection généré, d'un signal vidéo de commande de la trajectoire dudit véhicule sur la voie de circulation (V). Le procédé comprenant en outre une étape de superposition desdits signaux vidéos dans un signal vidéo de convergence (30) et une étape de détermination de la convergence des signaux vidéos de détection et de commande sur ledit signal vidéo de convergence (30) afin de détecter une erreur dans la génération du signal vidéo de commande.The invention relates to a method for making the control of an autonomous vehicle more reliable during an autonomous taxiing phase on a taxiway (V), said method comprising a step of generating, from captured images, a detection video signal determining the taxiway (V) on which the vehicle is traveling, and a step of generating, from the generated detection video signal, a video signal for controlling the trajectory of said vehicle on the taxiway (V). The method further comprising a step of superimposing said video signals in a convergence video signal (30) and a step of determining the convergence of the detection and control video signals on said convergence video signal (30) to detect a video signal. error in the generation of the control video signal.

Description

PROCEDE DE FIABILISATION DE LA COMMANDE D’UN VEHICULE AUTONOME.METHOD FOR RELIABILITY OF THE CONTROL OF A SELF-CONTAINED VEHICLE.

[001 ] L'invention concerne, de façon générale, la conduite autonome, en particulier d’un véhicule automobile.The invention relates, in general, autonomous driving, in particular of a motor vehicle.

[002] L’invention porte plus particulièrement sur un procédé de fiabilisation de la commande d’un véhicule autonome.The invention relates more particularly to a method of making the control of an autonomous vehicle more reliable.

[003] De manière connue, un véhicule automobile comprend des aides, telles que des aides au parking et des aides à la conduite. Les aides à la conduite sont notamment la régulation de la vitesse longitudinale du véhicule, l’aide au freinage, le maintien du véhicule dans une voie de circulation, la surveillance d’angle mort, la surveillance du conducteur, etc. De telles aides permettent d’assister le conducteur lors de l’utilisation du véhicule afin de l’aider lors de ses prises de décision.In known manner, a motor vehicle includes aids, such as parking aids and driving aids. Driving aids include regulating the vehicle's longitudinal speed, braking assistance, keeping the vehicle in a lane, blind spot monitoring, driver monitoring, etc. Such aids make it possible to assist the driver when using the vehicle in order to help him in his decision-making.

[004] Aujourd’hui, certains véhicules, dits « autonomes », comprennent un calculateur qui exécute une machine d’état de décision permettant une aide à la conduite avancée. En effet, la machine d’état de décision permet au véhicule, à partir de différents capteurs détectant l’environnement autour du véhicule, de prendre de manière autonome des décisions et ainsi permettre au véhicule de se conduire lui-même. Cependant, un tel véhicule autonome doit respecter des normes afin de garantir la sécurité des passagers du véhicule autonome. De telles normes visent notamment à imposer un niveau de fiabilité minimum des prises de décision.Today, certain vehicles, known as "autonomous", include a computer which executes a decision state machine allowing an advanced driving aid. Indeed, the decision state machine allows the vehicle, from various sensors detecting the environment around the vehicle, to make decisions autonomously and thus allow the vehicle to drive itself. However, such an autonomous vehicle must comply with standards in order to guarantee the safety of the passengers of the autonomous vehicle. Such standards aim in particular to impose a minimum level of reliability in decision-making.

[005] On connaît par le document FR3047589, un procédé permettant de reconstituer une vue aérienne du sol à partir d’images capturées par une caméra du véhicule afin d’y détecter les lignes de marquage au sol et ainsi de déterminer lorsque le véhicule franchit une ligne. Ceci permet ainsi d’estimer la position du véhicule par rapport à la voie de circulation sur laquelle il circule afin de permettre à la machine d’état de décision de commander de manière autonome le véhicule afin qu’il reste dans sa voie de circulation.We know from document FR3047589, a method for reconstructing an aerial view of the ground from images captured by a vehicle camera in order to detect the marking lines on the ground and thus to determine when the vehicle crosses a line. This thus makes it possible to estimate the position of the vehicle with respect to the traffic lane on which it is traveling in order to allow the decision state machine to autonomously control the vehicle so that it remains in its lane.

[006] Cependant une telle solution présente un niveau de sécurité peu élevé pour la conduite autonome.However, such a solution has a low level of security for autonomous driving.

[007] L’invention vise donc à résoudre ces inconvénients en proposant un procédé permettant d’augmenter le niveau de sécurité des commandes prises par la machine d’état de décision.The invention therefore aims to solve these drawbacks by proposing a method for increasing the security level of the orders taken by the decision state machine.

[008] Pour parvenir à ce résultat, la présente invention concerne un procédé de fiabilisation de la commande d’un véhicule autonome pendant une phase de roulage autonome sur une voie de circulation, ledit véhicule comprenant un module de détection adapté pour capturer des images de l’environnement autour dudit véhicule, ledit procédé comprenant une étape de génération d’un signal vidéo de détection à partir des images capturées par ledit module de détection, ledit signal vidéo de détection déterminant la voie de circulation sur laquelle circule le véhicule, et une étape de génération, à partir du signal vidéo de détection généré, d’un signal vidéo de commande de la trajectoire dudit véhicule sur la voie de circulation. Le procédé comprenant en outre une étape de superposition dudit signal vidéo de commande et dudit signal vidéo de détection dans un signal vidéo de convergence et une étape de détermination de la convergence des signaux vidéos de détection et de commande sur ledit signal vidéo de convergence afin de détecter une erreur dans la génération du signal vidéo de commande.To achieve this result, the present invention relates to a method for making the control of an autonomous vehicle more reliable during an autonomous driving phase on a traffic lane, said vehicle comprising a detection module suitable for capturing images of the environment around said vehicle, said method comprising a step of generating a detection video signal from the images captured by said detection module, said detection video signal determining the traffic lane on which the vehicle is traveling, and a step of generating, from the generated detection video signal, a video signal for controlling the trajectory of said vehicle on the taxiway. The method further comprising a step of superimposing said control video signal and said detection video signal in a convergence video signal and a step of determining the convergence of the detection and control video signals on said convergence video signal in order to detecting an error in the generation of the control video signal.

[009] Grâce au procédé selon l’invention, le niveau de robustesse de la commande du véhicule en conduite autonome est élevé grâce à la surveillance du signal de commande. Cette surveillance est réalisée de manière aisée par comparaison du signal vidéo de commande avec le signal vidéo de détection lors de l’étude de la convergence de ces signaux vidéos. Le procédé selon l’invention permet ainsi de déterminer l’aptitude du véhicule à être maintenu en phase de roulage autonome en détectant des erreurs éventuelles dans le signal vidéo de commande. Ceci permet un fonctionnement sécuritaire du véhicule en phase de roulage autonome.Thanks to the method according to the invention, the level of robustness of the control of the vehicle in autonomous driving is high thanks to the monitoring of the control signal. This monitoring is carried out easily by comparison of the control video signal with the detection video signal during the study of the convergence of these video signals. The method according to the invention thus makes it possible to determine the ability of the vehicle to be maintained in the autonomous driving phase by detecting possible errors in the video control signal. This allows safe operation of the vehicle during the autonomous driving phase.

[0010] Avantageusement, le signal vidéo de détection comprend les lignes de marquage au sol d’une voie de circulation et les obstacles présents sur ladite voie de circulation.Advantageously, the detection video signal comprises the lines for marking on the ground of a taxiway and the obstacles present on said taxiway.

[0011] Avantageusement, le module de détection comprend au moins une caméra adaptée pour capturer des images du sol afin de générer le signal vidéo de détection.Advantageously, the detection module comprises at least one camera suitable for capturing images of the ground in order to generate the detection video signal.

[0012] Avantageusement, le véhicule comprend un calculateur de commande exécutant une machine d’état adaptée pour générer le signal vidéo de commande.Advantageously, the vehicle comprises a control computer executing a state machine adapted to generate the video control signal.

[0013] Avantageusement, le signal vidéo de détection comprend différentes zones : une zone de sécurité, une hors zone et une zone d’incertitude.Advantageously, the video detection signal includes different zones: a security zone, an out of zone and an uncertainty zone.

[0014] Avantageusement, le signal vidéo de commande comprend une cible de trajectoire du véhicule.Advantageously, the control video signal comprises a target for the trajectory of the vehicle.

[0015] Avantageusement, l’étape de détermination de la convergence comprend la détermination de la position de la cible de trajectoire dans une desdites zones.Advantageously, the step of determining convergence comprises determining the position of the trajectory target in one of said zones.

[0016] Avantageusement, le procédé comprend une étape d’alerte du conducteur du véhicule lorsque la position de la cible de trajectoire est déterminée dans la hors zone.Advantageously, the method comprises a step of alerting the driver of the vehicle when the position of the trajectory target is determined outside of the area.

[0017] L’invention concerne également un véhicule automobile comprenant un module de détection adapté pour capturer des images de l’environnement autour dudit véhicule et générer, à partir desdites images capturées, un signal vidéo de détection déterminant la voie de circulation sur laquelle circule le véhicule, ledit véhicule comprenant un calculateur de commande adapté pour générer, à partir du signal vidéo de détection, un signal vidéo de commande de la trajectoire dudit véhicule sur la voie de circulation, ledit véhicule comprenant en outre un calculateur adapté pour superposer ledit signal vidéo de commande et ledit signal vidéo de détection dans un signal vidéo de convergence et pour déterminer la convergence des signaux vidéos de détection et de commande sur ledit signal vidéo de convergence afin de détecter une erreur dans la génération du signal vidéo de commande.The invention also relates to a motor vehicle comprising a detection module suitable for capturing images of the environment around said vehicle and generating, from said captured images, a detection video signal determining the traffic lane on which circulates the vehicle, said vehicle comprising a control computer adapted to generate, from the video detection signal, a video signal for controlling the trajectory of said vehicle on the traffic lane, said vehicle further comprising a computer suitable for superimposing said signal control video and said detection video signal in a convergence video signal and for determining the convergence of the detection and control video signals on said convergence video signal in order to detect an error in the generation of the control video signal.

[0018] D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description détaillée des modes de réalisation de l'invention, donnés à titre d'exemple uniquement, et en référence aux dessins qui montrent :Other characteristics and advantages of the invention will appear on reading the detailed description of the embodiments of the invention, given by way of example only, and with reference to the drawings which show:

• la figure 1, un schéma d’une image d’un signal vidéo de détection généré par le procédé selon l’invention dans un véhicule automobile, • la figure 2, un schéma d’une image d’un signal vidéo de commande généré par le procédé selon l’invention, et • la figure 3, un schéma d’une image d’un signal vidéo de convergence généré à partir des signaux des figures 1 et 2.• Figure 1, a diagram of an image of a detection video signal generated by the method according to the invention in a motor vehicle, • Figure 2, a diagram of an image of a generated control video signal by the method according to the invention, and • FIG. 3, a diagram of an image of a convergence video signal generated from the signals of FIGS. 1 and 2.

[0019] Dans ce qui va suivre, les modes de réalisation décrits s’attachent plus particulièrement à une mise en oeuvre du procédé selon l’invention au sein d’un véhicule automobile. Cependant, toute mise en oeuvre dans un contexte différent, en particulier dans tout type de véhicule, est également visée par la présente invention.In what follows, the embodiments described relate more particularly to an implementation of the method according to the invention in a motor vehicle. However, any implementation in a different context, in particular in any type of vehicle, is also covered by the present invention.

[0020] Un véhicule automobile est, de manière classique, adapté pour circuler sur une voie de circulation V. Pour ce faire, un conducteur commande le déplacement longitudinal du véhicule, autrement dit la vitesse du véhicule, à l’aide de commandes de frein et d’accélérateur, cette dernière agissant sur le groupe motopropulseur du véhicule. Le conducteur commande également le déplacement latéral du véhicule, autrement dit lorsque le véhicule tourne sur la gauche ou sur la droite, à l’aide du système de direction.A motor vehicle is conventionally adapted to travel on a traffic lane V. To do this, a driver controls the longitudinal movement of the vehicle, in other words the speed of the vehicle, using brake controls and accelerator, the latter acting on the vehicle's powertrain. The driver also controls the lateral movement of the vehicle, in other words when the vehicle is turning left or right, using the steering system.

[0021] Le véhicule automobile selon l’invention comprend par ailleurs un mode de fonctionnement autonome. Dans ce but, le véhicule automobile comprend un module de détection de l’environnement autour du véhicule, et au moins un calculateur de commande de la conduite autonome du véhicule.The motor vehicle according to the invention also includes an autonomous operating mode. For this purpose, the motor vehicle comprises a module for detecting the environment around the vehicle, and at least one control computer for autonomous driving of the vehicle.

[0022] Le module de détection comprend différents capteurs, par exemple un radar, une caméra, etc. De tels capteurs peuvent être des capteurs également utilisés pour d’autres aides du véhicule, notamment les caméras d’aide au parking et le radar de recul, afin de limiter le nombre d’éléments du véhicule et ainsi en limiter les coûts. Ces capteurs permettent d’observer la voie de circulation V sur laquelle se déplace le véhicule, et notamment la voie de circulation V vers l’avant et sur les côtés du véhicule lorsque le véhicule se déplace vers l’avant. Le module de détection peut également récupérer des informations liées au véhicule, notamment la vitesse de déplacement du véhicule sur la voie de circulation V, l’angle du volant, etc.The detection module includes different sensors, for example a radar, a camera, etc. Such sensors can also be sensors used for other vehicle aids, in particular parking aid cameras and the reversing radar, in order to limit the number of elements of the vehicle and thus limit their costs. These sensors make it possible to observe the lane V on which the vehicle is moving, and in particular the lane V towards the front and on the sides of the vehicle when the vehicle is moving forward. The detection module can also recover information related to the vehicle, in particular the speed of movement of the vehicle on taxiway V, the angle of the steering wheel, etc.

[0023] Le module de détection peut ainsi détecter des obstacles présents autour du véhicule ainsi que les lignes 11 de marquage au sol délimitant la voie de circulation V dans laquelle se déplace le véhicule, comme illustré sur la figure 1.The detection module can thus detect obstacles present around the vehicle as well as the ground marking lines 11 delimiting the traffic lane V in which the vehicle moves, as illustrated in FIG. 1.

[0024] Le module de détection génère ainsi un signal vidéo, désigné signal de détection 10, représenté sur la figure 1, représentatif de l’environnement autour du véhicule. Un tel signal de détection 10 représente ce que le véhicule « voit >> de son environnement. Le signal de détection 10 est défini dans un repère cartésien lié au véhicule. Un tel repère est fixe et commun à tous les calculateurs du véhicule afin de former un repère de référence permettant une comparaison de signaux comme cela sera décrit par la suite. Le signal de détection 10 comprend notamment les lignes 11 de marquage au sol délimitant la voie de circulation V. Un tel signal de détection 10 a la forme d’une image représentant l’environnement autour du véhicule, notamment la voie de circulation V vers l’avant du véhicule. Cette image peut notamment être reconstituée à partir des images capturées par des caméras du véhicule comme décrit dans le document FR3047589.The detection module thus generates a video signal, designated detection signal 10, shown in Figure 1, representative of the environment around the vehicle. Such a detection signal 10 represents what the vehicle "sees" from its environment. The detection signal 10 is defined in a Cartesian coordinate system linked to the vehicle. Such a mark is fixed and common to all the computers of the vehicle in order to form a reference mark allowing a comparison of signals as will be described later. The detection signal 10 notably comprises the lines 11 of marking on the ground delimiting the traffic lane V. Such a detection signal 10 has the form of an image representing the environment around the vehicle, in particular the traffic lane V towards the front of the vehicle. This image can in particular be reconstituted from images captured by vehicle cameras as described in document FR3047589.

[0025] Le calculateur de commande exécute une machine d’état qui permet de commander de manière autonome le véhicule à partir du signal de détection 10 reçu du module de détection.The control computer runs a state machine which makes it possible to autonomously control the vehicle from the detection signal 10 received from the detection module.

[0026] Autrement dit, la machine d’état reçoit le signal de détection 10 puis détermine, dans le même repère cartésien, la cible 21 de trajectoire que le véhicule doit atteindre, comme illustré sur la figure 2. La machine d’état commande alors la trajectoire du véhicule afin de rejoindre la cible 21. Dans ce but, la machine d’état génère un signal vidéo, désigné signal de commande 20, permettant de commander les différents organes du véhicule, notamment le groupe motopropulseur, la direction, etc. Le signal de commande 20 a la forme d’une image représentant la voie de circulation V à l’avant du véhicule et une cible 21 de trajectoire du véhicule. Le signal de commande 20 représente ainsi la cible 21 de trajectoire en sortie de la machine d’état.In other words, the state machine receives the detection signal 10 and then determines, in the same Cartesian coordinate system, the target 21 of the trajectory that the vehicle must reach, as illustrated in FIG. 2. The state machine controls then the trajectory of the vehicle in order to reach the target 21. For this purpose, the state machine generates a video signal, designated control signal 20, making it possible to control the various organs of the vehicle, in particular the powertrain, the steering, etc. . The control signal 20 has the form of an image representing the taxiway V at the front of the vehicle and a target 21 of the vehicle trajectory. The control signal 20 thus represents the target 21 of the trajectory at the output of the state machine.

[0027] La machine d’état comprend différents états dans chacun desquels peut se trouver le véhicule (position sur la voie, etc.). On peut passer d’un état à un autre selon certaines conditions qui dépendent du signal de détection 10 et chaque état correspond à un signal de commande 20. En entrée, la machine d’état reçoit le signal de détection 10 qui correspond aux conditions dans lesquelles se trouve le véhicule. En sortie, la machine d’état envoie le signal de commande 20 correspond au nouvel état du véhicule afin de commander sa trajectoire jusqu’à la cible 21.The state machine includes different states in each of which the vehicle may be (position on the track, etc.). We can go from one state to another under certain conditions which depend on the detection signal 10 and each state corresponds to a control signal 20. At input, the state machine receives the detection signal 10 which corresponds to the conditions in which vehicle is located. At the output, the state machine sends the control signal 20 corresponding to the new state of the vehicle in order to control its trajectory up to the target 21.

[0028] Le véhicule comprend en outre un calculateur, de préférence différent du calculateur de commande, adapté pour comparer le signal de détection 10 qui entre dans la machine d’état avec le signal de commande 20 qui sort de la machine d’état. Autrement dit, le calculateur compare le signal vidéo en entrée de la machine d’état au signal vidéo en sortie de la machine d’état afin de détecter une erreur éventuelle et ainsi augmenter la fiabilité de la commande autonome par la machine d’état. Une telle comparaison est rendue aisée du fait que les deux signaux 10, 20 sont définis dans un même repère lié au véhicule. Un tel calculateur génère alors un signal vidéo, désigné signal de convergence 30, comme illustré sur la figure 3, permettant de comparer les signaux 10, 20 et de déterminer les différences afin de détecter toute anomalie dans le signal de commande 20, ce qui augmente la sécurité de la conduite autonome. La comparaison des signaux de détection 10 et de commande 20 sera décrite dans le détail ultérieurement. Le signal de convergence 30 a la forme d’une image comprenant les lignes 11 de marquage au sol du signal de détection 10 et la cible 21 du signal de commande 20 afin de déterminer la position de la cible 21 par rapport aux lignes 11 de marquage.The vehicle further comprises a computer, preferably different from the control computer, adapted to compare the detection signal 10 which enters the state machine with the control signal 20 which leaves the state machine. In other words, the computer compares the video signal at the input of the state machine to the video signal at the output of the state machine in order to detect a possible error and thus increase the reliability of the autonomous control by the state machine. Such a comparison is made easy because the two signals 10, 20 are defined in the same reference frame linked to the vehicle. Such a computer then generates a video signal, designated convergence signal 30, as illustrated in FIG. 3, making it possible to compare the signals 10, 20 and to determine the differences in order to detect any anomaly in the control signal 20, which increases the safety of autonomous driving. The comparison of the detection 10 and control 20 signals will be described in detail later. The convergence signal 30 has the form of an image comprising the lines 11 of marking on the ground of the detection signal 10 and the target 21 of the control signal 20 in order to determine the position of the target 21 relative to the lines 11 of marking .

[0029] Le véhicule comprend enfin des moyens d’affichage permettant d’afficher une alerte visible pour le conducteur du véhicule et/ou pour les utilisateurs du véhicule, afin de prévenir ces derniers lorsqu’une anomalie est détectée.The vehicle finally comprises display means making it possible to display a visible alert for the driver of the vehicle and / or for the users of the vehicle, in order to prevent the latter when an anomaly is detected.

[0030] Le procédé de fiabilisation selon l’invention va maintenant être décrit en référence aux figures 1 à 3.The reliability process according to the invention will now be described with reference to Figures 1 to 3.

[0031] Lorsque le véhicule selon l’invention circule sur une voie de circulation V en mode autonome, les caméras capturent des images du sol et les radars détectent s’il y a des obstacles sur la voie de circulation V. Le module de détection génère alors une image du signal de détection 10, représentant la voie de circulation V sur laquelle circule le véhicule, et les lignes 11 de marquage au sol délimitant ladite voie de circulation V.When the vehicle according to the invention is traveling on a taxiway V in autonomous mode, the cameras capture images of the ground and the radars detect if there are obstacles on the taxiway V. The detection module then generates an image of the detection signal 10, representing the lane V on which the vehicle is traveling, and the lines 11 of marking on the ground delimiting said lane V.

[0032] Ce signal de détection 10 est envoyé à la machine d’état qui la reçoit en entrée. La machine d’état génère alors une image du signal de commande 20 comprenant la cible 21 de trajectoire que le véhicule doit atteindre. Ceci permet ainsi au véhicule de commander le déplacement du véhicule sur la voie de circulation V de manière à suivre la cible 21 de trajectoire.This detection signal 10 is sent to the state machine which receives it as input. The state machine then generates an image of the control signal 20 comprising the trajectory target 21 that the vehicle must reach. This thus allows the vehicle to control the movement of the vehicle on the taxiway V so as to follow the target 21 of trajectory.

[0033] Le calculateur du véhicule reçoit le signal de détection 10 et le signal de commande 20 et superpose les images de chacun des signaux 10, 20 définies dans le même repère. Le calculateur génère alors une image du signal de convergence 30 à partir de cette superposition d’images. Cette image du signal de convergence 30 comprend la cible 21 de trajectoire et les lignes 11 de marquage au sol définissant trois zones : une zone de sécurité 31 située entre les lignes 11, une zone dite « hors zone 32 » située à l’extérieur des lignes 11 et une zone d’incertitude 33 située à proximité des lignes 11. Le calculateur détermine alors, dans une étape de détermination de la convergence entre le signal de détection 10 et le signal de commande 20, la position de la cible 21 de trajectoire dans une de ces zones 31,32, 33 afin de déterminer si la cible 21 est correcte, autrement dit, si elle est bien sur la voie de circulation V entre les lignes 11 de marquage au sol. Cette vérification permet de garantir que le véhicule est destiné à rester entre les lignes 11 de la voie de circulation V.The vehicle computer receives the detection signal 10 and the control signal 20 and superimposes the images of each of the signals 10, 20 defined in the same reference. The computer then generates an image of the convergence signal 30 from this superposition of images. This image of the convergence signal 30 includes the trajectory target 21 and the ground marking lines 11 defining three zones: a safety zone 31 situated between the lines 11, a zone known as “outside zone 32” situated outside the lines 11 and an uncertainty zone 33 located near the lines 11. The computer then determines, in a step of determining the convergence between the detection signal 10 and the control signal 20, the position of the trajectory target 21 in one of these zones 31, 32, 33 in order to determine whether the target 21 is correct, in other words, whether it is indeed on the traffic lane V between the lines 11 of marking on the ground. This verification ensures that the vehicle is intended to remain between lines 11 of taxiway V.

[0034] Si la cible 21 de trajectoire est dans la zone de sécurité 31, comme illustré sur la figure 3, les signaux 10, 20 sont convergents, autrement dit, la cible 21 de trajectoire est dans la zone centrale de l’image et aucune erreur n’est alors détectée.If the trajectory target 21 is in the safety zone 31, as illustrated in FIG. 3, the signals 10, 20 are convergent, in other words, the trajectory target 21 is in the central zone of the image and no error is then detected.

[0035] Si la cible 21 est hors zone 32, la cible 21 est totalement décentrée de l’image et une erreur est alors détectée par le calculateur qui peut alors envoyer un message d’alerte au conducteur du véhicule, notamment par une interface homme machine (IHM) du véhicule, par exemple par un voyant lumineux ou par un écran d’affichage.If the target 21 is outside zone 32, the target 21 is completely off-center from the image and an error is then detected by the computer which can then send an alert message to the driver of the vehicle, in particular by a human interface machine (HMI) of the vehicle, for example by an indicator light or by a display screen.

[0036] Si la cible 21 est dans la zone d’incertitude 33, la cible 21 est faiblement décentrée de l’image. Le calculateur analyse alors, dans une étape d’analyse, le résidu représentatif des erreurs générées lors du procédé de fiabilisation. Une telle analyse du résidu permet de distinguer une erreur lors de la détermination de la convergence, d’une erreur lors de la 5 génération du signal de commande 20. Différentes méthodes d’analyse du résidu peuvent par ailleurs être utilisées, y compris des méthodes distinctes de la détermination de la convergence entre le signal de détection 10 et le signal de commande 20 décrite précédemment, par exemple par corrélation vidéo entre le signal de détection 10 et le signal de convergence 30. Cette analyse permet de déterminer si la cible 21 est située entre les 10 lignes 11 ou non.If the target 21 is in the uncertainty zone 33, the target 21 is slightly offset from the image. The computer then analyzes, in an analysis step, the residue representative of the errors generated during the reliability process. Such an analysis of the residue makes it possible to distinguish an error during the determination of the convergence, from an error during the generation of the control signal 20. Different methods of analysis of the residue can moreover be used, including methods distinct from the determination of the convergence between the detection signal 10 and the control signal 20 described above, for example by video correlation between the detection signal 10 and the convergence signal 30. This analysis makes it possible to determine whether the target 21 is located between the 10 lines 11 or not.

[0037] La surveillance de la convergence entre le signal de détection 10 et le signal de commande 20 de la machine d’état permet ainsi de vérifier le bon fonctionnement des capteurs du module de détection et de fiabiliser la représentation de l’environnement du véhicule dans les signaux 10, 20. De plus, l’utilisation d’un troisième signal (le signal de 15 convergence 30) permet d’augmenter la sensibilité du véhicule aux erreurs à l’aide de ce double contrôle (par le signal de commande 20 et par le signal de convergence 30) et est plus robuste aux bruits.Monitoring the convergence between the detection signal 10 and the control signal 20 of the state machine thus makes it possible to verify the correct functioning of the sensors of the detection module and to make the representation of the environment of the vehicle more reliable. in signals 10, 20. In addition, the use of a third signal (the convergence signal 30) makes it possible to increase the sensitivity of the vehicle to errors using this double control (by the control signal 20 and by the convergence signal 30) and is more robust to noise.

Claims (10)

1. Procédé de fiabilisation de la commande d’un véhicule autonome pendant une phase de roulage autonome sur une voie de circulation (V), ledit véhicule comprenant un module de détection adapté pour capturer des images de l’environnement autour dudit véhicule, ledit procédé comprenant :1. Method for making the control of an autonomous vehicle more reliable during an autonomous driving phase on a traffic lane (V), said vehicle comprising a detection module suitable for capturing images of the environment around said vehicle, said method including: - une étape de génération d’un signal vidéo de détection (10) à partir des images capturées par ledit module de détection, ledit signal vidéo de détection (10) déterminant la voie de circulation (V) sur laquelle circule le véhicule,- a step of generating a detection video signal (10) from the images captured by said detection module, said detection video signal (10) determining the traffic lane (V) on which the vehicle is traveling, - une étape de génération, à partir du signal vidéo de détection (10) généré, d’un signal vidéo de commande (20) de la trajectoire dudit véhicule sur la voie de circulation (V),a step of generation, from the video detection signal (10) generated, of a video control signal (20) of the trajectory of said vehicle on the traffic lane (V), - une étape de superposition dudit signal vidéo de commande (20) et dudit signal vidéo de détection (10) dans un signal vidéo de convergence (30), eta step of superimposing said control video signal (20) and said detection video signal (10) in a convergence video signal (30), and - une étape de détermination de la convergence des signaux vidéos de détection (10) et de commande (20) sur ledit signal vidéo de convergence (30) afin de détecter une erreur dans la génération du signal vidéo de commande (20).- a step of determining the convergence of the detection (10) and control (20) video signals on said convergence video signal (30) in order to detect an error in the generation of the control video signal (20). 2. Procédé selon la revendication 1, dans lequel le signal vidéo de détection (10) comprend les lignes (11) de marquage au sol d’une voie de circulation (V) et les obstacles présents sur ladite voie de circulation (V).2. Method according to claim 1, in which the detection video signal (10) comprises the lines (11) for marking on the ground of a taxiway (V) and the obstacles present on said taxiway (V). 3. Procédé selon l’une des revendications précédentes, dans lequel le module de détection comprend au moins une caméra adaptée pour capturer des images du sol afin de générer le signal vidéo de détection (10).3. Method according to one of the preceding claims, in which the detection module comprises at least one camera adapted to capture images of the ground in order to generate the detection video signal (10). 4. Procédé selon l’une des revendications précédentes, dans lequel le véhicule comprend un calculateur de commande exécutant une machine d’état adaptée pour générer le signal vidéo de commande (20).4. Method according to one of the preceding claims, in which the vehicle comprises a control computer executing a state machine adapted to generate the control video signal (20). 5. Procédé selon l’une des revendications précédentes, dans lequel le signal vidéo de détection (10) comprend différentes zones : une zone de sécurité (31), une hors zone (32) et une zone d’incertitude (33).5. Method according to one of the preceding claims, in which the detection video signal (10) comprises different zones: a security zone (31), an out-of-zone (32) and an uncertainty zone (33). 6. Procédé selon l’une des revendications précédentes, dans lequel le signal vidéo de commande (20) comprend une cible (21) de trajectoire du véhicule.6. Method according to one of the preceding claims, wherein the control video signal (20) comprises a target (21) of the vehicle trajectory. 7. Procédé selon les revendications 5 et 6, dans lequel, l’étape de détermination de la convergence comprend la détermination de la position de la cible (21) de trajectoire dans une desdites zones (31,32, 33).7. The method of claims 5 and 6, wherein the step of determining convergence comprises determining the position of the target (21) of trajectory in one of said areas (31,32, 33). 8. Procédé selon la revendication précédente, comprenant une étape d’alerte du 5 conducteur du véhicule lorsque la position de la cible (21 ) de trajectoire est déterminée dans la hors zone (32).8. Method according to the preceding claim, comprising a step of alerting the driver of the vehicle when the position of the trajectory target (21) is determined in the out-of-area area (32). 9. Véhicule automobile (100) comprenant un module de détection adapté pour capturer des images de l’environnement autour dudit véhicule et générer, à partir desdites images capturées, un signal vidéo de détection (10) déterminant la voie de circulation9. Motor vehicle (100) comprising a detection module suitable for capturing images of the environment around said vehicle and generating, from said captured images, a video detection signal (10) determining the traffic lane 10 (V) sur laquelle circule le véhicule, ledit véhicule comprenant un calculateur de commande adapté pour générer, à partir du signal vidéo de détection (10), un signal vidéo de commande (20) de la trajectoire dudit véhicule sur la voie de circulation (V), ledit véhicule comprenant en outre un calculateur adapté pour superposer ledit signal vidéo de commande (20) et ledit signal vidéo de détection (10) dans un signal vidéo de 15 convergence (30) et pour déterminer la convergence des signaux vidéos de détection (10) et de commande (20) sur ledit signal vidéo de convergence (30) afin de détecter une erreur dans la génération du signal vidéo de commande (20).10 (V) on which the vehicle travels, said vehicle comprising a control computer adapted to generate, from the detection video signal (10), a video control signal (20) of the trajectory of said vehicle on the taxiway (V), said vehicle further comprising a computer adapted to superimpose said control video signal (20) and said detection video signal (10) in a convergence video signal (30) and to determine the convergence of the video signals of detecting (10) and controlling (20) on said convergence video signal (30) in order to detect an error in the generation of the controlling video signal (20).
FR1760789A 2017-11-16 2017-11-16 METHOD FOR THE RELIABILITY OF THE CONTROL OF AN AUTONOMOUS VEHICLE Withdrawn FR3073482A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1760789A FR3073482A1 (en) 2017-11-16 2017-11-16 METHOD FOR THE RELIABILITY OF THE CONTROL OF AN AUTONOMOUS VEHICLE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1760789 2017-11-16
FR1760789A FR3073482A1 (en) 2017-11-16 2017-11-16 METHOD FOR THE RELIABILITY OF THE CONTROL OF AN AUTONOMOUS VEHICLE

Publications (1)

Publication Number Publication Date
FR3073482A1 true FR3073482A1 (en) 2019-05-17

Family

ID=61224040

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1760789A Withdrawn FR3073482A1 (en) 2017-11-16 2017-11-16 METHOD FOR THE RELIABILITY OF THE CONTROL OF AN AUTONOMOUS VEHICLE

Country Status (1)

Country Link
FR (1) FR3073482A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122957A (en) * 1989-02-28 1992-06-16 Nissan Motor Company, Limited Autonomous vehicle for automatically/autonomously running on route of travel and its method using fuzzy control
FR3043975A1 (en) * 2015-10-16 2017-05-26 Valeo Schalter & Sensoren Gmbh METHOD AND SYSTEM FOR ASSISTANCE IN MAINTAINING A MOTOR VEHICLE TRACK IN A TRACKWAY
US20170248960A1 (en) * 2015-02-10 2017-08-31 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122957A (en) * 1989-02-28 1992-06-16 Nissan Motor Company, Limited Autonomous vehicle for automatically/autonomously running on route of travel and its method using fuzzy control
US20170248960A1 (en) * 2015-02-10 2017-08-31 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
FR3043975A1 (en) * 2015-10-16 2017-05-26 Valeo Schalter & Sensoren Gmbh METHOD AND SYSTEM FOR ASSISTANCE IN MAINTAINING A MOTOR VEHICLE TRACK IN A TRACKWAY

Similar Documents

Publication Publication Date Title
EP3568803B1 (en) Method for operating an autonomous vehicle
FR2883826A1 (en) APPARATUS FOR ASSISTING THE DRIVING OF A VEHICLE
FR3086073A1 (en) ELECTRONIC DEVICE FOR DETERMINING AN EMERGENCY STOP PATH OF AN AUTONOMOUS VEHICLE, VEHICLE AND ASSOCIATED METHOD
FR2948220A1 (en) METHOD AND DEVICE FOR ASSISTING THE DRIVING OF A VEHICLE
FR3096948A1 (en) Method for calculating the lateral position of a motor vehicle
FR3046769A1 (en) METHOD AND SYSTEM FOR ASSISTING THE CHANGE OF THE TRACK TRACK FOR A MOTOR VEHICLE
FR3050162B1 (en) DEVICE FOR ASSISTING THE DRIVING OF A VEHICLE IN A PASSAGE AREA OBLIGED
FR3120040A1 (en) Method for activating an obstacle avoidance system for a motor vehicle
FR3069830A1 (en) METHOD FOR PRODUCING A DRIVING SETTING OF A DRIVING DEVICE OF A MOTOR VEHICLE
FR3073482A1 (en) METHOD FOR THE RELIABILITY OF THE CONTROL OF AN AUTONOMOUS VEHICLE
EP3307597A1 (en) Embedded system on board a motor vehicle for a change of lane functionality, and associated method of control
EP3417398B1 (en) Device and method for estimating the attention level of a driver of a vehicle
FR3033761A1 (en) METHOD AND DEVICE FOR CHECKING THE AUTOMATED TRACK CHANGE OF AN AUTOMATED VEHICLE BY SELECTING THE TRACK AND VALIDATION
WO2018069061A1 (en) Method of formulating a piloting supervision setpoint for a driving member of an automotive vehicle
WO2020048659A1 (en) Method for detecting false positives of an image-processing device of a camera
WO2019162238A1 (en) Motor vehicle driving assistance device and method
FR3047589A1 (en) METHOD AND DEVICE FOR ESTIMATING THE LATERAL POSITION OF A VEHICLE IN A CIRCULATION PATH
FR3113638A1 (en) Control method for controlling the lateral movement of a motor vehicle
FR3047217B1 (en) DEVICE FOR DETERMINING THE STATE OF A SIGNALING LIGHT, EMBEDY SYSTEM COMPRISING SUCH A DEVICE, VEHICLE COMPRISING SUCH A SYSTEM AND METHOD OF DETERMINING THE SAME
EP3867126B1 (en) Method and device for assisting with driving a motor vehicle during reversing
EP3830741B1 (en) Driving assistance for control of a motor vehicle including parallel processing steps of transformed images
FR3098329A1 (en) Process for automatic entry into a predefined motor vehicle accident report form.
FR3075136B1 (en) METHOD AND DEVICE FOR ASSISTING DRIVING A PARTIALLY AUTOMATED DRIVING VEHICLE BY COMPARING GLOBAL STATES
FR3085023A1 (en) METHOD FOR DETECTION AND LOCATION OF A CONNECTION BEVEL BETWEEN TWO TRAFFIC LANES
FR3058690B1 (en) ASSISTED LIGHTING SYSTEM FOR VEHICLE AND METHOD FOR FORMING HYBRID IMAGE

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190517

ST Notification of lapse

Effective date: 20200914