FR3048406A1 - Robot autonome avec guidage en mode poussee - Google Patents
Robot autonome avec guidage en mode poussee Download PDFInfo
- Publication number
- FR3048406A1 FR3048406A1 FR1600390A FR1600390A FR3048406A1 FR 3048406 A1 FR3048406 A1 FR 3048406A1 FR 1600390 A FR1600390 A FR 1600390A FR 1600390 A FR1600390 A FR 1600390A FR 3048406 A1 FR3048406 A1 FR 3048406A1
- Authority
- FR
- France
- Prior art keywords
- robot
- operator
- module
- driving
- relative position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims description 15
- 238000006073 displacement reaction Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 3
- 239000004020 conductor Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000002902 bimodal effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
Robot (1) motorisé comprenant un corps (2) monté sur roues (3), un dispositif de repérage (4), un module de guidage (104), ledit module de guidage étant configuré de façon à permettre une conduite par un opérateur (10) situé dans une zone de conduite (20) d'un côté du robot pour faire avancer le robot dans une zone d'avancement (30) situé du côté opposé.
Description
ROBOT AUTONOME AVEC GUIDAGE EN MODE POUSSEE DOMAINE TECHNIQUE DE L'INVENTION
[0001] La présente invention concerne un robot motorisé. Elle concerne plus particulièrement un robot capable de se mouvoir en mode « poussée » par la présence d’un opérateur à une extrémité du robot.
ETAT DE LA TECHNIQUE ANTERIEURE
[0002] Les robots autonomes motorisés sont aujourd’hui bien connus et utilisés dans de nombreux domaines tels que la logistique, l’agriculture, la production industrielle, etc. Pour assurer leur déplacement de façon autonome, les robots doivent comporter des moyens de repérage et de guidage. De nombreuses formes de mises en oeuvre existent aujourd’hui, avec des capteurs et/ou caméras agencés à des endroits permettant de mettre en oeuvre les fonctions de repérage permettant au robot de se déplacer dans de condition de sécurité acceptables.
[0003] Pour gérer le déplacement, un robot autonome peut être programmé en fonction d’un trajet précis à effectuer. Ce mode est bien adapté pour les trajets devant être effectués de façon répétée. Dans d’autres cas, par exemple lorsqu’un opérateur souhaite effectuer un trajet unique, le robot dispose de capteurs permettant de détecter l’opérateur, et de moyens de guidage permettant au robot de se déplacer en suivant l’opérateur. Ce mode est bien connu sous le terme anglais « follow-me » (suivez-moi). D’autres exemples de solutions sont présentés ci-après.
[0004] Le document US2006140450 décrit un dispositif et un procédé de suivi d’un être humain. Le dispositif comprend un support de stockage stockant un programme pour exécuter le procédé et un système électronique mobile comprenant l’appareil. L’appareil de poursuite de l’être humain comprend ; un module de détection de remplacement du haut du corps de l’être humain ; un module de détection de position de la jambe d’un être humain ; un module de sélection d’objet suivi ; une vitesse de suivi et une calculatrice d’orientation pour calculer la vitesse. Le dispositif permet de suivre un être humain.
[0005] Le document CN105005247 décrit un transpalette susceptible d’être commandé à distance par un opérateur au moyen d’une communication sans fil. En outre, le transpalette peut suivre un opérateur automatiquement.
[0006] Le document TW201540447 décrit un capteur pour détecter la posture du squelette humain devant un robot et se déplacer en fonction de commandes gestuelles du corps humain. Le robot suit l’individu qui se déplace.
[0007] Le document KR101014531 décrit une méthode de suivi d’un humain par un robot motorisé. Le capteur est prévu pour détecter les jambes d’un individu et de le suivre dans ses déplacements.
[0008] Le document JP2008149399 décrit un robot motorisé se déplaçant à une vitesse appropriée pour suivre une personne qui se déplace en même temps. Le robot se déplace à côté de l’individu, en même temps que lui.
[0009] Le document JP2003280739 décrit un robot motorisé capable de suivre une personne humaine.
[0010] Ces solutions permettent à un robot autonome motorisé de suivre un opérateur de manière relativement fiable. Néanmoins, ces solutions impliquent que l’opérateur précédé le robot sur le chemin qu’il souhaite lui faire parcourir. Or, en se déplaçant devant le robot, l’opérateur ignore complètement se qui se passe derrière lui, à savoir si le robot le suit ou pas, si le robot dévie de la route suivie par l’opérateur, ou même s’il est en détresse ou s’il a subit un incident. Cette situation donne lieu à un très grand nombre d’incertitudes quand à la qualité et la fiabilité du suivi effectué par le robot.
[0011] Dans d’autres cas, il arrive qu’un opérateur soit dans une situation l’obligeant à changer de sens de déplacement. Or, avec un robot « suiveur », l’opérateur est alors obligé de contourner le robot pour aller se positionner du côté opposé pour reprendre un mode suivi. Ce cas contraint à prévoir des moyens de reconnaissance de l’opérateur des deux côtés du robot. Enfin, dans certains cas, un opérateur bloqué n’est pas en mesure de contourner le robot pour aller se positionner de l’autre côté. Il faut alors prévoir des moyens de dépannage pour permettre de gérer la situation, par exemple en remorquant le robot, ou en le soulevant pour le tourner de 180 degrés.
[0012] Pour pallier ces différents inconvénients, l’invention prévoit différents moyens techniques.
EXPOSE DE L'INVENTION
[0013] Tout d’abord, un premier objet de l’invention consiste à prévoir un robot autonome motorisé capable de se faire suivre par un opérateur tout en permettant à ce dernier de pouvoir visualiser le robot en cours de déplacement.
[0014] Un autre objet de l’invention consiste à prévoir un robot autonome motorisé de construction peu coûteuse.
[0015] Un autre objet de l’invention consiste à prévoir un robot autonome motorisé dont la mise en œuvre est simple et fiable.
[0016] Pour ce faire, l’invention prévoit un robot autonome motorisé comprenant un corps monté sur roues, un dispositif de repérage, un module de conduite, en communication avec le dispositif de repérage et configuré de façon à permettre une conduite par un opérateur situé dans une zone de conduite d’un côté du robot pour faire avancer le robot dans une zone d’avancement situé du côté opposé.
[0017] Un tel dispositif permet de configurer un robot de façon à ce que le conducteur pousse virtuellement ce dernier. Dans ce document, ce mode est désigné « poussez-moi », par analogie au mode « suivez-moi » où le robot suit l’utilisateur. En variante, un robot est avantageusement muni des deux modes de conduites, pour un maximum de souplesse d’utilisation.
[0018] Grâce à un tel dispositif, l’opérateur peut commander le déplacement d’un robot en conservant une parfaite visibilité sur le robot lui-même et son environnement. L’opérateur peut ainsi réagir immédiatement face à toute situation imprévue ou face à un incident. Il peut facilement et immédiatement interagir avec le robot et modifier ou adapter la conduite en cours de route, en temps réel. Dans le cas d’une variante de robot pourvue d’un mode de conduite « suivez-moi », le conducteur peut passer d’un mode de conduite à l’autre sans devoir contourner le robot, ce qui est parfois impossible sur certains sites de travail comme par exemple entre des vignes.
[0030] De manière avantageuse, le dispositif de repérage comporte un seul capteur. Cette caractéristique technique permet d’obtenir un agencement simple, avec un câblage limité, et une grande fiabilité. Un tel agencement permet de limiter les coûts et de simplifier la construction du robot. Ce même capteur peut servir à détecter les obstacles présents le long du trajet du robot.
[0019] Selon un mode de réalisation avantageux, le dispositif de repérage comprend un laser, de préférence un scanner laser ou « LIDAR », acronyme en langue anglaise pour « Light Détection and Ranging » ( désignant le concept de détection et repérage à base d’émission de faisceau lumineux).
[0031] Le laser est de préférence adapté pour émettre un faisceau rotatif sur une plage angulaire de 360°. Cette caractéristique présente l’avantage d’offrir une visibilité totale pour le robot à l’aide d'un unique capteur, simplifiant considérablement l’architecture et la mise en œuvre du système. En outre, pour un robot avec un système de conduite bimodal (suivez-moi ou « poussez-moi »), le LIDAR 360 degrés permet de gérer simplement les deux modes, avec une configuration simple et fiable.
[0020] Le laser permet un usage dans des conditions diverses à l’inverse d’un dispositif de caméra vidéo, par exemple. En effet, le laser peut être utilisé tant dans une pièce plongée dans l’obscurité, qu’en extérieur en présence d’un soleil intense. Enfin, le laser 360 degrés présente l’avantage d’offrir une visibilité totale pour le robot garantissant une plus grande sécurité.
[0021] Selon un autre mode de réalisation avantageux, le dispositif de repérage est configuré pour d’une part pour détecter les éléments environnementaux permettant d’assurer un déplacement sans collision, et d’autre part pour détecter la position relative de l’opérateur par rapport à une position de référence.
[0022] L’invention prévoit également un système de conduite pour robot autonome tel que préalablement décrit, comprenant un dispositif de repérage apte à communiquer avec un module de conduite pourvu d’un microprocesseur et d’instructions de mise en œuvre, d’un module de détection de position relative de l’opérateur, d’un module de consigne de déplacement et d’un module de guidage, le système de conduite étant configuré de façon à permettre une conduite par un opérateur situé dans une zone de conduite d’un côté du robot pour faire avancer le robot dans une zone d’avancement situé du côté opposé.
[0023] Un tel système permet d’équiper un grand nombre de robots autonomes motorisés pour leur faire bénéficier du mode de conduite « poussez-moi ».
[0024] L’invention prévoit enfin un procédé de conduite d’un robot autonome motorisé par un opérateur, comprenant les étapes suivantes : le module de détection de position relative de l’opérateur détermine la position relative de l’opérateur à l’aide de données reçues du dispositif de repérage du robot ; le module consigne de déplacement, reçoit les données de position relative de l’opérateur et détermine une consigne de déplacement comprenant une courbure et une vitesse d’avancement; le module de guidage reçoit la consigne de déplacement et assure le déplacement du robot en accord avec la consigne de déplacement.
[0025] Selon un mode de réalisation avantageux, le sens de la courbure est déterminé par le module de consigne en fonction de la position relative de l’opérateur, de sorte que lorsque l’opérateur se situe d’un premier côté d’une position de référence (par exemple un axe longitudinal A-A du robot), le sens de virage est horaire, et lorsque l’opérateur se situe d’un second côté de la position de référence, le sens de virage est anti-horaire.
[0026] En mode «poussez-moi», contrairement au mode « suivez-moi », l’utilisateur est véritablement actif et conduit le robot. Il décide de sa position relative par rapport au robot afin de conduire ce dernier et bien le diriger entre les obstacles et vers le chemin qu’il souhaite. L’utilisateur a la possibilité de réagir à toute situation ou événement en temps réel, puisqu’il voit le robot et son environnement de façon continue. Ce mode de conduite est donc très sûr, très fiable, et procure une grande capacité d’adaptation sur une infinité de sites.
[0027] De manière avantageuse, le module de consigne détermine la vitesse d’avancement en fonction de la distance d entre l’opérateur et le robot.
[0028] Selon encore un mode de réalisation avantageux, le module de détection de position relative de l’opérateur est prévu pour détecter un mouvement ou signe de l’opérateur correspondant à une consigne d’arrêt du déplacement du robot. Cette caractéristique permet à l’utilisateur de réagir très rapidement, sans devoir toucher le robot, pour un maximum de réactivité et de sécurité. En variante, un recul de l’opérateur peut servir à commander un arrêt. Encore en variante, un bouton d’arrêt peut être prévu sur le robot ou une commande à distance.
DESCRIPTION DES FIGURES
Tous les détails de réalisation sont donnés dans la description qui suit, complétée par les figures 1 à 5, présentées uniquement à des fins d’exemples non limitatifs, et dans lesquelles : -la figure 1A est une représentation schématique d’un exemple de robot autonome avec système de conduite selon l’invention ; -la figure 1B est une représentation schématique d’un exemple de robot autonome situé entre le conducteur et la zone de conduite ; - les figures 2 et 3 sont des exemples de déplacements avec virages d’un robot autonome motorisé selon l’invention ; - la figure 4 présente un organigramme fonctionnel illustrant les principales étapes d’un procédé de conduite selon l’invention ; - la figure 5 illustre un exemple de module de conduite pour robot autonome motorisé selon l’invention.
DESCRIPTION DETAILLEE DE LMNVENTION
[0032] L'objectif est de manipuler un robot en le précédant mais sans le toucher et sans utiliser de joystick. Le robot peut s’immobiliser brusquement si son système d’arrêt d’urgence se déclenche. Dans ce cas, la personne qui suit le robot ne doit pas heurter le robot. Le robot peut s’immobiliser brusquement si son système d’arrêt d’urgence se déclenche. Il faut alors prévoir que la personne qui suit le robot ne heurte ce dernier. Par ailleurs, le robot doit être suffisamment loin pour que la personne puisse faire un pas sans risquer de heurter le robot avec sa jambe.
[0033] La figure 1A illustre un exemple de réalisation d’un robot 1 comprenant un corps 2 monté sur roues 3. Dans cet exemple, le corps 2 est de forme rectangulaire, et sensiblement plat, pour maintenir le centre de gravité près du sol et faciliter les opérations de chargement et de déchargement par l’opérateur. En variante, le corps peut être conçu selon une vaste panoplie de formes et de profils, en fonction des utilisations prévues, et des qualités esthétiques requises. De façon classique, le robot comporte au moins un moteur, électrique ou thermique, et des moyens permettant de gérer les déplacements de façon autonome.
[0034] Dans l’exemple de réalisation de la figure 1A, le robot comprend un plateau de chargement 5 agencé au dessus du corps 2. Cette position permet une grande aisance pour manipuler les charges à transporter par le robot. La figure 1 montre également que le plateau 5 est espacé du corps 2. Dans cet exemple, la surélévation du plateau est assurée par des ailettes 6 de séparation, agencées entre le dessus du corps 2 et le dessous du plateau.
[0035] Tel que montré à la figure 1A, le robot de cet exemple de réalisation comprend six ailettes réparties de façon à bien supporter la totalité de la surface du plateau, soit deux ailettes à chaque extrémité et deux ailettes vers la zone médiane du corps. Le robot est conçu pour avancer dans au moins une direction, avantageusement deux, et de préférence plusieurs directions angulaires. Le changement de direction angulaire est assuré soit pas pivotement des roues (deux ou quatre roues directionnelles) ou par variation de vitesse angulaire relative entre les roues de chaque côté du robot.
[0036JA cet effet, le robot est avantageusement équipé de quatre moteurs électriques, implantés dans les axes des roues. Le robot peut également être pourvu d’un moteur unique avec deux ou quatre roues motrices. Le corps 2 permet de loger une ou plusieurs batteries et les éléments électroniques requis pour assurer la gestion et le guidage du robot.
[0037] La surélévation du plateau 5 par rapport au dessus du corps permet de former une zone 7 de vision, sensiblement libre dans laquelle un dispositif de repérage 4, de préférence unique, est agencé.
[0038] Dans l’exemple illustré, les ailettes 6 de séparation sont constituées de plaquettes sensiblement minces orientées de sorte que leur plan principal soit sensiblement parallèle à l’axe du faisceau du dispositif de repérage 4. Toujours dans l’exemple des figures 1 et 2, le dispositif de repérage 4 comprend un laser radar (ou LIDAR) adapté pour permettre de repérer les objets environnants sur une plage angulaire de 360°. Les ailettes sont suffisamment minces et espacées pour ne pas entraver la vision de l’environnement.
[0039] En variante, d’autres types de capteurs peuvent être utilisés, tels que une ou plusieurs caméras, un ou plusieurs capteurs inductifs, ou autres. Des solutions hybrides, avec plusieurs types de capteurs, peuvent aussi être mises en œuvre. EXEMPLES DE CONDUITE EN MODE « POUSSEZ-MOI » [0040] Dans les exemples de mise en œuvre du système et procédé de conduite de l’invention illustrés aux figures 1 B, 2 et 3, un exemple de robot 1 sans plateau porte-charge est utilisé à des fins d’illustration. Le dispositif de repérage 4 est avantageusement un scanner laser (ou LIDAR) actif sur 360 degrés, qui permet de détecter à la fois les éléments environnants le robot comme par exemple des objets, murs, parois ou obstacles et le conducteur du robot 10. Le conducteur est mobile dans une zone de conduite 20 située d’un côté du robot 1. Une zone d’avancement 30, dans laquelle le robot est susceptible de se déplacer, se trouve du côté opposé à la zone de conduite 20.
[0041] L’exemple de la figure IB illustre un exemple de robot se déplaçant en mode « poussez-moi » selon une direction sensiblement rectiligne.
[0042] L’exemple de la figure 2 illustre un exemple de robot se déplaçant en mode « poussez-moi » en amorçant un virage à droite.
[0043] L’exemple de la figure 3 illustre un exemple de robot se déplaçant en mode « poussez-moi » en amorçant un virage à gauche.
SYSTEME DE CONDUITE
[0044] La figure 5 illustre de façon schématique un exemple de système de conduite pour robot autonome comprenant un dispositif de repérage 4 (montré aux figures 1A, 1B, 2 et 3) tel que préalablement décrit, apte à communiquer par liaison filaire ou sans fil avec un module de conduite 100. Pour sa mise en oeuvre, le module de conduite comprend au moins un microprocesseur 101 et des instructions de mise en œuvre 102 du microprocesseur des différents modules. Le module de conduite prévoit également un module 103 de détection de position relative de l’opérateur et un module 104 de consigne de déplacement. Un module de guidage 105 assurant le guidage du robot le long de la zone d’avancement, est également prévu. Le module de conduite comprend avantageusement des modules mémoires tels qu’un module 106 de données de position relative du conducteur, et un module 107 de données de consigne de déplacement du robot. Un module de détection d’obstacle peut également être prévu.
[0045] Le système de conduite est configuré de façon à permettre une conduite par un opérateur 10 situé dans une zone de conduite 20 d’un côté du robot 1 pour faire avancer le robot dans une zone d’avancement 30 situé du côté opposé. Le système de conduite est donc de type « poussez-moi », puisque le robot précède le conducteur, qui conduit le robot, sans contact avec celui-ci.
PROCEDE DE CONDUITE
[0046] La figure 4 présente un organigramme fonctionnel montrant les étapes principales du procédé de conduite d’un robot autonome motorisé selon l’invention.
[0047] A l’étape 50, le module de conduite 100 reçoit une commande pour amorcer ou poursuivre une conduite en mode poussée. Par exemple, un utilisateur appuie sur un bouton de commande sur le robot ou sur une manette à distance. A l’étape 51, le dispositif de repérage 4 envoi au module 103 de détection de position relative de l’opérateur, les données de position du conducteur du robot présent dans la zone de conduite 20. A l’étape 52, le même module 103 détermine la position relative du conducteur par rapport au robot, par exemple en déterminant un écart longitudinal et un écart latéral (voir figures IB, 2 et 3).
[0048] A l’étape 53, le module 104 de consigne de déplacement compare la position relative du conducteur avec une position de référence. A cette position de référence, le conducteur se trouve dans la zone de conduite à un écart longitudinal et latéral correspondant à l’arrêt du robot. Si la position relative du conducteur s’écarte de la position de référence, le module 104 de consigne de déplacement établit une consigne pour faire déplacer le robot. L’étape 54 illustre un exemple de critères avantageusement utilisés pour déterminer la vitesse du robot et les éventuels virages. Selon ces critères, la vitesse est déterminée en fonction en fonction de l'écart avec la position de référence ; - si l'écart = 0 : vitesse constante ; - si l'écart > 0 : la vitesse augmente ; - si l'écart < 0 ; la vitesse diminue.
[0049] Le sens de l’angle de virage est déterminé par le module de consigne 104 en fonction de la position relative de l’opérateur, de sorte que lorsque l’opérateur 10 se situe d’un premier côté d’une position de référence (par exemple un axe longitudinal A-A du robot), le sens de virage est horaire, et lorsque l’opérateur se situe d’un second côté de la position de référence, le sens de virage est antihoraire.
[0050] En option, pour faire stopper rapidement le robot, le module 103 de détection de position relative de l’opérateur est prévu pour détecter un mouvement ou signe de l’opérateur correspondant à une consigne d’arrêt du déplacement du robot. Cette consigne peut aussi correspondre à un recul de l’utilisateur ou à une commande via un bouton prévu à cet effet.
DEFINITIONS ET FONCTIONS DE CALCUL -La longueur_pas : longueur d’un pas lors d’une marche (80cm) ; -Fct_longueur_pas (vitesse) : fonction qui retourne la longueur d’un pas en fonction de la vitesse de déplacement de la personne. Si la vitesse est celle d’une marche, alors la valeur renvoyée sera de 80cm (longueur_pas). Si la vitesse est celle d’une course, la longueur est bien plus grande ; -Ecart : distance en mètres pour éloigner longitudinalement le robot de la personne pour tenir compte que la longueur d’un pas n’est pas la même pour toutes les personnes ; -Fct_distance_arrêt_piéton (vitesse) : fonction qui retourne la distance d’arrêt théorique du piéton en fonction de sa vitesse de marche ; -Fct_distance_arrêt_piéton (vitesse) = vitesse * temps_de_reaction + vitesse'^2/ (2*décélération_théorique_piéton) ; -Fct_distance_arrêt_urgence_robot (vitesse) : fonction qui retourne la distance d’arrêt théorique du robot en fonction de sa vitesse de déplacement lors d’un freinage d’urgence ; -Fct_distance_arrêt_urgence_robot (vitesse) = vitesse * temps_de_latence + vitesse'^2/ (2*décélération_urgence_robot) ; - Distance de consigne : distance souhaitée pour l’écart longitudinal entre le piéton et le robot ; - Distance_consigne = max(max(Longueur_pas, Fct_longueur_pas(vitesse_robot)) + écart, max(0, Fct_distance_arrêtj3iéton(vitesse_robot) -fct_distance_arrêt_urgence_robot(vitesse_robot))) -Consigne d’orientation du véhicule : il s’agit d’une consigne et non d’un ordre envoyé au moteur car l’évitement d’obstacle qui vient ensuite pourra modifier cette consigne ; -S’il s’agit d’un véhicule à trains directeurs ; Consigne = rayon de braquage (ou courbure ou angle de braquage des roues) ; -Braquage des roues vers la gauche quand la personne est décalée sur la droite. -Braquage des roues vers la droite quand la personne est décalée sur la gauche. -Si la personne est à peu près dans l’axe du robot plus ou moins une valeur delta en cm, alors le robot a les roues droites. Cette dernière caractéristique permet au robot d’avancer en ligne droite même si la personne ne marche pas rigoureusement droite ou si le module de détection de la personne est imprécis dans la détection latérale. -S’il s’agit d’un véhicule à trains fixes (type char) : Consigne = vitesse de rotation (ou courbure).
Le véhicule tourne sur lui-même de telle manière à ce que la personne soit toujours dans l’axe longitudinale du robot. Si la personne est à peu près dans l’axe du robot plus ou moins une valeur delta en cm alors le robot ne tourne pas. Ce dernier point permet au robot d’avancer en ligne droite même si la personne ne marche pas rigoureusement droite ou si le module de détection de la personne est imprécis dans la détection latérale. -Consigne de vitesse du véhicule : il s’agit d’une consigne et non d’un ordre envoyé au moteur car l’évitement d’obstacle qui vient ensuite pourra modifier cette consigne. -Consigne = vitesse linéaire d’avancement ; -Le robot accélère ou ralentit afin d’asservir l’écart longitudinal sur la distance de consigne mais il ne peut pas reculer.
EVITEMENT D’OBSTACLES REACTIF
[0051]On prédit la position du robot dans le futur avec les consignes définies plus haut pour voir s’il va heurter un obstacle : -le robot a une forme donnée (en général un rectangle). -prédire = on définit la position où se trouvera le robot 100ms plus tard, puis on définit la position où se trouvera le robot 200ms plus tard, etc, jusqu'à ce que le robot ait atteint sa vitesse de consigne demandée et on continue à prédire les positions du robot en décélérant jusqu’à ce qu’il soit à l’arrêt. -Cette dernière étape est prévue pour être certain que si la consigne est de se déplacer à 10km/h, que le robot puisse accélérer jusqu’à 10km/h et qu’il y ait ensuite suffisamment de distance libre devant lui pour ralentir et s’immobiliser en tout sécurité. -on vérifie que pour chaque position prédite, qu’il n’y ait pas un obstacle dans le robot prédit, sinon on considère qu’il y a une collision. -S’il y a une collision, on évalue si on peut changer l’orientation du robot pour éviter l’obstacle sans modifier la vitesse demandée. On définit une fenêtre de recherche pour la nouvelle orientation. Cette fenêtre est centrée sur la consigne d’orientation demandée. Si on demande au robot d’aller tout droit, alors la fenêtre s’étend de l’orientation maximale à gauche jusqu’à l’orientation maximale à droite. Si on demande au robot de tourner, alors la fenêtre est plus étroite et d’autant plus étroite que l’on demande au robot de tourner. -Cette dernière étape est prévue afin que si un conducteur demande à son robot de tourner à gauche à fond, il ne veut surtout pas qu’il aille à droite et même s’il y a un obstacle devant lui. Dans ce cas, on préfère que le robot ralentisse. -Pour chaque case à l’intérieur de la fenêtre, on prédit la trajectoire du robot avec la vitesse de consigne et l’orientation de la case testée. -On sélectionne la case qui est « OK » et la plus proche de la consigne souhaitée. -Si aucune case de la fenêtre est « OK », alors on refait la même chose pour une vitesse légèrement inférieure.
Numéros de référence employés sur les figures 1 Robot 2 Corps du robot 3 Roues 4 Dispositif de repérage 5 Plateau de chargement ou plateau porte-charge 6 Ailettes de séparation 7 Zone de vision 10 Opérateur ou conducteur 20 Zone de conduite 30 Zone d’avancement 100 Module de conduite 101 Microprocesseur 102 Instructions 103 Module de détection de position relative de l’opérateur 104 Module de consigne de déplacement 105 Module de guidage 106 Données de position relative 107 Données de consigne de déplacement 108 Bus de données
Claims (10)
- REVENDICATIONS1. Robot (1) autonome motorisé comprenant un corps (2) monté sur roues (3), un dispositif de repérage (4), un module de conduite (100), en communication avec le dispositif de repérage et configuré de façon à permettre une conduite par un opérateur (10) situé dans une zone de conduite (20) d’un côté du robot pour faire avancer le robot dans une zone d’avancement (30) situé du côté opposé.
- 2. Robot (1) selon la revendication 1, dans lequel le dispositif de repérage (4) comporte un seul capteur.
- 3. Robot (1) selon la revendication 2, dans lequel le dispositif de repérage (4) comprend un Lidar.
- 4. Robot (1) selon la revendication 3, dans lequel le Lidar est adapté pour émettre un faisceau rotatif sur une plage angulaire de 360°.
- 5. Robot (1) selon l’une des revendications précédentes, dans lequel le dispositif de repérage est configuré pour d’une part pour détecter les éléments environnementaux permettant d’assurer un déplacement sans collision, et d’autre part pour détecter la position relative de l’opérateur par rapport à une position de référence.
- 6. Système de conduite pour robot autonome (1) selon l’une des revendications 1 à 5, comprenant un dispositif de repérage (4) apte à communiquer avec un module de conduite (100) pourvu d’un microprocesseur (101) et d’instructions de mise en oeuvre (102), d’un module (103) de détection de position relative de l’opérateur, d’un module (104) de consigne de déplacement et d’un module de guidage (105), le système de conduite étant configuré de façon à permettre une conduite par un opérateur (10) situé dans une zone de conduite (20) d’un côté du robot (1) pour faire avancer le robot dans une zone d’avancement (30) situé du côté opposé.
- 7. Procédé de conduite par un opérateur (10) d’un robot autonome motorisé (1) selon l’une des revendications 1 à 5, comprenant les étapes suivantes : un module (103) de détection de position relative de l’opérateur détermine la position relative de l’opérateur à l’aide de données reçues du dispositif de repérage (4) du robot ; un module (104) de consigne de déplacement, reçoit les données de position relative de l’opérateur et détermine une consigne de déplacement comprenant un angle de virage et une vitesse d’avancement; un module de guidage (105) reçoit la consigne de déplacement et assure le déplacement du robot en accord avec la consigne de déplacement.
- 8. Procédé de conduite d’un robot autonome motorisé (1) selon la revendication 7, dans lequel le sens de l’angle de virage est déterminé par le module de consigne (104) en fonction de la position relative de l’opérateur, de sorte que lorsque l’opérateur (10) se situe d’un premier côté d’une position de référence, le sens de virage est horaire, et lorsque l’opérateur se situe d’un second côté de la position de référence, le sens de virage est anti-horaire.
- 9. Procédé de conduite d’un robot autonome motorisé (1) selon l’une des revendications 7 ou 8, dans lequel le module de consigne (104) détermine la vitesse d’avancement en fonction de la distance entre l’opérateur (10) et le robot (1).
- 10. Procédé de conduite d’un robot autonome motorisé (1) selon l’une des revendications 7 à 9, dans lequel le module (103) de détection de position relative de l’opérateur est prévu pour détecter un mouvement ou signe de l’opérateur correspondant à une consigne d’arrêt du déplacement du robot.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1600390A FR3048406B1 (fr) | 2016-03-07 | 2016-03-07 | Robot autonome avec guidage en mode poussee |
EP17712238.9A EP3427118A1 (fr) | 2016-03-07 | 2017-03-06 | Robot autonome avec guidage en mode poussee |
PCT/IB2017/051302 WO2017153897A1 (fr) | 2016-03-07 | 2017-03-06 | Robot autonome avec guidage en mode poussee |
JP2018548036A JP2019514103A (ja) | 2016-03-07 | 2017-03-06 | プッシュモードでの誘導を伴う自律ロボット |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1600390 | 2016-03-07 | ||
FR1600390A FR3048406B1 (fr) | 2016-03-07 | 2016-03-07 | Robot autonome avec guidage en mode poussee |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3048406A1 true FR3048406A1 (fr) | 2017-09-08 |
FR3048406B1 FR3048406B1 (fr) | 2019-08-16 |
Family
ID=56322004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1600390A Active FR3048406B1 (fr) | 2016-03-07 | 2016-03-07 | Robot autonome avec guidage en mode poussee |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3427118A1 (fr) |
JP (1) | JP2019514103A (fr) |
FR (1) | FR3048406B1 (fr) |
WO (1) | WO2017153897A1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111149073A (zh) * | 2018-03-29 | 2020-05-12 | 株式会社爱考斯研究 | 移动体 |
EP3899683A4 (fr) * | 2018-12-20 | 2022-08-10 | Augean Robotics, Inc. | Véhicule terrestre autonome collaboratif |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3081361B1 (fr) * | 2018-05-28 | 2022-04-08 | Norcan | Procede de commande d’un robot motorise |
FR3091609A1 (fr) | 2019-01-04 | 2020-07-10 | Balyo | Système de robot-compagnon comprenant un engin à guidage autonome |
KR20220010742A (ko) | 2019-06-04 | 2022-01-26 | 씨그리드 코포레이션 | 자동 탐색 차량 및 선택자의 동적 할당 및 조정 |
JP7232210B2 (ja) * | 2020-03-31 | 2023-03-02 | 株式会社アイシン | 移動体制御装置、移動体制御プログラム及び移動体 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0732641A2 (fr) * | 1995-03-15 | 1996-09-18 | Technologietransfer-Anstalt, T e t r a | Commande de poursuite pour véhicule sans conducteur |
US20060140450A1 (en) * | 2004-12-14 | 2006-06-29 | Samsung Electronics Co., Ltd. | Human tracking apparatus and method, storage medium storing program executing the method, and mobile electronic system including the apparatus |
KR101014531B1 (ko) * | 2009-12-30 | 2011-02-14 | 고려대학교 산학협력단 | 거리 센서를 이용한 다리 추출 방법, 이를 이용한 이동 로봇의 사람 추종 주행 방법 및 이동 로봇 |
TW201540447A (zh) * | 2014-04-26 | 2015-11-01 | Kiosklife Technology Corp | 體感控制導覽機器人移動、追蹤、螢幕角度調整的方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3979141B2 (ja) | 2002-03-26 | 2007-09-19 | 松下電工株式会社 | 案内用自律移動ロボットとその制御方法 |
JP4849244B2 (ja) | 2006-12-15 | 2012-01-11 | 株式会社国際電気通信基礎技術研究所 | 移動ロボットおよび移動速度推定方法 |
JP2014164315A (ja) * | 2013-02-21 | 2014-09-08 | Nikon Corp | 自走式運搬装置およびシステム |
CN105005247B (zh) | 2015-08-13 | 2018-02-13 | 甘莅 | 跟随式搬运车的运行方法 |
-
2016
- 2016-03-07 FR FR1600390A patent/FR3048406B1/fr active Active
-
2017
- 2017-03-06 WO PCT/IB2017/051302 patent/WO2017153897A1/fr active Application Filing
- 2017-03-06 JP JP2018548036A patent/JP2019514103A/ja active Pending
- 2017-03-06 EP EP17712238.9A patent/EP3427118A1/fr not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0732641A2 (fr) * | 1995-03-15 | 1996-09-18 | Technologietransfer-Anstalt, T e t r a | Commande de poursuite pour véhicule sans conducteur |
US20060140450A1 (en) * | 2004-12-14 | 2006-06-29 | Samsung Electronics Co., Ltd. | Human tracking apparatus and method, storage medium storing program executing the method, and mobile electronic system including the apparatus |
KR101014531B1 (ko) * | 2009-12-30 | 2011-02-14 | 고려대학교 산학협력단 | 거리 센서를 이용한 다리 추출 방법, 이를 이용한 이동 로봇의 사람 추종 주행 방법 및 이동 로봇 |
TW201540447A (zh) * | 2014-04-26 | 2015-11-01 | Kiosklife Technology Corp | 體感控制導覽機器人移動、追蹤、螢幕角度調整的方法 |
Non-Patent Citations (2)
Title |
---|
"Fini les bottes, avec Effibot?", YOUTUBE, 1 March 2016 (2016-03-01), pages 1 pp., XP054976934, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=VIArepejHJI> [retrieved on 20161124] * |
"Robot assistant Effibot de Effidence au Sival 2016", YOUTUBE, 13 January 2016 (2016-01-13), pages 1 pp., XP054976940, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=M6etwTzBuvk> [retrieved on 20161125] * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111149073A (zh) * | 2018-03-29 | 2020-05-12 | 株式会社爱考斯研究 | 移动体 |
EP3779631A4 (fr) * | 2018-03-29 | 2021-10-06 | Equos Research Co., Ltd. | Corps mobile |
US11474542B2 (en) | 2018-03-29 | 2022-10-18 | Aisin Corporation | Moving body |
CN111149073B (zh) * | 2018-03-29 | 2023-08-29 | 株式会社爱信 | 移动体 |
EP3899683A4 (fr) * | 2018-12-20 | 2022-08-10 | Augean Robotics, Inc. | Véhicule terrestre autonome collaboratif |
US11753039B2 (en) | 2018-12-20 | 2023-09-12 | Augean Robotics, Inc. | Collaborative autonomous ground vehicle |
Also Published As
Publication number | Publication date |
---|---|
FR3048406B1 (fr) | 2019-08-16 |
EP3427118A1 (fr) | 2019-01-16 |
JP2019514103A (ja) | 2019-05-30 |
WO2017153897A1 (fr) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3048406B1 (fr) | Robot autonome avec guidage en mode poussee | |
JP7050102B2 (ja) | 自律移動体のため車線変更方法 | |
KR101688762B1 (ko) | 자율 주행 차량에 대한 제어를 운전자에게 이행하기 위한 시스템들 및 방법들 | |
FR2965778B1 (fr) | Dispositif et procede d'assistance d'un conducteur de vehicule pour une manoeuvre | |
US20160318442A1 (en) | Vehicle seat haptic indication of future planned driving maneuvers | |
EP3303129B1 (fr) | Système de travail à distance | |
WO2021006321A1 (fr) | Système de déplacement automatique | |
JP6677513B2 (ja) | 自律走行装置 | |
WO2017153896A1 (fr) | Robot autonome motorisé avec anticipation d'obstacle | |
US20200180695A1 (en) | Parking robot for a transportation vehicle and method for operating such a parking robot | |
FR3032671A1 (fr) | Procede et dispositif pour determiner un emplacement de stationnement pour un vehicule | |
EP1268255A1 (fr) | Procede et dispositif pour la prise en charge du parcage en creneau de vehicules motorises | |
DE102020202661B4 (de) | Neigungsregelungsvorrichtung für einspuriges fahzeug | |
FR2976245A1 (fr) | Procede et dispositif pour determiner une trajectoire d'engagement dans un emplacement de stationnement | |
US11383738B2 (en) | Method for operating a driving assistance system of a motor vehicle with remote-controlled manoeuvring of the motor vehicle at different automation levels and driving assistance system | |
EP3371035B1 (fr) | Dispositif d'assistance pour les manoeuvres d'accostage au niveau d'un quai | |
FR2969098A1 (fr) | Procede et dispositif d'assistance du conducteur d'un vehicule | |
WO2021043925A1 (fr) | Dispositif de commande prédictif du mouvement d'un véhicule automobile | |
US11828611B2 (en) | Delivery system, delivery method, and computer-readable non-transitory recording medium storing a program | |
US11526837B2 (en) | Delivery system, delivery method, and computer-readable non-transitory recording medium storing a program | |
GB2574384A (en) | Apparatus and method for controlling vehicle movement | |
JP7100539B2 (ja) | 自動走行システム | |
US20200301451A1 (en) | Delivery system, delivery method, and computer-readable non-transitory recording medium storing a program | |
GB2574284A (en) | Apparatus and method for controlling vehicle movement | |
FR3090545A1 (fr) | Appareil d'actionnement a distance de vehicule |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20170908 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |