FR3039904A1 - Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile - Google Patents
Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile Download PDFInfo
- Publication number
- FR3039904A1 FR3039904A1 FR1557615A FR1557615A FR3039904A1 FR 3039904 A1 FR3039904 A1 FR 3039904A1 FR 1557615 A FR1557615 A FR 1557615A FR 1557615 A FR1557615 A FR 1557615A FR 3039904 A1 FR3039904 A1 FR 3039904A1
- Authority
- FR
- France
- Prior art keywords
- robot
- environment
- vii
- objects
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 37
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000003384 imaging method Methods 0.000 claims abstract description 5
- 238000013507 mapping Methods 0.000 claims description 14
- 230000006399 behavior Effects 0.000 claims description 7
- 238000009434 installation Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 230000001594 aberrant effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 5
- 239000012636 effector Substances 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005553 drilling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000772415 Neovison vison Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 238000000227 grinding Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000005865 ionizing radiation Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 239000003380 propellant Substances 0.000 description 1
- 230000000272 proprioceptive effect Effects 0.000 description 1
- 230000001141 propulsive effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 229920001169 thermoplastic Polymers 0.000 description 1
- 239000004416 thermosoftening plastic Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
L'invention concerne un robot (100) adapté pour évoluer dans un environnement défini, muni d'une pluralité de capteurs et comprenant : a. deux caméras vidéos (161, 162) numériques monoculaires ; b. un dispositif (170) de vision comportant une unité d'éclairage et une unité d'imagerie ; c. un système LiDAR (140) monté sur une plate-forme (145) panoramique ; d. des moyens de traitements et de contrôle comprenant un calculateur et des moyens de mémoire comportant une cartographie de l'environnement défini, aptes à acquérir les informations issues des capteurs
Description
L’invention concerne un dispositif et un procédé pour la détection d’obstacles adaptés à un robot mobile. L’invention est plus particulièrement, mais non exclusivement, adaptée à la conduite d’un robot autonome, évoluant dans un environnement encombré, comportant des obstacles susceptibles de se déplacer dans le temps.
Un robot mobile autonome se localise dans son environnement selon une méthode de cartographie et de localisation simultanée désignée sous l’acronyme général de « SLAM » pour « Simultaneous Localisation And Mapping ». Le robot repère sa position dans une cartographie initiale, au moyen de capteurs proprioceptifs, comme un odomètre, et au moyen de capteurs environnementaux tels que des capteurs de vision, ou encore au moyen de balises. Ces capteurs délivrent ainsi des informations idiothétiques et des informations allothétiques qui combinées, lui permettent de connaître sa position exacte dans un environnement cartographié et ainsi de prévoir sa trajectoire dans l’instant qui suit, en fonction de cette position et de ladite cartographie. Ce principe fonctionne parfaitement dans un environnement stable. Lorsque l’environnement est changeant, par l’apparition d’obstacles non cartographiés initialement ou par l’irruption dans l’environnement du robot d’objets mobiles tels qu’un autre robot ou un opérateur, le robot doit, pour prendre en compte ces changements, d’une part, détecter les modifications de cet environnement et d’autre part intégrer ces modifications dans sa cartographie, de sorte à modifier sa trajectoire si nécessaire, ou plus généralement son comportement, en fonction des modifications détectées. Dans un environnement industriel de production tel que celui de l’assemblage d’une structure d’aéronef ou d’une structure navale, l’environnement du robot comprend des « pièges » tels que des trappes, ainsi que des objets ou des opérateurs avec lesquels le robot ne peut absolument pas entrer en contact ou même s’approcher pour des raisons de sécurité. Aussi, la détection des obstacles et leur intégration à la cartographie doivent être réalisées à une distance suffisante desdits obstacles. Certains obstacles tels que des trappes ou des puits, dits obstacles négatifs, sont susceptibles d’être franchissables s’ils sont recouverts d’une grille et infranchissables dans d’autres circonstances. Ainsi, le robot doit être en mesure de détecter un obstacle à distance, à partir de ses moyens sensoriels, d’en déterminer les contours et de localiser ledit obstacle par rapport à sa position et de déterminer s’il peut franchir ou non cet obstacle sans modifier sa trajectoire. Dans le cas où l’obstacle est en déplacement, il doit, de plus, en estimer la trajectoire et la vitesse. Ces tâches ne sont pas aisées de mise en oeuvre. En effet, si une caméra stéréoscopie, un radar, ou un système de balayage laser est capable de détecter et de localiser un objet connu dans son environnement, par exemple pour s’en servir comme d’un amer et en tirer une information allothétique de positionnement, l’identification individuelle d’objets a priori inconnus dans une scène visualisée instantanément par un tel dispositif, qui ne dispose pas des capacités cognitives d’un être vivant supérieur, est une tâche complexe, plus particulièrement lorsque plusieurs obstacles, non initialement cartographiés, sont susceptibles de se trouver simultanément dans le champ observé par le robot à des distances différentes.
Le document WO 2014 152254 décrit un dispositif embarqué pour la détection d’obstacles dans un environnement et un procédé mettant en oeuvre ce dispositif. Le procédé consiste à comparer une image tridimensionnelle de référence de l’environnement obtenue à partir de deux images dont le point de vue est décalé, avec une image tridimensionnelle actuelle de cet environnement obtenue par des moyens similaires. Ces informations sont superposées de sorte à en révéler les disparités et ainsi détecter les modifications de l’environnement et la présence d’objets étrangers. Cette technique de l’art antérieur nécessite des moyens de traitement informatiques lourds et la nécessité d’obtenir des images de référence de l’environnement. Ainsi, ce procédé l’art antérieur reste limité à des environnements relativement stables, qui ne correspondent pas aux applications visées par l’invention. Le dispositif décrit dans cet art antérieur utilise les informations issues de capteurs de distance, obtenues par un radar ou un balayage au moyen d’un laser, et des informations vidéo obtenues par une caméra stéréoscopique. Ces deux types d’informations sont combinés pour s’auto-calibrer et rendre plus robuste des disparités, ainsi, selon cet art antérieur, ces deux types de capteurs sont utilisés comme deux sources d’information indépendantes, ce qui justifie du reste leur utilisation à ces fins d’auto-calibration.
Le document US 2008 0009965 décrit un procédé de détection dynamique de l’environnement concentrique d’un robot mobile. Selon ce procédé de l’art antérieur, la cartographie du lieu d’évolution du robot est réglée selon une grille, et chaque carreau de cette grille est associé à une probabilité d’occupation, c’est-à-dire une probabilité que ledit carreau soit occupé par un objet avec lequel le robot serait susceptible d’entrer en collision. À partir de la carte de l’environnement et de la répartition de l’occupation de la grille, le robot calcule un trajet sans collision pour se déplacer d’un point à un autre. Au cours de son déplacement, le robot scrute son environnement concentrique au moyen d’une pluralité de capteurs et, en fonction des informations issues de ces capteurs, il met à jour la grille de probabilité d’occupation, et modifie en conséquence sa trajectoire ou sa vitesse de déplacement. Ce principe théorique se heurte cependant à la capacité d’interprétation, par le robot, des informations délivrées par les capteurs, de sorte que, selon cet art antérieur, l’autonomie du robot est limitée et que celui-ci est supplémenté dans cette dernière tâche par un opérateur humain, apte à interpréter son environnement, à partir des informations visuelles délivrées par le robot. D’autres obstacles posent des problèmes de détection par les systèmes de vision ou de balayage conventionnels, comme les obstacles dits négatifs tels qu’une trappe dans un plancher, ou les obstacles qui, selon le point de vue, présentent une faible dimension, tels que des câbles, l’arête d’une paroi ou un obstacle de faible épaisseur tel qu’une table s’étendant essentiellement dans un plan parallèle au plancher sur lequel le robot évolue.
Le document US 8 688 275 décrit un robot équipé de deux systèmes de balayage de l’environnement par un faisceau laser, le plan médian de balayage de l’un des deux systèmes n’étant pas parallèle au plancher sur lequel évolue ledit robot. La combinaison des informations issues de ces deux dispositifs de reconnaissance de l’environnement permet notamment de détecter les obstacles négatifs et les obstacles s’étendant dans un plan parallèle au plancher.
Tous les arts antérieurs cités s’appliquent à des environnements relativement simples avec un faible nombre d’obstacles présents dans l’environnement. En revanche l’environnement rencontré par un robot dans une situation industrielle notamment dans un tronçon de fuselage d’aéronef lors d’opérations d’installation des systèmes comprend une très grande variété obstacles et une forte densité d’objets dans un volume réduit, objets susceptibles de changer de localisation dans ledit volume. Ainsi, au-delà de la capacité de détection des différents types d’obstacles, l’évolution dans un tel environnement nécessite que le robot soit en mesure de prendre les décisions adaptées, sans quoi celui-ci reste simplement immobile. L’invention vise à résoudre les inconvénients de l’art antérieur et concerne à cette fin un robot adapté pour évoluer dans un environnement défini, muni d’une pluralité de capteurs comprenant : a. deux caméras vidéo numériques monoculaires ; b. un dispositif de vision combinant une unité d’éclairage et une unité d’imagerie ; c. un système LiDAR monté sur une plate-forme panoramique ; d. des moyens de traitements et de contrôle comprenant un calculateur et des moyens de mémoire comprenant une cartographie de l’environnement défini, aptes à acquérir les informations issues des capteurs.
Ainsi, le robot objet de l’invention combine les informations issues de différents capteurs, fournissant chacun une vision différente d’un même environnement concentrique, pour détecter la présence d’obstacles et déterminer la nature de ces obstacles, afin de définir le comportement à adopter vis-à-vis desdits obstacles.
Le terme LiDAR s’applique à un capteur actif mesurant le temps de propagation aller et retour d'un faisceau lumineux, émis par un laser, pour déterminer la position et la distance d'une cible par rapport à l'émetteur.
Un exemple de dispositif de vision combinant une unité d’éclairage et une unité d’imagerie est décrit dans le document W02007/043036. Ce type de dispositif est connu commercialement sous la marque Carminé® et utilisé notamment dans les caméras de type Kinect®. L’invention est avantageusement mise en oeuvre selon les modes de réalisation et variantes exposés ci-après, lesquels sont à considérer individuellement et selon toute combinaison techniquement opérante.
Avantageusement, la résolution angulaire du LiDAR du robot objet de l’invention, est inférieure ou égale à 0,25°. Ainsi, ledit système est apte à détecter un obstacle de faible épaisseur, par exemple un câble de 8 mm de diamètre, à une distance de 2 mètres.
Selon un mode de réalisation avantageux, la pluralité de capteurs du robot objet de l’invention comprend : e. un second système LiDAR pointé vers le sol ;
Ainsi ledit second LiDAR est plus particulièrement spécialisé pour la détection des obstacles négatifs et réalise son balayage concentrique en temps masqué et éventuellement à une fréquence différente du premier LiDAR, ce qui permet également de spécialiser le premier LiDAR pour des tâches de détection particulières.
Avantageusement, les moyens de traitement et de contrôle du robot objet de l’invention comprennent en mémoire les caractéristiques tridimensionnelles de tous les objets susceptibles de se trouver dans l’environnement défini. Ainsi, le calculateur est apte à associer les contours acquis lors de l’observation de l’environnement concentrique du robot à des objets spécifiques et d’en déduire des comportements en fonction de la nature de ces objets.
Selon un mode de réalisation du robot objet de l’invention, l’environnement défini est un tronçon de fuselage d’aéronef dans une phase d’installation des systèmes dans ledit tronçon. Ainsi, cet environnement est changeant à mesure que les systèmes sont installés ou en cours d’installation dans ledit tronçon. Avantageusement l’environnement défini dont la cartographie est enregistrée dans la mémoire des moyens de traitement et de contrôle du robot correspond à une phase définie des opérations d’assemblage et le robot utilise ses capacités de reconnaissance de l’environnement pour prendre en compte l’évolution dudit environnement en regard de la cartographie initiale. L’invention concerne également un procédé pour piloter l’évolution d’un robot selon l’invention dans un environnement défini encombré, lequel procédé comprend des étapes consistant à : i. obtenir et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot, une cartographie de l’environnement défini dans lequel le robot évolue ; ii. obtenir et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot une liste d’objets et les caractéristiques tridimensionnelles desdits objets susceptibles de se trouver dans l’environnement défini du robot ; iii. obtenir et enregistrer dans les moyens de mémoire du robot une liste de tâches à réaliser et la localisation d’exécution desdites tâches dans l’environnement défini ; iv. réaliser un balayage de l’environnement concentrique du robot au moyen des systèmes LiDAR ; v. traiter les données issues du balayage de l’étape iv) de sorte à isoler des régions d’intérêt ; vi. obtenir une image des régions d’intérêt au moyen des caméras et du dispositif de vision ; vii. classer les obstacles présents dans l’environnement à partir de l’image obtenue à l’étape vi) en fonction de leurs caractéristiques de franchissement par le robot ; viii. adapter la trajectoire le comportement du robot et fonction des informations issues de l’étape vii) et de la tâche à réaliser définie à l’étape iii).
Ainsi le robot objet de l’invention utilise les informations provenant de la pluralité de capteurs pour analyser son environnement, plus particulièrement les systèmes LiDAR, peu sensibles à l’éclairement et aux conditions atmosphériques permet une première détection et classification des obstacles probable, y compris à des distances relativement importantes. Cette première classification permet de concentrer l’action des capteurs de vison sur les zones d’intérêt qui sont ainsi observées avec une résolution plus élevée. L’utilisation combinée des deux types de moyens de vision permet de réduire le bruit de mesure et la quantité de données à traiter pour une classification plus précise des obstacles.
Selon un mode de réalisation, l’étape vii) du procédé objet de l’invention comprend les séquences consistant à : vii.a filtrer le nuage de points correspondant aux données issues du dispositif de vision ; vii.b. sous-échantillonner le nuage de point obtenu à la séquence vii.a) ; vii.c. éliminer les points singuliers aberrants du nuage de points obtenu à la séquence vii.b) ; vii.d. déterminer la normale à la surface en chaque point du nuage obtenu à la séquence vii.c) ; vii.e classer les normales obtenues à la séquence vii.d) en normales franchissables et infranchissables.
Ainsi, les différentes séquences de filtrage rendent le calcul plus rapide et la détection des obstacles plus robuste vis-à-vis notamment de « faux obstacles » c’est-à-dire des zones détectées comme des obstacles mais qui ne sont que des artifices de mesure.
Avantageusement, l’étape vii) du procédé objet de l’invention comprend des séquences consistant à : vii.f combiner les images issues du dispositif de vision et celles issues d’une caméra monoculaire pour obtenir un contour précis des objets présents dans ladite image ; vii.g identifier les objets présents dans l’image en projetant les contours desdits objets issus des caractéristiques tridimensionnelles desdits objets obtenues à l’étape ii).
Ainsi, à l’issue de la séquence vii.g) le robot a connaissance de la nature des obstacles présents dans son environnement. Ainsi il lui est possible d’adapter son comportement en fonction desdits objets, par exemple, en respectant à tout moment une distance minimale par rapport à un type d’objet. La reconnaissance des objets présents dans l’environnement permet également d’associer à ces objets des attributs spatiaux qui ne sont pas accessibles lors de la mesure. Par exemple, elle permet d’associer à un objet qui ne serait vu que sur la tranche, une longueur selon une direction perpendiculaire à ladite tranche. Ainsi, la reconnaissance des objets est également utile pour le suivi desdits objets et de leur trajectoire relative entre deux mesures successives.
Ainsi, selon un mode de réalisation, le procédé objet de l’invention comprend avant l’étape viii) les étapes consistant à : ix. réaliser une première acquisition selon les étapes i) à vii) ; x. réaliser une deuxième acquisition selon les étapes i) à vii) ; xi. déterminer la trajectoire des objets détectés dans l’environnement du robot.
Ainsi le procédé objet de l’invention permet au robot d’obtenir une vision dynamique de son environnement.
Avantageusement, les acquisitions d’images de l’environnement des étapes iv) et vi) du procédé objet de l’invention sont réalisées en continu et stockées dans une zone de mémoire tampon avant d’être traitées. Ainsi, le robot dispose d’une vision fréquemment actualisée de son environnement et combine si nécessaire plusieurs acquisitions successives de cet environnement afin d’obtenir une représentation plus robuste.
Selon un mode de réalisation particulier du procédé objet de l’invention, l’environnement du robot comprend un deuxième robot partageant une même cartographie de l’environnement, les deux robots étant aptes à échanger des informations, lequel procédé comprend une étape consistant à : xii. transmettre au deuxième robot les informations issues de l’étape xi).
Ainsi les robots présents dans l’environnement d’intervention échangent des informations, ce qui leur permet d’anticiper des événements
Avantageusement, le procédé objet de l’invention comprend les étapes consistant à : xiii. réaliser un balayage du sol au moyen d’un LiDAR et détecter un obstacle négatif ; xiv. remplacer ledit obstacle négatif dans le nuage de points obtenu lors du balayage de l’étape xiii) par un obstacle virtuel positif dont le contour reprend celui de l’obstacle négatif ; xv. intégrer ledit obstacle virtuel positif au nuage de points obtenu à l’étape iv).
Ainsi, la détection et l’évitement d’un obstacle négatif suivent le même processus que pour les autres obstacles. L’invention est exposée ci-après selon ses modes de réalisation préférés, nullement limitatifs, et en référence aux figures 1 à 3, dans lesquelles : - la figure 1 montre selon une vue schématique de profil, un exemple de réalisation d’un robot selon l’invention dans son environnement ; - la figure 2 représente un logigramme d’un exemple de réalisation du procédé objet de l’invention ; - et la figure 3, représente schématiquement; selon la même vue que la figure 1, le principe de détection d’un obstacle négatif par le robot et le procédé objets de l’invention.
Figure 1, selon un exemple de réalisation, le robot (100) objet de l’invention comporte une base (110) supportant des moyens de motorisation (non représentés), des moyens de stockage d’énergie tels qu’une batterie d’accumulateurs (non représentée) ainsi que des moyens informatiques (non représentés) utilisés pour traiter les informations et piloter ledit robot, notamment les moyens de motorisation. Les moyens de motorisation commandent des moyens de déplacement, par exemple des roues (120) selon cet exemple de réalisation. Lesdits moyens de déplacement comportent des éléments propulsifs et des éléments directionnels de sorte à permettre au robot (100) de suivre une trajectoire définie dans son environnement. La base supporte des moyens d’outillage mécanisés, par exemple, selon cet exemple de réalisation, la base supporte un bras articulé (130) terminé par un effecteur (135). Selon des exemples de réalisation ledit effecteur (135) est adapté à la pose de fixations tels que des boulons ou des rivets, ou encore, est adapté à la réalisation d’une soudure continue ou par points, ou encore comporte des moyens d’usinage comme des moyens de perçage ou d’alésage ou des moyens de fraisage, de meulage ou d’ébavurage, sans que ces exemples ne soient limitatifs ni exhaustifs.
Le robot (100) objet de l’invention comprend une pluralité de capteurs dont les informations qu’ils permettent d’acquérir, utilisées seules ou en combinaison, permettent au robot de connaître son environnement concentrique. Ainsi, selon cet exemple de réalisation, le robot objet de l’invention comporte un premier LiDAR (140) monté sur une plate-forme (145) permettant de déplacer ledit LiDAR selon des mouvements panoramiques. Ladite plate-forme panoramique permet de déplacer le LiDAR selon deux axes, par exemple un axe panoramique horizontal et un axe panoramique vertical, correspondant à des mouvements de lacet et de tangage par rapport à l’axe optique du LiDAR. Selon un autre mode de réalisation, la plate-forme panoramique permet de déplacer le LiDAR selon un axe panoramique vertical (lacet) et autour de l’axe optique du capteur dans un mouvement de roulis. Ladite plate-forme (145) comprend des capteurs angulaires de position se sorte que les informations d’orientation de la plateforme sont combinées avec les informations issues du LiDAR lors de chaque balayage. Un LiDAR consiste en un dispositif apte à émettre un rayon faisceau laser et un capteur apte à détecter un tel faisceau laser. Ainsi, le LiDAR émet un faisceau laser et reçoit sur son capteur ledit faisceau réfléchi par une cible, c’est-à-dire un objet dans l’environnement du robot. Le temps séparant l’émission de la réception permet de mesurer la distance du point sur lequel a lieu cette réflexion et ainsi de positionner ledit point par rapport au LiDAR. À titre d’exemple non limitatif, le LiDAR utilisé par le robot objet de l’invention est de type Hokuyo UTM-30LX-EX, pemettant de réaliser une mesure jusqu’à une distance de 30 mètres et présentant une résolution de l’ordre du millimètre en profondeur et une résolution angulaire de 0,25°. Le balayage réalisé par le LiDAR décrit un secteur plan de 270° en 25 ms. Le déplacement panoramique, notamment vertical permet d’obtenir une image tridimensionnelle de l’environnement. Le déplacement panoramique horizontal permet d’augmenter le champ de vision à courte distance. La résolution de ce LiDAR permet de détecter la présence d’un câble de 8 mm de diamètre à 2 mètres du robot. Cette performance est plus particulièrement adaptée à l’utilisation du robot objet de l’invention en milieu aéronautique notamment dans un tronçon de fuselage. L’homme du métier adapte la résolution dudit LiDAR en fonction de l’environnement du robot, à partir de la formule suivante : d = 2D.s\n(0/2) où D est la distance à laquelle d’obstacle doit être détecté, d est la dimension visible de l’obstacle, par exemple le diamètre du câble et Θ est la résolution angulaire du LiDAR, cette donnée étant fournie par le constructeur.
Selon un exemple de réalisation, le robot comporte un second LiDAR (150) pointé vers le sol et apte à détecter des obstacles, plus particulièrement des obstacles négatifs (trous) au niveau du sol. À titre d’exemple non limitatif, le robot objet de l’invention utilise pour ce second LiDAR un matériel Hokuyo URG-04LX. Ce matériel permet de balayer une zone plane comprise à une distance de 60 mm à 4 mètres du robot, selon un angle de balayage de 240° en 100 ms.
Ainsi les systèmes LiDAR permettent d’obtenir rapidement une représentation de l’environnement, y compris à distance éloignée. Utilisant la réflexion d’un faisceau laser qu’ils émettent, ces dispositifs ne sont pas sensibles aux conditions d’éclairement des objets et sont peu sensibles aux conditions atmosphériques.
Le robot objet de l’invention comporte deux caméras (161, 162) numériques monoculaires distantes l’une de l’autre. Selon cet exemple de réalisation, les deux caméras sont les mêmes et sont montées de sorte que leurs axes optiques soient parallèles et leurs plans focaux dans le même plan. Ainsi les images desdites caméras sont utilisables indépendamment l’une de l’autre ou conjointement de sorte à obtenir une image stéréoscopique de l’environnement, ou d’utiliser lesdites caméras comme un télémètre vis-à-vis de détails spécifiques de l’environnement du robot (100). Avantageusement les deux caméras sont des caméras en couleur.
Finalement, le robot objet de l’invention comporte un dispositif (170) de vision comprenant des moyens d’imagerie et des moyens de projection dans le spectre infrarouge. À titre d’exemple non limitatif le robot objet de l’invention utilise à cette fin un dispositif Carminé®. Un tel dispositif projette une source de lumière infrarouge structurée sur l’environnement ce qui lui permet d’obtenir des informations de profondeur pour chaque point élémentaire de l’image. L’ensemble de capteurs du robot objet de l’invention est placé de manière modulaire en différents emplacements sur ledit robot selon la nature des obstacles rencontrés sur le site dans lequel le robot évolue afin d’optimaliser la détection desdits obstacles.
Le robot évolue dans un environnement défini, par exemple un tronçon de fuselage d’aéronef, ou une coque de navire ou de sous-marin, lequel environnement fait l’objet d’une cartographie enregistrée dans les moyens de mémoire du robot, mais dans lequel des objets non cartographiés sont susceptibles d’apparaître et d’entrer en collision avec ledit robot. À titre d’exemple, il s’agit d’obstacles statiques, tels que des seuils ou des trappes (191), d’outillages posés dans l’environnement, notamment par des opérateurs, par exemple une desserte (192), ou d’objets pendant du plafond, par exemple des câbles (193). Pour se déplacer dans l’environnement sans collision, le robot doit détecter ces objets et définir des trajectoires ou un comportement approprié. Par exemple, il lui faudra contourner une trappe (191), mais il est possible de passer sous un câble en utilisant une configuration appropriée du bras (130) manipulateur.
Aux obstacles statiques, s’ajoutent d’obstacles mobiles (non représentés) tels que des opérateurs ou d’autres robots, ou cobots. Ainsi, le robot objet de l’invention doit évaluer son environnement rapidement et prendre des décisions adéquates, mais, en tant que robot autonome, il ne dispose que d’une capacité de calcul limitée.
Le principe du procédé objet de l’invention consiste à utiliser les particularités de chaque capteur afin de focaliser les moyens de calcul du robot sur les zones utiles de la représentation de l’environnement, ce qui permet un traitement rapide de l’information et utilise moins de ressources de calcul.
Ainsi le ou les LiDAR (140,150) donnent une image de l’environnement riche en informations de profondeur mais comprenant peu de détails. À l’inverse l’image issue des caméras vidéos (161, 162) numériques est riche en détails mais plus pauvre en informations de profondeur. L’image issue du dispositif (170) de vision est intermédiaire mais permet d’enrichir dans une zone donnée la représentation des LiDAR.
Figure 2, selon des étapes d’initialisation du procédé objet de l’invention, une cartographie du milieu d’évolution du robot est chargée (210) dans les moyens de mémoire dudit robot. Le robot objet de l’invention est principalement destiné à évoluer dans un milieu assez restreint spatialement comme un tronçon de fuselage d’aéronef, par exemple pour réaliser des opérations d’installation de systèmes dans ledit tronçon. Ces opérations consistent, par exemple, à installer des supports dans ledit tronçon et à réaliser des opérations de perçage et de rivage, voir à assister un opérateur dans ces opérations. Aussi, à mesure que les systèmes sont installés dans le tronçon, la cartographie de celui-ci évolue. Ainsi, selon un exemple de mise en oeuvre du procédé objet de l’invention, ladite cartographie chargée dans les moyens de mémoire prend en compte l’évolution de l’avancement des travaux. Selon des exemples de réalisation la cartographie est une cartographie 3D ou une cartographie 2D dans laquelle le contour des obstacles est projeté.
Selon une autre étape (215) d’initialisation, l’ensemble des objets susceptibles d’être présents dans l’environnement du robot, par exemple dans le tronçon de fuselage sont enregistrés dans les moyens de mémoire. Selon un exemple de mise en oeuvre, chaque objet est associé à un code d’identification ou étiquette, à une représentation tridimensionnelle de l’objet dans un repère qui lui est lié et à un volume de sécurité décrivant une enveloppe polyédrique ou ellipsoïdale entourant l’objet à distance de celui-ci et définissant une zone qui ne doit pas être franchie pour des raisons de sécurité. La définition tridimensionnelle de l’objet est avantageusement une définition simplifiée limitée à ses contours extérieurs. Avantageusement également, les informations relatives à chaque objet comprennent des informations de couleur et de teinte, ainsi, en choisissant une teinte appropriée pour chaque objet la présence de celui-ci est facilement détectée à partir d’une image en couleur. Tout comme la cartographie, selon un mode de réalisation particulier, la liste est mise à jour en fonction de la phase de fabrication concernée, de sorte à la limiter au strict nécessaire.
La cartographie du milieu d’intervention étant enregistrée dans les moyens de mémoire du robot, celui-ci est à même de se localiser dans ce milieu à tout moment en utilisant des informations idiothétiques, par exemple le nombre de tours de roue des roues propulsives et l’orientation des roues directionnelles, ou par une boussole numérique, et des informations allothétiques, par exemple par triangulation de balises posées dans le milieu d’intervention. Ces méthodes sont connues de l’art antérieur et ne sont pas exposées plus avant.
Les tâches que le robot est amené à réaliser dans l’environnement ainsi que la localisation de ces tâches dans l’environnement sont également enregistrées (216) dans les moyens de mémoire.
Afin de déterminer son environnement concentrique, selon un exemple de réalisation, le robot réalise simultanément un balayage (221) de l’environnement au moyen du premier LiDAR, un balayage (222) de l’environnement au moyen du deuxième LiDAR, lorsqu’il en comporte deux, une acquisition d’image (223) au moyen du dispositif de vision, et une acquisition (224) d’image au moyen de chaque caméra vidéo numérique. Ces acquisitions sont enregistrées (230) dans une mémoire tampon et horodatées afin d’être traitées. Selon un mode de réalisation particulier, afin de réduire le bruit dans les images, plusieurs acquisitions successives sont moyennées.
Le premier traitement (240) consiste, à partir des images issues d’un ou des LiDAR, à extraire de ces images des zones d’intérêt. Ces zones d’intérêt sont, par exemple, des zones de l’acquisition dont les contours diffèrent de la cartographie.
Au cours d’un deuxième traitement (250) lesdites zones d’intérêt sont examinées par leur représentation dans l’acquisition réalisée par les moyens de vision. Selon une première séquence de traitement (251) le nuage de points correspondant est filtré à partir des conditions mesurées de réflexion dans l’infrarouge. Cette première séquence de filtrage permet de supprimer du traitement les points éloignés du robot. Selon une deuxième (252) séquence de traitement, le nuage de points est sous-échantillonné. Afin de réduire le nombre de points à traiter, l’espace est maillé selon un maillage polyédrique approprié, par exemple un maillage cubique. Selon un exemple de traitement tous les points se trouvant dans une même maille sont remplacés par un point positionné au centre de ladite maille et prenant pour valeur la moyenne des points ou toute autre pondération appropriée. Ce traitement réduit le bruit et le nombre de points à traiter. Une troisième (253) séquence de traitement consiste à éliminer du nuage de points, les points singuliers considérés comme aberrants. À cette fin, chaque mesure obtenue en un point est comparée à la mesure obtenue sur ses plus proches voisins en calculant le carré de l’écart de mesure entre ces points. Étant supposé que pour un groupe de points donné, la distribution de la mesure suit une loi de χ2, les points situés à plus de n écarts type de la moyenne sont éliminés. Cette technique permet d’éviter les variations stochastiques à l’intérieur du nuage de points, en revanche il limite les capacités de détecter des arêtes vives. Selon une quatrième séquence (254) de traitement, l’orientation des normales est calculée en chaque point du nuage de points. L’orientation des normales permet au cours d’une étape d’analyse (255) de déterminer les points et les zones présentant des difficultés potentielles de franchissement. Ainsi, une zone est franchissable lorsque sa normale est verticale. Lorsque la normale présente une composante horizontale, la zone présente des difficultés de franchissement.
Au cours d’une étape d’identification (260) l’image issue d’une ou des deux caméras vidéos numériques, est superposée à l’image obtenue précédemment. La haute résolution de ces images permet notamment d’identifier les contours ou la teinte des objets susceptibles de se trouver dans les zones présentant des difficultés de franchissement, et, en combinant ces informations avec les informations relatives aux normales aux surfaces, d’identifier et d’étiqueter les objets présents dans l’environnement. Ainsi, à partir de ces informations le robot est en mesure de décider (270) d’une séquence d’évitement appropriée.
Selon un mode de réalisation tenant compte du déplacement des objets dans l’environnement, les étapes précédentes (221... 260) sont répétées et les acquisitions sont corrélées (265) de sorte à déterminer une vitesse de déplacement et une trajectoire des objets présents dans l’environnement du robot. Ainsi la décision (270) d’une séquence d’évitement tient compte de ces informations.
Figure 3, selon un exemple de mise en oeuvre, le LiDAR ou le second LiDAR (150) du robot objet de l’invention est pointé ou pointable vers le sol afin de détecter un obstacle négatif (191). L’acquisition réalisée à cette occasion constitue un second nuage de points. Afin de traiter ce nuage de points selon un processus similaire au premier, l’obstacle négatif est remplacé, pour le traitement, par un obstacle (391) virtuel positif, présentant des normales horizontales (390) sur ses faces latérales. Selon un exemple de mise oeuvre, ledit obstacle virtuel (391) reprend le contour de l’obstacle négatif (191) réel, mais une hauteur de parois latérales prédéfinie, par exemple 1 mètre, de sorte que celui-ci est immédiatement reconnaissable. Ledit obstacle virtuel est intégré dans la scène observée et traitée avec le reste de l’acquisition à partir de la quatrième étape du procédé objet de l’invention.
La description ci-avant montre que l’invention atteint les objectifs visés, en particulier, l’invention permet à un robot autonome de se repérer de manière précise dans un environnement évolutif et encombré. Ledit robot est ainsi avantageusement mis en oeuvre pour des opérations d’assemblage et d’installations de systèmes notamment dans un tronçon d’aéronef ou dans une structure navale. Le robot autonome objet de l’invention est particulièrement adapté à des interventions en milieu difficiles d’accès ou dans des conditions d’environnement particulières ou dangereuses telles qu’en présence de gaz, de chaleur ou de froid ou encore de rayonnement ionisants. Selon d’autres modes de mise en oeuvre, le robot objet de l’invention comprend des moyens spécifiquement adaptés pour des opérations de réparation sur coque ou sur fuselage, lesdites opérations comprenant des opérations de fabrication additive. À cette fin le robot objet de l’invention comporte selon ce mode de réalisation : - un effecteur de fabrication additive, porté par le bras articulé, par exemple une buse à projection de poudre en fusion ou une buse d’extrusion de fil thermoplastique ; - des moyens pour ajuster la position dudit effecteur en fonction des informations issues de la pluralité de capteurs, notamment par reconnaissance de la pièce à assembler ou à réparer.
Claims (12)
- REVENDICATIONS1. Robot (100) adapté pour évoluer dans un environnement défini, muni d’une pluralité de capteurs caractérisé en ce qu’il comprend : a. deux caméras vidéo (161, 162) numériques monoculaires ; b. un dispositif (170) de vision comportant une unité d’éclairage et une unité d’imagerie ; c. un système LiDAR (140) monté sur une plate-forme (145) panoramique ; d. des moyens de traitements et de contrôle comprenant un calculateur et des moyens de mémoire comportant une cartographie de l’environnement défini, aptes à acquérir les informations issues des capteurs
- 2. Robot selon la revendication 1, dans lequel la résolution angulaire du système LiDAR (140) est inférieure ou égale à 0,25°.
- 3. Robot selon la revendication 1, dans lequel la pluralité de capteurs comprend : e. un second système LiDAR (150) pointé vers le sol ;
- 4. Robot selon la revendication 1, dans lequel les moyens de traitement et de contrôle comprennent en mémoire les caractéristiques tridimensionnelles de tous les objets susceptibles de se trouver dans l’environnement défini.
- 5. Robot selon la revendication 4, dans lequel l’environnement défini est un tronçon de fuselage d’aéronef dans une phase d’installation des systèmes dans ledit tronçon.
- 6. Procédé pour piloter l’évolution d’un robot selon la revendication 1 dans un environnement défini encombré, caractérisé en ce qu’il comprend des étapes consistant à : i. obtenir (210) et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot, une cartographie de l’environnement défini dans lequel le robot évolue ; ii. obtenir (215) et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot une liste d’objets et les caractéristiques tridimensionnelles desdits objets susceptibles de se trouver dans l’environnement défini du robot ; iii. obtenir (216) et enregistrer dans Is moyens de mémoire du robot une liste de tâches à réaliser et la localisation d’exécution desdites tâches dans l’environnement défini ; iv. réaliser (221) un balayage de l’environnement concentrique du robot au moyen des systèmes LiDAR ; v. traiter (240) les données issues du balayage de l’étape iv) de sorte à isoler des régions d’intérêt ; vi. obtenir une image des régions d’intérêt au moyen des caméras et du dispositif de vision ; vii. classer (255) les obstacles présents dans l’environnement à partir de l’image obtenue à l’étape vi) en fonction de leurs caractéristique de franchissement par le robot ; viii. adapter (270) la trajectoire et le comportement du robot et fonction des informations issues de l’étape vii) et de la tâche à réaliser définie à l’étape iii).
- 7. Procédé selon la revendication 6, dans lequel l’étape vii) comprend les séquences consistant à : vii.a filtrer (251 ) le nuage de points correspondant aux données issues du dispositif de vision ; vii.b. sous-échantillonner (252) le nuage de point obtenu à la séquence vii.a) ; vii.c. éliminer les points singuliers aberrants (253) du nuage de points obtenu à la séquence vii.b) ; vii.d. déterminer (254) la normale à la surface en chaque point du nuage obtenu à la séquence vii.c) ; vii.e classer (255) les normales obtenues à la séquence vii.d) en normales franchissables et normales infranchissables.
- 8. Procédé selon la revendication 6, dans lequel l’étape vii) comprend des séquences consistant à : vii.f combiner (260) les images issues du dispositif de vision et celles issues d’une caméra monoculaire pour obtenir un contour précis des objets présents dans ladite image ; vii.g identifier les objets présents dans l’image en projetant les contours desdits objets issus des caractéristiques tridimensionnelles desdits objets obtenues à l’étape ii).
- 9. Procédé selon la revendication 6, comprenant avant l’étape viii) les étapes consistant à : ix. réaliser une première acquisition selon les étapes i) à vii) ; x. réaliser une deuxième acquisition selon les étape i) à vii) ; xi. déterminer (265) la trajectoire des objets détectés dans l’environnement du robot.
- 10. Procédé selon la revendication 6, dans lequel les acquisitions d’images de l’environnement des étapes iv) et vi) sont réalisées en continu et stockées dans une zone de mémoire tampon avant d’être traitées.
- 11. Procédé selon la revendication 6, dans lequel l’environnement du robot comprend un deuxième robot partageant une même cartographie de l’environnement, les deux robots étant aptes à échanger des informations, et qui comprend une étape consistant à : xii. transmettre au deuxième robot les informations issues de l’étape xi).
- 12. Procédé selon la revendication 6, comprenant les étapes consistant à : xiii. réaliser un balayage du sol au moyen d’un LiDAR (140, 150) et détecter un obstacle (191) négatif ; xiv. remplacer ledit obstacle négatif (191) dans le nuage de points obtenu lors du balayage de l’étape xiii), par un obstacle virtuel positif dont le contour reprend celui de l’obstacle (191) négatif ; xv. Intégrer ledit obstacle virtuel (391) positif au nuage de points obtenu à l’étape iv).
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1557615A FR3039904B1 (fr) | 2015-08-07 | 2015-08-07 | Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile |
PCT/EP2016/068916 WO2017025521A1 (fr) | 2015-08-07 | 2016-08-08 | Dispositif et procédé pour la détection d'obstacles adaptés à un robot mobile |
EP16750807.6A EP3332299A1 (fr) | 2015-08-07 | 2016-08-08 | Dispositif et procédé pour la détection d'obstacles adaptés à un robot mobile |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1557615A FR3039904B1 (fr) | 2015-08-07 | 2015-08-07 | Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile |
FR1557615 | 2015-08-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3039904A1 true FR3039904A1 (fr) | 2017-02-10 |
FR3039904B1 FR3039904B1 (fr) | 2019-06-14 |
Family
ID=54207576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1557615A Active FR3039904B1 (fr) | 2015-08-07 | 2015-08-07 | Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3332299A1 (fr) |
FR (1) | FR3039904B1 (fr) |
WO (1) | WO2017025521A1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019101651A1 (fr) * | 2017-11-27 | 2019-05-31 | Robert Bosch Gmbh | Procédé et dispositif de fonctionnement d'un système mobile |
CN111152237A (zh) * | 2020-01-22 | 2020-05-15 | 深圳国信泰富科技有限公司 | 一种两侧设置激光雷达的机器人头部及其环境采样方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201703968D0 (en) * | 2017-03-13 | 2017-04-26 | Computational Eng Sg | System for building situation awareness |
CN113126640B (zh) * | 2019-12-31 | 2022-06-28 | 北京三快在线科技有限公司 | 用于无人机的障碍物探测方法、装置、无人机和存储介质 |
CN111429520B (zh) * | 2020-03-02 | 2023-11-03 | 广州视源电子科技股份有限公司 | 负障碍物检测方法、装置、终端设备和存储介质 |
CN111427363B (zh) * | 2020-04-24 | 2023-05-05 | 深圳国信泰富科技有限公司 | 一种机器人导航控制方法及系统 |
CN111988524A (zh) * | 2020-08-21 | 2020-11-24 | 广东电网有限责任公司清远供电局 | 一种无人机与摄像头协同避障方法、服务器及存储介质 |
CN115040031B (zh) * | 2021-02-26 | 2024-03-29 | 云米互联科技(广东)有限公司 | 环境信息采集方法、扫地机、终端设备及可读存储介质 |
CN113900435B (zh) * | 2021-08-31 | 2022-09-27 | 深圳蓝因机器人科技有限公司 | 基于双摄像头的移动机器人避障方法、设备、介质及产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6151539A (en) * | 1997-11-03 | 2000-11-21 | Volkswagen Ag | Autonomous vehicle arrangement and method for controlling an autonomous vehicle |
US20070280528A1 (en) * | 2006-06-02 | 2007-12-06 | Carl Wellington | System and method for generating a terrain model for autonomous navigation in vegetation |
US20080027591A1 (en) * | 2006-07-14 | 2008-01-31 | Scott Lenser | Method and system for controlling a remote vehicle |
US20120182392A1 (en) * | 2010-05-20 | 2012-07-19 | Irobot Corporation | Mobile Human Interface Robot |
US20140136414A1 (en) * | 2006-03-17 | 2014-05-15 | Raj Abhyanker | Autonomous neighborhood vehicle commerce network and community |
WO2014152254A2 (fr) * | 2013-03-15 | 2014-09-25 | Carnegie Robotics Llc | Procédés, systèmes, et appareil de vision stéréoscopique multi-sensorielle pour la robotique |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9463574B2 (en) * | 2012-03-01 | 2016-10-11 | Irobot Corporation | Mobile inspection robot |
-
2015
- 2015-08-07 FR FR1557615A patent/FR3039904B1/fr active Active
-
2016
- 2016-08-08 EP EP16750807.6A patent/EP3332299A1/fr not_active Withdrawn
- 2016-08-08 WO PCT/EP2016/068916 patent/WO2017025521A1/fr active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6151539A (en) * | 1997-11-03 | 2000-11-21 | Volkswagen Ag | Autonomous vehicle arrangement and method for controlling an autonomous vehicle |
US20140136414A1 (en) * | 2006-03-17 | 2014-05-15 | Raj Abhyanker | Autonomous neighborhood vehicle commerce network and community |
US20070280528A1 (en) * | 2006-06-02 | 2007-12-06 | Carl Wellington | System and method for generating a terrain model for autonomous navigation in vegetation |
US20080027591A1 (en) * | 2006-07-14 | 2008-01-31 | Scott Lenser | Method and system for controlling a remote vehicle |
US20120182392A1 (en) * | 2010-05-20 | 2012-07-19 | Irobot Corporation | Mobile Human Interface Robot |
WO2014152254A2 (fr) * | 2013-03-15 | 2014-09-25 | Carnegie Robotics Llc | Procédés, systèmes, et appareil de vision stéréoscopique multi-sensorielle pour la robotique |
Non-Patent Citations (1)
Title |
---|
EL-HAKIM S F ET AL: "A system for indoor 3-D mapping and virtual environments", OPTOMECHATRONIC MICRO/NANO DEVICES AND COMPONENTS III : 8 - 10 OCTOBER 2007, LAUSANNE, SWITZERLAND; [PROCEEDINGS OF SPIE , ISSN 0277-786X], SPIE, BELLINGHAM, WASH, vol. 3174, 7 July 1997 (1997-07-07), pages 21 - 35, XP002605855, ISBN: 978-1-62841-730-2, DOI: 10.1117/12.279791 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019101651A1 (fr) * | 2017-11-27 | 2019-05-31 | Robert Bosch Gmbh | Procédé et dispositif de fonctionnement d'un système mobile |
CN111373338A (zh) * | 2017-11-27 | 2020-07-03 | 罗伯特·博世有限公司 | 用于操作移动系统的方法和设备 |
CN111152237A (zh) * | 2020-01-22 | 2020-05-15 | 深圳国信泰富科技有限公司 | 一种两侧设置激光雷达的机器人头部及其环境采样方法 |
CN111152237B (zh) * | 2020-01-22 | 2023-12-22 | 深圳国信泰富科技有限公司 | 一种两侧设置激光雷达的机器人头部及其环境采样方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3332299A1 (fr) | 2018-06-13 |
WO2017025521A1 (fr) | 2017-02-16 |
FR3039904B1 (fr) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3039904B1 (fr) | Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile | |
CA2940824C (fr) | Systeme radar a lumiere a resolution variable | |
US12117553B2 (en) | LIDAR systems and methods for detection and classification of objects | |
US10884110B2 (en) | Calibration of laser and vision sensors | |
US20220236411A1 (en) | Apparatus for acquiring 3-dimensional maps of a scene | |
EP2824418A1 (fr) | Système de détection d'ambiance | |
JP2015535337A (ja) | 角度スキャン速度の動的調整を伴うレーザスキャナ | |
US20210018611A1 (en) | Object detection system and method | |
WO2015185749A1 (fr) | Dispositif de detection a plans croises d'un obstacle et procede de detection mettant en oeuvre un tel dispositif | |
US20240077586A1 (en) | Method for generating intensity information having extended expression range by reflecting geometric characteristic of object, and lidar apparatus performing same method | |
Filisetti et al. | Developments and applications of underwater LiDAR systems in support of marine science | |
JP2022530349A (ja) | 三角測量ライトカーテンを使用したアジャイルな深度感知 | |
US11536807B2 (en) | Systems and methods for modifying LIDAR field of view | |
KR101888170B1 (ko) | 무인 수상정의 장애물 탐지 시 노이즈 제거방법 및 장치 | |
Vela et al. | A relative navigation module based on visual and ranging measurements for CubeSat applications | |
EP3757943B1 (fr) | Procédé et dispositif de télémétrie passive par traitement d'image et utilisation de modeles en trois dimensions | |
US20240219542A1 (en) | Auto-level step for extrinsic calibration | |
US20220207761A1 (en) | Agile depth sensing using triangulation light curtains | |
Guerrero-Bañales et al. | Use of LiDAR for Negative Obstacle Detection: A Thorough Review | |
CN118226463A (zh) | 广角深度成像模块和包括广角深度成像模块的现实捕获设备 | |
CN116794675A (zh) | 多对象定位装置、定位方法及机器人集群 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20170210 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |
|
PLFP | Fee payment |
Year of fee payment: 10 |