FR2926240A1 - Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede. - Google Patents

Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede. Download PDF

Info

Publication number
FR2926240A1
FR2926240A1 FR0800209A FR0800209A FR2926240A1 FR 2926240 A1 FR2926240 A1 FR 2926240A1 FR 0800209 A FR0800209 A FR 0800209A FR 0800209 A FR0800209 A FR 0800209A FR 2926240 A1 FR2926240 A1 FR 2926240A1
Authority
FR
France
Prior art keywords
robot
specific tool
movements
virtual
virtual guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0800209A
Other languages
English (en)
Other versions
FR2926240B1 (fr
Inventor
Laredj Benchikh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BLM SOC RESPONSABILITE Ltee
Original Assignee
BLM SOC RESPONSABILITE Ltee
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BLM SOC RESPONSABILITE Ltee filed Critical BLM SOC RESPONSABILITE Ltee
Priority to FR0800209A priority Critical patent/FR2926240B1/fr
Priority to US12/812,792 priority patent/US20110046783A1/en
Priority to JP2010541861A priority patent/JP2011509835A/ja
Priority to PCT/IB2009/000066 priority patent/WO2009090542A2/fr
Priority to EP09702428A priority patent/EP2242621A2/fr
Publication of FR2926240A1 publication Critical patent/FR2926240A1/fr
Application granted granted Critical
Publication of FR2926240B1 publication Critical patent/FR2926240B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36432By putting some constraints on some DOF, move within limited volumes, areas, planes, limits motion in x, y or z planes, virtual reality constraints

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

La présente invention concerne un dispositif (10) d'apprentissage d'un robot (11), ce robot étant agencé pour effectuer des tâches automatisées en vue d'accomplir diverses fonctions notamment, de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique (13), sur une pièce (14).Le dispositif (10) comporte des moyens de commande (15) pour effectuer lesdits déplacements d'un outil spécifique (13) du robot (11). Au moins un guide virtuel (17) est associé à la pièce (14) définissant un espace agencé pour délimiter une trajectoire d'amenée de l'outil spécifique (13) sur une zone d'intervention prédéterminée de ladite pièce (14), la zone d'intervention prédéterminée étant associée audit guide virtuel (17). Enfin le dispositif (10) comporte un ordinateur (16) pour enregistrer les coordonnées spatiales dudit outil spécifique (13) par rapport à un repère donné (R1) dans lequel est positionnée ladite pièce (14), lorsque cet outil (13) est effectivement situé sur ladite zone d'intervention prédéterminée.

Description

i PROCEDE POUR L'APPRENTISSAGE D'UN ROBOT OU SIMILAIRE ET DISPOSITIF POUR LA MISE EN OEUVRE DE CE PROCEDE
La présente invention concerne un procédé d'apprentissage d'un robot s ou similaire, ce robot étant agencé pour effectuer des tâches automatisées pour accomplir notamment, diverses fonctions de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique, sur une pièce, ledit apprentissage étant réalisé pour définir avec précision les déplacements d'un outil spécifique dudit robot, requis dans le cadre de l'accomplissement des io tâches à exécuter sur ladite pièce et pour enregistrer les paramètres desdits déplacements de l'outil spécifique dudit robot.
L'invention concerne également un dispositif d'apprentissage d'un robot ou similaire, pour la mise en oeuvre du procédé, ce robot étant agencé pour 15 effectuer des tâches automatisées en vue d'accomplir diverses fonctions, notamment de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique, sur une pièce, ledit apprentissage étant réalisé pour définir avec précision les déplacements d'un outil spécifique de ce robot, requis dans le cadre de l'accomplissement de ses tâches et consistant à déterminer et 20 à enregistrer les paramètres de ces déplacements.
Dans ce que l'on appelle couramment la CAO robotique dans le domaine industriel, c'est-à-dire la conception assistée par ordinateur de robots, la programmation de ces robots se fait habituellement dans un milieu 25 exclusivement virtuel, ce qui engendre des écarts importants par rapport au réel. En effet, le robot virtuel qui est issu d'un registre appelé librairie pré définie est toujours un robot parfait qui ne tient compte d'aucune tolérance de construction ni de fonctionnement. De ce fait, on constatera dans la pratique qu'il y a des décalages importants entre les trajectoires parfaites 30 effectuées par le robot virtuel conformément à sa programmation et les trajectoires réelles effectuées par le robot réel avec ses défauts. Ce constat oblige les utilisateurs à faire des retouches en de nombreux points de la trajectoire lors de la mise en oeuvre du programme avec un robot réel. Ces écarts sont dus au fait que le robot virtuel n'est pas une image fidèle du robot réel en raison de jeux mécaniques, de tolérances de fabrication, de l'usure mécanique ou similaires qui sont inexistants dans le monde virtuel.
Un autre inconvénient de cette méthode résulte de ce que les mouvements des composés accessoires souvent désignés par l'expression accastillage , embarqués sur le robot tels que des câbles, des tuyaux, des housses, etc. ne peuvent être simulés en CAO car ces composés accessoires sont obligatoirement fixes. Ceci risque d'engendrer des interférences et des lo collisions avec une pièce réelle sur laquelle le robot travaille, lors du passage du programme sur le robot réel, même si d'éventuelles retouches ont été apportées à titre de corrections. Enfin, les temps de cycles de robot calculés par une CAO sont approximatifs, car ils sont liés à la fréquence d'échantillonnage et de calcul de 15 temps de l'ordinateur, ce temps n'étant pas le même que celui déterminé par le robot. En d'autres termes, la base de temps de l'ordinateur peut différer de celle du robot. Un autre mode d'apprentissage est souvent pratiqué. Il s'agit de l'apprentissage dit manuel. La programmation manuelle a pour inconvénient 20 majeur d'être une programmation approximative car elle est réalisée avec l'oeil de l'opérateur et nécessite des retouches continuelles durant toute la vie de la pièce travaillée par le robot en vue d'atteindre un fonctionnement optimal. De plus, cette technique nécessite la présence de la pièce réelle pour pouvoir effectuer l'apprentissage, ce qui peut créer de nombreux problèmes. D'une part, 25 dans certains secteurs, tel que par exemple l'industrie automobile, la réalisation d'un, voire de plusieurs prototypes successifs, implique un coût excessivement élevé et implique des délais extrêmement longs pour la réalisation. De surcroît, la réalisation de prototypes dans ce domaine pose des problèmes très complexes en ce qui concerne la confidentialité. Enfin, l'apprentissage sur pièce 3o réelle doit se faire obligatoirement à coté du robot et ne peut pas être télécommandé, ce qui entraîne des risques de collisions entre le robot et l'opérateur.
Toutes ces questions qui ont été évoquées ci-dessus représentent des s inconvénients graves qui génèrent des coûts élevés, engendrent des délais de réalisation importants et ne permettent pas d'aboutir à des solutions techniquement satisfaisantes. Le problème de la programmation ou l'apprentissage des robots est d'autant plus compliqué que la forme des objets sur lesquels les robots sont appelés à travailler est plus complexe. Or c'est io précisément pour les formes complexes que les robots sont théoriquement avantageux. Les modes de programmations actuels constituent des freins en matière de coût et en matière de délais pour l'application des robots. De surcroît, le travail de programmation nécessite le recours à des spécialistes de très haut niveau et ayant acquis une grande expérience dans leur domaine. 15 La présente invention se propose de pallier à l'ensemble de ces inconvénients, en particulier en concevant un procédé et un dispositif de mise en oeuvre de ce procédé qui permettent de faciliter l'apprentissage ou la programmation de robots destinés à effectuer des tâches complexes sur des 20 pièces compliquées, de réduire le temps d'apprentissage, de respecter la confidentialité des essais réalisés, et de travailler à distance.
Ce but est atteint par le procédé selon l'invention, caractérisé en ce que l'on associe à ladite pièce au moins un guide virtuel définissant un espace 25 agencé pour délimiter une trajectoire d'amenée dudit outil spécifique dudit robot sur une zone d'intervention prédéterminée de ladite pièce, cette zone d'intervention prédéterminée étant associée audit guide virtuel, en ce que l'on amène ledit outil spécifique dudit robot sur ladite zone d'intervention prédéterminée associée audit guide virtuel en utilisant ce guide et en ce que l'on 30 enregistre les coordonnées spatiales dudit outil spécifique dudit robot, par rapport à un repère donné dans lequel est positionnée ladite pièce, lorsque cet outil est effectivement situé sur ladite zone d'intervention prédéterminée. 25 Selon une forme de mise en oeuvre particulièrement avantageuse, l'on effectue l'apprentissage du robot ou similaire sur une image virtuelle de ladite pièce et l'on effectue lesdits déplacements avec un robot réel. Toutefois, l'on s peut également effectuer lesdits déplacements avec un robot virtuel qui est l'image exacte du robot réel utilisé après son apprentissage. Selon un premier mode de fonctionnement, l'on effectue lesdits déplacements dudit outil spécifique d'une façon manuelle. Selon un deuxième mode de fonctionnement, l'on effectue lesdits déplacements dudit outil spécifique d'une façon mécanique. i0 D'une manière préférentielle, l'on utilise un guide virtuel ayant une forme géométrique qui délimite un espace défini, et l'on effectue l'apprentissage dudit robot en amenant dans une première étape, ledit outil spécifique dans ledit espace défini et en déplaçant, au cours d'une deuxième étape, ledit outil is spécifique vers un point caractéristique du guide virtuel, ce point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce.
Le guide virtuel peut avoir une forme de cône et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de 20 la pièce est le sommet du cône.
Ledit guide virtuel peut avoir une forme de sphère et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce est le centre de la sphère. Pour perfectionner l'utilisation du procédé, l'on peut associer au moins une mire à un espace de travail dans lequel sont disposés la pièce et le robot et utiliser au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot dans l'espace de travail. 30 Un perfectionnement complémentaire consiste à associer au moins une première mire à un espace de travail dans lequel sont disposés la pièce et le robot et une deuxième mire à l'outil spécifique du robot et à utiliser au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot et ceux de l'outil spécifique dans l'espace de travail.
Un autre perfectionnement consiste à associer au moins une première mire à un espace de travail dans lequel sont disposés la pièce et le robot, une deuxième mire à l'outil spécifique du robot et au moins une troisième mire sur au moins un des composants mobiles du robot, et à utiliser au moins une caméra io pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot, d'au moins un de ses composants mobiles et ceux de l'outil spécifique dans l'espace de travail.
L'on peut avantageusement effectuer lesdites opérations d'apprentissage 15 à distance par communications à travers une interface couplée à une unité de commande du robot.
Ce but est également atteint par le dispositif de l'invention, caractérisé en ce qu'il comporte des moyens de commande pour effectuer lesdits 20 déplacements dudit outil spécifique, des moyens pour associer à ladite pièce au moins un guide virtuel définissant un espace agencé pour délimiter une trajectoire d'amenée dudit outil spécifique dudit robot sur une zone d'intervention prédéterminée de ladite pièce, cette zone d'intervention prédéterminée étant associée audit guide virtuel, des moyens pour amener ledit outil spécifique dudit 25 robot sur ladite zone d'intervention prédéterminée associée audit guide virtuel en utilisant ce guide et des moyens pour enregistrer les coordonnées spatiales dudit outil spécifique dudit robot, par rapport à un repère donné dans lequel est positionnée ladite pièce, lorsque cet outil est effectivement situé sur ladite zone d'intervention prédéterminée. 30 Selon une forme de réalisation préférée, ladite pièce est virtuelle et ledit robot est un robot réel. Toutefois, ledit robot peut également être un robot virtuel qui est l'image exacte du robot réel utilisé en production après l'apprentissage.
s Selon une première construction avantageuse, le dispositif comporte des moyens pour effectuer des déplacements manuels dudit robot. Selon une deuxième construction avantageuse, le dispositif comporte des moyens pour effectuer des déplacements automatiques dudit robot.
lo D'une manière préférentielle, ledit guide virtuel a une forme géométrique qui délimite un espace défini, des moyens pour amener dans une première étape, ledit outil spécifique dans ledit espace défini et des moyens pour déplacer, au cours d'une deuxième étape, ledit outil spécifique vers un point caractéristique du guide virtuel, ce point caractéristique correspondant 15 avec ladite zone d'intervention prédéterminée de la pièce.
Ledit guide virtuel peut avoir une forme de cône et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce peut être le sommet du cône. Ledit guide virtuel peut avoir une forme de sphère et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce peut être le centre de la sphère.
25 De façon préférentielle, le dispositif comporte au moins une mire associée à un espace de travail dans lequel sont disposés la pièce et le robot et au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot dans l'espace de travail.
30 Selon un premier perfectionnement, le dispositif peut comporter au moins une première mire associée à un espace de travail dans lequel sont disposés la pièce et le robot et au moins une deuxième mire associée à l'outil 20 30 spécifique du robot, ainsi qu'au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot et ceux de l'outil spécifique dans l'espace de travail.
Selon un deuxième perfectionnement, le dispositif peut comporter au moins une première mire associée à un espace de travail dans lequel sont disposés la pièce et le robot, au moins une deuxième mire à l'outil spécifique du robot et au moins une troisième mire sur au moins un des composants mobiles du robot, ainsi qu'au moins une caméra pour réaliser des images dudit espace io de travail en vue de calibrer les déplacements de l'embase du robot, d'au moins un de ses composants mobiles et ceux de l'outil spécifique dans l'espace de travail.
La présente invention et ses avantages seront mieux compris à la 15 lecture de la description détaillée de plusieurs formes de réalisations du dispositif, destinés à mettre en oeuvre le procédé de l'invention, en référence aux dessins annexés donnés à titre indicatif et non limitatif, dans lesquels :
- la figure 1 est une vue schématique représentant une première forme de 20 réalisation du dispositif selon l'invention,
- la figure 2 est une vue schématique représentant une deuxième forme de réalisation du dispositif selon l'invention,
25 - la figure 3 représente une vue schématique représentant une troisième forme de réalisation du dispositif selon l'invention,
- la figure 4 représente une vue schématique représentant une quatrième forme de réalisation du dispositif selon l'invention, et la figure 5 représente un diagramme de fonctionnement illustrant le procédé de l'invention.
En référence à la figure 1, le dispositif 10 selon l'invention comporte principalement un robot 11 ou similaire qui est monté sur une embase 12 et qui porte au moins un outil spécifique 13 pour accomplir une ou plusieurs s tâches automatisées et notamment diverses fonctions de traitement, de montage, de conditionnement, de maintien. Le robot 11, dont la caractéristique de base est le nombre de ses axes mobiles, est conçu selon les fonctions qu'il doit accomplir et comprend un certain nombre d'éléments articulés et motorisés 11a, 11 b, 11c par exemple. Le dispositif 10 comporte io par ailleurs une pièce 14 prévue pour être traitée par ledit outil spécifique 13. Cette pièce 14, représentée sous le profil d'un véhicule automobile, est avantageusement virtuelle et les tâches à exécuter par l'outil spécifique 13 du robot 11 sont apprises au moyen de cette pièce virtuelle en prévision d'interventions futures sur des pièces réelles correspondant à cette image 15 virtuelle.
Le dispositif 10 comporte en plus un boîtier de commande 15 du robot 11 qui est d'une part connecté au robot 11 et d'autre part à un ordinateur 16 classique. L'ensemble de ces éléments est localisé dans un espace de travail 20 P, identifié par un repère spatial R1 à trois axes orthogonaux XYZ, appelé repère universel. La pièce 14 est également repérée à l'aide d'un repère orthogonal R2 à trois axes XYZ, qui permet de définir sa position dans l'espace de travail P. Le robot 11 est repéré à l'aide d'un repère orthogonal R3 à trois axes XYZ, monté sur son embase 12, qui permet de définir sa position 25 dans l'espace de travail P. Enfin l'outil spécifique 13 est repéré à l'aide d'un repère orthogonal R4 à trois axes XYZ, qui permet de définir sa position dans l'espace de travail P.
La pièce 14 est équipée d'au moins un guide virtuel 17 et de 30 préférence de plusieurs guides virtuels, qui se présentent avantageusement, mais non exclusivement sous la forme d'un cône (tel que représenté) ou d'une sphère (non représentée) et dont la fonction sera décrite en détail ci-après.
Dans l'exemple représenté, un seul guide virtuel 17 est localisé au niveau du passage de roue du véhicule représentant la pièce 14. Le cône définit un espace agencé pour délimiter une trajectoire d'amenée de l'outil spécifique 13 du robot 11 vers une zone d'intervention prédéterminée, en l'occurrence un point précis du passage de roue de la pièce 14. Chaque guide virtuel 17 est destiné à assurer l'apprentissage du robot pour un point donné Pi du profil de la pièce 14. Lorsque plusieurs guides virtuels 17 sont présents, ils peuvent être activés et désactivés à volonté. Leur manière d'agir consiste à capturer l'outil spécifique 13 lorsqu'il est déplacé par le robot à proximité ro de la zone d'intervention de la pièce 14 où cet outil spécifique 13 est destiné à effectuer une tâche. Lorsque cet outil spécifique 13 pénètre dans l'espace délimité par le cône, il est capturé et ses déplacements sont strictement limités dans cet espace afin qu'il atteigne directement la zone d'intervention, à savoir l'intersection de sa trajectoire de déplacement et de la ligne virtuelle is représentant la pièce 14. La pointe du cône correspond avec précision à la position finale de l'outil spécifique 13. La présence du cône évite tous les déplacements intempestifs de l'outil et, par conséquent des collisions avec la pièce et/ou des utilisateurs. Elle permet de garantir l'accès final du point d'intersection qui correspond à la zone d'intervention de l'outil. Vu que cette 20 trajectoire est sécurisée, les vitesses d'approches peuvent être augmentées sans risques. Lorsque le guide virtuel 17 est une sphère, la position finale de l'outil spécifique 13 qui correspond à la zone d'intervention sur la pièce, peut être le centre de la sphère.
25 Sur la figure 1 le guide virtuel 17 est représenté par un cône. Ce guide virtuel 17 pourrait être une sphère ou toute autre forme appropriée dont on peut définir la forme géométrique par une équation. L'outil spécifique 13 peut être déplacé manuellement dans cette phase d'apprentissage et amené en intersection avec le guide virtuel 17 afin d'être pris ensuite en charge 30 automatiquement ou conduit manuellement vers la pointe du cône, ou le centre de la sphère, si le guide virtuel 17 a une forme sphérique. Ces l0 opérations peuvent être reproduites en chaque point ou chaque zone d'intervention prédéterminée de la pièce 14.
Lorsque le robot 11 a amené l'outil spécifique 13 dans la zone d'intervention prédéterminée, les coordonnées spatiales de cet outil sont identifiées au moyen de son repère orthogonal R4 et enregistrées dans l'ordinateur 16. De façon similaire, on effectue l'enregistrement simultané des coordonnées spatiales du robot 11 au moyen de son repère orthogonal R3 et l'enregistrement simultané des coordonnées spatiales de la pièce 14 ou de la io zone d'intervention concernée au moyen de son repère orthogonal R2. Ces différents repérages s'effectuent dans le même espace de travail P défini par le repère orthogonal RI de sorte que tous les paramètres de déplacements du robot 11 puissent être calculés sur la base des positions réelles. Cette manière de procéder permet de supprimer toutes les imperfections du robot 15 11 et de mémoriser les paramètres de déplacements réels en ne travaillant que sur une pièce virtuelle.
Etant donné que l'apprentissage se fait sur une pièce virtuelle, il peut être effectué à distance, sous forme de téléapprentissage avec des 20 commandes diverses. Le boîtier de commande 15 du robot 11 est une interface servant à interpréter des ordres qui peuvent lui être transmis par l'opérateur au moyen d'un clavier, mais aussi au moyen d'un téléphone, d'une télécommande, d'un levier de manipulation du type appelé joystick ou similaire. Les déplacements peuvent être suivis à distance sur un écran s'ils 25 sont filmés par au moins une caméra.
La forme de réalisation illustrée par la figure 2 représente une première variante qui intègre certains perfectionnements par rapport à la construction de la figure 1, mais qui répond aux mêmes besoins en matière 30 d'apprentissage de robots. Les composants de cette variante de réalisation, qui sont repris à l'identique de la première réalisation portent les mêmes numéros de référence et ne seront pas expliqués plus en détail. Le dispositif Il 10 représenté comporte en supplément par rapport à la réalisation de la figure 1, au moins une caméra 20 qui est agencée de manière à visionner le robot 11 au cours de tous ses déplacements dans l'espace de travail P identifié par le repère RI et une mire 21 qui comporte par exemple un arrangement de carrés 22 ayant des dimensions déterminées avec précision et espacés de façon régulière pour servir d'étalon de mesure. La mire 21 fournit les dimensions de l'espace de travail P dans lequel évolue le robot 11 et qui est appelé cellule robotisée. La caméra 20 permet de suivre tous les déplacements du robot 11 et la combinaison caméra 20 et mire 21 permet de lo calibrer les déplacements. Les données dimensionnelles sont enregistrées dans l'ordinateur 16 et permettent d'effectuer le calcul des paramètres des déplacements du robot 11 et plus particulièrement de l'outil 13.
La figure 3 représente une deuxième variante plus évoluée que la 15 précédente qui comporte en outre une deuxième mire 30 associée à l'outil spécifique 13. Selon cette réalisation, la mire 30 est dite embarquée, parce qu'elle est directement liée à la tête du robot 11 pour identifier de manière extrêmement précise les paramètres de déplacements de l'outil 13. Par ce moyen, l'utilisateur disposera à la fois du suivi chiffré avec précision de 20 l'embase 12 du robot 11, mais également du suivi chiffré avec précision de l'outil spécifique 13. Les coordonnées spatiales sont acquises avec une grande précision et les paramètres de déplacements sont également déterminés avec une grande précision en éliminant toutes les erreurs de manipulation, sachant que les positions sont déterminées sur le robot réel. 25 Un perfectionnement complémentaire est apporté par la variante selon la figure 4 qui comporte enfin une série de mires supplémentaires 40, 50 (ou plus) associées respectivement à chaque élément mobile 11a, 11 b, 11c du robot 11. Selon cette réalisation, les mires 30, 40 et 50 sont dites 30 embarquées, parce qu'elles sont directement liées aux éléments mobiles du robot 11 pour identifier de manière extrêmement précise les paramètres de déplacements de tous ces éléments en cours de travail. Dans cette réalisation, il est possible de calibrer les mouvements du robot 11 avec son outil 13 et son accastillage.
II est bien entendu que la transmission de la scène de l'espace de travail P peut être faite par un ensemble de caméras 20 du type mono ou stéréo. Ces caméras 20 peuvent être pourvues de tous les organes de réglage classique, réglage du foyer pour la quantité de lumière, réglage du diaphragme pour la netteté, réglage de l'objectif pour le grandissement, etc. Ces réglages peuvent être manuels ou automatiques. Une procédure de lo calibrage est requise pour lier tous les repères R2, R3, R4 du dispositif 10 et pour les exprimer dans un repère unique qui est par exemple le repère R1 de l'espace de travail P.
La tâche de télémanipulation, de téléprogrammation ou de 15 téléapprentissage telle que décrite ci-dessus est effectuée sur une scène virtuelle en impliquant un robot réel et une maquette virtuelle de la pièce réelle. Elle pourrait s'effectuer sur une pièce réelle et le robot pourrait être remplacé par son image virtuelle. Dans la pratique, lors de cet apprentissage, l'interface graphique de l'ordinateur se charge de représenter sur un même 20 écran la superposition d'une trajectoire de consigne avec la pièce virtuelle et/ou réelle.
Le repère définissant le point d'impact de l'outil 13 embarqué sur le robot 11, qui est par exemple un robot à six axes : X, Y, Z qui sont des axes 25 orthogonaux à déplacement rectiligne et W, P, R, qui sont des axes de rotation, sera plus communément appelé repère impact. Le point définissant l'impact souhaité sur la pièce 14 s'appellera le point d'impact Pi. Le point d'impact dont les coordonnées sont (x, y, z, w, p, r) est exprimé dans le repère R1 dit universel. 30 Afin de faciliter la télémanipulation, la téléprogrammation ou le téléapprentissage de la structure articulée asservie, à savoir le robot 11, chaque point de la trajectoire sera au besoin et en fonction du choix de l'opérateur muni d'un guide virtuel 17 d'une forme usuelle de type sphérique ou conique ou autre. Le guide virtuel 17 sert à forcer l'apprentissage vers le repère simulant le point d'impact de l'outil 13 embarqué sur le robot 11 vers le point d'impact Pi souhaité. Cette démarche peut être effectuée de trois façons : 1. en utilisant les coordonnées mesurées par le robot 11 de son point d'impact et en les intégrant dans le dispositif 10 comportant des caméras 20 et des guides virtuels 17 sphériques ou coniques dont les équations sont respectivement: a. Sphérique d'équation (x ù xo )2 + (y ù yo )2 + (z ù zo )2 = R2 Où R est le rayon de la sphère xo, yo et zo sont les coordonnées du centre de la sphère 15 correspondant au point de la trajectoire, exprimées dans le repère universel R1 x, y et z sont les coordonnées de tout point appartenant à la sphère exprimées dans le repère universel R1. frl2 \h) 20 Où r est le rayon de la base du cône et h sa hauteur xo, yo et zo sont les coordonnées du sommet du cône correspondant au point de la trajectoire exprimées dans le repère universel R1 25 x, y et z sont les coordonnées de tout point appartenant au cône exprimées dans le repère universel R1. b. Conique d'équation (x ù xo )2 + (y ù yo )2 = (z ù zo )2 Ou même d'une forme géométrique quelconque dont on sait écrire l'équation sous une forme f(x, y, z) = 0 où x, y et z sont les coordonnées de tout point appartenant à cette forme exprimées dans le repère universel RI. 2. en utilisant une mire 30 embarquée sur l'outil 13 et permettant la mesure par les caméras 20 de sa position instantanée s'acquittant ainsi des mesures du robot 11. 3. en utilisant le modèle virtuel du robot reconstitué grâce à la mesure 10 des caméras et selon le principe décrit ci-dessus. Par conséquent, l'algorithme d'aide à l'apprentissage ou d'aide au téléapprentissage de la trajectoire du robot 11 consiste à identifier en temps réel la position du repère impact du robot par rapport au guide virtuel 17. Lorsque le repère impact et le guide virtuel 17 sont en intersection, le guide 15 virtuel empêchera le repère impact de sortir du guide et forcera le repère impact à n'évoluer que vers le point d'impact qui est le centre de la sphère ou le sommet du cône par exemple. L'opérateur peut décider d'activer ou non l'assistance ou le guidage automatique dans l'espace défini par le guide virtuel 17. 20 Au moment de l'activation du guidage automatique, le dispositif 10 est agencé pour valider l'apprentissage du robot 11 relativement à un point dont les coordonnées x, y et z sont les coordonnées du centre de la sphère ou les coordonnées du sommet du cône, selon la forme du repère virtuel. Les 25 orientations w, p et r respectivement appelées roulis, tangage et lacet sont celles du dernier point atteint par l'opérateur. Le dispositif 10 est agencé pour effectuer des calculs comparatifs de positionnement entre la pièce virtuelle et/ou une pièce réelle ou entre deux pièces virtuelles ou entre deux pièces réelles, selon la configuration prévue. 30 Ce calcul sera affecté directement à la trajectoire du robot en vue d'une5 intervention donnée. Ce calcul pourra être soit unique à la demande soit effectué en continu afin de recaler à chaque cycle les pièces en cours de production. Le mode opératoire décrit ci-dessus est illustré par la figure 5 qui 5 représente un organigramme de fonctions correspondant au procédé de l'invention. Ce mode opératoire comprend les étapes suivantes : A.- la phase initiale représentée par la case A exprime le fait de créer une trajectoire ; B.- la phase représentée par la case B consiste à déplacer le robot 11 io en mode apprentissage ou téléapprentissage vers un point d'impact Pi de la pièce 14 ; C.- la phase représentée par la case C consiste à identifier la position du robot 11 ; D.- la phase représentée par la case D consiste à Vérifier si OUI ou 15 NON le point d'impact Pi appartient à la pièce 14. Si la réponse est négative, l'apprentissage est interrompu. Si la réponse est positive, le processus se poursuit ; E.- la phase représentée par la case E consiste à décider si OUI ou NON l'apprentissage automatique au moyen d'un guide virtuel 17 est 20 enclenché. Si la réponse est négative, l'apprentissage est interrompu. Si la réponse est positive, le processus se poursuit ; F.- la phase représentée par la case F consiste à enregistrer les coordonnées du centre de la sphère ou du sommet du cône du guide virtuel 17 correspondant ; 25 G.- la phase représentée par la case G consiste à enregistrer les coordonnées du point d'impact.
En résumé, les avantages du procédé sont essentiellement les suivants : .-II permet de créer directement la trajectoire sur la pièce 17 en cours de développement sans faire appel au prototype réel ; .- II permet de créer la trajectoire à distance via tout type de réseau de communication ; .- II permet de prendre en compte directement les contraintes de l'environnement du robot 11 telles que l'encombrement et les mouvements de l'accastillage de ce robot ; .- II permet d'éviter d'avoir un apprentissage approximatif à l'ceil des points grâce aux guides virtuels 17, ce qui a pour conséquence une amélioration de la qualité de la pièce traitée ; .- II permet de calculer les temps de cycle du robot 11 avec précision puisque le travail s'effectue sur le robot réel ou son image virtuelle correspondant 15 exactement au robot réel ; .- Il permet d'effectuer un recalage en trois dimensions de la trajectoire du robot 11 en comparant le positionnement de la pièce 14 virtuelle et de la pièce réelle ; .- Il permet d'éviter tout risque de collision entre le robot 11 et la pièce 14 20 réelle et/ou l'opérateur puisque ce dernier se base sur un retour vidéo de la ou des caméras 20 ; .- Il permet de prendre en compte le modèle virtuel du robot 11 et de réaliser une première ébauche des trajectoires sans les contraintes des conditions de production.
25 La présente invention n'est pas limitée aux modes de réalisations décrits à titre d'exemples non limitatifs, mais s'étend à toutes évolutions qui restent dans le champ des connaissances acquises de l'homme du métier. 25

Claims (25)

REVENDICATIONS
1. Procédé d'apprentissage d'un robot (11) ou similaire, ce robot étant agencé pour effectuer des tâches automatisées pour accomplir diverses fonctions notamment, de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique (13), sur une pièce (14), ledit apprentissage étant réalisé pour définir avec précision les déplacements de l'outil spécifique dudit robot, requis dans le cadre l'accomplissement des tâches à exécuter sur ladite pièce et pour enregistrer les paramètres desdits lo déplacements de l'outil spécifique (13) dudit robot (11), caractérisé en ce que l'on associe à ladite pièce (14) au moins un guide virtuel (17) définissant un espace agencé pour délimiter une trajectoire d'amenée dudit outil spécifique (13) dudit robot (11) sur une zone d'intervention prédéterminée de ladite pièce (14), cette zone d'intervention prédéterminée étant associée audit guide virtuel 15 (17), en ce que l'on amène ledit outil spécifique (13) dudit robot (11) sur ladite zone d'intervention prédéterminée associée audit guide virtuel (17) en utilisant ce guide et en ce que l'on enregistre les coordonnées spatiales dudit outil spécifique (13) dudit robot (11), par rapport à un repère donné (RI) dans lequel est positionnée ladite pièce (13), lorsque cet outil spécifique (13) est 20 effectivement situé sur ladite zone d'intervention prédéterminée.
2. Procédé selon la revendication 1, caractérisé en ce que l'on effectue l'apprentissage du robot (11) ou similaire sur une image virtuelle de ladite pièce (14).
3. Procédé selon la revendication 1, caractérisé en ce que l'on effectue lesdits déplacements avec un robot réel (11).
4. Procédé selon la revendication 1, caractérisé en ce que l'on effectue 30 lesdits déplacements avec un robot virtuel (11) qui est l'image exacte du robot réel utilisé après son apprentissage. 18
5. Procédé selon la revendication 1, caractérisé en ce que l'on effectue lesdits déplacements dudit outil spécifique (13) d'une façon manuelle.
6. Procédé selon la revendication 1, caractérisé en ce que l'on effectue lesdits déplacements dudit outil spécifique (13) d'une façon mécanique.
7. Procédé selon la revendication 1, caractérisé en ce que l'on utilise un guide virtuel (17) ayant une forme géométrique qui délimite un espace défini, et en ce que l'on effectue l'apprentissage dudit robot (11) en amenant dans une première étape, ledit outil spécifique (13) dans ledit espace défini et en déplaçant, au cours d'une deuxième étape, ledit outil spécifique (13) vers un point caractéristique du guide virtuel (17), ce point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce (14).
8. Procédé selon la revendication 7, caractérisé en ce que le guide virtuel (17) a une forme de cône et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce (14) est le sommet du cône.
9. Procédé selon la revendication 7, caractérisé en ce que le guide virtuel (17) a une forme de sphère et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce (14) est le centre de la sphère.
10. Procédé selon la revendication 1, caractérisé en ce que l'on associe au moins une mire (21) à un espace de travail (Pj, dans lequel sont disposés la pièce (14) et le robot (11) et en ce que l'on utilise au moins une caméra (20) pour réaliser des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11) dans l'espace de travail (P1.
11. Procédé selon la revendication 1, caractérisé en ce que l'on associe au moins une première mire (21) à un espace de travail (P) dans lequel sontdisposés la pièce (14) et le robot (11) et une deuxième mire (30) à l'outil spécifique (13) du robot (11) et en ce que l'on utilise au moins une caméra (20) pour réaliser des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11) et ceux de l'outil spécifique (13) dans l'espace de travail (P).
12. Procédé selon la revendication 1, caractérisé en ce que l'on associe au moins une première mire (21) à un espace de travail (P) dans lequel sont disposés la pièce (14) et le robot (11), une deuxième mire (30) à l'outil io spécifique (13) du robot et au moins une troisième mire (40, 50) sur au moins un des éléments mobiles (11a, 11b, 11c) du robot (11), et en ce que l'on utilise au moins une caméra (20) pour réaliser des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11), d'au moins un de ses éléments mobiles et ceux de l'outil spécifique (13) dans l'espace de 15 travail (P).
13. Procédé selon la revendication 1, caractérisé en ce que l'on effectue lesdites opérations d'apprentissage à distance par communications à travers une interface couplée à un boîtier de commande (15) du robot (11). 20
14. Dispositif (10) d'apprentissage d'un robot (11) ou similaire, ce robot étant agencé pour effectuer des tâches automatisées en vue d'accomplir diverses fonctions notamment, de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique (13) sur une pièce (14), ledit 25 apprentissage étant réalisé pour définir avec précision les déplacements de ce robot requis dans le cadre l'accomplissement de ses tâches et consistant à déterminer et à enregistrer les paramètres de ces déplacements, pour la mise en oeuvre du procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comporte des moyens de commande pour effectuer 30 lesdits déplacements dudit outil spécifique (13), des moyens pour associer à ladite pièce (14) au moins un guide virtuel (17) définissant un espace agencé pour délimiter une trajectoire d'amenée dudit outil spécifique (13) dudit robot(11) sur une zone d'intervention prédéterminée de ladite pièce (14), cette zone d'intervention prédéterminée étant associée audit guide virtuel (17), des moyens pour amener ledit outil spécifique (13) dudit robot (11) sur ladite zone d'intervention prédéterminée associée audit guide virtuel (17) en utilisant ce guide et des moyens (16) pour enregistrer les coordonnées spatiales dudit outil spécifique (13) dudit robot, par rapport à un repère donné (RI) dans lequel est positionnée ladite pièce (14) , lorsque cet outil est effectivement situé sur ladite zone d'intervention prédéterminée. l0
15. Dispositif selon la revendication 14, caractérisé en ce que ladite pièce (14) est virtuelle.
16. Dispositif selon la revendication 14, caractérisé en ce que ledit robot (11) est un robot réel.
17. Dispositif selon la revendication 14, caractérisé en ce que ledit robot (11) est un robot virtuel qui est l'image exacte du robot réel utilisé en production après l'apprentissage. 20
18. Dispositif selon la revendication 14, caractérisé en ce qu'il comporte des moyens pour effectuer des déplacements manuels dudit robot (11).
19. Dispositif selon la revendication 14, caractérisé en ce qu'il comporte des moyens pour effectuer des déplacements automatiques dudit robot (11). 25
20. Dispositif selon la revendication 14, caractérisé en ce que ledit guide virtuel (17) a une forme géométrique qui délimite un espace défini, des moyens pour amener dans une première étape, ledit outil spécifique (13) dans ledit espace défini et des moyens pour déplacer, au cours d'une deuxième étape, 30 ledit outil spécifique (13) vers un point caractéristique du guide virtuel (17), ce point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce (14). 15
21. Dispositif selon la revendication 20, caractérisé en ce que le guide virtuel (17) a une forme de cône et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce (14) est le sommet du cône.
22. Dispositif selon la revendication 20, caractérisé en ce que le guide virtuel (17) a une forme d'une sphère et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée de la pièce (14) est io le centre de la sphère.
23. Dispositif selon la revendication 14, caractérisé en ce qu'il comporte au moins une mire (21) associée à un espace de travail (P) dans lequel sont disposés la pièce (14) et le robot (11) et au moins une caméra (20) pour réaliser ts des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11) dans l'espace de travail (P).
24. Dispositif selon la revendication 14, caractérisé en ce qu'il comporte au moins une première mire (21) associée à un espace de travail (P) dans lequel 20 sont disposés la pièce (14) et le robot (11) et au moins une deuxième mire (30) associée à l'outil spécifique (13) du robot, ainsi que au moins une caméra (20) pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase (12) du robot et ceux de l'outil spécifique (13) dans l'espace de travail (). 25
25. Dispositif selon la revendication 14, caractérisé en ce qu'il comporte au moins une première mire (21) associée à un espace de travail (P) dans lequel sont disposés la pièce (14) et le robot (11), au moins une deuxième mire (30) à l'outil spécifique (13) du robot et au moins une troisième mire (40, 50) sur au 30 moins un des éléments mobiles (11a, 11b, 11c) du robot, ainsi au moins une caméra (20) pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase (12) du robot, d'au moins un de ses élémentsmobiles (11a, 11b, 11c) et ceux de l'outil spécifique (13) dans l'espace de travail (P).
FR0800209A 2008-01-15 2008-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede. Expired - Fee Related FR2926240B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR0800209A FR2926240B1 (fr) 2008-01-15 2008-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede.
US12/812,792 US20110046783A1 (en) 2008-01-15 2009-01-15 Method for training a robot or the like, and device for implementing said method
JP2010541861A JP2011509835A (ja) 2008-01-15 2009-01-15 ロボットまたは類似物のトレーニング方法及びこの方法を実施するための装置
PCT/IB2009/000066 WO2009090542A2 (fr) 2008-01-15 2009-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede
EP09702428A EP2242621A2 (fr) 2008-01-15 2009-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0800209A FR2926240B1 (fr) 2008-01-15 2008-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede.

Publications (2)

Publication Number Publication Date
FR2926240A1 true FR2926240A1 (fr) 2009-07-17
FR2926240B1 FR2926240B1 (fr) 2010-04-30

Family

ID=39971023

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0800209A Expired - Fee Related FR2926240B1 (fr) 2008-01-15 2008-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede.

Country Status (5)

Country Link
US (1) US20110046783A1 (fr)
EP (1) EP2242621A2 (fr)
JP (1) JP2011509835A (fr)
FR (1) FR2926240B1 (fr)
WO (1) WO2009090542A2 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111702757A (zh) * 2020-05-27 2020-09-25 华中科技大学 基于操作者意图的控制方法、装置、计算设备及存储介质
CN113510254A (zh) * 2021-07-28 2021-10-19 庆铃汽车(集团)有限公司 车床上工件加工振纹的消除方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
US8996167B2 (en) 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US10078712B2 (en) * 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
CN105388851B (zh) * 2015-10-30 2018-03-27 黑龙江大学 运动体视觉控制系统和方法、机电运动体以及移动终端
CN106933223B (zh) * 2015-12-30 2020-06-26 深圳市朗驰欣创科技股份有限公司 一种机器人自主导航方法及系统
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
US11194936B2 (en) * 2018-08-21 2021-12-07 The Boeing Company System and method for analyzing and testing multi-degree of freedom objects
US11292133B2 (en) * 2018-09-28 2022-04-05 Intel Corporation Methods and apparatus to train interdependent autonomous machines

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167607B1 (en) * 1981-05-11 2001-01-02 Great Lakes Intellectual Property Vision target based assembly
US6204620B1 (en) * 1999-12-10 2001-03-20 Fanuc Robotics North America Method of controlling an intelligent assist device
US20040189631A1 (en) * 2003-02-11 2004-09-30 Arif Kazi Method and device for visualizing computer-generated informations
WO2007099511A2 (fr) * 2006-03-03 2007-09-07 Syddansk Universitet Robot programmable et interface utilisateur

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167607B1 (en) * 1981-05-11 2001-01-02 Great Lakes Intellectual Property Vision target based assembly
US6204620B1 (en) * 1999-12-10 2001-03-20 Fanuc Robotics North America Method of controlling an intelligent assist device
US20040189631A1 (en) * 2003-02-11 2004-09-30 Arif Kazi Method and device for visualizing computer-generated informations
WO2007099511A2 (fr) * 2006-03-03 2007-09-07 Syddansk Universitet Robot programmable et interface utilisateur

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111702757A (zh) * 2020-05-27 2020-09-25 华中科技大学 基于操作者意图的控制方法、装置、计算设备及存储介质
CN111702757B (zh) * 2020-05-27 2021-08-17 华中科技大学 基于操作者意图的控制方法、装置、计算设备及存储介质
CN113510254A (zh) * 2021-07-28 2021-10-19 庆铃汽车(集团)有限公司 车床上工件加工振纹的消除方法
CN113510254B (zh) * 2021-07-28 2022-05-31 庆铃汽车(集团)有限公司 车床上工件加工振纹的消除方法

Also Published As

Publication number Publication date
WO2009090542A2 (fr) 2009-07-23
JP2011509835A (ja) 2011-03-31
WO2009090542A3 (fr) 2009-11-05
FR2926240B1 (fr) 2010-04-30
EP2242621A2 (fr) 2010-10-27
US20110046783A1 (en) 2011-02-24

Similar Documents

Publication Publication Date Title
FR2926240A1 (fr) Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede.
JP6407812B2 (ja) ワーク原点を取得可能な工作機械制御システムおよびワーク原点設定方法
US7570795B2 (en) Multi-region autofocus tool and mode
CA2923490C (fr) Procede de generation d'un programme d'usinage interpretable par un controleur physique d'une machine-outil a commande numerique
JP6869159B2 (ja) ロボットシステム
JP2018167334A (ja) 教示装置および教示方法
CN112907683B (zh) 一种点胶平台的相机标定方法、装置及相关设备
Kohn et al. Towards a real-time environment reconstruction for VR-based teleoperation through model segmentation
CN111223048A (zh) 一种3d视觉点云数据拼接的方法及其系统
WO2017103489A1 (fr) Système et procédé pour la correction d'une trajectoire d'un effecteur porté par un robot
US20190266718A1 (en) Method and system for articulation of a visual inspection device
EP1671192B1 (fr) Procede d' etalonnage d' une machine de percage de verres ophtalmiques, dispositif pour la mise en oeuvre d' un tel procede, et appareil d' usinage de verres ophtalmiques equipe d' un tel dispositif
JP7120894B2 (ja) 3次元モデル作成装置、加工シミュレーション装置、工具経路自動生成装置
EP3086908B1 (fr) Repérage du centre outil et de l'orientation d'une sonde acoustique dans un repère de référence, par méthode ultrasonore
CN112743546B (zh) 机器人手眼标定位姿选择方法、装置、机器人系统及介质
CN115457096A (zh) 作业机械的辅助控制方法、装置、系统及作业机械
JP2008246659A (ja) 作業ロボットの位置計測装置
WO2021181035A1 (fr) Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé
JP4935981B2 (ja) レーザスキャニング装置
FR2737024A1 (fr) Procede d'apprentissage de forme geometrique, notamment de trajectoire ou de contour, et systemes mettant en oeuvre ce procede
FR2950559A1 (fr) Systeme et procede de restitution synchrone par un robot de mouvements d'une main ou d'un organe d'extremite
EP1671757A2 (fr) Procéde de commande de robots installation de traitement de pièces, et application
WO2008081115A2 (fr) Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques
CN117754589A (zh) 标定方法、标定装置、计算机设备和计算机可读存储介质
CN116423495A (zh) 一种基于pnp的3d定位跟踪方法和系统

Legal Events

Date Code Title Description
CA Change of address
CJ Change in legal form
ST Notification of lapse

Effective date: 20130930