EP2242621A2 - Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede - Google Patents

Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede

Info

Publication number
EP2242621A2
EP2242621A2 EP09702428A EP09702428A EP2242621A2 EP 2242621 A2 EP2242621 A2 EP 2242621A2 EP 09702428 A EP09702428 A EP 09702428A EP 09702428 A EP09702428 A EP 09702428A EP 2242621 A2 EP2242621 A2 EP 2242621A2
Authority
EP
European Patent Office
Prior art keywords
robot
virtual
specific tool
virtual model
piece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP09702428A
Other languages
German (de)
English (en)
Inventor
Laredj Benchikh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BLM SA
Original Assignee
BLM SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BLM SA filed Critical BLM SA
Publication of EP2242621A2 publication Critical patent/EP2242621A2/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36432By putting some constraints on some DOF, move within limited volumes, areas, planes, limits motion in x, y or z planes, virtual reality constraints

Definitions

  • the device comprises at least one pattern associated with a work space in which are arranged the virtual model of the 3D part and the robot and at least one camera for making images of said work space in order to calibrate the movements of the robot base in the workspace.
  • FIG. 2 represents a first variant which incorporates certain improvements with respect to the construction of FIG. 1, but which meets the same needs for robot learning.
  • the components of this embodiment, which are included in the same way as the first embodiment have the same reference numbers and will not be explained in more detail.
  • This calculation will be directly assigned to the trajectory of the robot for a given intervention. This calculation can be either unique on demand or performed continuously to reset each cycle parts in production.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

La présente invention concerne un dispositif (10) d'apprentissage d'un robot (11), ce robot étant agencé pour effectuer des tâches automatisées en vue d'accomplir diverses fonctions notamment, de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique (13) sur une pièce (14). Le dispositif (10) comporte des moyens pour visualiser la pièce (14) sous la forme d'un modèle virtuel en 3D et des moyens de commande (15) pour effectuer lesdits déplacements d'un outil spécifique (13) du robot (11). Au moins un guide virtuel (17) est associé audit modèle virtuel de ladite pièce (14) en 3D définissant un espace agencé pour délimiter une trajectoire d'amenée de l'outil spécifique (13) sur une zone d'intervention prédéterminée dudit modèle virtuel de ladite pièce (14) en 3D, la zone d'intervention prédéterminée étant associée audit guide virtuel (17). Enfin le dispositif (10) comporte un ordinateur (16) pour enregistrer les coordonnées spatiales dudit outil spécifique (13) par rapport à un repère donné (R1) dans lequel est positionné ledit modèle virtuel de ladite pièce (14) en 3D, lorsque cet outil (13) est effectivement situé sur ladite zone d'intervention prédéterminée.

Description

PROCEDE POUR L'APPRENTISSAGE D'UN ROBOT OU SIMILAIRE ET DISPOSITIF POUR LA MISE EN ŒUVRE DE CE PROCEDE
La présente invention concerne un procédé d'apprentissage d'un robot ou similaire, ce robot étant agencé pour effectuer des tâches automatisées pour accomplir notamment, diverses fonctions de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique, sur une pièce, ledit apprentissage étant réalisé pour définir avec précision les déplacements d'un outil spécifique dudit robot, requis dans le cadre de l'accomplissement des tâches à exécuter sur ladite pièce et pour enregistrer les paramètres desdits déplacements de l'outil spécifique dudit robot.
L'invention concerne également un dispositif d'apprentissage d'un robot ou similaire, pour la mise en œuvre du procédé, ce robot étant agencé pour effectuer des tâches automatisées en vue d'accomplir diverses fonctions, notamment de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique, sur une pièce, ledit apprentissage étant réalisé pour définir avec précision les déplacements d'un outil spécifique de ce robot, requis dans le cadre de l'accomplissement de ses tâches et consistant à déterminer et à enregistrer les paramètres de ces déplacements.
Dans ce que l'on appelle couramment la « CAO robotique » dans le domaine industriel, c'est-à-dire la conception assistée par ordinateur de robots, la programmation de ces robots se fait habituellement dans un milieu exclusivement virtuel, ce qui engendre des écarts importants par rapport au réel. En effet, le robot virtuel qui est issu d'un registre appelé librairie pré définie est toujours un robot « parfait » qui ne tient compte d'aucune tolérance de construction ni de fonctionnement. De ce fait, on constatera dans la pratique qu'il y a des décalages importants entre les trajectoires parfaites effectuées par le robot virtuel conformément à sa programmation et les trajectoires réelles effectuées par le robot réel avec ses défauts. Ce constat oblige les utilisateurs à faire des retouches en de nombreux points de la trajectoire lors de la mise en œuvre du programme avec un robot réel. Ces écarts sont dus au fait que le robot virtuel n'est pas une image fidèle du robot réel en raison de jeux mécaniques, de tolérances de fabrication, de l'usure mécanique ou similaires qui sont inexistants dans le monde virtuel.
Un autre inconvénient de cette méthode résulte de ce que les mouvements des composés accessoires souvent désignés par l'expression « accastillage », embarqués sur le robot tels que des câbles, des tuyaux, des housses, etc. ne peuvent être simulés en CAO car ces composés accessoires sont obligatoirement fixes. Ceci risque d'engendrer des interférences et des collisions avec une pièce réelle sur laquelle le robot travaille, lors du passage du programme sur le robot réel, même si d'éventuelles retouches ont été apportées à titre de corrections.
Par ailleurs, les temps de cycles de robot calculés par une CAO sont approximatifs, car ils sont liés à \a fréquence d'échantillonnage et de calcul de temps de l'ordinateur, ce temps n'étant pas le même que celui déterminé par le robot. En d'autres termes, la base de temps de l'ordinateur peut différer de celle du robot.
Un autre mode d'apprentissage est souvent pratiqué. Il s'agit de l'apprentissage dit manuel. La programmation manuelle a pour inconvénient majeur d'être une programmation approximative car elle est réalisée avec l'œil de l'opérateur et nécessite des retouches continuelles durant toute la vie de la pièce travaillée par le robot en vue d'atteindre un fonctionnement optimal. De plus, cette technique nécessite la présence de la pièce réelle pour pouvoir effectuer l'apprentissage, ce qui peut créer de nombreux problèmes. D'une part, dans certains secteurs, tel que par exemple l'industrie automobile, la réalisation d'un, voire de plusieurs prototypes successifs, implique un coût excessivement élevé et implique des délais extrêmement longs pour la réalisation. De surcroît, la réalisation de prototypes dans ce domaine pose des problèmes très complexes en ce qui concerne la confidentialité. Enfin, l'apprentissage sur une pièce réelle doit se faire obligatoirement à coté du robot et ne peut pas être télécommandé, ce qui entraîne des risques de collisions entre le robot et l'opérateur.
Toutes ces questions qui ont été évoquées ci-dessus représentent des inconvénients graves qui génèrent des coûts élevés, engendrent des délais de réalisation importants et ne permettent pas d'aboutir à des solutions techniquement satisfaisantes. Le problème de la programmation ou l'apprentissage des robots est d'autant plus compliqué que la forme des objets sur lesquels les robots sont appelés à travailler est plus complexe. Or c'est précisément pour les formes complexes que les robots sont théoriquement avantageux. Les modes de programmations actuels constituent des freins en matière de coût et en matière de délais pour l'application des robots. De surcroît, le travail de programmation nécessite le recours à des spécialistes de très haut niveau et ayant acquis une grande expérience dans leur domaine.
On connaît plusieurs procédés d'assistance à l'apprentissage de trajectoires de robots industriels, notamment par la publication américaine US 2004/0189631 A1 qui décrit une méthode utilisant des guides virtuels qui sont matérialisés par le biais d'une technique de réalité augmentée. Il se trouve que ces guides virtuels sont appliqués sur des pièces réelles, par exemple un prototype réel d'une carrosserie de véhicule automobile disposé dans une ligne robotisée. Cette technique a pour objectif l'assistance des opérateurs pour leur permettre d'apprendre plus rapidement les trajectoires des robots, mais ne permet pas d'effectuer l'apprentissage d'un robot, à distance, sans disposer d'un modèle de la pièce à traiter, en excluant tout risque d'accident physique pour l'opérateur et en supprimant la nécessité de construire un prototype.
La publication US 6,204,620 B1 concerne un procédé utilisant des guides virtuels coniques associés à des machines spéciales ou des robots industriels, ces guides ayant pour but de réduire le champ de déplacement des robots pour des questions de sécurité de l'opérateur et pour éviter des collisions entre l'outil du robot et la pièce sur laquelle cet outil doit intervenir. Il s'agit en l'occurrence dune pièce réelle, par exemple un prototype de véhicule, ce qui pose les questions soulevées ci-dessus.
Enfin le brevet américain US 6,167,607 B1 décrit tout simplement un procédé de relocalisation en trois dimensions par la vision utilisant des capteurs optiques pour positionner un robot ou similaire et définir sa trajectoire de déplacement.
La présente invention se propose de pallier à l'ensemble de ces inconvénients, en particulier en concevant un procédé et un dispositif de mise en œuvre de ce procédé qui permettent de faciliter l'apprentissage ou la programmation de robots destinés à effectuer des tâches complexes sur des pièces compliquées, de réduire le temps d'apprentissage, de respecter la confidentialité des essais réalisés, et de travailler à distance.
Ce but est atteint par un procédé tel que défini en préambule, caractérisé en ce que l'on effectue l'apprentissage dudit robot ou similaire sur un modèle virtuel de ladite pièce en 3D, et l'on associe audit modèle virtuel de la pièce en 3D au moins un guide virtuel définissant un espace agencé pour délimiter une trajectoire d'amenée dudit outil spécifique dudit robot sur une zone d'intervention prédéterminée du modèle virtuel de ladite pièce en 3D, cette zone d'intervention prédéterminée étant associée audit guide virtuel, en ce que l'on amène ledit outil spécifique dudit robot sur ladite zone d'intervention prédéterminée associée audit guide virtuel en utilisant ce guide et en ce que l'on enregistre les coordonnées spatiales dudit outil spécifique dudit robot, par rapport à un repère donné dans lequel est positionnée le modèle virtuel de ladite pièce en 3D, lorsque cet outil est effectivement situé sur ladite zone d'intervention prédéterminée.
On peut effectuer lesdits déplacements avec un robot virtuel qui est l'image exacte du robot réel utilisé après son apprentissage. D'une manière préférentielle, l'on utilise un guide virtuel ayant une forme géométrique qui délimite un espace défini, et l'on effectue l'apprentissage dudit robot en amenant dans une première étape, ledit outil spécifique dans ledit espace défini et en déplaçant, au cours d'une deuxième étape, ledit outil spécifique vers un point caractéristique du guide virtuel, ce point caractéristique correspondant avec ladite zone d'intervention prédéterminée du modèle virtuel de ladite pièce en 3D.
Le guide virtuel peut avoir une forme de cône et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée du modèle virtuel de la pièce en 3D est le sommet du cône.
Ledit guide virtuel peut avoir une forme de sphère et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée du modèle virtuel de la pièce en 3D est le centre de la sphère.
Pour perfectionner l'utilisation du procédé, l'on peut associer au moins une mire à un espace de travail dans lequel sont disposés le modèle virtuel de la pièce en 3D et le robot et utiliser au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot dans l'espace de travail.
Un perfectionnement complémentaire consiste à associer au moins une première mire à un espace de travail dans lequel sont disposés le modèle virtuel de la pièce en 3D et le robot et une deuxième mire à l'outil spécifique du robot et à utiliser au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot et ceux de l'outil spécifique dans l'espace de travail.
Un autre perfectionnement consiste à associer au moins une première mire à un espace de travail dans lequel sont disposés le modèle virtuel de la pièce en 3D et le robot, une deuxième mire à l'outil spécifique du robot et au moins une troisième mire sur au moins un des composants mobiles du robot, et à utiliser au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot, d'au moins un de ses composants mobiles et ceux de l'outil spécifique dans l'espace de travail.
L'on peut avantageusement effectuer lesdites opérations d'apprentissage à distance par communications à travers une interface couplée à une unité de commande du robot.
Ce but est également atteint par un dispositif tel que défini en préambule, caractérisé en ce qu'il comporte des moyens pour visualiser ladite pièce sous la forme d'un modèle virtuel en 3D, des moyens de commande pour effectuer lesdits déplacements dudit outil spécifique, et des moyens pour associer au modèle virtuel de la pièce en 3D au moins un guide virtuel définissant un espace agencé pour délimiter une trajectoire d'amenée dudit outil spécifique dudit robot sur une zone d'intervention prédéterminée du modèle virtuel de ladite pièce en 3D, cette zone d'intervention prédéterminée étant associée audit guide virtuel, des moyens pour amener ledit outil spécifique dudit robot sur ladite zone d'intervention prédéterminée associée audit guide virtuel en utilisant ce guide et des moyens pour enregistrer les coordonnées spatiales dudit outil spécifique dudit robot, par rapport à un repère donné dans lequel est positionné le modèle virtuel de ladite pièce en 3D, lorsque cet outil est effectivement situé sur ladite zone d'intervention prédéterminée.
D'une manière préférentielle, ledit guide virtuel a une forme géométrique qui délimite un espace défini, des moyens pour amener dans une première étape, ledit outil spécifique dans ledit espace défini et des moyens pour déplacer, au cours d'une deuxième étape, ledit outil spécifique vers un point caractéristique du guide virtuel, ce point caractéristique correspondant avec ladite zone d'intervention prédéterminée du modèle virtuel de la pièce en 3D. Ledit guide virtuel peut avoir une forme de cône et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée du modèle virtuel de la pièce en 3D peut être le sommet du cône.
Ledit guide virtuel peut avoir une forme de sphère et ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée du modèle virtuel de la pièce en 3D peut être le centre de la sphère.
De façon préférentielle, le dispositif comporte au moins une mire associée à un espace de travail dans lequel sont disposés le modèle virtuel de la pièce en 3D et le robot et au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot dans l'espace de travail.
Selon un premier perfectionnement, le dispositif peut comporter au moins une première mire associée à un espace de travail dans lequel sont disposés le modèle virtuel de la pièce en 3D et le robot et au moins une deuxième mire associée à l'outil spécifique du robot, ainsi qu'au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot et ceux de l'outil spécifique dans l'espace de travail.
Selon un deuxième perfectionnement, le dispositif peut comporter au moins une première mire associée à un espace de travail dans lequel sont disposés le modèle virtuel de la pièce en 3D et le robot, au moins une deuxième mire à l'outil spécifique du robot et au moins une troisième mire sur au moins un des composants mobiles du robot, ainsi qu'au moins une caméra pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase du robot, d'au moins un de ses composants mobiles et ceux de l'outil spécifique dans l'espace de travail. La présente invention et ses avantages seront mieux compris à \a lecture de la description détaillée de plusieurs formes de réalisations du dispositif, destinés à mettre en œuvre le procédé de l'invention, en référence aux dessins annexés donnés à titre indicatif et non limitatif, dans lesquels :
- la figure 1 est une vue schématique représentant une première forme de réalisation du dispositif selon l'invention,
- la figure 2 est une vue schématique représentant une deuxième forme de réalisation du dispositif selon l'invention,
- la figure 3 représente une vue schématique représentant une troisième forme de réalisation du dispositif selon l'invention,
- la figure 4 représente une vue schématique représentant une quatrième forme de réalisation du dispositif selon l'invention, et
- la figure 5 représente un diagramme de fonctionnement illustrant le procédé de l'invention.
En référence à la figure 1 , le dispositif 10 selon l'invention comporte principalement un robot 11 ou similaire qui est monté sur une embase 12 et qui porte au moins un outil spécifique 13 pour accomplir une ou plusieurs tâches automatisées et notamment diverses fonctions de traitement, de montage, de conditionnement, de maintien. Le robot 11 , dont la caractéristique de base est le nombre de ses axes mobiles, est conçu selon les fonctions qu'il doit accomplir et comprend un certain nombre d'éléments articulés et motorisés 11a, 11b, 11c par exemple. Le dispositif 10 comporte par ailleurs une pièce 14 prévue pour être traitée par ledit outil spécifique 13. Cette pièce 14, représentée sous le profil d'un véhicule automobile, est avantageusement une image virtuelle ou un modèle virtuel de la pièce en 3D, et les tâches à exécuter par l'outil spécifique 13 du robot 11 sont apprises au moyen de ce modèle virtuel de la pièce en 3D en prévision d'interventions futures sur des pièces réelles correspondant à cette image virtuelle. Dans la suite de la description, l'image virtuelle ou le modèle virtuel de la pièce en 3D est appelé plus simplement « la pièce virtuelle 14 ».
Le dispositif 10 comporte en plus un boîtier de commande 15 du robot 11 qui est d'une part connecté au robot 11 et d'autre part à un ordinateur 16 classique. L'ensemble de ces éléments est localisé dans un espace de travail P, identifié par un repère spatial R1 à trois axes orthogonaux XYZ, appelé repère universel. La pièce virtuelle 14 est également repérée à l'aide d'un repère orthogonal R2 à trois axes XYZ, qui permet de définir sa position dans l'espace de travail P. Le robot 11 est repéré à l'aide d'un repère orthogonal R3 à trois axes XYZ, monté sur son embase 12, qui permet de définir sa position dans l'espace de travail P. Enfin l'outil spécifique 13 est repéré à l'aide d'un repère orthogonal R4 à trois axes XYZ, qui permet de définir sa position dans l'espace de travail P.
La pièce virtuelle 14 est équipée d'au moins un guide virtuel 17 et de préférence de plusieurs guides virtuels, qui se présentent avantageusement, mais non exclusivement sous la forme d'un cône (tel que représenté) ou d'une sphère (non représentée) et dont la fonction sera décrite en détail ci-après. Dans l'exemple représenté, un seul guide virtuel 17 est localisé au niveau du passage de roue du véhicule représentant la pièce virtuelle 14. Le cône définit un espace agencé pour délimiter une trajectoire d'amenée de l'outil spécifique 13 du robot 11 vers une zone d'intervention prédéterminée, en l'occurrence un point précis du passage de roue de la pièce virtuelle 14. Chaque guide virtuel 17 est destiné à assurer l'apprentissage du robot pour un point donné Pi du profil de la pièce virtuelle 14. Lorsque plusieurs guides virtuels 17 sont présents, ils peuvent être activés et désactivés à volonté. Leur manière d'agir consiste à « capturer » l'outil spécifique 13 lorsqu'il est déplacé par le robot à proximité de la zone d'intervention de la pièce virtuelle 14 où cet outil spécifique 13 est destiné à effectuer une tâche. Lorsque cet outil spécifique 13 pénètre dans l'espace délimité par le cône, il est « capturé » et ses déplacements sont strictement limités dans cet espace afin qu'il atteigne directement la zone d'intervention, à savoir l'intersection de sa trajectoire de déplacement et de la ligne virtuelle représentant la pièce virtuelle 14. La pointe du cône correspond avec précision à la position finale de l'outil spécifique 13. La présence du cône évite tous les déplacements intempestifs de l'outil et, par conséquent des collisions avec la pièce réelle et/ou des utilisateurs. Elle permet de garantir l'accès final du point d'intersection qui correspond à la zone d'intervention de l'outil. Vu que cette trajectoire est sécurisée, les vitesses d'approches peuvent être augmentées sans risques. Lorsque le guide virtuel 17 est une sphère, la position finale de l'outil spécifique 13 qui correspond à la zone d'intervention sur la pièce virtuelle, peut être le centre de la sphère.
Sur la figure 1 le guide virtuel 17 est représenté par un cône. Ce guide virtuel 17 pourrait être une sphère ou toute autre forme appropriée dont on peut définir la forme géométrique par une équation. L'outil spécifique 13 peut être déplacé manuellement dans cette phase d'apprentissage et amené en intersection avec le guide virtuel 17 afin d'être pris ensuite en charge automatiquement ou conduit manuellement vers la pointe du cône, ou le centre de la sphère, si le guide virtuel 17 a une forme sphérique. Ces opérations peuvent être reproduites en chaque point ou chaque zone d'intervention prédéterminée de la pièce virtuelle 14.
Lorsque le robot 11 a amené l'outil spécifique 13 dans la zone d'intervention prédéterminée, les coordonnées spatiales de cet outil sont identifiées au moyen de son repère orthogonal R4 et enregistrées dans l'ordinateur 16. De façon similaire, on effectue l'enregistrement simultané des coordonnées spatiales du robot 11 au moyen de son repère orthogonal R3 et l'enregistrement simultané des coordonnées spatiales de la pièce virtuelle 14 ou de la zone d'intervention concernée au moyen de son repère orthogonal R2. Ces différents repérages s'effectuent dans le même espace de travail P défini par le repère orthogonal R1 de sorte que tous les paramètres de déplacements du robot 11 puissent être calculés sur la base des positions réelles. Cette manière de procéder permet de supprimer toutes les imperfections du robot 11 et de mémoriser les paramètres de déplacements réels en ne travaillant que sur une pièce virtuelle 14.
Etant donné que « l'apprentissage » se fait sur une pièce virtuelle 14, il peut être effectué à distance, sous forme de téléapprentissage avec des commandes diverses. Le boîtier de commande 15 du robot 11 est une interface servant à interpréter des ordres qui peuvent lui être transmis par l'opérateur au moyen d'un clavier, mais aussi au moyen d'un téléphone, d'une télécommande, d'un levier de manipulation du type appelé « joystick » ou similaire. Les déplacements peuvent être suivis à distance sur un écran s'ils sont filmés par au moins une caméra.
La forme de réalisation illustrée par la figure 2 représente une première variante qui intègre certains perfectionnements par rapport à la construction de la figure 1 , mais qui répond aux mêmes besoins en matière d'apprentissage de robots. Les composants de cette variante de réalisation, qui sont repris è l'identique de la première réalisation portent les mêmes numéros de référence et ne seront pas expliqués plus en détail. Le dispositif
10 représenté comporte en supplément par rapport à la réalisation de la figure 1 , au moins une caméra 20 qui est agencée de manière à visionner le robot
11 au cours de tous ses déplacements dans l'espace de travail P identifié par le repère R1 et une mire 21 qui comporte par exemple un arrangement de carrés 22 ayant des dimensions déterminées avec précision et espacés de façon régulière pour servir d'étalon de mesure. La mire 21 fournit les dimensions de l'espace de travail P dans lequel évolue le robot 11 et qui est appelé cellule robotisée. La caméra 20 permet de suivre tous les déplacements du robot 11 et la combinaison caméra 20 et mire 21 permet de calibrer les déplacements. Les données dimensionnelles sont enregistrées dans l'ordinateur 16 et permettent d'effectuer le calcul des paramètres des déplacements du robot 11 et plus particulièrement de l'outil 13.
La figure 3 représente une deuxième variante plus évoluée que la précédente qui comporte en outre une deuxième mire 30 associée à l'outil spécifique 13. Selon cette réalisation, la mire 30 est dite embarquée, parce qu'elle est directement liée à la tête du robot 11 pour identifier de manière extrêmement précise les paramètres de déplacements de l'outil 13. Par ce moyen, l'utilisateur disposera à la fois du suivi chiffré avec précision de l'embase 12 du robot 11 , mais également du suivi chiffré avec précision de l'outil spécifique 13. Les coordonnées spatiales sont acquises avec une grande précision et les paramètres de déplacements sont également déterminés avec une grande précision en éliminant toutes les erreurs de manipulation, sachant que les positions sont déterminées sur le robot réel.
Un perfectionnement complémentaire est apporté par la variante selon la figure 4 qui comporte enfin une série de mires supplémentaires 40, 50 (ou plus) associées respectivement à chaque élément mobile 11a, 11b, 11c du robot 11. Selon cette réalisation, les mires 30, 40 et 50 sont dites embarquées, parce qu'elles sont directement liées aux éléments mobiles du robot 11 pour identifier de manière extrêmement précise les paramètres de déplacements de tous ces éléments en cours de travail. Dans cette réalisation, il est possible de calibrer les mouvements du robot 11 avec son outil 13 et son accastillage.
II est bien entendu que la transmission de la scène de l'espace de travail P peut être faite par un ensemble de caméras 20 du type mono ou stéréo. Ces caméras 20 peuvent être pourvues de tous les organes de réglage classique, réglage du foyer pour la quantité de lumière, réglage du diaphragme pour la netteté, réglage de l'objectif pour le grandissement, etc. Ces réglages peuvent être manuels ou automatiques. Une procédure de calibrage est requise pour lier tous les repères R2, R3, R4 du dispositif 10 et pour les expήmer dans un repère unique qui est par exemple le repère R1 de l'espace de travail P.
La tâche de télémanipulation, de téléprogrammation ou de téléapprentissage telle que décrite ci-dessus est effectuée sur une scène virtuelle en impliquant un robot réel et une maquette virtuelle de la pièce réelle en 3D. Dans la pratique, lors de cet apprentissage, l'interface graphique de l'ordinateur se charge de représenter sur un même écran la superposition d'une trajectoire de consigne avec la pièce virtuelle et/ou réelle.
Le repère définissant le point d'impact de l'outil 13 embarqué sur le robot 11, qui est par exemple un robot à six axes : X, Y, Z qui sont des axes orthogonaux à déplacement rectiligne et W, P, R1 qui sont des axes de rotation, sera plus communément appelé repère impact. Le point définissant l'impact souhaité sur la pièce virtuelle 14 s'appellera le point d'impact Pi. Le point d'impact dont les coordonnées sont (x, y, z, w, p, r) est exprimé dans le repère R1 dit universel.
Afin de faciliter la télémanipulation, la téléprogrammation ou le téléapprentissage de la structure articulée asservie, à savoir le robot 11, chaque point de la trajectoire sera au besoin et en fonction du choix de l'opérateur muni d'un guide virtuel 17 d'une forme usuelle de type sphérique ou conique ou autre. Le guide virtuel 17 sert à forcer l'apprentissage vers le repère simulant le point d'impact de l'outil 13 embarqué sur le robot 11 vers le point d'impact Pi souhaité. Cette démarche peut être effectuée de trois façons :
1. en utilisant les coordonnées mesurées par le robot 11 de son point d'impact et en les intégrant dans le dispositif 10 comportant des caméras 20 et des guides virtuels 17 sphériques ou coniques dont les équations sont respectivement:
a. Sphérique d'équation (x - x0)2 +(y - y0)2 + (Z - Z0)2 = R2
R est le rayon de la sphère
Xo, yo et Zo sont les coordonnées du centre de la sphère correspondant au point de la trajectoire, exprimées dans le repère universel R1 x, y et z sont les coordonnées de tout point appartenant à la sphère exprimées dans le repère universel R1.
b. Conique d'équation (x - X0 )2 + (y - y0 )2 = I ^ j (z - Z0 )2
Où r est le rayon de la base du cône et h sa hauteur
Xo, yo et Zo sont les coordonnées du sommet du cône correspondant au point de la trajectoire exprimées dans le repère universel R1 x, y et z sont les coordonnées de tout point appartenant au cône exprimées dans le repère universel R1.
Ou même d'une forme géométrique quelconque dont on sait écrire l'équation sous une forme f(x,y,z) = 0 où x, y et z sont les coordonnées de tout point appartenant à cette forme exprimées dans le repère universel R1.
2. en utilisant une mire 30 embarquée sur l'outil 13 et permettant la mesure par les caméras 20 de sa position instantanée s'acquittant ainsi des mesures du robot 11.
3. en utilisant le modèle virtuel du robot reconstitué grâce à la mesure des caméras et selon le principe décrit ci-dessus.
Par conséquent, l'algorithme d'aide à l'apprentissage ou d'aide au téléapprentissage de la trajectoire du robot 11 consiste à identifier en temps réel la position du repère impact du robot par rapport au guide virtuel 17. Lorsque le repère impact et le guide virtuel 17 sont en intersection, le guide virtuel empêchera le repère impact de sortir du guide et forcera le repère impact à n'évoluer que vers le point d'impact qui est le centre de la sphère ou le sommet du cône par exemple. L'opérateur peut décider d'activer ou non l'assistance ou le guidage automatique dans l'espace défini par le guide virtuel 17.
Au moment de l'activation du guidage automatique, le dispositif 10 est agencé pour valider l'apprentissage du robot 11 relativement à un point dont les coordonnées x, y et z sont les coordonnées du centre de la sphère ou les coordonnées du sommet du cône, selon la forme du repère virtuel. Les orientations w, p et r respectivement appelées roulis, tangage et lacet sont celles du dernier point atteint par l'opérateur.
Le dispositif 10 est agencé pour effectuer des calculs comparatifs de positionnement entre la pièce virtuelle et/ou une pièce réelle ou entre deux pièces virtuelles ou entre deux pièces réelles, selon la configuration prévue.
Ce calcul sera affecté directement à la trajectoire du robot en vue d'une intervention donnée. Ce calcul pourra être soit unique à la demande soit effectué en continu afin de recaler à chaque cycle les pièces en cours de production.
Le mode opératoire décrit ci-dessus est illustré par la figure 5 qui représente un organigramme de fonctions correspondant au procédé de l'invention. Ce mode opératoire comprend les étapes suivantes :
A.- la phase initiale représentée par la case A exprime le fait de créer une trajectoire ;
B.- la phase représentée par la case B consiste à déplacer le robot 11 en mode apprentissage ou télèapprentissage vers un point d'impact Pi de la pièce virtuelle 14 ; C- la phase représentée par la case C consiste à identifier la position du robot 11 ;
D.- la phase représentée par la case D consiste à Vérifier si OUI ou NON le point d'impact Pi appartient à la pièce virtuelle 14. Si la réponse est négative, l'apprentissage est interrompu. Si la réponse est positive, le processus se poursuit ;
E.- la phase représentée par la case E consiste à décider si OUI ou NON l'apprentissage automatique au moyen d'un guide virtuel 17 est enclenché. Si la réponse est négative, l'apprentissage est interrompu. Si la réponse est positive, le processus se poursuit ;
F.- la phase représentée par la case F consiste à enregistrer les coordonnées du centre de la sphère ou du sommet du cône du guide virtuel 17 correspondant ;
G.- la phase représentée par la case G consiste à enregistrer les coordonnées du point d'impact.
En résumé, les avantages du procédé sont essentiellement les suivants :
.- Il permet de créer directement la trajectoire sur la pièce virtuelle 14 en cours de développement sans faire appel au prototype réel ;
.- Il permet de créer la trajectoire à distance via tout type de réseau de communication ;
.- Il permet de prendre en compte directement les contraintes de l'environnement du robot 11 telles que l'encombrement et les mouvements de l'accastillage de ce robot ;
.- Il permet d'éviter d'avoir un apprentissage approximatif à l'œil des points grâce aux guides virtuels 17, ce qui a pour conséquence une amélioration de la qualité de la pièce traitée ; .- Il permet de calculer les temps de cycle du robot 11 avec précision puisque le travail s'effectue sur le robot réel ou son image virtuelle correspondant exactement au robot réel ;
.- Il permet d'effectuer un recalage en trois dimensions de la trajectoire du robot 11 en comparant le positionnement de la pièce virtuelle 14 et de la pièce réelle ;
.- Il permet d'éviter tout risque de collision entre le robot 11 et la pièce réelle et/ou l'opérateur puisque ce dernier se base sur un retour vidéo de la ou des caméras 20 ;
.- Il permet de prendre en compte le modèle virtuel du robot 11 et de réaliser une première ébauche des trajectoires sans les contraintes des conditions de production.
La présente invention n'est pas limitée aux modes de réalisations décrits à titre d'exemples non limitatifs, mais s'étend à toutes évolutions qui restent dans le champ des connaissances acquises de l'homme du métier.

Claims

REVENDICATIONS
1. Procédé d'apprentissage d'un robot (11) ou similaire, ce robot étant agencé pour effectuer des tâches automatisées pour accomplir diverses
5 fonctions notamment, de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique (13) sur une pièce (14), ledit apprentissage étant réalisé pour définir avec précision les déplacements de l'outil spécifique dudit robot, requis dans le cadre de l'accomplissement des tâches à exécuter sur ladite pièce et pour enregistrer les paramètres desdits îo déplacements de l'outil spécifique (13) dudit robot (11), procédé caractérisé en ce que l'on effectue l'apprentissage dudit robot ou similaire sur un modèle virtuel de ladite pièce (14) en 3D, et en ce que l'on associe audit modèle virtuel de la pièce (14) en 3D au moins un guide virtuel (17) définissant un espace agencé pour délimiter une trajectoire d'amenée dudit outil spécifique (13) dudit robot
]5 (11) sur une zone d'intervention prédéterminée du modèle virtuel de ladite pièce (14) en 3D, cette zone d'intervention prédéterminée étant associée audit guide virtuel (17), en ce que l'on amène ledit outil spécifique (13) dudit robot (11) sur ladite zone d'intervention prédéterminée associée audit guide virtuel (17) en utilisant ce guide et en ce que l'on enregistre les coordonnées spatiales dudit 0 outil spécifique (13) dudit robot (11), par rapport à un repère donné (R1) dans lequel est positionnée ladite pièce (13), lorsque cet outil spécifique (13) est effectivement situé sur ladite zone d'intervention prédéterminée.
2. Procédé selon la revendication 1 , caractérisé en ce que ledit robot (11) 5 est l'image virtuelle exacte en 3D d'un robot réel prévu pour être utilisé après son apprentissage.
3. Procédé selon la revendication 1 , caractérisé en ce que l'on utilise un guide virtuel (17) ayant une forme géométrique qui délimite un espace défini, et 0 en ce que l'on effectue l'apprentissage dudit robot (11) en amenant dans une première étape, ledit outil spécifique (13) dans ledit espace défini et en déplaçant, au cours d'une deuxième étape, ledit outil spécifique (13) vers un point caractéristique du guide virtuel (17), ce point caractéristique correspondant avec ladite zone d'intervention prédéterminée dudit modèle virtuel de la pièce (14) en 3D.
5 4. Procédé selon la revendication 3, caractérisé en ce que le guide virtuel (17) a une forme de cône et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée dudit modèle virtuel de la pièce (14) en 3D est le sommet du cône.
îo 5. Procédé selon la revendication 3, caractérisé en ce que le guide virtuel (17) a une forme de sphère et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée dudit modèle virtuel de la pièce (14) en 3D est le centre de la sphère.
) 5 6. Procédé selon la revendication 1, caractérisé en ce que l'on associe au moins une mire (21) à un espace de travail (P) dans lequel sont disposés ledit modèle virtuel de la pièce (14) en 3D et le robot (11) et en ce que l'on utilise au moins une caméra (20) pour réaliser des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11) dans l'espace 0 de travail (P].
7. Procédé selon la revendication 1 , caractérisé en ce que l'on associe au moins une première mire (21) à un espace de travail (P) dans lequel sont disposés ledit modèle virtuel de ladite pièce (14) en 3D et le robot (11) et une 5 deuxième mire (30) à l'outil spécifique (13) du robot (11) et en ce que l'on utilise au moins une caméra (20) pour réaliser des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11) et ceux de l'outil spécifique (13) dans l'espace de travail (P). 0
8. Procédé selon la revendication 1 , caractérisé en ce que l'on associe au moins une première mire (21) à un espace de travail (P) dans lequel sont disposés ledit modèle virtuel de ladite pièce (14) en 3D et le robot (11), une deuxième mire (30) à l'outil spécifique (13) du robot et au moins une troisième mire (40, 50) sur au moins un des éléments mobiles (11a, 11b, 11c) du robot (11), et en ce que l'on utilise au moins une caméra (20) pour réaliser des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11), d'au moins un de ses éléments mobiles et ceux de l'outil spécifique (13) dans l'espace de travail (P).
9. Procédé selon la revendication 1 , caractérisé en ce que l'on effectue lesdites opérations d'apprentissage à distance par communications à travers une interface couplée à un boîtier de commande (15) du robot (11 ).
10. Dispositif (10) d'apprentissage d'un robot (11) ou similaire, ce robot étant agencé pour effectuer des tâches automatisées en vue d'accomplir diverses fonctions notamment, de traitement, de montage, de conditionnement, de maintien, au moyen d'un outil spécifique (13) sur une pièce (14), ledit apprentissage étant réalisé pour définir avec précision les déplacements de ce robot requis dans le cadre de l'accomplissement de ses tâches et consistant à déterminer et à enregistrer les paramètres de ces déplacements, pour la mise en œuvre du procédé selon l'une quelconque des revendications précédentes, dispositif caractérisé en ce qu'il comporte des moyens pour visualiser ladite pièce (14) sous une forme entièrement virtuelle définie par un modèle virtuel en 3D, des moyens de commande pour effectuer lesdits déplacements dudit outil spécifique (13), des moyens pour associer audit modèle virtuel de ladite pièce (14) en 3D au moins un guide virtuel (17) définissant un espace agencé pour délimiter une trajectoire d'amenée dudit outil spécifique (13) dudit robot (11) sur une zone d'intervention prédéterminée dudit modèle virtuel de ladite pièce (14) en 3D, cette zone d'intervention prédéterminée étant associée audit guide virtuel (17), des moyens pour amener ledit outil spécifique (13) dudit robot (11) sur ladite zone d'intervention prédéterminée associée audit guide virtuel (17) en utilisant ce guide et des moyens (16) pour enregistrer les coordonnées spatiales dudit outil spécifique (13) dudit robot, par rapport à un repère donné (R1 ) dans lequel est positionné ledit modèle virtuel de ladite pièce (14) en 3D, lorsque cet outil est effectivement situé sur ladite zone d'intervention prédéterminée.
11. Dispositif selon la revendication 10, caractérisé en ce que ledit guide virtuel (17) a une forme géométrique qui délimite un espace défini, des moyens pour amener dans une première étape, ledit outil spécifique (13) dans ledit espace défini et des moyens pour déplacer, au cours d'une deuxième étape, ledit outil spécifique (13) vers un point caractéristique du guide virtuel (17), ce point caractéristique correspondant avec ladite zone d'intervention prédéterminée dudit modèle virtuel de ladite pièce (14) en 3D.
12. Dispositif selon la revendication 11 , caractérisé en ce que le guide virtuel (17) a une forme de cône et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée dudit modèle virtuel de ladite pièce (14) en 3D est le sommet du cène.
13. Dispositif selon la revendication 11 , caractérisé en ce que le guide virtuel (17) a une forme d'une sphère et en ce que ledit point caractéristique correspondant avec ladite zone d'intervention prédéterminée dudit modèle virtuel de ladite pièce (14) en 3D est le centre de la sphère.
14. Dispositif selon la revendication 10, caractérisé en ce qu'il comporte au moins une mire (21) associée à un espace de travail (P) dans lequel sont disposés ledit modèle virtuel de ladite pièce (14) en 3D et le robot (11) et au moins une caméra (20) pour réaliser des images dudit espace de travail (P) en vue de calibrer les déplacements de l'embase (12) du robot (11) dans l'espace de travail (P).
15. Dispositif selon la revendication 10, caractérisé en ce qu'il comporte au moins une première mire (21) associée à un espace de travail (P) dans lequel sont disposés ledit modèle virtuel de ladite pièce (14) en 3D et le robot (11) et au moins une deuxième mire (30) associée à l'outil spécifique (13) du robot, ainsi que au moins une caméra (20) pour réaliser des images audit espace de travail en vue de calibrer les déplacements de l'embase (12) du robot et ceux de l'outil spécifique (13) dans l'espace de travail (P).
16. Dispositif selon la revendication 10, caractérisé en ce qu'il comporte au moins une première mire (21) associée à un espace de travail (P) dans lequel sont disposés ledit modèle virtuel de ladite pièce (14) en 3D et le robot (11), au moins une deuxième mire (30) à l'outil spécifique (13) du robot et au moins une troisième mire (40, 50) sur au moins un des éléments mobiles (11a, 11b, 11c) du robot, ainsi au moins une caméra (20) pour réaliser des images dudit espace de travail en vue de calibrer les déplacements de l'embase (12) du robot, d'au moins un de ses éléments mobiles (11a, 11b, 11c) et ceux de l'outil spécifique (13) dans l'espace de travail (P).
EP09702428A 2008-01-15 2009-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede Withdrawn EP2242621A2 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0800209A FR2926240B1 (fr) 2008-01-15 2008-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede.
PCT/IB2009/000066 WO2009090542A2 (fr) 2008-01-15 2009-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede

Publications (1)

Publication Number Publication Date
EP2242621A2 true EP2242621A2 (fr) 2010-10-27

Family

ID=39971023

Family Applications (1)

Application Number Title Priority Date Filing Date
EP09702428A Withdrawn EP2242621A2 (fr) 2008-01-15 2009-01-15 Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede

Country Status (5)

Country Link
US (1) US20110046783A1 (fr)
EP (1) EP2242621A2 (fr)
JP (1) JP2011509835A (fr)
FR (1) FR2926240B1 (fr)
WO (1) WO2009090542A2 (fr)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
US20130343640A1 (en) 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US10078712B2 (en) * 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
CN105388851B (zh) * 2015-10-30 2018-03-27 黑龙江大学 运动体视觉控制系统和方法、机电运动体以及移动终端
CN106933223B (zh) * 2015-12-30 2020-06-26 深圳市朗驰欣创科技股份有限公司 一种机器人自主导航方法及系统
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
DE102016225986A1 (de) * 2016-12-22 2018-06-28 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Formen eines Bleches
US11194936B2 (en) * 2018-08-21 2021-12-07 The Boeing Company System and method for analyzing and testing multi-degree of freedom objects
US11292133B2 (en) * 2018-09-28 2022-04-05 Intel Corporation Methods and apparatus to train interdependent autonomous machines
CN111702757B (zh) * 2020-05-27 2021-08-17 华中科技大学 基于操作者意图的控制方法、装置、计算设备及存储介质
CN113510254B (zh) * 2021-07-28 2022-05-31 庆铃汽车(集团)有限公司 车床上工件加工振纹的消除方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6317953B1 (en) * 1981-05-11 2001-11-20 Lmi-Diffracto Vision target based assembly
US6204620B1 (en) * 1999-12-10 2001-03-20 Fanuc Robotics North America Method of controlling an intelligent assist device
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
DK3045273T3 (en) * 2006-03-03 2019-02-25 Universal Robots As Joint for a robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2009090542A2 *

Also Published As

Publication number Publication date
FR2926240B1 (fr) 2010-04-30
US20110046783A1 (en) 2011-02-24
WO2009090542A2 (fr) 2009-07-23
FR2926240A1 (fr) 2009-07-17
JP2011509835A (ja) 2011-03-31
WO2009090542A3 (fr) 2009-11-05

Similar Documents

Publication Publication Date Title
EP2242621A2 (fr) Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede
EP2542390B1 (fr) Procede et systeme d'aide a la manipulation d'engins robotises en environnement encombre
US7570795B2 (en) Multi-region autofocus tool and mode
CN101396767B (zh) 激光加工设备、加工数据产生方法
US20080101682A1 (en) Arc tool user interface
FR2827066A1 (fr) Dispositif de simulation et procede pour l'apprentissage d'une technique manuelle, notamment le soudage a l'arc
CA2923490A1 (fr) Procede de generation d'un programme d'usinage interpretable par un controleur physique d'une machine-outil a commande numerique
JP6869159B2 (ja) ロボットシステム
WO2013053701A1 (fr) Procede d'etalonnage d'un systeme de vision par ordinateur embarque sur un mobile
EP1913556A2 (fr) Procede et dispositif pour determiner la pose d'un moyen de capture video dans le repere de numerisation d'au moins un objet virtuel en trois dimensions modelisant au moins un objet reel
WO2017103489A1 (fr) Système et procédé pour la correction d'une trajectoire d'un effecteur porté par un robot
EP1671192B1 (fr) Procede d' etalonnage d' une machine de percage de verres ophtalmiques, dispositif pour la mise en oeuvre d' un tel procede, et appareil d' usinage de verres ophtalmiques equipe d' un tel dispositif
CN106903425A (zh) 用于处理工件的方法
EP3086908B1 (fr) Repérage du centre outil et de l'orientation d'une sonde acoustique dans un repère de référence, par méthode ultrasonore
EP2483039B1 (fr) Systeme et procede de restitution synchrone par un robot de mouvements d'une main ou d'un organe d'extremite
EP3092533B1 (fr) Systemes d`usinage comportant une machine d`usinage et des procedes de commande
JP4899099B2 (ja) 作業ロボットの位置計測装置
JP6712881B2 (ja) ワーク加工装置
FR2884781A1 (fr) Methode et dispositif de calibrage de camera
FR3096599A1 (fr) Collaboration d'un robot et d'un opérateur en vue de modifier une pièce
WO2008081115A2 (fr) Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques
EP3671548B1 (fr) Syste me de visualisation d'un espace de contro le par rajout de frontie res graphiques au niveau d'une image prise par une came ra
EP3658998A1 (fr) Procédé de contrôle d'une surface
FR2879119A1 (fr) Procede de commande de robots, installation de traitement de pieces, et application
FR3123680A1 (fr) Procédé de saisie automatique d’un voussoir de revêtement d'un tunnel

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20100623

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA RS

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20130801