FR2934911A1 - Systeme automatise de guidage et de reconnaissance et procede pour ledit systeme - Google Patents

Systeme automatise de guidage et de reconnaissance et procede pour ledit systeme Download PDF

Info

Publication number
FR2934911A1
FR2934911A1 FR0954915A FR0954915A FR2934911A1 FR 2934911 A1 FR2934911 A1 FR 2934911A1 FR 0954915 A FR0954915 A FR 0954915A FR 0954915 A FR0954915 A FR 0954915A FR 2934911 A1 FR2934911 A1 FR 2934911A1
Authority
FR
France
Prior art keywords
manipulator
controller
recognition
production part
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0954915A
Other languages
English (en)
Other versions
FR2934911B1 (fr
Inventor
Simon Melikian
Maximiliano A Falcone
Joseph Cyrek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RECOGNITION ROBOTICS, INC., US
Comau LLC
Original Assignee
RECOGNITION ROBOTICS Inc
Comau LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RECOGNITION ROBOTICS Inc, Comau LLC filed Critical RECOGNITION ROBOTICS Inc
Publication of FR2934911A1 publication Critical patent/FR2934911A1/fr
Application granted granted Critical
Publication of FR2934911B1 publication Critical patent/FR2934911B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37561Move camera until image corresponds to stored image of same workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39397Map image error directly to robot movement, position with relation to world, base not needed, image based visual servoing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40003Move end effector so that image center is shifted to desired position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/11Technique with transformation invariance effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

Les modes de réalisation et procédés de l'invention ci-décrite concernent un système de guidage et de reconnaissance visuels (10) qui n'exige aucun étalonnage. Un mode de réalisation du système comprend un manipulateur asservi (20) configuré pour réaliser une fonction, un appareil photographique (30) monté sur la plaque frontale (65) du manipulateur (20) et un contrôleur de reconnaissance (50) configuré pour acquérir une image bidimensionnelle de la pièce. Le contrôleur de manipulateur (40) est configuré pour recevoir et enregistrer la position de la plaque frontale (65) à une distance « A » entre la pièce de référence (70) et le manipulateur (20) le long d'un axe de la pièce de référence (70) quand la pièce de référence (70) se trouve dans la région d'intérêt de l'appareil photographique (30). Le contrôleur de reconnaissance (50) est configuré pour apprendre la pièce à partir de l'image et de la distance « A ». Pendant l'opération, une pièce est reconnue par le système, et le manipulateur (20) est positionné précisément par rapport à la pièce pour que le manipulateur (20) puisse réaliser sa fonction avec précision.

Description

SYSTÈME AUTOMATISÉ DE GUIDAGE ET DE RECONNAISSANCE ET PROCÉDÉ POUR LEDIT SYSTÈME La présente invention concerne un système automatisé de guidage et de reconnaissance servant à reconnaître une pièce dans un espace tridimensionnel et permettant l'alignement d'un manipulateur asservi par rapport à la pièce.
Les exigences de pièces de qualité supérieure et de production accrue imposées aux fabricants ont entraîné une automatisation accrue des processus de fabrication et d'assemblage. Les robots, largement employés dans de nombreux secteurs de fabrication, constituent l'une de ces techniques d'automatisation. Les robots peuvent en effet réaliser un grand éventail de fonctions telles que l'inspection, le soudage, le déplacement et la manipulation de pièces, la peinture, etc. Pour réaliser une fonction particulière, un robot doit être programmé pour l'effectuer sur une pièce particulière. Toutefois, cette programmation s'appuie sur un jeu de paramètres modèles . Les paramètres réels qui existent entre un robot industriel et une pièce particulière diffèrent des paramètres modèles en raison, par exemple, de légers changements qui interviennent dans les positionnements du robot et la pièce. Chaque robot doit donc être étalonné pour un type de pièce particulier et ajusté individuellement au niveau de chaque pièce en fonction de la position de la pièce et de l'étalonnage. Qui plus est, quand le type de pièce est modifié, que ce soit lors de changements d'équipes ou au cours d'un travail en équipe, il faut soit ré-étalonner le robot soit saisir la pièce dans le contrôleur du robot pour que le robot puisse s'ajuster à la nouvelle géométrie d'une pièce différente. Il existe de nombreux systèmes connus pour améliorer la reconnaissance et la précision de positionnement d'un robot industriel. Certains emploient des 3o algorithmes basés sur un modèle mathématique des géométries du robot et de
la pièce. Une pluralité de capteurs visuels, ou un seul capteur visuel mobile, est utilisé(e) pour acquérir des images de la pièce à partir du robot sur un nombre d'angles suffisant pour produire une représentation tridimensionnelle. Des capteurs visuels, intégrant des lasers ou autres sources lumineuses pour projeter un faisceau en fente, sont aussi utilisés ; une image tridimensionnelle étant obtenue par la segmentation et la réflexion de la lumière. Ces systèmes mettent normalement en jeu des formules mathématiques complexes et des procédures d'étalonnage qui prennent du temps. Ces systèmes existants peuvent prendre beaucoup de temps pour exécuter une opération avec chaque type de pièce et leur étalonnage peut souvent exiger du personnel qualifié. Qui plus est, changer le type de pièce pendant le fonctionnement peut être infaisable en raison de l'étalonnage nécessaire entre les pièces et diminuant la flexibilité et la productivité de l'installation de fabrication ou de production. Les fabricants et producteurs qui emploient des robots industriels dans leurs opérations recherchent activement des améliorations dans ces domaines.
Le présent document décrit des modes de réalisation du système de guidage et de reconnaissance visuels servant à reconnaître des pièces et à guider un manipulateur asservi sans cible d'étalonnage. L'un des modes de réalisation du système de guidage et de reconnaissance visuels comprend : un manipulateur asservi configuré pour réaliser une fonction, un appareil photographique monté sur, ou en relation fixe avec, une plaque frontale du manipulateur, un système de reconnaissance configuré pour acquérir une image bidimensionnelle au moyen de l'appareil photographique d'au moins une partie d'au moins une pièce de référence et un contrôleur de manipulateur configuré pour recevoir et enregistrer une position de la plaque frontale à une distance A entre la pièce de référence et le manipulateur le long d'un axe de coordonnées de la pièce de référence quand l'image de la pièce de référence est acquise. Le système de
reconnaissance est configuré en outre pour apprendre la pièce de référence sur la base de l'image bidimensionnelle et de la distance A associée à la pièce de référence. Un autre mode de réalisation du système de guidage et de reconnaissance visuels servant à reconnaître des pièces et à guider un manipulateur asservi sans cible d'étalonnage comprend : un contrôleur de reconnaissance comprenant une base de données contenant au moins une pièce de référence, un manipulateur asservi configuré pour réaliser une fonction, un appareil photographique monté sur, ou en relation fixe avec, une plaque frontale du manipulateur et un contrôleur de manipulateur configuré pour commander le mouvement du manipulateur asservi. Le système de reconnaissance est configuré pour : acquérir une image bidimensionnelle au moyen de l'appareil photographique d'au moins une partie d'une pièce de production, assortir l'image de la pièce de production à la pièce de référence dans la base de données, calculer un décalage de données de dimensions entre l'image de la pièce de production et une image associée à la pièce de référence, et envoyer un signal au contrôleur de manipulateur pour qu'il déplace le manipulateur afin de réduire le décalage jusqu'à ce qu'il soit inférieur à une valeur seuil. Le présent document décrit aussi les procédés de guidage et de reconnaissance visuels d'une pièce utilisant un appareil photographique et un manipulateur sans qu'aucun étalonnage ne soit nécessaire. L'une des méthodes ci-décrites comprend : un positionnement d'une pièce de référence, un enregistrement d'une position de travail du manipulateur au niveau de la pièce de référence dans un contrôleur de manipulateur, un déplacement du manipulateur le long d'un axe de coordonnées de la pièce de référence à une distance A , au moins une partie de la pièce de référence se trouvant dans une région d'intérêt de l'appareil photographique, un enregistrement de la position d'une plaque frontale du manipulateur à la distance A dans le contrôleur de manipulateur, une acquisition d'une image bidimensionnelle avec
un contrôleur de reconnaissance au moyen de l'appareil photographique d'au moins une partie d'au moins une pièce de référence et un apprentissage de la pièce de référence avec le contrôleur de reconnaissance sur la base de l'image bidimensionnelle et de la distance A associée à la pièce de référence.
La présente description se réfère aux schémas ci-joints dans lesquels des numéros de référence similaires désignent des pièces similaires dans la pluralité de vues et parmi lesquels : La Figure 1 est une vue schématique d'un mode de réalisation du système de 10 guidage et de reconnaissance visuels ci-décrit ; La Figure 2 est un organigramme d'un mode de réalisation d'un procédé de guidage et de reconnaissance visuels pour une pièce ; et La Figure 3 est un organigramme d'un autre mode de réalisation d'un procédé de guidage et de reconnaissance visuels pour une pièce. 15 La Figure 1 est une vue schématique d'un mode de réalisation du système de guidage et de reconnaissance visuels 10 qui n'exige aucun étalonnage selon la présente description. Le système de guidage et de reconnaissance visuels 10 comprend : un manipulateur asservi 20, un appareil photographique 30, un 20 contrôleur de manipulateur 40 et un contrôleur de reconnaissance 50. Le manipulateur 20 possède un organe terminal effecteur 60 qui varie physiquement suivant la fonction pour laquelle le manipulateur a été programmé. Des exemples non restrictifs d'organes terminaux effecteurs 60 peuvent être des organes de bras, de soudage, de préhension, de vaporisation 25 de peinture, ainsi que d'autres outils, requis ou souhaitables, pour que le manipulateur 20 réalise sa fonction. L'organe terminal effecteur 60 se prolonge normalement d'une plaque frontale 65 du manipulateur 20. L'appareil photographique 30 est normalement monté sur, ou en relation fixe avec, la plaque frontale 65 du manipulateur 20. Le système de reconnaissance visuelle
10 fonctionne pour reconnaître une pièce 70 et positionner le manipulateur 20 avec précision par rapport à la pièce 70. La pièce 70 peut être une pièce, un composant ou un produit, etc., sur lequel le manipulateur 20 réalisera la fonction. Comme exemples non restrictifs de fonctions types, les manipulateurs sont utilisés pour réaliser des opérations de soudage, manipulation de matériaux, surveillance de machines, etc. Le manipulateur asservi 20 peut être, par exemple, un type quelconque de robot ou de pont portique connu dans la technique. Des exemples non-restrictifs de types de robots sont les robots articulés, cartésiens, cylindriques, polaires et SCARA. Les robots et ponts portiques industriels ont normalement six axes de mouvement (6 degrés de liberté) qui leur confèrent un maximum de souplesse. Les manipulateurs asservis ci-décrits sont indiqués à titre d'exemple et non de restriction, et d'autres manipulateurs asservis connus des personnes compétentes dans la technique peuvent être utilisés.
L'appareil photographique 30 intégré au système de reconnaissance visuelle 10 peut être n'importe quel appareil photo numérique ou caméra vidéo bidimensionnelle. Comme exemple non restrictif, l'appareil photographique 30 peut être un dispositif d'image bidimensionnelle courant tel qu'un appareil photographique de type CCD (dispositif à transfert de charge) ou CMOS (semi- conducteur complémentaire à l'oxyde de métal). L'un des appareils photographiques utilisables dans le système de reconnaissance visuelle est un DALSA Genie. Les appareils photographiques décrits sont indiqués à titre d'exemple et non de restriction, et d'autres appareils photographiques bidimensionnels connus des personnes compétentes dans la technique peuvent être utilisés. Bien que seul un appareil photographique bidimensionnel soit décrit ici, l'utilisation d'un capteur visuel tridimensionnel est envisagée, de même que l'utilisation de plusieurs appareils photographiques ou capteurs visuels tridimensionnels. Le contrôleur de manipulateur 40 peut être une unité centrale de traitement qui
commande le mouvement du manipulateur sur la base de : la géométrie du manipulateur, la géométrie de la pièce, la fonction que le manipulateur effectuera sur la pièce, et d'éventuelles données mises à jour, saisies pendant le réglage ou le fonctionnement. Les contrôleurs de manipulateur sont bien connus dans la technique et une description détaillée du contrôleur de manipulateur ne rentre pas dans le champ d'application de cette description. Comme l'appareil photographique 30 peut être monté sur la plaque frontale 65 du manipulateur 20 ou en relation fixe avec la plaque frontale 65, le contrôleur de manipulateur 40 commande aussi la position de l'appareil photographique 30. Le contrôleur de reconnaissance 50 peut être une unité centrale de traitement configurée pour acquérir des images bidimensionnelles au moyen de l'appareil photographique 30 et pour communiquer avec le contrôleur de manipulateur 40 afin de lui envoyer un signal pour qu'il déplace le manipulateur 20 sur la base des images acquises par le contrôleur de reconnaissance 50. L'unité centrale de traitement peut en outre être configurée avec le logiciel de guidage et de reconnaissance visuels, incorporé par référence ci-dessous. Les liaisons de communication entre le manipulateur 20, le contrôleur de manipulateur 40, le contrôleur de reconnaissance 50 et l'appareil photographique 30 peuvent transmettre des informations, par des câbles allant d'une unité à l'autre, par exemple. Dans une autre option, les liaisons de communication peuvent se faire sans fil, par rayons infrarouges ou par radiofréquences, par exemple. Il est également envisagé que la communication s'effectue au moyen de données et signaux saisis manuellement par un opérateur. Les liaisons de communication décrites sont indiquées à titre d'exemple et non de restriction, et d'autres procédés de communication peuvent être utilisés par les personnes compétentes dans la technique. Le système de guidage et de reconnaissance visuels 10 illustré à la Figure 1 n'a pas besoin d'être étalonné avant l'emploi. Autrement dit, il n'est pas nécessaire
d'associer le système de coordonnées de l'appareil photographique 30 à celui du manipulateur 20 avant le réglage ou l'utilisation, ceci à cause du logiciel de guidage et de reconnaissance visuels. Le fait de pouvoir procéder sans étalonnage diminue sensiblement le temps de réglage nécessaire au système et réduit le degré de compétence requis pour l'opérateur du système ou de la chaîne de production où le système est employé. En éliminant l'étape d'étalonnage, le temps d'arrêt de production est réduit lui aussi, puisqu'un réétalonnage en cours d'emploi n'est pas nécessaire non plus. Le système ci-décrit peut présenter des avantages économiques sensibles, en partie parce qu'il élimine l'étalonnage devant être encore effectué actuellement à plusieurs reprises sur les systèmes courants. Le système de guidage et de reconnaissance visuels 10 peut faire l'objet d'un réglage pour une pièce ou pour une pluralité de pièces différentes. Le nombre de pièces de référence différentes n'est limité que par la mémoire du système.
Qui plus est, le type des pièces de référence peut varier de manières illimitées quant à leur longueur, largeur, profondeur, forme, couleur, matériau, etc. Le terme référence signifie simplement l'un des types de pièces que le système de guidage et de reconnaissance visuels 10 doit apprendre. Il ne s'agit pas d'une pièce spéciale, mais plutôt d'une pièce parmi une série de pièces sur laquelle le manipulateur réalisera une fonction particulière. Par exemple, si une opération réalisée dans le cadre d'une installation consiste à placer un point de soudure sur un cadre de portière de véhicule, n'importe quel cadre de portière de véhicule, parmi ceux devant recevoir la soudure, peut être choisi comme pièce de référence.
Pour chaque type ou sorte de pièce qu'un manipulateur 30 peut rencontrer pendant l'opération, le système de guidage et de reconnaissance visuels 10 doit apprendre la pièce. Ce processus est appelé réglage . Pour régler un type de pièce qui représente une série de pièces que le manipulateur 30 pourrait rencontrer pendant une opération, une pièce de référence 70 est placée
à une position de référence. Cette position de référence peut être la position qui simule la position de la pièce pendant l'opération effective. Dans le contexte du présent document, opération désigne tout processus réalisé au moyen du système 10 et des procédés ci-décrits. Des exemples non restrictifs d'opérations peuvent être des processus, productions, assemblages, inspections, analyses quantitatives, etc. Le manipulateur 20 est mis à une position de travail correspondant à la position à laquelle l'organe terminal effecteur 60 réalise sa fonction sur la pièce 70. Cette position de travail est enregistrée dans le contrôleur de manipulateur 40. Le centre de la plaque frontale 65 du manipulateur 20 est alors déplacé à une distance A de la pièce de référence 70 le long d'un axe de coordonnées entre la plaque frontale du manipulateur 20 et la pièce 70. La distance A est déterminée quand une partie suffisante de la pièce de référence 70 est entrée dans la région d'intérêt (ROI) de l'appareil photographique 30. Une partie suffisante de la pièce de référence 70 peut être entrée dans la ROI quand l'image entière de la pièce de référence 70 se trouve dans la ROI, ou quand une partie d'une image de la pièce de référence 70 se trouve dans la ROI. Un exemple de ROI est indiqué à la Figure 1 par les flèches en pointillés. La pièce 70 ou sa partie peut être en outre centrée dans la ROI par un mouvement du manipulateur 20 dans le plan parallèle à la pièce de référence 70. Quand la partie souhaitée de la pièce de référence 70 est suffisamment entrée dans la ROI de l'appareil photographique 30, le contrôleur de manipulateur 40 enregistre la position de la plaque frontale 65 à la distance A pour cette pièce de référence 70. Une image bidimensionnelle peut être acquise par le contrôleur de reconnaissance 50 au moyen de l'appareil photographique 30 pendant que la plaque frontale est positionnée à la distance A . Le contrôleur de reconnaissance 50 peut apprendre la pièce de référence pour reconnaître des pièces similaires à l'avenir. Le contrôleur de reconnaissance 50 peut enregistrer l'image bidimensionnelle avec la distance associée A pour la
pièce de référence 70 dans la base de données du contrôleur de reconnaissance. Il convient de noter que la distance A ne se limite pas à une distance entre la pièce et la plaque frontale le long d'un axe de coordonnées. La distance A peut aussi être la distance entre deux points sur la pièce de référence qui reste la même pour ce type de pièce. La distance correspondante sur l'image correspondante est enregistrée dans le contrôleur de manipulateur 40 et associée à cette pièce de référence. L'apprentissage de la pièce de référence par le contrôleur de reconnaissance 50, l'enregistrement d'une pluralité de pièces de référence apprises, et la reconnaissance des pièces individuelles à partir de la base de données peuvent être effectués au moyen du système et du procédé décrits dans la demande de brevet US No. 12/101,583 de Melikian, déposée le 11 avril 2008 sous l'intitulé SYSTEM AND METHOD FOR VISUAL RECOGNITION (Système et procédé de reconnaissance visuelle). Dans ce système, une image d'un objet est apprise ou reconnue par l'extraction de points uniques invariants des présentations d'objets. Les points uniques sont obtenus par une corrélation croisée de l'image avec une structure. En général, la structure et/ou la dimension de la structure peuvent varier pour détecter les informations d'extremum associées à l'objet appris et/ou à l'objet cible. Une icône correspondant à chacun des points uniques est extraite. La dimension de l'icône correspond à l'échelle du point unique. Après avoir extrait les diverses icônes, un objet devient un assemblage d'icônes. Chacune de ces icônes est non-pivotée et normalisée ou redimensionnée suivant une dimension constante pour permettre sa comparaison à d'autres icônes. L'une des propriétés uniques de ces icônes est leur stabilité d'échelle et d'angle. Ceci permet une reconnaissance très rapide sur une/des image(s) ou sur un/des objet(s) à partir d'un grand nombre d'images ou d'objets appris. Le mode de réalisation du système de guidage et de reconnaissance visuels 10 2934911 -10-
de la Figure 1 peut être utilisé comme suit pendant l'opération. En mode opérationnel, une pièce de production 170 est présentée au manipulateur 20 par transporteur, rack, casier, palette, etc. Une pièce de production 170 peut être présentée au manipulateur de toutes les manières connues dans la technique 5 sans se limiter aux exemples donnés. Dans le contexte de l'invention, une pièce de production désigne toute pièce sur laquelle le manipulateur 20 réalise une fonction pendant l'opération. Le système de guidage et de reconnaissance visuels 10 peut être adapté à des installations et opérations individuelles suivant les souhaits ou les besoins. Dans 10 certaines opérations, il est envisagé qu'un manipulateur particulier soit attribué à un type particulier de pièce. Dans d'autres situations, la gamme complète des fonctionnalités du système 10 peut être employée ; un manipulateur 20 réalisera ainsi des fonctions sur diverses pièces dans un ordre non spécifié. Ces deux situations sont décrites ci-après. 15 Quand le type de pièce de production est connu du système 10, celui-ci peut déterminer la position de la pièce par rapport au manipulateur 20 quand la pièce est présentée dans l'opération. Le système 10 ajuste le manipulateur 20 en rapport avec la pièce de production 170 pour que la fonction soit réalisée avec précision par le manipulateur 20 sur la pièce 170. 20 Dans le cadre de l'opération, le manipulateur aura une position repos . Cette position repos peut être celle de la plaque frontale 65 à la distance A associée au type de pièce de l'opération. La position repos ne se limite toutefois pas à cette position et peut être n'importe quelle position souhaitée ou requise par l'opération. Un minimum d'étapes de programmation peut toutefois 25 être réalisé si la position repos correspond à celle de la plaque frontale 65 à la distance A associée au type de pièce de l'opération. Quand la pièce de production 170 est positionnée opérationnellement en fonction du manipulateur 20 à sa position repos , une image bidimensionnelle de la pièce de production 170 est acquise par le contrôleur de reconnaissance 50 au moyen de 2934911 -11 -
l'appareil photographique 30. L'image bidimensionnelle acquise par le contrôleur de reconnaissance 50 de la pièce de production 170 est comparée à l'image bidimensionnelle de la pièce de référence 70 associée qui a été acquise lors du réglage. 5 Pendant la comparaison, le contrôleur de reconnaissance 50 calcule un décalage entre les deux images et envoie un signal au contrôleur de manipulateur 40 pour qu'il déplace le manipulateur afin de faire passer le décalage en dessous d'une valeur seuil acceptable. La quantité de translation, rotation et mise à l'échelle nécessaire pour transformer l'image de la pièce de 1 o production est calculée de telle sorte que l'icône correspondant à chacun des points uniques de la pièce de production chevauche l'icône correspondant à chacun des points uniques de la pièce de référence. Le manipulateur 20 est déplacé sur la base de ces calculs. Le décalage peut être recalculé autant de fois qu'il le faut jusqu'à ce que la 15 valeur seuil soit atteinte. La valeur seuil peut varier en fonction de la précision requise pour que le manipulateur réalise sa fonction désignée. Moins on exige de précision, plus la valeur seuil du décalage sera grande. Il est envisagé que certaines fonctions puissent exiger un niveau de précision telle que la valeur seuil soit nulle. Lorsque le décalage arrive en dessous de la valeur seuil, le 20 manipulateur 20 peut continuer à réaliser la fonction sur la pièce de production 170. Quand cette fonction est terminée, la pièce de production 170 avance et une nouvelle pièce de production est présentée. Le contrôleur de manipulateur 40 peut déplacer le manipulateur 20, sur la base du signal émis par le contrôleur de reconnaissance 50, simultanément sur 25 chacun des six degrés de liberté. Une autre option envisage également que le contrôleur de manipulateur 40 puisse déplacer le manipulateur 20 par étapes ù une étape avec un mouvement de trois degrés de liberté et une deuxième étape avec un mouvement de trois degrés de liberté, par exemple. Dans un autre mode de réalisation, le système de guidage et de reconnaissance 2934911 -12-
visuels 10 peut être utilisé pour déterminer quel type de pièce a été présenté puis pour positionner avec précision le manipulateur 20 par rapport à la pièce afin de réaliser la fonction programmée associée à la pièce. Le système 10 est en mesure de reconnaître chaque pièce présentée au manipulateur 20 à 5 condition qu'une pièce de référence associée soit passée par la procédure de réglage. Une base de données contenant toutes les pièces de référence 70 apprises pendant le processus de réglage est enregistrée dans le contrôleur de reconnaissance 50. Pendant l'opération, une pièce de production 170 est présentée au manipulateur 20 à une position repos de la manière décrite 10 précédemment. Une image bidimensionnelle de la pièce de production 170 est acquise par le contrôleur de reconnaissance 50 au moyen de l'appareil photographique 30. Le contrôleur de reconnaissance 50 compare l'image bidimensionnelle de la pièce de production 170 avec la base de données de pièces de référence. Le contrôleur de reconnaissance associe la pièce de 15 production 170 à une pièce de référence dans la base de données par un nombre de points de référence partagé entre les images. Il convient de noter que la distance A associée à chaque pièce de référence est étroitement associée à la dimension de la pièce. Sur une chaîne opérationnelle type, il est probable que les types de pièces auront des 20 dimensions similaires. Ceci peut être attribué à de nombreux facteurs différents tels que des opérations en aval comme la palettisation, le chargement, etc. Dans cette situation, la position repos du manipulateur 20 ne variera pas sensiblement d'un type de pièce à un autre. Une position repos suffira pour reconnaître les diverses pièces car une proportion suffisante de l'image sera 25 acquise pour faire une comparaison. Autrement dit, il n'est pas critique que l'image de pièce de production soit acquise avec la même ROI que l'image de la pièce de référence. La reconnaissance sera tout de même possible en raison du nombre suffisant de points de données d'image partagés. Toutefois, il peut être envisagé que, dans certaines circonstances, d'importants changements de 2934911 -13-
dimension des pièces puissent s'avérer souhaitables ou nécessaires. Quand une pièce beaucoup plus grande est présentée à un manipulateur à une position repos associée à une pièce beaucoup plus petite, l'image acquise à cette position repos peut être insuffisante pour reconnaître la pièce. À ce stade, le 5 contrôleur de reconnaissance 50 enverra un signal au contrôleur de manipulateur 40 pour qu'il ajuste la distance A entre la plaque frontale et la pièce afin d'acquérir une image bidimensionnelle suffisante de la pièce de sorte qu'un nombre suffisant de points de données soient une position identifiée de la plaque frontale 65 à la distance A associée au type de pièce de l'opération 10 afin de reconnaître la pièce. Lorsque la pièce de production 170 est reconnue, le contrôleur de reconnaissance 50 a une image de la pièce de référence 70 associée à l'image qui vient d'être prise de la pièce de production 170. Le contrôleur de reconnaissance 50 détermine alors la position de la pièce de production 170 et 15 ajuste le manipulateur 20 par rapport à la position sur la base de l'image de la pièce de référence ainsi qu'indiqué précédemment. Un décalage entre les points de données d'image est calculé s'il y a lieu. Le décalage peut porter sur un axe ou sur plusieurs des six axes de mouvement. Le contrôleur de reconnaissance 50 envoie un signal au contrôleur de manipulateur 40 pour qu'il ajuste la position 20 du manipulateur afin de réduire ou d'éliminer le décalage. Cette étape peut être répétée le nombre de fois nécessaire pour que le décalage passe en dessous de la valeur seuil. Quand le décalage est nul ou inférieur au décalage seuil prédéterminé, le manipulateur 20 est positionné avec précision pour réaliser sa fonction sur la pièce de production 170. 25 Dans ce mode de réalisation, le système de guidage et de reconnaissance visuels 10 remplit des fonctions presque humaines. Une fois que le réglage aura été réalisé pour une pièce, le système pourra désormais la reconnaître à tout moment. Le système n'a absolument jamais besoin d'être étalonné. Les pièces peuvent changer en temps réel sur une chaîne de production sans aucun temps 2934911 -14-
d'arrêt pour la reprogrammation ou le réétalonnage. N'importe quelle pièce parmi une gamme de pièces peut être positionnée au poste du manipulateur et reconnue par le système de guidage et de reconnaissance visuels, le manipulateur étant positionné pour réaliser avec précision une fonction sur la 5 pièce en quelques secondes. Il convient de noter que l'appareil photographique 30 peut envoyer des images individuelles au contrôleur de reconnaissance 50 pendant l'alignement, le décalage étant calculé pour chaque image ; sinon l'image peut être transmise en flux continu au contrôleur de reconnaissance, le décalage étant alors 10 recalculé en continu jusqu'à ce que le décalage soit inférieur à la valeur seuil. L'invention décrit aussi les procédés de reconnaissance et de guidage visuels pour une pièce. La Figure 2 est un organigramme qui décrit un mode de réalisation d'un procédé de la présente invention où l'apprentissage des pièces de référence est illustré. Le procédé de guidage et de reconnaissance visuels 15 d'une pièce met tout d'abord en jeu le positionnement d'une pièce de référence (Si). La position de la pièce de référence peut simuler la position opérationnelle d'une pièce de production par rapport au robot. Une position de travail du robot au niveau de la pièce de référence est ensuite enregistrée dans un contrôleur de manipulateur (S2). À cette étape, le 20 manipulateur est déplacé physiquement vers la pièce de référence jusqu'au point où le manipulateur effectuera sa fonction. Le manipulateur est alors déplacé le long d'un axe de coordonnées entre le manipulateur et la pièce de référence sur une distance A , au moins une partie de la pièce de référence se trouvant dans une région d'intérêt (ROI) de l'appareil photographique (S3). 25 Ainsi qu'indiqué précédemment, la pièce entière, ou seulement une partie de celle-ci, peut se trouver dans la ROI de l'appareil photographique. Il faut qu'une proportion suffisante de la pièce soit dans la ROI pour différencier la pièce des autres. La position de la plaque frontale du manipulateur à la distance A est enregistrée dans le contrôleur de manipulateur (S4). Une image de la pièce de 2934911 -15-
référence est acquise par le contrôleur de reconnaissance au moyen de l'appareil photographique (S5). L'image bidimensionnelle est enregistrée en association à la distance A pour la pièce de référence (S6) et, sur la base de ces données, le contrôleur de reconnaissance apprend la pièce de référence 5 (S7). Le procédé peut également mettre en jeu un centrage de la pièce de référence ou d'une partie de la pièce de référence dans la ROI par un déplacement du manipulateur le long d'axes parallèles à la pièce avant d'acquérir l'image au moyen de l'appareil photographique. 1 o Ce procédé peut être effectué pour une pièce de référence ou pour une pluralité de pièces de référence. L'image bidimensionnelle et la distance A associée à chaque pièce de référence peuvent être enregistrées dans une base de données présente dans le contrôleur de reconnaissance. Un autre mode de réalisation du procédé de guidage et de reconnaissance 15 visuels d'une pièce met en jeu un procédé utilisé pendant l'opération telle que la fabrication, la production ou l'assemblage, et il est décrit dans l'organigramme de la Figure 3. Ce mode de réalisation consiste premièrement à présenter une pièce de production (S10). Suivant les exigences d'un système opérationnel particulier, il peut s'avérer nécessaire de déterminer la position de la pièce ou 20 bien de reconnaître une pièce et aussi de déterminer la position d'une pièce (S12). Si le manipulateur est uniquement associé à une fonction sur un type de pièce, la reconnaissance n'est pas nécessaire et la position de la pièce peut être déterminée premièrement par l'acquisition d'une image d'au moins une partie de la pièce de production par le contrôleur de reconnaissance au moyen de 25 l'appareil photographique (S20). Si le manipulateur est associé à plusieurs types de pièces, une reconnaissance sera nécessaire. Le contrôleur de reconnaissance acquiert une image d'au moins une partie de la pièce de production (S14). Le contrôleur de reconnaissance compare l'image bidimensionnelle de la pièce 2934911 -16-
de production avec la base de données d'images de pièces de référence. Une correspondance indique que le contrôleur de reconnaissance a reconnu le type de pièce (S16) et qu'il peut déterminer correctement la position pertinente requise pour le manipulateur et la pièce de production afin que le manipulateur 5 puisse réaliser sa fonction avec précision. Si, pour une raison quelconque, le manipulateur se trouve à une distance de la pièce de production où l'image ne contient pas assez de points de données pour la reconnaissance, le contrôleur de reconnaissance envoie un signal au contrôleur de manipulateur pour qu'il déplace le manipulateur le long d'un axe de coordonnées à partir de la pièce de 10 production (S18) et acquière une nouvelle image jusqu'à ce que celle-ci suffise pour la reconnaissance. Quand la pièce est reconnue à partir de l'image, le contrôleur de reconnaissance calcule les décalages de données de dimensions entre l'image de la pièce de production et celle de la pièce de référence (S22). Le contrôleur de reconnaissance envoie un signal au contrôleur de manipulateur 15 pour qu'il déplace le manipulateur sur un ou plusieurs parmi six degrés de déplacement, dx, dy, dz, rx, ry, rz pour éliminer le décalage ou le réduire à un niveau inférieur à une valeur seuil donnée (S24). Si cette valeur seuil est atteinte, le manipulateur est positionné par rapport à la pièce de production pour réaliser sa fonction avec précision sur la pièce (S26). Si la valeur seuil n'est pas 20 atteinte, le décalage est recalculé et le manipulateur est déplacé jusqu'à ce que le décalage soit nul ou inférieur à la valeur seuil. L'utilisation du système et des procédés de guidage et de reconnaissance visuels ci-décrits ne prend que quelques minutes et peut être faite par un seul opérateur non qualifié. L'étape du réglage peut être faite à tout moment 25 lorsqu'une nouvelle pièce doit être présentée dans le système. Pendant l'opération, les types de pièces peuvent changer continuellement, si cela est souhaitable ou nécessaire, car le système de reconnaissance visuelle peut reconnaître différentes pièces en temps réel pendant la marche. L'amélioration sensible d'efficacité se traduit par une amélioration de productivité et de 2934911 -17-
rentabilité. Il est envisagé d'utiliser le système et les procédés ci-décrits dans n'importe quelle combinaison ci-décrite pour optimiser les processus suivant les souhaits ou les besoins. Bien que la présente invention ait été décrite en rapport avec ce qui est 5 considéré actuellement comme le mode de réalisation préféré et le plus pratique, il est entendu que l'invention ne doit pas se limiter aux modes de réalisation décrits mais, au contraire, qu'elle a pour but de couvrir divers agencements et modifications équivalents inclus dans l'esprit et le champ d'application des revendications ci-jointes, l'interprétation la plus large devant 10 être attribuée audit champ d'application afin d'englober toutes les modifications et structures équivalentes permises par la loi.

Claims (21)

  1. REVENDICATIONS1. Système de guidage et de reconnaissance visuels (10) servant à reconnaître des pièces et à guider un manipulateur asservi (20) sans cible d'étalonnage, ledit système comprenant : un manipulateur asservi (20) configuré pour réaliser une fonction ; un appareil photographique (30) monté sur, ou en relation fixe avec, une plaque frontale (65) du manipulateur (20) ; un système de reconnaissance configuré pour acquérir une image bidimensionnelle au moyen de l'appareil photographique (30) d'au moins une partie d'au moins une pièce de référence (70) et ; un contrôleur de manipulateur (40) configuré pour recevoir et enregistrer une position de la plaque frontale (65) à une distance A entre la pièce de référence (70) et le manipulateur (20) le long d'un axe de coordonnées de la pièce de référence (70) quand l'image de la pièce de référence (70) est acquise ; caractérisé en ce que le système de reconnaissance est configuré en outre pour apprendre la pièce de référence (70) sur la base de l'image bidimensionnelle et de la distance A associée à la pièce de référence (70).
  2. 2. Système de guidage et de reconnaissance visuels (10) selon la revendication 1, caractérisé en ce que le système de reconnaissance est configuré en outre pour centrer la partie de la pièce de référence (70) dans une région d'intérêt en déplaçant le manipulateur asservi (20) le long d'un axe de coordonnées parallèle à la pièce de référence (70) avant d'acquérir l'image bidimensionnelle.
  3. 3. Système de guidage et de reconnaissance visuels (10) selon la revendication 1, caractérisé en ce que lors de son usage dans le cadre 2934911 -19- d'une opération, une pièce de production (170) est présentée au manipulateur asservi (20), et caractérisé en ce que le contrôleur de reconnaissance (50) est en outre configuré pour acquérir une image bidimensionnelle au moyen de 5 l'appareil photographique (30) d'au moins une partie d'une pièce de production (170), et pour envoyer au contrôleur de manipulateur (40) un signal pour qu'il déplace le manipulateur (20) suivant un déplacement dx, dy, dz, rx, ry, rz basé sur des décalages de données de dimensions entre les images bidimensionnelles de la pièce de référence (70) reconnue et de la pièce de 10 production (170).
  4. 4. Système de guidage et de reconnaissance visuels (10) selon la revendication 3, caractérisé en ce que le contrôleur de reconnaissance (50) est en outre configuré pour répéter le calcul des décalages de données de 15 dimensions jusqu'à ce qu'une valeur seuil de décalage soit atteinte.
  5. 5. Système de guidage et de reconnaissance visuels (10) selon la revendication 3, caractérisé en ce que le manipulateur (20) est configuré pour déplacer dx, dy, dz, rx, ry, rz autour d'un centre de rotation situé 20 soit sur la plaque frontale (65) soit sur l'axe de coordonnées.
  6. 6. Système de guidage et de reconnaissance visuels (10) selon la revendication 3, caractérisé en ce que lorsque le contrôleur de reconnaissance (50) envoie un signal au contrôleur de manipulateur (40) pour 25 qu'il déplace le manipulateur (20), le manipulateur (20) se déplace en deux étapes, la première étape suivant un déplacement dx, dy, dz, et la deuxième étape suivant un déplacement rx, ry, rz basé sur les décalages de données de dimensions entre les images bidimensionnelles de la pièce de référence (70) reconnue et de la pièce de production (170). 2934911 - 20 -
  7. 7. Système de guidage et de reconnaissance visuels (10) selon la revendication 1 caractérisé en ce que le contrôleur de reconnaissance (50) est en outre configuré pour apprendre et enregistrer dans une base de 5 données un grand nombre de pièces de référence différentes chacune avec une image bidimensionnelle et une distance A associées.
  8. 8. Système de guidage et de reconnaissance visuels (10) selon la revendication 7 caractérisé en ce que lorsqu'une pièce de production 10 (170) est présentée au manipulateur asservi (20), le contrôleur de reconnaissance (50) est configuré en outre pour acquérir une image bidimensionnelle au moyen de l'appareil photographique (30) d'au moins une partie d'une pièce de production (170), et pour reconnaître la pièce de production (170) comme faisant partie du grand nombre de pièces de référence 15 différentes présentes dans la base de données.
  9. 9. Système de guidage et de reconnaissance visuels (10) selon la revendication 8, caractérisé en ce que si la pièce de production (170) n'est pas reconnue, le contrôleur de manipulateur (40) déplace le manipulateur 20 (20) le long de l'axe de coordonnées jusqu'à ce que la distance A soit telle que le contrôleur de reconnaissance (50) reconnaisse la pièce de production (170).
  10. 10. Système de guidage et de reconnaissance visuels (10) 25 selon revendication 8 , caractérisé en ce qu'une fois que la pièce de production (170) est reconnue, le contrôleur de reconnaissance (50) est en outre configuré pour utiliser l'image bidimensionnelle existante de la pièce de production (170) et pour envoyer au contrôleur de manipulateur (40) un signal pour qu'il déplace le manipulateur (20) suivant un déplacement dx, dy, dz, rx, ry, rz basé sur des 2934911 - 21 - décalages de données de dimensions entre les images bidimensionnelles de la pièce de référence (70) reconnue et de la pièce de production (170).
  11. 11. Système de guidage et de reconnaissance visuels (10) 5 selon la revendication 10, caractérisé en ce que le contrôleur de reconnaissance (50) est configuré en outre pour répéter le calcul des décalages de données de dimensions jusqu'à ce qu'une valeur seuil de décalage soit atteinte.
  12. 12. Système de guidage et de reconnaissance visuels (10) 10 servant à reconnaître des pièces et à guider un manipulateur asservi (20) sans cible d'étalonnage, comprenant : un contrôleur de reconnaissance (50) comprenant une base de données contenant au moins une pièce de référence (70) ; un manipulateur asservi (20) configuré pour réaliser une fonction ; 15 un appareil photographique (30) monté sur, ou en relation fixe avec, une plaque frontale (65) du manipulateur (20) ; et un contrôleur de manipulateur (40) configuré pour commander le mouvement du manipulateur asservi (20), caractérisé en ce que le système de reconnaissance est configuré pour : 20 acquérir une image bidimensionnelle au moyen de l'appareil photographique (30) d'au moins une partie d'une pièce de production (170), mettre en correspondance l'image de la pièce de production (170) avec la pièce de référence (70) dans la base de données, calculer un décalage de données de dimensions entre l'image de la pièce de production (170) et une image associée 25 à la pièce de référence (70), et envoyer un signal au contrôleur de manipulateur (40) pour qu'il déplace le manipulateur (20) afin de réduire le décalage jusqu'à ce qu'il soit inférieur à une valeur seuil.
  13. 13. Procédé de guidage et de reconnaissance visuels d'une 2934911 - 22 - pièce n'exigeant aucun étalonnage, utilisant un appareil photographique (30) et un manipulateur asservi (20), caractérisé en ce qu'il comporte des étapes de : ^ positionnement (Si) d'une pièce de référence (70) ; ^ enregistrement (S2) d'une position de travail du manipulateur (20) au niveau 5 de la pièce de référence (70) dans un contrôleur de manipulateur (40) ; ^ déplacement (S3) du manipulateur (20) le long d'un axe de coordonnées de la pièce de référence (70) à une distance A , au moins une partie de la pièce de référence (70) se trouvant dans une région d'intérêt de l'appareil photographique (30) ; 10 ^ enregistrement (S4) de la position d'une plaque frontale (65) du manipulateur (20) à la distance A dans le contrôleur de manipulateur (40) ; ^ acquisition (S5) d'une image bidimensionnelle avec un contrôleur de reconnaissance (50) au moyen de l'appareil photographique (30) d'au moins une partie d'au moins une pièce de référence (70) ; et 15 ^ apprentissage la pièce de référence (70) avec le contrôleur de reconnaissance (50) sur la base de l'image bidimensionnelle et de la distance A associée à la pièce de référence (70).
  14. 14. Procédé selon la revendication 13 caractérisé en ce qu'il comporte 20 en outre une étape de centrage de la partie de la pièce de référence (70) dans la région d'intérêt en déplaçant le manipulateur asservi (20) le long d'un axe de coordonnées parallèle à la pièce de référence (70) avant d'acquérir l'image bidimensionnelle. 25
  15. 15. Procédé selon la revendication 13 caractérisé en ce qu'il comporte en outre des étapes de : • présentation (S10) d'une pièce de production (170) ; • acquisition (S14) d'une image bidimensionnelle avec le contrôleur de 2934911 - 23 - reconnaissance (50) au moyen de l'appareil photographique (30) d'au moins une partie de la pièce de production (170) ; • calcul (S22) avec le contrôleur de reconnaissance (50) des décalages de données de dimensions entre les images bidimensionnelles de la pièce de 5 référence (70) reconnue et de la pièce de production (170) ; • envoie d'un signal (S24) au contrôleur de manipulateur (40) avec le contrôleur de reconnaissance (50) pour qu'il déplace le manipulateur (20) suivant un déplacement dx, dy, dz, rx, ry, rz basé sur les décalages de données de dimensions. 10
  16. 16. Procédé selon la revendication 15, caractérisé en ce qu'il comporte en outre une répétition du calcul des décalages de données de dimensions et de l'envoi au contrôleur de manipulateur (40) d'un signal jusqu'à ce qu'une valeur seuil de décalage soit atteinte. 15
  17. 17. Procédé selon la revendication 13 caratérisé en ce qu'il comporte en outre des étapes de : • répétition du procédé pour chaque pièce d'une pluralité de pièces de référence et ; 20 • création d'une base de données dans le contrôleur de reconnaissance (50) avec chaque image bidimensionnelle et une distance A associée à chaque pièce parmi la pluralité de pièces de référence différentes.
  18. 18. Procédé de la revendication 17 comporte en outre des 25 étapes de : • présentation (S10) d'une pièce de production (170) ; • acquisition (S14) d'une image bidimensionnelle avec le contrôleur de reconnaissance (50) au moyen de l'appareil photographique (30) d'au 2934911 - 24 - moins une partie de la pièce de production (170) ; • comparaison de l'image bidimensionnelle de la pièce de production (170) avec la base de données de pièces de référence ; • reconnaissance (S16) de la pièce de production (170) à partir d'une 5 pièce de référence (70) dans la base de données ; • calcul (S22) avec le contrôleur de reconnaissance (50) des décalages de données de dimensions entre les images bidimensionnelles de la pièce de référence (70) reconnue et de la pièce de production (170) ; • envoie d'un signal (S18) au contrôleur de manipulateur (40) avec le 10 contrôleur de reconnaissance (50) pour qu'il déplace le manipulateur (20) suivant un déplacement dx, dy, dz, rx, ry, rz basé sur les décalages de données de dimensions.
  19. 19. Procédé selon la revendication 18 caractérisé en ce que si 15 la pièce de production (170) n'est pas reconnue, déplacer le manipulateur (20) avec le contrôleur de manipulateur (40) le long de l'axe de coordonnées pour changer la distance A de telle sorte que la pièce de référence (70) de la base de données soit reconnue.
  20. 20. Procédé selon la revendication 18 caractérisé en ce qu'il comporte en outre une répétition du calcul des décalages de données de dimensions et d'envoi d'un signal au contrôleur de manipulateur (40) jusqu'à ce qu'une valeur seuilo de décalage soit atteinte.
  21. 21. Procédé selon la revendication 18 caractérisé en ce que, lorsque le contrôleur de reconnaissance (50) envoie un signal au contrôleur de manipulateur (40) pour qu'il déplace le manipulateur (20), le manipulateur (20) se déplace en deux étapes, la première étape suivant un déplacement dx, dy, 20 25 2934911 - 25 - dz, et la deuxième étape suivant un déplacement rx, ry, rz basé sur des décalages de données de dimensions entre les images bidimensionnelles de la pièce de référence (70) reconnue et de la pièce de production (170).
FR0954915A 2008-07-22 2009-07-16 Systeme automatise de guidage et de reconnaissance et procede pour ledit systeme Active FR2934911B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/177,529 US8923602B2 (en) 2008-07-22 2008-07-22 Automated guidance and recognition system and method of the same

Publications (2)

Publication Number Publication Date
FR2934911A1 true FR2934911A1 (fr) 2010-02-12
FR2934911B1 FR2934911B1 (fr) 2017-12-29

Family

ID=40600978

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0954915A Active FR2934911B1 (fr) 2008-07-22 2009-07-16 Systeme automatise de guidage et de reconnaissance et procede pour ledit systeme

Country Status (5)

Country Link
US (1) US8923602B2 (fr)
DE (1) DE102009034529B4 (fr)
FR (1) FR2934911B1 (fr)
GB (1) GB2461959B (fr)
IT (1) IT1395007B1 (fr)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007008598A1 (de) * 2007-02-19 2008-08-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatische Programmierung von Robotern zum Abschweißen gehefteter Profile auf Mikropaneelen mit Hilfe digitaler Bilderfassung
US9196169B2 (en) 2008-08-21 2015-11-24 Lincoln Global, Inc. Importing and analyzing external data using a virtual reality welding system
US9773429B2 (en) 2009-07-08 2017-09-26 Lincoln Global, Inc. System and method for manual welder training
US9221117B2 (en) 2009-07-08 2015-12-29 Lincoln Global, Inc. System for characterizing manual welding operations
US20110006047A1 (en) * 2009-07-08 2011-01-13 Victor Matthew Penrod Method and system for monitoring and characterizing the creation of a manual weld
DE102010003719B4 (de) * 2010-04-08 2019-01-24 Vodafone Holding Gmbh Verfahren und Vorrichtung zum Betätigen einer Taste einer Tastatur mit einem Roboter-Tastfinger
WO2012082105A1 (fr) 2010-12-13 2012-06-21 Edison Welding Institute, Inc. Système d'apprentissage de soudage
JP5849403B2 (ja) * 2011-02-15 2016-01-27 セイコーエプソン株式会社 ロボットコントローラー、ロボット、及び、ロボットシステム
US20160093233A1 (en) 2012-07-06 2016-03-31 Lincoln Global, Inc. System for characterizing manual welding operations on pipe and other curved structures
US20150072323A1 (en) 2013-09-11 2015-03-12 Lincoln Global, Inc. Learning management system for a real-time simulated virtual reality welding training environment
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
DE102014114272B4 (de) 2013-10-04 2019-03-07 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
US10083627B2 (en) 2013-11-05 2018-09-25 Lincoln Global, Inc. Virtual reality and real welding training system and method
US9724795B2 (en) * 2013-11-07 2017-08-08 Apex Brands, Inc. Tooling system with visual identification of attached component
US9836987B2 (en) 2014-02-14 2017-12-05 Lincoln Global, Inc. Virtual reality pipe welding simulator and setup
WO2015185972A1 (fr) 2014-06-02 2015-12-10 Lincoln Global, Inc. Système et procédé d'apprentissage pour soudeur manuel
CN104615078B (zh) * 2014-11-30 2017-04-26 沈阳飞机工业(集团)有限公司 基于拓扑邻接性的飞机钣金弯边特征识别方法
NL2015839B1 (en) * 2015-11-23 2017-06-07 Exner Ingenieurstechniek B V A method of, as well as an industrial robot for performing a processing step at a work piece.
EP3458919B1 (fr) * 2016-05-19 2022-08-24 Deep Learning Robotics Ltd. Système de vision d'apprentissage d'objet assisté par robot
EP3319066A1 (fr) 2016-11-04 2018-05-09 Lincoln Global, Inc. Sélection de fréquence magnétique pour le suivi de position électromagnétique
JP6815924B2 (ja) * 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
WO2018193130A1 (fr) * 2017-04-21 2018-10-25 Roboception Gmbh Procédé pour l'établissement d'une banque de données comportant des poses de préhenseurs, procédé pour la commande d'un robot, support d'enregistrement lisible par ordinateur et système de manipulation
US11557223B2 (en) 2018-04-19 2023-01-17 Lincoln Global, Inc. Modular and reconfigurable chassis for simulated welding training
US11475792B2 (en) 2018-04-19 2022-10-18 Lincoln Global, Inc. Welding simulator with dual-user configuration
US20190340954A1 (en) * 2018-05-01 2019-11-07 Illinois Tool Works Inc. Portable user interface for a welding type system
NL2020860B1 (en) 2018-05-02 2019-11-12 Exner Ingenieurstechniek B V Method of, as well as a system for, performing a welding step on a work piece.
CN109773789B (zh) * 2019-01-18 2021-11-30 深海弈智京山智能科技有限公司 一种插线盒视觉引导系统
DE102019106458A1 (de) * 2019-03-13 2020-09-17 ese-robotics GmbH Verfahren zur Ansteuerung eines Industrieroboters
US20210122062A1 (en) 2019-10-27 2021-04-29 Comau Llc Glass Decking System, Adaptable End Effector and Methods
CN111300456A (zh) * 2020-02-28 2020-06-19 深圳市世坤科技实业有限公司 机器人末端视觉测试机械手
CN114092632A (zh) * 2020-08-06 2022-02-25 财团法人工业技术研究院 标注方法、应用其的装置、系统、方法及计算机程序产品
CN112223302B (zh) * 2020-12-17 2021-02-26 国网瑞嘉(天津)智能机器人有限公司 基于多传感器的带电作业机器人的快速标定方法及装置
DE102021203779B4 (de) 2021-04-16 2023-12-14 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes
CN114248086B (zh) * 2021-12-30 2022-08-05 广东工业大学 一种柔性化三维视觉引导的机器人对位系统及方法

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3617016A (en) * 1968-05-27 1971-11-02 Emil J Bolsey Image motion and change transducers and systems controlled thereby
US4753569A (en) 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
EP0151417A1 (fr) 1984-01-19 1985-08-14 Hitachi, Ltd. Méthode pour la correction de systèmes de cordonnées dans un robot à l'aide d'un moyen de visualisation et appareillage adéquat
JPS60200385A (ja) * 1984-03-26 1985-10-09 Hitachi Ltd 姿勢判定方式
US4653109A (en) * 1984-07-30 1987-03-24 Lemelson Jerome H Image analysis system and method
US4831531A (en) * 1987-02-20 1989-05-16 Sargent Industries, Inc. System for the performance of activity in space
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
JP2690603B2 (ja) * 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
JP2686351B2 (ja) * 1990-07-19 1997-12-08 ファナック株式会社 視覚センサのキャリブレーション方法
FR2706345B1 (fr) 1993-06-11 1995-09-22 Bertin & Cie Procédé et dispositif de repérage dans l'espace d'un objet mobile tel qu'un capteur ou un outil porté par un robot.
JP3394322B2 (ja) 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
JP2994232B2 (ja) * 1995-07-28 1999-12-27 ウシオ電機株式会社 マスクとマスクまたはマスクとワークの位置合わせ方法および装置
US8271339B2 (en) * 1995-11-13 2012-09-18 Lakshmi Arunachalam Method and apparatus for enabling real-time bi-directional transactions on a network
US5796868A (en) * 1995-12-28 1998-08-18 Cognex Corporation Object edge point filtering system for machine vision
US5767648A (en) * 1996-04-19 1998-06-16 Massachusetts Institute Of Technology Base force/torque sensor apparatus for the precise control of manipulators with joint friction and a method of use thereof
US6408252B1 (en) * 1997-08-01 2002-06-18 Dynalog, Inc. Calibration system and displacement measurement device
JP2001515236A (ja) * 1997-09-04 2001-09-18 ダイナログ インコーポレイテッド ロボット検査システムを較正するための方法
SE511704C2 (sv) * 1998-03-19 1999-11-08 Saab Ab Förfarande och anordning för montering av vinge
EP0952427B1 (fr) * 1998-04-24 2004-03-03 Inco Limited Véhicule à guidage automatique
US5929584A (en) * 1998-04-27 1999-07-27 Pht, Inc. Tool center point calibration apparatus and method
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
JP3300682B2 (ja) 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3184183B2 (ja) * 1999-06-04 2001-07-09 株式会社ユタカ 扁平ワークの検査装置
US6166811A (en) * 1999-08-12 2000-12-26 Perceptron, Inc. Robot-based gauging system for determining three-dimensional measurement data
US6351324B1 (en) * 2000-03-09 2002-02-26 Photera Technologies, Inc. Laser imaging system with progressive multi-beam scan architecture
US6434449B1 (en) * 2000-08-03 2002-08-13 Pierre De Smet Method and device for automated robot-cell calibration
JP4576062B2 (ja) * 2001-03-21 2010-11-04 富士機械製造株式会社 リード位置検出方法,電気部品装着方法およびリード位置検出装置
JP3694808B2 (ja) * 2001-04-13 2005-09-14 株式会社安川電機 ウェハ搬送用ロボットの教示方法および教示用プレート
US6587750B2 (en) * 2001-09-25 2003-07-01 Intuitive Surgical, Inc. Removable infinite roll master grip handle and touch sensor for robotic surgery
US7305114B2 (en) * 2001-12-26 2007-12-04 Cognex Technology And Investment Corporation Human/machine interface for a machine vision sensor and method for installing and operating the same
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
US7085622B2 (en) * 2002-04-19 2006-08-01 Applied Material, Inc. Vision system
US6950543B2 (en) * 2002-05-02 2005-09-27 Ge Medical Systems Global Technology Company, Llc Method and system for image reconstruction
DE10242710A1 (de) 2002-09-13 2004-04-08 Daimlerchrysler Ag Verfahren zum Herstellen eines Verbindungsbereiches auf einem Werkstück
JP3711105B2 (ja) * 2002-12-20 2005-10-26 ファナック株式会社 3次元計測装置
EP1510282B1 (fr) * 2003-08-29 2008-07-09 Trumpf Laser- und Systemtechnik GmbH Dispositif d'usinage à distance de pièces au moyen d'un faisceau laser d'usinage
DE10351669B4 (de) 2003-11-05 2012-09-13 Kuka Laboratories Gmbh Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
DE10360789B4 (de) * 2003-12-23 2007-03-15 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE102004005380A1 (de) 2004-02-03 2005-09-01 Isra Vision Systems Ag Verfahren zur Bestimmung der Lage eines Objekts im Raum
DE102004024277A1 (de) * 2004-05-15 2005-12-01 Sig Technology Ltd. Verfahren und Vorrichtung zur Inspektion von Werkstücken
US7454053B2 (en) * 2004-10-29 2008-11-18 Mitutoyo Corporation System and method for automatically recovering video tools in a vision system
US7590276B2 (en) * 2004-12-20 2009-09-15 Mitutoyo Corporation System and method for programming interrupting operations during moving image acquisition sequences in a vision system
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
AT502410B1 (de) * 2005-08-16 2007-03-15 Eiser & Partner Oeg Vorrichtung zur prüfung von werkstücken
US20100282897A1 (en) * 2005-08-17 2010-11-11 Chang Industry, Inc. Unmanned Aerial Surveillance Device
US7689320B2 (en) * 2005-12-20 2010-03-30 Intuitive Surgical Operations, Inc. Robotic surgical system with joint motion controller adapted to reduce instrument tip vibrations
US7819859B2 (en) * 2005-12-20 2010-10-26 Intuitive Surgical Operations, Inc. Control system for reducing internally generated frictional and inertial resistance to manual positioning of a surgical manipulator
US7953526B2 (en) * 2006-01-18 2011-05-31 I-Guide Robotics, Inc. Robotic vehicle controller
DE102006006204B4 (de) * 2006-02-09 2008-07-24 Vision Tools Hard- Und Software Entwicklungs-Gmbh Anordnung zur optischen Kontrolle des Arbeitsergebnisses eines Werkzeugs und/oder zur Führung eines Werkeugs
US7769205B2 (en) * 2006-11-28 2010-08-03 Prefixa International Inc. Fast three dimensional recovery method and apparatus
WO2008075276A1 (fr) * 2006-12-19 2008-06-26 Koninklijke Philips Electronics N.V. Procédé et système pour convertir une vidéo 2d en vidéo 3d
US8000522B2 (en) * 2007-02-02 2011-08-16 General Electric Company Method and system for three-dimensional imaging in a non-calibrated geometry
DE102007008598A1 (de) * 2007-02-19 2008-08-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatische Programmierung von Robotern zum Abschweißen gehefteter Profile auf Mikropaneelen mit Hilfe digitaler Bilderfassung
DE102007009851B3 (de) 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
US8315623B1 (en) * 2007-03-06 2012-11-20 At&T Mobility Ii Llc Automating wireless customer care
US7924316B2 (en) * 2007-03-14 2011-04-12 Aptina Imaging Corporation Image feature identification and motion compensation apparatus, systems, and methods
JP4309439B2 (ja) 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
DE102007033309A1 (de) * 2007-07-18 2009-01-22 Abb Ag Verfahren zum Bearbeiten einer Kontur an wenigstens einem Werkstück mittels eines Roboters
US20090057373A1 (en) * 2007-08-30 2009-03-05 Gm Global Technology Operations, Inc. Multi-Purpose End Effector for Welder
US8233696B2 (en) * 2007-09-22 2012-07-31 Dynamic Micro System Semiconductor Equipment GmbH Simultaneous wafer ID reading
JP4418841B2 (ja) * 2008-01-24 2010-02-24 キヤノン株式会社 作業装置及びその校正方法
US9895813B2 (en) * 2008-03-31 2018-02-20 Intuitive Surgical Operations, Inc. Force and torque sensing in a surgical robot setup arm
US8150165B2 (en) 2008-04-11 2012-04-03 Recognition Robotics, Inc. System and method for visual recognition
US20090294511A1 (en) * 2008-05-30 2009-12-03 Vanderbilt University Lateral position detection for friction stir systems
US8934003B2 (en) * 2010-01-08 2015-01-13 Koninklijkle Philips N.V. Uncalibrated visual servoing using real-time velocity optimization
DE102010020183B4 (de) * 2010-05-11 2013-07-11 Precitec Kg Laserschneidkopf und Verfahren zum Schneiden eines Werkstücks mittels eines Laserschneidkopfes
US9355441B2 (en) * 2010-06-28 2016-05-31 Precitec Kg Method for closed-loop controlling a laser processing operation and laser material processing head using the same
US20120236201A1 (en) * 2011-01-27 2012-09-20 In The Telling, Inc. Digital asset management, authoring, and presentation techniques
US9669584B2 (en) * 2012-06-08 2017-06-06 Solidscape, Inc. Imaging monitoring method and apparatus for fabricating three dimensional models

Also Published As

Publication number Publication date
DE102009034529A1 (de) 2010-02-04
IT1395007B1 (it) 2012-08-07
GB2461959B (en) 2012-10-10
US8923602B2 (en) 2014-12-30
DE102009034529B4 (de) 2018-06-28
GB2461959A (en) 2010-01-27
ITTO20090378A1 (it) 2009-10-12
US20100021051A1 (en) 2010-01-28
GB0904326D0 (en) 2009-04-22
FR2934911B1 (fr) 2017-12-29

Similar Documents

Publication Publication Date Title
FR2934911A1 (fr) Systeme automatise de guidage et de reconnaissance et procede pour ledit systeme
JP4226623B2 (ja) ワーク取り出し装置
US20200200531A1 (en) Distance determination of a sample plane in a microscope system
CN109270906B (zh) 工件处理装置、工件输送系统
EP2950235A1 (fr) Procede de projection de donnees virtuelles et dispositif permettant cette projection
IL259143B1 (en) System and method for visual production line inspection of various production items
EP2103745A1 (fr) Procédé et système de calibration automatique des engins de terrassement
KR20210019014A (ko) 공간의 복잡한 표면에서 지점의 위치를 결정하기 위한 방법 및 플랜트
KR102324287B1 (ko) 광학 접합을 위한 자동 접합 시퀀스의 결정
KR20200096134A (ko) 기판 처리 장치, 및 기판 처리 방법
WO2015071458A1 (fr) Procede d'estimation de la vitesse de deplacement d'une camera
US20170284944A1 (en) System and Method for Wafer Inspection with a Noise Boundary Threshold
WO2021049186A1 (fr) Système d'inspection d'outil
US20240261890A1 (en) Calibration of a quality estimator for a laser cutting method
JP7379104B2 (ja) 基板検査装置、基板処理装置、基板検査方法、及びコンピュータ読み取り可能な記録媒体
KR102268256B1 (ko) 표면 증강 라만 분광학 신호 분석을 위한 검출 자동화 시스템 및 방법
US12100180B2 (en) Automated tuning and calibration of a computer vision system
JP2020197983A (ja) 対象物の計測方法、計測装置、プログラム、およびコンピュータ読取り可能な記録媒体
KR20240056594A (ko) 심층 신경망을 사용한 기판 매핑
Moru et al. Machine vision and metrology systems: An overview
Pereira et al. Design of a vision system for needles’ beds positioning inspection: An industrial application
Kim Vision-Based Automated Hole Assembly System with Quality Inspection
US20220261943A1 (en) Image processing device, image processing method, production system, product manufacturing method, and storage medium
US20230408421A1 (en) Method for defect detection for rolling elements
JP2024119748A (ja) 自動視覚検査システムの柔軟で直感的な配置システム

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

CD Change of name or company name

Owner name: RECOGNITION ROBOTICS, INC., US

Effective date: 20150727

Owner name: COMAU LLP, US

Effective date: 20150727

CJ Change in legal form

Effective date: 20150727

RM Correction of a material error

Effective date: 20150915

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16