ES2671468T3 - Cabezal y método de mecanizado automatizado con visión - Google Patents

Cabezal y método de mecanizado automatizado con visión Download PDF

Info

Publication number
ES2671468T3
ES2671468T3 ES14797151.9T ES14797151T ES2671468T3 ES 2671468 T3 ES2671468 T3 ES 2671468T3 ES 14797151 T ES14797151 T ES 14797151T ES 2671468 T3 ES2671468 T3 ES 2671468T3
Authority
ES
Spain
Prior art keywords
vision
head
robot
pressure foot
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14797151.9T
Other languages
English (en)
Inventor
Jordi ANDUCAS AREGALL
Carlos GANCHEGUI ITURRIA
José Javier GALARZA CAMBRA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Loxin 2002 SL
Original Assignee
Loxin 2002 SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Loxin 2002 SL filed Critical Loxin 2002 SL
Application granted granted Critical
Publication of ES2671468T3 publication Critical patent/ES2671468T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21JFORGING; HAMMERING; PRESSING METAL; RIVETING; FORGE FURNACES
    • B21J15/00Riveting
    • B21J15/10Riveting machines
    • B21J15/14Riveting machines specially adapted for riveting specific articles, e.g. brake lining machines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21JFORGING; HAMMERING; PRESSING METAL; RIVETING; FORGE FURNACES
    • B21J15/00Riveting
    • B21J15/10Riveting machines
    • B21J15/14Riveting machines specially adapted for riveting specific articles, e.g. brake lining machines
    • B21J15/142Aerospace structures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • B25J11/007Riveting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • Y10S901/10Sensor physically contacts and follows work contour

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Cabezal y procedimiento de mecanizado automático con visión que comprende un pie de presión dotado de ventanas laterales can capacidad de apertura y cierre, envolviendo la herramienta de mecanizado, asociado con un dispositivo de desplazamiento vertical dotado de bloqueo mecánico, un equipo de visión conectado con un equipo informático y un módulo de comunicaciones. La invención que se presenta aporta la principal ventaja de dotar a un robot antropomórfico, pensado originalmente para la industria del automóvil y dotado de una precisión relativamente baja, de una precisión de mecanizado notablemente superior, equivalente a equipos de mucha mayor precisión o a robots de tipo de cinemática paralela, compensando asimismo, en tiempo real y de forma continua, el descentrado y la pérdida de la perpendicularidad por la presión del pie de presión, que son comunes en los cabezales convencionales y fuente de errores y falta de precisión.

Description

5
10
15
20
25
30
35
40
45
DESCRIPCION
CABEZAL Y MÉTODO DE MECANIZADO AUTOMATIZADO CON VISIÓN Descripción
La presente memoria descriptiva se refiere, como su título indica, a un cabezal de mecanizado automatizado con visión del tipo de los utilizados industrialmente asociados a brazos de robot antropomórficos para realizar diversas tareas de mecanizado, especialmente taladrado y remachado, bajo el control de un módulo controlador del robot, y que comprende un pie de presión dotado de ventanas laterales con capacidad de apertura y cierre, envolviendo la herramienta de mecanizado, asociado con un dispositivo de desplazamiento axial dotado de bloqueo mecánico, un equipo de visión conectado con un equipo informático y un módulo de comunicaciones entre éste y el módulo controlador del robot, que permite que el equipo de visión pueda interactuar con el controlador del robot, todo ello con un procedimiento característico de operación.
Campo de la invención
La invención se refiere principalmente pero no exclusivamente al campo de los cabezales de mecanizado, especialmente para taladrado y remachado, asociados a brazos de robot antropomórficos.
Estado del Arte
En la actualidad los robots antropomórficos son conocidos y ampliamente utilizados industrialmente, especialmente en la industria del automóvil. Son dispositivos versátiles y relativamente baratos, pero las principales desventajas son su falta de rigidez y en consecuencia también de precisión, que puede llegar a cometer errores de más de 2mm, lo cual hace que no sean adecuados para aquellas aplicaciones en las que los requerimientos de precisión sean varios órdenes superiores, como por ejemplo aplicaciones de mecanizado, taladrado y remachado en la industria aeronáutica, en donde son requeridas precisiones de centésimas o milésimas de mm.
Estos grados de precisión se pueden alcanzar mediante equipos de alta precisión o máquinas de cinemática paralela, pero presentan el inconveniente de su alto coste, originado por la tecnología de precisión necesaria para su fabricación y por las tecnologías de control necesarias.
En el uso de robots antropomórficos hay aplicaciones que mejoran su precisión mediante el uso de sistemas de medición externos en los que, por ejemplo, un láser tracker detecta la posición en el espacio de la cabeza del robot y le envía las órdenes correspondientes para corregirla, pero además de su alto coste, estos equipos presentan el gran inconveniente de que siempre tiene que estar despejado el campo visual entre robot y equipo externo de medición, lo cual es un gran inconveniente y en la mayoría de aplicaciones no es posible.
Ha habido algunos intentos de mejorar la precisión intrínseca de los robots antropomórficos, normalmente modificando robots de serie para añadirles encoders secundarios de alta precisión en los ejes de salida de los reductores que mueven los ejes del brazo robot y normalmente sustituyendo, en algunos casos al mismo tiempo, el controlador del robot por un control numérico, consiguiendo de esta forma aumentar parcialmente su rigidez y mejorar su precisión, pero presentan los inconvenientes de su alto coste económico, con lo cual se pierde una de
5
10
15
20
25
30
35
40
las mayores ventajas de estos robots, problemas de mantenimiento y ajuste, y de piezas de recambio, ya que dejan de ser robots estándar o seriados del catálogo del fabricante, con lo cual se crea una dependencia extra de la empresa que modifica los robots desde el punto de vista del cliente o utilizador final.
Son conocidas asimismo las patentes ES2152171A1 y WO2007108780A2, que incorporan equipos de visión convencional en máquinas herramientas, pero únicamente para propiciar una buena visión del área de trabajo, sin conseguir incrementar la precisión.
También son conocidas aplicaciones de cámaras de video en robots, como por ejemplo encontramos en las patentes WO03064116A2, US2010286827A1, US2003144765A1, ES2142239_A1, ES2036909_A1 y
CN101205662, pero al igual que en el caso anterior, su misión es propiciar una buena visión del área de trabajo durante la programación del robot, sin conseguir incrementar la precisión de una manera automática.
Asimismo se conocen robots dotados de dos cámaras, tal y como se recoge en las patentes CN101726296 y WO2006019970A2, pero tampoco contribuyen a mejorar la precisión del robot, sino únicamente para el reconocimiento de formas u objetos.
También se conocen algunos procedimientos para mejorar la precisión intrínseca de los robots antropomórficos sin equipo de visión, basado en elementos puramente mecánicos, como por ejemplo el descrito en la patente US2009018697, en el que se utiliza un sistema mecánico para medir las desviaciones del robot al aplicarle fuerzas adicionales, pero que presentan el problema de que, cuando se produce un deslizamiento mecánico entre la pieza y la boquilla de medición, ya no es posible retornar al punto objetivo.
Además, las patentes US5194791A, DE102008042260A1 y WO2005/072917A1 presentan cabezales de mecanizado con visión para brazos de robot.
Descripción de la invención
Para solventar la problemática existente en la actualidad en cuanto a la precisión en el mecanizado, mejorando la perpendicularidad y precisión en los movimientos de los brazos robóticos, se ha ideado el cabezal de mecanizado automatizado con visión objeto de la presente invención, el cual comprende un pie de presión, envolviendo la herramienta de mecanizado, asociado con un dispositivo de desplazamiento axial al eje de la herramienta dotado de bloqueo mecánico, asociado con un equipo de visión, que comprende varias cámaras de video y opcionalmente un proyector laser, conectado a un equipo informático dotado de un software específico para el control tridimensional, y un módulo de comunicaciones que le permite interactuar con el controlador del robot. El equipo de visión será preferiblemente del tipo 3D.
El pie de presión está formado por una campana dotada de ventanas laterales que permiten la visión, por parte de la cámara o cámaras de visión artificial, de la superficie de trabajo a través de las aberturas de la campana cuando el pie de presión está realizando su función, es decir, mientras está en la posición de trabajo. Estas ventanas laterales disponen de unos cierres impidiendo la salida de virutas durante el mecanizado, ya que el propio pie de presión incorpora un sistema de aspiración para evacuar el polvo y las virutas generadas en el mecanizado.
5
10
15
20
25
30
35
40
El equipo informático se encuentra conectado, mediante el módulo de comunicaciones, con el módulo controlador del brazo robot, preferentemente de tipo antropomórfico, que proporciona los movimientos al cabezal de mecanizado, realizando correcciones en las órdenes del módulo controlador del robot en función de la imagen recibida de las cámaras de video que forman el equipo de visión, y de los cálculos y predicciones que éste realiza.
El módulo controlador del robot puede ser, bien un control numérico externo o bien el propio controlador del robot ofrecido por los fabricantes del mismo.
Este cabezal de mecanizado con visión comporta un procedimiento de operación específico que permite conseguir la anulación de fuerzas externas y la corrección de la posición.
La anulación de fuerzas externas parte del hecho conocido de que, cuando al robot se le aplica una pequeña fuerza adicional en su extremo de trabajo o en otra parte del conjunto, el robot, debido a su muy baja rigidez, pierde la posición y orientación alcanzadas, sin que su controlador sea consciente de ello, y por lo tanto no intentará devolver al brazo robot a su posición inicial. En este procedimiento se utiliza la información cinemática del robot mediante el sistema de visión. Esta información permitirá reposicionar el robot devolviéndolo a la posición correcta, previa al uso de la fuerza que ha modificado su posición y orientación.
En el proceso de anulación de fuerzas hay que tener en cuenta que el robot se enfrenta a una superficie en la cual quiere realizar una acción que conllevará el uso de una fuerza que le hará modificar su posición real sin que se haya indicado ese movimiento de forma directa al controlador del robot. En esta parte del proceso realizará las siguientes funciones:
1. El robot se posiciona frente a la superficie de trabajo.
2. El equipo de visión escanea la superficie y su rugosidad, fija sobre la superficie el punto exacto de operación y obtiene las coordenadas espaciales del robot.
3. Se aplica una fuerza adicional sobre el robot, en este caso por ejemplo por el pie de presión contra la superficie de trabajo, que hace que el robot pierda su posición. Ningún dispositivo del robot le informa al controlador del robot que ha perdido la posición ya que la pérdida viene dada por deformaciones mecánicas.
4. El robot hace una petición al equipo de visión para que escanee de nuevo la superficie y mida el movimiento que se ha producido.
5. El equipo de visión escanea la superficie y obtiene el movimiento que hay entre el momento actual y antes de aplicar una fuerza. Así el dispositivo es capaz de detectar de forma externa la desviación existente e indicar al controlador del robot cuánto y cómo debe corregir su posición para volver al punto de operación.
Los dos últimos pasos pueden ser o no iterativos hasta conseguir devolver al robot al punto de operación o que el error residual sea menor que un valor determinado.
Como se ha comentado anteriormente, por un lado los robots no son unos dispositivos especialmente precisos en cuanto a la precisión de posicionado ni de orientación, y por otro lado la aplicación de fuerzas adicionales una vez el robot ha alcanzado una determinada posición también modifica su orientación además de la posición. Sin embargo, muchas de las tareas y operaciones a realizar por el cabezal del brazo robot requieren que éste tenga que adoptar una determinada orientación correcta respecto a la superficie de la pieza en el punto de trabajo para poder realizar adecuadamente la función principal para la que ha sido concebido. Un ejemplo de ello puede ser la realización de un taladrado y avellanado de alta precisión sobre una superficie aerodinámica en la que es de vital
4
5
10
15
20
25
30
35
40
importancia adoptar una orientación absolutamente “normal” o perpendicular a la superficie de la pieza en cada punto de operación.
El sistema y procedimiento aquí recogidos permiten que el robot recobre su orientación original (antes de aplicar las fuerzas externas) suponiendo que ésta sea lo suficientemente adecuada para realizar la función, o bien que adopte una orientación normal a la superficie de la pieza en el punto de trabajo.
El procedimiento de corrección de orientación es análogo al anteriormente descrito de corrección de posición antes de la aplicación de fuerzas adicionales, y puede ser llevado a cabo al mismo tiempo. Concretamente las funciones para reorientar el robot son iguales excepto:
2. El equipo de visión, al escanear la superficie, también calcula y recuerda la orientación inicial del robot en caso de que se desee recuperar la misma orientación de partida, antes de aplicar las fuerzas exteriores adicionales.
4. El robot hace una petición al equipo de visión para que escanee de nuevo la superficie y mida la orientación actual
5. El equipo de visión, mediante el escaneado de la superficie alrededor del punto y los cálculos de normalización, es capaz de detectar cuánto está desviada la orientación del robot respecto de la original o de la normal a la superficie e indicar al robot cuánto y cómo debe corregir su orientación.
Los dos últimos pasos pueden ser o no iterativos hasta conseguir devolver al robot a la orientación deseada, habiendo establecido antes una tolerancia para el error máximo de orientación permitido.
En la presente invención, debido a que el sistema de visión es capaz de visualizar la superficie de la pieza antes y mientras se están aplicando fuerzas externas adicionales sobre el robot, fijar el punto de trabajo sobre la pieza y calcular la orientación respecto de la misma al mismo tiempo, se consigue eliminar las consecuencias de dichas fuerzas devolviendo al robot a la posición y orientación deseadas.
Es conocido y aceptado que la precisión de los robots antropomórficos no es un parámetro importante en el uso habitual para el que inicialmente fueron concebidos. Su filosofía de trabajo se ha basado tradicionalmente en llevar físicamente el brazo robot a cada una de las posiciones deseadas y construir el programa de pieza almacenando en la memoria del robot dichas posiciones (proceso conocido como “teaching” en inglés). Normalmente las operaciones con este tipo de robots son de alta cadencia y con pocos puntos (algunas docenas a lo sumo). No es, por tanto, importante conseguir que un robot alcance una determinada cota XYZ en el volumen de trabajo. Lo interesante es que el robot sea repetitivo, es decir, que más o menos siempre vaya al mismo sitio.
Este proceso permite conseguir que la precisión del robot sea casi idéntica a su repetitividad. Para conseguir este objetivo, el robot utiliza un elemento externo, un equipo de visión, preferentemente tridimensional, para determinar la posición de unos elementos que utilizará como referencia externa.
El uso de una referencia externa permite conseguir en tiempo real una precisión mucho mayor. La cinemática del robot está calculada en tiempo real para que la repetitividad del robot y la precisión sean muy parecidas. Así, podemos determinar la precisión con una alta resolución ya que el sistema puede corregir la posición final a la que se tiene que desplazar o llegar en un plano o línea recta.
5
10
15
20
25
30
35
40
El proceso de referenciado se realiza mediante un mínimo de dos puntos para trazar una línea virtual. En el caso que se quiera determinar un plano de referencia, el sistema necesitara 3 puntos como mínimo para calcularlo con la misma precisión.
Esta parte del proceso realizará las siguientes funciones, para dos puntos de referencia:
• El robot se dirige a un punto programado sin necesidad de ser preciso, en este punto encuentra un target que se utilizara como punto de referencia.
• El equipo de visión pide al robot que realice unos movimientos de traslación alrededor del punto de referencia o target mientras inspecciona ese punto.
• Se determina el punto de referencia 1.
• El robot se dirige al segundo punto programado
• El equipo de visión pide al robot que realice unos movimientos de traslación alrededor del punto de referencia o target mientras inspecciona ese punto.
• Se determina el punto de referencia 2.
• Se determina la línea que crean el punto de referencia 1 y el punto de referencia 2.
• Se determinan las correcciones por software, para compensar las distorsiones mecánicas, que debe aplicar a los puntos intermedios entre los puntos de referencia o próximos a dicha trayectoria, consiguiendo un error de posicionamiento similar a la repetitividad del robot.
En el caso que se necesite mover por un plano, es necesario ir mínimamente a un tercer target para determinar las correcciones en ese plano.
Para realizar la corrección de la posición es necesario que el equipo de visión artificial pueda tener acceso visual a la superficie de la pieza en todo momento, para ello es necesario un pie de presión con aberturas para la visión en su interior una vez posicionado.
El equipo de visión permite asimismo dotar al robot de funcionalidades adicionales, como por ejemplo la medida de la perpendicularidad en tiempo real, la medida de targets, la medida de diámetros, el control de calidad de los remaches y otras.
Esta invención es aplicable a cualquier tipo de robot, incluyendo robots antropomórficos, de cinemática paralela u otros tipos.
Ventajas de la invención
Este cabezal de mecanizado automatizado con visión que se presenta aporta múltiples ventajas sobre los equipos disponibles en la actualidad, siendo la más importante que permite dotar a un robot antropomórfico, pensado originalmente para la industria del automóvil y dotado de una precisión relativamente baja, de una precisión de mecanizado notablemente superior, equivalente a equipos de mucha mayor precisión, como por ejemplo máquinas herramientas, o a máquinas de tipo de cinemática paralela.
Otra importante ventaja es que compensa, en tiempo real y de forma continua, el descentrado y la pérdida de la perpendicularidad por la presión del pie de presión, que son comunes en los cabezales convencionales y fuente de errores y de falta de precisión.
5
10
15
20
25
30
35
40
45
Hay que resaltar asimismo que, frente a los sistemas mecánicos existentes para medir las desviaciones del robot al aplicarle fuerzas adicionales, presenta la gran ventaja de que aunque la boquilla patine o deslice sobre la pieza, a través del sistema de visión siempre se puede volver al punto objetivo.
Otra ventaja adicional es que, dado que el deslizamiento no le afecta, se pueden emplear fuerzas de precarga mayores sobre el pie de presión, o utilizar parámetros de proceso más eficientes.
Asimismo es importante destacar que el equipo de visión corrige los puntos de posicionamiento del robot en tiempo real, interactuando con su controlador, corrigiendo los errores e imprecisiones del robot.
La invención aquí recogida consigue que la precisión final obtenida no dependa ya de la precisión del robot, sino de su repetitividad, ya que consigue mejorar la precisión llevándola a valores muy próximos a la repetitividad del robot, que suele ser típicamente en torno a 10 veces mejor que la precisión.
La solución aquí aportada elimina la necesidad de acoplar encoders de alta precisión en los ejes de salida de todos los reductores del robot antropomórfico y hardware y software de control adicional, evitando modificaciones sobre un robot de catálogo que pueden afectar a su garantía, mantenimiento y reparaciones, utilizando en su lugar una solución formada por un equipo de visión tridimensional, un sistema informático, un módulo de comunicaciones y un software de control, conformando una solución más económica, efectiva y simple.
Se deben resaltar especialmente las ventajas que implica el que esta invención permita una optimización y mejora del proceso de taladrado, avellanado y remachado, mejorando la flexibilidad, la productividad y la eficiencia de las células flexibles, contribuyendo a la innovación de la técnica de fabricación con una notable disminución de los costes.
Descripción de las figuras
Para comprender mejor el objeto de la presente invención, en el plano anexo se ha representado una realización práctica preferencial de un cabezal de mecanizado automatizado con visión.
En dicho plano, la figura -1- muestra un diagrama de bloques del conjunto completo del cabezal, el robot, el sistema informático de control, el módulo controlador del robot y el módulo de comunicaciones.
La figura -2- muestra una vista en perspectiva del cabezal.
La figura -3- muestra una vista inferior y una frontal del cabezal.
La figura -4- muestra una vista lateral seccionada del cabezal.
La figura -5- muestra una vista en perspectiva de parte del cabezal, detallando el dispositivo de desplazamiento vertical.
La figura -6- muestra una vista en perspectiva del pie de presión.
La figura -7- muestra unas vistas en alzado planta y perfil del útil de calibrado.
Realización preferente de la invención
El cabezal de mecanizado automatizado con visión y procedimiento objeto de la presente invención, está asociado a un brazo de robot (1) para realizar diversas tareas de mecanizado, especialmente taladrado y remachado, bajo el control de un módulo controlador del robot (2), y comprende básicamente, como puede
7
5
10
15
20
25
30
35
40
apreciarse en el plano anexo, un pie de presión (3), envolviendo la herramienta de mecanizado (4), asociado con un dispositivo de desplazamiento vertical (5) dotado de bloqueo mecánico (6), un equipo de visión, del tipo 3D y dotado de al menos dos cámaras de video (7), conectado con un equipo informático (8) dotado de un software específico (9), y un módulo de comunicaciones (10). El módulo de comunicaciones (10) puede ser tanto un dispositivo hardware específico como una parte del software específico (9).
Está previsto que el equipo de visión comprenda opcionalmente un dispositivo láser (15) que proyecta un haz en forma de cruz en el interior del pie de presión (3). La proyección de ésta cruz sobre la pieza a taladrar es utilizada por las cámaras de visión artificial para saber en que orientación está el cabezal respecto de la pieza.
El módulo controlador del robot (2) puede ser, bien un control numérico externo o bien el propio controlador del robot ofrecido por los fabricantes del mismo.
El pie de presión (3) está formado por una campana, envolviendo la herramienta de mecanizado (4), y dotada de ventanas laterales (11) que permiten la visión, por parte de las cámaras de video (7), de la herramienta de mecanizado (4) ubicada en su interior y de su superficie de trabajo, y la proyección del dispositivo láser (15). Estas ventanas laterales (11) del pie de presión (3) disponen de unos cierres (12) que bloquean la visión, por parte de las cámaras de video (7), de la herramienta de mecanizado (4) ubicada en su interior, impidiendo la salida de virutas durante el mecanizado.
Los cierres (12) de las ventanas laterales (11) del pie de presión (3) se realizan, en una realización preferente, mediante una segunda campana (13) concéntrica del pie de presión (3) y dotada de capacidad de giro con respecto a este, dotada de aberturas coincidentes con las ventanas laterales (11) en una posición abierta, y que mediante un giro entre la segunda campana (13) y el pie de presión (3), en una posición cerrada, origina la no coincidencia de las aberturas con las ventanas laterales (11), cerrando el pie de presión (3). Esta segunda campana (13) concéntrica puede ser interior o exterior al pie de presión (3).
El equipo informático (8) se encuentra conectado, mediante el módulo de comunicaciones (10), entre el módulo controlador del robot (2) y el brazo de robot (1), realizando correcciones en las órdenes del módulo controlador del robot (2) en función de la imagen recibida de las cámaras de video (7) que forman el equipo de visión.
Este cabezal de mecanizado con visión comporta un procedimiento de operación específico que se divide en varias fases: una primera fase de medición sobre la pieza a mecanizar, una segunda fase de posicionamiento del cabezal en el punto objetivo de trabajo, una tercera fase de corrección de la posición del cabezal mediante la visión, y una cuarta fase de mecanizado u operación específica.
En la primera fase de medición, para mejorar la precisión de posicionado del robot, se toman puntos de referencia mediante las cámaras de video (7) que forman el equipo de visión, en la pieza a mecanizar en la zona próxima del área a mecanizar, tomando un mínimo de dos puntos para trazar una línea virtual, o en el caso de que se quiera determinar un plano de referencia, el sistema necesitara tres puntos como mínimo.
Para ello, en un primer paso se determinan los puntos de referencia. En un segundo paso se determina el posicionado en la línea o plano que crean los puntos de referencia anteriormente calculados, y en un tercer paso se realiza, mediante el software específico (9) incorporado en el equipo informático (8), una predicción o
8
5
10
15
20
25
30
35
40
estimación de los errores de posicionado que va a cometer el robot (2) cuando sea dirigido a un punto intermedio entre las referencias tomadas y, por tanto, se puede corregir la posición final.
El primer paso, en el que se determinan los puntos de referencia, comprende las siguientes operaciones:
• Se mide con el equipo de visión el punto de referencia 1, en la posición 1
• El robot (2) reposiciona a la nueva posición 1, ahora posición 2, mediante los datos medidos.
• El cabezal de mecanizado hace una traslación/rotación, preferentemente de 10mm (nm)
• Vuelve a la posición 2
• Se mide de nuevo el punto de referencia 1.
• El robot (2) reposiciona a la nueva posición 2, ahora posición 3, mediante los datos medidos.
• El cabezal de mecanizado hace una traslación/rotación, preferentemente de 10mm (nm)
• Vuelve a la posición 3
• Se mide el punto de referencia 1 y se almacena como punto de control
Estas operaciones se repiten para determinar cada uno de los puntos de referencia.
El segundo paso, en el que se determina el posicionado en la línea o plano que crean los puntos de referencia anteriormente calculados, comprende las siguientes operaciones:
• Se introduce la distancia real entre cada dos puntos de referencia.
• Se calculan, mediante el software específico (9) incorporado en el equipo informático (8), las correcciones que se deben aplicar a los puntos intermedios de la línea o plano que crean los puntos de referencia determinados mediante el valor real de dichos puntos de referencia.
La segunda fase de posicionamiento del cabezal en la zona a mecanizar comprende un primer paso de desplazamiento del cabezal, mediante el movimiento del brazo de robot (1) ordenado por el módulo controlador del robot (2), a las coordenadas en las que se desea mecanizar.
La tercera fase de corrección de la posición del cabezal mediante la visión comprende un primer paso que se realiza de dos formas, dependiendo del tipo de material o superficie a mecanizar:
• En caso de superficies normales, no brillantes o pulidas, se toma una imagen de referencia de la pieza mediante las cámaras de video (7) que forman el equipo de visión, a través de las ventanas laterales (11) del pie de presión (3), que estarán en su posición abierta, en la que, analizando su rugosidad mediante el software específico (9) incorporado en el equipo informático (8), se puede ubicar el punto objetivo antes de la aplicación de las fuerzas que deforman al robot (2), identificándolo por la imagen de su rugosidad.
• En caso de superficies muy brillantes o pulidas, el propio cabezal realiza una pequeña marca o picoteado, actuando ligeramente con la herramienta de mecanizado (4) sobre el punto objetivo en la superficie de la pieza de la que se tomará una imagen de referencia mediante las cámaras de video (7) que forman el equipo de visión, a través de las ventanas laterales (11) del pie de presión (3), que estarán en su posición abierta cuando se apliquen las fuerzas adicionales, identificándolo mediante la imagen de dicha marca como referencia.
La tercera fase de corrección de la posición del cabezal mediante la visión prosigue con un segundo paso de descenso del pie de presión (3) mediante el dispositivo de desplazamiento vertical (5), sobre la superficie a mecanizar. Este descenso, con la consiguiente fuerza ejercida por el pie de presión (3) sobre la zona a mecanizar, produce un desplazamiento del brazo de robot (1) que implica una desviación de la posición y orientación deseadas originalmente, lo cual implica un error de posicionamiento. Se continua con un tercer paso
5
10
15
20
25
en el que el sistema de visión, comparando la imagen obtenida ahora mediante las cámaras de video (7) que forman el equipo de visión, a través de las ventanas laterales (11) del pie de presión (3), que seguirán en su posición abierta, con la imagen de referencia obtenida en el primer paso y que se utiliza como referencia, generan una orden de desplazamiento del brazo robot (1) en la dirección deseada, volviendo a tomar otra imagen de la superficie a mecanizar a través de las ventanas laterales (11) del pie de presión (3), repitiendo esta fase hasta que la imagen sea coincidente con la imagen de referencia, alrededor del punto de operación, es decir, hasta que las coordenadas del punto de operación actual coincidan con las fijadas en la segunda fase de posicionamiento del cabezal, y la orientación alcanzada coincida con la deseada, que puede ser la de referencia obtenida en el primer paso o simplemente la normal a la superficie en el punto de operación, eliminando el error de alabeo y de desplazamiento del pie de presión (3).
La cuarta fase de mecanizado comprende un primer paso de bloqueo mecánico (6) del dispositivo de desplazamiento vertical (5) del pie de presión (3), un segundo paso de activación de los cierres (12) de las ventanas laterales (11) del pie de presión (3), y un tercer paso de la herramienta de mecanizado (4) ubicada en su interior para realizar el mecanizado sobre la superficie.
Opcionalmente puede incluirse una fase previa opcional de calibrado, consistente en la utilización de un útil de calibrado (14) para el ajuste de los parámetros de funcionamiento del cabezal, de tal manera que en el proceso de calibrado se halla la correlación entre los 3 sistemas de coordenadas: el de la herramienta de mecanizado, el del sistema de visión y el del controlador del robot.
El equipo de visión permite asimismo dotar al brazo de robot (1) de funcionalidades adicionales, como por ejemplo la medida de la perpendicularidad en tiempo real, la medida de targets, la medida de diámetros, el control de calidad de los remaches y otras.

Claims (15)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    REIVINDICACIONES
    1. Cabezal de mecanizado automatizado con visión, del tipo de los utilizados industrialmente asociados a brazos de robot (1) para realizar diversas tareas de mecanizado, tales como taladrado y remachado, controlado por un módulo controlador del robot (2), que comprende un equipo de visión dotado de al menos dos cámaras de vídeo (7), conectado a un equipo informático (8) equipado con software específico (9), y un módulo de comunicaciones (10) caracterizado por que comprende:
    - un pie de presión (3), envolviendo la herramienta de mecanizado (4),
    - dicho pie de presión (3) asociado con un dispositivo de desplazamiento vertical (5) dotado de bloqueo mecánico (6).
  2. 2. Cabezal de mecanizado automatizado con visión, según la reivindicación 1, caracterizado por que el equipo de visión comprende un dispositivo láser (15) que proyecta un haz en forma de cruz.
  3. 3. Cabezal de mecanizado automatizado con visión, según la reivindicación 1, caracterizado por que el pie de presión (3) está formado por una campana dotada de ventanas laterales (11) que permiten la visión por parte de las cámaras de video (7) de la herramienta de mecanizado (4) ubicada en su interior y de su superficie de trabajo.
  4. 4. Cabezal de mecanizado automatizado con visión, según la reivindicación 3, caracterizado por que las ventanas laterales (11) del pie de presión (3) disponen de unos cierres (12) que bloquean la visión por parte de las cámaras de video (7) de la herramienta de mecanizado (4) ubicada en su interior, impidiendo la salida de virutas durante el mecanizado.
  5. 5. Cabezal de mecanizado automatizado con visión 3D , según la reivindicación 4, caracterizado por que los cierres (12) de las ventanas laterales (11) del pie de presión (3) se realizan mediante una segunda campana (13) concéntrica del pie de presión (3) y dotada de capacidad de giro con respecto a este, dotada de aberturas coincidentes con las ventanas laterales (11) en una posición abierta y no coincidentes en una posición cerrada del pie de presión (3).
  6. 6. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según las anteriores reivindicaciones, caracterizado por que realiza correcciones a las órdenes del módulo controlador del robot (2) en función de la imagen recibida de la cámara de vídeo o cámaras de video (7) que forman el equipo de visión, y comprende
    - una primera fase de medición sobre la pieza a mecanizar,
    - una segunda fase de posicionamiento del cabezal en el punto objetivo de trabajo,
    - una tercera fase de corrección de la posición y orientación del cabezal mediante la visión, y
    - una cuarta fase de mecanizado u operación específica para la que se ha diseñado el dispositivo.
  7. 7. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 6, caracterizado por que en la primera fase de medición se toman puntos de referencia mediante las cámaras de video (7) que forman el equipo de visión, en la pieza a mecanizar, en la zona próxima del área a mecanizar,
    5
    10
    15
    20
    25
    30
    35
    40
    tomando un mínimo de dos puntos para trazar una línea virtual o un mínimo de tres puntos para determinar un plano de referencia, comprendiendo
    - un primer paso de determinación de los puntos de referencia,
    - un segundo paso de determinación del posicionado en la línea o plano que crean los puntos de referencia anteriormente calculados, y
    - un tercer paso de realización, mediante el software específico (9) incorporado en el equipo informático (8), de una predicción o estimación de los errores de posicionado que va a cometer el robot (2) cuando sea dirigido a un punto intermedio entre las referencias tomadas, y por tanto, se puede corregir la posición final.
  8. 8. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 7, caracterizado por que el paso de determinación de los puntos de referencia comprende
    - una primera operación en la que se mide con el equipo de visión el punto de referencia 1, en la posición 1,
    - una segunda operación en la que el robot (2) se reposiciona a la nueva posición 1, ahora posición 2, mediante los datos medidos,
    - una tercera operación en la que el cabezal de mecanizado hace una traslación/rotación,
    - una cuarta operación en la que vuelve a la posición 2,
    - una quinta operación en la que se mide de nuevo el punto de referencia 1,
    - una sexta operación en la que el robot (2) se reposiciona a la nueva posición 2, ahora posición 3, mediante los
    datos medidos,
    - una séptima operación en la que el cabezal de mecanizado hace una traslación/rotación,
    - una octava operación en la que vuelve a la posición 3, y
    - una novena operación en la que se mide el punto de referencia 1 y se almacena como punto de control, repitiéndose estas operaciones para cada uno de los puntos de referencia.
  9. 9. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 7, caracterizado por que el paso de determinación del posicionado en la línea o plano que crean los puntos de referencia anteriormente calculados comprende
    - una primera operación en la que se introduce la distancia real entre cada dos puntos de referencia, y
    - una segunda operación en la que se calculan, mediante el software específico (9) incorporado en el equipo
    informático (8), las correcciones que se deben aplicar a los puntos intermedios y/o próximos de la línea o plano
    que crean los puntos de referencia determinados mediante el valor real de dichos puntos de referencia.
  10. 10. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 6, caracterizado por que la segunda fase de posicionamiento del cabezal en la zona a mecanizar comprende un paso de desplazamiento del cabezal, mediante el movimiento del brazo de robot (1) ordenado por el módulo controlador del robot (2), a las coordenadas en las que se desea mecanizar.
  11. 11. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 6, caracterizado por que la tercera fase de corrección de la posición del cabezal mediante la visión comprende un primer paso en el que, en caso de superficies normales, no brillantes o pulidas, se toma una imagen de referencia de la pieza mediante las cámaras de video (7) que forman el equipo de visión, a través de las ventanas laterales (11) del pie de presión (3), que estarán en su posición abierta, analizando su rugosidad
    5
    10
    15
    20
    25
    30
    35
    40
    mediante el software específico (9) incorporado en el equipo informático (8) y ubicando el punto de operación referido a la misma.
  12. 12. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 6, caracterizado por que la tercera fase de corrección de la posición del cabezal mediante la visión comprende un primer paso en el que, en caso de superficies muy brillantes o pulidas el propio cabezal realiza una pequeña marca o picoteado, actuando ligeramente con la herramienta de mecanizado (4) sobre el punto objetivo en la superficie de la pieza de la que se tomará una imagen de referencia mediante las cámaras de video (7) que forman el equipo de visión, a través de las ventanas laterales (11) del pie de presión (3), que estarán en su posición abierta, previamente a la aplicación de fuerzas adicionales, identificándolo mediante la imagen de dicha marca como referencia.
  13. 13. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 6, caracterizado por que la tercera fase de corrección de la posición del cabezal mediante la visión comprende
    - un segundo paso de descenso del pie de presión (3) mediante el dispositivo de desplazamiento vertical (5), sobre la superficie a mecanizar, en el que la consiguiente fuerza ejercida por el pie de presión (3) sobre la zona a mecanizar, produce un desplazamiento del brazo de robot (1) que implica una desviación de la posición y orientación deseadas originalmente, lo cual implica un error de posicionamiento, continuando con - un tercer paso en el que el sistema de visión, comparando la imagen obtenida ahora mediante las cámaras de video (7) que forman el equipo de visión, a través de las ventanas laterales (11) del pie de presión (3), que seguirán en su posición abierta, con la imagen de referencia obtenida en el primer paso y que se utiliza como referencia, genera una orden de desplazamiento del brazo de robot (1) en la dirección deseada, volviendo a tomar otra imagen de la superficie a mecanizar a través de las ventanas laterales (11) del pie de presión (3), repitiendo esta fase hasta que la imagen sea coincidente con la imagen de referencia alrededor del punto de operación, es decir, hasta que las coordenadas del punto de operación actual coincidan con las fijadas en la segunda fase de posicionamiento del cabezal y la orientación alcanzada coincida con la deseada, que puede ser la de la referencia obtenida en el primer paso o simplemente la normal a la superficie en el punto de operación.
  14. 14. Procedimiento de operación de un cabezal de mecanizado automatizado con visión según la reivindicación 6, caracterizado por que la cuarta fase de mecanizado comprende
    - un primer paso de bloqueo mecánico del dispositivo de desplazamiento vertical (5) del pie de presión (3),
    - un segundo paso de activación de los cierres (12) de las ventanas laterales (11) del pie de presión (3), y
    - una tercera fase de la herramienta de mecanizado (4) ubicada en su interior para realizar el mecanizado de la superficie.
  15. 15. Procedimiento de operación de un cabezal de mecanizado automatizado con visión, según la reivindicación 6, caracterizado por que comprende una fase previa opcional de calibrado, consistente en la utilización de un útil de calibrado (14) para el ajuste de los parámetros de funcionamiento del cabezal, de tal manera que en el proceso de calibrado se halla la correlación entre el sistema de coordenadas de la herramienta de mecanizado, el del sistema de visión y el del controlador del robot.
ES14797151.9T 2013-05-17 2014-05-15 Cabezal y método de mecanizado automatizado con visión Active ES2671468T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ES201330713A ES2522921B2 (es) 2013-05-17 2013-05-17 Cabezal y procedimiento de mecanizado automático con visión
ES201330713 2013-05-17
PCT/ES2014/070403 WO2014184414A1 (es) 2013-05-17 2014-05-15 Cabezal y procedimiento de mecanizado automático con visión

Publications (1)

Publication Number Publication Date
ES2671468T3 true ES2671468T3 (es) 2018-06-06

Family

ID=51894269

Family Applications (2)

Application Number Title Priority Date Filing Date
ES201330713A Expired - Fee Related ES2522921B2 (es) 2013-05-17 2013-05-17 Cabezal y procedimiento de mecanizado automático con visión
ES14797151.9T Active ES2671468T3 (es) 2013-05-17 2014-05-15 Cabezal y método de mecanizado automatizado con visión

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES201330713A Expired - Fee Related ES2522921B2 (es) 2013-05-17 2013-05-17 Cabezal y procedimiento de mecanizado automático con visión

Country Status (9)

Country Link
US (1) US9919428B2 (es)
EP (1) EP2998080B1 (es)
KR (1) KR102271941B1 (es)
CN (1) CN105377513B (es)
BR (1) BR112015028755B1 (es)
CA (1) CA2912589C (es)
ES (2) ES2522921B2 (es)
PT (1) PT2998080T (es)
WO (1) WO2014184414A1 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11656597B2 (en) 2020-12-07 2023-05-23 Industrial Technology Research Institute Method and system for recognizing deburring trajectory

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015090324A1 (en) * 2013-12-17 2015-06-25 Syddansk Universitet Device for dynamic switching of robot control points
EP3045989B1 (en) * 2015-01-16 2019-08-07 Comau S.p.A. Riveting apparatus
CN104708050B (zh) * 2015-02-13 2017-03-29 深圳市圆梦精密技术研究院 柔性钻削系统
US9884372B2 (en) 2015-05-04 2018-02-06 The Boeing Company Method and system for defining the position of a fastener with a peen mark
JP6665450B2 (ja) * 2015-08-31 2020-03-13 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
CN105067046B (zh) * 2015-09-15 2017-11-10 沈阳飞机工业(集团)有限公司 一种自动钻铆机校准方法
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US9981381B1 (en) * 2016-06-08 2018-05-29 X Development Llc Real time generation of phase synchronized trajectories
CN107876953B (zh) * 2016-09-29 2022-04-22 福特环球技术公司 带有位置导向系统的接合机
KR101882473B1 (ko) * 2016-12-08 2018-07-25 한국생산기술연구원 로봇을 이용한 가공상태 검사장치 및 이에 의한 검사방법
US10782670B2 (en) * 2016-12-14 2020-09-22 The Boeing Company Robotic task system
IT201700071176A1 (it) * 2017-06-26 2018-12-26 Proge Tec S R L Sistema di rivettatura automatica di manici su pentole
CN107472909B (zh) * 2017-07-31 2019-04-30 浩科机器人(苏州)有限公司 一种具有激光检测功能的玻璃搬运机器人
US10571260B2 (en) * 2017-09-06 2020-02-25 The Boeing Company Automated rivet measurement system
US10786901B2 (en) * 2018-02-09 2020-09-29 Quanta Storage Inc. Method for programming robot in vision base coordinate
CN108972623B (zh) * 2018-07-27 2021-07-20 武汉理工大学 基于力控传感器的机器人末端装夹误差自动修正方法
CN109211222B (zh) * 2018-08-22 2022-06-07 扬州大学 基于机器视觉的高精度定位系统及方法
CN109352663B (zh) * 2018-09-28 2020-11-20 航天材料及工艺研究所 一种面向复合材料舱段的机器人自动精确定位制孔装置及方法
JP7337495B2 (ja) * 2018-11-26 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
CN111251290A (zh) * 2018-11-30 2020-06-09 汉翔航空工业股份有限公司 机械手臂可选择式路径补偿系统及其方法
US11911914B2 (en) * 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion
ES2788274B2 (es) 2019-04-17 2022-07-21 Loxin 2002 Sl Cabezal de mecanizado con correccion activa, procedimiento de operacion y uso
CN110142372B (zh) * 2019-06-14 2024-04-16 眉山中车紧固件科技有限公司 铆接机器人系统
WO2021048579A1 (ja) * 2019-09-11 2021-03-18 Dmg森精機株式会社 システム及び工作機械
KR102281544B1 (ko) * 2019-11-18 2021-07-27 한국생산기술연구원 부품 외곽 가공 오차를 고려한 홀 가공 방법 및 이를 적용한 홀 가공 장치
ES2843739B2 (es) * 2020-01-20 2021-11-24 Omicron 2020 Sl Procedimiento de montaje basado en un sistema robotico colaborativo con aplicaciones intercambiables para operaciones automatizadas de taladrado, avellanado y remachado
US11511443B2 (en) * 2020-02-10 2022-11-29 The Boeing Company Method and apparatus for drilling a workpiece
US11192192B2 (en) * 2020-02-10 2021-12-07 The Boeing Company Method and apparatus for drilling a workpiece
US11243507B2 (en) * 2020-04-29 2022-02-08 Grale Technologies Morphic manufacturing
US11079748B1 (en) * 2020-04-29 2021-08-03 Grale Technologies In-process digital twinning
CN112975955B (zh) * 2021-02-03 2024-02-02 浙江明泉工业涂装有限公司 一种涂装生产线机器人视觉集成系统
FR3130181B1 (fr) * 2021-12-09 2024-01-12 Seti Tec Dispositif multi-tâche comprenant une caméra et une broche unique apte à placer la caméra dans une position de mise au point
CN114378814A (zh) * 2021-12-23 2022-04-22 唐山松下产业机器有限公司 机器人重复定位精度实时监测系统
CN114986393B (zh) * 2022-06-14 2023-04-04 广东天太机器人有限公司 一种自动纠偏的抛光打磨机械臂控制系统及方法
CN115416078A (zh) * 2022-07-29 2022-12-02 北航歌尔(潍坊)智能机器人有限公司 镜片加工控制方法、控制装置、镜片加工设备及介质
CN115608907B (zh) * 2022-12-20 2023-03-28 山西天宝集团有限公司 一种基于风电法兰锻造用油压机自动对中装置及其方法
CN117533245B (zh) * 2024-01-09 2024-03-08 绵阳师范学院 一种多向视觉覆盖的巡检机器人

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2548027B2 (ja) * 1988-06-30 1996-10-30 ファナック株式会社 アークビジョンセンサ操作方式
US5014183A (en) * 1988-10-31 1991-05-07 Cincinnati Milacron, Inc. Method and means for path offsets memorization and recall in a manipulator
ES2036909B1 (es) 1990-04-18 1994-01-01 Ind Albajar S A Sistema de vision artificial para la recoleccion robotizada de frutos.
US5194791A (en) * 1990-07-19 1993-03-16 Mcdonnell Douglas Corporation Compliant stereo vision target
US5615474A (en) * 1994-09-09 1997-04-01 Gemcor Engineering Corp. Automatic fastening machine with statistical process control
KR100237302B1 (ko) * 1997-05-13 2000-01-15 윤종용 로봇의 초기 용접위치 검출방법
ES2142239B1 (es) 1997-08-04 2001-03-16 Univ Murcia Robot con vision artificial para encolado automatico de suelas de zapato.
ES2152171B1 (es) 1998-11-30 2001-08-01 Univ Madrid Carlos Iii Sistema de vision 3d con procesamiento hardware de la señal de video.
FR2791916B1 (fr) * 1999-04-06 2001-05-04 Abb Preciflex Systems Procede de maintien en position d'une piece dans un poste d'assemblage
US6430472B1 (en) * 1999-12-20 2002-08-06 Servo-Robot Inc. Robot feature tracking devices and methods
AU2002319119A1 (en) * 2001-07-02 2003-01-21 Microbotic A/S Apparatus comprising a robot arm adapted to move object handling hexapods
US6855099B2 (en) * 2001-10-31 2005-02-15 The Boeing Company Manufacturing system for aircraft structures and other large structures
AU2003239171A1 (en) 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
US7174238B1 (en) * 2003-09-02 2007-02-06 Stephen Eliot Zweig Mobile robotic system with web server and digital radio links
FI123306B (fi) * 2004-01-30 2013-02-15 Wisematic Oy Robottityökalujärjestelmä, sekä sen ohjausmenetelmä, tietokoneohjelma ja ohjelmistotuote
US7034262B2 (en) * 2004-03-23 2006-04-25 General Electric Company Apparatus and methods for repairing tenons on turbine buckets
ES2255386B1 (es) * 2004-05-13 2007-10-01 Loxin 2002, S.L. Sistema mejorado de remachado automatico.
EP1766580A2 (en) 2004-07-14 2007-03-28 Braintech Canada, Inc. Method and apparatus for machine-vision
JP2006224291A (ja) * 2005-01-19 2006-08-31 Yaskawa Electric Corp ロボットシステム
FR2897009B1 (fr) 2006-02-07 2008-05-09 Alema Automation Soc Par Actio Procede de positionnement d'un outil d'assemblage a l'extremite d'un bras articule et dispositif pour sa mise en oeuvre
US7483151B2 (en) 2006-03-17 2009-01-27 Alpineon D.O.O. Active 3D triangulation-based imaging method and device
CN101092034A (zh) * 2006-06-20 2007-12-26 力晶半导体股份有限公司 晶片搬运设备的校正装置与晶片搬运设备的校正方法
FR2912672B1 (fr) * 2007-02-16 2009-05-15 Airbus France Sa Procede d'assemblage de deux ensembles, tels que des ensembles de fuselage d'aeronef
DE102007041423A1 (de) * 2007-08-31 2009-03-05 Abb Technology Ab Roboterwerkzeug, Robotersystem und Verfahren zum Bearbeiten von Werkstücken
CN101205662B (zh) 2007-11-26 2011-04-20 天津工业大学 三维复合材料预制件机器人缝合系统
DE102008042260B4 (de) * 2008-09-22 2018-11-15 Robert Bosch Gmbh Verfahren zur flexiblen Handhabung von Objekten mit einem Handhabungsgerät und eine Anordnung für ein Handhabungsgerät
US8135208B1 (en) * 2009-01-15 2012-03-13 Western Digital Technologies, Inc. Calibrated vision based robotic system utilizing upward and downward looking cameras
EP2249286A1 (en) 2009-05-08 2010-11-10 Honda Research Institute Europe GmbH Robot with vision-based 3D shape recognition
KR20100137882A (ko) * 2009-06-23 2010-12-31 현대중공업 주식회사 산업용 로봇의 작업 궤적 교정방법
CN101726296B (zh) 2009-12-22 2013-10-09 哈尔滨工业大学 空间机器人视觉测量、路径规划、gnc一体化仿真系统
KR20110095700A (ko) * 2010-02-19 2011-08-25 현대중공업 주식회사 작업대상물 픽업을 위한 산업용 로봇 제어방법
EP2711142B1 (en) * 2012-09-20 2014-09-17 Comau S.p.A. Industrial robot having electronic drive devices distributed on the robot structure

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11656597B2 (en) 2020-12-07 2023-05-23 Industrial Technology Research Institute Method and system for recognizing deburring trajectory

Also Published As

Publication number Publication date
ES2522921A1 (es) 2014-11-19
WO2014184414A1 (es) 2014-11-20
KR102271941B1 (ko) 2021-07-02
CA2912589C (en) 2021-06-08
BR112015028755A2 (pt) 2017-07-25
EP2998080B1 (en) 2018-03-07
ES2522921B2 (es) 2015-07-30
PT2998080T (pt) 2018-06-06
BR112015028755B1 (pt) 2021-02-02
CA2912589A1 (en) 2014-11-20
EP2998080A4 (en) 2017-05-03
KR20160010868A (ko) 2016-01-28
US9919428B2 (en) 2018-03-20
EP2998080A1 (en) 2016-03-23
CN105377513A (zh) 2016-03-02
US20160082598A1 (en) 2016-03-24
CN105377513B (zh) 2018-05-15

Similar Documents

Publication Publication Date Title
ES2671468T3 (es) Cabezal y método de mecanizado automatizado con visión
US11254008B2 (en) Method and device of controlling robot system
CN109070354B (zh) 射束加工机的轴校准
US6822412B1 (en) Method for calibrating and programming of a robot application
USRE45391E1 (en) Method and an apparatus for performing a program controlled process on a component
EP2722136A1 (en) Method for in-line calibration of an industrial robot, calibration system for performing such a method and industrial robot comprising such a calibration system
ES2754039T3 (es) Procedimiento para calibrar un punto central de una herramienta para un sistema de robot industrial
US9114534B2 (en) Robot calibration systems
Möller et al. Enhanced absolute accuracy of an industrial milling robot using stereo camera system
EP2732934A2 (en) A device for measuring a position of an end effector, especially of a manipulator or a machining tool
US20140365006A1 (en) Visual Datum Reference Tool
JP6091826B2 (ja) 加工装置の制御装置、加工装置、及び加工データの補正方法
US9713869B2 (en) Calibration of robot work paths
KR102228835B1 (ko) 산업용 로봇의 측정 시스템 및 방법
JP2019077016A (ja) ロボット、ロボットシステム、およびロボットの座標系設定方法
US20140365007A1 (en) Visual Datum Reference Tool
ES2788274A1 (es) Cabezal de mecanizado con corrección activa
WO2014042668A2 (en) Automatic and manual robot work finder calibration systems and methods
ES2820649T3 (es) Método para el funcionamiento de una máquina CNC
JP2011016226A (ja) 刃先位置補正方法
JP5351083B2 (ja) 教示点補正装置及び教示点補正方法
CN208147134U (zh) 激光加工机
US20150306769A1 (en) Calibration for robotic systems
JP7182407B2 (ja) ロボットシステム及びロボット制御方法
WO2023170166A1 (en) System and method for calibration of an articulated robot arm