ES2965233T3 - Montaje de piezas en una línea de montaje - Google Patents

Montaje de piezas en una línea de montaje Download PDF

Info

Publication number
ES2965233T3
ES2965233T3 ES19702301T ES19702301T ES2965233T3 ES 2965233 T3 ES2965233 T3 ES 2965233T3 ES 19702301 T ES19702301 T ES 19702301T ES 19702301 T ES19702301 T ES 19702301T ES 2965233 T3 ES2965233 T3 ES 2965233T3
Authority
ES
Spain
Prior art keywords
robot
real
agv
vision system
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19702301T
Other languages
English (en)
Inventor
Jordi Artigas
Bertran Roger Pons
Ribas Jorge Vidal
Biao Zhang
Moix Ramon Casanelles
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
ABB Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Schweiz AG filed Critical ABB Schweiz AG
Application granted granted Critical
Publication of ES2965233T3 publication Critical patent/ES2965233T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
    • B23P19/04Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes for assembling or disassembling parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31014Synchronization between AGV movement and workpiece treatment chambers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39248Visual servoing combined with inertial measurements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40111For assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40571Camera, vision combined with force sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50393Floor conveyor, AGV automatic guided vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manufacturing & Machinery (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Manipulator (AREA)
  • Automatic Assembly (AREA)

Abstract

Se divulga un método para ensamblar piezas en una línea de ensamblaje, tal como una línea de ensamblaje final de automóviles. El método comprende hacer avanzar una pieza a lo largo de la línea de ensamblaje con un vehículo guiado automáticamente (AGV), disponiendo un primer sistema de visión en tiempo real para monitorear la posición del AGV en al menos dos direcciones, y proporcionar las lecturas del primer sistema de visión en tiempo real a un controlador dispuesto para controlar una unidad de montaje de la línea de montaje para realizar una operación automatizada en la pieza que avanza o soporta el AGV También se describe una línea de montaje. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Montaje de piezas en una línea de montaje
La presente solicitud reivindica prioridad de EP18382065.3, presentada el 6 de febrero de 2018.
La presente descripción se refiere a un procedimiento para montar piezas en una línea de montaje, tal como una línea de montaje final de automóviles, en una unidad de montaje, y también a líneas de montaje.
ANTECEDENTES
Las líneas de producción de automóviles para la fabricación de carrocerías de vehículos suelen incluir una línea de montaje final donde pueden operar operarios humanos y/o robots para montar piezas tales como asientos, puertas, parabrisas, ruedas, mecanismos de dirección, etc. Las carrocerías de los vehículos suelen avanzar continuamente a lo largo de la línea de montaje a través de nos medios de transporte adecuados tales como, por ejemplo, un transportador o AGVs (vehículos de guiado automático).
Un robot de montaje para dicha línea de montaje comprende un efector final que lleva una herramienta o que lleva un elemento de montaje para unirse o montarse en la carrocería del vehículo, y el efector final del robot se controla para realizar una determinada operación en una posición objetivo de la carrocería del vehículo. En algunos casos, el robot puede ser accionado sobre unas vías paralelas a la línea de montaje.
Sin embargo, la automatización robótica todavía no ha podido sustituir en gran medida a los operarios humanos en este tipo de aplicaciones: en líneas de montaje final existen varias fuentes de errores, tolerancias e imprecisiones, que surgen, por ejemplo, del movimiento continuo de las piezas, por ejemplo, carrocerías de vehículos, en línea, que pueden ser irregulares, por ejemplo, sujetas a vibraciones. Esto dificulta que los robots, que generalmente funcionan con programas predeterminados, trabajen de manera eficiente.
US20060167587 describe una línea de montaje en la cual una carrocería de vehículo avanza continuamente mediante un transportador. En un eje del accionamiento del transportador se dispone un codificador digital y se controla el efector final de un robot de montaje para seguir el movimiento del transportador, adoptando una posición que es efectivamente fija respecto a la carrocería del vehículo. Para corregir errores debidos a la vibración del transportador respecto al eje de accionamiento del transportador, el documento dispone un sensor óptico en el transportador, compara la frecuencia y la amplitud del movimiento relativo durante varios ciclos y sincroniza la acción del conjunto del robot con el pico de movimiento del transportador. Un sensor de guía de robot, tal como un láser de medición, mide el desplazamiento necesario para que el efector final alcance el objetivo en la carrocería del vehículo. En otras realizaciones, la carrocería del vehículo se detiene delante del robot y se determinan las coordenadas de un punto objetivo utilizando el láser de medición.
Si bien este documento describe una solución para compensar errores debido a la vibración del transportador, la solución implica sincronizar la operación de montaje a un punto específico y estimado del ciclo de movimiento del transportador, lo que hace probable que el objetivo se mueva entre la lectura de la medición láser y la operación de montaje real.
Además, en este documento, una compensación de errores en la posición del patín sobre el transportador, y/o de la carrocería del vehículo sobre el patín, requiere que el transportador se encuentre detenido para determinar las coordenadas de los puntos de la carrocería del vehículo. Por lo tanto, el documento no muestra cómo compensar este tipo de errores sin detener el transportador.
Otras fuentes de errores de posicionamiento, como las debidas a la resolución limitada del codificador en el eje de accionamiento del transportador, no se abordan en US20060167587.
Sería deseable facilitar un mayor grado de automatización robótica en líneas de montaje, y particularmente en líneas de montaje final de automóviles, proporcionando un procedimiento y un sistema para montar piezas que superen por lo menos parcialmente los inconvenientes de la técnica anterior. Por ejemplo, sería deseable prever soluciones para realizar operaciones de montaje en movimiento, es decir, sobre una pieza móvil, y/o permitir compensar varias fuentes de error.
US2011087360 describe un robot industrial utilizado para montar una pieza en una posición predeterminada en una pieza de trabajo que se mueve de manera aleatoria. La pieza de trabajo puede ser un automóvil en una línea de montaje y la pieza puede ser una rueda (un neumático montado en una llanta) para montarse en uno de los cubos de la rueda del automóvil. El robot lleva montada una cámara, un sensor de fuerza y una pinza para agarrar la pieza. Después de que el robot agarra la pieza, un dispositivo informático utiliza señales tanto del sensor de fuerza como de visión para mover el robot a una posición en la que puede montar la pieza en la posición predeterminada de la pieza de trabajo.
US2013035783 describe un transportador de vehículos configurado para mover un vehículo a lo largo de una línea de montaje, una plataforma de montaje dispuesta adyacente a la línea de montaje, y un sincronizador configurado para sincronizar el movimiento de la plataforma de montaje con el movimiento del transportador de vehículos a medida que el transportador de vehículos se mueve a lo largo de una longitud de la línea de montaje e incluye un sensor, un procesador y un actuador.
DESCRIPCIÓN RESUMIDA
De acuerdo con un primer aspecto, se presenta un procedimiento para montar piezas en una línea de montaje, tal como una línea de montaje final de automóviles, de acuerdo con la reivindicación 1.
El control del movimiento del AGV en por lo menos dos direcciones en tiempo real y el uso de las lecturas en un servo-control visual de la unidad de montaje, permite una colocación muy rápida y precisa de una zona objetivo de la pieza en la cual ha de realizarse una operación, por ejemplo, incluso antes de que la pieza haya llegado a la zona de alcance de la unidad de montaje; además el movimiento de la unidad de montaje podrá sincronizarse con el movimiento del AGV en base al primer sistema de visión en tiempo real, de manera que la unidad de montaje pueda trabajar sobre la pieza como si se encontrase fija respecto a la pieza y, por lo tanto, sin necesidad de compensar el avance del AGV y sus errores de posicionamiento, por ejemplo, debidos a irregularidades del suelo y consiguientes vibraciones verticales del AGV: esto permite una mayor precisión y/o velocidad en el funcionamiento global de la unidad de montaje.
El procedimiento también es seguro puesto que, por ejemplo, en caso de parada del AGV existe un menor riesgo de colisión entre la unidad de montaje y la pieza sobre la cual se lleva a cabo la operación dado que la unidad de montaje puede sincronizarse en tiempo real con el avance del AGV.
La combinación de un primer y un segundo sistema de visión en tiempo real tiene múltiples ventajas. El segundo sistema de visión puede localizar una zona objetivo muy rápidamente para iniciar su proceso servo-visual asociado, ya que el primer sistema de visión proporciona información de posicionamiento precisa para cada parte individual que avanza a lo largo de la línea y llega al segundo sistema de visión, de modo que el segundo sistema de visión puede tener un campo de visión más pequeño. Es evidente que esto significa que se necesitará menos tiempo para la operación de la pieza.
Además, la combinación de los dos sistemas de visión en tiempo real, tal como se ha descrito anteriormente, permite realizar operaciones automatizadas que un único sistema de visión puede no ser capaz de lograr, o puede estar sujeto a errores e incluso al riesgo de colisiones.
Por ejemplo, una operación de montaje compleja como montar el puesto de conducción de un vehículo en una línea de montaje final de automóviles es difícil de automatizar dado que implica que un robot inserte primero el puesto de conducción a través de una puerta abierta en la carrocería del automóvil, y después monte el puesto de conducción en la posición correcta dentro de la carrocería del vehículo. Un sistema de visión que esté adecuadamente configurado y fijado en el efector final del robot para localizar el objetivo para la segunda operación y montar el puesto de conducción no puede ver su zona objetivo desde fuera de la carrocería del vehículo, y no se configura fácilmente para ubicar de manera segura la apertura y la posición de la puerta, que depende de una estación de montaje anterior en la línea, para la primera parte de la operación. En tal caso las lecturas del primer sistema de visión en tiempo real que controla el movimiento del AGV podrán utilizarse por lo menos en una primera operación o una primera parte del movimiento del robot o de su efector final, mientras que el segundo sistema de visión en tiempo real que controla la posición de la zona objetivo puede comenzar a operar en una segunda operación o segunda parte del movimiento del robot o su efector final.
Después de que el segundo sistema de visión en tiempo real haya comenzado a funcionar porque ha localizado la zona objetivo, el primer sistema de visión en tiempo real también puede continuar funcionando, combinándose las salidas de los dos sistemas en el servo-controlador visual dispuesto para controlar el movimiento del efector final del robot durante la operación: este movimiento del efector final puede ser, por lo tanto, una suma de los movimientos del AGV y los movimientos de la pieza objetivo en el AGV.
En operaciones en las que uno de los dos sistemas de visión puede localizar la zona objetivo y realizar toda la operación de montaje, la disposición de un sistema redundante adicional permite velocidades de montaje más elevadas y/o detectar, por ejemplo, errores de posicionamiento o fallos de alguno de los sistemas, evitando un daño adicional.
Un sistema de visión en tiempo real puede controlar o seguir el AGV de una manera muy precisa, de modo que también pueden compensarse o reducirse errores de posicionamiento vertical u otros errores de posicionamiento de la zona objetivo debidos a oscilaciones del AGV a nivel de sincronización del robot y su efector final con el movimiento del AGV.
De acuerdo con un segundo aspecto, la presente descripción presenta una línea de montaje de automóviles final de acuerdo con la reivindicación 6.
El primer sistema de visión en tiempo real también puede estar provisto de dos o más sensores de visión: por ejemplo, pueden disponerse dos o más sensores fijos para cubrir toda la trayectoria de desplazamiento de un AGV en correspondencia con una unidad de montaje que realiza una operación en la pieza transportada por el AGV.
Puede disponerse un sensor de visión del primer sistema de visión en tiempo real para controlar una o más características o marcadores de un AGV: por ejemplo, puede disponerse un sensor de visión, especialmente pero no sólo un sensor de visión fijo, para detectar y controlar primero un marcador o una característica de la zona extrema delantera de un AGV en la dirección de avance, y después otro marcador o característica de la zona extrema trasera del AGV, a medida que entran en el campo de visión del sensor.
Tal como se emplea en la presente descripción, servo-visual se refiere a un procedimiento de control de robot basado en visión en el que los grados de libertad del robot para realizar una determinada operación (por ejemplo, insertar un pasador de articulación en un orificio) no se controlan de acuerdo con un programa predeterminado, idéntico para cada repetición de la operación, pero se controlan en tiempo real utilizando información proporcionada por un sensor de visión, de modo que el robot es guiado progresivamente por el sistema de visión hacia la zona objetivo y, cada vez que se realiza la operación, el robot puede realizar diferentes movimientos.
En la presente descripción, comportamiento flexible se refiere a un procedimiento de control del robot en el que el robot es "blando", es decir, no es rígido, en por lo menos una dirección de movimiento, de modo que el robot puede desviarse de una trayectoria prevista hasta cierto punto dependiendo de la fuerza externa aplicada, por ejemplo, si encuentra una resistencia mecánica. Existen varios procedimientos y técnicas para controlar un robot con un comportamiento flexible, tal como mediante el uso de un sensor de fuerza.
En procedimientos para montar piezas descrito aquí, el movimiento del robot de montaje y su efector final, que puede llevar, por ejemplo, un elemento a montar sobre la pieza en la zona objetivo de la misma, se lleva a cabo realizando un proceso servo-visual en tiempo real, utilizando datos de un sistema de visión que controla, directa o indirectamente, la posición real de la zona objetivo de la carrocería del vehículo u otra pieza.
Este servo-visual en tiempo real basado en el control de la zona objetivo permite compensar por lo menos parcialmente errores debidos a tolerancias en el seguimiento del avance de la pieza (por ejemplo, debido a la resolución de un codificador que sigue el movimiento del transportador), así como errores respecto a la trayectoria prevista de la pieza debido a vibraciones u otros movimientos irregulares del transportador u otro sistema de transporte, así como errores debidos a diferencias entre el diseño CAD de la pieza y la forma/características físicas de la pieza, y errores de posicionamiento de la pieza en el transportador. Además, esto puede conseguirse sin detener el avance de la pieza.
En otras palabras, las desviaciones de la trayectoria prevista, vibraciones, y otras imprecisiones en el posicionamiento de la zona objetivo se solucionan dado que el robot es guiado en tiempo real por un sistema de visión que controla la posición de la zona objetivo de la pieza real sobre la cual se está realizando la operación de montaje.
El proceso de comportamiento flexible, en combinación con el servo-visual, hace frente de manera segura y eficiente a pequeños errores residuales en el posicionamiento del efector final del robot en los movimientos finales de la operación de montaje, cuando el efector final, o un elemento de montaje sostenido por el efector final, hace contacto con la pieza.
En algunos ejemplos, la pieza puede avanzar continuamente a lo largo de la línea de montaje, a una velocidad constante o variable.
Tal como se ha mencionado anteriormente, los procedimientos de montaje de la presente descripción son particularmente eficientes con piezas que se mueven continuamente, dado que el servo-visual y el comportamiento flexible proporcionan la capacidad de compensar en tiempo real por lo menos parcialmente errores de posicionamiento, que surgen de múltiples fuentes, entre el efector final del robot (o un elemento de montaje que lleva el efector final) y la pieza y, por lo tanto, el avance continuo de la pieza no es un obstáculo importante para la precisión de la operación de montaje.
El sistema de visión en tiempo real puede comprender un sensor de visión dispuesto para obtener imágenes de la zona objetivo. Sin embargo, puede ser preferible disponer el sensor de visión para obtener imágenes de un marcador que se mueve junto con la zona objetivo, por ejemplo, un marcador cercano a la zona objetivo. Esto es útil especialmente, pero no exclusivamente, si el sensor está montado para moverse con el efector final del robot, ya que el propio efector final puede dificultar en algún punto la visión de la zona objetivo por parte del sensor de visión. Un marcador también puede ser una mejor solución si la zona objetivo, debido a su configuración, no puede seguirse fácilmente por un sistema de visión artificial, por ejemplo, si le falta contraste.
El marcador puede ser un elemento o característica visible de la propia pieza, por ejemplo, que proporcione una imagen clara y contrastada para una detección rápida y precisa por parte del sensor de visión, tal como un orificio en la pieza, un borde de una abertura o una forma o línea particular. También puede ser un marcador en forma de símbolo gráfico, código de barras, código QR o similar, que pueda aplicarse a la pieza, o disponerse en una etiqueta que se adhiera después a la pieza y, en este caso, el marcador puede disponerse en la pieza antes de la operación de montaje y retirarse de la pieza después de la operación de montaje.
En algunas realizaciones del procedimiento, durante el proceso de comportamiento flexible, el movimiento del efector final del robot se controla por lo menos en base a las lecturas de un sensor de fuerza/par montado en el robot para detectar fuerzas externas que actúan sobre el efector final.
Un sensor de fuerza/par normalmente puede estar provisto de unas galgas extensométricas de resistencia para medir la tensión aplicada en varios grados de libertad, por ejemplo, en todos los seis grados de libertad (tres fuerzas y tres pares), y componentes electrónicos adecuados para procesar las señales de las galgas extensométricas y comunicarse con un dispositivo externo, por ejemplo, con el controlador del robot.
Este sensor puede insertarse, por ejemplo, entre la muñeca y el efector final del robot para detectar la tensión entre los dos elementos y proporcionar información sobre las fuerzas externas que actúan sobre el efector final y, por lo tanto, sobre la posición relativa entre el efector final y la pieza sobre la cual se realiza la operación de montaje.
En algunas realizaciones del procedimiento, cada uno del proceso servo-visual y el proceso de comportamiento flexible están activos simultáneamente durante la operación de montaje, y el movimiento del efector final resulta de una combinación de ambos procesos.
Por ejemplo, el efector final puede ir guiado en base a un sistema de visión en tiempo real para converger hacia una posición de montaje final, pero esta convergencia se modifica o se suaviza mediante el comportamiento flexible, por ejemplo, dependiendo de las lecturas de un sensor de fuerza/par, para optimizar la capacidad del robot para realizar de manera segura y eficiente la etapa final de la operación de montaje, que suele ser la etapa más crítica.
Por ejemplo, el controlador del robot puede recibir señales de un sistema de visión en tiempo real que sean representativas de una posición deseada del efector final de acuerdo con el sistema de visión, y también puede recibir simultáneamente señales de un sistema de comportamiento flexible que sean representativas de una posición deseada del efector final de acuerdo con el sistema de comportamiento flexible, y el controlador del robot puede controlar el movimiento del efector final en base a una combinación de las señales recibidas en tiempo real.
Al comienzo de la operación de montaje, y mientras el efector final y el elemento de montaje que lleva se encuentran todavía alejados de la zona objetivo, las señales del sistema de comportamiento flexible normalmente serán nulas o despreciables ya que sobre el efector final no actúa ninguna fuerza externa.
En consecuencia, en esta fase, las señales del sistema de comportamiento flexible no tendrán ningún efecto en la combinación, y el controlador moverá el efector final según indique y guíe el sistema de visión.
Sin embargo, si existe una interacción física, es decir, contacto, entre el elemento de montaje o el efector final y un objeto externo, tal como la zona objetivo o una zona contigua, entonces las señales del sistema de comportamiento flexible no serán cero. La posición deseada a la que debe moverse el efector final, de acuerdo con el sistema de visión, no será la misma que la posición deseada de acuerdo con el sistema de comportamiento flexible.
Después, el controlador del robot combinará las posiciones deseadas, por ejemplo, haciendo una suma ponderada, y moverá el efector final en consecuencia. El peso relativo otorgado en la combinación al sistema de visión y al sistema de comportamiento flexible puede depender de la operación de montaje específica: por ejemplo, puede darse más peso relativo al sistema de comportamiento flexible en casos de piezas más frágiles, y puede darse más peso relativo al sistema de visión en casos en los que el tiempo disponible para la operación de montaje es limitado.
Por lo tanto, se apreciará que puede producirse simultáneamente un proceso servo-visual y un proceso de comportamiento flexible, y el movimiento del efector final del robot se controla en tiempo real en base tanto a las entradas del sistema de visión como a las entradas del sistema de comportamiento flexible.
En algunos ejemplos, una vez que el robot se desplaza sincronizado con el avance del transportador, y antes de iniciar un proceso servo-visual de la operación de montaje, se determina la posición de la zona objetivo de la pieza tomando una captura de una cámara, por ejemplo, una imagen general de la pieza, y el efector final del robot se mueve hacia la posición de la zona objetivo, hasta una distancia predeterminada.
Este movimiento puede ser una primera aproximación del efector del robot a la zona objetivo, a una velocidad relativamente elevada, es decir, a una velocidad que en promedio sea más elevada que la velocidad durante el proceso servo-visual y de comportamiento flexible. En algunos ejemplos, y dependiendo de la operación, el efector final del robot, o un elemento de montaje sostenido por el efector final, puede colocarse a una distancia entre 50 y 500 mm de la zona objetivo, por ejemplo, una distancia entre 100 y 200 mm.
Otros objetivos, ventajas y características de realizaciones resultarán claros para los expertos en la materia tras examinar la descripción, o podrán derivarse al ponerla en práctica.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
A continuación, se describen unos ejemplos no limitativos con referencia a los dibujos adjuntos. Los ejemplos mostrados en las figuras 1 a 7 no se encuentran dentro del alcance de las reivindicaciones adjuntas.
En los dibujos:
La figura 1 ilustra una vista en planta simplificada de una línea de montaje con una unidad de montaje;
La figura 2 es una representación esquemática de una línea de montaje con una unidad de montaje similar a la de la figura 1;
La figura 3 es un diagrama de bloques de los circuitos de control de una unidad de montaje;
La figura 4 es un diagrama de flujo de parte de un procedimiento;
La figura 5 muestra esquemáticamente una unidad de montaje en la que un sistema de visión controla un marcador; Las figuras 6 y 7 son diagramas de flujo de procedimientos;
La figura 8 ilustra una vista frontal simplificada de una línea de montaje con una unidad de montaje, donde la línea de montaje comprende un sistema de transporte con AGVs;
La figura 9 muestra esquemáticamente una unidad de montaje en la que un primer sistema de visión controla un AGV y un segundo sistema de visión controla un marcador en una parte de una carrocería de vehículo; y
La figura 10 es un diagrama de flujo de un procedimiento.
DESCRIPCIÓN DETALLADA
Los ejemplos descritos con referencia a las figuras 1 a 7 no se encuentran dentro del alcance de las reivindicaciones adjuntas, pero son útiles para comprender el procedimiento y la línea de montaje reivindicados.
Las figuras 1 y 2 muestran, en vista en planta y de manera esquemática, respectivamente, una línea de montaje 10, en el ejemplo una línea de montaje de automóviles final, que no se encuentra dentro del alcance de las reivindicaciones adjuntas, en la que una pieza que, en este caso, es una carrocería de un vehículo 20, se desplaza en una dirección de avance D1 en un sistema de transporte tal como un patín (no mostrado) dispuesto sobre un transportador 30, por una unidad de montaje 50. Por ejemplo, la carrocería del vehículo 20 puede transportarse a una velocidad continua de aproximadamente 100 mm/s.
La carrocería del vehículo 20 u otra pieza comprende una zona objetivo 21 donde se va a realizar una operación de montaje. Ejemplos de operaciones de montaje que pueden realizarse con realizaciones del procedimiento y la unidad descritos aquí pueden ser desmontar las puertas antes de insertar otros elementos internos, montar el puesto de conducción del vehículo, colocar la alfombra, colocar los asientos, colocar la batería, colocar la rueda de recambio, fijar las juntas de estanqueidad por laminado, montar las puertas, etc.
Puede incluirse un dispositivo de medición para controlar el avance del transportador: por ejemplo, puede disponerse un codificador digital 31 en correspondencia con un eje de accionamiento (no mostrado) del transportador 30.
La unidad de montaje 50 comprende un robot industrial 60, que puede comprender un controlador y un número de grados de libertad o ejes programables entre una base y una muñeca, teniendo cada grado de libertad un elemento de accionamiento asociado, tal como un motor, controlado por el controlador del robot (estos detalles de un robot industrial son conocidos y no se muestran en las figuras).
El robot 60 está provisto de un efector final 61 correspondiente, por ejemplo, una pinza u otro elemento adecuado, unido a la muñeca del robot. En el ejemplo, el robot 60 va montado sobre una pista 70 y está provisto de un accionamiento adecuado (no mostrado), de modo que puede desplazarse paralelo al transportador en la dirección D1.
De acuerdo con ejemplos descritos aquí, la unidad de montaje 50 también comprende un sistema de visión 80 con un sensor de visión 81, por ejemplo, una cámara, que puede montarse en el robot. El sensor de visión 81 puede montarse de manera que se mueva junto con el efector final 61 del robot 60.
En la figura 2 se ha indicado mediante E1, E2, E3, E4, E5 una serie de fuentes de error y tolerancias diferentes que pueden producirse en el sistema que representan respectivamente:
E1: seguimiento del transportador, que puede ser inexacto debido a la limitada resolución del codificador, por ejemplo, de /- 2 mm;
E2: errores derivados de la dinámica del transportador (vibración), debido a que el movimiento del transportador no es tan suave como el del eje de accionamiento controlado por el codificador;
E3: errores de posicionamiento entre cada carrocería de vehículo y el patín, y entre cada patín y el transportador, y errores por diferencias de geometría entre una carrocería de vehículo y otra;
E4: errores relacionados con la frecuencia de imagen que puede proporcionar el sistema de visión;
E5: errores relacionados con la cinemática del robot.
Tal como se ha explicado en la descripción anterior, los ejemplos de procedimientos de montaje y unidades de montaje descritos aquí permiten compensar errores E1, E2 y E3 de una manera eficiente, dado que el servo-visual en tiempo real no se ve afectado por estas fuentes de error. Los errores E3 también podrían compensarse con otras soluciones, pero los errores E1 y E2 son especialmente difíciles de compensar con soluciones conocidas. Además, un proceso de comportamiento flexible permite abordar el resto de los errores, tales como los errores E4 y E5. La figura 3 es un diagrama de bloques esquemático de unos circuitos de control de ejemplo de la unidad de montaje 50.
Tal como se ha descrito anteriormente, la unidad de montaje 50 comprende el robot industrial 60, que comprende el efector final 61 unido a la muñeca, y el sistema de visión 80 con el sensor de visión 81 (por ejemplo, una cámara), que está montado en el robot de manera que se mueve junto con el efector final 61.
Un ejemplo de sensor de visión disponible en el mercado adecuado para esta aplicación puede ser el Intel® RealSense™ Camera SR300.
El sistema de visión 80 y, en particular, el sensor de visión 81, puede estar dispuesto para controlar en tiempo real la posición de la zona objetivo 21 de la carrocería del vehículo 20 directamente, obteniendo imágenes de la zona objetivo 21 de la propia zona objetivo 21, o indirectamente, obteniendo imágenes de un marcador 22 que se mueve junto con la zona objetivo 21, tal como se muestra en la ilustración esquemática de la figura 5.
Normalmente, el marcador 22 será otro punto o zona de la carrocería del vehículo 20, de modo que no hay movimiento relativo, vibraciones, etc. entre la zona objetivo 21 y el marcador 22, y está situado en una posición que permanece en el campo de visión del sensor de visión 81 durante toda la trayectoria del efector final 61, entre una posición inicial y una posición final de montaje.
El marcador 22 puede ser, por ejemplo, una etiqueta con un símbolo gráfico, que se aplica en un punto adecuado de la carrocería del vehículo 20 antes de la operación de montaje y normalmente se retira después.
Sin embargo, también es posible utilizar como marcador 22 un elemento visible de la carrocería del vehículo, por ejemplo, un elemento de la carrocería del vehículo con bordes bien definidos y un contraste nítido, que pueda controlarse fácilmente mediante un sistema de visión por ordenador. Ejemplos de elementos adecuados en la carrocería de un vehículo pueden ser un orificio, el borde de un orificio o abertura, una línea, o una forma particular. Volviendo a la figura 3, la unidad de montaje 50 puede comprender, además, un sensor de fuerza/par 100, por ejemplo, montado en el robot 60 entre la muñeca y el efector final 61, que proporcione lecturas de las fuerzas externas que actúan sobre el efector final.
El sensor de fuerza/par 100 puede estar provisto típicamente de unas galgas extensométricas de resistencia para medir la tensión aplicada en varios grados de libertad, por ejemplo, en todos los seis grados de libertad (tres fuerzas y tres pares), así como electrónica adecuada para procesar las lecturas de las galgas extensométricas y proporcionar señales correspondientes a un controlador del robot 200 que se describirá más adelante. Las señales dependen de las fuerzas externas que actúan sobre el efector final y, por lo tanto, representan la situación de interacción física o contacto entre el efector final y una pieza externa, es decir, la pieza sobre la cual el robot 60 está llevando a cabo una operación de montaje.
Ejemplos de sensores de fuerza/par disponibles en el mercado que podrían emplearse en el control del robot en un proceso de comportamiento flexible son los sensores de momento de fuerza de 6 ejes serie FT disponibles de Schunk, Alemania. (www.schunk.com).
La unidad de montaje 50 puede comprender, además, un módulo de procesamiento de imágenes 82, un módulo controlador de visión 90, un módulo controlador de fuerza/par 210, una interfaz en tiempo real con el módulo robot 220 y el módulo controlador del robot 200 citado anteriormente.
El módulo de procesamiento de imágenes 82 puede configurarse para recibir imágenes de la zona objetivo 21 o del marcador 22 desde el sensor de visión 81 a través de una comunicación establecida entre, por ejemplo, un submódulo de comunicación comprendido en el módulo de procesamiento de imágenes 82 y un submódulo de comunicación comprendido en el sensor de visión 81. Dicha comunicación puede protegerse mediante, por ejemplo, claves criptográficas y/o un túnel SSL establecido entre ellas.
El procesamiento de las imágenes por el módulo de procesamiento de imágenes 82 puede comprender:
- recibir una imagen de la cámara u otro sensor de visión 81;
- detectar una característica en la imagen recibida, que puede ser la posición y la orientación de un objeto en la imagen (servo-visual basado en posición - PBVS) o una característica más abstracta, tal como puntos, líneas rectas, líneas curvas, etc. de la imagen (servo-visual basado en imagen - IBVS);
- calcular un error entre la característica detectada y la misma característica en una imagen de referencia, que se almacena en el módulo de procesamiento de imágenes en una etapa de aprendizaje anterior. En la imagen de referencia, la característica la ve la cámara cuando la cámara se encuentra una posición conocida, por ejemplo, al final de la operación de montaje, cuando el efector final del robot completa el montaje en la zona objetivo. El error es, por lo tanto, representativo de la diferencia entre la posición actual y la posición deseada de la cámara y, por lo tanto, también de la diferencia entre la posición actual y la posición deseada del efector final;
- enviar el error calculado al módulo controlador de visión 90.
El error se calcula, por lo tanto, comparando una imagen capturada por el sensor de visión con una imagen de referencia obtenida previamente en un proceso de aprendizaje y almacenada en el módulo de procesamiento de imágenes.
De acuerdo con algunos ejemplos, el módulo de procesamiento de imágenes 82 puede configurarse para recibir y procesar imágenes a una frecuencia de por lo menos 15 Hz, por ejemplo, una frecuencia de por lo menos 20 Hz. En algunos ejemplos, la frecuencia puede ser entre 20 y 40 Hz, por ejemplo, recibiéndose y procesándose una imagen cada 40-50 milisegundos (es decir, una frecuencia de 25-20 Hz), para permitir seguir la zona objetivo de tal manera que se compense por lo menos parcialmente los errores descritos anteriormente en relación con la figura 2.
Además, el módulo controlador de visión 90 puede configurarse para:
- calcular la velocidad de la cámara 81 que es necesaria para corregir el error recibido desde el módulo de procesamiento de imágenes 82. La velocidad puede calcularse en base a una ley de control, por ejemplo:
velocidad V<vs>= ganancia * J * error
donde la ganancia puede ser, por ejemplo, una ganancia proporcional, integral y/o derivada (PID) y J es una matriz de interacción o matriz jacobiana, que es la matriz que define la relación dinámica entre el error y la velocidad de la cámara. En algunos ejemplos, la ganancia puede ser variable, por ejemplo, puede ser función del error, por ejemplo, puede ser inversamente dependiente del error, de modo que, si el valor del error es pequeño, la ganancia puede ser mayor. Por el contrario, si el valor del error es grande, la ganancia puede ser menor. Básicamente, el objetivo principal, en este caso, es evitar que, para valores del error muy grandes (cuando el efector final se encuentra todavía lejos del objetivo), la velocidad de la cámara sea demasiado elevada, con riesgo de accidentes, mientras que, para valores del error muy pequeños (cuando el efector final se encuentra muy cerca del objetivo) la velocidad es demasiado baja y existe el riesgo de que el efector final tarde demasiado en alcanzar el objetivo; - convertir la velocidad calculada en el sistema de coordenadas de la cámara al sistema de coordenadas del efector final 61 del robot (punto central de la herramienta, TCP);
- calcular un aumento en la posición AX<vs>a partir de la velocidad;
- calcular una posición deseada X<vs>del efector final 61 a partir del aumento de la posición calculado AX<vs>y la posición actual X<c>del efector final 61, que se recibe de la interfaz en tiempo real al módulo robot 220;
- enviar la posición deseada calculada X<vs>a la interfaz en tiempo real al módulo robot 220.
Esta posición deseada X<vs>puede emplearse para el control del movimiento del efector final 61 del robot, en base a las lecturas del sistema de visión 80.
Este proceso puede realizarse cada 4 milisegundos (es decir, una frecuencia de 250 Hz). Dicho tiempo indicado es un ejemplo de referencia. Dado que esta frecuencia puede ser mayor que la frecuencia del módulo de procesamiento de imágenes 82, el módulo de control de visión 90 proporcionará sucesivas posiciones deseadas X<vs>, en varias iteraciones sucesivas, a partir de la misma señal de error proporcionada por el módulo de procesamiento de imágenes (y, por lo tanto, el mismo aumento de posición calculado), pero aplicando el aumento de posición a una nueva posición X<C>proporcionada por la interfaz en tiempo real al módulo robot 220, ya que el efector final del robot se mueve en cada iteración.
Básicamente, el sistema de visión 80, el módulo de procesamiento de imágenes 82, el módulo controlador de visión 90, la interfaz en tiempo real con el robot 220 y el módulo controlador del robot 200 permiten ejecutar un proceso servo-visual para controlar el movimiento del efector final durante la operación de montaje. En este proceso, el movimiento del efector final del robot, por lo tanto, se controla en tiempo real en base a las lecturas del sistema de visión 80.
El módulo controlador de fuerza/par 210 puede configurarse para:
- recibir valores de fuerza y par del sensor de fuerza/par 100;
- restar un valor de referencia (por ejemplo, el momento flector debido al peso del efector final 61 del robot y el peso del elemento de montaje) del valor de fuerza recibido, obteniéndose unos valores de fuerza neta y par;
- calcular una velocidad, a partir de los valores de fuerza neta/par, aplicando una ganancia y una transformación destinada a permitir un grado de comportamiento flexible con el efector final:
velocidad VFC = ganancia * M * fuerza neta/par
donde M es una matriz de transformación que, junto con la ganancia, constituyen la ley de control que establece cómo debe responder y moverse el robot, dependiendo de las condiciones de fuerza y par detectadas, para que sea compatible y se eviten daños al robot y/o al entorno. La ganancia puede ser constante o puede ser variable, por ejemplo, una función de la fuerza. La ganancia y la matriz de transformación pueden establecerse para cada aplicación en función de la operación concreta de montaje, teniendo en cuenta la precisión necesaria, el riesgo de daño al propio robot y a las piezas, etc.
- calcular un incremento en la posición AX<fc>a partir de la velocidad;
- calcular una posición deseada X<fc>del efector final 61 a partir del incremento calculado en la posición AX<fc>y la posición actual X<c>del efector final 61, que se recibe desde la interfaz en tiempo real al módulo robot 220;
- enviar la posición deseada calculada X<fc>a la interfaz en tiempo real con el módulo robot 220.
Este proceso puede realizarse cada 4 milisegundos (es decir, una frecuencia de 250 Hz). Dicho tiempo indicado es un ejemplo de referencia. Esta frecuencia puede ser la misma que la frecuencia del módulo de control de visión 90, de modo que la interfaz en tiempo real con el módulo robot 220 recibirá en cada iteración las posiciones deseadas X<vs>y X<fc>.
El sensor de fuerza/par 100, el módulo controlador de fuerza/par 210, la interfaz en tiempo real con el módulo robot 220 y el módulo controlador del robot 200 permiten ejecutar un proceso de comportamiento flexible para controlar el movimiento del efector final durante la operación de montaje. Por lo tanto, en este proceso el movimiento del efector final del robot puede controlarse en tiempo real en base a las lecturas del sensor de fuerza 100.
El sensor de fuerza-par 100 y el módulo controlador de fuerza 210 pueden considerarse un sistema de comportamiento flexible. En otros ejemplos, el movimiento del efector final puede controlarse en tiempo real en base a diferentes sistemas de comportamiento flexibles.
En otro ejemplo de un sistema de comportamiento flexible, puede omitirse un sensor externo tal como el sensor de fuerza/par 100 y, como entradas para un módulo controlador de fuerza/par 210 (que puede formar parte del controlador del robot 200), el sistema puede utilizar los pares sobre los motores internos del robot, que son proporcionales a la corriente consumida. Puede detectarse entonces una fuerza externa sobre el efector final, debida a una interacción física con el entorno (por ejemplo, contacto con la zona objetivo), mediante una variación de los pares respecto a un modelo dinámico interno del robot. Después, puede aplicarse una ley de control y una ganancia, tal como se ha descrito anteriormente, para calcular una velocidad deseada para hacer que el efector final sea compatible por lo menos en una dirección.
En otro ejemplo, un sistema de comportamiento flexible puede ser pasivo: por ejemplo, puede preverse un sistema de flotación mecánica, en el que el efector final no vaya montado rígido en la muñeca, sino con la interposición de elementos elásticos o similares, de modo que, si hace contacto con un objeto, su comportamiento es relativamente flexible, dependiendo de las características elásticas del soporte. En este caso, en un proceso de comportamiento flexible de la operación de montaje, el efector final se controla únicamente en base al sistema de visión, pero se permiten ciertas desviaciones de la trayectoria prevista, debido al montaje flotante, en respuesta a una interacción física del efector final con un objeto del entorno.
Otros sistemas de comportamiento flexible pueden combinar más de una solución: por ejemplo, puede comprender un módulo de control de fuerza/par y también un sistema de flotación mecánica para el efector final.
La interfaz en tiempo real con el módulo robot 220 puede configurarse para:
- recibir las posiciones deseadas X<fc>y X<vs>generadas por el módulo controlador de fuerza/par 210 y el módulo controlador de visión 90;
- combinar las posiciones deseadas recibidas X<fc>y X<vs>mediante un promedio, una suma ponderada, u otro, para obtener una posición resultante deseada X<d>;
- enviar la posición deseada X<d>al módulo controlador del robot 200.
La posición deseada resultante X<d>depende, entre otros, de las ganancias aplicadas por el módulo controlador de fuerza/par 210 y el módulo controlador de visión 90. Las ganancias pueden estar adaptadas a cada operación de montaje específica o a cada fase de una operación de montaje: por ejemplo, la ganancia aplicada al módulo controlador de fuerza/par 210 puede ser más elevada si las piezas involucradas en la operación de montaje son particularmente frágiles, para dar más peso al componente de comportamiento flexible y evitar el riesgo de dañar las piezas, incluso si esto puede hacer que la operación sea más lenta, debido a que puede que la trayectoria establecida por el sistema de visión no se siga tan de cerca.
El módulo controlador del robot 200 puede configurarse para recibir la posición deseada X<d>desde la interfaz en tiempo real al módulo robot 220 y actuar sobre los motores o cualquier otro elemento de accionamiento del robot 60 para mover el efector final 61 a la posición deseada X<d>.
El módulo controlador del robot 200 y la interfaz en tiempo real con el módulo robot 220 pueden ser el mismo módulo o no, es decir, la interfaz en tiempo real con el módulo robot 220 puede ser externa o no al módulo controlador del robot 200.
Por otra parte, la expresión "controlador del robot" puede utilizarse aquí como que comprende ambos módulos 200 y 220 así como por lo menos parte del módulo controlador de visión 90, el módulo controlador de fuerza 210, etc.
Todos los errores, velocidades, incrementos de posiciones AX<fc>y AX<vs>, posición actual X<c>y posiciones deseadas X<fc>, X<vs>, X<d>son variables vectoriales, que incluyen desplazamientos y rotaciones respecto a uno o más sistemas de coordenadas. Las ganancias también pueden ser variables vectoriales.
Además, aunque la descripción anterior se refiere a un caso en que el módulo controlador de fuerza/par 210 y el módulo controlador de visión 90 determinan las posiciones deseadas a partir de incrementos de posición, e incrementos de posiciones a partir de velocidades, y después se combinan las posiciones deseadas, otros sistemas pueden funcionar combinando velocidades, o incrementos de posiciones, o combinando, por ejemplo, posiciones e incrementos de posiciones o velocidades. En algunos casos, por ejemplo, si la combinación se realiza en la interfaz en tiempo real con el módulo robot 220 con velocidades o incrementos de posiciones, no hay necesidad de proporcionar la posición actual X<c>al módulo controlador de visión 90 y al módulo controlador de fuerza 210.
Si los diferentes circuitos de la figura 3, por ejemplo, el módulo de procesamiento de imágenes 82 y el sensor de visión 81, están lo suficientemente cerca entre sí, éstos pueden estar conectados por cable (por ejemplo, a través de tecnología Ethernet) o pueden conectarse a través de tecnologías de comunicación inalámbrica de corto alcance, por ejemplo, tecnología Bluetooth (por ejemplo, BLE - Bluetooth Low Energy), NFC, Zigbee o WiFi. Si están alejados, pueden conectarse a través de tecnologías de comunicación inalámbrica de largo alcance tales como GSM, GPRS, 3G, 4G o tecnología satélite o tecnologías por cable (por ejemplo, a través de fibra óptica, ADSL, etc.).
Cualquiera de los módulos descritos con referencia a la figura 3 puede comprender o puede implementarse a través de medios electrónicos, medios informáticos o una combinación de ellos, es decir, dichos medios electrónicos o informáticos pueden utilizarse indistintamente de modo que una parte de los medios descritos pueda ser medios electrónicos y la otra parte pueda ser medios informáticos, o todos los medios descritos pueden ser medios electrónicos o todos los medios descritos pueden ser medios informáticos.
La figura 4 es un diagrama de flujo para ilustrar esquemáticamente cómo funciona un proceso servo-visual y un proceso de comportamiento flexible durante una operación de montaje con una unidad de montaje que está provista de un sistema de visión en tiempo real y un sistema de comportamiento flexible tal como se ha descrito anteriormente en relación con la figura 3, que no se encuentra dentro del alcance de las reivindicaciones adjuntas. En este ejemplo del procedimiento para montar piezas, en el bloque 510 se obtiene una imagen de la zona objetivo, o de un marcador.
En el bloque 520 se calcula un error entre la imagen obtenida y una referencia.
En el bloque 530 se determina la posición deseada X<vs>para el sistema de visión en función del error y la posición actual XC.
Al mismo tiempo, en el bloque 540 se detectan las fuerzas sobre el efector final, y en el bloque 550 se determina la posición deseada X<fc>para el comportamiento flexible del sistema, en función de las fuerzas detectadas y la posición actual XC.
En el bloque 560 se calcula una posición deseada combinada X<d>en base a X<vs>y X<fc>.
En el bloque 570, esta posición deseada X<d>se utiliza para mover el efector final del robot según corresponda.
En el bloque 580 se determina si se ha completado la operación de montaje. En caso afirmativo, se finaliza la operación; de lo contrario, la posición actual del efector final X<c>se envía a los bloques 530 y 550, para una iteración posterior.
Las operaciones en los bloques 510, 520 y 540 se repiten a unas frecuencias determinadas para proporcionar valores actualizados del error en las imágenes obtenidas y de la fuerza detectada, hasta el final de la operación. En la práctica, aunque la fuerza externa sobre el efector final, obtenida a partir de la fuerza detectada en el bloque 540, sea cero o insignificante, el procedimiento se encuentra en una etapa de aproximación a la zona objetivo, realizando un proceso servo-visual donde el movimiento del efector final se basa en la posición deseada X<vs>para el sistema de visión.
Si la fuerza externa sobre el efector final, obtenida a partir de la fuerza detectada en el bloque 540, no es cero o insignificante, el procedimiento se encuentra en una etapa de interacción física con la zona objetivo, realizándose un proceso servo-visual simultáneamente a un proceso de comportamiento flexible, donde el movimiento del efector final se basa en la combinación de la posición deseada X<vs>para el sistema de visión y la posición deseada X<fc>para el sistema de comportamiento flexible, tal como se ha explicado anteriormente en relación con la figura 3.
La figura 6 ilustra un diagrama de flujo de un ejemplo de un procedimiento, que no se encuentra dentro del alcance de las reivindicaciones adjuntas, para montar piezas en una línea de montaje: por ejemplo, para montar una puerta en una carrocería de un vehículo 20.
En el bloque 610 se hace avanzar una pieza, tal como la carrocería de un vehículo 20, en una línea de montaje, y en el bloque 620 se inicia una operación de montaje bajo el control del controlador del robot 200.
El controlador del robot 200 puede controlar el efector final 61 en tiempo real para realizar una operación de montaje deseada en la zona objetivo 21 de la carrocería del vehículo 20 mientras la carrocería del vehículo avanza, con por lo menos un proceso servo-visual representado por el bloque 630 y un proceso de comportamiento flexible representado por el bloque 640. El proceso de comportamiento flexible 640 puede comenzar, por ejemplo, una vez que se detecta que un elemento de montaje sostenido por el efector final está en contacto con la zona objetivo de la carrocería del vehículo o muy cerca de la misma.
En el proceso servo-visual 630, el controlador 200 controla el movimiento del efector final 61 en base a las lecturas del sistema de visión 80 que, tal como se ha explicado anteriormente, proporciona señales relacionadas con la posición de la zona objetivo 21.
En el proceso de comportamiento flexible 640, el controlador 200 controla el movimiento del efector final 61 por lo menos para permitir un grado de comportamiento flexible en por lo menos una dirección dependiendo, por ejemplo, de las señales del sensor de fuerza/momento 100. Sin embargo, las lecturas del sistema de visión 80 también pueden continuar afectando al movimiento del efector final durante esta etapa.
Las etapas 630 y 640 del procedimiento anterior pueden llevar progresivamente al efector final 61 del robot 60 desde una posición inicial, en la que un elemento de montaje sostenido por el efector final se encuentra a una distancia de la zona objetivo, hasta una posición final en la cual se completa la operación de montaje: por ejemplo, una puerta sujeta por el efector final se monta en la carrocería del vehículo, por ejemplo, insertando uno o dos pasadores de articulación en correspondientes casquillos de articulación de la carrocería del vehículo.
El procedimiento puede comprender más de un proceso servo-visual o proceso de comportamiento flexible, y estos procesos pueden ser alternos y/o simultáneos: por ejemplo, una vez que el elemento de montaje (el pasador de articulación de una puerta, por ejemplo) llega a la zona objetivo y allí hace contacto con la carrocería del vehículo (con el casquillo de articulación de la puerta en la carrocería del vehículo, por ejemplo), el controlador del robot 200 todavía mantiene un proceso servo-visual para guiar los movimientos finales del efector final, pero también se opera un proceso de comportamiento flexible con el fin de corregir o permitir una desviación de los movimientos previstos por el control servo-visual, por ejemplo, combinando las señales del sistema de visión y el sistema de comportamiento flexible tal como ha descrito anteriormente.
Un procedimiento para montar piezas en una línea de montaje puede comprender otras etapas, antes de los procesos servo-visuales y de comportamiento flexible del ejemplo de la figura 6. En el diagrama de flujo de la figura 7, con referencia a una unidad de montaje 50 tal como se muestra en las figuras 1 a 3, se ilustra ejemplo de dicho procedimiento, que no se encuentra dentro del alcance de las reivindicaciones adjuntas.
En la figura 7, la carrocería del vehículo 20 avanza sobre un transportador 30 en el bloque 710, y en el bloque 720 la carrocería del vehículo 20 se referencia respecto al sistema de coordenadas del transportador, por ejemplo, mediante un sensor láser (no mostrado).
En el bloque 730, el robot 60, con un elemento de montaje (no mostrado) sostenido por el efector final 61, se controla para avanzar sobre la pista 70 en la dirección de avance D1 de la línea de montaje, sincronizado con el avance del transportador 30, que viene determinado por las lecturas del codificador digital 31. Como resultado, el robot 60 y la zona objetivo 21 se mueven ahora en paralelo aproximadamente a la misma velocidad y, por lo tanto, mantienen una posición mutua constante, excepto por los errores de posicionamiento E1, E2 y E3 descritos anteriormente en relación con la figura 2.
En el bloque 740, la posición de la zona objetivo 21 de la pieza se determina tomando una imagen general de la pieza, es decir, una imagen desde una cierta distancia que permite identificar la zona objetivo (o el marcador, si se utiliza uno) en la pieza, por ejemplo, a través una captura de una cámara y, en el bloque 750, el efector final 61 del robot se mueve hacia la posición de la zona objetivo 21 a una velocidad relativamente elevada, mayor que la velocidad de un proceso servo-visual. Esta aproximación lleva el elemento de montaje a una distancia predeterminada de la zona objetivo: esta distancia se seleccionará en función de la operación, la forma y tamaño de las piezas a montar, la precisión requerida, etc. Por ejemplo, puede ser una distancia entre 50 y 500 mm de la zona objetivo. En algunos casos sencillos, el efector final 61 del robot puede moverse hacia la posición de la zona objetivo 21 sin necesidad de tomar una imagen para determinar la posición de la pieza.
La imagen general normalmente se tomará con la misma cámara o sensor de visión 81 del sistema de visión 80, pero también puede tomarse con una cámara dedicada distinta (no mostrada). En otros ejemplos, esta etapa puede no ser necesaria o la zona objetivo puede ubicarse utilizando detectores más simples, tales como un detector láser. En otros ejemplos, la aproximación inicial a la zona objetivo puede realizarse utilizando el proceso servo-visual.
Si se emplea un marcador 22 (véase la figura 5), la aproximación en el bloque 750 también dispondrá el marcador 22 en el campo de visión del sensor de visión 81.
La aproximación a una zona objetivo 21 ubicada mediante una cámara de captura permite compensar los errores E3 descritos en la figura 2, debidos, por ejemplo, a errores de posicionamiento de la carrocería del vehículo en el transportador o a desviaciones entre el diseño CAD y cada carrocería de vehículo individual.
Después, en el bloque 760, puede iniciarse un proceso servo-visual y, en el bloque 770, un proceso de comportamiento flexible, tal como se ha descrito para los bloques 630 y 640 en la figura 6.
El control mediante servo-visual de la operación de montaje, por ejemplo, tal como se ha descrito anteriormente en relación con la figura 3, permite compensar por lo menos parcialmente errores de posicionamiento E1, E2 descritos anteriormente en relación con la figura 2. También puede compensar errores E3, si no se han compensado, en una primera aproximación basada en una captura de una cámara, tal como se ha descrito anteriormente. Cualquier error residual se soluciona permitiendo un comportamiento flexible en los movimientos finales de la operación de montaje. Las figuras 8 y 9 ilustran unas realizaciones de una línea de montaje con una unidad de montaje. Tal como se muestra en la figura 8, el transporte de la carrocería del vehículo 20 u otra pieza a lo largo de la línea de montaje y más allá de una unidad de montaje 50 se realiza mediante un vehículo de guiado automático (AGV) 35, en lugar de un transportador. En la figura 9, el AGV 35 se muestra en líneas discontinuas, ya que se encuentra debajo de la carrocería del vehículo 20.
Un AGV 35 puede comprender una unidad de accionamiento 36 con unas ruedas y un carro 37 adaptado para soportar la carrocería del vehículo 20. El carro 37 está acoplado a la unidad de accionamiento 36 a través de un vástago (no mostrado) con libertad de movimiento en dirección vertical. Otros AGVs pueden tener configuraciones diferentes. Por ejemplo, la unidad de accionamiento puede provocar el avance del carro, pero el propio carro puede no estar montado en la unidad de accionamiento y puede soportar el peso de la carrocería del vehículo u otra pieza. El AGV 35 está configurado para transportar la carrocería del vehículo 20 por el suelo, por ejemplo, sobre un suelo irregular 400 en una línea de producción de automóviles 10, a lo largo de la dirección de avance (perpendicular al papel en la figura 8), siguiendo elementos tales como marcadores o cables en el suelo, imanes, luces, etc. (no mostrados).
En el ejemplo de la figura 8, la unidad de montaje 50 comprende un sistema de visión en tiempo real adicional 80' dispuesto para seguir la posición del AGV 35 a medida que avanza a lo largo de la línea de montaje 10, en el que la salida del sistema de visión en tiempo real 80' va conectada también al controlador 200 del robot 60 de la unidad de montaje 50, tal como se muestra de manera esquemática en la figura 9.
El sistema de visión en tiempo real 80' es similar al sistema de visión 80 descrito anteriormente, y permite seguir el movimiento del AGV 35 en la dirección de avance prevista y también en dirección vertical, por ejemplo, los movimientos accidentales en la dirección vertical D2 que pueden ser causados, por ejemplo, por un suelo irregular. El seguimiento del AGV 35 es, por lo tanto, más preciso, y los errores de posicionamiento vertical de la zona objetivo 21 debidos a oscilaciones del AGV, o errores en otras direcciones, pueden compensarse o tenerse en cuenta en la sincronización del robot 60 con el movimiento del AGV 35, de manera que el robot 60 puede avanzar sobre la pista 70 sincronizado con el avance del AGV, y su efector final puede desplazarse verticalmente o en otras direcciones sincronizado con las oscilaciones del AGV.
Para facilitar el seguimiento preciso del movimiento del AGV, el AGV puede estar provisto de un marcador AGV 38 en una posición adecuada, de modo que el sistema de visión en tiempo real 80' pueda seguir la posición del marcador AGV 38. Dicho marcador AGV puede imprimirse en el AGV, unierse al a Gv de manera permanente o unirse al AGV sólo temporalmente. Un marcador 38 adecuado también puede ser una característica del propio AGV, tal como un orificio, un borde o similar. En general, los AGVs tienen líneas y bordes más rectos que la carrocería de un vehículo y, por lo tanto, tienen varias características que son adecuadas para ser seguidas por el sistema de visión 80'.
El AGV también puede estar provisto de varios marcadores, para facilitar su seguimiento por parte del sistema de visión 80', de modo que siempre haya un marcador en el campo de visión del sistema de visión 80' a medida que avanza el AGV.
En el ejemplo de la figura 8, el sistema de visión 80' se muestra dispuesto para avanzar con el robot 60 a lo largo de la pista 70. Esta disposición del sistema de visión 80' no se encuentra dentro del alcance de las reivindicaciones adjuntas.
En el ejemplo de la figura 9, el sistema de visión en tiempo real 80' se encuentra dispuesto fijo a lo largo del recorrido del AGV, es decir, a lo largo de la línea de montaje, para controlar un marcador o característica 38 del AGV.
Tal como se muestra en la figura 9, el sensor 81 del sistema de visión en tiempo real 80 para controlar la zona objetivo 21 o un marcador 22 que se mueve junto con la zona objetivo 21, y el sensor (no mostrado) del sistema de visión en tiempo real 80', están ambos conectados al controlador del robot 200. En base a la entrada de los dos sistemas de visión en tiempo real 80 y 80', el controlador 200 controla el movimiento y operación del robot 60 y de su efector final 61 en por lo menos dos direcciones, de acuerdo con los ejemplos descritos anteriormente. El controlador 200 también puede recibir la entrada de un sensor de fuerza/par, tal como se ha descrito anteriormente. En el diagrama de flujo de ejemplo de la figura 10, la carrocería del vehículo 20 avanza sobre un AGV en el bloque 1010, y en el bloque 1020 el sistema de visión en tiempo real 80' detecta y comienza a controlar el AGV 35 mediante un proceso servo-visual.
En el bloque 1030 el robot 60 está sincronizado con el movimiento del AGV 35: por ejemplo, el robot 60 es controlado por el controlador 200 para desplazarse sobre la pista 70 (figura 8) sincronizado con el avance del AGV 35, y el movimiento del efector final 61 respecto a la base del robot 60 está sincronizado con las oscilaciones verticales del AGV 35. Como resultado, el efector final del robot 60 y la zona objetivo 21 se mueven en paralelo aproximadamente a la misma velocidad y con la misma oscilación vertical y, por lo tanto, manteniendo una posición mutua constante, excepto por los errores de posicionamiento entre cada carrocería y el AGV.
En el bloque 1040, el efector final 61 del robot se mueve hacia la posición de la zona objetivo 21 a una velocidad relativamente elevada, y a una posición relativamente precisa, en virtud del servo-control visual del movimiento del AGV, de manera que la zona objetivo 21, o el marcador 22, entran en el campo de visión del sensor de visión 81. Opcionalmente, antes de que el efector final se mueva hacia la zona objetivo en el bloque 1040, la posición de esta zona objetivo puede determinarse tomando una imagen general de la pieza, tal como se explica en el bloque 740 de la figura 7; sin embargo, en algunos casos, esta etapa puede omitirse.
Después, en el bloque 1050, puede iniciarse un proceso servo-visual y, en el bloque 1060, un proceso de comportamiento flexible, tal como se ha descrito anteriormente para las figuras 6 y 7.
El control del movimiento del AGV mediante el sistema de visión en tiempo real 80' y la sincronización del robot con el movimiento del AGV como en los bloques 1020, 1030 pueden continuar durante el proceso servo-visual y de comportamiento flexible de los bloques 1050 y 1060. Las salidas de los dos sistemas las puede combinar el controlador 200 de manera que el movimiento del efector final pueda ser una suma de los movimientos del AGV y los movimientos de la pieza objetivo en el AGV.
En ejemplos de procedimientos y unidades de montaje tal como se han descrito aquí, puede emplearse un robot industrial o varios robots industriales, ya sea funcionando de manera conjunta, sincronizada, o independientemente entre sí. Si se emplean varios robots, cada uno de ellos puede tener un sistema de visión asociado, o pueden controlarse todos utilizando datos del mismo sistema de visión.
En la presente descripción, un "robot industrial" es un manipulador multipropósito reprogramable, controlado automáticamente, que es programable en tres o más ejes, de acuerdo con la definición de la Norma ISO 8373. Ejemplos de robots industriales comerciales que pueden emplearse en una línea de montaje tal como se ha descrito aquí pueden ser los modelos IRB 4600, iRb 6700, IRB 7600, etc., todos disponibles de ABB, Zúrich, Suiza (www.abb.com).
En la muñeca del robot pueden montarse diferentes efectores finales para ser operados por un robot industrial: por ejemplo, pinzas para manipular un elemento de montaje que se va a montar en una pieza tal como la carrocería de un vehículo en una línea de montaje, herramientas tales como una herramienta soldadora, etc.
Los robots pueden fijarse directamente al suelo a través de la base del robot o pueden montarse en una estructura de soporte, montarse en el techo, montarse en una pista, etc.
Aunque solamente se ha descrito aquí una serie de realizaciones y ejemplos particulares, los expertos en la materia entenderán que son posibles otras realizaciones y/o usos alternativos de la innovación descrita y modificaciones obvias y equivalentes de la misma. El alcance de la presente descripción no debe limitarse por realizaciones particulares, sino que debe determinarse únicamente por el alcance de las siguientes reivindicaciones.

Claims (8)

REIVINDICACIONES
1. Procedimiento para montar piezas en una línea de montaje, tal como una línea de montaje final de automóviles (10), que comprende:
- avanzar una pieza (20) a lo largo de la línea de montaje con un vehículo de guiado automático AGV (35), presentando la pieza una zona objetivo (21) en la cual se va a realizar una operación de montaje;
- disponer un primer sistema de visión en tiempo real (80') para controlar la posición del AGV (35) en por lo menos dos direcciones, estando provisto el primer sistema de visión en tiempo real (80') de un sensor de visión montado fijo en la línea de montaje (10), estando configurado el sensor de visión del primer sistema de visión en tiempo real (80') para seguir el movimiento del AGV (35) en una dirección de avance de la línea de montaje y en una dirección vertical;
- proporcionar las lecturas del primer sistema de visión en tiempo real (80') a un controlador del robot (200) dispuesto para controlar una unidad de montaje (50) de la línea de montaje para realizar una operación automatizada en la pieza (20) que avanza mediante el AGV (35) va soportada por el mismo, comprendiendo la unidad de montaje (50) un robot industrial (60) que está provisto de un efector final (61);
- disponer un segundo sistema de visión en tiempo real (80) para controlar la posición de la zona objetivo (21), comprendiendo el segundo sistema de visión en tiempo real (80) un sensor de visión (81) montado en el robot (60) para moverse junto con el efector final (61);
en el que, mientras la pieza avanza,
- las lecturas del primer sistema de visión en tiempo real (80') se proporcionan al controlador del robot (200) para sincronizar el desplazamiento del robot o el efector final (61) del robot con el avance del AGV (35) a lo largo de la línea de montaje en la dirección de avance, y para sincronizar el desplazamiento del efector final (61) del robot (60) en la dirección vertical con oscilaciones verticales del AGV (35); y
- la operación de montaje en la zona objetivo (21) se realiza con el robot industrial (60) y comprende:
- un proceso servo-visual en el que el movimiento del efector final (61) del robot (60) se controla en tiempo real en base a por lo menos las lecturas del segundo sistema de visión en tiempo real (80), y
- un proceso de comportamiento flexible en el que el movimiento del efector final (61) del robot (60) se controla por lo menos para permitir un comportamiento flexible del efector final (61) en por lo menos una dirección.
2. Procedimiento de acuerdo con la reivindicación 1, en el que un sensor de visión del primer sistema de visión en tiempo real (80') captura una imagen de un marcador (22) o característica del AGV (35), un módulo de procesamiento de imágenes del primer sistema de visión en tiempo real (80') proporciona una señal de error representativa del desplazamiento del AGV (35) en base a la imagen capturada, y el controlador del robot (200) controla la unidad de montaje (50) por lo menos en base a la señal de error.
3. Procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que el primer sistema de visión en tiempo real (80') está dispuesto para controlar la posición de por lo menos dos marcadores (22) del AGV (35).
4. Procedimiento de acuerdo con la reivindicación 3, en el que el sensor de visión fijo del primer sistema de visión en tiempo real (80') está dispuesto para detectar y controlar primero un marcador (22) o una característica de la zona extrema delantera del AGV (35) en la dirección de avance, y después otro marcador (22) o característica de la zona extrema trasera del AGV (35), a medida que entran en el campo de visión del sensor.
5. Procedimiento de acuerdo con la reivindicación 1, en el que el primer sistema de visión en tiempo real (80') está provisto de dos o más sensores de visión fijos para cubrir todo el recorrido de un AGV (35) en correspondencia con la unidad de montaje (50) que realiza una operación de la pieza que lleva el AGV (35).
6. Línea de montaje final de automoción (10), que comprende un sistema de transporte con vehículos de guiado automático AGVs (35) para avanzar piezas (20) a lo largo de la línea de montaje, una unidad de montaje (50), y un primer sistema de visión en tiempo real (80') provisto de un sensor de visión montado fijo en la línea de montaje (10), para controlar la posición del AGV (35) en por lo menos dos direcciones, estando configurado el sensor de visión del primer sistema de visión en tiempo real (80') para seguir el movimiento del AGV (35) en una dirección de avance de la línea de montaje y en una dirección vertical, proporcionándose las lecturas del primer sistema de visión en tiempo real (80') a un controlador del robot (200) dispuesto para controlar una operación automatizada que se realiza en una pieza (20) que avanza mediante el AGV (35) va soportada por el mismo, en el que la unidad de montaje (50) comprende:
- un robot industrial (60) que está provisto de un efector final (61),
- un segundo sistema de visión en tiempo real (80) dispuesto para controlar la posición de una zona objetivo (21) de la pieza (20) que avanza a lo largo de la línea de montaje (10), comprendiendo el segundo sistema de visión en tiempo real (80) un sensor de visión (81) montado en el robot (60) para moverse junto con el efector final (61); - un sistema de comportamiento flexible para permitir un comportamiento flexible del efector final (61) en por lo menos una dirección, y
- el controlador del robot (200) para controlar el movimiento del efector final (61) del robot para realizar una operación de montaje en la zona objetivo (21) de la pieza,
en el que la salida del primer sistema de visión en tiempo real (80') y la salida del segundo sistema de visión en tiempo real (80) están conectadas al controlador del robot (200), y el controlador del robot está configurado para realizar una operación de montaje que comprende:
- un desplazamiento del robot industrial (60), o del efector final (61) del robot, sincronizado con el avance del AGV (35) a lo largo de la línea de montaje (10) en la dirección de avance en base a las lecturas del primer sistema de visión en tiempo real (80'), y un desplazamiento del efector final (61) del robot en la dirección vertical sincronizado con oscilaciones verticales del<a>G<v>(35) en base a las lecturas del primer sistema de visión en tiempo real (80');
- un proceso servo-visual en el que el movimiento del efector final (61) del robot se controla en tiempo real en base a las lecturas del segundo sistema de visión en tiempo real (80), y
- un proceso de comportamiento flexible en el que el movimiento del efector final (61) del robot se controla para permitir un comportamiento flexible del mismo.
7. Línea de montaje final de automóviles de acuerdo con la reivindicación 6, en la que el primer sistema de visión en tiempo real (80') comprende un sensor de visión para capturar una imagen de un marcador (22) o característica del AGV (35), y un módulo de procesamiento de imágenes para recibir la imagen capturada y proporcionar al controlador una señal de error representativa del desplazamiento del AGV, en base a la imagen capturada.
8. Línea de montaje final de automóviles de acuerdo con la reivindicación 6, en la que el primer sistema de visión en tiempo real (80') está provisto de dos o más sensores de visión fijos.
ES19702301T 2018-02-06 2019-02-06 Montaje de piezas en una línea de montaje Active ES2965233T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18382065.3A EP3520971A1 (en) 2018-02-06 2018-02-06 Assembling parts in an assembly line
PCT/EP2019/052911 WO2019154858A1 (en) 2018-02-06 2019-02-06 Assembling parts in an assembly line

Publications (1)

Publication Number Publication Date
ES2965233T3 true ES2965233T3 (es) 2024-04-11

Family

ID=61256876

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19702301T Active ES2965233T3 (es) 2018-02-06 2019-02-06 Montaje de piezas en una línea de montaje

Country Status (5)

Country Link
US (1) US11890706B2 (es)
EP (2) EP3520971A1 (es)
CN (1) CN111712355B (es)
ES (1) ES2965233T3 (es)
WO (1) WO2019154858A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11426874B2 (en) * 2019-04-30 2022-08-30 Flexiv Ltd. Robot-based insertion mounting of workpieces
US11679508B2 (en) * 2019-08-01 2023-06-20 Fanuc Corporation Robot device controller for controlling position of robot
CN115135462A (zh) * 2019-10-29 2022-09-30 Abb瑞士股份有限公司 用于机器人评估的系统和方法
EP3944932A1 (en) * 2020-07-27 2022-02-02 ABB Schweiz AG A method and an assembly unit for performing assembling operations
JP2022052995A (ja) * 2020-09-24 2022-04-05 セイコーエプソン株式会社 ロボットの制御方法およびロボットシステム
CN112757292A (zh) * 2020-12-25 2021-05-07 珞石(山东)智能科技有限公司 基于视觉的机器人自主装配方法及装置
EP4052859A1 (de) * 2021-03-05 2022-09-07 AyTec Automation GmbH Förder- und montagevorrichtung für kraftfahrzeuge
CN112896379A (zh) * 2021-03-09 2021-06-04 矩阵数据科技(上海)有限公司 一种新型汽车装配工艺
CN113400318B (zh) * 2021-07-16 2023-03-24 四川成焊宝玛焊接装备工程有限公司 机器人用户坐标系补偿方法、汽车在线滚边系统及方法
CN113878588B (zh) * 2021-11-12 2023-03-31 哈尔滨工业大学(深圳) 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法
CN116829443A (zh) * 2022-01-27 2023-09-29 宁德时代新能源科技股份有限公司 车辆总装生产线和车辆总装的方法
CN114881527B (zh) * 2022-06-06 2022-11-04 安徽大学江淮学院 一种汽车智能组装在线可视化追溯智能管理系统
CN115292540B (zh) * 2022-07-22 2023-06-13 杭州易有料科技有限公司 多模态零件信息识别方法、装置、设备和计算机可读介质
CN117647964B (zh) * 2024-01-29 2024-04-23 中航西飞民用飞机有限责任公司 用于飞机总装配的协同跟随移动移载平台控制系统及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0304942B1 (en) * 1987-08-27 1994-08-10 Nissan Motor Co., Ltd. Production system using unmanned automatically guided vehicles
CA2106580C (en) * 1991-04-01 1995-02-07 Hadi A. Akeel Method and system for the flexible assembly of assemblies
GB0125079D0 (en) 2001-10-18 2001-12-12 Cimac Automation Ltd Auto motion:robot guidance for manufacturing
KR100454714B1 (ko) * 2002-02-16 2004-11-05 한국과학기술연구원 작업용 로봇, 작업용 로봇을 위한 액츄에이터 및 작업용 로봇의 제어방법
EP2271465A1 (en) * 2008-03-31 2011-01-12 Abb Research Robot parts assembly on a workpiece moving on an assembly line
US8700205B2 (en) * 2011-08-05 2014-04-15 GM Global Technology Operations LLC Moving stop station for robotic assembly
CN103264738B (zh) * 2013-06-07 2015-07-01 上海发那科机器人有限公司 一种汽车风挡玻璃的自动装配系统及自动装配方法
CN104827469B (zh) * 2013-10-10 2016-10-19 精工爱普生株式会社 机器人控制装置、机器人系统、机器人以及机器人控制方法
CN106272416B (zh) * 2016-08-29 2020-12-29 上海交通大学 基于力觉和视觉的机器人细长轴精密装配系统及方法

Also Published As

Publication number Publication date
US20200368861A1 (en) 2020-11-26
WO2019154858A1 (en) 2019-08-15
EP3520971A1 (en) 2019-08-07
EP3749491B1 (en) 2023-09-13
US11890706B2 (en) 2024-02-06
CN111712355A (zh) 2020-09-25
EP3749491A1 (en) 2020-12-16
CN111712355B (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
ES2965233T3 (es) Montaje de piezas en una línea de montaje
JP6963748B2 (ja) ロボットシステム及びロボットシステムの制御方法
US9315367B2 (en) Coordinated transport robot system
US10471595B2 (en) Systems and methods for control of robotic manipulation
KR101730221B1 (ko) 무인 운반차, 및 무인 운반차를 작동하기 위한 방법
US20070073439A1 (en) System and method of visual tracking
US20130158709A1 (en) Robot control during an e-stop event
ES2620786T3 (es) Procedimiento y sistema para el control de piezas constructivas y/o unidades funcionales con un dispositivo de inspección
KR20170098885A (ko) 자주식 관절 로봇
JP2008142841A (ja) 移動ロボット
US11628573B2 (en) Unmanned transfer robot system
CN109176503B (zh) 一种基于仿生触须的智能路径探测机器人及路径探测方法
WO2021021446A1 (en) Mobile robot sensor configuration
Dong et al. Predictive visual servo kinematic control for autonomous robotic capture of non-cooperative space target
Aref et al. Position-based visual servoing for pallet picking by an articulated-frame-steering hydraulic mobile machine
JP2016016475A (ja) 複数ロボットの制御システム及び方法
Aref et al. A multistage controller with smooth switching for autonomous pallet picking
JP6901434B2 (ja) ロボットシステムおよびロボット
KR101195431B1 (ko) 비행 이송장치
JP2010262461A (ja) 移動体
Aung et al. Path Tracking Control of Obstacle Avoiding Robot Using Ultrasonic Sensor
Feng et al. Measurement of mobile manipulator chassis pose change caused by suspension deformation and end-effector accuracy improvement based on multi-sensor fusion
JP2019093504A (ja) 物品の製造方法及びロボットシステム
CN117055361B (zh) 基于滑模模型预测控制的移动机器人控制方法
WO2023166588A1 (ja) 作業ロボットシステム