ES2759082T3 - Aparato portátil para controlar un robot y método del mismo - Google Patents

Aparato portátil para controlar un robot y método del mismo Download PDF

Info

Publication number
ES2759082T3
ES2759082T3 ES14887969T ES14887969T ES2759082T3 ES 2759082 T3 ES2759082 T3 ES 2759082T3 ES 14887969 T ES14887969 T ES 14887969T ES 14887969 T ES14887969 T ES 14887969T ES 2759082 T3 ES2759082 T3 ES 2759082T3
Authority
ES
Spain
Prior art keywords
robot
portable apparatus
hmi device
orientation
relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14887969T
Other languages
English (en)
Inventor
Maciej Orman
Wanli Jiang
Carlos Martinez
Jacek Plesnar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
ABB Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Schweiz AG filed Critical ABB Schweiz AG
Application granted granted Critical
Publication of ES2759082T3 publication Critical patent/ES2759082T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39445Select between jog modes, user, robot coordinates, tool, system feed, joint feed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Abstract

Un aparato portátil (12) para controlar un robot (10), incluyendo el aparato portátil (12): un sensor de orientación (13), que está adaptado para medir la orientación de dicho aparato portátil (12); un dispositivo de interfaz hombre-máquina, HMI (15), que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI (15); y una unidad de procesamiento (17), que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil (12) y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y controlar una parte de dicho robot para que se mueva en una dirección correspondiente a una combinación de dicha orientación medida de dicho aparato portátil y una dirección de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15), estando el aparato portátil (12) caracterizado por que: dicha unidad de procesamiento (17) está adaptada además para recibir una tercera señal que representa una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot y juzgar si un factor de escala entre una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot (10) está dentro de un intervalo admisible.

Description

DESCRIPCIÓN
Aparato portátil para controlar un robot y método del mismo
Campo técnico
La invención se refiere al campo de un aparato y un método para el control de robots, y más particularmente a un aparato portátil para el control de robots y un método del mismo.
Antecedentes técnicos
Normalmente, un robot está equipado con un panel de enseñanza. El dispositivo es relativamente grande (con una pantalla táctil, botones de operador, etc.) y está conectado con un controlador de robot por cable.
La patente europea EP 2055 446 publicada el 6 de mayo de 2009 describe un aparato de control de robot portátil para controlar el movimiento de un robot o del extremo de una herramienta de robot. El aparato de control de robot portátil comprende un dispositivo inercial con al menos un sensor de aceleración y/o al menos un sensor de rotación, donde dicho dispositivo inercial mide su movimiento relativo y el aparato envía a un controlador de robot una señal que representa el movimiento relativo, de modo que el controlador de robot está habilitado para controlar el robot de tal manera que dicho movimiento relativo sea repetido por el robot o por el extremo de la herramienta de robot en tiempo real.
El documento "Design of 6-DOF Manipulator Intuitive Teaching System by Using Smart Phone Orientation - User Friendly and Intuitive Teaching Operation for 6-DOF Manipulator", Sanghun Pyo, Syed Hassan, Yasir Jan y Jungwon Yoon, 4a Conferencia internacional sobre sistemas inteligentes, modelización y simulación, 2013, describe un teléfono inteligente que puede efectuar la intención del usuario de que el robot industrial se mueva, y la información del sensor de orientación se convierte en la traslación y orientación del robot suponiendo que la orientación del teléfono inteligente puede ser un joystick convencional equipado con una articulación universal en la parte de base. El método puede mover el efector terminal del robot por dirección como plano XY.
EVANS III A WILLIAM ET AL describe: "Control solutions for robots using Android and iOS devices", UNMANNED SYSTEMS TECHNOLOGY XIV, SPIE, 100020TH ST. BELLINGHAM WA 98225-6705 USA, vol. 8387, no. 1, 11 de mayo de 2012 (2012-05-11), páginas 1-10, XP060003615, DOI: 10.1117/12.923023
Rosemarie E Yagoda ET AL describe: "Using Mobile Devices for Robotic Controllers: Examples and Some Initial Concepts for Experimentaron", junio de 2011 (2011-06), XP055419186, recuperado de Internet: URL: http://www.dtic.mi1/docs/citations/ADA549454
SEBASTIAN MUSZYNSKI ET AL describe "Adjustable autonomy for mobile teleoperation of personal service robots", RO-MAN, 2012 IEEE, IEEE, 9 de septiembre de 2012 (2012-09-09), páginas 933-940, XP032466959, DOI: 10.1109/ROMAN.2012.6343870 ISBN: 978-1-4673-4604-7
El documento US 2010/241273 A1 describe un dispositivo para recuperar datos de etiquetas de identificación por radiofrecuencia (RFID).
KALMAN BOLLA ET AL: "A fast image processing based robot identification method for Surveyor SRV-1 robots", ADVANCED INTELLIGENT MECHATRONICS (AIM), 2011 IEEE/ASME INTERNATIONAL CONFERENCE ON, IEEE, 3 de julio de 2011 (2011-07-03), páginas 1003-1009, XP032053609, DOI: 10.1109/AIM. 2011.6027147 ISBN: 978-1­ 4577-0838-1
El documento US 2008/027591 A1 describe un sistema para controlar más de un vehículo remoto.
Los documentos WO 2013/094821 A1 y US 2014/371954 A1 describen un método y un sistema para el control remoto y una interfaz de usuario controlada a distancia. Según estas soluciones convencionales, la orientación del mando de enseñanza/teléfono inteligente se asigna a la orientación del punto central de la herramienta de robot, sin embargo, la realización del movimiento lineal del robot por el mando de enseñanza/teléfono inteligente es menos intuitivo. Además, el usuario normalmente cambia la configuración de enseñanza al establecer diversos parámetros en el teléfono inteligente/mando de enseñanza, lo que desvía la atención del operador del robot al que está enseñando y hace que la enseñanza sea menos cómoda.
Breve compendio de la invención
Los problemas en el estado de la técnica son superados al menos parcialmente por el presente objeto.
Según un aspecto de la invención, un aparato portátil para controlar un robot incluye: un sensor de orientación, que está adaptado para medir la orientación de dicho aparato portátil; un dispositivo HMI, que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI; y una unidad de procesamiento, que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI y que controla una parte de dicho robot para que se mueva en una dirección teniendo en cuenta dicha orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI.
Según otro aspecto de la invención, un método para controlar manualmente un robot con un aparato portátil incluye: medir la orientación de dicho aparato portátil; detectar movimiento manual bidimensional en relación con un dispositivo HMI de dicho aparato portátil; controlar una parte de dicho robot para que se mueva en una dirección teniendo en cuenta dicha orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho robot; recibir una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot (10) y juzgar si un factor de escala entre la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot está en un intervalo admisible.
Al tener el aparato portátil y el método del mismo como se explica en la presente memoria, el movimiento manual bidimensional en el panel táctil se integra con la orientación del aparato portátil y el robot mapea una integración de estos, lo que hace posible definir una ruta en espacio tridimensional para desplazar/enseñar los movimientos del robot en tres dimensiones. Esto se vuelve más intuitivo que la realización del movimiento lineal del robot por la orientación portátil.
Breve descripción de los dibujos
El objeto de la invención se explicará con más detalle en el siguiente texto con referencia a realizaciones ejemplares preferidas que se ilustran en los dibujos, en los que:
la figura 1 muestra una disposición de un robot manipulado por un operador usando un aparato portátil 12;
la figura 2 ilustra un diagrama de bloques del aparato portátil según una realización de la presente invención; y
la figura 3 muestra un diagrama de flujo simplificado para llevar a cabo un método para controlar manualmente un robot según una realización de la invención.
Los símbolos de referencia usados en los dibujos y sus significados se enumeran en forma resumida en la lista de símbolos de referencia. En principio, se proporcionan partes idénticas con los mismos símbolos de referencia en las figuras.
Realizaciones preferidas de la invención
La figura 1 muestra una disposición de un robot 10 manipulado por un operador 11 usando un aparato portátil 12. Un robot 10 comprende un manipulador 16 y un sistema de control 18 para controlar los movimientos del manipulador 16. El sistema de control 18 está ubicado en un ordenador externo 20, en este caso. El sistema de control 18 también puede ubicarse en medios informáticos en el aparato portátil 12 y/o en el manipulador 16. El manipulador 16 está adaptado para ser programado para ejecutar una pluralidad de tareas. Durante el movimiento manual y la programación del robot 10, el operador 11 del robot se comunica con el sistema de control 18 a través del aparato portátil 12. El operador 11 introduce comandos en el sistema de control 18, por ejemplo, para iniciar y detener un programa, o para moverse el manipulador 16 a una posición deseada. El sistema de control 18 comprende además medios de planificación de trayectoria para calcular cómo debe moverse el manipulador 16 para poder ejecutar las tareas programadas.
La figura 2 ilustra un diagrama de bloques del aparato portátil según una realización de la presente invención. El aparato portátil puede ser un teléfono inteligente, tableta, PDA, etc. El aparato portátil 12 se usa para manipular y programar manualmente el robot 10 interactuando con el sistema de control 18. El aparato portátil 12 comprende un sensor de orientación 13, un dispositivo HMI 15 (interfaz hombre-máquina) y una unidad de procesamiento 17. La orientación el sensor 21 está adaptado para medir la orientación del aparato portátil 12, por ejemplo, puede ser un magnetómetro tridireccional o una combinación de un acelerómetro tridireccional y un giroscopio tridireccional. El dispositivo HMI 15 está adaptado para detectar movimiento manual bidimensional en relación con el dispositivo HMI 15; por ejemplo, el dispositivo h M i puede comprender una unidad de entrada como un panel táctil que rastrea el movimiento de uno o más dedos del operador 11 en dos grados de libertad. La unidad de procesamiento 17, por ejemplo un procesador o una unidad lógica programable, está adaptada para recibir una primera señal FS que representa la orientación medida del aparato portátil 12 y una segunda señal SS que representa el movimiento manual bidimensional detectado en relación con dicho dispositivo HM115 y controlar una parte del robot 10 para que se mueva en una dirección teniendo en cuenta la orientación medida del aparato portátil 12 y el movimiento manual bidimensional detectado en relación con el dispositivo HMI 15. Una parte del robot 10, por ejemplo, una herramienta montada en la muñeca del robot 10 (convencionalmente conocida como TCP o punto central de la herramienta) o una articulación del robot 10, se puede controlar moviendo uno o dos dedos sobre el dispositivo HMI 15 del aparato portátil 12, por ejemplo, un panel táctil. El desplazamiento en el panel táctil con el movimiento de los dedos está limitado a dos dimensiones, que es detectado por el dispositivo HMI 15. Este dispositivo HMI 15 también envía el movimiento bidimensional detectado a la unidad de procesamiento 17 del aparato portátil 12; además, se introducen tres dimensiones adicionales cambiando la orientación (es decir, el gesto) del aparato portátil 12 que es medido mediante el sensor de orientación 13 del aparato portátil 12 y la medición también se envía a la unidad de procesamiento 17 del aparato portátil 12. La unidad de procesamiento 17 considera así el movimiento bidimensional de los dedos sobre el panel táctil y la medición de la orientación tridimensional del aparato portátil 12 y los transforma en una trayectoria tridimensional en el mundo real. Por ejemplo, si el aparato portátil 12 se sostendrá verticalmente y el operador 11 moverá el dedo hacia arriba sobre el panel táctil 15, el robot 10 moverá el TCP o la articulación hacia arriba, y viceversa. Si el operador 12 quiere hacer un movimiento hacia adelante, debe orientar el aparato portátil 12 horizontalmente y mover el dedo hacia adelante en la pantalla táctil 15, y viceversa. Al tener el aparato portátil para controlar el robot, el movimiento manual bidimensional en el panel táctil se integra con la orientación del aparato portátil 12 y el robot mapea una integración de estos, lo que hace posible definir una trayectoria en un espacio tridimensional para desplazar/enseñar los movimientos del robot en tres dimensiones. Esto se vuelve más intuitivo que la realización del movimiento lineal del robot por la orientación portátil.
Preferiblemente, la unidad de procesamiento 17 del aparato portátil 12 está adaptada además para controlar la parte del robot 10 (por ejemplo, el TCP de la articulación del robot) para moverse en una dirección correspondiente a una combinación de la orientación medida del aparato portátil 12 y un dirección del movimiento manual bidimensional detectado en relación con el dispositivo HMI 15 y en una velocidad correspondiente a la velocidad del movimiento manual bidimensional detectado en relación con el dispositivo HMI 15.
Por ejemplo, el sensor de orientación 13 del aparato portátil 12 está adaptado además para medir la orientación de un primer sistema de coordenadas tridimensional (X1, Y1, Z1) en uno, dos o tres grados de libertad, que se define en relación con el aparato portátil 12 y que sigue el movimiento del aparato portátil 12. El robot 10 es operable en un segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) fijado al robot 10. El dispositivo HMI 15 está adaptado además para detectar el movimiento manual bidimensional en relación con el dispositivo HMI 15 en el primer sistema de coordenadas tridimensional (X1, Y1, Z1), por ejemplo, un panel táctil dispuesto para detectar la entrada del dedo del operador en dos grados de libertad; la unidad de procesamiento 17 está adaptada además para determinar una orientación relativa entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2 , Y2, Z2) basándose en mediciones de orientación del sensor de orientación 13 y la orientación fija del segundo sistema de coordenadas tridimensional, calcular una transformación entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) basándose en la orientación relativa entre estos sistemas de coordenadas y transformar el movimiento manual bidimensional detectado en relación con el dispositivo HMI 15 en los movimientos correspondientes de la parte del manipulador en el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) basándose en la transformación calculada. El espacio de trabajo del manipulador 16 del robot 10 se define para mover el manipulador 16 entre diferentes posiciones en el espacio de trabajo de manera controlada cuando se mueve manualmente el robot 10, por ejemplo para mover el TCP de la herramienta sujetada por el robot o la articulación del manipulador 16 (la parte del robot). Estas posiciones en el espacio de trabajo del robot 10 se definen mediante el uso de un sistema de coordenadas, por ejemplo, un sistema de coordenadas cartesianas, que tiene un origen y las direcciones de los ejes definidos en relación con el robot 10 o el aparato portátil 12 o el dispositivo HMI 15 del aparato portátil 12. Los manipuladores generalmente están adaptados para ser manejados en hasta seis grados de libertad (DOF), lo que en este caso significa tres grados de libertad traslacional representados por el eje X, Y, Z y tres grados de libertad rotacional representados por rotaciones alrededor del eje X, Y, Z. En este caso, el primer sistema de coordenadas tridimensional (X1, Y1, Z1) se define en relación con el aparato portátil 12 de modo que sigue los movimientos del aparato portátil 12 (tal como un teléfono inteligente o tableta), el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) se define fijado al manipulador 16 del robot 10. Los movimientos de diferentes partes del manipulador se definen entonces en el segundo sistema de coordenadas (X2, Y2 , Z2), y el movimiento manual en relación con el dispositivo HMI se define en el primer sistema de coordenadas tridimensional (X1, Y1, Z1).
Durante una tarea de movimiento manual, el operador 11 puede mover el manipulador 16 en diferentes direcciones y, por lo tanto, el operador generalmente sostiene el aparato portátil en diversos gestos y mueve su dedo sobre el panel táctil del aparato portátil. El operador 11 provoca así una reorientación del primer sistema de coordenadas tridimensional (X1, Y1, Z1) en relación con el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2), porque el primer sistema de coordenadas (X1, Y1, Z1) se define en relación con el aparato portátil 12.
Para determinar esta reorientación del aparato portátil 12, la unidad de procesamiento 17 está adaptada para determinar la orientación relativa entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2), es decir cómo se ha hecho girar el primer sistema de coordenadas tridimensional (X1, Y1, Z1) en relación con el segundo sistema de coordenadas tridimensional (X2, Y2, Z2). La unidad de procesamiento 17 del aparato portátil 12 está adaptada además para actualizar repetidamente el primer sistema de coordenadas tridimensional de modo que cada eje del primer sistema de coordenadas tridimensional corresponda a un eje X2, Y2, Z2 correspondiente en el segundo sistema de coordenadas (X2 , Y2 , Z2). Esto se hace calculando la transformación del primer sistema de coordenadas (X1, Y1, Z1) al segundo sistema de coordenadas (X2, Y2 , Z2) y aplicando esta transformación a cada movimiento del aparato portátil medido en el primer sistema de coordenadas (X1, Y1, Z1). La transformación incluye información sobre la rotación, pero no la traslación entre los sistemas de coordenadas. En cuanto a la velocidad del movimiento del robot, por ejemplo, el dedo del operador 11 se mueve con respecto al panel táctil a una velocidad de 0,1 m/s, y el robot se controla para moverse a 0,1 m/s multiplicado por una relación de escala predeterminada.
Como se muestra en la figura 2, el aparato portátil 12 incluye además un lector de marcador de identificación 19 que está adaptado para recibir señal que representa información sobre la parte del robot 10 desde un marcador de identificación externo. El marcador de identificación puede ser una etiqueta RFID (identificación por radiofrecuencia), una etiqueta NFC (comunicación de campo cercano) o una etiqueta de código QR (código de respuesta rápida). La unidad de procesamiento 17 está adaptada además para seleccionar la parte del robot entre varias partes del robot 10 basándose en la información del marcador de identificación, por ejemplo, para seleccionar la parte del robot para desplazar/enseñar. Preferiblemente, el marcador de identificación que registra la información sobre la parte del robot está unido con dicha parte del robot. Por ejemplo, como se muestra en la figura 1, el marcador de identificación para la primera articulación está unido a la primera articulación. Esto permite al operador establecer el objetivo de desplazamiento/enseñanza de manera más intuitiva. En particular, el operador 11 toca la etiqueta NFC en la primera articulación del robot con el aparato portátil 12. De ese modo, el operador puede controlar manualmente la primera articulación del manipulador 16 del robot 10 usando el aparato portátil 12. Como se describió anteriormente, la primera articulación sigue el cambio de orientación del aparato portátil 12. Cuando el operador 11 toca la segunda articulación con el aparato portátil 12, la parte del robot que podría moverse cambia de la primera articulación a la segunda articulación, luego la segunda articulación sigue el cambio de orientación del aparato portátil 12.
Como alternativa, es posible seleccionar diferentes articulaciones y modos de desplazamiento basándose en la información recodificada por el marcador de identificación: grupo de articulaciones, movimiento lineal o reorientación. Aunque el aparato portátil se puede hacer girar en tres dimensiones (inclinación, guiñada, balanceo), solo se usa la rotación a lo largo de una de las direcciones para mapear a un eje del robot, y la rotación en otras direcciones se ignora. Al usar técnicas de identificación, la configuración de enseñanza se puede cambiar sin usar ninguna pantalla. El operador no necesita vigilar al robot todo el tiempo. No necesita seleccionar nada del menú, sino que simplemente mueve el dispositivo portátil a cierta área con respecto al robot, lo que es más rápido y no requiere mucha atención del operador.
Preferiblemente, el lector de marcador de identificación 19 está adaptado para recibir una señal que representa información sobre varios robots desde etiquetas de marcador de identificación externo, y la unidad de procesamiento 17 está adaptada además para seleccionar uno de los robots como maestro y los otros como esclavos.
Preferiblemente, la unidad de procesamiento 17 está adaptada además para recibir una tercera señal que representa la velocidad del movimiento de la parte del robot 10 desde el sistema de control 18 del robot 10 y juzgar si un factor de escala entre la velocidad del movimiento manual bidimensional detectado en relación con dicho dispositivo HMI 15 y la del movimiento de la parte del robot 10 está dentro de un intervalo admisible. La unidad de procesamiento 17 está adaptada además para recibir una cuarta señal desde el sistema de control 18 del robot 10 y juzgar si la posición está en colisión con un objeto externo, si hay un componente interno que funciona mal, el robot está más cerca de estar o ya está fuera de alcance. El dispositivo HMI está adaptado además para enviar sonido, vibrar o cambiar su color de fondo para indicar diversas condiciones de dicho robot 10 como se indicó anteriormente.
Preferiblemente, el dispositivo HMI 15 está adaptado además para visualizar información del robot basándose en una señal del robot recibida desde el sistema de control 18 del robot 10, tal como posición real, velocidad real, aceleración real, par real, E/S, datos internos del estado del robot (por ejemplo, corriente del motor), etc. Al tener la función de visualización, el operador puede juzgar si hay un mal funcionamiento de un componente interno. Esto implica que la unidad de procesamiento 17 está adaptada además para recibir más de una señal que representa información del robot diferente.
La figura 3 muestra un diagrama de flujo simplificado para llevar a cabo un método para controlar manualmente un robot según una realización de la invención. El método realiza repetidamente las etapas descritas en el siguiente párrafo.
Una medición de la orientación del aparato portátil, bloque 100. En la práctica, se define una posición inicial con una orientación conocida relativa al segundo sistema de coordenadas tridimensional. Después de realizar un autoguiado, el sensor de orientación mide la reorientación en relación con la posición inicial. La medición de la orientación del aparato portátil puede realizarse midiendo la orientación de un primer sistema de coordenadas tridimensional que se define en relación con dicho aparato portátil y que sigue el movimiento de dicho aparato portátil. Se detecta movimiento manual bidimensional en relación con un dispositivo HMI del aparato portátil, bloque 110. Por ejemplo, el movimiento manual bidimensional en relación con el dispositivo HMI del aparato portátil se detecta en el primer sistema de coordenadas tridimensional. Una parte de dicho robot se controla para que se mueva en una dirección teniendo en cuenta la orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho robot, bloque 120. La parte de dicho robot se controla para que se mueva en una velocidad correspondiente a una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho aparato portátil, bloque 130.
Aunque la presente invención se ha descrito sobre la base de algunas realizaciones preferidas, los expertos en la técnica deben apreciar que esas realizaciones de ninguna manera deben limitar el alcance de la presente invención. Sin apartarse del alcance de la presente invención, cualquier variación y modificación de las realizaciones debe ser comprendida por aquellos expertos en la técnica y, por lo tanto, estar dentro del alcance de la presente invención que se define en las reivindicaciones adjuntas.

Claims (14)

REIVINDICACIONES
1. Un aparato portátil (12) para controlar un robot (10), incluyendo el aparato portátil (12):
un sensor de orientación (13), que está adaptado para medir la orientación de dicho aparato portátil (12);
un dispositivo de interfaz hombre-máquina, HMI (15), que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI (15); y
una unidad de procesamiento (17), que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil (12) y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y
controlar una parte de dicho robot para que se mueva en una dirección correspondiente a una combinación de dicha orientación medida de dicho aparato portátil y una dirección de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15), estando el aparato portátil (12) caracterizado por que:
dicha unidad de procesamiento (17) está adaptada además para recibir una tercera señal que representa una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot y juzgar si un factor de escala entre una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot (10) está dentro de un intervalo admisible.
2. El aparato portátil (12) según la reivindicación 1, en donde:
dicha unidad de procesamiento (17) está adaptada además para controlar que dicha parte de dicho robot (10) se mueva a una velocidad correspondiente a la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15).
3. El aparato portátil (12) según la reivindicación 2, en donde:
dicho sensor de orientación (13) está adaptado además para medir la orientación de un primer sistema de coordenadas tridimensional que se define en relación con dicho aparato portátil (12) y que sigue el movimiento de dicho aparato portátil (12);
dicho robot (10) es operable en un segundo sistema de coordenadas tridimensional fijo;
dicho dispositivo HMI (15) está adaptado además para detectar dicho movimiento manual bidimensional en relación con dicho dispositivo HMI (15) en dicho primer sistema de coordenadas tridimensional;
dicha unidad de procesamiento (17) está adaptada además para determinar una orientación relativa entre los sistemas de coordenadas tridimensionales primero y segundo, calculando una transformación entre los sistemas de coordenadas tridimensionales primero y segundo basándose en dicha orientación relativa entre estos sistemas de coordenadas y transformando dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) en los movimientos correspondientes de dicha parte de dicho robot (10) en el segundo sistema de coordenadas tridimensional basándose en dicha transformación calculada.
4. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:
dicho sensor de orientación (13) es un magnetómetro tridireccional o una combinación de un acelerómetro tridireccional y un giroscopio tridireccional.
5. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:
dicho dispositivo HMI (15) es un panel táctil.
6. El aparato portátil según la reivindicación 1 o 2 o 3, en donde:
dicha parte de dicho robot (10) es una herramienta unida a dicha herramienta; o
dicha parte de dicho robot (10) es una articulación.
7. El aparato portátil (12) según la reivindicación 1 o 2 o 3, que incluye además:
al menos un lector de marcador de identificación (19), que está adaptado para recibir una señal que representa información sobre dicha parte de dicho robot (10) desde un marcador de identificación externo;
en donde:
dicha unidad de procesamiento (17) está adaptada además para seleccionar dicha parte de dicho robot (10) entre varias partes de dicho robot basándose en dicha información sobre dicha parte de dicho robot,
en donde:
dicho marcador de identificación está unido con dicha parte de dicho robot; y/o dicha unidad de procesamiento (17) está adaptada además para establecer un modo de movimiento basándose en dicha información sobre dicha parte de dicho robot.
8. El aparato portátil (12) según la reivindicación 1 o 2 o 3, que incluye además:
un lector de marcador de identificación (19), que está adaptado para recibir una señal que representa información sobre varios robots desde una etiqueta de marcador de identificación externo;
en donde:
dicha unidad de procesamiento (17) está adaptada además para seleccionar uno de dichos robots (10) como maestro y los otros como esclavos.
9. El aparato portátil según la reivindicación 7 u 8, en donde:
dicho marcador de identificación es una etiqueta RFID, una etiqueta NFC o una etiqueta de código QR.
10. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde;
dicha unidad de procesamiento (17) está adaptada además para recibir una cuarta señal que representa la posición de dicha parte de dicho robot desde el controlador de dicho robot y juzgar si dicha posición está en colisión con un objeto externo.
11. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:
dicho dispositivo HMI (15) está adaptado además para visualizar información de robot basándose en la señal de robot recibida del controlador de dicho robot (10),
en donde preferiblemente:
dicha información de robot representa el mal funcionamiento de una parte de dicho robot (10).
12. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:
dicho dispositivo HMI (15) está adaptado además para enviar sonido, vibrar o cambiar su color de fondo para indicar diversas condiciones de dicho robot (10).
13. Un método para controlar manualmente un robot (10) con un aparato portátil (12) según cualquiera de las reivindicaciones precedentes, incluyendo el método:
medir la orientación de dicho aparato portátil (12) con un sensor de orientación (13) incluido en dicho aparato (12); detectar, con una interfaz hombre-máquina, HMI (15), un movimiento manual bidimensional en relación con el dispositivo HMI (15) de dicho aparato portátil (12);
controlar una parte de dicho robot (10) para que se mueva en una dirección teniendo en cuenta una combinación de dicha orientación medida de dicho aparato portátil (12) y una dirección de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) de dicho robot
estando el método caracterizado por que además incluye:
recibir una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot (10) y juzgar si un factor de escala entre la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot está en un intervalo admisible.
14. El método para controlar manualmente un robot según la reivindicación 13, que incluye además: controlar dicha parte de dicho robot para que se mueva a una velocidad correspondiente a la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) de dicho aparato portátil (12).
ES14887969T 2014-04-04 2014-04-04 Aparato portátil para controlar un robot y método del mismo Active ES2759082T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/074822 WO2015149360A1 (en) 2014-04-04 2014-04-04 Portable apparatus for controlling robot and method thereof

Publications (1)

Publication Number Publication Date
ES2759082T3 true ES2759082T3 (es) 2020-05-07

Family

ID=54239329

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14887969T Active ES2759082T3 (es) 2014-04-04 2014-04-04 Aparato portátil para controlar un robot y método del mismo

Country Status (5)

Country Link
US (1) US10166673B2 (es)
EP (1) EP3126936B1 (es)
CN (1) CN105960623B (es)
ES (1) ES2759082T3 (es)
WO (1) WO2015149360A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106483885A (zh) * 2016-11-24 2017-03-08 南京熊猫电子股份有限公司 一种基于机器人的pc工具系统
WO2018222762A2 (en) * 2017-05-30 2018-12-06 Sisu Devices Llc Robotic point capture and motion control
US10678338B2 (en) 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
CN207224024U (zh) * 2017-09-05 2018-04-13 杭州亚美利嘉科技有限公司 用磁作为方向定位的机器人
CN109977708A (zh) * 2017-12-28 2019-07-05 沈阳新松机器人自动化股份有限公司 一种用于移动平台示教的二维码系统及移动平台示教系统
CN108466266A (zh) * 2018-03-22 2018-08-31 山东农业大学 机械臂运动控制方法及系统
JP6693538B2 (ja) * 2018-05-16 2020-05-13 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
JP6773084B2 (ja) * 2018-07-02 2020-10-21 株式会社安川電機 動作教示装置、ロボットシステム及び動作教示方法
DE102018126582A1 (de) * 2018-10-25 2020-04-30 Bayerische Motoren Werke Aktiengesellschaft Testvorrichtung für ein Computerprogramm sowie Verfahren zum Testen eines Computerprogramms
CN109927029A (zh) * 2019-03-27 2019-06-25 飞马智科信息技术股份有限公司 一种机械手的动作控制方法
CN110253587B (zh) * 2019-07-15 2020-11-27 珠海格力电器股份有限公司 一种机器人控制方法、系统、存储介质及机器人
US20210216049A1 (en) * 2020-01-09 2021-07-15 Thoughtforge Inc. Autonomous control system and method using embodied homeostatic feedback in an operating environment
JPWO2022118471A1 (es) * 2020-12-04 2022-06-09

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE508176C2 (sv) * 1995-03-29 1998-09-07 Asea Brown Boveri Anordning och förfarande för kalibrering av en fleraxlig industrirobot
JP4014662B2 (ja) * 1995-09-18 2007-11-28 ファナック株式会社 ロボット教示操作盤
US6088628A (en) * 1996-07-24 2000-07-11 Fanuc, Ltd. Jog feeding method for robots
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6167464A (en) * 1998-09-23 2000-12-26 Rockwell Technologies, Llc Mobile human/machine interface for use with industrial control systems for controlling the operation of process executed on spatially separate machines
US6388655B1 (en) * 1999-11-08 2002-05-14 Wing-Keung Leung Method of touch control of an input device and such a device
KR100437372B1 (ko) 2001-04-18 2004-06-25 삼성광주전자 주식회사 이동통신망을 이용한 로봇 청소 시스템
CN100367171C (zh) * 2005-01-19 2008-02-06 光宝科技股份有限公司 位移操控的可携式电子装置
US7626571B2 (en) * 2005-12-22 2009-12-01 The Board Of Trustees Of The Leland Stanford Junior University Workspace expansion controller for human interface systems
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
EP1820611B1 (en) * 2006-02-17 2008-10-08 Abb Research Ltd. An industrial robot system
CN101020312A (zh) * 2007-03-13 2007-08-22 叶琛 基于网络功能的机器人传递行为的方法和装置
TWM328364U (en) * 2007-07-19 2008-03-11 Univ Dayeh Device for collecting data of radio frequency identification
EP2055446A1 (en) 2007-10-31 2009-05-06 Abb As A portable robot control apparatus and a method for controlling a movement of a robot
GB0821482D0 (en) 2008-11-25 2008-12-31 Rockwell Automation Ltd Access control
US8310367B1 (en) * 2009-05-18 2012-11-13 Empire Technology Development Llc Methods of implanting electronics in objects and objects with implanted electronics
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
SE1050763A1 (sv) * 2010-07-08 2010-07-12 Abb Research Ltd En metod för att kalibrera en mobil robot
KR101159475B1 (ko) * 2010-12-10 2012-06-25 숭실대학교산학협력단 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법
EP2490395A1 (en) 2011-02-14 2012-08-22 Nxp B.V. Method and system for access control for near field communication
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
KR101410416B1 (ko) * 2011-12-21 2014-06-27 주식회사 케이티 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스
US9505130B2 (en) * 2012-07-13 2016-11-29 General Electric Company System and method for performing remote welding operations on an apparatus
US8498572B1 (en) 2012-08-24 2013-07-30 Google Inc. Home automation device pairing by NFC-enabled portable device
US9221170B2 (en) * 2013-06-13 2015-12-29 GM Global Technology Operations LLC Method and apparatus for controlling a robotic device via wearable sensors
CN103279206A (zh) * 2013-06-15 2013-09-04 苏州时运机器人有限公司 一种具有手势感测示教器的机器人控制系统
WO2015051815A1 (en) * 2013-10-07 2015-04-16 Abb Technology Ltd A method and a device for verifying one or more safety volumes for a movable mechanical unit
US9387589B2 (en) * 2014-02-25 2016-07-12 GM Global Technology Operations LLC Visual debugging of robotic tasks
US9958862B2 (en) * 2014-05-08 2018-05-01 Yaskawa America, Inc. Intuitive motion coordinate system for controlling an industrial robot
JP6631279B2 (ja) * 2015-03-19 2020-01-15 株式会社デンソーウェーブ ロボット操作装置、ロボット操作プログラム

Also Published As

Publication number Publication date
WO2015149360A1 (en) 2015-10-08
US10166673B2 (en) 2019-01-01
EP3126936B1 (en) 2019-09-04
EP3126936A4 (en) 2018-03-28
US20160346921A1 (en) 2016-12-01
CN105960623B (zh) 2019-02-05
EP3126936A1 (en) 2017-02-08
CN105960623A (zh) 2016-09-21

Similar Documents

Publication Publication Date Title
ES2759082T3 (es) Aparato portátil para controlar un robot y método del mismo
US11420330B2 (en) Robot control device, robot, and simulation device
CN109313417B (zh) 帮助机器人定位
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
EP3342562A1 (en) Remote control robot system
US20150321351A1 (en) Intuitive Motion Coordinate System for Controlling an Industrial Robot
US10514687B2 (en) Hybrid training with collaborative and conventional robots
EP1795315A1 (en) Hand-held control device for an industrial robot
KR101876845B1 (ko) 로봇 제어 장치
ES2961110T3 (es) Método, dispositivo y medio legible por ordenador para la gestión de dispositivos móviles de robots industriales colaborativos
US9962835B2 (en) Device for dynamic switching of robot control points
US10232519B2 (en) Robot and method of controlling the same
JP6409605B2 (ja) ロボットシステム
US20220241980A1 (en) Object-Based Robot Control
KR20110077556A (ko) 로봇 교시 시스템 및 방법
Saleheen et al. Gesture-Controlled Robotic Arm
WO2017032407A1 (en) An industrial robot system and a method for programming an industrial robot
Mishra et al. Smart device based gesture controller for industrial applications
Patil et al. Wireless hand gesture robot using accelerometer
WO2024018093A1 (es) Procedimiento y dispositivo de monitorización de tarea de una herramienta de un brazo robótico
Ditthapron et al. Object Manipulation and Control with Robotic Hand
ECE et al. Object Manipulation and Control with Robotic Hand
Noor et al. Performance Analysis of a 5-DOF Robotic Arm by Implementing a Graphical User Interface
Yatmono et al. Developing Design of Mobile Robot Navigation System based on Android
WO2023131385A1 (en) Augmented reality supported safety plane adjustment