ES2759082T3 - Portable device to control a robot and its method - Google Patents

Portable device to control a robot and its method Download PDF

Info

Publication number
ES2759082T3
ES2759082T3 ES14887969T ES14887969T ES2759082T3 ES 2759082 T3 ES2759082 T3 ES 2759082T3 ES 14887969 T ES14887969 T ES 14887969T ES 14887969 T ES14887969 T ES 14887969T ES 2759082 T3 ES2759082 T3 ES 2759082T3
Authority
ES
Spain
Prior art keywords
robot
portable apparatus
hmi device
orientation
relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14887969T
Other languages
Spanish (es)
Inventor
Maciej Orman
Wanli Jiang
Carlos Martinez
Jacek Plesnar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
ABB Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Schweiz AG filed Critical ABB Schweiz AG
Application granted granted Critical
Publication of ES2759082T3 publication Critical patent/ES2759082T3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39445Select between jog modes, user, robot coordinates, tool, system feed, joint feed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

Un aparato portátil (12) para controlar un robot (10), incluyendo el aparato portátil (12): un sensor de orientación (13), que está adaptado para medir la orientación de dicho aparato portátil (12); un dispositivo de interfaz hombre-máquina, HMI (15), que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI (15); y una unidad de procesamiento (17), que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil (12) y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y controlar una parte de dicho robot para que se mueva en una dirección correspondiente a una combinación de dicha orientación medida de dicho aparato portátil y una dirección de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15), estando el aparato portátil (12) caracterizado por que: dicha unidad de procesamiento (17) está adaptada además para recibir una tercera señal que representa una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot y juzgar si un factor de escala entre una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot (10) está dentro de un intervalo admisible.A portable apparatus (12) for controlling a robot (10), including the portable apparatus (12): an orientation sensor (13), which is adapted to measure the orientation of said portable apparatus (12); a human-machine interface device, HMI (15), which is adapted to detect two-dimensional manual movement in relation to said HMI device (15); and a processing unit (17), which is adapted to receive a first signal representing said measured orientation of said portable apparatus (12) and a second signal representing said two-dimensional manual movement detected in relation to said HMI device (15) and controlling a part of said robot to move in a direction corresponding to a combination of said measured orientation of said portable apparatus and a direction of said two-dimensional manual movement detected in relation to said HMI device (15), the portable apparatus (12) being ) characterized in that: said processing unit (17) is further adapted to receive a third signal representing a speed of movement of said part of said robot (10) from a controller of said robot and to judge whether a scale factor between a speed of said two-dimensional manual movement detected in relation to said HMI device (15) and the movement speed of said part of said robot (10) is within an allowable range.

Description

DESCRIPCIÓNDESCRIPTION

Aparato portátil para controlar un robot y método del mismoPortable device to control a robot and its method

Campo técnicoTechnical field

La invención se refiere al campo de un aparato y un método para el control de robots, y más particularmente a un aparato portátil para el control de robots y un método del mismo.The invention relates to the field of a robot control apparatus and method, and more particularly to a portable robot control apparatus and method thereof.

Antecedentes técnicosTechnical background

Normalmente, un robot está equipado con un panel de enseñanza. El dispositivo es relativamente grande (con una pantalla táctil, botones de operador, etc.) y está conectado con un controlador de robot por cable.Typically, a robot is equipped with a teaching panel. The device is relatively large (with a touchscreen, operator buttons, etc.) and is connected to a wired robot controller.

La patente europea EP 2055 446 publicada el 6 de mayo de 2009 describe un aparato de control de robot portátil para controlar el movimiento de un robot o del extremo de una herramienta de robot. El aparato de control de robot portátil comprende un dispositivo inercial con al menos un sensor de aceleración y/o al menos un sensor de rotación, donde dicho dispositivo inercial mide su movimiento relativo y el aparato envía a un controlador de robot una señal que representa el movimiento relativo, de modo que el controlador de robot está habilitado para controlar el robot de tal manera que dicho movimiento relativo sea repetido por el robot o por el extremo de la herramienta de robot en tiempo real.European patent EP 2055 446 published on May 6, 2009 describes a portable robot control apparatus for controlling the movement of a robot or the end of a robot tool. The portable robot control apparatus comprises an inertial device with at least one acceleration sensor and / or at least one rotation sensor, where said inertial device measures its relative motion and the apparatus sends a signal to the robot controller representing the relative motion, so that the robot controller is enabled to control the robot such that said relative motion is repeated by the robot or by the end of the robot tool in real time.

El documento "Design of 6-DOF Manipulator Intuitive Teaching System by Using Smart Phone Orientation - User Friendly and Intuitive Teaching Operation for 6-DOF Manipulator", Sanghun Pyo, Syed Hassan, Yasir Jan y Jungwon Yoon, 4a Conferencia internacional sobre sistemas inteligentes, modelización y simulación, 2013, describe un teléfono inteligente que puede efectuar la intención del usuario de que el robot industrial se mueva, y la información del sensor de orientación se convierte en la traslación y orientación del robot suponiendo que la orientación del teléfono inteligente puede ser un joystick convencional equipado con una articulación universal en la parte de base. El método puede mover el efector terminal del robot por dirección como plano XY.Document "Design of 6-DOF Manipulator Intuitive Teaching System by Using Smart Phone Orientation - User Friendly and Intuitive Teaching Operation for 6-DOF Manipulator", Sanghun Pyo, Syed Hassan, Yasir Jan and Jungwon Yoon, 4th International Conference on Intelligent Systems, modeling and simulation, 2013, describes a smartphone that can carry out the user's intention for the industrial robot to move, and the information from the orientation sensor becomes the translation and orientation of the robot assuming that the orientation of the smartphone can be a conventional joystick equipped with a universal joint in the base part. The method can move the robot's end effector per direction as the XY plane.

EVANS III A WILLIAM ET AL describe: "Control solutions for robots using Android and iOS devices", UNMANNED SYSTEMS TECHNOLOGY XIV, SPIE, 100020TH ST. BELLINGHAM WA 98225-6705 USA, vol. 8387, no. 1, 11 de mayo de 2012 (2012-05-11), páginas 1-10, XP060003615, DOI: 10.1117/12.923023EVANS III A WILLIAM ET AL describes: "Control solutions for robots using Android and iOS devices", UNMANNED SYSTEMS TECHNOLOGY XIV, SPIE, 100020TH ST. BELLINGHAM WA 98225-6705 USA, vol. 8387, no. May 1, 11, 2012 (2012-05-11), pages 1-10, XP060003615, DOI: 10.1117 / 12.923023

Rosemarie E Yagoda ET AL describe: "Using Mobile Devices for Robotic Controllers: Examples and Some Initial Concepts for Experimentaron", junio de 2011 (2011-06), XP055419186, recuperado de Internet: URL: http://www.dtic.mi1/docs/citations/ADA549454Rosemarie E Yagoda ET AL describes: "Using Mobile Devices for Robotic Controllers: Examples and Some Initial Concepts for Experimented", June 2011 (2011-06), XP055419186, retrieved from the Internet: URL: http: //www.dtic.mi1 / docs / citations / ADA549454

SEBASTIAN MUSZYNSKI ET AL describe "Adjustable autonomy for mobile teleoperation of personal service robots", RO-MAN, 2012 IEEE, IEEE, 9 de septiembre de 2012 (2012-09-09), páginas 933-940, XP032466959, DOI: 10.1109/ROMAN.2012.6343870 ISBN: 978-1-4673-4604-7SEBASTIAN MUSZYNSKI ET AL describes "Adjustable autonomy for mobile teleoperation of personal service robots", RO-MAN, 2012 IEEE, IEEE, September 9, 2012 (2012-09-09), pages 933-940, XP032466959, DOI: 10.1109 / ROMAN.2012.6343870 ISBN: 978-1-4673-4604-7

El documento US 2010/241273 A1 describe un dispositivo para recuperar datos de etiquetas de identificación por radiofrecuencia (RFID).US 2010/241273 A1 describes a device for retrieving data from radio frequency identification (RFID) tags.

KALMAN BOLLA ET AL: "A fast image processing based robot identification method for Surveyor SRV-1 robots", ADVANCED INTELLIGENT MECHATRONICS (AIM), 2011 IEEE/ASME INTERNATIONAL CONFERENCE ON, IEEE, 3 de julio de 2011 (2011-07-03), páginas 1003-1009, XP032053609, DOI: 10.1109/AIM. 2011.6027147 ISBN: 978-1­ 4577-0838-1KALMAN BOLLA ET AL: "A fast image processing based robot identification method for Surveyor SRV-1 robots", ADVANCED INTELLIGENT MECHATRONICS (AIM), 2011 IEEE / ASME INTERNATIONAL CONFERENCE ON, IEEE, July 3, 2011 (2011-07-03 ), pages 1003-1009, XP032053609, DOI: 10.1109 / AIM. 2011.6027147 ISBN: 978-1 4577-0838-1

El documento US 2008/027591 A1 describe un sistema para controlar más de un vehículo remoto.US 2008/027591 A1 describes a system for controlling more than one remote vehicle.

Los documentos WO 2013/094821 A1 y US 2014/371954 A1 describen un método y un sistema para el control remoto y una interfaz de usuario controlada a distancia. Según estas soluciones convencionales, la orientación del mando de enseñanza/teléfono inteligente se asigna a la orientación del punto central de la herramienta de robot, sin embargo, la realización del movimiento lineal del robot por el mando de enseñanza/teléfono inteligente es menos intuitivo. Además, el usuario normalmente cambia la configuración de enseñanza al establecer diversos parámetros en el teléfono inteligente/mando de enseñanza, lo que desvía la atención del operador del robot al que está enseñando y hace que la enseñanza sea menos cómoda.WO 2013/094821 A1 and US 2014/371954 A1 describe a method and system for remote control and a remote controlled user interface. According to these conventional solutions, the orientation of the teaching remote / smartphone is assigned to the orientation of the center point of the robot tool, however, the linear movement of the robot by the teaching remote / smartphone is less intuitive. Furthermore, the user normally changes the teaching settings by setting various parameters on the smartphone / teaching remote, which diverts the attention of the robot operator to the one teaching and makes teaching less comfortable.

Breve compendio de la invenciónBrief summary of the invention

Los problemas en el estado de la técnica son superados al menos parcialmente por el presente objeto.The problems in the state of the art are at least partially overcome by the present object.

Según un aspecto de la invención, un aparato portátil para controlar un robot incluye: un sensor de orientación, que está adaptado para medir la orientación de dicho aparato portátil; un dispositivo HMI, que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI; y una unidad de procesamiento, que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI y que controla una parte de dicho robot para que se mueva en una dirección teniendo en cuenta dicha orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI.According to an aspect of the invention, a portable apparatus for controlling a robot includes: an orientation sensor, which is adapted to measure the orientation of said portable apparatus; an HMI device, which is adapted to detect two-dimensional manual movement relative to said HMI device; and a processing unit, which is adapted to receive a first signal representing said measured orientation of said portable apparatus and a second signal representing said two-dimensional manual movement detected in relation to said device. HMI and controlling a part of said robot to move in one direction taking into account said measured orientation of said portable apparatus and said two-dimensional manual movement detected in relation to said HMI device.

Según otro aspecto de la invención, un método para controlar manualmente un robot con un aparato portátil incluye: medir la orientación de dicho aparato portátil; detectar movimiento manual bidimensional en relación con un dispositivo HMI de dicho aparato portátil; controlar una parte de dicho robot para que se mueva en una dirección teniendo en cuenta dicha orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho robot; recibir una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot (10) y juzgar si un factor de escala entre la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot está en un intervalo admisible.According to another aspect of the invention, a method of manually controlling a robot with a portable apparatus includes: measuring the orientation of said portable apparatus; detecting two-dimensional manual movement in relation to an HMI device of said portable apparatus; controlling a part of said robot to move in one direction taking into account said measured orientation of said portable apparatus and said two-dimensional manual movement detected in relation to said HMI device of said robot; receiving a speed of movement of said part of said robot (10) from a controller of said robot (10) and judging whether a scale factor between the speed of said two-dimensional manual movement detected in relation to said HMI device (15) and the The movement of said part of said robot is in an admissible range.

Al tener el aparato portátil y el método del mismo como se explica en la presente memoria, el movimiento manual bidimensional en el panel táctil se integra con la orientación del aparato portátil y el robot mapea una integración de estos, lo que hace posible definir una ruta en espacio tridimensional para desplazar/enseñar los movimientos del robot en tres dimensiones. Esto se vuelve más intuitivo que la realización del movimiento lineal del robot por la orientación portátil.By having the handheld and its method as explained herein, two-dimensional manual movement on the touchpad integrates with the orientation of the handheld and the robot maps an integration of these, making it possible to define a route in three-dimensional space to move / teach the movements of the robot in three dimensions. This becomes more intuitive than performing the linear motion of the robot by portable orientation.

Breve descripción de los dibujosBrief description of the drawings

El objeto de la invención se explicará con más detalle en el siguiente texto con referencia a realizaciones ejemplares preferidas que se ilustran en los dibujos, en los que:The object of the invention will be explained in more detail in the following text with reference to preferred exemplary embodiments illustrated in the drawings, in which:

la figura 1 muestra una disposición de un robot manipulado por un operador usando un aparato portátil 12;Figure 1 shows an arrangement of a robot manipulated by an operator using a portable apparatus 12;

la figura 2 ilustra un diagrama de bloques del aparato portátil según una realización de la presente invención; y Figure 2 illustrates a block diagram of the portable apparatus according to an embodiment of the present invention; and

la figura 3 muestra un diagrama de flujo simplificado para llevar a cabo un método para controlar manualmente un robot según una realización de la invención.Fig. 3 shows a simplified flow diagram for carrying out a method for manually controlling a robot according to an embodiment of the invention.

Los símbolos de referencia usados en los dibujos y sus significados se enumeran en forma resumida en la lista de símbolos de referencia. En principio, se proporcionan partes idénticas con los mismos símbolos de referencia en las figuras.The reference symbols used in the drawings and their meanings are listed in summary form in the list of reference symbols. In principle, identical parts with the same reference symbols are provided in the figures.

Realizaciones preferidas de la invenciónPreferred embodiments of the invention

La figura 1 muestra una disposición de un robot 10 manipulado por un operador 11 usando un aparato portátil 12. Un robot 10 comprende un manipulador 16 y un sistema de control 18 para controlar los movimientos del manipulador 16. El sistema de control 18 está ubicado en un ordenador externo 20, en este caso. El sistema de control 18 también puede ubicarse en medios informáticos en el aparato portátil 12 y/o en el manipulador 16. El manipulador 16 está adaptado para ser programado para ejecutar una pluralidad de tareas. Durante el movimiento manual y la programación del robot 10, el operador 11 del robot se comunica con el sistema de control 18 a través del aparato portátil 12. El operador 11 introduce comandos en el sistema de control 18, por ejemplo, para iniciar y detener un programa, o para moverse el manipulador 16 a una posición deseada. El sistema de control 18 comprende además medios de planificación de trayectoria para calcular cómo debe moverse el manipulador 16 para poder ejecutar las tareas programadas.Figure 1 shows an arrangement of a robot 10 manipulated by an operator 11 using a portable apparatus 12. A robot 10 comprises a manipulator 16 and a control system 18 to control the movements of the manipulator 16. The control system 18 is located in an external computer 20, in this case. The control system 18 can also be located on computer means in the portable apparatus 12 and / or in the manipulator 16. The manipulator 16 is adapted to be programmed to execute a plurality of tasks. During manual movement and programming of robot 10, robot operator 11 communicates with control system 18 through handset 12. Operator 11 enters commands in control system 18, for example, to start and stop. a program, or to move manipulator 16 to a desired position. The control system 18 further comprises path planning means for calculating how the manipulator 16 must move in order to execute the programmed tasks.

La figura 2 ilustra un diagrama de bloques del aparato portátil según una realización de la presente invención. El aparato portátil puede ser un teléfono inteligente, tableta, PDA, etc. El aparato portátil 12 se usa para manipular y programar manualmente el robot 10 interactuando con el sistema de control 18. El aparato portátil 12 comprende un sensor de orientación 13, un dispositivo HMI 15 (interfaz hombre-máquina) y una unidad de procesamiento 17. La orientación el sensor 21 está adaptado para medir la orientación del aparato portátil 12, por ejemplo, puede ser un magnetómetro tridireccional o una combinación de un acelerómetro tridireccional y un giroscopio tridireccional. El dispositivo HMI 15 está adaptado para detectar movimiento manual bidimensional en relación con el dispositivo HMI 15; por ejemplo, el dispositivo h M i puede comprender una unidad de entrada como un panel táctil que rastrea el movimiento de uno o más dedos del operador 11 en dos grados de libertad. La unidad de procesamiento 17, por ejemplo un procesador o una unidad lógica programable, está adaptada para recibir una primera señal FS que representa la orientación medida del aparato portátil 12 y una segunda señal SS que representa el movimiento manual bidimensional detectado en relación con dicho dispositivo HM115 y controlar una parte del robot 10 para que se mueva en una dirección teniendo en cuenta la orientación medida del aparato portátil 12 y el movimiento manual bidimensional detectado en relación con el dispositivo HMI 15. Una parte del robot 10, por ejemplo, una herramienta montada en la muñeca del robot 10 (convencionalmente conocida como TCP o punto central de la herramienta) o una articulación del robot 10, se puede controlar moviendo uno o dos dedos sobre el dispositivo HMI 15 del aparato portátil 12, por ejemplo, un panel táctil. El desplazamiento en el panel táctil con el movimiento de los dedos está limitado a dos dimensiones, que es detectado por el dispositivo HMI 15. Este dispositivo HMI 15 también envía el movimiento bidimensional detectado a la unidad de procesamiento 17 del aparato portátil 12; además, se introducen tres dimensiones adicionales cambiando la orientación (es decir, el gesto) del aparato portátil 12 que es medido mediante el sensor de orientación 13 del aparato portátil 12 y la medición también se envía a la unidad de procesamiento 17 del aparato portátil 12. La unidad de procesamiento 17 considera así el movimiento bidimensional de los dedos sobre el panel táctil y la medición de la orientación tridimensional del aparato portátil 12 y los transforma en una trayectoria tridimensional en el mundo real. Por ejemplo, si el aparato portátil 12 se sostendrá verticalmente y el operador 11 moverá el dedo hacia arriba sobre el panel táctil 15, el robot 10 moverá el TCP o la articulación hacia arriba, y viceversa. Si el operador 12 quiere hacer un movimiento hacia adelante, debe orientar el aparato portátil 12 horizontalmente y mover el dedo hacia adelante en la pantalla táctil 15, y viceversa. Al tener el aparato portátil para controlar el robot, el movimiento manual bidimensional en el panel táctil se integra con la orientación del aparato portátil 12 y el robot mapea una integración de estos, lo que hace posible definir una trayectoria en un espacio tridimensional para desplazar/enseñar los movimientos del robot en tres dimensiones. Esto se vuelve más intuitivo que la realización del movimiento lineal del robot por la orientación portátil.Fig. 2 illustrates a block diagram of the portable apparatus according to an embodiment of the present invention. The portable device can be a smartphone, tablet, PDA, etc. The portable apparatus 12 is used to manually manipulate and program the robot 10 interacting with the control system 18. The portable apparatus 12 comprises an orientation sensor 13, an HMI device 15 (human-machine interface) and a processing unit 17. Orientation Sensor 21 is adapted to measure the orientation of portable apparatus 12, for example, it can be a three-way magnetometer or a combination of a three-way accelerometer and a three-way gyroscope. The HMI device 15 is adapted to detect two-dimensional manual movement relative to the HMI device 15; for example, the device h M i may comprise an input unit such as a touch panel that tracks the movement of one or more fingers of the operator 11 in two degrees of freedom. The processing unit 17, for example a processor or a programmable logic unit, is adapted to receive a first FS signal representing the measured orientation of the portable apparatus 12 and a second SS signal representing the two-dimensional manual movement detected in relation to said device HM115 and controlling a part of the robot 10 to move in one direction taking into account the measured orientation of the portable apparatus 12 and the two-dimensional manual movement detected in relation to the HMI device 15. A part of the robot 10, for example a tool mounted on the wrist of the robot 10 (conventionally known as TCP or tool center point) or a joint of the robot 10, can be controlled by moving one or two fingers on the HMI device 15 of the portable apparatus 12, for example a touchpad . The movement on the touch panel with the movement of the fingers is limited to two dimensions, which is detected by the HMI device 15. This HMI device 15 also sends the detected two-dimensional movement to the processing unit 17 of the portable apparatus 12; in addition, three additional dimensions are introduced by changing the orientation (i.e. the gesture) of the portable apparatus 12 which is measured by the orientation sensor 13 of the portable apparatus 12 and the measurement is also sent to the processing unit 17 of the portable apparatus 12. The processing unit 17 thus considers the two-dimensional movement of the fingers on the touchpad and the measurement of the three-dimensional orientation of portable apparatus 12 and transforms them into a three-dimensional path in the real world. For example, if the portable apparatus 12 will be held vertically and the operator 11 will move his finger upwards on the touch panel 15, the robot 10 will move the TCP or the joint upwards, and vice versa. If the operator 12 wants to make a forward movement, he must orient the portable apparatus 12 horizontally and move his finger forward on the touch screen 15, and vice versa. By having the portable apparatus to control the robot, the two-dimensional manual movement on the touch panel integrates with the orientation of the portable apparatus 12 and the robot maps an integration of these, making it possible to define a path in a three-dimensional space to move / teach robot movements in three dimensions. This becomes more intuitive than performing the linear motion of the robot by portable orientation.

Preferiblemente, la unidad de procesamiento 17 del aparato portátil 12 está adaptada además para controlar la parte del robot 10 (por ejemplo, el TCP de la articulación del robot) para moverse en una dirección correspondiente a una combinación de la orientación medida del aparato portátil 12 y un dirección del movimiento manual bidimensional detectado en relación con el dispositivo HMI 15 y en una velocidad correspondiente a la velocidad del movimiento manual bidimensional detectado en relación con el dispositivo HMI 15.Preferably, the processing unit 17 of the portable apparatus 12 is further adapted to control the part of the robot 10 (for example, the TCP of the robot joint) to move in a direction corresponding to a combination of the measured orientation of the portable apparatus 12 and a direction of the detected two-dimensional manual movement relative to the HMI device 15 and at a speed corresponding to the speed of the detected two-dimensional manual movement relative to the HMI device 15.

Por ejemplo, el sensor de orientación 13 del aparato portátil 12 está adaptado además para medir la orientación de un primer sistema de coordenadas tridimensional (X1, Y1, Z1) en uno, dos o tres grados de libertad, que se define en relación con el aparato portátil 12 y que sigue el movimiento del aparato portátil 12. El robot 10 es operable en un segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) fijado al robot 10. El dispositivo HMI 15 está adaptado además para detectar el movimiento manual bidimensional en relación con el dispositivo HMI 15 en el primer sistema de coordenadas tridimensional (X1, Y1, Z1), por ejemplo, un panel táctil dispuesto para detectar la entrada del dedo del operador en dos grados de libertad; la unidad de procesamiento 17 está adaptada además para determinar una orientación relativa entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2 , Y2, Z2) basándose en mediciones de orientación del sensor de orientación 13 y la orientación fija del segundo sistema de coordenadas tridimensional, calcular una transformación entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) basándose en la orientación relativa entre estos sistemas de coordenadas y transformar el movimiento manual bidimensional detectado en relación con el dispositivo HMI 15 en los movimientos correspondientes de la parte del manipulador en el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) basándose en la transformación calculada. El espacio de trabajo del manipulador 16 del robot 10 se define para mover el manipulador 16 entre diferentes posiciones en el espacio de trabajo de manera controlada cuando se mueve manualmente el robot 10, por ejemplo para mover el TCP de la herramienta sujetada por el robot o la articulación del manipulador 16 (la parte del robot). Estas posiciones en el espacio de trabajo del robot 10 se definen mediante el uso de un sistema de coordenadas, por ejemplo, un sistema de coordenadas cartesianas, que tiene un origen y las direcciones de los ejes definidos en relación con el robot 10 o el aparato portátil 12 o el dispositivo HMI 15 del aparato portátil 12. Los manipuladores generalmente están adaptados para ser manejados en hasta seis grados de libertad (DOF), lo que en este caso significa tres grados de libertad traslacional representados por el eje X, Y, Z y tres grados de libertad rotacional representados por rotaciones alrededor del eje X, Y, Z. En este caso, el primer sistema de coordenadas tridimensional (X1, Y1, Z1) se define en relación con el aparato portátil 12 de modo que sigue los movimientos del aparato portátil 12 (tal como un teléfono inteligente o tableta), el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) se define fijado al manipulador 16 del robot 10. Los movimientos de diferentes partes del manipulador se definen entonces en el segundo sistema de coordenadas (X2, Y2 , Z2), y el movimiento manual en relación con el dispositivo HMI se define en el primer sistema de coordenadas tridimensional (X1, Y1, Z1).For example, the orientation sensor 13 of the portable apparatus 12 is further adapted to measure the orientation of a first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) at one, two or three degrees of freedom, which is defined in in relation to the portable apparatus 12 and which follows the movement of the portable apparatus 12. The robot 10 is operable in a second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) attached to the robot 10. The HMI device 15 is further adapted for detecting two-dimensional manual movement relative to the HMI device 15 in the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ), for example, a touchpad arranged to detect operator finger input at two degrees of freedom; processing unit 17 is further adapted to determine a relative orientation between the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) and the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) based on measurements orientation of the orientation sensor 13 and the fixed orientation of the second three-dimensional coordinate system, calculate a transformation between the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) and the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) based on the relative orientation between these coordinate systems and transforming the detected two-dimensional manual movement relative to the HMI device 15 into the corresponding movements of the manipulator part in the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) based on the calculated transformation. The workspace of the manipulator 16 of the robot 10 is defined to move the manipulator 16 between different positions in the workspace in a controlled manner when the robot 10 is manually moved, for example to move the TCP of the tool held by the robot or the joint of the manipulator 16 (the robot part). These positions in the workspace of the robot 10 are defined by the use of a coordinate system, for example a Cartesian coordinate system, having an origin and the directions of the axes defined in relation to the robot 10 or the apparatus. portable 12 or the HMI 15 device of the portable apparatus 12. The manipulators are generally adapted to be operated with up to six degrees of freedom (DOF), which in this case means three translational degrees of freedom represented by the X, Y, Z axis and three rotational degrees of freedom represented by rotations about the X, Y, Z axis. In this case, the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) is defined in relation to the portable apparatus 12 so that follows the movements of the portable apparatus 12 (such as a smartphone or tablet), the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) is defined fixed to the manipulator 16 of the robot 10. The movements of dif Parts of the manipulator are then defined in the second coordinate system (X 2 , Y 2 , Z 2 ), and manual movement relative to the HMI device is defined in the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ).

Durante una tarea de movimiento manual, el operador 11 puede mover el manipulador 16 en diferentes direcciones y, por lo tanto, el operador generalmente sostiene el aparato portátil en diversos gestos y mueve su dedo sobre el panel táctil del aparato portátil. El operador 11 provoca así una reorientación del primer sistema de coordenadas tridimensional (X1, Y1, Z1) en relación con el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2), porque el primer sistema de coordenadas (X1, Y1, Z1) se define en relación con el aparato portátil 12.During a manual movement task, operator 11 can move manipulator 16 in different directions, and therefore, the operator generally holds the portable apparatus in various gestures and moves his finger on the touch panel of the portable apparatus. Operator 11 thus causes a reorientation of the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) relative to the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ), because the first coordinate system ( X 1 , Y 1 , Z 1 ) is defined in relation to the portable apparatus 12.

Para determinar esta reorientación del aparato portátil 12, la unidad de procesamiento 17 está adaptada para determinar la orientación relativa entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2), es decir cómo se ha hecho girar el primer sistema de coordenadas tridimensional (X1, Y1, Z1) en relación con el segundo sistema de coordenadas tridimensional (X2, Y2, Z2). La unidad de procesamiento 17 del aparato portátil 12 está adaptada además para actualizar repetidamente el primer sistema de coordenadas tridimensional de modo que cada eje del primer sistema de coordenadas tridimensional corresponda a un eje X2, Y2, Z2 correspondiente en el segundo sistema de coordenadas (X2 , Y2 , Z2). Esto se hace calculando la transformación del primer sistema de coordenadas (X1, Y1, Z1) al segundo sistema de coordenadas (X2, Y2 , Z2) y aplicando esta transformación a cada movimiento del aparato portátil medido en el primer sistema de coordenadas (X1, Y1, Z1). La transformación incluye información sobre la rotación, pero no la traslación entre los sistemas de coordenadas. En cuanto a la velocidad del movimiento del robot, por ejemplo, el dedo del operador 11 se mueve con respecto al panel táctil a una velocidad de 0,1 m/s, y el robot se controla para moverse a 0,1 m/s multiplicado por una relación de escala predeterminada. To determine this reorientation of the portable apparatus 12, the processing unit 17 is adapted to determine the relative orientation between the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) and the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ), that is, how the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) has been rotated relative to the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ). The processing unit 17 of the portable apparatus 12 is further adapted to repeatedly update the first three-dimensional coordinate system so that each axis of the first three-dimensional coordinate system corresponds to a corresponding X 2 , Y 2 , Z 2 axis in the second coordinates (X 2 , Y 2 , Z 2 ). This is done by calculating the transformation from the first coordinate system (X 1 , Y 1 , Z 1 ) to the second coordinate system (X 2 , Y 2 , Z 2 ) and applying this transformation to each movement of the portable device measured in the first coordinate system (X 1 , Y 1 , Z 1 ). The transformation includes information about the rotation, but not the translation between the coordinate systems. Regarding the speed of the robot movement, for example, the operator's finger 11 moves with respect to the touch panel at a speed of 0.1 m / s, and the robot is controlled to move at 0.1 m / s multiplied by a predetermined scale ratio.

Como se muestra en la figura 2, el aparato portátil 12 incluye además un lector de marcador de identificación 19 que está adaptado para recibir señal que representa información sobre la parte del robot 10 desde un marcador de identificación externo. El marcador de identificación puede ser una etiqueta RFID (identificación por radiofrecuencia), una etiqueta NFC (comunicación de campo cercano) o una etiqueta de código QR (código de respuesta rápida). La unidad de procesamiento 17 está adaptada además para seleccionar la parte del robot entre varias partes del robot 10 basándose en la información del marcador de identificación, por ejemplo, para seleccionar la parte del robot para desplazar/enseñar. Preferiblemente, el marcador de identificación que registra la información sobre la parte del robot está unido con dicha parte del robot. Por ejemplo, como se muestra en la figura 1, el marcador de identificación para la primera articulación está unido a la primera articulación. Esto permite al operador establecer el objetivo de desplazamiento/enseñanza de manera más intuitiva. En particular, el operador 11 toca la etiqueta NFC en la primera articulación del robot con el aparato portátil 12. De ese modo, el operador puede controlar manualmente la primera articulación del manipulador 16 del robot 10 usando el aparato portátil 12. Como se describió anteriormente, la primera articulación sigue el cambio de orientación del aparato portátil 12. Cuando el operador 11 toca la segunda articulación con el aparato portátil 12, la parte del robot que podría moverse cambia de la primera articulación a la segunda articulación, luego la segunda articulación sigue el cambio de orientación del aparato portátil 12.As shown in Figure 2, the portable apparatus 12 further includes an identification marker reader 19 which is adapted to receive a signal representing information about the part of the robot 10 from an external identification marker. The identification marker can be an RFID (radio frequency identification) tag, an NFC (near field communication) tag, or a QR code (quick response code) tag. Processing unit 17 is further adapted to select the robot part from among several robot parts 10 based on the information from the identification marker, for example to select the robot part to move / teach. Preferably, the identification marker that records the information on the part of the robot is connected to said part of the robot. For example, as shown in Figure 1, the identification marker for the first joint is attached to the first joint. This allows the operator to set the shift / teach target more intuitively. In particular, operator 11 touches the NFC tag on the robot's first link with handheld device 12. Thus, the operator can manually control the first joint of robot manipulator 16 using handset 12. As described above , the first joint follows the orientation change of the portable apparatus 12. When the operator 11 touches the second joint with the portable apparatus 12, the part of the robot that could move changes from the first joint to the second joint, then the second joint follows changing the orientation of the portable device 12.

Como alternativa, es posible seleccionar diferentes articulaciones y modos de desplazamiento basándose en la información recodificada por el marcador de identificación: grupo de articulaciones, movimiento lineal o reorientación. Aunque el aparato portátil se puede hacer girar en tres dimensiones (inclinación, guiñada, balanceo), solo se usa la rotación a lo largo de una de las direcciones para mapear a un eje del robot, y la rotación en otras direcciones se ignora. Al usar técnicas de identificación, la configuración de enseñanza se puede cambiar sin usar ninguna pantalla. El operador no necesita vigilar al robot todo el tiempo. No necesita seleccionar nada del menú, sino que simplemente mueve el dispositivo portátil a cierta área con respecto al robot, lo que es más rápido y no requiere mucha atención del operador.As an alternative, it is possible to select different joints and displacement modes based on the information recoded by the identification marker: joint group, linear movement or reorientation. Although the handheld can be rotated in three dimensions (tilt, yaw, roll), only rotation along one of the directions is used to map to a robot axis, and rotation in other directions is ignored. By using identification techniques, the teaching settings can be changed without using any screen. The operator does not need to monitor the robot all the time. You don't need to select anything from the menu, but simply move the handheld device to a certain area relative to the robot, which is faster and doesn't require much operator attention.

Preferiblemente, el lector de marcador de identificación 19 está adaptado para recibir una señal que representa información sobre varios robots desde etiquetas de marcador de identificación externo, y la unidad de procesamiento 17 está adaptada además para seleccionar uno de los robots como maestro y los otros como esclavos.Preferably, the identification marker reader 19 is adapted to receive a signal representing information about various robots from external identification marker labels, and the processing unit 17 is further adapted to select one of the robots as master and the others as slaves.

Preferiblemente, la unidad de procesamiento 17 está adaptada además para recibir una tercera señal que representa la velocidad del movimiento de la parte del robot 10 desde el sistema de control 18 del robot 10 y juzgar si un factor de escala entre la velocidad del movimiento manual bidimensional detectado en relación con dicho dispositivo HMI 15 y la del movimiento de la parte del robot 10 está dentro de un intervalo admisible. La unidad de procesamiento 17 está adaptada además para recibir una cuarta señal desde el sistema de control 18 del robot 10 y juzgar si la posición está en colisión con un objeto externo, si hay un componente interno que funciona mal, el robot está más cerca de estar o ya está fuera de alcance. El dispositivo HMI está adaptado además para enviar sonido, vibrar o cambiar su color de fondo para indicar diversas condiciones de dicho robot 10 como se indicó anteriormente.Preferably, the processing unit 17 is further adapted to receive a third signal representing the speed of movement of the robot part 10 from the control system 18 of the robot 10 and to judge whether a scale factor between the two-dimensional manual movement speed detected in relation to said HMI device 15 and that of the movement of the robot part 10 is within an allowable range. The processing unit 17 is further adapted to receive a fourth signal from the control system 18 of the robot 10 and judge whether the position is colliding with an external object, if there is a malfunctioning internal component, the robot is closer to be or is already out of reach. The HMI device is further adapted to send sound, vibrate, or change its background color to indicate various conditions of said robot 10 as indicated above.

Preferiblemente, el dispositivo HMI 15 está adaptado además para visualizar información del robot basándose en una señal del robot recibida desde el sistema de control 18 del robot 10, tal como posición real, velocidad real, aceleración real, par real, E/S, datos internos del estado del robot (por ejemplo, corriente del motor), etc. Al tener la función de visualización, el operador puede juzgar si hay un mal funcionamiento de un componente interno. Esto implica que la unidad de procesamiento 17 está adaptada además para recibir más de una señal que representa información del robot diferente.Preferably, the HMI device 15 is further adapted to display robot information based on a robot signal received from robot 10 control system 18, such as actual position, actual speed, actual acceleration, actual torque, I / O, data internal status of the robot (for example, motor current), etc. By having the display function, the operator can judge whether there is a malfunction of an internal component. This implies that the processing unit 17 is further adapted to receive more than one signal representing information from the different robot.

La figura 3 muestra un diagrama de flujo simplificado para llevar a cabo un método para controlar manualmente un robot según una realización de la invención. El método realiza repetidamente las etapas descritas en el siguiente párrafo.Figure 3 shows a simplified flow diagram for carrying out a method for manually controlling a robot according to an embodiment of the invention. The method repeatedly performs the steps described in the next paragraph.

Una medición de la orientación del aparato portátil, bloque 100. En la práctica, se define una posición inicial con una orientación conocida relativa al segundo sistema de coordenadas tridimensional. Después de realizar un autoguiado, el sensor de orientación mide la reorientación en relación con la posición inicial. La medición de la orientación del aparato portátil puede realizarse midiendo la orientación de un primer sistema de coordenadas tridimensional que se define en relación con dicho aparato portátil y que sigue el movimiento de dicho aparato portátil. Se detecta movimiento manual bidimensional en relación con un dispositivo HMI del aparato portátil, bloque 110. Por ejemplo, el movimiento manual bidimensional en relación con el dispositivo HMI del aparato portátil se detecta en el primer sistema de coordenadas tridimensional. Una parte de dicho robot se controla para que se mueva en una dirección teniendo en cuenta la orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho robot, bloque 120. La parte de dicho robot se controla para que se mueva en una velocidad correspondiente a una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho aparato portátil, bloque 130.A measurement of the orientation of the portable apparatus, block 100. In practice, an initial position is defined with a known orientation relative to the second three-dimensional coordinate system. After self-guiding, the orientation sensor measures the reorientation relative to the starting position. The measurement of the orientation of the portable apparatus can be performed by measuring the orientation of a first three-dimensional coordinate system which is defined in relation to said portable apparatus and which follows the movement of said portable apparatus. Two-dimensional manual movement is detected relative to an HMI device of the portable apparatus, block 110. For example, two-dimensional manual movement relative to the HMI device of the portable apparatus is detected in the first three-dimensional coordinate system. A part of said robot is controlled to move in one direction taking into account the measured orientation of said portable apparatus and said two-dimensional manual movement detected in relation to said HMI device of said robot, block 120. The part of said robot is controlled to move at a speed corresponding to a speed of said detected two-dimensional manual movement relative to said HMI device of said portable apparatus, block 130.

Aunque la presente invención se ha descrito sobre la base de algunas realizaciones preferidas, los expertos en la técnica deben apreciar que esas realizaciones de ninguna manera deben limitar el alcance de la presente invención. Sin apartarse del alcance de la presente invención, cualquier variación y modificación de las realizaciones debe ser comprendida por aquellos expertos en la técnica y, por lo tanto, estar dentro del alcance de la presente invención que se define en las reivindicaciones adjuntas. Although the present invention has been described on the basis of some preferred embodiments, those skilled in the art should appreciate that those embodiments should in no way limit the scope of the present invention. Without departing from the scope of the present invention, any variations and modifications of the embodiments should be understood by those skilled in the art and, therefore, be within the scope of the present invention as defined in the appended claims.

Claims (14)

REIVINDICACIONES 1. Un aparato portátil (12) para controlar un robot (10), incluyendo el aparato portátil (12):1. A portable apparatus (12) for controlling a robot (10), including the portable apparatus (12): un sensor de orientación (13), que está adaptado para medir la orientación de dicho aparato portátil (12);an orientation sensor (13), which is adapted to measure the orientation of said portable apparatus (12); un dispositivo de interfaz hombre-máquina, HMI (15), que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI (15); ya human-machine interface device, HMI (15), which is adapted to detect two-dimensional manual movement in relation to said HMI device (15); and una unidad de procesamiento (17), que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil (12) y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) ya processing unit (17), which is adapted to receive a first signal representing said measured orientation of said portable apparatus (12) and a second signal representing said two-dimensional manual movement detected in relation to said HMI device (15) and controlar una parte de dicho robot para que se mueva en una dirección correspondiente a una combinación de dicha orientación medida de dicho aparato portátil y una dirección de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15), estando el aparato portátil (12) caracterizado por que:controlling a part of said robot to move in a direction corresponding to a combination of said measured orientation of said portable apparatus and a direction of said two-dimensional manual movement detected in relation to said HMI device (15), the portable apparatus (12) being ) characterized by: dicha unidad de procesamiento (17) está adaptada además para recibir una tercera señal que representa una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot y juzgar si un factor de escala entre una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot (10) está dentro de un intervalo admisible.said processing unit (17) is further adapted to receive a third signal representing a speed of movement of said part of said robot (10) from a controller of said robot and to judge whether a scale factor between a speed of said manual movement two-dimensional detected in relation to said HMI device (15) and that of the movement of said part of said robot (10) is within an admissible range. 2. El aparato portátil (12) según la reivindicación 1, en donde:2. The portable apparatus (12) according to claim 1, wherein: dicha unidad de procesamiento (17) está adaptada además para controlar que dicha parte de dicho robot (10) se mueva a una velocidad correspondiente a la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15).said processing unit (17) is further adapted to control that said part of said robot (10) moves at a speed corresponding to the speed of said two-dimensional manual movement detected in relation to said HMI device (15). 3. El aparato portátil (12) según la reivindicación 2, en donde:3. The portable apparatus (12) according to claim 2, wherein: dicho sensor de orientación (13) está adaptado además para medir la orientación de un primer sistema de coordenadas tridimensional que se define en relación con dicho aparato portátil (12) y que sigue el movimiento de dicho aparato portátil (12);said orientation sensor (13) is further adapted to measure the orientation of a first three-dimensional coordinate system which is defined in relation to said portable apparatus (12) and which follows the movement of said portable apparatus (12); dicho robot (10) es operable en un segundo sistema de coordenadas tridimensional fijo;said robot (10) is operable in a second fixed three-dimensional coordinate system; dicho dispositivo HMI (15) está adaptado además para detectar dicho movimiento manual bidimensional en relación con dicho dispositivo HMI (15) en dicho primer sistema de coordenadas tridimensional;said HMI device (15) is further adapted to detect said two-dimensional manual movement relative to said HMI device (15) in said first three-dimensional coordinate system; dicha unidad de procesamiento (17) está adaptada además para determinar una orientación relativa entre los sistemas de coordenadas tridimensionales primero y segundo, calculando una transformación entre los sistemas de coordenadas tridimensionales primero y segundo basándose en dicha orientación relativa entre estos sistemas de coordenadas y transformando dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) en los movimientos correspondientes de dicha parte de dicho robot (10) en el segundo sistema de coordenadas tridimensional basándose en dicha transformación calculada.said processing unit (17) is further adapted to determine a relative orientation between the first and second three-dimensional coordinate systems, calculating a transformation between the first and second three-dimensional coordinate systems based on said relative orientation between these coordinate systems and transforming said two-dimensional manual movement detected in relation to said HMI device (15) in the corresponding movements of said part of said robot (10) in the second three-dimensional coordinate system based on said calculated transformation. 4. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:4. The portable apparatus (12) according to claim 1 or 2 or 3, wherein: dicho sensor de orientación (13) es un magnetómetro tridireccional o una combinación de un acelerómetro tridireccional y un giroscopio tridireccional.said orientation sensor (13) is a three-way magnetometer or a combination of a three-way accelerometer and a three-way gyroscope. 5. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:5. The portable apparatus (12) according to claim 1 or 2 or 3, wherein: dicho dispositivo HMI (15) es un panel táctil.said HMI device (15) is a touch panel. 6. El aparato portátil según la reivindicación 1 o 2 o 3, en donde:6. The portable apparatus according to claim 1 or 2 or 3, wherein: dicha parte de dicho robot (10) es una herramienta unida a dicha herramienta; osaid part of said robot (10) is a tool attached to said tool; or dicha parte de dicho robot (10) es una articulación.said part of said robot (10) is a joint. 7. El aparato portátil (12) según la reivindicación 1 o 2 o 3, que incluye además:7. The portable apparatus (12) according to claim 1 or 2 or 3, further including: al menos un lector de marcador de identificación (19), que está adaptado para recibir una señal que representa información sobre dicha parte de dicho robot (10) desde un marcador de identificación externo;at least one identification marker reader (19), which is adapted to receive a signal representing information about said part of said robot (10) from an external identification marker; en donde:where: dicha unidad de procesamiento (17) está adaptada además para seleccionar dicha parte de dicho robot (10) entre varias partes de dicho robot basándose en dicha información sobre dicha parte de dicho robot, said processing unit (17) is further adapted to select said part of said robot (10) among several parts of said robot based on said information on said part of said robot, en donde:where: dicho marcador de identificación está unido con dicha parte de dicho robot; y/o dicha unidad de procesamiento (17) está adaptada además para establecer un modo de movimiento basándose en dicha información sobre dicha parte de dicho robot.said identification marker is attached to said part of said robot; and / or said processing unit (17) is further adapted to establish a mode of movement based on said information about said part of said robot. 8. El aparato portátil (12) según la reivindicación 1 o 2 o 3, que incluye además:8. The portable apparatus (12) according to claim 1 or 2 or 3, further including: un lector de marcador de identificación (19), que está adaptado para recibir una señal que representa información sobre varios robots desde una etiqueta de marcador de identificación externo;an identification marker reader (19), which is adapted to receive a signal representing information about various robots from an external identification marker label; en donde:where: dicha unidad de procesamiento (17) está adaptada además para seleccionar uno de dichos robots (10) como maestro y los otros como esclavos.said processing unit (17) is further adapted to select one of said robots (10) as master and the others as slaves. 9. El aparato portátil según la reivindicación 7 u 8, en donde:9. The portable apparatus according to claim 7 or 8, wherein: dicho marcador de identificación es una etiqueta RFID, una etiqueta NFC o una etiqueta de código QR.Said identification marker is an RFID tag, an NFC tag or a QR code tag. 10. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde;10. The portable apparatus (12) according to claim 1 or 2 or 3, wherein; dicha unidad de procesamiento (17) está adaptada además para recibir una cuarta señal que representa la posición de dicha parte de dicho robot desde el controlador de dicho robot y juzgar si dicha posición está en colisión con un objeto externo.said processing unit (17) is further adapted to receive a fourth signal representing the position of said part of said robot from the controller of said robot and to judge if said position is in collision with an external object. 11. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:11. The portable apparatus (12) according to claim 1 or 2 or 3, wherein: dicho dispositivo HMI (15) está adaptado además para visualizar información de robot basándose en la señal de robot recibida del controlador de dicho robot (10),said HMI device (15) is further adapted to display robot information based on the robot signal received from the controller of said robot (10), en donde preferiblemente:where preferably: dicha información de robot representa el mal funcionamiento de una parte de dicho robot (10).said robot information represents the malfunction of a part of said robot (10). 12. El aparato portátil (12) según la reivindicación 1 o 2 o 3, en donde:12. The portable apparatus (12) according to claim 1 or 2 or 3, wherein: dicho dispositivo HMI (15) está adaptado además para enviar sonido, vibrar o cambiar su color de fondo para indicar diversas condiciones de dicho robot (10).said HMI device (15) is further adapted to send sound, vibrate or change its background color to indicate various conditions of said robot (10). 13. Un método para controlar manualmente un robot (10) con un aparato portátil (12) según cualquiera de las reivindicaciones precedentes, incluyendo el método:13. A method of manually controlling a robot (10) with a portable apparatus (12) according to any of the preceding claims, the method including: medir la orientación de dicho aparato portátil (12) con un sensor de orientación (13) incluido en dicho aparato (12); detectar, con una interfaz hombre-máquina, HMI (15), un movimiento manual bidimensional en relación con el dispositivo HMI (15) de dicho aparato portátil (12);measuring the orientation of said portable apparatus (12) with an orientation sensor (13) included in said apparatus (12); detecting, with a human-machine interface, HMI (15), a two-dimensional manual movement in relation to the HMI device (15) of said portable apparatus (12); controlar una parte de dicho robot (10) para que se mueva en una dirección teniendo en cuenta una combinación de dicha orientación medida de dicho aparato portátil (12) y una dirección de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) de dicho robotcontrolling a part of said robot (10) to move in one direction taking into account a combination of said measured orientation of said portable apparatus (12) and a direction of said detected two-dimensional manual movement in relation to said HMI device (15) of said robot estando el método caracterizado por que además incluye:the method being characterized in that it also includes: recibir una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot (10) y juzgar si un factor de escala entre la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot está en un intervalo admisible.receiving a speed of movement of said part of said robot (10) from a controller of said robot (10) and judging whether a scale factor between the speed of said two-dimensional manual movement detected in relation to said HMI device (15) and the The movement of said part of said robot is in an admissible range. 14. El método para controlar manualmente un robot según la reivindicación 13, que incluye además: controlar dicha parte de dicho robot para que se mueva a una velocidad correspondiente a la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) de dicho aparato portátil (12). The method of manually controlling a robot according to claim 13, further including: controlling said portion of said robot to move at a speed corresponding to the speed of said detected two-dimensional manual movement in relation to said HMI device (15) of said portable apparatus (12).
ES14887969T 2014-04-04 2014-04-04 Portable device to control a robot and its method Active ES2759082T3 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/074822 WO2015149360A1 (en) 2014-04-04 2014-04-04 Portable apparatus for controlling robot and method thereof

Publications (1)

Publication Number Publication Date
ES2759082T3 true ES2759082T3 (en) 2020-05-07

Family

ID=54239329

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14887969T Active ES2759082T3 (en) 2014-04-04 2014-04-04 Portable device to control a robot and its method

Country Status (5)

Country Link
US (1) US10166673B2 (en)
EP (1) EP3126936B1 (en)
CN (1) CN105960623B (en)
ES (1) ES2759082T3 (en)
WO (1) WO2015149360A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106483885A (en) * 2016-11-24 2017-03-08 南京熊猫电子股份有限公司 A kind of PC tool system based on robot
WO2018222762A2 (en) * 2017-05-30 2018-12-06 Sisu Devices Llc Robotic point capture and motion control
US10678338B2 (en) 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
CN207224024U (en) * 2017-09-05 2018-04-13 杭州亚美利嘉科技有限公司 The robot positioned by the use of magnetic as direction
CN109977708A (en) * 2017-12-28 2019-07-05 沈阳新松机器人自动化股份有限公司 A kind of 2 D code system and mobile platform teaching system for mobile platform teaching
CN108466266A (en) * 2018-03-22 2018-08-31 山东农业大学 Mechanical arm motion control method and system
JP6693538B2 (en) 2018-05-16 2020-05-13 株式会社安川電機 Operation device, control system, control method, and program
JP6773084B2 (en) * 2018-07-02 2020-10-21 株式会社安川電機 Motion teaching device, robot system and motion teaching method
DE102018126582A1 (en) * 2018-10-25 2020-04-30 Bayerische Motoren Werke Aktiengesellschaft Test device for a computer program and method for testing a computer program
CN109927029A (en) * 2019-03-27 2019-06-25 飞马智科信息技术股份有限公司 A kind of method of controlling operation of manipulator
CN110253587B (en) * 2019-07-15 2020-11-27 珠海格力电器股份有限公司 Robot control method, system, storage medium and robot
US20210216049A1 (en) * 2020-01-09 2021-07-15 Thoughtforge Inc. Autonomous control system and method using embodied homeostatic feedback in an operating environment
JPWO2022118471A1 (en) * 2020-12-04 2022-06-09

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE508176C2 (en) * 1995-03-29 1998-09-07 Asea Brown Boveri Device and method for calibrating a multi-axis industrial robot
JP4014662B2 (en) * 1995-09-18 2007-11-28 ファナック株式会社 Robot teaching operation panel
JP3841439B2 (en) * 1996-07-24 2006-11-01 ファナック株式会社 Robot jog feed method
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6167464A (en) * 1998-09-23 2000-12-26 Rockwell Technologies, Llc Mobile human/machine interface for use with industrial control systems for controlling the operation of process executed on spatially separate machines
US6388655B1 (en) * 1999-11-08 2002-05-14 Wing-Keung Leung Method of touch control of an input device and such a device
KR100437372B1 (en) 2001-04-18 2004-06-25 삼성광주전자 주식회사 Robot cleaning System using by mobile communication network
CN100367171C (en) * 2005-01-19 2008-02-06 光宝科技股份有限公司 Displacement controlled portable electronic device
US7626571B2 (en) * 2005-12-22 2009-12-01 The Board Of Trustees Of The Leland Stanford Junior University Workspace expansion controller for human interface systems
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
ATE410272T1 (en) * 2006-02-17 2008-10-15 Abb Research Ltd INDUSTRIAL ROBOT SYSTEM
CN101020312A (en) * 2007-03-13 2007-08-22 叶琛 Robot transmission method and unit based on network function
TWM328364U (en) * 2007-07-19 2008-03-11 Univ Dayeh Device for collecting data of radio frequency identification
EP2055446A1 (en) 2007-10-31 2009-05-06 Abb As A portable robot control apparatus and a method for controlling a movement of a robot
GB0821482D0 (en) 2008-11-25 2008-12-31 Rockwell Automation Ltd Access control
US8310367B1 (en) * 2009-05-18 2012-11-13 Empire Technology Development Llc Methods of implanting electronics in objects and objects with implanted electronics
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
SE1050763A1 (en) * 2010-07-08 2010-07-12 Abb Research Ltd A method for calibration of a mobile robot
KR101159475B1 (en) * 2010-12-10 2012-06-25 숭실대학교산학협력단 Apparatus for robot navigation control using emg and acceleration sensor and method thereof
EP2490395A1 (en) 2011-02-14 2012-08-22 Nxp B.V. Method and system for access control for near field communication
CN102350700A (en) * 2011-09-19 2012-02-15 华南理工大学 Method for controlling robot based on visual sense
KR101410416B1 (en) * 2011-12-21 2014-06-27 주식회사 케이티 Remote control method, system and user interface
US9505130B2 (en) * 2012-07-13 2016-11-29 General Electric Company System and method for performing remote welding operations on an apparatus
US8498572B1 (en) 2012-08-24 2013-07-30 Google Inc. Home automation device pairing by NFC-enabled portable device
US9221170B2 (en) * 2013-06-13 2015-12-29 GM Global Technology Operations LLC Method and apparatus for controlling a robotic device via wearable sensors
CN103279206A (en) * 2013-06-15 2013-09-04 苏州时运机器人有限公司 Robot control system with gesture-sensing teaching machine
US10888998B2 (en) * 2013-10-07 2021-01-12 Abb Schweiz Ag Method and device for verifying one or more safety volumes for a movable mechanical unit
US9387589B2 (en) * 2014-02-25 2016-07-12 GM Global Technology Operations LLC Visual debugging of robotic tasks
US9958862B2 (en) * 2014-05-08 2018-05-01 Yaskawa America, Inc. Intuitive motion coordinate system for controlling an industrial robot
JP6631279B2 (en) * 2015-03-19 2020-01-15 株式会社デンソーウェーブ Robot operation device, robot operation program

Also Published As

Publication number Publication date
EP3126936A4 (en) 2018-03-28
EP3126936A1 (en) 2017-02-08
US10166673B2 (en) 2019-01-01
EP3126936B1 (en) 2019-09-04
CN105960623B (en) 2019-02-05
US20160346921A1 (en) 2016-12-01
WO2015149360A1 (en) 2015-10-08
CN105960623A (en) 2016-09-21

Similar Documents

Publication Publication Date Title
ES2759082T3 (en) Portable device to control a robot and its method
US11420330B2 (en) Robot control device, robot, and simulation device
CN109313417B (en) Aiding in robot positioning
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
US20150321351A1 (en) Intuitive Motion Coordinate System for Controlling an Industrial Robot
KR101876845B1 (en) Robot control apparatus
US10514687B2 (en) Hybrid training with collaborative and conventional robots
EP1795315A1 (en) Hand-held control device for an industrial robot
ES2961110T3 (en) Method, device and computer-readable medium for mobile device management of collaborative industrial robots
US9962835B2 (en) Device for dynamic switching of robot control points
US10232519B2 (en) Robot and method of controlling the same
JP6409605B2 (en) Robot system
US20220241980A1 (en) Object-Based Robot Control
KR20110077556A (en) Teaching system and method for robots
Evans III et al. Control solutions for robots using Android and iOS devices
Saleheen et al. Gesture-Controlled Robotic Arm
WO2017032407A1 (en) An industrial robot system and a method for programming an industrial robot
Mishra et al. Smart device based gesture controller for industrial applications
Landa-Hurtado et al. Kinect-based trajectory teaching for industrial robots
Patil et al. Wireless hand gesture robot using accelerometer
WO2024018093A1 (en) Method and device for monitoring a task of a tool of a robotic arm
Ditthapron et al. Object Manipulation and Control with Robotic Hand
ECE et al. Object Manipulation and Control with Robotic Hand
Noor et al. Performance Analysis of a 5-DOF Robotic Arm by Implementing a Graphical User Interface
Yatmono et al. Developing Design of Mobile Robot Navigation System based on Android