ES2759082T3 - Portable device to control a robot and its method - Google Patents
Portable device to control a robot and its method Download PDFInfo
- Publication number
- ES2759082T3 ES2759082T3 ES14887969T ES14887969T ES2759082T3 ES 2759082 T3 ES2759082 T3 ES 2759082T3 ES 14887969 T ES14887969 T ES 14887969T ES 14887969 T ES14887969 T ES 14887969T ES 2759082 T3 ES2759082 T3 ES 2759082T3
- Authority
- ES
- Spain
- Prior art keywords
- robot
- portable apparatus
- hmi device
- orientation
- relation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39445—Select between jog modes, user, robot coordinates, tool, system feed, joint feed
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39449—Pendant, pda displaying camera images overlayed with graphics, augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
Un aparato portátil (12) para controlar un robot (10), incluyendo el aparato portátil (12): un sensor de orientación (13), que está adaptado para medir la orientación de dicho aparato portátil (12); un dispositivo de interfaz hombre-máquina, HMI (15), que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI (15); y una unidad de procesamiento (17), que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil (12) y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y controlar una parte de dicho robot para que se mueva en una dirección correspondiente a una combinación de dicha orientación medida de dicho aparato portátil y una dirección de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15), estando el aparato portátil (12) caracterizado por que: dicha unidad de procesamiento (17) está adaptada además para recibir una tercera señal que representa una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot y juzgar si un factor de escala entre una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot (10) está dentro de un intervalo admisible.A portable apparatus (12) for controlling a robot (10), including the portable apparatus (12): an orientation sensor (13), which is adapted to measure the orientation of said portable apparatus (12); a human-machine interface device, HMI (15), which is adapted to detect two-dimensional manual movement in relation to said HMI device (15); and a processing unit (17), which is adapted to receive a first signal representing said measured orientation of said portable apparatus (12) and a second signal representing said two-dimensional manual movement detected in relation to said HMI device (15) and controlling a part of said robot to move in a direction corresponding to a combination of said measured orientation of said portable apparatus and a direction of said two-dimensional manual movement detected in relation to said HMI device (15), the portable apparatus (12) being ) characterized in that: said processing unit (17) is further adapted to receive a third signal representing a speed of movement of said part of said robot (10) from a controller of said robot and to judge whether a scale factor between a speed of said two-dimensional manual movement detected in relation to said HMI device (15) and the movement speed of said part of said robot (10) is within an allowable range.
Description
DESCRIPCIÓNDESCRIPTION
Aparato portátil para controlar un robot y método del mismoPortable device to control a robot and its method
Campo técnicoTechnical field
La invención se refiere al campo de un aparato y un método para el control de robots, y más particularmente a un aparato portátil para el control de robots y un método del mismo.The invention relates to the field of a robot control apparatus and method, and more particularly to a portable robot control apparatus and method thereof.
Antecedentes técnicosTechnical background
Normalmente, un robot está equipado con un panel de enseñanza. El dispositivo es relativamente grande (con una pantalla táctil, botones de operador, etc.) y está conectado con un controlador de robot por cable.Typically, a robot is equipped with a teaching panel. The device is relatively large (with a touchscreen, operator buttons, etc.) and is connected to a wired robot controller.
La patente europea EP 2055 446 publicada el 6 de mayo de 2009 describe un aparato de control de robot portátil para controlar el movimiento de un robot o del extremo de una herramienta de robot. El aparato de control de robot portátil comprende un dispositivo inercial con al menos un sensor de aceleración y/o al menos un sensor de rotación, donde dicho dispositivo inercial mide su movimiento relativo y el aparato envía a un controlador de robot una señal que representa el movimiento relativo, de modo que el controlador de robot está habilitado para controlar el robot de tal manera que dicho movimiento relativo sea repetido por el robot o por el extremo de la herramienta de robot en tiempo real.European patent EP 2055 446 published on May 6, 2009 describes a portable robot control apparatus for controlling the movement of a robot or the end of a robot tool. The portable robot control apparatus comprises an inertial device with at least one acceleration sensor and / or at least one rotation sensor, where said inertial device measures its relative motion and the apparatus sends a signal to the robot controller representing the relative motion, so that the robot controller is enabled to control the robot such that said relative motion is repeated by the robot or by the end of the robot tool in real time.
El documento "Design of 6-DOF Manipulator Intuitive Teaching System by Using Smart Phone Orientation - User Friendly and Intuitive Teaching Operation for 6-DOF Manipulator", Sanghun Pyo, Syed Hassan, Yasir Jan y Jungwon Yoon, 4a Conferencia internacional sobre sistemas inteligentes, modelización y simulación, 2013, describe un teléfono inteligente que puede efectuar la intención del usuario de que el robot industrial se mueva, y la información del sensor de orientación se convierte en la traslación y orientación del robot suponiendo que la orientación del teléfono inteligente puede ser un joystick convencional equipado con una articulación universal en la parte de base. El método puede mover el efector terminal del robot por dirección como plano XY.Document "Design of 6-DOF Manipulator Intuitive Teaching System by Using Smart Phone Orientation - User Friendly and Intuitive Teaching Operation for 6-DOF Manipulator", Sanghun Pyo, Syed Hassan, Yasir Jan and Jungwon Yoon, 4th International Conference on Intelligent Systems, modeling and simulation, 2013, describes a smartphone that can carry out the user's intention for the industrial robot to move, and the information from the orientation sensor becomes the translation and orientation of the robot assuming that the orientation of the smartphone can be a conventional joystick equipped with a universal joint in the base part. The method can move the robot's end effector per direction as the XY plane.
EVANS III A WILLIAM ET AL describe: "Control solutions for robots using Android and iOS devices", UNMANNED SYSTEMS TECHNOLOGY XIV, SPIE, 100020TH ST. BELLINGHAM WA 98225-6705 USA, vol. 8387, no. 1, 11 de mayo de 2012 (2012-05-11), páginas 1-10, XP060003615, DOI: 10.1117/12.923023EVANS III A WILLIAM ET AL describes: "Control solutions for robots using Android and iOS devices", UNMANNED SYSTEMS TECHNOLOGY XIV, SPIE, 100020TH ST. BELLINGHAM WA 98225-6705 USA, vol. 8387, no. May 1, 11, 2012 (2012-05-11), pages 1-10, XP060003615, DOI: 10.1117 / 12.923023
Rosemarie E Yagoda ET AL describe: "Using Mobile Devices for Robotic Controllers: Examples and Some Initial Concepts for Experimentaron", junio de 2011 (2011-06), XP055419186, recuperado de Internet: URL: http://www.dtic.mi1/docs/citations/ADA549454Rosemarie E Yagoda ET AL describes: "Using Mobile Devices for Robotic Controllers: Examples and Some Initial Concepts for Experimented", June 2011 (2011-06), XP055419186, retrieved from the Internet: URL: http: //www.dtic.mi1 / docs / citations / ADA549454
SEBASTIAN MUSZYNSKI ET AL describe "Adjustable autonomy for mobile teleoperation of personal service robots", RO-MAN, 2012 IEEE, IEEE, 9 de septiembre de 2012 (2012-09-09), páginas 933-940, XP032466959, DOI: 10.1109/ROMAN.2012.6343870 ISBN: 978-1-4673-4604-7SEBASTIAN MUSZYNSKI ET AL describes "Adjustable autonomy for mobile teleoperation of personal service robots", RO-MAN, 2012 IEEE, IEEE, September 9, 2012 (2012-09-09), pages 933-940, XP032466959, DOI: 10.1109 / ROMAN.2012.6343870 ISBN: 978-1-4673-4604-7
El documento US 2010/241273 A1 describe un dispositivo para recuperar datos de etiquetas de identificación por radiofrecuencia (RFID).US 2010/241273 A1 describes a device for retrieving data from radio frequency identification (RFID) tags.
KALMAN BOLLA ET AL: "A fast image processing based robot identification method for Surveyor SRV-1 robots", ADVANCED INTELLIGENT MECHATRONICS (AIM), 2011 IEEE/ASME INTERNATIONAL CONFERENCE ON, IEEE, 3 de julio de 2011 (2011-07-03), páginas 1003-1009, XP032053609, DOI: 10.1109/AIM. 2011.6027147 ISBN: 978-1 4577-0838-1KALMAN BOLLA ET AL: "A fast image processing based robot identification method for Surveyor SRV-1 robots", ADVANCED INTELLIGENT MECHATRONICS (AIM), 2011 IEEE / ASME INTERNATIONAL CONFERENCE ON, IEEE, July 3, 2011 (2011-07-03 ), pages 1003-1009, XP032053609, DOI: 10.1109 / AIM. 2011.6027147 ISBN: 978-1 4577-0838-1
El documento US 2008/027591 A1 describe un sistema para controlar más de un vehículo remoto.US 2008/027591 A1 describes a system for controlling more than one remote vehicle.
Los documentos WO 2013/094821 A1 y US 2014/371954 A1 describen un método y un sistema para el control remoto y una interfaz de usuario controlada a distancia. Según estas soluciones convencionales, la orientación del mando de enseñanza/teléfono inteligente se asigna a la orientación del punto central de la herramienta de robot, sin embargo, la realización del movimiento lineal del robot por el mando de enseñanza/teléfono inteligente es menos intuitivo. Además, el usuario normalmente cambia la configuración de enseñanza al establecer diversos parámetros en el teléfono inteligente/mando de enseñanza, lo que desvía la atención del operador del robot al que está enseñando y hace que la enseñanza sea menos cómoda.WO 2013/094821 A1 and US 2014/371954 A1 describe a method and system for remote control and a remote controlled user interface. According to these conventional solutions, the orientation of the teaching remote / smartphone is assigned to the orientation of the center point of the robot tool, however, the linear movement of the robot by the teaching remote / smartphone is less intuitive. Furthermore, the user normally changes the teaching settings by setting various parameters on the smartphone / teaching remote, which diverts the attention of the robot operator to the one teaching and makes teaching less comfortable.
Breve compendio de la invenciónBrief summary of the invention
Los problemas en el estado de la técnica son superados al menos parcialmente por el presente objeto.The problems in the state of the art are at least partially overcome by the present object.
Según un aspecto de la invención, un aparato portátil para controlar un robot incluye: un sensor de orientación, que está adaptado para medir la orientación de dicho aparato portátil; un dispositivo HMI, que está adaptado para detectar movimiento manual bidimensional en relación con dicho dispositivo HMI; y una unidad de procesamiento, que está adaptada para recibir una primera señal que representa dicha orientación medida de dicho aparato portátil y una segunda señal que representa dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI y que controla una parte de dicho robot para que se mueva en una dirección teniendo en cuenta dicha orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI.According to an aspect of the invention, a portable apparatus for controlling a robot includes: an orientation sensor, which is adapted to measure the orientation of said portable apparatus; an HMI device, which is adapted to detect two-dimensional manual movement relative to said HMI device; and a processing unit, which is adapted to receive a first signal representing said measured orientation of said portable apparatus and a second signal representing said two-dimensional manual movement detected in relation to said device. HMI and controlling a part of said robot to move in one direction taking into account said measured orientation of said portable apparatus and said two-dimensional manual movement detected in relation to said HMI device.
Según otro aspecto de la invención, un método para controlar manualmente un robot con un aparato portátil incluye: medir la orientación de dicho aparato portátil; detectar movimiento manual bidimensional en relación con un dispositivo HMI de dicho aparato portátil; controlar una parte de dicho robot para que se mueva en una dirección teniendo en cuenta dicha orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho robot; recibir una velocidad del movimiento de dicha parte de dicho robot (10) desde un controlador de dicho robot (10) y juzgar si un factor de escala entre la velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI (15) y la del movimiento de dicha parte de dicho robot está en un intervalo admisible.According to another aspect of the invention, a method of manually controlling a robot with a portable apparatus includes: measuring the orientation of said portable apparatus; detecting two-dimensional manual movement in relation to an HMI device of said portable apparatus; controlling a part of said robot to move in one direction taking into account said measured orientation of said portable apparatus and said two-dimensional manual movement detected in relation to said HMI device of said robot; receiving a speed of movement of said part of said robot (10) from a controller of said robot (10) and judging whether a scale factor between the speed of said two-dimensional manual movement detected in relation to said HMI device (15) and the The movement of said part of said robot is in an admissible range.
Al tener el aparato portátil y el método del mismo como se explica en la presente memoria, el movimiento manual bidimensional en el panel táctil se integra con la orientación del aparato portátil y el robot mapea una integración de estos, lo que hace posible definir una ruta en espacio tridimensional para desplazar/enseñar los movimientos del robot en tres dimensiones. Esto se vuelve más intuitivo que la realización del movimiento lineal del robot por la orientación portátil.By having the handheld and its method as explained herein, two-dimensional manual movement on the touchpad integrates with the orientation of the handheld and the robot maps an integration of these, making it possible to define a route in three-dimensional space to move / teach the movements of the robot in three dimensions. This becomes more intuitive than performing the linear motion of the robot by portable orientation.
Breve descripción de los dibujosBrief description of the drawings
El objeto de la invención se explicará con más detalle en el siguiente texto con referencia a realizaciones ejemplares preferidas que se ilustran en los dibujos, en los que:The object of the invention will be explained in more detail in the following text with reference to preferred exemplary embodiments illustrated in the drawings, in which:
la figura 1 muestra una disposición de un robot manipulado por un operador usando un aparato portátil 12;Figure 1 shows an arrangement of a robot manipulated by an operator using a portable apparatus 12;
la figura 2 ilustra un diagrama de bloques del aparato portátil según una realización de la presente invención; y Figure 2 illustrates a block diagram of the portable apparatus according to an embodiment of the present invention; and
la figura 3 muestra un diagrama de flujo simplificado para llevar a cabo un método para controlar manualmente un robot según una realización de la invención.Fig. 3 shows a simplified flow diagram for carrying out a method for manually controlling a robot according to an embodiment of the invention.
Los símbolos de referencia usados en los dibujos y sus significados se enumeran en forma resumida en la lista de símbolos de referencia. En principio, se proporcionan partes idénticas con los mismos símbolos de referencia en las figuras.The reference symbols used in the drawings and their meanings are listed in summary form in the list of reference symbols. In principle, identical parts with the same reference symbols are provided in the figures.
Realizaciones preferidas de la invenciónPreferred embodiments of the invention
La figura 1 muestra una disposición de un robot 10 manipulado por un operador 11 usando un aparato portátil 12. Un robot 10 comprende un manipulador 16 y un sistema de control 18 para controlar los movimientos del manipulador 16. El sistema de control 18 está ubicado en un ordenador externo 20, en este caso. El sistema de control 18 también puede ubicarse en medios informáticos en el aparato portátil 12 y/o en el manipulador 16. El manipulador 16 está adaptado para ser programado para ejecutar una pluralidad de tareas. Durante el movimiento manual y la programación del robot 10, el operador 11 del robot se comunica con el sistema de control 18 a través del aparato portátil 12. El operador 11 introduce comandos en el sistema de control 18, por ejemplo, para iniciar y detener un programa, o para moverse el manipulador 16 a una posición deseada. El sistema de control 18 comprende además medios de planificación de trayectoria para calcular cómo debe moverse el manipulador 16 para poder ejecutar las tareas programadas.Figure 1 shows an arrangement of a robot 10 manipulated by an operator 11 using a portable apparatus 12. A robot 10 comprises a manipulator 16 and a control system 18 to control the movements of the manipulator 16. The control system 18 is located in an external computer 20, in this case. The control system 18 can also be located on computer means in the portable apparatus 12 and / or in the manipulator 16. The manipulator 16 is adapted to be programmed to execute a plurality of tasks. During manual movement and programming of robot 10, robot operator 11 communicates with control system 18 through handset 12. Operator 11 enters commands in control system 18, for example, to start and stop. a program, or to move manipulator 16 to a desired position. The control system 18 further comprises path planning means for calculating how the manipulator 16 must move in order to execute the programmed tasks.
La figura 2 ilustra un diagrama de bloques del aparato portátil según una realización de la presente invención. El aparato portátil puede ser un teléfono inteligente, tableta, PDA, etc. El aparato portátil 12 se usa para manipular y programar manualmente el robot 10 interactuando con el sistema de control 18. El aparato portátil 12 comprende un sensor de orientación 13, un dispositivo HMI 15 (interfaz hombre-máquina) y una unidad de procesamiento 17. La orientación el sensor 21 está adaptado para medir la orientación del aparato portátil 12, por ejemplo, puede ser un magnetómetro tridireccional o una combinación de un acelerómetro tridireccional y un giroscopio tridireccional. El dispositivo HMI 15 está adaptado para detectar movimiento manual bidimensional en relación con el dispositivo HMI 15; por ejemplo, el dispositivo h M i puede comprender una unidad de entrada como un panel táctil que rastrea el movimiento de uno o más dedos del operador 11 en dos grados de libertad. La unidad de procesamiento 17, por ejemplo un procesador o una unidad lógica programable, está adaptada para recibir una primera señal FS que representa la orientación medida del aparato portátil 12 y una segunda señal SS que representa el movimiento manual bidimensional detectado en relación con dicho dispositivo HM115 y controlar una parte del robot 10 para que se mueva en una dirección teniendo en cuenta la orientación medida del aparato portátil 12 y el movimiento manual bidimensional detectado en relación con el dispositivo HMI 15. Una parte del robot 10, por ejemplo, una herramienta montada en la muñeca del robot 10 (convencionalmente conocida como TCP o punto central de la herramienta) o una articulación del robot 10, se puede controlar moviendo uno o dos dedos sobre el dispositivo HMI 15 del aparato portátil 12, por ejemplo, un panel táctil. El desplazamiento en el panel táctil con el movimiento de los dedos está limitado a dos dimensiones, que es detectado por el dispositivo HMI 15. Este dispositivo HMI 15 también envía el movimiento bidimensional detectado a la unidad de procesamiento 17 del aparato portátil 12; además, se introducen tres dimensiones adicionales cambiando la orientación (es decir, el gesto) del aparato portátil 12 que es medido mediante el sensor de orientación 13 del aparato portátil 12 y la medición también se envía a la unidad de procesamiento 17 del aparato portátil 12. La unidad de procesamiento 17 considera así el movimiento bidimensional de los dedos sobre el panel táctil y la medición de la orientación tridimensional del aparato portátil 12 y los transforma en una trayectoria tridimensional en el mundo real. Por ejemplo, si el aparato portátil 12 se sostendrá verticalmente y el operador 11 moverá el dedo hacia arriba sobre el panel táctil 15, el robot 10 moverá el TCP o la articulación hacia arriba, y viceversa. Si el operador 12 quiere hacer un movimiento hacia adelante, debe orientar el aparato portátil 12 horizontalmente y mover el dedo hacia adelante en la pantalla táctil 15, y viceversa. Al tener el aparato portátil para controlar el robot, el movimiento manual bidimensional en el panel táctil se integra con la orientación del aparato portátil 12 y el robot mapea una integración de estos, lo que hace posible definir una trayectoria en un espacio tridimensional para desplazar/enseñar los movimientos del robot en tres dimensiones. Esto se vuelve más intuitivo que la realización del movimiento lineal del robot por la orientación portátil.Fig. 2 illustrates a block diagram of the portable apparatus according to an embodiment of the present invention. The portable device can be a smartphone, tablet, PDA, etc. The portable apparatus 12 is used to manually manipulate and program the robot 10 interacting with the control system 18. The portable apparatus 12 comprises an orientation sensor 13, an HMI device 15 (human-machine interface) and a processing unit 17. Orientation Sensor 21 is adapted to measure the orientation of portable apparatus 12, for example, it can be a three-way magnetometer or a combination of a three-way accelerometer and a three-way gyroscope. The HMI device 15 is adapted to detect two-dimensional manual movement relative to the HMI device 15; for example, the device h M i may comprise an input unit such as a touch panel that tracks the movement of one or more fingers of the operator 11 in two degrees of freedom. The processing unit 17, for example a processor or a programmable logic unit, is adapted to receive a first FS signal representing the measured orientation of the portable apparatus 12 and a second SS signal representing the two-dimensional manual movement detected in relation to said device HM115 and controlling a part of the robot 10 to move in one direction taking into account the measured orientation of the portable apparatus 12 and the two-dimensional manual movement detected in relation to the HMI device 15. A part of the robot 10, for example a tool mounted on the wrist of the robot 10 (conventionally known as TCP or tool center point) or a joint of the robot 10, can be controlled by moving one or two fingers on the HMI device 15 of the portable apparatus 12, for example a touchpad . The movement on the touch panel with the movement of the fingers is limited to two dimensions, which is detected by the HMI device 15. This HMI device 15 also sends the detected two-dimensional movement to the processing unit 17 of the portable apparatus 12; in addition, three additional dimensions are introduced by changing the orientation (i.e. the gesture) of the portable apparatus 12 which is measured by the orientation sensor 13 of the portable apparatus 12 and the measurement is also sent to the processing unit 17 of the portable apparatus 12. The processing unit 17 thus considers the two-dimensional movement of the fingers on the touchpad and the measurement of the three-dimensional orientation of portable apparatus 12 and transforms them into a three-dimensional path in the real world. For example, if the portable apparatus 12 will be held vertically and the operator 11 will move his finger upwards on the touch panel 15, the robot 10 will move the TCP or the joint upwards, and vice versa. If the operator 12 wants to make a forward movement, he must orient the portable apparatus 12 horizontally and move his finger forward on the touch screen 15, and vice versa. By having the portable apparatus to control the robot, the two-dimensional manual movement on the touch panel integrates with the orientation of the portable apparatus 12 and the robot maps an integration of these, making it possible to define a path in a three-dimensional space to move / teach robot movements in three dimensions. This becomes more intuitive than performing the linear motion of the robot by portable orientation.
Preferiblemente, la unidad de procesamiento 17 del aparato portátil 12 está adaptada además para controlar la parte del robot 10 (por ejemplo, el TCP de la articulación del robot) para moverse en una dirección correspondiente a una combinación de la orientación medida del aparato portátil 12 y un dirección del movimiento manual bidimensional detectado en relación con el dispositivo HMI 15 y en una velocidad correspondiente a la velocidad del movimiento manual bidimensional detectado en relación con el dispositivo HMI 15.Preferably, the processing unit 17 of the portable apparatus 12 is further adapted to control the part of the robot 10 (for example, the TCP of the robot joint) to move in a direction corresponding to a combination of the measured orientation of the portable apparatus 12 and a direction of the detected two-dimensional manual movement relative to the HMI device 15 and at a speed corresponding to the speed of the detected two-dimensional manual movement relative to the HMI device 15.
Por ejemplo, el sensor de orientación 13 del aparato portátil 12 está adaptado además para medir la orientación de un primer sistema de coordenadas tridimensional (X1, Y1, Z1) en uno, dos o tres grados de libertad, que se define en relación con el aparato portátil 12 y que sigue el movimiento del aparato portátil 12. El robot 10 es operable en un segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) fijado al robot 10. El dispositivo HMI 15 está adaptado además para detectar el movimiento manual bidimensional en relación con el dispositivo HMI 15 en el primer sistema de coordenadas tridimensional (X1, Y1, Z1), por ejemplo, un panel táctil dispuesto para detectar la entrada del dedo del operador en dos grados de libertad; la unidad de procesamiento 17 está adaptada además para determinar una orientación relativa entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2 , Y2, Z2) basándose en mediciones de orientación del sensor de orientación 13 y la orientación fija del segundo sistema de coordenadas tridimensional, calcular una transformación entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) basándose en la orientación relativa entre estos sistemas de coordenadas y transformar el movimiento manual bidimensional detectado en relación con el dispositivo HMI 15 en los movimientos correspondientes de la parte del manipulador en el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) basándose en la transformación calculada. El espacio de trabajo del manipulador 16 del robot 10 se define para mover el manipulador 16 entre diferentes posiciones en el espacio de trabajo de manera controlada cuando se mueve manualmente el robot 10, por ejemplo para mover el TCP de la herramienta sujetada por el robot o la articulación del manipulador 16 (la parte del robot). Estas posiciones en el espacio de trabajo del robot 10 se definen mediante el uso de un sistema de coordenadas, por ejemplo, un sistema de coordenadas cartesianas, que tiene un origen y las direcciones de los ejes definidos en relación con el robot 10 o el aparato portátil 12 o el dispositivo HMI 15 del aparato portátil 12. Los manipuladores generalmente están adaptados para ser manejados en hasta seis grados de libertad (DOF), lo que en este caso significa tres grados de libertad traslacional representados por el eje X, Y, Z y tres grados de libertad rotacional representados por rotaciones alrededor del eje X, Y, Z. En este caso, el primer sistema de coordenadas tridimensional (X1, Y1, Z1) se define en relación con el aparato portátil 12 de modo que sigue los movimientos del aparato portátil 12 (tal como un teléfono inteligente o tableta), el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2) se define fijado al manipulador 16 del robot 10. Los movimientos de diferentes partes del manipulador se definen entonces en el segundo sistema de coordenadas (X2, Y2 , Z2), y el movimiento manual en relación con el dispositivo HMI se define en el primer sistema de coordenadas tridimensional (X1, Y1, Z1).For example, the orientation sensor 13 of the portable apparatus 12 is further adapted to measure the orientation of a first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) at one, two or three degrees of freedom, which is defined in in relation to the portable apparatus 12 and which follows the movement of the portable apparatus 12. The robot 10 is operable in a second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) attached to the robot 10. The HMI device 15 is further adapted for detecting two-dimensional manual movement relative to the HMI device 15 in the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ), for example, a touchpad arranged to detect operator finger input at two degrees of freedom; processing unit 17 is further adapted to determine a relative orientation between the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) and the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) based on measurements orientation of the orientation sensor 13 and the fixed orientation of the second three-dimensional coordinate system, calculate a transformation between the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) and the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) based on the relative orientation between these coordinate systems and transforming the detected two-dimensional manual movement relative to the HMI device 15 into the corresponding movements of the manipulator part in the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) based on the calculated transformation. The workspace of the manipulator 16 of the robot 10 is defined to move the manipulator 16 between different positions in the workspace in a controlled manner when the robot 10 is manually moved, for example to move the TCP of the tool held by the robot or the joint of the manipulator 16 (the robot part). These positions in the workspace of the robot 10 are defined by the use of a coordinate system, for example a Cartesian coordinate system, having an origin and the directions of the axes defined in relation to the robot 10 or the apparatus. portable 12 or the HMI 15 device of the portable apparatus 12. The manipulators are generally adapted to be operated with up to six degrees of freedom (DOF), which in this case means three translational degrees of freedom represented by the X, Y, Z axis and three rotational degrees of freedom represented by rotations about the X, Y, Z axis. In this case, the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) is defined in relation to the portable apparatus 12 so that follows the movements of the portable apparatus 12 (such as a smartphone or tablet), the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ) is defined fixed to the manipulator 16 of the robot 10. The movements of dif Parts of the manipulator are then defined in the second coordinate system (X 2 , Y 2 , Z 2 ), and manual movement relative to the HMI device is defined in the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ).
Durante una tarea de movimiento manual, el operador 11 puede mover el manipulador 16 en diferentes direcciones y, por lo tanto, el operador generalmente sostiene el aparato portátil en diversos gestos y mueve su dedo sobre el panel táctil del aparato portátil. El operador 11 provoca así una reorientación del primer sistema de coordenadas tridimensional (X1, Y1, Z1) en relación con el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2), porque el primer sistema de coordenadas (X1, Y1, Z1) se define en relación con el aparato portátil 12.During a manual movement task, operator 11 can move manipulator 16 in different directions, and therefore, the operator generally holds the portable apparatus in various gestures and moves his finger on the touch panel of the portable apparatus. Operator 11 thus causes a reorientation of the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) relative to the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ), because the first coordinate system ( X 1 , Y 1 , Z 1 ) is defined in relation to the portable apparatus 12.
Para determinar esta reorientación del aparato portátil 12, la unidad de procesamiento 17 está adaptada para determinar la orientación relativa entre el primer sistema de coordenadas tridimensional (X1, Y1, Z1) y el segundo sistema de coordenadas tridimensional (X2, Y2 , Z2), es decir cómo se ha hecho girar el primer sistema de coordenadas tridimensional (X1, Y1, Z1) en relación con el segundo sistema de coordenadas tridimensional (X2, Y2, Z2). La unidad de procesamiento 17 del aparato portátil 12 está adaptada además para actualizar repetidamente el primer sistema de coordenadas tridimensional de modo que cada eje del primer sistema de coordenadas tridimensional corresponda a un eje X2, Y2, Z2 correspondiente en el segundo sistema de coordenadas (X2 , Y2 , Z2). Esto se hace calculando la transformación del primer sistema de coordenadas (X1, Y1, Z1) al segundo sistema de coordenadas (X2, Y2 , Z2) y aplicando esta transformación a cada movimiento del aparato portátil medido en el primer sistema de coordenadas (X1, Y1, Z1). La transformación incluye información sobre la rotación, pero no la traslación entre los sistemas de coordenadas. En cuanto a la velocidad del movimiento del robot, por ejemplo, el dedo del operador 11 se mueve con respecto al panel táctil a una velocidad de 0,1 m/s, y el robot se controla para moverse a 0,1 m/s multiplicado por una relación de escala predeterminada. To determine this reorientation of the portable apparatus 12, the processing unit 17 is adapted to determine the relative orientation between the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) and the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ), that is, how the first three-dimensional coordinate system (X 1 , Y 1 , Z 1 ) has been rotated relative to the second three-dimensional coordinate system (X 2 , Y 2 , Z 2 ). The processing unit 17 of the portable apparatus 12 is further adapted to repeatedly update the first three-dimensional coordinate system so that each axis of the first three-dimensional coordinate system corresponds to a corresponding X 2 , Y 2 , Z 2 axis in the second coordinates (X 2 , Y 2 , Z 2 ). This is done by calculating the transformation from the first coordinate system (X 1 , Y 1 , Z 1 ) to the second coordinate system (X 2 , Y 2 , Z 2 ) and applying this transformation to each movement of the portable device measured in the first coordinate system (X 1 , Y 1 , Z 1 ). The transformation includes information about the rotation, but not the translation between the coordinate systems. Regarding the speed of the robot movement, for example, the operator's finger 11 moves with respect to the touch panel at a speed of 0.1 m / s, and the robot is controlled to move at 0.1 m / s multiplied by a predetermined scale ratio.
Como se muestra en la figura 2, el aparato portátil 12 incluye además un lector de marcador de identificación 19 que está adaptado para recibir señal que representa información sobre la parte del robot 10 desde un marcador de identificación externo. El marcador de identificación puede ser una etiqueta RFID (identificación por radiofrecuencia), una etiqueta NFC (comunicación de campo cercano) o una etiqueta de código QR (código de respuesta rápida). La unidad de procesamiento 17 está adaptada además para seleccionar la parte del robot entre varias partes del robot 10 basándose en la información del marcador de identificación, por ejemplo, para seleccionar la parte del robot para desplazar/enseñar. Preferiblemente, el marcador de identificación que registra la información sobre la parte del robot está unido con dicha parte del robot. Por ejemplo, como se muestra en la figura 1, el marcador de identificación para la primera articulación está unido a la primera articulación. Esto permite al operador establecer el objetivo de desplazamiento/enseñanza de manera más intuitiva. En particular, el operador 11 toca la etiqueta NFC en la primera articulación del robot con el aparato portátil 12. De ese modo, el operador puede controlar manualmente la primera articulación del manipulador 16 del robot 10 usando el aparato portátil 12. Como se describió anteriormente, la primera articulación sigue el cambio de orientación del aparato portátil 12. Cuando el operador 11 toca la segunda articulación con el aparato portátil 12, la parte del robot que podría moverse cambia de la primera articulación a la segunda articulación, luego la segunda articulación sigue el cambio de orientación del aparato portátil 12.As shown in Figure 2, the portable apparatus 12 further includes an identification marker reader 19 which is adapted to receive a signal representing information about the part of the robot 10 from an external identification marker. The identification marker can be an RFID (radio frequency identification) tag, an NFC (near field communication) tag, or a QR code (quick response code) tag. Processing unit 17 is further adapted to select the robot part from among several robot parts 10 based on the information from the identification marker, for example to select the robot part to move / teach. Preferably, the identification marker that records the information on the part of the robot is connected to said part of the robot. For example, as shown in Figure 1, the identification marker for the first joint is attached to the first joint. This allows the operator to set the shift / teach target more intuitively. In particular, operator 11 touches the NFC tag on the robot's first link with handheld device 12. Thus, the operator can manually control the first joint of robot manipulator 16 using handset 12. As described above , the first joint follows the orientation change of the portable apparatus 12. When the operator 11 touches the second joint with the portable apparatus 12, the part of the robot that could move changes from the first joint to the second joint, then the second joint follows changing the orientation of the portable device 12.
Como alternativa, es posible seleccionar diferentes articulaciones y modos de desplazamiento basándose en la información recodificada por el marcador de identificación: grupo de articulaciones, movimiento lineal o reorientación. Aunque el aparato portátil se puede hacer girar en tres dimensiones (inclinación, guiñada, balanceo), solo se usa la rotación a lo largo de una de las direcciones para mapear a un eje del robot, y la rotación en otras direcciones se ignora. Al usar técnicas de identificación, la configuración de enseñanza se puede cambiar sin usar ninguna pantalla. El operador no necesita vigilar al robot todo el tiempo. No necesita seleccionar nada del menú, sino que simplemente mueve el dispositivo portátil a cierta área con respecto al robot, lo que es más rápido y no requiere mucha atención del operador.As an alternative, it is possible to select different joints and displacement modes based on the information recoded by the identification marker: joint group, linear movement or reorientation. Although the handheld can be rotated in three dimensions (tilt, yaw, roll), only rotation along one of the directions is used to map to a robot axis, and rotation in other directions is ignored. By using identification techniques, the teaching settings can be changed without using any screen. The operator does not need to monitor the robot all the time. You don't need to select anything from the menu, but simply move the handheld device to a certain area relative to the robot, which is faster and doesn't require much operator attention.
Preferiblemente, el lector de marcador de identificación 19 está adaptado para recibir una señal que representa información sobre varios robots desde etiquetas de marcador de identificación externo, y la unidad de procesamiento 17 está adaptada además para seleccionar uno de los robots como maestro y los otros como esclavos.Preferably, the identification marker reader 19 is adapted to receive a signal representing information about various robots from external identification marker labels, and the processing unit 17 is further adapted to select one of the robots as master and the others as slaves.
Preferiblemente, la unidad de procesamiento 17 está adaptada además para recibir una tercera señal que representa la velocidad del movimiento de la parte del robot 10 desde el sistema de control 18 del robot 10 y juzgar si un factor de escala entre la velocidad del movimiento manual bidimensional detectado en relación con dicho dispositivo HMI 15 y la del movimiento de la parte del robot 10 está dentro de un intervalo admisible. La unidad de procesamiento 17 está adaptada además para recibir una cuarta señal desde el sistema de control 18 del robot 10 y juzgar si la posición está en colisión con un objeto externo, si hay un componente interno que funciona mal, el robot está más cerca de estar o ya está fuera de alcance. El dispositivo HMI está adaptado además para enviar sonido, vibrar o cambiar su color de fondo para indicar diversas condiciones de dicho robot 10 como se indicó anteriormente.Preferably, the processing unit 17 is further adapted to receive a third signal representing the speed of movement of the robot part 10 from the control system 18 of the robot 10 and to judge whether a scale factor between the two-dimensional manual movement speed detected in relation to said HMI device 15 and that of the movement of the robot part 10 is within an allowable range. The processing unit 17 is further adapted to receive a fourth signal from the control system 18 of the robot 10 and judge whether the position is colliding with an external object, if there is a malfunctioning internal component, the robot is closer to be or is already out of reach. The HMI device is further adapted to send sound, vibrate, or change its background color to indicate various conditions of said robot 10 as indicated above.
Preferiblemente, el dispositivo HMI 15 está adaptado además para visualizar información del robot basándose en una señal del robot recibida desde el sistema de control 18 del robot 10, tal como posición real, velocidad real, aceleración real, par real, E/S, datos internos del estado del robot (por ejemplo, corriente del motor), etc. Al tener la función de visualización, el operador puede juzgar si hay un mal funcionamiento de un componente interno. Esto implica que la unidad de procesamiento 17 está adaptada además para recibir más de una señal que representa información del robot diferente.Preferably, the HMI device 15 is further adapted to display robot information based on a robot signal received from robot 10 control system 18, such as actual position, actual speed, actual acceleration, actual torque, I / O, data internal status of the robot (for example, motor current), etc. By having the display function, the operator can judge whether there is a malfunction of an internal component. This implies that the processing unit 17 is further adapted to receive more than one signal representing information from the different robot.
La figura 3 muestra un diagrama de flujo simplificado para llevar a cabo un método para controlar manualmente un robot según una realización de la invención. El método realiza repetidamente las etapas descritas en el siguiente párrafo.Figure 3 shows a simplified flow diagram for carrying out a method for manually controlling a robot according to an embodiment of the invention. The method repeatedly performs the steps described in the next paragraph.
Una medición de la orientación del aparato portátil, bloque 100. En la práctica, se define una posición inicial con una orientación conocida relativa al segundo sistema de coordenadas tridimensional. Después de realizar un autoguiado, el sensor de orientación mide la reorientación en relación con la posición inicial. La medición de la orientación del aparato portátil puede realizarse midiendo la orientación de un primer sistema de coordenadas tridimensional que se define en relación con dicho aparato portátil y que sigue el movimiento de dicho aparato portátil. Se detecta movimiento manual bidimensional en relación con un dispositivo HMI del aparato portátil, bloque 110. Por ejemplo, el movimiento manual bidimensional en relación con el dispositivo HMI del aparato portátil se detecta en el primer sistema de coordenadas tridimensional. Una parte de dicho robot se controla para que se mueva en una dirección teniendo en cuenta la orientación medida de dicho aparato portátil y dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho robot, bloque 120. La parte de dicho robot se controla para que se mueva en una velocidad correspondiente a una velocidad de dicho movimiento manual bidimensional detectado en relación con dicho dispositivo HMI de dicho aparato portátil, bloque 130.A measurement of the orientation of the portable apparatus, block 100. In practice, an initial position is defined with a known orientation relative to the second three-dimensional coordinate system. After self-guiding, the orientation sensor measures the reorientation relative to the starting position. The measurement of the orientation of the portable apparatus can be performed by measuring the orientation of a first three-dimensional coordinate system which is defined in relation to said portable apparatus and which follows the movement of said portable apparatus. Two-dimensional manual movement is detected relative to an HMI device of the portable apparatus, block 110. For example, two-dimensional manual movement relative to the HMI device of the portable apparatus is detected in the first three-dimensional coordinate system. A part of said robot is controlled to move in one direction taking into account the measured orientation of said portable apparatus and said two-dimensional manual movement detected in relation to said HMI device of said robot, block 120. The part of said robot is controlled to move at a speed corresponding to a speed of said detected two-dimensional manual movement relative to said HMI device of said portable apparatus, block 130.
Aunque la presente invención se ha descrito sobre la base de algunas realizaciones preferidas, los expertos en la técnica deben apreciar que esas realizaciones de ninguna manera deben limitar el alcance de la presente invención. Sin apartarse del alcance de la presente invención, cualquier variación y modificación de las realizaciones debe ser comprendida por aquellos expertos en la técnica y, por lo tanto, estar dentro del alcance de la presente invención que se define en las reivindicaciones adjuntas. Although the present invention has been described on the basis of some preferred embodiments, those skilled in the art should appreciate that those embodiments should in no way limit the scope of the present invention. Without departing from the scope of the present invention, any variations and modifications of the embodiments should be understood by those skilled in the art and, therefore, be within the scope of the present invention as defined in the appended claims.
Claims (14)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/074822 WO2015149360A1 (en) | 2014-04-04 | 2014-04-04 | Portable apparatus for controlling robot and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2759082T3 true ES2759082T3 (en) | 2020-05-07 |
Family
ID=54239329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14887969T Active ES2759082T3 (en) | 2014-04-04 | 2014-04-04 | Portable device to control a robot and its method |
Country Status (5)
Country | Link |
---|---|
US (1) | US10166673B2 (en) |
EP (1) | EP3126936B1 (en) |
CN (1) | CN105960623B (en) |
ES (1) | ES2759082T3 (en) |
WO (1) | WO2015149360A1 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106483885A (en) * | 2016-11-24 | 2017-03-08 | 南京熊猫电子股份有限公司 | A kind of PC tool system based on robot |
WO2018222762A2 (en) * | 2017-05-30 | 2018-12-06 | Sisu Devices Llc | Robotic point capture and motion control |
US10678338B2 (en) | 2017-06-09 | 2020-06-09 | At&T Intellectual Property I, L.P. | Determining and evaluating data representing an action to be performed by a robot |
CN207224024U (en) * | 2017-09-05 | 2018-04-13 | 杭州亚美利嘉科技有限公司 | The robot positioned by the use of magnetic as direction |
CN109977708A (en) * | 2017-12-28 | 2019-07-05 | 沈阳新松机器人自动化股份有限公司 | A kind of 2 D code system and mobile platform teaching system for mobile platform teaching |
CN108466266A (en) * | 2018-03-22 | 2018-08-31 | 山东农业大学 | Mechanical arm motion control method and system |
JP6693538B2 (en) | 2018-05-16 | 2020-05-13 | 株式会社安川電機 | Operation device, control system, control method, and program |
JP6773084B2 (en) * | 2018-07-02 | 2020-10-21 | 株式会社安川電機 | Motion teaching device, robot system and motion teaching method |
DE102018126582A1 (en) * | 2018-10-25 | 2020-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Test device for a computer program and method for testing a computer program |
CN109927029A (en) * | 2019-03-27 | 2019-06-25 | 飞马智科信息技术股份有限公司 | A kind of method of controlling operation of manipulator |
CN110253587B (en) * | 2019-07-15 | 2020-11-27 | 珠海格力电器股份有限公司 | Robot control method, system, storage medium and robot |
US20210216049A1 (en) * | 2020-01-09 | 2021-07-15 | Thoughtforge Inc. | Autonomous control system and method using embodied homeostatic feedback in an operating environment |
JPWO2022118471A1 (en) * | 2020-12-04 | 2022-06-09 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE508176C2 (en) * | 1995-03-29 | 1998-09-07 | Asea Brown Boveri | Device and method for calibrating a multi-axis industrial robot |
JP4014662B2 (en) * | 1995-09-18 | 2007-11-28 | ファナック株式会社 | Robot teaching operation panel |
JP3841439B2 (en) * | 1996-07-24 | 2006-11-01 | ファナック株式会社 | Robot jog feed method |
US6016385A (en) * | 1997-08-11 | 2000-01-18 | Fanu America Corp | Real time remotely controlled robot |
US6167464A (en) * | 1998-09-23 | 2000-12-26 | Rockwell Technologies, Llc | Mobile human/machine interface for use with industrial control systems for controlling the operation of process executed on spatially separate machines |
US6388655B1 (en) * | 1999-11-08 | 2002-05-14 | Wing-Keung Leung | Method of touch control of an input device and such a device |
KR100437372B1 (en) | 2001-04-18 | 2004-06-25 | 삼성광주전자 주식회사 | Robot cleaning System using by mobile communication network |
CN100367171C (en) * | 2005-01-19 | 2008-02-06 | 光宝科技股份有限公司 | Displacement controlled portable electronic device |
US7626571B2 (en) * | 2005-12-22 | 2009-12-01 | The Board Of Trustees Of The Leland Stanford Junior University | Workspace expansion controller for human interface systems |
US8577538B2 (en) * | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
ATE410272T1 (en) * | 2006-02-17 | 2008-10-15 | Abb Research Ltd | INDUSTRIAL ROBOT SYSTEM |
CN101020312A (en) * | 2007-03-13 | 2007-08-22 | 叶琛 | Robot transmission method and unit based on network function |
TWM328364U (en) * | 2007-07-19 | 2008-03-11 | Univ Dayeh | Device for collecting data of radio frequency identification |
EP2055446A1 (en) | 2007-10-31 | 2009-05-06 | Abb As | A portable robot control apparatus and a method for controlling a movement of a robot |
GB0821482D0 (en) | 2008-11-25 | 2008-12-31 | Rockwell Automation Ltd | Access control |
US8310367B1 (en) * | 2009-05-18 | 2012-11-13 | Empire Technology Development Llc | Methods of implanting electronics in objects and objects with implanted electronics |
US8339364B2 (en) * | 2010-02-03 | 2012-12-25 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
SE1050763A1 (en) * | 2010-07-08 | 2010-07-12 | Abb Research Ltd | A method for calibration of a mobile robot |
KR101159475B1 (en) * | 2010-12-10 | 2012-06-25 | 숭실대학교산학협력단 | Apparatus for robot navigation control using emg and acceleration sensor and method thereof |
EP2490395A1 (en) | 2011-02-14 | 2012-08-22 | Nxp B.V. | Method and system for access control for near field communication |
CN102350700A (en) * | 2011-09-19 | 2012-02-15 | 华南理工大学 | Method for controlling robot based on visual sense |
KR101410416B1 (en) * | 2011-12-21 | 2014-06-27 | 주식회사 케이티 | Remote control method, system and user interface |
US9505130B2 (en) * | 2012-07-13 | 2016-11-29 | General Electric Company | System and method for performing remote welding operations on an apparatus |
US8498572B1 (en) | 2012-08-24 | 2013-07-30 | Google Inc. | Home automation device pairing by NFC-enabled portable device |
US9221170B2 (en) * | 2013-06-13 | 2015-12-29 | GM Global Technology Operations LLC | Method and apparatus for controlling a robotic device via wearable sensors |
CN103279206A (en) * | 2013-06-15 | 2013-09-04 | 苏州时运机器人有限公司 | Robot control system with gesture-sensing teaching machine |
US10888998B2 (en) * | 2013-10-07 | 2021-01-12 | Abb Schweiz Ag | Method and device for verifying one or more safety volumes for a movable mechanical unit |
US9387589B2 (en) * | 2014-02-25 | 2016-07-12 | GM Global Technology Operations LLC | Visual debugging of robotic tasks |
US9958862B2 (en) * | 2014-05-08 | 2018-05-01 | Yaskawa America, Inc. | Intuitive motion coordinate system for controlling an industrial robot |
JP6631279B2 (en) * | 2015-03-19 | 2020-01-15 | 株式会社デンソーウェーブ | Robot operation device, robot operation program |
-
2014
- 2014-04-04 EP EP14887969.5A patent/EP3126936B1/en active Active
- 2014-04-04 WO PCT/CN2014/074822 patent/WO2015149360A1/en active Application Filing
- 2014-04-04 CN CN201480074573.7A patent/CN105960623B/en active Active
- 2014-04-04 ES ES14887969T patent/ES2759082T3/en active Active
-
2016
- 2016-08-12 US US15/235,719 patent/US10166673B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3126936A4 (en) | 2018-03-28 |
EP3126936A1 (en) | 2017-02-08 |
US10166673B2 (en) | 2019-01-01 |
EP3126936B1 (en) | 2019-09-04 |
CN105960623B (en) | 2019-02-05 |
US20160346921A1 (en) | 2016-12-01 |
WO2015149360A1 (en) | 2015-10-08 |
CN105960623A (en) | 2016-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2759082T3 (en) | Portable device to control a robot and its method | |
US11420330B2 (en) | Robot control device, robot, and simulation device | |
CN109313417B (en) | Aiding in robot positioning | |
US10759051B2 (en) | Architecture and methods for robotic mobile manipulation system | |
US20150321351A1 (en) | Intuitive Motion Coordinate System for Controlling an Industrial Robot | |
KR101876845B1 (en) | Robot control apparatus | |
US10514687B2 (en) | Hybrid training with collaborative and conventional robots | |
EP1795315A1 (en) | Hand-held control device for an industrial robot | |
ES2961110T3 (en) | Method, device and computer-readable medium for mobile device management of collaborative industrial robots | |
US9962835B2 (en) | Device for dynamic switching of robot control points | |
US10232519B2 (en) | Robot and method of controlling the same | |
JP6409605B2 (en) | Robot system | |
US20220241980A1 (en) | Object-Based Robot Control | |
KR20110077556A (en) | Teaching system and method for robots | |
Evans III et al. | Control solutions for robots using Android and iOS devices | |
Saleheen et al. | Gesture-Controlled Robotic Arm | |
WO2017032407A1 (en) | An industrial robot system and a method for programming an industrial robot | |
Mishra et al. | Smart device based gesture controller for industrial applications | |
Landa-Hurtado et al. | Kinect-based trajectory teaching for industrial robots | |
Patil et al. | Wireless hand gesture robot using accelerometer | |
WO2024018093A1 (en) | Method and device for monitoring a task of a tool of a robotic arm | |
Ditthapron et al. | Object Manipulation and Control with Robotic Hand | |
ECE et al. | Object Manipulation and Control with Robotic Hand | |
Noor et al. | Performance Analysis of a 5-DOF Robotic Arm by Implementing a Graphical User Interface | |
Yatmono et al. | Developing Design of Mobile Robot Navigation System based on Android |