ES2603205T3 - Procedimiento para manejar un robot industrial - Google Patents

Procedimiento para manejar un robot industrial Download PDF

Info

Publication number
ES2603205T3
ES2603205T3 ES13715667.5T ES13715667T ES2603205T3 ES 2603205 T3 ES2603205 T3 ES 2603205T3 ES 13715667 T ES13715667 T ES 13715667T ES 2603205 T3 ES2603205 T3 ES 2603205T3
Authority
ES
Spain
Prior art keywords
touch screen
coordinate system
robot
finger
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13715667.5T
Other languages
English (en)
Inventor
Franz Som
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Reis Group Holding GmbH and Co KG
Original Assignee
Reis Group Holding GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Reis Group Holding GmbH and Co KG filed Critical Reis Group Holding GmbH and Co KG
Application granted granted Critical
Publication of ES2603205T3 publication Critical patent/ES2603205T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

Procedimiento para manejar un robot industrial (12) mediante un dispositivo de mando (10) que comprende la etapa de procedimiento de tocar un elemento de mando virtual de una pantalla táctil (20) de una interfaz gráfica de usuario, en el que, en caso de tocar el elemento de mando virtual, se desencadena una función asignada al elemento de mando, y en el que se realiza el movimiento del robot industrial (12) con respecto a un sistema de coordenadas de robot y el movimiento sobre la pantalla táctil (20) con respecto a un sistema de coordenadas de pantalla, caracterizado por que el sistema de coordenadas de pantalla se recalibra tras un movimiento relativo del dispositivo de mando (10) con respecto al sistema de coordenadas de robot mediante un movimiento dirigido de un dedo de una persona operadora sobre la pantalla táctil (20), por que el recalibrado se activa mediante una operación de un elemento de mando virtual, por que el movimiento dirigido del dedo sobre la pantalla táctil (20) se detecta en una dirección seleccionada del sistema de coordenadas de robot y por que, tras levantar el dedo, se calcula una dirección vectorial usada para el recalibrado entre un primer punto de contacto y un punto de liberación.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Procedimiento para manejar un robot industrial
La invencion se refiere a un procedimiento para manejar un robot industrial mediante un dispositivo de mando que comprende la etapa de procedimiento de tocar un elemento de mando virtual de una pantalla tactil de una interfaz grafica de usuario, en el que, en caso de tocar el elemento de mando virtual, se desencadena una funcion asignada al elemento de mando, y en el que se realizan el movimiento del robot industrial con respecto a un sistema de coordenadas de robot y el movimiento sobre la pantalla tactil con respecto a un sistema de coordenadas de pantalla.
Un dispositivo para controlar un robot industrial en forma de un dispositivo de mando manual esta descrito en el documento DE 10 2010 039 540 A1. El dispositivo de mando manual se puede acoplar con un dispositivo de control de robot para programar o controlar el robot industrial.
El dispositivo de mando manual comprende un sistema electronico que comprende un microprocesador para poder comunicar con el dispositivo de control de robot. Ademas, el dispositivo de mando manual comprende una pantalla configurada como pantalla tactil, una tecla de parada de emergencia y un conmutador configurado como cierre. Para el movimiento manual, por ejemplo, de un brazo de robot, el dispositivo de mando manual comprende diferentes medios de entrada o medios de desplazamiento que se pueden accionar manualmente de manera independiente entre sf que, por ejemplo, estan configurados como raton 6D o como teclas. Mediante la pantalla tactil existe la posibilidad de asignar a cada uno de los medios de desplazamiento su propio sistema de coordenadas de referencia.
Sin embargo, en la forma de realizacion conocida, el control del robot industrial se realiza exclusivamente mediante los medios de entrada manualmente operables de modo que el dispositivo de mando manual es complicado con respecto a su fabricacion y propenso a fallos en el funcionamiento.
Un dispositivo adicional para manejar un robot industrial esta descrito en el documento DE 10 2010 025 781 A1. El dispositivo manual en forma de un telefono movil tiene una pantalla tactil que, por un lado, sirve como medio de salida para emitir informacion del dispositivo de control de robot, en particular para visualizar una interfaz de usuario, y, por otro lado, sirve como medio de entrada de instrucciones para introducir instrucciones de control mediante teclas.
El dispositivo manual esta fijado de manera liberable mediante un dispositivo de sujecion, tal como en principio es conocido, por ejemplo, por soportes para telefonos moviles en automoviles, en un dispositivo de seguridad portatil y esta unido con este mediante una interfaz USB. El dispositivo de entrada de seguridad tiene un boton de parada de emergencia, un pulsador de aprobacion y un conmutador de seleccion de modo operativo. Resulta inconveniente en esta forma de realizacion que una persona operadora se ve obligada siempre de mirar la pantalla tactil para la operacion segura de las teclas virtuales para evitar entradas erroneas. Lo mismo es valido en condiciones ambientales desfavorables tales como, por ejemplo, una incidencia intensa de la luz u oscuridad, que dificultanan una operacion de la pantalla tactil.
Del documento DE 10 2010 039 540 A1 se puede deducir un dispositivo de mando manual para el movimiento manual de un robot. El dispositivo de mando manual tiene medios de entrada y desplazamiento mecanicos que se asignan a sistemas de coordenadas de referencia para mover un brazo de robot.
El objeto del documento DE 10 2010 007 455 A1 es un sistema y procedimiento de deteccion y reconocimiento de gestos sin contacto en un espacio tridimensional.
La tesis doctoral de referencia de Mark John Micire: "Multi-Touch Interaction for Robot Command and Control', diciembre de 2010, se puede deducir un procedimiento para controlar un robot mediante una pantalla tactil. Mediante el movimiento de un dedo sobre la pantalla tactil se pueden controlar movimientos del robot.
Un dispositivo manual para controlar un robot se puede deducir del documento US 5 617 515 A. Mediante un ordenador se determina el posicionamiento del dispositivo manual con respecto a un sistema de coordenadas para poder controlar robots.
Un procedimiento y un dispositivo para programar un robot industrial se describe en el documento DE 10 2007 029 398 A1. A este respecto se orienta un dispositivo manual de programacion en el espacio de manera correspondiente a una orientacion deseada que debe adoptar un sistema de coordenadas a determinar.
Un dispositivo manual para manejar un robot es conocido por el documento EP 1 795 315 A1. En este se da a conocer un procedimiento de acuerdo con el preambulo de la reivindicacion 1 en el que se detecta el sistema de coordenadas del dispositivo manual con respecto a aquel del robot para realizar una transformacion con respecto al sistema de coordenadas.
5
10
15
20
25
30
35
40
45
50
55
60
65
Del documento DE 603 09 409 T2 se puede deducir un sistema para la programacion de un robot con un terminal de programacion portatil. A este respecto existe la posibilidad de recalibrar el sistema de coordenadas del dispositivo de mando tras un movimiento relativo del dispositivo de mando con respecto al robot mediante una introduccion manual de este movimiento relativo.
La presente invencion se basa en el objetivo de perfeccionar un procedimiento del tipo mencionado al inicio de modo que se aumente la seguridad en la operacion de un robot industrial.
Para conseguir el objetivo, la invencion preve fundamentalmente que el sistema de coordenadas de pantalla se recalibre tras un movimiento relativo del dispositivo de mando con respecto al sistema de coordenadas de robot mediante un movimiento dirigido de un dedo de una persona operadora sobre la pantalla tactil, que el recalibrado se active mediante la operacion de un elemento de mando virtual, que el movimiento dirigido del dedo sobre la pantalla tactil se detecte en una direccion seleccionada del sistema de coordenadas de robot y que, tras levantar el dedo, se calcule una direccion vectorial usada para el recalibrado entre un primer punto de contacto y un punto de liberacion.
En particular esta previsto que mediante el movimiento dirigido del dedo sobre la pantalla tactil se reproduzca la direccion seleccionada del sistema de coordenadas de robot correspondiente a un eje de base, tal como el eje X o Y, de un sistema de coordenadas cartesiano.
En un perfeccionamiento, la invencion preve que el eje de base se marque sobre una superficie de apoyo del robot como marca.
Con ayuda de la direccion vectorial calculada, la direccion seleccionada del sistema de coordenadas de robot y el vector Z comun se calcula una matriz de rotacion mediante la que, de aqrn en adelante, se transforman todos los movimientos del dedo sobre la pantalla tactil antes de que estos se envfen como especificacion de desplazamiento al dispositivo de control de robot.
La invencion esta caracterizada en particular por un procedimiento para manejar un robot industrial mediante un dispositivo de mando que comprende la etapa de procedimiento de tocar un elemento de mando virtual de una pantalla tactil de una interfaz grafica de usuario, en el que, en caso de tocar el elemento de mando virtual, se desencadena una funcion asignada al elemento de mando, y en el que se realizan el movimiento del robot industrial con respecto a un sistema de coordenadas de robot y el movimiento sobre la pantalla tactil con respecto a un sistema de coordenadas de pantalla, en el que el sistema de coordenadas de pantalla se recalibra tras un movimiento relativo del dispositivo de mando con respecto al sistema de coordenadas de robot mediante un movimiento dirigido del dedo de una persona operadora sobre la pantalla tactil al activarse el recalibrado mediante la operacion de un elemento de mando virtual, al detectarse el movimiento dirigido del dedo sobre la pantalla tactil en una direccion seleccionada del sistema de coordenadas de robot y al calcularse, tras levantar el dedo, una direccion vectorial entre un primer punto de contacto y un punto de liberacion, y al calcularse con ayuda de la direccion vectorial calculada de la direccion seleccionada del sistema de coordenadas de robot y un vector Z comun una matriz de rotacion mediante la que, de aqrn en adelante, se transforman todos los movimientos del dedo sobre la pantalla tactil antes de que estos se envfen como especificacion de desplazamiento al dispositivo de control de robot.
Preferiblemente, la direccion del sistema de coordenadas de pantalla recalibrado se visualiza de manera grafica en la pantalla tactil, en particular mediante un indicador orientado.
De acuerdo con la invencion se realiza un recalibrado manual sin un sistema de sensores. Un movimiento de dedo dirigido corto sobre la pantalla que se orienta de manera paralela a una marca previamente establecida en la zona de trabajo del robot es suficiente para el recalibrado. Mediante el movimiento de dedo dirigido se calcula un vector en el que se basa el recalibrado.
La marca discurre en particular en la zona de trabajo del robot y, preferiblemente, coincide con un eje del sistema de coordenadas de robot, tal como un eje X o Y del sistema de coordenadas cartesiano. Por ejemplo, este eje puede estar marcado sobre la superficie de apoyo del robot o puede ser otra marca, tal como una flecha, en la zona de trabajo del robot. El movimiento de dedo dirigido corto se visualiza en la pantalla en particular como indicador o se orienta un indicador al movimiento de dedo dirigido para poder realizar de manera optica una comparacion con la marca.
De manera especialmente preferible, el recalibrado tambien se puede utilizar para otros sistemas de coordenadas cualesquiera libremente definibles tales como tramas.
Con respecto a la pantalla tactil cabe mencionar que en este caso se trata preferiblemente de una pantalla tactil habitual en el mercado con una superficie lisa que, preferiblemente, esta configurada como pantalla tactil capacitiva, aunque tambien entra en consideracion una pantalla tactil resistiva.
5
10
15
20
25
30
35
40
45
50
55
60
65
De acuerdo con una realizacion preferida adicional del procedimiento esta previsto que el contacto con el elemento de mando virtual sobre la superficie de la pantalla tactil se detecte mediante la determinacion de una primera coordenada de un punto de contacto y que se realice un desencadenamiento de la funcion del elemento de mando virtual cuando la primera coordenada del punto de contacto abandona una zona de coordenadas previamente establecida mediante una accion manual de la persona operadora tras un contacto permanente con la superficie de la pantalla tactil.
A este respecto, la accion manual se puede desencadenar mediante gestos de la persona operadora. Los gestos se pueden realizar mediante el arrastre de un dedo de la persona operadora sobre la pantalla tactil al interior de la zona de coordenadas previamente establecida o saliendo de la misma. Preferiblemente, los gestos se realizan en una direccion definida, ajustandose de forma continua la sensibilidad de la reaccion con respecto al movimiento de dedo, la intensidad de los gestos.
Ademas, la invencion se refiere a un procedimiento propio de la invencion para manejar un robot industrial con un dispositivo manual. A este respecto esta previsto que el desencadenamiento de una funcion tactil requiera una accion manual del operador sobre la pantalla tactil. Para evitar un desencadenamiento accidental de elementos de mando virtuales por un contacto no intencionado, una funcion solo se desencadena si tras tocar la pantalla tactil se realizan unos "gestos pequenos" especiales, por ejemplo, un arrastre del dedo en una direccion definida. Por tanto resulta un "reliable touch" (toque fiable).
Los gestos necesarios para desencadenar una funcion, esto es, la intensidad o el tipo necesario de los gestos, se pueden ajustar de forma continua: van desde un contacto simple del dedo, una operacion generalmente habitual de la pantalla tactil, hasta un gesto definido. Mediante marcas hapticas, tales como la conformacion especial de muescas dactilares en el borde de la pantalla, el dedo se puede deslizar sobre la pantalla tactil en continuacion de las muescas dactilares y, a este respecto, desencadenar una funcion. Si el operador se da cuenta de que ha iniciado un desencadenamiento de funcion no deseado, puede suprimir el desencadenamiento de funcion retirando el dedo a la posicion de origen.
El dispositivo de acuerdo con la invencion esta caracterizado con respecto al estado de la tecnica en particular por que el numero de los componentes de hardware se reduce a un mmimo absoluto. Todas las funciones de mando se realizan de forma consecuente en software tactil, con excepcion de los interruptores orientados a la seguridad "de parada de emergencia" y "de aprobacion". No son necesarios componentes electricos adicionales tales como teclas de membrana, interruptores o lamparas de senales. De este modo el sistema requiere poco mantenimiento.
La ganancia de espacio conseguida favorece una pantalla tactil confortable grande. Los elementos de mando virtuales y las visualizaciones representados en la pantalla tactil estan disenados para la aplicacion industrial y estan representados con mucho contraste y grandes, de modo que es posible una operacion fiable.
Detalles, ventajas y caractensticas adicionales de la invencion no solo resultan de las reivindicaciones, de las caractensticas a deducir de las mismas - en sf y/o en combinacion -, sino tambien de la siguiente descripcion de ejemplos de realizacion a deducir del dibujo.
Muestran: La figura 1 La figura 2
La figura 3 La figura 4 La figura 5 La figura 6 La figura 7
La figura 8
La figura 9
un dispositivo manual de programacion para manejar un robot industrial,
un segmento de un marco de pantalla del dispositivo manual de programacion adyacente a la pantalla tactil,
un segundo segmento de un marco de pantalla adyacente a la pantalla tactil y un tercer segmento de un marco de pantalla adyacente a la pantalla tactil, una vista trasera del dispositivo manual de programacion,
un procedimiento esquematico para manejar un robot industrial con un dispositivo de mando,
un segmento de una interfaz de usuario del dispositivo de mando con elementos de mando virtuales,
un segmento de una interfaz de usuario del dispositivo de mando con una imagen con informacion grafica,
una interfaz de usuario del dispositivo de mando con diferentes superficies de desplazamiento y
5
10
15
20
25
30
35
40
45
50
55
60
65
La figura 10 un elemento de mando virtual para el recalibrado del sistema de coordenadas del dispositivo de mando.
La figura 1 muestra un dispositivo 10 en forma de un dispositivo manual de programacion para manejar un robot industrial 12. Para ello, el dispositivo manual 10 esta conectado mediante una conexion de comunicacion 14 inalambrica o alambrica con un dispositivo de control de robot 16. El dispositivo manual 10 comprende una interfaz grafica de usuario 18 con una pantalla sensible al tacto 20, denominada a continuacion pantalla tactil. La pantalla tactil 20 sirve para la visualizacion al menos de un elemento de mando virtual 22.1 ... 22.n, 24.1 ... 24.n que representa una funcion para el control, la programacion o la operacion del robot industrial 12, desencadenandose la funcion asignada en caso de tocar el elemento de mando virtual 22.1 ... 22.n, 24.1 ... 24.n con un dedo de una persona operadora o un lapiz.
El dispositivo manual 10 comprende ademas una unidad de control 30 para el control de la interfaz grafica de usuario 18 y para la comunicacion con el dispositivo de control de robot 16 y un sensor de posicion para la determinacion de la posicion e inclinacion del dispositivo de mando.
La interfaz grafica de usuario 18 con la pantalla tactil 20 esta dispuesta junto con la unidad de control 30 en una carcasa 32. La carcasa 32 forma un marco de pantalla 34 que rodea en el lado del borde la pantalla tactil 20. En un lado superior de la carcasa 32 esta dispuesto ademas un interruptor "de parada de emergencia" 26 orientado a la seguridad.
Los elementos de mando virtuales 22.1 .... 22.n y 24.1 ... 24.n estan dispuestos en cada caso a lo largo de un segmento de marco 36, 38 del marco de pantalla adyacente a la pantalla tactil 20. Para posibilitar un manejo en ciego de los elementos de mando virtuales 22.1 ... 22.n o 24.1 ... 24.n estan dispuestas en cada caso marcas hapticas 40.1 ... 40.n o 42.1 ... 42.n en el segmento de marco 36, 38 de acuerdo con una primera idea inventiva independiente. A cada marca haptica 40.1 ... 40.n, 42.1 ... 42.n esta asignado un elemento de mando virtual 22.1 ... 22.n, 24.1 ... 24.n.
A este respecto, en particular el elemento de mando virtual 22.1 ... 22.n, 24.1 ... 24.n es directamente adyacente a la marca haptica 40.1 ... 40.n o 42.1 ... 42.n, de modo que se realiza una transicion directa de la marca haptica 40.1 ... 40.n o 42.1 ... 42.n al elemento de mando virtual 22.1 ... 22.n, 24.1 ... 24.n. Por consiguiente, un dedo guiado a lo largo de una marca haptica 40.1 ... 40.n o 42.1 ... 42.n se gma casi de un tiron hasta el elemento de mando virtual
22.1 ... 22.n, 24.1 ... 24.n. De este modo se evitan o se minimizan operaciones erroneas: En primer lugar se palpa la posicion del elemento de mando virtual con ayuda de las marcas hapticas y, a continuacion, se desencadena la funcion tocando el elemento de mando virtual. Ademas, no es necesario que la pantalla tactil, esto es, la pantalla 20, se tenga que disenar de forma especial. En particular y a diferencia del estado de la tecnica no es necesario que se apliquen materiales solapados especiales a la pantalla, por lo que, en caso contrario, se producen perdidas de transparencia.
Las marcas hapticas 40.1... 40.n o 42.1 ... 42.n forman una gma a traves de la que se gma un dedo de una persona operadora hasta el elemento de mando virtual 22.1 ... 22.n, 24.1 ... 24.n asignado.
La figura 2 muestra una representacion ampliada de los elementos de mando 22.1 ... 22.n y de las marcas hapticas
40.1 ... 40.n asignadas a estos.
Mediante la disposicion de los elementos de mando virtuales 22.1 ... 22.n o 24.1 ... 24.n a lo largo de los segmentos de marco 36, 38 que tienen las marcas hapticas 40.1 ... 40.n, 42.1 ... 42.n se garantiza una operacion segura de los elementos de mando virtuales. A este respecto, el segmento de marco 36, 38 escalonado y especialmente conformado sirve para la orientacion tactil en la pantalla tactil 20.
En el ejemplo de realizacion representado en la figura 2, las marcas hapticas 40.1 ... 40.n, 42.1 ... 42.n estan configuradas como muescas dactilares que estan conformadas de modo que se pueden palpar de manera fiable con los dedos y aseguran un guiado del dedo desde los segmentos de marco 36, 38 en la direccion hacia el elemento de mando virtual 22.1 ... 22.n o 24.1 ... 24.n asignado.
Ademas estan previstas marcas hapticas 43.1 ... 43.n que estan configuradas como motas y estan dispuestas sobre una superficie del marco de pantalla 34.
De este modo, por un lado, se compensa la haptica en principio ausente de una pantalla tactil 20 y, por otro lado, el operador puede prestar la atencion visual al robot industrial y al proceso sin tener que mirar el dispositivo manual o de mando manual 10, por lo que en total se aumenta la seguridad operativa. Se posibilita un "manejo en ciego".
La figura 3 muestra una forma de realizacion de una marca haptica 44 como una esquina de marco 46 del marco de pantalla 34 adyacente a la pantalla tactil 20. Mediante la esquina de marco 46 del marco de pantalla 34 se define una posicion exacta umvoca en la pantalla tactil 20. Con respecto a estas posiciones seleccionadas esta previsto un
5
10
15
20
25
30
35
40
45
50
55
60
65
elemento de mando virtual 48 en la pantalla tactil 20 que, por ejemplo, se mueve en una direccion lineal a lo largo de un segmento de marco 50 en el lado de la pantalla o del otro segmento de marco 52 de la esquina de marco 44.
La figura 4 muestra una forma de realizacion adicional de una marca haptica 54 que esta configurada como marco de pantalla 56 en el lado de la pantalla del marco de pantalla 34. A lo largo del segmento de marco 56, el dedo de una persona operadora puede realizar un movimiento de desplazamiento mediante el que se puede desplazar un elemento de desplazamiento 60 virtual que discurre a lo largo del segmento de marco 56.
Las marcas hapticas 40.1 ... 40.n, 42.1 ... 42.n representadas en las figuras 1 y 2 y configuradas como muescas dactilares forman una orientacion haptica en el borde de pantalla con una resolucion alta, por ejemplo, para palpar posiciones de los elementos de mando virtuales 22.1 ... 22.n, 24.1 ... 24.n, ya que estos estan dispuestos directamente al lado de las muescas dactilares. A cada muesca dactilar se puede asignar de manera umvoca un elemento de mando virtual. Las muescas dactilares 22.1 .... 22.n, 24.1 ... 24.n estan realizadas de forma semiabierta y estan abiertas en la direccion de la pantalla tactil 20 de modo que un dedo se puede deslizar, como guiado en una acanaladura, sobre la pantalla tactil 20 y puede desencadenar allf una funcion del elemento de mando virtual 22.1 ... 22.n, 24.1 ... 24.n.
De acuerdo con una idea inventiva independiente esta previsto que el desencadenamiento de una funcion asignada al elemento de mando virtual 22.1...22.n, 24.1...24.n requiera una accion manual de la persona operadora en la pantalla tactil 20. Para evitar un desencadenamiento accidental de los elementos de mando virtuales 22.1...22.n, 24.1...24.n por un contacto no intencionado, una funcion solo se desencadena si tras tocar la pantalla tactil 20 se realizan unos gestos previamente definidos tales como, por ejemplo, un arrastre del dedo en una direccion definida. La sensibilidad de la reaccion con respecto al movimiento de dedo se puede ajustar de forma continua mediante un regulador. Por tanto, la intensidad de los gestos necesarios para desencadenar funciones se puede ajustar de forma continua. Va desde un simple contacto de dedo, una operacion generalmente habitual de la pantalla tactil 20, hasta un gesto pequeno especial. Mediante la conformacion especial de las muescas dactilares 22.1...22.n, 24.1...24.n en el segmento de marco 36, 38 del marco de pantalla, el dedo se puede deslizar sobre la pantalla tactil en continuacion de las muescas dactilares y, a este respecto, desencadenar una funcion. Si el operador se da cuenta de que ha iniciado un desencadenamiento de funcion no deseado, puede suprimir el desencadenamiento de funcion retirando el dedo a la posicion de origen.
Una vez que la persona operadora toque el elemento de mando virtual 22.n con el dedo, por ejemplo, partiendo de la muesca dactilar 40.n, se detectan las coordenadas correspondientes del punto de contacto en la pantalla tactil mediante la unidad de control 30. De manera correspondiente a la definicion de unos gestos previamente ajustados, la funcion asociada solo se desencadena cuando el dedo de la persona operadora abandone una zona de coordenadas previamente establecida o alcance una zona de coordenadas previamente definida. Cuando el elemento de mando virtual esta desviado y, por tanto, esta listo para desencadenarse (el desencadenamiento se realiza al soltar el dedo), esto se marca mediante una marca optica, por ejemplo, mediante un borde colorido, en el elemento de mando. Si una desviacion accidental se vuelve a anular al retirarse el elemento de mando de nuevo al origen, esto se indica mediante una desaparicion de esta marca optica.
De acuerdo con una forma de realizacion adicional propia de la invencion, elementos de mando virtuales 48 que, por ejemplo, estan colocados en la esquina de marco 46 del marco de pantalla 34, se asocian con un control de gestos especial. Estos, por ejemplo, se pueden desplazar a lo largo de los segmentos de marco 50, 52 en dos direcciones 62, 64, tal como se representa en la figura 3. A cada direccion de movimiento 62, 64 esta asignada una funcion seleccionable. Asf, por ejemplo, es posible activar una funcion "A" en el movimiento a lo largo del segmento de marco 52 y una funcion "B" en el movimiento a lo largo del segmento de marco 50. El grado de la desviacion se evalua a este respecto, estando previstas dos posibilidades de evaluacion.
De acuerdo con una primera posibilidad de evaluacion, el grado de la desviacion se entrega inmediatamente como parametro analogo, tal como una especificacion de velocidad, a la funcion. Si el dedo se suelta en la posicion desviada, el valor analogo salta inmediatamente a cero. Si el dedo se grna de manera deslizante de nuevo a la posicion inicial 66, el parametro se restablece en cero de manera analoga a la desviacion. Esta funcion se puede utilizar, por ejemplo, para iniciar un programa de movimiento en direcciones positivas o negativas y variar a este respecto de forma continua la velocidad.
De acuerdo con una segunda posibilidad de evaluacion esta previsto que, en caso de superar un valor umbral definible, se desencadene una funcion conmutadora. La activacion de la funcion solo se realiza cuando el dedo en la posicion desviada abandona la pantalla tactil 20. Sin embargo, si el dedo se vuelve a guiar de vuelta a la posicion cero sobre los segmentos de marco 50, 52 sin soltarlo, se evita el desencadenamiento de funcion.
Una idea adicional propia de la invencion se refiere a la realizacion de una denominada funcion de anulacion (regulador de velocidad) que se realiza mediante el elemento de mando de desplazamiento 60 que esta representado en la figura 4. Para ello, el elemento de mando de desplazamiento 60 se coloca a lo largo del segmento de marco 56 y de manera centrica con respecto a la marca haptica 43. De este modo, la posicion del elemento de mando de desplazamiento 60 se puede palpar y se puede ajustar mediante el desplazamiento del dedo
5
10
15
20
25
30
35
40
45
50
55
60
65
a lo largo del segmento de marco 56. El desplazamiento ciego se facilita adicionalmente mediante las marcas hapticas 42.1...42.n, 43, 54 de los segmentos de marco 38, 56. La denominada anulacion se puede ajustar con un desplazamiento entre dos marcas hapticas en una medida definida, por ejemplo, un 20 %. Mediante el elemento de mando de desplazamiento 60 dispuesto en el lado del borde se pueden ajustar tambien otras magnitudes analogas tales como parametros de proceso en un manejo en ciego.
Una caractenstica adicional propia de la invencion se refiere a la disposicion simetrica de las marcas hapticas 22.1...22.n, 24.1...24.n con respecto al eje longitudinal o transversal de la pantalla tactil 20. El eje central longitudinal es a este respecto la recta que discurre de manera centrica y paralela a los lados de marco longitudinales del marco de pantalla 34. De manera perpendicular a este discurre el eje central transversal, esto es, de manera centrica entre y en paralelo a los lados transversales mas cortos del marco de pantalla 34. De este modo se garantiza que el dispositivo manual 10 es adecuado tanto para un manejo con la mano derecha como para un manejo con la mano izquierda. Esto se consigue en particular mediante el diseno consecuente sin teclas de la interfaz grafica de usuario y mediante la disposicion simetrica de las marcas hapticas. Por tanto, la interfaz grafica de usuario se puede conmutar de un manejo con la mano derecha a un manejo con la mano izquierda mediante una funcion de ajuste sencilla. A este respecto, todas las posiciones de los elementos de mando virtuales 22.1...22.n, 24.1...24.n se reflejan en el eje longitudinal de la pantalla tactil 20.
La figura 5 muestra un lado trasero 66 de la carcasa 32. En el lado trasero 66 y de manera simetrica con respecto al eje longitudinal 68 estan dispuestos listones de sujecion 70, 72 en los que se puede sujetar de manera segura el dispositivo manual 10 con una o con ambas manos. Los listones de sujecion 70, 72 pueden tener una geometna exterior que se corresponde con segmentos cilmdricos, debiendo partir los listones de sujecion 70, 72 del borde exterior, esto es, de los bordes longitudinales del marco de pantalla 34. En cada liston de sujecion 70, 72 esta integrado en cada caso un interruptor de aprobacion o pulsador de aprobacion 74, 76 de los que opcionalmente uno se tiene que accionar para la liberacion de desplazamiento del robot industrial.
Mediante esta disposicion simetrica se previene una fatiga de la mano, ya que los elementos de conmutacion de aprobacion 74, 76 se pueden accionar de manera alternante con la mano izquierda o derecha. En el caso de una fatiga de la mano, la respectiva otra mano puede realizar la aprobacion sin que de este modo se interrumpa la liberacion de desplazamiento para el movimiento de robot.
Una forma de realizacion adicional propia de la invencion esta caracterizada por que un interruptor de llave habitual hasta el momento para la seleccion de los modos operativos de robot "Configurar", "Automatico", "Prueba automatica" se sustituye por una funcion de software. La particularidad consiste, entre otras cosas, en el procesamiento de datos en una tecnica segura. En principio, la pantalla tactil 20 es un aparato de un solo canal y, por tanto, inseguro. Con ayuda de un dispositivo de control de seguridad 78 integrado en el dispositivo de control de robot 16 de acuerdo con la figura 6, denominado a continuacion controlador de seguridad 78, se garantiza una funcionalidad segura del software. El controlador de seguridad 78 esta descrito en la solicitud de patente europea 1 035 953 cuya divulgacion se incluye en su totalidad en la presente solicitud.
En la pantalla tactil 20, la interfaz de usuario 18 ofrece diferentes opciones de modo operativo en forma de interfaces de usuario virtuales 80, 82, 84, tales como teclas programables, para su seleccion, tal como se representa en la figura 7. Al tocar una de estas teclas programables 80, 82, 84, el operador selecciona un nuevo modo operativo "X". Del software de la interfaz de usuario se envfa el nuevo modo operativo seleccionado como comando "solicitud de nuevo modo operativo X" al controlador de seguridad 78. El controlador de seguridad 78 extrae de su memoria 86 una informacion grafica que se corresponde con este modo operativo, tal como el icono 88, y lo coloca en una posicion de visualizacion determinada de forma aleatoria en una imagen 90 mas grande. La posicion del icono 88 en la imagen 90 solo es conocida por el controlador de seguridad 78. Esta imagen 90 se envfa como archivo de imagen, tal como Bitmap, a la interfaz de usuario 18 y se visualiza allf en una posicion definida, tal como se representa en la figura 8.
Tocando con la yema del dedo el icono 88 visualizado, el operador tiene que confirmar el modo operativo reconocido por el controlador de seguridad 78. Una posicion de contacto en la pantalla tactil se detecta en forma de coordenadas de tacto y se envfa de vuelta al controlador de seguridad 78. Este compara la posicion de contacto con la posicion de visualizacion aleatoria del icono 88 en la imagen 90 conocida exclusivamente por el dispositivo de control de seguridad, esto es, el controlador de seguridad 78. La comparacion se realiza teniendo en cuenta la posicion conocida de la imagen 90 en la pantalla tactil 20. Si la posicion de contacto (dentro de una tolerancia definida) es identica a la posicion de visualizacion, se realiza el cambio de modo operativo iniciado. En caso contrario, se descarta el cambio de modo operativo y se mantiene el modo operativo anterior.
Mediante este procedimiento se produce un circuito de accion seguro entre el operador y el controlador de seguridad 78:
- el operador selecciona un modo operativo,
- el controlador de seguridad 78 visualiza el modo operativo reconocido en el dispositivo de mando 10,
- el operador confirma al controlador de seguridad 78 la exactitud del modo operativo visualizado,
- el controlador de seguridad 78 ajusta el nuevo modo operativo.
5
10
15
20
25
30
35
40
45
50
55
60
65
De manera alternativa al procedimiento anteriormente mencionado, el controlador de seguridad 78 puede visualizar un codigo numerico iconizado que se tiene que reconocer por el operador y se tiene que introducir como numero mediante un teclado visualizado. La posicion de contacto de los numeros visualizados del teclado se envfa al controlador de seguridad que comprueba mediante la misma la exactitud de la entrada.
Los iconos 80, 82, 84 estan almacenados en el controlador de seguridad 78 en una tecnica segura.
Opcionalmente, una solicitud de cambio de modo operativo tambien se puede realizar mediante un interruptor de llave de hardware.
La insercion/retirada de la llave en el conmutador de seleccion de modo operativo se reproduce mediante un procedimiento de inicio/cierre de sesion mediante PIN.
La posibilidad de "arrastrar" el dedo en una medida mayor o menor tras tocar la pantalla tactil 20 se aprovecha de acuerdo con un procedimiento propio de la invencion para generar una especificacion de desplazamiento analoga para el robot industrial 12. Asf, el robot industrial 12 se puede controlar de forma sensible de acuerdo con la figura 6 en 6 grados de libertad, por ejemplo, X, Y, Z y orientaciones A, B, C de una herramienta 91.
Con la desviacion del dedo de una persona operadora es posible proporcionar una especificacion de posicion al robot industrial 12, de manera similar al control de cursor mediante almohadilla tactil en un notebook. El robot industrial 12 se puede desplazar a este respecto de manera simultanea en dos direcciones de coordenadas, por ejemplo, X e Y.
En un modo adicional se genera mediante una desviacion del dedo una especificacion de velocidad para el robot industrial 12: cuanto mas esta desviado el dedo, mas rapidamente se desplaza el robot.
Tras tocar una superficie de desplazamiento 100 seleccionada representada en la figura 9, el usuario activa un elemento de mando virtual 92 que se coloca automaticamente en la zona del punto de contacto. A continuacion, el elemento de mando virtual 92 se puede arrastrar mediante el dedo tambien mas alla de una delimitacion 94 por toda la pantalla tactil 20 y, asf, puede generar especificaciones de desplazamiento. Despues de soltarlo, el robot industrial 12 se para inmediatamente. A continuacion, se tiene que volver a incidir en la superficie 100 deseada para una nueva especificacion de desplazamiento.
La sensibilidad de la reaccion con respecto a un movimiento de dedo se puede ajustar de forma continua mediante un elemento de mando virtual 96, tal como un regulador deslizable (anulacion) tanto para la especificacion de posicion como para la especificacion de velocidad.
La superficie 100 sensitiva para el procedimiento 2D esta colocada en proximidad del borde de pantalla 36 de modo que aun se puede alcanzar bien con el dedo (por ejemplo, con el pulgar extendido) con una distancia clara con respecto al borde de pantalla.
Para poder realizar tambien un desplazamiento en una tercera direccion de coordenada (por ejemplo, la coordenada Z del sistema de coordenadas cartesiano), se coloca un campo 101 con aproximadamente el ancho de un dedo con un elemento de mando virtual 98 de forma directamente lateral en el borde de pantalla 36, de modo que este campo 101 se puede "palpar" con el dedo, al guiarse el dedo, en particular el pulgar, a lo largo del borde de pantalla 36. Este campo genera una especificacion de desplazamiento unidimensional, por ejemplo, en la direccion Z.
Mediante la disposicion especial, el operador puede distinguir claramente y alcanzar ciegamente los dos campos de desplazamiento 100, 101: El campo 101 directamente en el borde de pantalla 36, estando el dedo en contacto notable con el borde de carcasa, activa la especificacion de desplazamiento para la tercera dimension (dimension Z). El campo 100 que esta colocado aproximadamente con un ancho de un dedo o pulgar al lado del borde de pantalla 36 activa la especificacion de desplazamiento simultanea en dos dimensiones (dimension X-Y).
El robot industrial 12 tiene 6 grados de libertad. Para el ajuste de la orientacion de la herramienta 91 con los tres angulos (A, B, C) se utiliza el mismo procedimiento tal como se describio anteriormente. Para ello, la pantalla se divide en dos zonas. Por ejemplo, en la zona superior se encuentran los campos de desplazamiento 100, 101 para las dimensiones 1-3 (por ejemplo, X, Y, Z). Por ejemplo, en la zona inferior se encuentran los campos de desplazamiento 102, 103 para las dimensiones 4-6, por ejemplo, A, B, C. Mediante las marcas hapticas en forma de botones 108, 110, 112 se pueden distinguir ciegamente los dos campos de desplazamiento 100, 101 y 102, 103.
Al tocar los campos de desplazamiento 102, 103 se activa en los campos de desplazamiento un elemento de mando virtual 104, 106 que se coloca automaticamente en la zona del punto de contacto. A continuacion, el elemento de mando virtual 104, 106 tambien se puede arrastrar por toda la pantalla tactil 20 y, asf, puede generar un ajuste de la orientacion de la herramienta 91.
5
10
15
20
25
30
35
40
Con una pantalla multitactil 20 se puede desplazar as^ el robot industrial 12 de manera simultanea en los 6 grados de libertad. Con una pantalla monotactil se pueden utilizar las funciones de desplazamiento solo de forma secuencial.
En el procedimiento mediante la funcion de movimiento tactil anteriormente explicada, la pantalla tactil esta orientada de manera ideal de forma colinear con respecto al sistema de coordenadas del robot industrial. En este caso, el movimiento de robot coincide de forma optima con el movimiento de dedo sobre la pantalla tactil.
Sin embargo, si el operador con el dispositivo de mando 10 se aparta girandose hacia un lado, entonces esta coincidencia ya no existe. La direccion de movimiento del robot ya no coincide entonces con la direccion de movimiento del dedo.
En este caso, el sistema de coordenadas de la pantalla tactil se tiene que volver a recalibrar con respecto al sistema de coordenadas del robot.
De acuerdo con la invencion esta previsto sobre la pantalla tactil 20 un elemento de mando virtual 114 especial con un indicador 116. En primer lugar, este elemento de mando 114 se tiene que tocar con un dedo y, a continuacion, el dedo se tiene que arrastrar en la direccion seleccionada del sistema de coordenadas de robot, por ejemplo, la direccion X. Para facilitar la vision del operador, la direccion X en la zona de trabajo del robot se puede marcar, por ejemplo, mediante una marca, sobre la superficie del suelo. El movimiento del dedo sobre el elemento de mando 114 y, con ello, la orientacion del indicador 116, se realiza de manera paralela con respecto a la marca existente en la zona de trabajo del robot. Una marca de este tipo esta identificada a modo de ejemplo en la figura 6 con "200". Tras levantar el dedo de la pantalla tactil 20 se calcula la direccion vectorial entre el primer punto de contacto y el punto de liberacion. Con ayuda de este vector, el eje de coordenadas de robot seleccionado y un vector Z comun se calcula una matriz de rotacion mediante la que, de aqu en adelante, se transforman todos los movimientos de dedo antes de que se proporcionen como especificacion de desplazamiento al robot. Por tanto, el recalibrado se realiza de la forma lo mas rapida posible con un unico gesto. Tras el recalibrado, los dos sistemas de coordenadas estan ajustados de nuevo de manera colinear entre sf, estan practicamente ordenados. Para mejorar la verificabilidad, la direccion del sistema de coordenadas de pantalla calibrado se representa de forma grafica en la pantalla tactil.
El sistema de coordenadas para el robot esta dibujado en la figura 6. Se distingue que la marca 200 discurre de manera paralela al eje X. El eje Y discurre en el plano de la superficie de apoyo del robot 12. De manera perpendicular a este discurre el eje Z alrededor del que se puede girar el robot 12 (flecha A1).
En las figuras 1 y 6 se marcan mediante las flechas 1, 2, 3, 4, 5, 6 o A1, A2, A3, A4, A5, A6 los movimientos de pivotamiento o giro del robot 12 o del brazo que sujeta la herramienta 91. Por tanto, en el ejemplo de realizacion, el robot 12 puede mover con 6 grados de libertad la herramienta 91.
Este metodo de calibrado de acuerdo con la invencion que funciona sin sistema de sensores se puede utilizar tambien para otros sistemas de coordenadas cualesquiera tales como, por ejemplo, tramas libremente definibles.

Claims (6)

  1. 5
    10
    15
    20
    25
    30
    REIVINDICACIONES
    1. Procedimiento para manejar un robot industrial (12) mediante un dispositivo de mando (10) que comprende la etapa de procedimiento de tocar un elemento de mando virtual de una pantalla tactil (20) de una interfaz grafica de usuario, en el que, en caso de tocar el elemento de mando virtual, se desencadena una funcion asignada al elemento de mando, y en el que se realiza el movimiento del robot industrial (12) con respecto a un sistema de coordenadas de robot y el movimiento sobre la pantalla tactil (20) con respecto a un sistema de coordenadas de pantalla, caracterizado por que el sistema de coordenadas de pantalla se recalibra tras un movimiento relativo del dispositivo de mando (10) con respecto al sistema de coordenadas de robot mediante un movimiento dirigido de un dedo de una persona operadora sobre la pantalla tactil (20), por que el recalibrado se activa mediante una operacion de un elemento de mando virtual, por que el movimiento dirigido del dedo sobre la pantalla tactil (20) se detecta en una direccion seleccionada del sistema de coordenadas de robot y por que, tras levantar el dedo, se calcula una direccion vectorial usada para el recalibrado entre un primer punto de contacto y un punto de liberacion.
  2. 2. Procedimiento de acuerdo con la reivindicacion 1, caracterizado por que mediante el movimiento dirigido del dedo sobre la pantalla tactil (20) se reproduce la direccion seleccionada del sistema de coordenadas de robot correspondiente a un eje de base, tal como el eje X o Y de un sistema de coordenadas cartesiano.
  3. 3. Procedimiento de acuerdo con la reivindicacion 1 o 2, caracterizado por que el eje de base se caracteriza, por ejemplo, como marca (200) sobre una superficie de apoyo del robot (12).
  4. 4. Procedimiento de acuerdo con al menos una de las reivindicaciones anteriores, caracterizado por que con ayuda de la direccion vectorial calculada, la direccion seleccionada del sistema de coordenadas de robot y un vector Z comun se calcula una matriz de rotacion mediante la que, de aqrn en adelante, se transforman todos los movimientos del dedo sobre la pantalla tactil (20) antes de que estos se envfen como especificacion de desplazamiento al dispositivo de control de robot.
  5. 5. Procedimiento de acuerdo con al menos una de las reivindicaciones anteriores, caracterizado por que la direccion del sistema de coordenadas de pantalla calibrado se representa de manera grafica en la pantalla tactil (20), en particular como indicador orientado.
  6. 6. Procedimiento de acuerdo con al menos una de las reivindicaciones anteriores, caracterizado por que el recalibrado se utiliza para otros sistemas de coordenadas cualesquiera, tales como tramas libremente definibles.
ES13715667.5T 2012-04-05 2013-04-05 Procedimiento para manejar un robot industrial Active ES2603205T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102012103032 2012-04-05
DE102012103032A DE102012103032B3 (de) 2012-04-05 2012-04-05 Verfahren zur Bedienung eines Industrieroboters
PCT/EP2013/057197 WO2013150136A1 (de) 2012-04-05 2013-04-05 Verfahren zur bedienung eines industrieroboters

Publications (1)

Publication Number Publication Date
ES2603205T3 true ES2603205T3 (es) 2017-02-24

Family

ID=48087568

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13715667.5T Active ES2603205T3 (es) 2012-04-05 2013-04-05 Procedimiento para manejar un robot industrial

Country Status (8)

Country Link
US (1) US9387590B2 (es)
EP (1) EP2834051B1 (es)
KR (1) KR101536106B1 (es)
CN (1) CN104302452B (es)
DE (1) DE102012103032B3 (es)
DK (1) DK2834051T3 (es)
ES (1) ES2603205T3 (es)
WO (1) WO2013150136A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9199376B2 (en) 2013-03-14 2015-12-01 GM Global Technology Operations LLC Intuitive grasp control of a multi-axis robotic gripper
DE102013216740A1 (de) * 2013-08-23 2015-02-26 Robert Bosch Gmbh Bedienvorrichtung, Steuervorrichtung und Anlage der Automationstechnik
JP6476662B2 (ja) 2013-09-20 2019-03-06 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
US9323331B2 (en) * 2014-05-21 2016-04-26 International Business Machines Corporation Evaluation of digital content using intentional user feedback obtained through haptic interface
EP2977840A1 (de) * 2014-07-23 2016-01-27 Siemens Aktiengesellschaft Fehlersichere Bedienung eines Gerätes aus dem Bereich der industriellen Automatisierungstechnik mittels Gesten
US20160274787A1 (en) * 2015-03-19 2016-09-22 Denso Wave Incorporated Apparatus for operating robots
JP6631279B2 (ja) * 2015-03-19 2020-01-15 株式会社デンソーウェーブ ロボット操作装置、ロボット操作プログラム
US10048851B2 (en) * 2015-03-19 2018-08-14 Denso Wave Incorporated Apparatus for operating robots
DE202015008715U1 (de) * 2015-12-18 2017-03-21 Kuka Roboter Gmbh Bediengerät zum Steuern oder Programmieren eines Manipulators
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
JP6619106B2 (ja) * 2016-01-29 2019-12-11 アーベーベー・シュバイツ・アーゲー 産業用ロボットを用いてタッチスクリーンパネルを較正するための方法、及びこれを使用したシステム、産業用ロボット、並びにタッチスクリーン
DE102016202881B4 (de) * 2016-02-24 2018-01-18 Kuka Roboter Gmbh Bediengerät für Manipulator
DE102016211244B4 (de) * 2016-06-23 2018-01-18 Kuka Roboter Gmbh Roboter-Bedienhandgerätverbund mit einem Grundsteuerungs-Lagesensor
JP6784660B2 (ja) * 2017-11-28 2020-11-11 ファナック株式会社 入力装置およびロボットの制御システム
CN109584449A (zh) * 2018-11-30 2019-04-05 湖南金码智能设备制造有限公司 一种xy型有屏自助售货终端及其货道位置校准方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3182669B2 (ja) * 1992-05-15 2001-07-03 芝浦メカトロニクス株式会社 工業用ロボット
JP3010980B2 (ja) * 1993-07-29 2000-02-21 日産自動車株式会社 自動組立て設備における取付けミス位置表示装置
US5617515A (en) * 1994-07-11 1997-04-01 Dynetics, Inc. Method and apparatus for controlling and programming a robot or other moveable object
JP4014662B2 (ja) * 1995-09-18 2007-11-28 ファナック株式会社 ロボット教示操作盤
EP0864401B1 (en) * 1996-07-24 2006-02-15 Fanuc Ltd Jog feeding method for robots
DE59812696D1 (de) 1997-12-06 2005-05-04 Elan Schaltelemente Gmbh & Co Verfahren zur Überwachung einer Bremseinrichtung, insbesondere eines Handhabungsgerätes, sowie Überwachungs- und Steuergerät
EP1109497B1 (en) * 1998-08-04 2009-05-06 Intuitive Surgical, Inc. Manipulator positioning linkage for robotic surgery
ITTO20020862A1 (it) * 2002-10-04 2004-04-05 Comau Spa Sistema di programmazione per robot o simili apparati
JP3708097B2 (ja) * 2003-10-08 2005-10-19 ファナック株式会社 ロボットの手動送り装置
US7346478B2 (en) * 2004-09-21 2008-03-18 Ford Motor Company Method of embedding tooling control data within mechanical fixture design to enable programmable logic control verification simulation
JP2006289531A (ja) 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
KR100624387B1 (ko) * 2005-04-25 2006-09-20 엘지전자 주식회사 주행영역 지정이 가능한 로봇 시스템
PL1996376T3 (pl) * 2006-03-03 2016-12-30 Programowalny robot i interfejs użytkownika
EP1795315A1 (en) * 2006-05-31 2007-06-13 Abb Research Ltd. Hand-held control device for an industrial robot
US8738181B2 (en) * 2007-04-16 2014-05-27 Alexander Greer Methods, devices, and systems for automated movements involving medical robots
DE102007018607A1 (de) 2007-04-18 2008-10-30 Abb Research Ltd. Portable Bedienvorrichtung
DE102007029398A1 (de) * 2007-06-26 2009-01-02 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Programmieren eines Industrieroboters
US8049740B2 (en) * 2007-10-26 2011-11-01 Tyco Electronics Corporation Method and apparatus for laplace constrained touchscreen calibration
US8428781B2 (en) * 2008-11-17 2013-04-23 Energid Technologies, Inc. Systems and methods of coordination control for robot manipulation
DE102010007455A1 (de) * 2010-02-10 2011-08-11 Ident Technology AG, 82234 System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum
AT509927B1 (de) * 2010-06-08 2015-05-15 Keba Ag Verfahren zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
DE102010025781B4 (de) * 2010-07-01 2022-09-22 Kuka Roboter Gmbh Tragbare Sicherheitseingabeeinrichtung für eine Robotersteuerung
DE102010039540C5 (de) * 2010-08-19 2020-01-02 Kuka Deutschland Gmbh Handbediengerät zum manuellen Bewegen eines Roboterarms
US9013430B2 (en) * 2010-08-20 2015-04-21 University Of Massachusetts Hand and finger registration for control applications
US9415509B2 (en) * 2011-11-04 2016-08-16 Fanuc America Corporation Robot teach device with 3-D display

Also Published As

Publication number Publication date
KR20140148473A (ko) 2014-12-31
EP2834051A1 (de) 2015-02-11
WO2013150136A1 (de) 2013-10-10
CN104302452B (zh) 2016-04-13
EP2834051B1 (de) 2016-09-28
DE102012103032B3 (de) 2013-07-04
CN104302452A (zh) 2015-01-21
US20150057804A1 (en) 2015-02-26
DK2834051T3 (en) 2017-01-23
US9387590B2 (en) 2016-07-12
KR101536106B1 (ko) 2015-07-13

Similar Documents

Publication Publication Date Title
ES2603205T3 (es) Procedimiento para manejar un robot industrial
ES2598242T3 (es) Procedimiento para manejar un robot industrial
KR101706927B1 (ko) 산업용 로봇을 조작하기 위한 방법
US9579800B2 (en) Device and method for operating an industrial robot
US9586324B2 (en) Method for operating an industrial robot, and a secure monitoring device for carrying out said method
ES2831363T3 (es) Método de operación y aparato que usa identificación de huella dactilar y terminal móvil
ES2274152T3 (es) Sistema para programar robots o aparatos automaticos similares, que comprende un terminal de programacion portatil.
ES2327326T3 (es) Terminal portatil para controlar, programar y/o enseñar robots o aparatos automaticos similares.
JP2010211500A (ja) 操作装置
WO2012108462A1 (ja) 電子機器
JP2014081890A (ja) スタイラスペンおよび情報機器
JP2008204375A (ja) パネル入力装置、パネル入力用スタイラスペン、パネル入力システムおよびパネル入力処理プログラム
JP2017068291A (ja) 入力方法、及び入力装置
JP2013218486A (ja) 表示装置および表示プログラム
ES2416833B1 (es) Método de navegación óptico para un dispositivo apuntador en un monitor de un sistema inform�tico
JPH02178721A (ja) 座標入力装置
WO2009022029A1 (es) Dispositivo de entrada de datos de tipo ratón con teclado alfanumérico incorporado
KR20060007472A (ko) 휴대용 단말기
KR20140140340A (ko) 이중 동작 모드를 갖는 터치스크린 장치