ES2303399B2 - "dispositivo de interaccion y navegacion portatil y adaptable a la mano". - Google Patents

"dispositivo de interaccion y navegacion portatil y adaptable a la mano". Download PDF

Info

Publication number
ES2303399B2
ES2303399B2 ES200501202A ES200501202A ES2303399B2 ES 2303399 B2 ES2303399 B2 ES 2303399B2 ES 200501202 A ES200501202 A ES 200501202A ES 200501202 A ES200501202 A ES 200501202A ES 2303399 B2 ES2303399 B2 ES 2303399B2
Authority
ES
Spain
Prior art keywords
interaction
hand
sensors
fingers
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES200501202A
Other languages
English (en)
Other versions
ES2303399A1 (es
Inventor
Manuel Velez Cea
David Paneque Espinar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de Granada
Original Assignee
Universidad de Granada
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de Granada filed Critical Universidad de Granada
Priority to ES200501202A priority Critical patent/ES2303399B2/es
Publication of ES2303399A1 publication Critical patent/ES2303399A1/es
Application granted granted Critical
Publication of ES2303399B2 publication Critical patent/ES2303399B2/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

Dispositivo de interacción y navegación portátil y adaptable a la mano, que permite realizar un acto de interacción, sin precisar elementos o superficies auxiliares. Además, el usuario al actuar sobre él para comunicarse con una máquina no requiere que la mano se destine en exclusiva al manejo del dispositivo.

Description

Dispositivo de interacción y navegación portátil y adaptable a la mano.
Sector de la técnica
Dispositivos electrónicos de interfaz de usuario para la comunicación entre hombre y tecnologías de procesado de información, usados para la interacción, navegación o tratamiento de dispositivos electrónicos, como interfaz de comunicación entre usuario y sistemas de interacción o como medio de interacción, navegación, y tratamiento de la información virtual, entendiendo como tal todas las formas de información contenidas de forma insustancial, que se muestran y manejan en medios electrónicos y que pueden ser manipuladas, reproducidas, alteradas, conservadas y transmitidas con gran celeridad y economía de medios gracias fundamentalmente a su carácter no material.
Objeto de la invención
Se presenta un dispositivo físico de navegación e interacción adaptable a la mano y portátil que permite realizar un acto de interacción, sin precisar, como ocurre con otros dispositivos, de elementos o superficies auxiliares. Además, el usuario al actuar sobre él para comunicarse con una máquina no requiere que la mano se destine en exclusiva al manejo del dispositivo y para dejar de utilizarlo no es necesario desprenderse de él (soltarlo o cogerlo cada vez).
El dispositivo que se ha diseñado está adecuado especialmente por sus características para ser usado en la interacción, comunicación, control, navegación, o actuación que pueda realizarse sobre información virtual o sobre otros dispositivos. Su uso es apropiado especialmente en aquellos ámbitos de uso específicos en los que los sistemas de interacción de los que participe el usuario requieran que éste esté en continuo movimiento, se desplace esporádicamente, se encuentre por momentos en posición sedente y en momentos de pié o en el caso en el que para interactuar, navegar, o controlar algún dispositivo o alguna información virtual, el usuario requiera disponer de la libertad de desplazarse de un lugar a otro, y mientras tanto simultáneamente mantener abierta la opción de ejercer interacción con una computadora, o con tecnologías u objetos tecnológicos que requieran de una interacción.
En concreto se puede resumir diciendo que el dispositivo presentado en esta solicitud de patente resulta adecuado en todos aquellos casos en que el sistema de interacción usado por el usuario requiera que el módulo de interacción a través del que se pilota, se interacciona, se navega o se controla, sea portátil y permita ser transportado por el usuario a cualquier parte donde pueda darse interacción con alguno de los distintos sistemas de interacción descritos con anterioridad.
Estado de la técnica
Existen distintos sistemas de interacción con tecnologías computacionales que requieren del uso de interfaces de navegación e interacciones específicas. Dichos sistemas de interacción requieren la participación activa del usuario, para actuar controlar, interactuar, comunicar o navegar con la información virtual o con otros dispositivos.
Algunos ejemplos de estos sistemas de interacción son los siguientes:
Interacción con un ordenador Ubicuo: En este caso el ordenador como elemento físico deja de estar necesariamente ubicado en un lugar concreto y sus partes y funciones se encuentran disgregadas físicamente en forma de elementos autónomos que se comunican generalmente de forma inalámbrica o remota.
Interacción con los llamados Smartphones, teléfonos Móviles que integran una gran potencia de calculo para ofrecer una multifuncionalidad similar a la de un ordenador personal; creación de textos, imágenes fotográficas, agenda, conexión a Internet.
Interacción con la realidad aumentada. Éste es un concepto de interacción con la computadora en la que la información virtual que el ordenador suministra al usuario se encuentra integrada y mezclada en conjunción con el espacio real llegando a estar esta información perfectamente integrada en la perspectiva general a través de la que el usuario visiona la escena real. Para producir el efecto de realidad aumentada, es necesaria la participación de tecnologías de visualización que sean capaces de mostrar elementos visuales en el espacio, como lo son proyecciones holográficas o como lo podrían ser elementos de visualización de tipo Seethrough (dispositivos que simulan el efecto de poder mirar a través de ellos; y que consisten normalmente en una pantalla de visualización exenta o insertada en unas gafas que muestran una imagen proporcionada por una cámara integrada al extremo opuesto de la pantalla, lo que permite una visualización de la escena real a través de la pantalla; visión de la escena en la cual se pueden visionar elementos u objetos virtuales que no escarian presentes en la escena real y que han sido insertados por la computadora en la imagen recogida por la cámara, guardando relación total y estando perfectamente integradas en la perspectiva de la escena).
Interacción con realidad virtual inmersiva. Se refiere a un sistema de interacción con computadora en el que se busca descontextualizar al usuario con el entorno real lo máximo posible, con intención de proporcionarle un entorno de percepción en el cual todos los elementos que sirven de interacción con la computadora sean recreaciones artificiales de información virtual; el fin de este sistema consiste en proporcionar al usuario la sensación de que está participando inmerso en un mundo totalmente generado por computadora. El ejemplo más usual consiste en un sistema en el que se le proporciona al usuario una simulación a través de imágenes estereoscópicas independientes para cada ojo (las imágenes proporcionadas a cada ojo pertenecen al mismo escenario u objeto pero son generadas con un leve inclinación horizontal del punto de vista, de unos 7º), con imágenes virtuales que recrean en el usuario la sensación de ver los objetos e informaciones virtuales con un alto grado de percepción tridimensional espacial.
Interacción con realidad virtual no inmersiva. Se refiere a un sistema de interacción con computadora que participa de los mismos elementos genéricos del Sistema de Realidad Virtual Inmersiva, que permiten hacer que el usuario se contextualice en un entorno perceptivo generado por el ordenador, con la diferencia respecto a la Realidad Virtual Inmersiva que no se pretende descontextualizar del todo al usuario de las percepciones que le llegan del mundo real y por tanto no se pretende una inmersión completa en una realidad virtual; sino que, lo que se pretende es hacerle participe de una realidad simulada a través del uso de algunos elementos, como la simulación de imágenes (explicada en el concepto de Realidad Virtual Inmersiva) que generan en el espectador la percepción de percepción tridimensional espacial.
Interacción con los Wearablecomputers o sistemas de ordenador "de llevar puesto" que se adaptan al cuerpo o están preparado para ser transportado en una mochila, petaca o insertado en prendas; y que consta de todos los elementos tanto de interfaz física como gráfica que permiten una comunicación con la información virtual contenida en el ordenador llevable. Las interfaz a través de la cual se muestra la información visual suele ser unas gafas especiales con un display incorporado en la lente, pueden presentarse interfaces que reconocen viva voz, y teclados simplificados que permite la introducción de texto con una sola mano, llamados Chordic keyboards.
Interacción con proyecciones holográficas, es decir, con proyecciones visualizables de información virtual o de objetos gráficos que consisten en imágenes de apariencia volumétrica, caracterizadas por aparecer como una representación en el espacio tridimensional.
Interacción información virtual u objetos virtuales representados con proyectores de vídeo o con sistemas de visualización comunes, así como la interacción con algunos máquinas o mecanismos dirigidos por acción humana.
Actualmente existen bastantes dispositivos de interacción, desde la amplia gama de "ratones", hasta otros más
complejos como los reflejados en las patentes EP069014, US2002179224, US2003038783, US2004206824,
WO200501779 o US20050052591.
Descripción detallada de la invención
El dispositivo se presenta como un objeto que se puede acoplar o fijar a la mano de manera que el ajuste sea fácil y rápido para proporcionar libertad de movimientos de la mano aun cuando el dispositivo esté fijado.
El dispositivo consta esencialmente de 2 partes principales, que denominaremos "A" y "B" (Figuras 1 y 2).
La parte "A" posee una forma ergonómica especialmente diseñada para ejercer de fijación del dispositivo en el espacio que describe la inserción de los dedos índice y corazón a la palma o cuerpo de la mano por la parte exterior o anverso de ésta. Concretamente, su parte inferior debe tener dos depresiones que le permitan asentarse sobre la parte posterior de los dedos. Además esta parte del dispositivo se complementa con otro elemento que permite un ajuste adecuado del dispositivo "A" a cualquier talla común de mano; dicha parte que tiene la misión de fijar la parte "A" del dispositivo sobre los dedos (habitualmente índice y corazón), y se señala en las ilustraciones como "C".
De cara a su utilización, el módulo "A" puede contener contiene los elementos electrónicos que comunican remotamente con el computador o la máquina a la que el dispositivo tiene que trasladar los datos, recogidos por las actuaciones que el usuario ha efectuado sobre las diferentes combinaciones de elementos sensores y actores contenidos en el módulo "B".
El elemento "A" puede contener contiene también en su interior la pequeña pila o fuente de alimentación eléctrica que proporciona la energía necesaria a fin de que las diferentes combinaciones de elementos sensores y actores contenidos en el elemento "B" funcionen apropiadamente.
El elemento "A" también contendría si fuese necesario microcontroladores, o elementos electrónicos (como por ejemplo chips especializados en determinadas tareas) que en cada caso fuesen necesarios para adecuar la información recogida por las diferentes combinaciones de elementos sensores y actores contenidos en el elemento "B", a fin de que ésta sea proporcionada de forma adecuada al computador o máquina a la que el dispositivo tiene que trasladar los datos.
La parte denotada "B", es la parte del dispositivo que se prolonga desde el elemento "A" que se encuentra fijado a la mano y situado sobre el anverso de los dedos, quedando de forma sensiblemente paralela a éstos y sobre el espacio interdigital de ambos. El elemento "B", es palpable por el anverso de ambos dedos si se realiza una leve sobre-extensión de las falanges de ambos dedos. Esta posición del elemento B se mantiene en todo momento como posición de reposo, posición no activa o latente en la que no existirá interacción con el sistema hasta que dicho elemento "B" no sea alcanzado por los dedos y atraído hasta donde se el dedo pulgar pueda actuar sobre su superficie inferior. La parte de "B" que lo une al elemento "A", denotada "B1" (Figura 3) posee una gran flexibilidad para facilitar que los dedos puedan atraer este módulo hasta el ámbito de actuación del dedo pulgar; dicha flexibilidad también facilita el regreso del módulo "B" a su posición de inactividad en cuanto se libera al elemento y se deja de sujetar y ejercer presión con los dedos. (Figura 5).
En la parte inferior de "B", denotada en las ilustraciones como "B2" (Figura 3), se alojan diferentes combinaciones de elementos sensores y actores sobre los que el usuario deberá actuar usando principalmente el dedo pulgar sobre ellos. Para poder actuar con el dedo pulgar sobre estos sensores, el elemento "B" se ensancha por su parte inferior (Figura 1, 2 ó 3) permitiendo que sea asido por los dedos sobre los que se acopla "A" que al alcanzarlo se cierran sobre él para arrastrarlo así hasta una posición en la que ambos dedos se encuentren relativamente flexionados faciliten el contacto con el dedo pulgar (Figura 5).
El dedo pulgar permite una gran variedad de diferentes movimientos de precisión, que deberán ser recogidos por los distintos elementos actores y sensores, y enviados posteriormente a la máquina u ordenador como datos de interacción. Dichas señales serán registradas por la computadora como información de entrada; posteriormente y gracias a un programa que interprete adecuadamente dichos datos, éstos definirán las actuaciones que el usuario ejercerá sobre los elementos e informaciones susceptibles de ser manipulados, interactuados, o dirigidos (navegar o comandar). Los elementos actuadores-sensores que se incorporan y alojan en este módulo, son susceptibles de ser seleccionados o combinados de distintas formas, con arreglo al interés en discriminar o aislar determinadas acciones del usuario. Estos elementos sensores pueden ser sensores de posición, sensores de identificación por radio frecuencia, antenas identificadores de radio frecuencia, etiquetas de radiofrecuencia, interruptores pulsadores, interruptores, joysticks de pulsación, joysticks potenciómetros, potenciómetros lineales, y potenciómetros radiales, ruedas tipo "scroll wheel" (rueda de ratón), sensores de campo magnético, sensores de presión, detectores de movimiento, detectores de infrarrojos, sensores ópticos cmos (usados en ratones ópticos), trackballs, touchpad, resistores de presión y de posición, resistores de fuerza, codificadores de rotación, sensores giroscopios, balizas de detección telemétrica por tracking de balizas retroreflectantes de infrarrojos por cámara de infrarrojos, detección de campo magnético, triangulación de posición por ultrasonidos.
En el momento en que el usuario decida dejar de interactuar con el sistema de interacción, éste debe separar ambos dedos para liberar la presión que sujetaba al elemento "B" y dejar que éste vuelva a su posición inicial en la que se encuentra inactivo; la mano vuelve a estar libre para ser ocupada en cualquier otra tarea cotidiana que lo requiera (Figura 6).
El elemento de sujeción, "C", consta de dos partes sensiblemente perpendiculares entre sí denotadas "C1" y "C2" (Figura 4), de forma que "C1" se inserta en la parte "A" del dispositivo mediante algún mecanismo que permita regular el grado de inserción y por tanto, el espacio libre entre la parte "A" y la parte "C2" que sería ocupado por los dedos del usuario al utilizar el dispositivo. Opcionalmente, el elemento "C2" puede estar formado por dos partes simétricas y levemente arqueadas para facilitar su fijación.
El método de fijación no es un anillo u elemento susceptible de ser acoplado o fijado directamente y exclusivamente al cuerpo de uno o varios dedos de forma independiente, algo que constituye una clara diferencia entre este dispositivo y otros dispositivos de interfaz patentados con anterioridad (US2003038783, EP069014, US2003179224, US2004206824), sino que se realiza la sujeción de forma simultánea a ambos dedos (por ejemplo, a los dedos índice y corazón) y haciendo posible que ambos dedos puedan moverse con movimientos laterales similares a los que se hacen al simular con la tijera. Además, permite que el interior de la mano permanezca libre. Se consigue así que dedos y mano mantengan un alto grado de libertad de movimientos que, prácticamente hacen imperceptible la presencia del dispositivo sobre la mano, y suponen una consiguiente ventaja para facilitar el desempeño de otras tareas cotidianas que el usuario deba hacer con la mano sin que por ello el dispositivo suponga merma u obstáculo, como pueden ser la acción de mecanografiar usando un teclado o manipular objetos.
Al utilizar este sistema de fijación, este dispositivo es perfectamente compatible y adaptable a diversos tipos de manos y tallas y resulta intercambiable de la mano derecha a mano izquierda.
Ejemplo. Modo de realización preferido
Para que el dispositivo, desarrolle adecuadamente la funcionalidad para la cual ha sido diseñado, es muy importante que sus partes denominadas "A" y "B" se fabriquen en un material que tenga un cierto grado de elasticidad (para facilitar una acomodación adecuada al lugar de la anatomía de la mano que corresponde para su adaptación) que al mismo tiempo tenga un grado de rigidez que permita alojar sensores y actores con precisión. Si el material fuese demasiado elástico, dichos sensores podrían activarse y enviar datos de una manera errónea o involuntaria. Por otra parte para facilitar el paso de inactividad a actividad de la parte "B" cuando el usuario extiende sus dedos índice y corazón y abraza al módulo para arrastrarlo hasta una posición en la que se permita la acción de manipulación con el dedo pulgar, es conveniente que la parte en la que se prolonga la parte "B" hacia la parte "A", (que ejerce de nexo de unión entre ambas) tenga una capacidad de torsión importante, que permita flexionar importantemente ese punto, y que no cause deformación o vicio en el material para que recupere su estado original, y de esa forma la parte "B" vuelva una y otra vez a su lugar de origen. El elemento "B2" no tiene que ser forzosamente parte del elemento "B", sino que puede estar fabricado en otro material estar compuesto de varios subelementos que permitan su flexión.
La pieza que permite el ajuste al dispositivo de distintas tallas de dedos, "C", y que presiona a estos de abajo a arriba, ha de ser fabricado en un material más rígido y resistente pero a la vez que permita una cierta torsión; aspecto que redundará de forma positiva en una mayor sensación de comodidad y facilidad de movimientos.
Finalmente, para incluir en la parte "A" elementos electrónicos y la fuente de alimentación (batería o pila) se habilita un hueco en la parte interior de la parte "A", con acceso desde su parte superior.
Las distintas opciones y combinaciones de sensores pueden ser incluidas en huecos específicos para cada caso y reservados en el cuerpo de la parte "B" con acceso desde "B2" pueden incluidos en su posición y postura dentro de un molde, en el cual por procedimiento de inyección de plástico con catalizador, o plástico térmicos, se rellena el molde de material ocupando el lugar vacío y sujetando y envolviendo a los actuadores que se hayan incrustado.
A continuación se describen dos ejemplos de situaciones para las cuales el dispositivo ha sido especialmente diseñado.
Supuesto 1
Supongamos que un usuario de una computadora se encuentra disertando en una congreso una ponencia sobre un hallazgo de una interacción molecular que ejerce un efecto determinado sobre algunas células cancerígenas, y para demostrarlo está mostrando una simulación en 3D en la que se muestra dicha interacción, usando una gran superficie de proyección. El disertador se encuentra de pié y cercano a la pantalla, donde puede estar explicando algunos detalles del modelo; En una de sus manos lleva incorporado el dispositivo de interacción, lo que le permite en el momento en que él desee accionar con el pulgar sobre alguno de los sensores o actuadores del dispositivo, para controlar con esa acción activamente y en tiempo real a la simulación 3D de manera que puede mostrar de la forma que crea más oportuna la representación de este modelo, girándolo por ejemplo a hasta un ángulo más clarificador, ampliando alguna zona concreta, o bien realizando alguna selección para que a través de algún menú pueda resaltar alguna zona según interese en su disertación.
Supuesto 2
Supongamos un operario está controlando mercancías que están apiladas en contenedores en un centro de distribución de mercancías; para facilitar el trabajo y reconocimiento de las mercancías, el operario dispone de un ordenador tipo wearablePC que está integrado en su vestimenta o bien porta gracias a un bolso o compartimiento adaptado al cuerpo; este ordenador dispone de una interfaz en la que podemos visualizar los datos que nos proporciona el ordenador al reconocer el código del contenedor. Este display donde se pueden visualizar los datos es de tipo gafas con display, al mismo tiempo que el operario puede ver el contenido del contendor descrito en cajas y unidades e informaciones varias, gracias al dispositivo de interacción objeto de esta solicitud de patente el operario puede navegar en un menú contextual para comprobar otros datos, vinculados al producto, como fecha de entrega, fecha de distribución o clientes de entrega. Una vez el operario ha hecho las pertinentes comprobaciones, procede simultáneamente a manejar la máquina montacargas para recoger y llevar la mercancía hasta el camión que la espera en el muelle de carga.
Gracias a la herramienta objeto de esta patente el operario puede interactuar con la información simultáneamente mientras selecciona la mercancía mientras maneja la máquina monta cargas.
Breve descripción de las ilustraciones
Figura 1.- Vista lateral de ¾ y vista inferior del dispositivo de interfaz, en el que se distinguen los elementos A y B, y el sistema de fijación, C.
Figura 2.- Vista lateral de ¾ en la que se aprecia el dispositivo de interfaz en el que se distinguen los elementos A y B, y el sistema de fijación, C.
Figura 3.- Vista lateral de ¾ del dispositivo de interfaz en el que destaca el elemento B en el que se distingue su parte de fijación, B1, al elemento A y la parte inferior, B2.
Figura 4.- Detalle de la forma del elemento de fijación en dos de sus posibles diseños en la que se distingue el elemento de anclaje, C1, al elemento A y el elemento de sujeción a los dedos, C2.
Figura 5.- Secuencia de vistas laterales del dispositivo de interfaz que muestran a la mano con el dispositivo acoplado a ella, representando la transición que el usuario ha de efectuar para pasar de la postura de inactividad a la postura en que el dispositivo se encuentra activo y listo para que las actuaciones que el usuario efectúe sobre el módulo B a través de su dedo pulgar sean recogidas como datos válidos en la interacción con un sistema.
Figura 6.- Vista lateral de la mano en la que se muestra la situación y lugar de fijación del dispositivo cuando está adaptado a la mano y se encuentra en situación de reposo o de inactividad y muestra la posibilidad de coger elementos o usar la mano con libertad mientras el dispositivo se encuentra adaptado a la mano.

Claims (3)

1. Dispositivo de interacción y navegación que comprende dos partes diferenciadas, una de las cuales,"A" (Figura 1, 2 ó 3), se fija en el anverso de la mano y otra, "B" (Figura 1, 2 ó 3), que conecta con la primera de forma flexible que le permita mantenerse sobre los dedos hasta que, mediante éstos, sea flexionada hacia el interior de la mano caracterizado porque su fijación a la mano se realiza sobre dos dedos, de forma que ambos dedos puedan moverse con movimientos laterales y permita que el interior de la mano permanezca libre, porque el elemento "A" contiene los elementos electrónicos que comunican remotamente con la máquina a la que el dispositivo tiene que trasladar los datos y la fuente de alimentación del dispositivo y porque el elemento "B" se ensancha por su parte inferior, "B2" (Figura 2) permitiendo que sea asido por los dedos sobre los que se acopla "A" para arrastrarlo así hasta una posición en la que pueda ser alcanzado por el dedo pulgar y contiene en su interior combinaciones de elementos sensores y/o actores.
2. Dispositivo de interacción y navegación según reivindicación 1 caracterizado porque el sistema de fijación a la mano comprende dos elementos sensiblemente perpendiculares (Figura 3) de forma que uno de ellos, "C1" conecta de forma sensiblemente perpendicular con el elemento "A" y su longitud permite introducir un dedo entre "C2" y "A" y su grosor permita que el interior de la mano permanezca libre.
3. Dispositivo de interacción y navegación según reivindicaciones 1 ó 2 caracterizado porque el elemento "B" (Figura 1 ó 2) contiene en su interior alguna combinación de sensores de posición, sensores de identificación por radio frecuencia, antenas identificadores de radio frecuencia, etiquetas de radiofrecuencia, interruptores pulsadores, interruptores, joysticks de pulsación, joysticks potenciómetros, potenciómetros lineales, y potenciómetros radiales, ruedas tipo "scroll wheel" (rueda de ratón), sensores de campo magnético, sensores de presión, detectores de movimiento, detectores de infrarrojos, sensores ópticos cmos (usados en ratones ópticos), trackballs, touchpad, resistores de presión y de posición, resistores de fuerza, codificadores de rotación, sensores giroscopios, balizas de detección telemétrica por tracking de balizas retroreflectantes de infrarrojos por cámara de infrarrojos, detección de campo magnético o triangulación de posición por ultrasonidos.
ES200501202A 2005-05-11 2005-05-11 "dispositivo de interaccion y navegacion portatil y adaptable a la mano". Active ES2303399B2 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES200501202A ES2303399B2 (es) 2005-05-11 2005-05-11 "dispositivo de interaccion y navegacion portatil y adaptable a la mano".

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES200501202A ES2303399B2 (es) 2005-05-11 2005-05-11 "dispositivo de interaccion y navegacion portatil y adaptable a la mano".

Publications (2)

Publication Number Publication Date
ES2303399A1 ES2303399A1 (es) 2008-08-01
ES2303399B2 true ES2303399B2 (es) 2009-05-01

Family

ID=39637002

Family Applications (1)

Application Number Title Priority Date Filing Date
ES200501202A Active ES2303399B2 (es) 2005-05-11 2005-05-11 "dispositivo de interaccion y navegacion portatil y adaptable a la mano".

Country Status (1)

Country Link
ES (1) ES2303399B2 (es)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832296A (en) * 1995-04-26 1998-11-03 Interval Research Corp. Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user
SE523183C2 (sv) * 2001-09-14 2004-03-30 Perific Ab En protabel enhet för att inmata signaler till en perifer enhet, och användning av en sådan enhet
US20030214481A1 (en) * 2002-05-14 2003-11-20 Yongming Xiong Finger worn and operated input device and method of use

Also Published As

Publication number Publication date
ES2303399A1 (es) 2008-08-01

Similar Documents

Publication Publication Date Title
US9628783B2 (en) Method for interacting with virtual environment using stereoscope attached to computing device and modifying view of virtual environment based on user input in order to be displayed on portion of display
EP3469457B1 (en) Modular extension of inertial controller for six dof mixed reality input
US20190265488A1 (en) Remote control augmented motion capture
US11826636B2 (en) Depth sensing module and mobile device including the same
Burdea et al. Virtual reality technology
US20160299531A1 (en) Cylindrical Computing Device with Flexible Display
US10475251B2 (en) Method and apparatus for multiple mode interface
WO2014093525A1 (en) Wearable multi-modal input device for augmented reality
US20120135803A1 (en) Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system
US20050093887A1 (en) Image processing system, image processing apparatus, and display apparatus
US20200193677A1 (en) 3d digital painting
JP6931068B2 (ja) 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
CN111263956A (zh) 信息处理设备、信息处理方法和程序
US11055926B2 (en) Method and apparatus for multiple mode interface
JP2006301654A (ja) 画像呈示装置
US20170285694A1 (en) Control device, control method, and program
JP2010287221A (ja) 力覚提示装置
JPWO2019225170A1 (ja) 位置指示デバイス及び空間位置指示システム
WO2019121654A1 (en) Methods, apparatus, systems, computer programs for enabling mediated reality
CN110140100A (zh) 三维增强现实对象用户界面功能
ES2303399B2 (es) "dispositivo de interaccion y navegacion portatil y adaptable a la mano".
CN105739684B (zh) 具有手势校准机制的电子系统及其操作方法
CN105516815A (zh) 使用者通过动作控制显示装置的操作界面的方法
KR20130081504A (ko) 로봇을 이용한 물품 운반 시스템

Legal Events

Date Code Title Description
EC2A Search report published

Date of ref document: 20080801

Kind code of ref document: A1