ES2303399B2 - "dispositivo de interaccion y navegacion portatil y adaptable a la mano". - Google Patents
"dispositivo de interaccion y navegacion portatil y adaptable a la mano". Download PDFInfo
- Publication number
- ES2303399B2 ES2303399B2 ES200501202A ES200501202A ES2303399B2 ES 2303399 B2 ES2303399 B2 ES 2303399B2 ES 200501202 A ES200501202 A ES 200501202A ES 200501202 A ES200501202 A ES 200501202A ES 2303399 B2 ES2303399 B2 ES 2303399B2
- Authority
- ES
- Spain
- Prior art keywords
- interaction
- hand
- sensors
- fingers
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
Abstract
Dispositivo de interacción y navegación portátil
y adaptable a la mano, que permite realizar un acto de interacción,
sin precisar elementos o superficies auxiliares. Además, el
usuario al actuar sobre él para comunicarse con una máquina no
requiere que la mano se destine en exclusiva al manejo del
dispositivo.
Description
Dispositivo de interacción y navegación portátil
y adaptable a la mano.
Dispositivos electrónicos de interfaz de usuario
para la comunicación entre hombre y tecnologías de procesado de
información, usados para la interacción, navegación o tratamiento
de dispositivos electrónicos, como interfaz de comunicación entre
usuario y sistemas de interacción o como medio de interacción,
navegación, y tratamiento de la información virtual, entendiendo
como tal todas las formas de información contenidas de forma
insustancial, que se muestran y manejan en medios electrónicos y
que pueden ser manipuladas, reproducidas, alteradas, conservadas y
transmitidas con gran celeridad y economía de medios gracias
fundamentalmente a su carácter no material.
Se presenta un dispositivo físico de navegación
e interacción adaptable a la mano y portátil que permite realizar
un acto de interacción, sin precisar, como ocurre con otros
dispositivos, de elementos o superficies auxiliares. Además, el
usuario al actuar sobre él para comunicarse con una máquina no
requiere que la mano se destine en exclusiva al manejo del
dispositivo y para dejar de utilizarlo no es necesario desprenderse
de él (soltarlo o cogerlo cada vez).
El dispositivo que se ha diseñado está adecuado
especialmente por sus características para ser usado en la
interacción, comunicación, control, navegación, o actuación que
pueda realizarse sobre información virtual o sobre otros
dispositivos. Su uso es apropiado especialmente en aquellos ámbitos
de uso específicos en los que los sistemas de interacción de los
que participe el usuario requieran que éste esté en continuo
movimiento, se desplace esporádicamente, se encuentre por momentos
en posición sedente y en momentos de pié o en el caso en el que para
interactuar, navegar, o controlar algún dispositivo o alguna
información virtual, el usuario requiera disponer de la libertad de
desplazarse de un lugar a otro, y mientras tanto simultáneamente
mantener abierta la opción de ejercer interacción con una
computadora, o con tecnologías u objetos tecnológicos que requieran
de una interacción.
En concreto se puede resumir diciendo que el
dispositivo presentado en esta solicitud de patente resulta
adecuado en todos aquellos casos en que el sistema de interacción
usado por el usuario requiera que el módulo de interacción a través
del que se pilota, se interacciona, se navega o se controla, sea
portátil y permita ser transportado por el usuario a cualquier
parte donde pueda darse interacción con alguno de los distintos
sistemas de interacción descritos con anterioridad.
Existen distintos sistemas de interacción con
tecnologías computacionales que requieren del uso de interfaces de
navegación e interacciones específicas. Dichos sistemas de
interacción requieren la participación activa del usuario, para
actuar controlar, interactuar, comunicar o navegar con la
información virtual o con otros dispositivos.
Algunos ejemplos de estos sistemas de
interacción son los siguientes:
Interacción con un ordenador Ubicuo: En este
caso el ordenador como elemento físico deja de estar necesariamente
ubicado en un lugar concreto y sus partes y funciones se encuentran
disgregadas físicamente en forma de elementos autónomos que se
comunican generalmente de forma inalámbrica o remota.
Interacción con los llamados Smartphones,
teléfonos Móviles que integran una gran potencia de calculo para
ofrecer una multifuncionalidad similar a la de un ordenador
personal; creación de textos, imágenes fotográficas, agenda,
conexión a Internet.
Interacción con la realidad aumentada. Éste es
un concepto de interacción con la computadora en la que la
información virtual que el ordenador suministra al usuario se
encuentra integrada y mezclada en conjunción con el espacio real
llegando a estar esta información perfectamente integrada en la
perspectiva general a través de la que el usuario visiona la escena
real. Para producir el efecto de realidad aumentada, es necesaria
la participación de tecnologías de visualización que sean capaces
de mostrar elementos visuales en el espacio, como lo son
proyecciones holográficas o como lo podrían ser elementos de
visualización de tipo Seethrough (dispositivos que simulan
el efecto de poder mirar a través de ellos; y que consisten
normalmente en una pantalla de visualización exenta o insertada en
unas gafas que muestran una imagen proporcionada por una cámara
integrada al extremo opuesto de la pantalla, lo que permite una
visualización de la escena real a través de la pantalla; visión de
la escena en la cual se pueden visionar elementos u objetos
virtuales que no escarian presentes en la escena real y que han sido
insertados por la computadora en la imagen recogida por la cámara,
guardando relación total y estando perfectamente integradas en la
perspectiva de la escena).
Interacción con realidad virtual inmersiva. Se
refiere a un sistema de interacción con computadora en el que se
busca descontextualizar al usuario con el entorno real lo máximo
posible, con intención de proporcionarle un entorno de percepción
en el cual todos los elementos que sirven de interacción con la
computadora sean recreaciones artificiales de información virtual;
el fin de este sistema consiste en proporcionar al usuario la
sensación de que está participando inmerso en un mundo totalmente
generado por computadora. El ejemplo más usual consiste en un
sistema en el que se le proporciona al usuario una simulación a
través de imágenes estereoscópicas independientes para cada ojo
(las imágenes proporcionadas a cada ojo pertenecen al mismo
escenario u objeto pero son generadas con un leve inclinación
horizontal del punto de vista, de unos 7º), con imágenes virtuales
que recrean en el usuario la sensación de ver los objetos e
informaciones virtuales con un alto grado de percepción
tridimensional espacial.
Interacción con realidad virtual no inmersiva.
Se refiere a un sistema de interacción con computadora que
participa de los mismos elementos genéricos del Sistema de Realidad
Virtual Inmersiva, que permiten hacer que el usuario se
contextualice en un entorno perceptivo generado por el ordenador,
con la diferencia respecto a la Realidad Virtual Inmersiva que no
se pretende descontextualizar del todo al usuario de las
percepciones que le llegan del mundo real y por tanto no se pretende
una inmersión completa en una realidad virtual; sino que, lo que se
pretende es hacerle participe de una realidad simulada a través del
uso de algunos elementos, como la simulación de imágenes (explicada
en el concepto de Realidad Virtual Inmersiva) que generan en el
espectador la percepción de percepción tridimensional espacial.
Interacción con los Wearablecomputers o
sistemas de ordenador "de llevar puesto" que se adaptan al
cuerpo o están preparado para ser transportado en una mochila,
petaca o insertado en prendas; y que consta de todos los elementos
tanto de interfaz física como gráfica que permiten una comunicación
con la información virtual contenida en el ordenador llevable. Las
interfaz a través de la cual se muestra la información visual suele
ser unas gafas especiales con un display incorporado en la lente,
pueden presentarse interfaces que reconocen viva voz, y teclados
simplificados que permite la introducción de texto con una sola
mano, llamados Chordic keyboards.
Interacción con proyecciones holográficas, es
decir, con proyecciones visualizables de información virtual o de
objetos gráficos que consisten en imágenes de apariencia
volumétrica, caracterizadas por aparecer como una representación en
el espacio tridimensional.
Interacción información virtual u objetos
virtuales representados con proyectores de vídeo o con sistemas de
visualización comunes, así como la interacción con algunos máquinas
o mecanismos dirigidos por acción humana.
Actualmente existen bastantes dispositivos de
interacción, desde la amplia gama de "ratones", hasta otros
más
complejos como los reflejados en las patentes EP069014, US2002179224, US2003038783, US2004206824,
WO200501779 o US20050052591.
complejos como los reflejados en las patentes EP069014, US2002179224, US2003038783, US2004206824,
WO200501779 o US20050052591.
El dispositivo se presenta como un objeto que se
puede acoplar o fijar a la mano de manera que el ajuste sea fácil y
rápido para proporcionar libertad de movimientos de la mano aun
cuando el dispositivo esté fijado.
El dispositivo consta esencialmente de 2 partes
principales, que denominaremos "A" y "B" (Figuras 1 y
2).
La parte "A" posee una forma ergonómica
especialmente diseñada para ejercer de fijación del dispositivo en
el espacio que describe la inserción de los dedos índice y corazón
a la palma o cuerpo de la mano por la parte exterior o anverso de
ésta. Concretamente, su parte inferior debe tener dos depresiones
que le permitan asentarse sobre la parte posterior de los dedos.
Además esta parte del dispositivo se complementa con otro elemento
que permite un ajuste adecuado del dispositivo "A" a cualquier
talla común de mano; dicha parte que tiene la misión de fijar la
parte "A" del dispositivo sobre los dedos (habitualmente
índice y corazón), y se señala en las ilustraciones como
"C".
De cara a su utilización, el módulo "A"
puede contener contiene los elementos electrónicos que comunican
remotamente con el computador o la máquina a la que el dispositivo
tiene que trasladar los datos, recogidos por las actuaciones que el
usuario ha efectuado sobre las diferentes combinaciones de elementos
sensores y actores contenidos en el módulo "B".
El elemento "A" puede contener contiene
también en su interior la pequeña pila o fuente de alimentación
eléctrica que proporciona la energía necesaria a fin de que las
diferentes combinaciones de elementos sensores y actores contenidos
en el elemento "B" funcionen apropiadamente.
El elemento "A" también contendría si fuese
necesario microcontroladores, o elementos electrónicos (como por
ejemplo chips especializados en determinadas tareas) que en cada
caso fuesen necesarios para adecuar la información recogida por las
diferentes combinaciones de elementos sensores y actores contenidos
en el elemento "B", a fin de que ésta sea proporcionada de
forma adecuada al computador o máquina a la que el dispositivo
tiene que trasladar los datos.
La parte denotada "B", es la parte del
dispositivo que se prolonga desde el elemento "A" que se
encuentra fijado a la mano y situado sobre el anverso de los dedos,
quedando de forma sensiblemente paralela a éstos y sobre el espacio
interdigital de ambos. El elemento "B", es palpable por el
anverso de ambos dedos si se realiza una leve
sobre-extensión de las falanges de ambos dedos. Esta
posición del elemento B se mantiene en todo momento como posición
de reposo, posición no activa o latente en la que no existirá
interacción con el sistema hasta que dicho elemento "B" no sea
alcanzado por los dedos y atraído hasta donde se el dedo pulgar
pueda actuar sobre su superficie inferior. La parte de "B" que
lo une al elemento "A", denotada "B1" (Figura 3) posee
una gran flexibilidad para facilitar que los dedos puedan atraer
este módulo hasta el ámbito de actuación del dedo pulgar; dicha
flexibilidad también facilita el regreso del módulo "B" a su
posición de inactividad en cuanto se libera al elemento y se deja
de sujetar y ejercer presión con los dedos. (Figura 5).
En la parte inferior de "B", denotada en
las ilustraciones como "B2" (Figura 3), se alojan diferentes
combinaciones de elementos sensores y actores sobre los que el
usuario deberá actuar usando principalmente el dedo pulgar sobre
ellos. Para poder actuar con el dedo pulgar sobre estos sensores,
el elemento "B" se ensancha por su parte inferior (Figura 1, 2
ó 3) permitiendo que sea asido por los dedos sobre los que se
acopla "A" que al alcanzarlo se cierran sobre él para
arrastrarlo así hasta una posición en la que ambos dedos se
encuentren relativamente flexionados faciliten el contacto con el
dedo pulgar (Figura 5).
El dedo pulgar permite una gran variedad de
diferentes movimientos de precisión, que deberán ser recogidos por
los distintos elementos actores y sensores, y enviados
posteriormente a la máquina u ordenador como datos de interacción.
Dichas señales serán registradas por la computadora como información
de entrada; posteriormente y gracias a un programa que interprete
adecuadamente dichos datos, éstos definirán las actuaciones que el
usuario ejercerá sobre los elementos e informaciones susceptibles
de ser manipulados, interactuados, o dirigidos (navegar o comandar).
Los elementos actuadores-sensores que se incorporan
y alojan en este módulo, son susceptibles de ser seleccionados o
combinados de distintas formas, con arreglo al interés en
discriminar o aislar determinadas acciones del usuario. Estos
elementos sensores pueden ser sensores de posición, sensores de
identificación por radio frecuencia, antenas identificadores de
radio frecuencia, etiquetas de radiofrecuencia, interruptores
pulsadores, interruptores, joysticks de pulsación, joysticks
potenciómetros, potenciómetros lineales, y potenciómetros radiales,
ruedas tipo "scroll wheel" (rueda de ratón), sensores de campo
magnético, sensores de presión, detectores de movimiento,
detectores de infrarrojos, sensores ópticos cmos (usados en ratones
ópticos), trackballs, touchpad, resistores de presión y de
posición, resistores de fuerza, codificadores de rotación, sensores
giroscopios, balizas de detección telemétrica por tracking de
balizas retroreflectantes de infrarrojos por cámara de infrarrojos,
detección de campo magnético, triangulación de posición por
ultrasonidos.
En el momento en que el usuario decida dejar de
interactuar con el sistema de interacción, éste debe separar ambos
dedos para liberar la presión que sujetaba al elemento "B" y
dejar que éste vuelva a su posición inicial en la que se encuentra
inactivo; la mano vuelve a estar libre para ser ocupada en cualquier
otra tarea cotidiana que lo requiera (Figura 6).
El elemento de sujeción, "C", consta de dos
partes sensiblemente perpendiculares entre sí denotadas "C1" y
"C2" (Figura 4), de forma que "C1" se inserta en la parte
"A" del dispositivo mediante algún mecanismo que permita
regular el grado de inserción y por tanto, el espacio libre entre
la parte "A" y la parte "C2" que sería ocupado por los
dedos del usuario al utilizar el dispositivo. Opcionalmente, el
elemento "C2" puede estar formado por dos partes simétricas y
levemente arqueadas para facilitar su fijación.
El método de fijación no es un anillo u elemento
susceptible de ser acoplado o fijado directamente y exclusivamente
al cuerpo de uno o varios dedos de forma independiente, algo que
constituye una clara diferencia entre este dispositivo y otros
dispositivos de interfaz patentados con anterioridad (US2003038783,
EP069014, US2003179224, US2004206824), sino que se realiza la
sujeción de forma simultánea a ambos dedos (por ejemplo, a los dedos
índice y corazón) y haciendo posible que ambos dedos puedan moverse
con movimientos laterales similares a los que se hacen al simular
con la tijera. Además, permite que el interior de la mano
permanezca libre. Se consigue así que dedos y mano mantengan un
alto grado de libertad de movimientos que, prácticamente hacen
imperceptible la presencia del dispositivo sobre la mano, y suponen
una consiguiente ventaja para facilitar el desempeño de otras
tareas cotidianas que el usuario deba hacer con la mano sin que por
ello el dispositivo suponga merma u obstáculo, como pueden ser la
acción de mecanografiar usando un teclado o manipular objetos.
Al utilizar este sistema de fijación, este
dispositivo es perfectamente compatible y adaptable a diversos
tipos de manos y tallas y resulta intercambiable de la mano derecha
a mano izquierda.
Para que el dispositivo, desarrolle
adecuadamente la funcionalidad para la cual ha sido diseñado, es
muy importante que sus partes denominadas "A" y "B" se
fabriquen en un material que tenga un cierto grado de elasticidad
(para facilitar una acomodación adecuada al lugar de la anatomía de
la mano que corresponde para su adaptación) que al mismo tiempo
tenga un grado de rigidez que permita alojar sensores y actores con
precisión. Si el material fuese demasiado elástico, dichos sensores
podrían activarse y enviar datos de una manera errónea o
involuntaria. Por otra parte para facilitar el paso de inactividad
a actividad de la parte "B" cuando el usuario extiende sus
dedos índice y corazón y abraza al módulo para arrastrarlo hasta
una posición en la que se permita la acción de manipulación con el
dedo pulgar, es conveniente que la parte en la que se prolonga la
parte "B" hacia la parte "A", (que ejerce de nexo de
unión entre ambas) tenga una capacidad de torsión importante, que
permita flexionar importantemente ese punto, y que no cause
deformación o vicio en el material para que recupere su estado
original, y de esa forma la parte "B" vuelva una y otra vez a
su lugar de origen. El elemento "B2" no tiene que ser
forzosamente parte del elemento "B", sino que puede estar
fabricado en otro material estar compuesto de varios subelementos
que permitan su flexión.
La pieza que permite el ajuste al dispositivo de
distintas tallas de dedos, "C", y que presiona a estos de
abajo a arriba, ha de ser fabricado en un material más rígido y
resistente pero a la vez que permita una cierta torsión; aspecto que
redundará de forma positiva en una mayor sensación de comodidad y
facilidad de movimientos.
Finalmente, para incluir en la parte "A"
elementos electrónicos y la fuente de alimentación (batería o pila)
se habilita un hueco en la parte interior de la parte "A", con
acceso desde su parte superior.
Las distintas opciones y combinaciones de
sensores pueden ser incluidas en huecos específicos para cada caso
y reservados en el cuerpo de la parte "B" con acceso desde
"B2" pueden incluidos en su posición y postura dentro de un
molde, en el cual por procedimiento de inyección de plástico con
catalizador, o plástico térmicos, se rellena el molde de material
ocupando el lugar vacío y sujetando y envolviendo a los actuadores
que se hayan incrustado.
A continuación se describen dos ejemplos de
situaciones para las cuales el dispositivo ha sido especialmente
diseñado.
Supuesto
1
Supongamos que un usuario de una computadora se
encuentra disertando en una congreso una ponencia sobre un hallazgo
de una interacción molecular que ejerce un efecto determinado sobre
algunas células cancerígenas, y para demostrarlo está mostrando una
simulación en 3D en la que se muestra dicha interacción, usando una
gran superficie de proyección. El disertador se encuentra de pié y
cercano a la pantalla, donde puede estar explicando algunos
detalles del modelo; En una de sus manos lleva incorporado el
dispositivo de interacción, lo que le permite en el momento en que
él desee accionar con el pulgar sobre alguno de los sensores o
actuadores del dispositivo, para controlar con esa acción
activamente y en tiempo real a la simulación 3D de manera que puede
mostrar de la forma que crea más oportuna la representación de este
modelo, girándolo por ejemplo a hasta un ángulo más clarificador,
ampliando alguna zona concreta, o bien realizando alguna selección
para que a través de algún menú pueda resaltar alguna zona según
interese en su disertación.
Supuesto
2
Supongamos un operario está controlando
mercancías que están apiladas en contenedores en un centro de
distribución de mercancías; para facilitar el trabajo y
reconocimiento de las mercancías, el operario dispone de un
ordenador tipo wearablePC que está integrado en su
vestimenta o bien porta gracias a un bolso o compartimiento
adaptado al cuerpo; este ordenador dispone de una interfaz en la
que podemos visualizar los datos que nos proporciona el ordenador al
reconocer el código del contenedor. Este display donde se pueden
visualizar los datos es de tipo gafas con display, al mismo tiempo
que el operario puede ver el contenido del contendor descrito en
cajas y unidades e informaciones varias, gracias al dispositivo de
interacción objeto de esta solicitud de patente el operario puede
navegar en un menú contextual para comprobar otros datos, vinculados
al producto, como fecha de entrega, fecha de distribución o
clientes de entrega. Una vez el operario ha hecho las pertinentes
comprobaciones, procede simultáneamente a manejar la máquina
montacargas para recoger y llevar la mercancía hasta el camión que
la espera en el muelle de carga.
Gracias a la herramienta objeto de esta patente
el operario puede interactuar con la información simultáneamente
mientras selecciona la mercancía mientras maneja la máquina monta
cargas.
Figura 1.- Vista lateral de ¾ y vista inferior
del dispositivo de interfaz, en el que se distinguen los elementos
A y B, y el sistema de fijación, C.
Figura 2.- Vista lateral de ¾ en la que se
aprecia el dispositivo de interfaz en el que se distinguen los
elementos A y B, y el sistema de fijación, C.
Figura 3.- Vista lateral de ¾ del dispositivo
de interfaz en el que destaca el elemento B en el que se distingue
su parte de fijación, B1, al elemento A y la parte inferior,
B2.
Figura 4.- Detalle de la forma del elemento de
fijación en dos de sus posibles diseños en la que se distingue el
elemento de anclaje, C1, al elemento A y el elemento de sujeción a
los dedos, C2.
Figura 5.- Secuencia de vistas laterales del
dispositivo de interfaz que muestran a la mano con el dispositivo
acoplado a ella, representando la transición que el usuario ha de
efectuar para pasar de la postura de inactividad a la postura en que
el dispositivo se encuentra activo y listo para que las actuaciones
que el usuario efectúe sobre el módulo B a través de su dedo pulgar
sean recogidas como datos válidos en la interacción con un
sistema.
Figura 6.- Vista lateral de la mano en la que se
muestra la situación y lugar de fijación del dispositivo cuando
está adaptado a la mano y se encuentra en situación de reposo o de
inactividad y muestra la posibilidad de coger elementos o usar la
mano con libertad mientras el dispositivo se encuentra adaptado a la
mano.
Claims (3)
1. Dispositivo de interacción y navegación que
comprende dos partes diferenciadas, una de las cuales,"A"
(Figura 1, 2 ó 3), se fija en el anverso de la mano y otra,
"B" (Figura 1, 2 ó 3), que conecta con la primera de forma
flexible que le permita mantenerse sobre los dedos hasta que,
mediante éstos, sea flexionada hacia el interior de la mano
caracterizado porque su fijación a la mano se realiza sobre
dos dedos, de forma que ambos dedos puedan moverse con movimientos
laterales y permita que el interior de la mano permanezca libre,
porque el elemento "A" contiene los elementos electrónicos que
comunican remotamente con la máquina a la que el dispositivo tiene
que trasladar los datos y la fuente de alimentación del dispositivo
y porque el elemento "B" se ensancha por su parte inferior,
"B2" (Figura 2) permitiendo que sea asido por los dedos sobre
los que se acopla "A" para arrastrarlo así hasta una posición
en la que pueda ser alcanzado por el dedo pulgar y contiene en su
interior combinaciones de elementos sensores y/o actores.
2. Dispositivo de interacción y navegación según
reivindicación 1 caracterizado porque el sistema de fijación
a la mano comprende dos elementos sensiblemente perpendiculares
(Figura 3) de forma que uno de ellos, "C1" conecta de forma
sensiblemente perpendicular con el elemento "A" y su longitud
permite introducir un dedo entre "C2" y "A" y su grosor
permita que el interior de la mano permanezca libre.
3. Dispositivo de interacción y navegación según
reivindicaciones 1 ó 2 caracterizado porque el elemento
"B" (Figura 1 ó 2) contiene en su interior alguna combinación
de sensores de posición, sensores de identificación por radio
frecuencia, antenas identificadores de radio frecuencia, etiquetas
de radiofrecuencia, interruptores pulsadores, interruptores,
joysticks de pulsación, joysticks potenciómetros, potenciómetros
lineales, y potenciómetros radiales, ruedas tipo "scroll
wheel" (rueda de ratón), sensores de campo magnético, sensores
de presión, detectores de movimiento, detectores de infrarrojos,
sensores ópticos cmos (usados en ratones ópticos), trackballs,
touchpad, resistores de presión y de posición, resistores de
fuerza, codificadores de rotación, sensores giroscopios, balizas de
detección telemétrica por tracking de balizas retroreflectantes de
infrarrojos por cámara de infrarrojos, detección de campo magnético
o triangulación de posición por ultrasonidos.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200501202A ES2303399B2 (es) | 2005-05-11 | 2005-05-11 | "dispositivo de interaccion y navegacion portatil y adaptable a la mano". |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200501202A ES2303399B2 (es) | 2005-05-11 | 2005-05-11 | "dispositivo de interaccion y navegacion portatil y adaptable a la mano". |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2303399A1 ES2303399A1 (es) | 2008-08-01 |
ES2303399B2 true ES2303399B2 (es) | 2009-05-01 |
Family
ID=39637002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200501202A Active ES2303399B2 (es) | 2005-05-11 | 2005-05-11 | "dispositivo de interaccion y navegacion portatil y adaptable a la mano". |
Country Status (1)
Country | Link |
---|---|
ES (1) | ES2303399B2 (es) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5832296A (en) * | 1995-04-26 | 1998-11-03 | Interval Research Corp. | Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user |
SE523183C2 (sv) * | 2001-09-14 | 2004-03-30 | Perific Ab | En protabel enhet för att inmata signaler till en perifer enhet, och användning av en sådan enhet |
US20030214481A1 (en) * | 2002-05-14 | 2003-11-20 | Yongming Xiong | Finger worn and operated input device and method of use |
-
2005
- 2005-05-11 ES ES200501202A patent/ES2303399B2/es active Active
Also Published As
Publication number | Publication date |
---|---|
ES2303399A1 (es) | 2008-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9628783B2 (en) | Method for interacting with virtual environment using stereoscope attached to computing device and modifying view of virtual environment based on user input in order to be displayed on portion of display | |
EP3469457B1 (en) | Modular extension of inertial controller for six dof mixed reality input | |
US20190265488A1 (en) | Remote control augmented motion capture | |
US11826636B2 (en) | Depth sensing module and mobile device including the same | |
Burdea et al. | Virtual reality technology | |
US20160299531A1 (en) | Cylindrical Computing Device with Flexible Display | |
US10475251B2 (en) | Method and apparatus for multiple mode interface | |
WO2014093525A1 (en) | Wearable multi-modal input device for augmented reality | |
US20120135803A1 (en) | Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system | |
US20050093887A1 (en) | Image processing system, image processing apparatus, and display apparatus | |
US20200193677A1 (en) | 3d digital painting | |
JP6931068B2 (ja) | 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース | |
US11209916B1 (en) | Dominant hand usage for an augmented/virtual reality device | |
CN111263956A (zh) | 信息处理设备、信息处理方法和程序 | |
US11055926B2 (en) | Method and apparatus for multiple mode interface | |
JP2006301654A (ja) | 画像呈示装置 | |
US20170285694A1 (en) | Control device, control method, and program | |
JP2010287221A (ja) | 力覚提示装置 | |
JPWO2019225170A1 (ja) | 位置指示デバイス及び空間位置指示システム | |
WO2019121654A1 (en) | Methods, apparatus, systems, computer programs for enabling mediated reality | |
CN110140100A (zh) | 三维增强现实对象用户界面功能 | |
ES2303399B2 (es) | "dispositivo de interaccion y navegacion portatil y adaptable a la mano". | |
CN105739684B (zh) | 具有手势校准机制的电子系统及其操作方法 | |
CN105516815A (zh) | 使用者通过动作控制显示装置的操作界面的方法 | |
KR20130081504A (ko) | 로봇을 이용한 물품 운반 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EC2A | Search report published |
Date of ref document: 20080801 Kind code of ref document: A1 |