ES2900423T3 - Gafas digitales ópticas y perceptivas mejoradas - Google Patents

Gafas digitales ópticas y perceptivas mejoradas Download PDF

Info

Publication number
ES2900423T3
ES2900423T3 ES14763034T ES14763034T ES2900423T3 ES 2900423 T3 ES2900423 T3 ES 2900423T3 ES 14763034 T ES14763034 T ES 14763034T ES 14763034 T ES14763034 T ES 14763034T ES 2900423 T3 ES2900423 T3 ES 2900423T3
Authority
ES
Spain
Prior art keywords
optical device
wearable optical
wearable
lens
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14763034T
Other languages
English (en)
Inventor
Scott Lewis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Percept Technologies Inc
Original Assignee
Percept Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/841,550 external-priority patent/US11428937B2/en
Application filed by Percept Technologies Inc filed Critical Percept Technologies Inc
Application granted granted Critical
Publication of ES2900423T3 publication Critical patent/ES2900423T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Eyeglasses (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

Dispositivo óptico que puede llevarse puesto que comprende: una lente; uno o más proyectores; un mecanismo de seguimiento ocular dinámico acoplado a la lente, incluyendo el mecanismo de seguimiento ocular dinámico una cámara montada en el dispositivo óptico que puede llevarse puesto y orientada a detectar características de la persona que lo lleva, siendo el mecanismo de seguimiento ocular dinámico sensible a una contracción del iris/de la pupila; y el control de una visualización en la lente, para proporcionar control del sombreado en el dispositivo óptico que puede llevarse puesto, en el que el control del sombreado se proporciona proyectando un efecto de oclusión en la lente, y en el que el control del sombreado se controla usando la contracción del iris/de la pupila.

Description

DESCRIPCIÓN
Gafas digitales ópticas y perceptivas mejoradas
CAMPO DE LA INVENCIÓN
[0001] La presente invención se refiere generalmente a una óptica que puede llevarse puesta y, más particularmente, a una óptica que puede llevarse puesta que incluye una funcionalidad adicional.
ANTECEDENTES DE LA INVENCIÓN
[0002] Se utiliza la óptica que puede llevarse puesta para una variedad de fines. La óptica que puede llevarse puesta se usa para mejorar la visión con gafas de lectura y para proteger la visión. Frecuentemente se usan gafas protectoras para proteger los ojos dentro de zonas peligrosas. Es deseable añadir una funcionalidad adicional a las gafas. Esta funcionalidad puede incluir una variedad de formas, que son electrónica, mecánica, estética, etc. Por consiguiente, siempre se desea proporcionar una funcionalidad adicional a la óptica que puede llevarse puesta. Lo que se desea es un sistema y un método que aumentarán la funcionalidad de las gafas más allá de su uso normal al mismo tiempo que se mantienen sus usos principales. La presente invención aborda una necesidad de estas características.
[0003] US 2012/0154277 A1 muestra un ejemplo de un dispositivo de visualización montado en la cabeza que genera una visualización basada en la posición de la cabeza y del ojo de un usuario.
[0004] US2012242678 da a conocer un artículo ocular interactivo montado en la cabeza en el que la fuente de imágenes incluye un control de brillo automático que controla el brillo del contenido visualizado basándose en el brillo en el entorno.
[0005] US2010149073 da a conocer un sistema de visualización para formar una imagen como una región iluminada en la retina. El sistema incluye una fuente de luz modulada, una óptica proximal que se puede colocar adyacente al ojo de un usuario para recibir la luz modulada. La óptica proximal tiene una pluralidad de grupos de regiones de redireccionamiento óptico. Las regiones de redireccionamiento óptico se configuran para orientar una pluralidad de rayos de la luz modulada a la pupila del ojo para formar una parte iluminada contigua de la retina del ojo.
[0006] US5671035 da a conocer un dispositivo para reducir de forma selectiva la intensidad de la luz en el campo de visión de un ojo o de un instrumento óptico.
RESUMEN DE LA INVENCIÓN
[0007] Se dan a conocer un dispositivo óptico que puede llevarse puesto y un método de uso. En un primer aspecto, un método comprende la utilización de seguimiento ocular dinámico con un dispositivo óptico que puede llevarse puesto; en el que se pueden proporcionar parámetros personalizados a un usuario basados en el seguimiento ocular dinámico.
[0008] En un segundo aspecto, un dispositivo óptico que puede llevarse puesto comprende una lente y un mecanismo de seguimiento ocular dinámico en comunicación con la lente. Se pueden proporcionar parámetros personalizados a un usuario basados en el seguimiento ocular dinámico.
[0009] En un tercer aspecto, un método comprende la utilización de seguimiento ocular dinámico con un dispositivo óptico que puede llevarse puesto. Se utiliza una optimización perceptiva basada en el seguimiento ocular dinámico.
[0010] En un cuarto aspecto, un dispositivo óptico que puede llevarse puesto comprende una lente y un mecanismo de seguimiento ocular dinámico en comunicación con la lente. Se utiliza una optimización perceptiva basada en el seguimiento ocular dinámico.
[0011] En un quinto aspecto, un método comprende la utilización de seguimiento ocular dinámico con un dispositivo óptico que puede llevarse puesto. Se utiliza una superposición en realidad aumentada basada en el seguimiento ocular dinámico.
[0012] En un sexto aspecto, un dispositivo óptico que puede llevarse puesto comprende una lente y un mecanismo de seguimiento ocular dinámico en comunicación con la lente. Se utiliza una superposición en realidad aumentada basada en el seguimiento ocular dinámico.
[0013] En un sexto aspecto, un método comprende la utilización de seguimiento ocular dinámico con un dispositivo óptico que puede llevarse puesto. Se utiliza navegación en realidad aumentada basada en el seguimiento ocular dinámico.
[0014] En un octavo aspecto, un dispositivo óptico que puede llevarse puesto comprende una lente y un mecanismo de seguimiento ocular dinámico en comunicación con la lente. Se utiliza navegación en realidad aumentada basada en el seguimiento ocular dinámico.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0015]
La figura 1 es a diagrama que ilustra medios focales.
La figura 2 comprende una barra de información en la óptica que puede llevarse puesta de medios focales.
La figura 3 es un diagrama de bloques de óptica que puede llevarse puesta que se utiliza en un entorno musical como un reproductor de MP3.
La figura 4 es un diagrama de bloques que ilustra óptica que puede llevarse puesta que se utiliza como un teléfono móvil.
La figura 5A es un diagrama de bloques que ilustra el circuito de teléfono móvil de la figura 4.
La figura 5B ilustra optimización perceptiva utilizando parámetros perceptivos y ópticos.
La figura 5C ilustra la arquitectura de gafas digitales mejorada.
La figura 6 ilustra las partes de un ojo que se pueden utilizar con el mecanismo de seguimiento ocular de una realización.
La figura 7 ilustra una aplicación de redes sociales utilizada con el dispositivo óptico que puede llevarse puesto. La figura 8 ilustra una aplicación de mensajería utilizada con el dispositivo óptico que puede llevarse puesto de conformidad con una realización.
La figura 9 ilustra el dispositivo óptico que puede llevarse puesto utilizado por un espectador de deporte de conformidad con una realización.
La figura 10 ilustra el dispositivo óptico que puede llevarse puesto utilizado por un jugador de deporte de conformidad con una realización.
La figura 11 ilustra una aplicación de información, navegación y publicidad en realidad aumentada utilizada con el dispositivo óptico que puede llevarse puesto.
La figura 12 ilustra una aplicación de datos de pacientes con información en realidad aumentada utilizada con el dispositivo óptico que puede llevarse puesto usada junto con un dispositivo remoto.
La figura 13 ilustra una aplicación de control del sombreado utilizada con el dispositivo óptico que puede llevarse puesto.
La figura 14 ilustra una aplicación en realidad aumentada utilizada con el dispositivo óptico que puede llevarse puesto.
La figura 15 ilustra una aplicación para juego físico utilizada con el dispositivo óptico que puede llevarse puesto. La figura 16 ilustra una primera realización de una aplicación de videojuegos online/para móvil utilizada con el dispositivo óptico que puede llevarse puesto.
La figura 17 ilustra una segunda realización de una aplicación de videojuegos online/para móvil utilizada con el dispositivo óptico que puede llevarse puesto.
La figura 18 ilustra el control del sombreado utilizando el dispositivo óptico que puede llevarse puesto.
La figura 19 ilustra un sistema operativo óptico/perceptivo con el dispositivo óptico que puede llevarse puesto. La figura 20 describe una realización de la arquitectura digital del dispositivo óptico que puede llevarse puesto. La figura 21 ilustra la realización de un simulador de sistema para su uso por desarrolladores de aplicaciones y nuevas lentes o expansión del dispositivo óptico que puede llevarse puesto.
La figura 22A a la figura 22F ilustran la realización de sombreado inverso usando el dispositivo óptico que puede llevarse puesto.
La figura 23 ilustra una realización de iluminación y eficacia mejorada de seguimiento ocular utilizando el dispositivo óptico que puede llevarse puesto.
La figura 24 ilustra una realización de superposición en realidad aumentada en tiempo real utilizando el dispositivo óptico que puede llevarse puesto.
DESCRIPCIÓN DETALLADA
[0016] La presente invención se refiere generalmente a una óptica que puede llevarse puesta y, más particularmente, a una óptica que puede llevarse puesta que incluye una funcionalidad adicional. La siguiente descripción se presenta para permitir que un experto habitual en la técnica realice y use la invención y se proporciona en el contexto de una solicitud de patente y sus requisitos. Diversas modificaciones de las realizaciones preferidas y los principios y características genéricos descritos en el presente documento serán muy evidentes para los expertos en la técnica. Por tanto, la presente invención no está destinada a limitarse a las realizaciones mostradas, pero debe ser de conformidad con el mayor alcance posible en consonancia con los principios y características descritos en el presente documento.
[0017] Un sistema y un método de conformidad con la presente invención están orientados a una variedad de maneras de mejorar el uso de dispositivos ópticos que pueden llevarse puestos.
[0018] Para describir las características de la presente invención con mayor detalle, se remite a continuación a la siguiente descripción junto con las figuras adjuntas.
1. Medios focales 100
[0019] La figura 1 es un diagrama que ilustra medios focales 100. Los medios focales 100 comprenden una barra de información 102, un receptor 104, un circuito digital 106, monturas 108 y una lente 110. Los medios focales 100 permiten mejorar el principal propósito de la óptica que puede llevarse puesta, por ejemplo, podría ponerse una cámara digital en el interior de la óptica que puede llevarse puesta para permitir la visión de algunas de estas imágenes. Por ejemplo, el circuito 106 para los medios focales 100 podría ponerse en el interior la montura 108 de la óptica que puede llevarse puesta. La lente 110 podría tener una superficie totalmente reflectiva o una superficie parcialmente reflectiva usando LCD o similares. De hecho, la óptica que puede llevarse puesta podría parecer unas gafas transparentes, pero mediante el uso del circuito 106 en el interior de la óptica que puede llevarse puesta es en realidad un medio focal. Adicionalmente, la óptica que puede llevarse puesta podría incorporar una cámara para proyectar al usuario sobre una segunda lente para obtener un efecto transparente.
[0020] En una realización preferida, se proporciona una barra de información 102 a través de una parte de la óptica que puede llevarse puesta que puede ver el usuario. Esta barra de información 102 se usa para transmitir una variedad de tipos de información.
[0021] La figura 2 comprende una barra de información 102' en la óptica que puede llevarse puesta de medios focales. La barra de información 102' puede ser una cinta de cotizaciones bursátiles que se desplaza a través de la parte superior de la óptica que puede llevarse puesta, como se muestra en la figura 2. A pesar de que se muestra la barra de información 102' mostrando una cinta de cotizaciones bursátiles, se pueden mostrar otros tipos de información como títulos de canciones, letras de canciones y similares en la barra de información. Esta barra de información se denomina focal electrónico. Esta información puede proporcionarse a partir de un receptor digital a través de una estación FM, a través de un dispositivo inalámbrico móvil o un reproductor de MP3. Se describirá con más detalle una funcionalidad adicional del focal electrónico con respecto a las mejoras del teléfono móvil así como las mejoras del reproductor musical.
[0022] Una de las características clave de los medios focales 100 es el uso de los medios focales para mejorar la función principal del usuario, o sea, ser capaz de ver con mayor exactitud y claridad los objetos. En un entorno de estas características, por ejemplo, es posible tener un circuito para la función de zoom que permita usar la óptica que puede llevarse puesta como prismáticos. Esto podría permitir que el usuario vea objetos más de cerca basándose en determinadas actividades del usuario. Por ejemplo, puede haber sensores oculares o de presión en la óptica que puede llevarse puesta que activarán el circuito de prismáticos en las gafas que podrían recibir datos visuales a través de una cámara, un receptor CCD o similares.
[0023] En la realización preferida, el circuito 106 se situaría en algún lugar en la montura de las gafas para proporcionar esta funcionalidad y a medida que los circuitos sean más pequeños y los dispositivos sean más pequeños, será cada vez más fácil integrar el circuito cuyo uso para tales funciones directamente en el interior del dispositivo es bien conocido. El circuito 106 en el dispositivo podría ser, por ejemplo, sensores oculares que podrían ser sensores de presión, sensores capacitivos u otro tipo de sensor que permita que los ojos dirijan las actividades. Los sensores de movimiento ocular, por ejemplo, se podrían usar para activar y controlar las gafas prismático. De manera similar, podría ponerse una cámara digital en las gafas, lo que permitiría que los mismos tipos de tecnología saquen fotos directamente por la persona.
[0024] De igual manera, las gafas podrían usarse como gafas con lentes correctoras normales que utilizan las imágenes digitales para, por ejemplo, un usuario tiene una determinada prescripción que usa con sus gafas de prescripción normales para ver con claridad un objeto. A medida que cambia el ojo de un usuario, sería posible que un optometrista descargara la nueva prescripción en la óptica que puede llevarse puesta de manera que se proporciona una transformación digital de la información de la imagen que es compatible con la nueva prescripción.
[0025] También, en una realización preferida, se podría implementar de distintas maneras un método para detectar y controlar los medios digitales. Por ejemplo, una actividad del propio ojo podría controlar la actividad del medio focal. Así que, por ejemplo, si la idea era hacer zoom en la imagen, el ojo parpadearía dos veces. También sería posible detectar movimientos faciales y oculares (entrecerrar los ojos, por ejemplo), así como cambios en la pupila y el iris.
[0026] En una realización adicional, sería posible que las gafas de conformidad con la presente invención funcionen en un modelo de cliente/servidor o un modelo Bluetooth (Wi-Fi). La utilización del modelo de cliente/servidor y Bluetooth Wi-Fi haría posible, por ejemplo, mostrar las noticias en directo o informes especiales (como balances financieros) desde Internet o fuentes similares en las gafas. Esto también permitiría que partes del circuito se situasen en remoto de manera que se requiere menos circuito en la óptica que puede llevarse puesta.
[0027] La óptica que puede llevarse puesta también podría incluir un logotipo, por ejemplo, los agentes de policía podrían adornar sus gafas con "Police", "Sheriff', "MP", etc.; la gente joven podría adornar sus gafas con palabras e imágenes que reflejen a sus artistas favoritos, etc.; los equipos deportivos podrían ofrecer las gafas con descuentos con los monogramas del equipo, etc. Las empresas también podrían comprarlas, adornarlas con los logotipos de la empresa y darlas como regalo de jubilación, etc.
2. Entorno musical
[0028] La figura 3 es un diagrama de bloques de óptica que puede llevarse puesta 300 que se utiliza en un entorno musical como un reproductor de MP3. La figura 3 comprende óptica que puede llevarse puesta 300, una barra de información 302, un circuito de reproductor de MP3304, un almacenamiento 306, monturas 308 y una o una pluralidad de lentes 310. Otro entorno como se ha descrito anteriormente es el entorno musical. Sería deseable proporcionar gafas musicales en las que se incorporase un reproductor de MP3 o un IPod o similares en la óptica que puede llevarse puesta, o bien en un entorno con cable o bien inalámbrico. A través del uso de este tipo de sistema, una pluralidad de usuarios podrían estar conectados mediante un entorno de tipo reproductor de MP3 dentro de una zona con cobertura inalámbrica o similares, lo que permitiría descargar cualquier tipo de música requerido a través de las gafas. Este sistema podría permitir que la música que se puede descargar se seleccionase mediante desplazamiento y similares a través de sistemas de reconocimiento de voz.
[0029] Mediante la conexión a una red de cliente-servidor o instalación Bluetooth Wi-Fi , por ejemplo, las gafas podrían conectarse a una red multimedia, autorizar la descarga y cobrar por la música seleccionada. De este modo, se podría proporcionar acceso a una pluralidad de bibliotecas para selecciones musicales.
[0030] También sería posible proporcionar acceso a medios de transmisión de audio. También se puede proporcionar acceso a bibliotecas multimedia, etc., mediante el modelo de cliente/servidor.
[0031] La información podría recibirse mediante un modelo de cliente/servidor digital habilitado para trabajar con iPods o reproductores MP3. De manera similar, se podría utilizar tecnología bluetooth inalámbrica para proporcionar acceso a fuentes de música y audio en directo.
[0032] La óptica que puede llevarse puesta también se podría utilizar junto con tecnología inalámbrica para permitir que un usuario o una pluralidad de usuarios participe de manera simultánea en un karaoke individual o en grupo. La óptica que puede llevarse puesta se podría usar de manera específica para mostrar la letra de una canción, la melodía, las notas, el nombre de la canción u otras referencias asociadas.
[0033] También sería posible recibir y escuchar señales de radio AM o FM, mediante un sintonizador de radio AM/FM conectado al hardware de la óptica que puede llevarse puesta.
[0034] En este tipo de entorno, los auriculares pueden ser tanto digitales como analógicos. El usuario no necesita tener 10 000 canciones, por ejemplo. Estas pueden estar registradas en una biblioteca en red virtual in-song tras entrar en una zona con cobertura inalámbrica. Por lo tanto, podría limitarse el almacenamiento local 306. Además, esto proporcionaría información de identidad de ubicación de la persona que está usando la red. Las canciones pueden transmitirse así como descargarse. Podrían comprarse las canciones usando la óptica que puede llevarse puesta. El sistema podría ser extensible; dependiendo del tipo de dispositivo que se ha usado.
3. Entorno de telecomunicaciones
[0035] La figura 4 es un diagrama de bloques que ilustra óptica que puede llevarse puesta que se utiliza como un teléfono móvil 400. La figura 4 comprende un circuito de teléfono móvil 402, un micrófono 104, monturas 408 y una o una pluralidad de lentes 410. La óptica que puede llevarse puesta de teléfono móvil 400 se podría implementar utilizando tecnología telefónica digital. El circuito 402 dentro de la óptica que puede llevarse puesta se podría utilizar para permitir que se muestre un número de teléfono u otra información visual como la proporcionada por servicios de mensajería multimedia en la lente 410 de la óptica que puede llevarse puesta como se muestra en la figura 3. La figura 5 es un diagrama de bloques que ilustra el circuito de teléfono móvil de la figura 4. La figura 5 comprende un circuito de cancelación de ruido 502, circuito de reconocimiento de voz 504, circuito de identidad de la persona que llama 506 y circuito de reconocimiento del hablante 508 y circuitos de procesamiento de medios 509. El número de teléfono se podría activar mediante el circuito digital 402 como parte de los medios focales 100. Además, el circuito podría hacerse realmente digital mediante un procesador de señal digital que se acopla a una cámara de otro modo en el entorno. El sistema anterior permitiría la grabación de voz a través del uso de un micrófono 104 y permitiría el reconocimiento de voz a través del uso del circuito de reconocimiento de voz 504, lo que permitiría un acondicionamiento de señal en el teléfono móvil en una variedad de maneras.
[0036] El entorno del teléfono móvil 402 proporciona una pluralidad de zonas de mejora utilizando tecnologías existentes. En primer lugar, una de las principales molestias del uso del teléfono móvil es que los usuarios tienen que hablar fuerte debido al ruido de fondo y similares. Hay una variedad de razones para este problema, incluyendo la colocación del micrófono del teléfono móvil en relación con la boca del hablante, debido al ruido de fondo anteriormente mencionado y otros problemas. Al colocar el micrófono 104 estratégicamente en la óptica que puede llevarse puesta como cerca del ruido o la boca, el usuario no tendrá que hablar tan fuerte. El micrófono también se podría situar en micrófonos abatibles. Además, el circuito de cancelación de ruido 502 se podría utilizar para eliminar el ruido de fondo. La capacidad del micrófono incluiría la ventaja de utilizar técnicas de rechazo de ruido. Los botones situados en la óptica que puede llevarse puesta se pueden utilizar para controlar las características que hay en ella. Finalmente, el micrófono 104 podría utilizar tecnología silenciosa de manera que el hablante no tendrá que hablar tan alto.
[0037] La óptica que puede llevarse puesta incluiría, en una realización preferida, un circuito de reconocimiento de voz 504 y un circuito de identidad de la persona que llama 506. En una realización preferida, el convencionalismo para escuchar y hablar se situaría en las partes de almohadilla de oreja y nariz de las gafas. Haciendo referencia de nuevo a la figura 3, en una realización preferida, la electrónica para el teléfono móvil estaría en el interior de la montura 308 de la óptica que puede llevarse puesta. Además, la óptica que puede llevarse puesta incluiría una barra de información 302 plenamente integrada. Finalmente, un algoritmo de reconocimiento del hablante 508 como se muestra en la figura 5 permitiría reconocer únicamente la voz del usuario y se cancelaría el ruido de fondo. Por consiguiente, las características únicas del altavoz se proporcionan a través de un modelo auditivo.
[0038] Esto se puede realizar utilizando una variedad de métodos. Por ejemplo, el análisis de la voz del usuario y la combinación del análisis con la cancelación del ruido. En otro ejemplo, el usuario puede hablar con suavidad y cancelar el ruido y se usa un micrófono direccional que se aprovecha de la situación del dispositivo.
[0039] Similar a los entornos de medio focal y reproductor de MP3, se podría adaptar un modelo de cliente/servidor o Bluetooth/wifi digital para conectar la óptica que puede llevarse puesta a un equipo de comunicación externo. Un equipo de este tipo podría incluir teléfonos móviles, PDA u ordenadores habilitados para wifi digitales u otros dispositivos. Una realización de estas características podría permitir la revisión de los mensajes de voz, correos electrónicos vistos en la pantalla, conversiones de texto a audio de correo electrónico, servicios de mensajería multimedia y otras fuentes de datos.
[0040] La interconexión inalámbrica o Bluetooth también podría hacer posible que se usen gafas por VOIP en lugar de un teléfono móvil. Otras características habilitadas por una conexión inalámbrica podrían conectar las gafas a dispositivos MP3, un iPod, una impresora, una TV inalámbrica/por cable, cupones y similares. Las "gafas de PDA" también podrían proporcionar incorporados un indicador horario, un calendario alarma, interactuar con PC o fuentes de red, un altavoz y similares.
[0041] Como puede verse a partir de la descripción anterior, el de las gafas digitales es un campo que evoluciona rápidamente desde la innovación temprana de gafas digitales con capacidades de seguimiento ocular por Lewis ('185 fecha de presentación febrero de 2008), a gafas con lentes y capacidades de comunicación/visualización más complejas (Lewis '556, fecha de presentación noviembre de 2009), a más mejoras y capacidades (Lewis '594, fecha de presentación abril de 2011). A medida que avanza la tecnología para hacer sensores, cámaras, procesadores y circuitos más pequeños, se hace posible implementar más y más capacidades usando gafas digitales. Estas gafas digitales mejoradas se pueden usar para esclarecer áreas importantes que van desde una mejora de la visión superior y publicidad móvil a su uso en procedimientos dentales/médicos y navegación física y en internet. La aplicación y el valor de las gafas mejoradas aumenta aún más cuando se combina con realidad aumentada, redes sociales, mensajería y comunicaciones.
[0042] Con la introducción y el uso de nuevos materiales para la integración de la lente y del filtro, se pueden realizar adicionalmente nuevas mejoras y capacidades de las gafas digitales. Estos materiales incluyen avances en OLED, LED, LED transparente, LED flexible, material cristalino, basado en prisma, holográfico, polarizante y traslúcido y similares para materiales electrorrefractivos, electrodifractivos, electrorreflectantes, refractivos compuestos y similares, con una o más capas de material de lente o implementaciones basadas en la visualización o la proyección pasiva o activa.
[0043] Con estas nuevas capacidades, se puede medir un nuevo conjunto importante de parámetros perceptivos y ópticos y se pueden usar como entradas, controles o elementos de retroalimentación que aumentan aún más los usos y el valor de las gafas y llevan a mejoras importantes que se pueden usar para la enseñanza, el deporte, la salud y una percepción mejorada.
[0044] Por consiguiente, se dan a conocer sistemas y métodos de conformidad con realizaciones que proporcionan estas características mejoradas para dispositivos ópticos que pueden llevarse puestos. Para describir estas características y realizaciones con mayor detalle, se remite a continuación a la siguiente descripción junto con el siguiente análisis. Una característica clave asociadas a estas mejoras es proporcionar una variedad de parámetros perceptivos que se pueden utilizar con los dispositivos ópticos que pueden llevarse puestos. Ejemplos de parámetros perceptivos incluyen, pero no se limitan a, expresión óptica, voz, onda cerebral, ambiente, audio, vídeo, náutico, realidad aumentada, algorítmico, espacial, cognitivo, interpretativo.
[0045] La figura 5B ilustra un sistema de optimización de la percepción 550. El sistema de optimización de la percepción 550 recibe una variedad de entradas que incluyen mediciones de parámetros ópticos, entradas del mundo real, entradas de medios digitales, mediciones de parámetros de expresión, retroalimentación de mediciones de parámetros ópticos, otras mediciones de parámetros para proporcionar elementos de representación visual de óptica que puede llevarse puesta. Mediciones de parámetros ópticos incluyen, por ejemplo, mediciones ciliares, de la pupila, corneales, de la lente, del iris, del párpado o de la retina. Las entradas del mundo real podrían ser, por ejemplo, entradas desde uno o más micrófonos o cámaras. Las entradas de medios digitales podrían ser, por ejemplo, de audio digital, vídeo digital, gráficos, imágenes y realidad aumentada.
[0046] Otros parámetros perceptivos podrían ser, por ejemplo, olor, tacto, onda cerebral, temperatura/humedad del usuario o condiciones ambientales cerca del usuario. La retroalimentación óptica se podría proporcionar a través de información recibida sobre la dinámica de la retina/iris y/o la dinámica de la lente o ciliar.
[0047] La figura 5C ilustra una arquitectura de dispositivo óptico que puede llevarse puesto 560 de conformidad con una realización. La arquitectura incluye una montura 562 que incluye una pluralidad de sensores en diversas zonas en ella. Los sensores biométricos incluyen un sensor de presión arterial 617, un sensor de temperatura 618, un sensor de EEG 616 y similares. También se proporcionan sensores de ambiente 615. Hay sensores de micrófono 606, 607, 611 en diversas zonas de la montura. En la montura 562 se incluyen las cámaras delantera, trasera y lateral 606, 607, 611 para detectar objetos. En el interior de la lente hay una pantalla de lente 601. Se proporciona en ellas un proyector de pantalla 620 para proyectar imágenes en la pantalla de lente 601. La pantalla de lente 601 puede ser una lente de una unidad o múltiples unidades. Hay sensores infrarrojos 602 así como una unidad de iluminación direccional 603 en el puente de la arquitectura 560. Hay sensores de movimiento facial y bucal 604 y/o cámaras situadas en el soporte para lente de la arquitectura 560. Hay un altavoz y un altavoz extensible 610 situado en la montura cuando se lleva puesta. El altavoz 610 podría mantenerse en su lugar con una diadema. Se proporciona en ellas un altavoz para el oído exterior//elemento de vibración 612. Una unidad de comunicación de control 608 se utiliza para controlar la arquitectura 560. Se puede utilizar una unidad de potencia para habilitar la arquitectura. Normalmente, la unidad de potencia 613 comprende una batería recargable. La batería se puede cargar mediante un conector, como, pero sin limitarse a, un conector USB, a un dispositivo de carga portátil, una tableta o un ordenador de escritorio, por ejemplo. Además, el dispositivo podría ser de energía solar o bien mediante células solares puestas en el dispositivo o bien las células solares podrían ponerse en prendas de ropa (es decir, un sombrero, una camisa o pantalones, por ejemplo) para facilitar su carga. La arquitectura 560 incluye una unidad de iluminación direccional 603, sensores de olores 605 y un micrófono de usuario extensible 619.
[0048] En una realización, los sensores pueden comprender cualquiera o cualquier combinación de giroscopios, acelerómetros, sensores de torsión, sensores de peso, sensores de presión, magnetómetros, sensores de temperatura, sensor de luz, cámaras y micrófonos, GPS, detección inalámbrica, sensores de altitud, presión arterial, sensores de ritmo cardíaco, sensores biométricos, identificación por radiofrecuencia (RFID), comunicación de campo cercano (NFC), comunicación móvil, Wi-Fi, extensómetros, sensores de huellas dactilares, sensores de olor, sensores de gas, sensores químicos, sensores de color, sensores de sonido, sensores acústicos, sensores ultravioleta, sensores de campo eléctrico, sensores de campo magnético, sensores de gravedad, sensores de velocidad del viento, sensores de dirección del viento, sensores de brújula, sensor geolocalizador, sensores de luz polarizada o sensores emisores de infrarrojos.
[0049] Esta arquitectura se puede utilizar con un sistema operativo móvil convencional como Android o IOS o con un nuevo sistema operativo que incorpore parámetros ópticos y parámetros perceptivos para aún más capacidades y percepción mejorada - sistema operativo óptico o perceptivo ocular (eyePOS). Mediante el uso de este conjunto de enfoque y capacidad, se puede crear toda una nueva clase de aplicaciones personalizadas ("aplicaciones") usando los sistemas operativos móviles estándar o eyePOS y un simulador de eyePOS para dirigir múltiples y valiosas aplicaciones que pueden mejorar el aprendizaje, el entretenimiento y la salud del ser humano, por un lado, a nuevos sistemas de navegación (conectados físicamente y de búsqueda) y una percepción mejorada. Para describir estas características con mayor detalle, se remite a continuación a la siguiente descripción.
[0050] Un método y sistema de conformidad con una realización comprende la utilización de seguimiento ocular dinámico con un dispositivo óptico que puede llevarse puesto; en el que se pueden proporcionar parámetros personalizados para un usuario basados en el seguimiento ocular dinámico. El método y sistema que incluyen proporcionar una mejora utilizando estándares de calidad objetivos y subjetivos basados en parámetros perceptivos. Los parámetros perceptivos incluyen cualquiera de y cualquiera de una combinación de expresión óptica, voz, onda cerebral, ambiente, audio, vídeo, náutico, realidad aumentada, algorítmico, espacial, cognitivo, interpretativo. El dispositivo óptico que puede llevarse puesto controla cualquiera de o cualquier combinación de imitar, amplificar o expandir la fisiología perceptiva de un usuario utilizando parámetros perceptivos.
[0051] El dispositivo óptico que puede llevarse puesto puede incluir uno o más encartes en las gafas. Las gafas comprenden gafas de cuatro estados. Se puede utilizar control del sombreado en el dispositivo óptico que puede llevarse puesto. El control del sombreado se puede proporcionar por uno o más proyectores en el interior del dispositivo óptico que puede llevarse puesto. Se puede proyectar un efecto de oclusión en una lente del dispositivo óptico que puede llevarse puesto. Se puede proporcionar sombreado en una lente del dispositivo óptico que puede llevarse puesto en el que la zona circundante está ocluida o invertida. Se proporciona el sombreado por un filtro polarizado. El control del sombreado se puede proporcionar por las lentes en el interior del dispositivo óptico que puede llevarse puesto. El sombreado se puede controlar usando parámetros ópticos. Los parámetros ópticos incluyen cualquiera o cualquier combinación de mediciones ciliares, de la pupila, corneales, de la lente, del iris, del párpado y de la retina. Los materiales que pueden controlar eléctricamente cualquiera o cualquier combinación de propiedades cromáticas, de refracción, de difracción, de transparencia y de reflexión del dispositivo óptico que puede llevarse puesto se utilizan con el seguimiento ocular dinámico. La lente puede ser cualquiera o cualquier combinación de LCD transparente, LED, OLED, LED flexible, OLED flexible, matriz transparente, matriz semitransparente, materiales basados en prismas, holográficos, de electroluminiscencia, electrorreflectantes, de filtrado dinámico.
[0052] El dispositivo óptico que puede llevarse puesto comprende un material electrocromático. En un sistema y método de conformidad con una realización, se utilizan uno o más elementos en el interior del dispositivo óptico que puede llevarse puesto para proporcionar información de imagen en el ojo. Los uno o más elementos incluyen cualquiera o cualquier combinación de un proyector de lente, proyección retinal. La proyección retinal o proyector más prisma proporcionan la oclusión.
[0053] El dispositivo óptico que puede llevarse puesto incluye control del sombreado para las gafas. En el dispositivo óptico que puede llevarse puesto, se pueden sombrear partes de una imagen vista por el dispositivo óptico que puede llevarse puesto para controlar el brillo. Las lentes del dispositivo óptico que puede llevarse puesto pueden ser OLED polarizado y transparente o lentes de proyección y prisma.
[0054] Los parámetros pueden incluir cualquiera o cualquier combinación de prescripciones para mejorar la visión de un usuario, una característica de zoom, una característica de microscopio, una característica de aumento, una característica de proyección retinal. El dispositivo óptico que puede llevarse puesto se puede utilizar en un simulador. En una realización, se utiliza un focal del dispositivo óptico que puede llevarse puesto junto con el seguimiento ocular dinámico.
[0055] Los parámetros pueden incluir cualquiera o cualquier combinación de una característica de zoom, una característica de microscopio, una característica de aumento, una característica de iluminación; una característica de proyección retinal. En una realización se puede proporcionar una vista de 360 grados. La vista de 360 grados puede ser cualquiera o cualquier combinación de una panoramización izquierda o derecha, una panoramización hacia arriba y abajo, rotaciones tridimensionales.
[0056] En otra realización, una característica de iluminación se dirige a un área específica basándose en el mecanismo de seguimiento ocular dinámico. Una característica de cámara de un dispositivo óptico que puede llevarse puesto puede filtrar determinadas ondas de luz para efectos visuales o de visión controlados. La característica de filtrado puede incluir el control de la reducción del ruido, la polarización y los efectos creativos. La característica del dispositivo óptico que puede llevarse puesto puede incluir controlar un control de estabilidad para un foco facial o de objeto. En una realización se pueden utilizar parámetros ópticos. Los parámetros ópticos incluyen cualquiera de o cualquier combinación de mediciones ciliares, de la pupila, corneales, de la retina, de la lente y del iris. Una realización puede incluir la detección del movimiento de la cabeza. Se puede utilizar un mecanismo de onda acústica en el interior del dispositivo óptico que puede llevarse puesto. Se puede utilizar un mecanismo de onda cerebral en el interior del dispositivo óptico que puede llevarse puesto. Se puede utilizar un mecanismo de onda magnética en el interior del dispositivo óptico que puede llevarse puesto.
[0057] El dispositivo óptico que puede llevarse puesto se puede utilizar en una variedad de entornos incluyendo, pero sin limitarse a, deportes, juegos, apuestas, educativo, militar, extinción de incendios, médico dental y similares. Para describir las características de la presente invención con mayor detalle, se remite a continuación a la siguiente descripción junto con las figuras adjuntas.
[0058] La figura 6 ilustra las partes de un ojo que se pueden utilizar con el mecanismo de seguimiento ocular de una realización. En una realización, el iris, la retina, la córnea, la pupila, el músculo ciliar y la lente se pueden utilizar o bien individualmente o en combinación para habilitar el mecanismo de seguimiento ocular dinámico.
[0059] Las redes sociales pueden hacer uso de manera ventajosa del dispositivo óptico que puede llevarse puesto de conformidad con una realización. La figura 7 ilustra una aplicación de red sociales 700 utilizada con el dispositivo óptico que puede llevarse puesto. Las redes Facebook, LinkedIn, Twitter, Salesforce.com y otras redes, así como Internet, se conectan al dispositivo óptico que puede llevarse puesto.
[0060] Las personas que son "Amigos", por ejemplo, se pueden identificar por un resalte por el dispositivo óptico que puede llevarse puesto. Se puede recopilar información sobre las personas usando los ojos utilizados por la arquitectura del dispositivo óptico que puede llevarse puesto. En una realización, se puede seleccionar la persona. La persona se puede identificar en una variedad de maneras, por ejemplo, usando reconocimiento facial, información de la persona objetivo, GPS, RFID, NFC, información óptica, reconocimiento de voz y ubicación móvil.
[0061] La figura 8 ilustra una aplicación de mensajería 800 utilizada con el dispositivo óptico que puede llevarse puesto de conformidad con una realización. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto puede utilizar R2R, NFC, Wi-Fi, Internet para comunicarse. Es posible hablar usando un micrófono, se pueden utilizar sensores cerca de la cara, la mandíbula y la nariz para proporcionar control de la aplicación de mensajería. Además, se pueden utilizar movimiento de labios y lectura de labios para transmitir voz de manera silenciosa y confidencial. Se puede seleccionar una persona como objetivo usando movimientos oculares seleccionados.
[0062] La figura 9 ilustra el dispositivo óptico que puede llevarse puesto utilizado por un espectador de deporte de conformidad con una realización 900. Redes como Twitter, Facebook, Internet se conectan al espectador. Por ejemplo, el espectador puede ver quién tiene la pelota y su trayectoria durante un partido. Se resalta quién tiene la pelota así como la ubicación de la pelota. La información de vídeo puede superponerse a partir de las puntuaciones de otros partidos. Información sobre la ubicación del balón durante el partido (línea de melé, línea de primer down). Se pueden proporcionar momentos más destacados en vídeo del partido así como medios en realidad aumentada.
[0063] La figura 10 ilustra el dispositivo óptico que puede llevarse puesto utilizado por un jugador de deporte de conformidad con una realización 1000. Redes como Twitter, Facebook, comunicación con el entrenador y otras comunicaciones con los jugadores se conectan al jugador. Por ejemplo, el espectador puede ver que se golpea una pelota curva a 102 mph. Se resalta la trayectoria de la pelota.
[0064] La figura 11 ilustra una aplicación de información, navegación y publicidad en realidad aumentada 1100 utilizada con el dispositivo óptico que puede llevarse puesto. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse. En un ejemplo, el dispositivo óptico que puede llevarse puesto se utiliza en un vehículo. En este ejemplo, el dispositivo óptico que puede llevarse puesto incluye un altavoz micrófono y una cámara trasera en los auriculares y también en la parte trasera de un vehículo, por ejemplo. Se proporciona información en tiempo real en realidad aumentada. Por ejemplo, la información en tiempo real en realidad aumentada proporcionada es que el vehículo viaja a 62 mph.
[0065] También puede haber vídeo en directo desde el espejo en realidad aumentada de la cámara trasera del coche. Para una señal en la que pone "Desvío en 1 milla" se muestra como una señal en realidad aumentada de emergencia de fuentes estatales/federales que también podría proporcionar información adicional.
[0066] En otro ejemplo, "Café gratis de McDonald's" próxima salida, se ve como un anuncio en tiempo real en realidad aumentada. "Stage Road 1 en milla" también se verá como una señal en realidad aumentada mientras el mensaje de voz "A continuación gire en Stage Road en 1 milla" se transmite al conductor junto con un sistema de navegación y GPS en realidad aumentada mejorado.
[0067] La figura 12 ilustra una aplicación de datos de paciente con información en realidad aumentada 1200 utilizada con el dispositivo óptico que puede llevarse puesto usada junto con un dispositivo remoto. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse.
[0068] Los registros del paciente e información técnica en internet se conectan al ocular y al micrófono de una persona que está utilizando el dispositivo óptico que puede llevarse puesto. Se utiliza una ventana de zoom en realidad aumentada para identificar la característica médica. Los datos del paciente en realidad aumentada se ponen a disposición de la persona mediante las gafas. También puede haber una cámara de dispositivo remoto utilizada en el taladro de un dentista, por ejemplo. El dentista puede utilizar, por ejemplo, el mecanismo de seguimiento ocular dinámico para concentrarse en el diente correcto.
[0069] Se puede ver una superposición de los rayos X del diente utilizando la realidad aumentada. Está disponible una superposición en realidad aumentada de los registros dentales y una búsqueda en internet sobre el tratamiento del diente. El dentista puede usar un taladro remoto con realidad aumentada. También se pueden utilizar iluminación y zoom con una ventana en realidad aumentada.
[0070] La figura 13 ilustra una aplicación de control del sombreado 1300 utilizada con el dispositivo óptico que puede llevarse puesto. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse. Se pueden elegir ajustes de sombreado a través de pulsadores en la montura de las gafas, mediante el movimiento ocular o de manera automática. El sombreado puede ser uniforme a través de la lente de las gafas o se puede concentrar en una zona o zonas específicas de la lente.
[0071] En una realización, una lámpara/linterna 1302 proyecta luz al ojo 1310. La cámara 1306 y el sensor ocular 1308 recogen la luz. La lente 1304 puede ser cualquiera o cualquier combinación de LCD transparente, LED, OLED, LED flexible, OLED flexible, matriz transparente, matriz semitransparente, materiales basados en prismas, holográficos, de electroluminiscencia, electrorreflectantes, de filtrado dinámico.
[0072] La luz se puede ocluir en una zona específica 1312 utilizando el dispositivo óptico que puede llevarse puesto. La cámara 1306 determina la posición de la luz a ocluir (tiempo real). El sensor ocular 1308 determina la posición del ojo/pupila/retina (tiempo real). La cámara 1306/sensor ocular 1308 determina la línea de visión entre la luz a ocluir y el ojo 1310 y la zona de intersección en la lente 1304 (tiempo real) o la zona para proyectar la oclusión de una realización de proyector.
[0073] La figura 14 ilustra una aplicación en realidad aumentada 1400 utilizada con el dispositivo óptico que puede llevarse puesto 1410. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto 1410 puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse.
[0074] En una realización, un teclado en realidad aumentada 1404 aparece seleccionado al mirar el teléfono/objeto y después parpadear o similares. El teclado en realidad aumentada (RA) 1404 que se utiliza se controla por el mecanismo de seguimiento ocular dinámico. Una cámara de infrarrojos 1402 se usa para detectar la posición de cualquiera de la mano, el movimiento de la mano, la posición del dedo, el movimiento del dedo del usuario en el teclado en RA como resalte de tecla y sonido de clic de tecla. Hay una pantalla en realidad aumentada 1406 que es una ampliación de la pantalla pequeña del teléfono en la lente. También hay un teclado en realidad aumentada que se muestra como que está en la lente.
[0075] La figura 15 ilustra un aplicación para juego físico 1500 utilizada con el dispositivo óptico que puede llevarse puesto 1510. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto 1510 puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse.
[0076] En una realización, una persona que lleva el dispositivo óptico que puede llevarse puesto 1510 puede analizar la estrategia del juego, contar cartas, determinar la puntuación, hacer un análisis (de las estadísticas del juego) y analizar las caras de otros jugadores utilizando una superposición en realidad aumentada 1502 y reconocimiento facial.
[0077] La figura 16 ilustra una primera realización de una aplicación de videojuegos online/para móvil 1600 utilizada con el dispositivo óptico que puede llevarse puesto 1600. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto 1610 puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse.
[0078] El jugador y el oponente tienen cartas en realidad aumentada en la mano. Se utilizan cartas de juego en realidad aumentada. Debido a la realidad aumentada y al enlace de comunicación, los jugadores no necesitan estar presentes en la misma ubicación. Las cartas en RA pueden levantarse mediante el movimiento de la mano. Hay un movimiento y una dinámica de cartas en realidad aumentada ajustados a la física. En una realización, puede haber un tablero de juegos, un fondo y un campo de juego virtuales.
[0079] Hay una cámara infrarroja 1602 en las gafas para medir y calcular la posición y el movimiento de la mano y el dedo. Hay una superposición de dinámica o escena en realidad aumentada 1612 que se puede ver en las lentes.
[0080] La figura 17 ilustra una segunda realización de una aplicación de videojuegos online/para móvil 1700 utilizada con el dispositivo óptico que puede llevarse puesto 1700. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto 1710 puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse.
[0081] La escena que ve el jugador puede ser una pantalla real de videojuego del mundo real. También podría utilizarse como una pantalla de videojuego en realidad aumentada (por ejemplo, para móvil). Adicionalmente, también podría utilizarse como un campo de juego/batalla en realidad aumentada en tiempo real 3D completo que ve el jugador. El jugador puede usar un controlador de juego en realidad aumentada. Hay una cámara infrarroja en las gafas para medir y calcular la posición y el movimiento de la mano y el dedo en el controlador de juego en RA. Se ve una superposición de escenas en realidad aumentada, de controlador de juego en RA, de arma en rA o de mando a distancia en RA 1712 en las lentes de las gafas.
[0082] La figura 18 ilustra el mecanismo control del sombreado utilizando el dispositivo óptico que puede llevarse puesto. En esta realización hay una o más cámaras 1806 que miden los cambios en el ojo (por ejemplo, la pupila o la retina) y envían la información a un sistema de procesamiento. A partir de ahí, el sistema de procesamiento 1802 puede controlar una pantalla en la lente 1804 para proporcionar sombreado.
[0083] La figura 19 ilustra un sistema operativo óptico/perceptivo 1900 con el dispositivo óptico que puede llevarse puesto. Como se ve, una pluralidad de aplicaciones 1902-1910 interactúan con un sistema de procesamiento. El sistema de procesamiento incluye una CPU, una memoria, un control de ordenador y un sistema de actualización de CPU 1912.
[0084] Las aplicaciones incluyen, pero no se limitan a, una prescripción ocular 1902, sombreado 1904, una aplicación de resplandor 1906, GPS para la navegación de un vehículo 1908 y una aplicación médica 1910. El sistema incluiría mediciones perceptivas/generadores 1914. Estos incluirían, pero sin limitarse a, software de calibración, software de realidad aumentada, software de entretenimiento, software de vídeo/audioconferencia y bases de datos/comunicación externa. El sistema también incluiría uno o más controladores de dispositivo. Estos incluyen, pero no se limitan a, controladores de pantalla 1916, controladores ópticos/de sensor 1918, controladores del sistema operativo 1920, controladores de red 1922, controladores de objetos remotos externos 1924 y controladores de juegos/entretenimiento 1926.
[0085] La figura 20 describe una realización de la arquitectura digital de un dispositivo óptico que puede llevarse puesto 2000. En esta realización, las gafas de dispositivo óptico que puede llevarse puesto incluyen circuito de teléfono móvil/inteligente / comunicación de datos externos / y circuitos para la transmisión de datos a través de móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter, junto con la creación de redes a las plataformas de redes externas / datos / sitios de medios 2016. La óptica que puede llevarse puesta contiene un sistema de procesamiento 2002 con almacenamiento en memoria, sensores para la medición óptica y perceptiva 2006, circuitos para controlar las necesidades de visualización óptica y de generación perceptiva del dispositivo 2004 e interfaz 2008 para dispositivos remotos como herramientas, cámara especializada, GPS, teléfono móvil, dispositivos que pueden llevarse y similares.
[0086] En esta realización, diversos tipos de software de aplicación ("aplicaciones") 2018 se pueden ejecutar en el dispositivo óptico que puede llevarse puesto 2000 incluyendo aplicaciones para el control del sombreado, prescripciones focales y de ajuste ocular del usuario y aplicaciones en realidad aumentada para juegos como fútbol. Se puede usar un navegador de internet 2010 que utiliza parámetros perceptivos u ópticos para impulsar la navegación de internet de manera que los movimientos oculares o las expresiones faciales puedan acelerar el proceso de navegación a la información deseada. El dispositivo óptico que puede llevarse puesto 2000 contiene un navegador de sistema 2012 con almacenamiento de archivos que puede estar en el dispositivo o al que se puede acceder mediante una de las redes al dispositivo.
[0087] El dispositivo 2000 se puede alimentar por una batería independiente (no mostrada). La batería se puede cargar mediante un conector, como, pero sin limitarse a, un conector USB, a un dispositivo de carga portátil, una tableta o un ordenador de escritorio, por ejemplo. Además, el dispositivo 200 podría ser de energía solar o bien mediante células solares puestas en el dispositivo 200 o bien las células solares podrían ponerse en prendas de ropa (es decir, un sombrero, una camisa o pantalones, por ejemplo) para facilitar su carga.
[0088] La figura 21 ilustra la realización de un simulador de sistema 2100 para su uso por desarrolladores de aplicaciones y nuevas lentes o expansión del dispositivo óptico que puede llevarse puesto. En esta realización, hay un simulador para el sistema operativo 2102, un simulador de lente 2104, una pantalla 2114 y un emulador de gafas 2116. Mediciones ópticas/perceptivas 2106, señales de cámara y otros sensores y mediciones son entradas al simulador. Las aplicaciones del desarrollador o las nuevas lentes se pueden someter a prueba para diversos tipos de opciones que pueden llevarse puestas con diversos tipos de sistemas operativos que incluyen iOS, Android y sistemas operativos ópticos/perceptivos de propósito general u optimizados.
[0089] La figura 22A a la figura 22F ilustran una realización de sombreado inverso usando el dispositivo óptico que puede llevarse puesto. La figura 22A ilustra el problema del resplandor provocado por la luz ambiental que degrada la visibilidad de un objeto como la pantalla de un teléfono móvil o portátil. La figura 22C describe la contracción del iris/pupila debido al brillo que degrada la retina/córnea y la visión cerebral del objeto diana, como una pantalla de un teléfono móvil o similares. En la figura 22E, la pantalla del teléfono móvil aparece oscura ya que la luz ambiental es mucho más brillante que la pantalla.
[0090] La figura 22B ilustra la selección del objeto diana como en una pantalla de teléfono mediante el ojo o automáticamente mediante reconocimiento de preferencias, reglas, captura de imágenes de la cámara y objetos. La figura 22D muestra detección y captura ocular de la posición y la imagen del objeto por una cámara en las gafas. La figura 22F muestra la eliminación o reducción resultante del resplandor y el aumento de la visibilidad del objeto en el que un entorno sombreado o translúcido sigue al objeto de la zona circundante en tiempo real como lo ve el usuario del dispositivo óptico que puede llevarse puesto.
[0091] La figura 23 ilustra una realización de iluminación y eficacia mejorada de seguimiento ocular utilizando el dispositivo óptico que puede llevarse puesto. Mediante el uso del sensor y la cámara ocular se puede determinar la línea de visión y la longitud focal y usar para controlar una fuente de iluminación direccional de manera que la fuente de iluminación ilumine la zona correspondiente a la zona en la que se centra el usuario del dispositivo óptico que puede llevarse puesto.
[0092] La figura 24 ilustra una realización de superposición en realidad aumentada en tiempo real 2400 utilizando el dispositivo óptico que puede llevarse puesto. En esta realización, la información se transmite mediante móvil, texto, R2R, Internet, Wi-Fi, mensaje de Facebook, tweet de Twitter. El dispositivo óptico que puede llevarse puesto puede utilizar móvil, R2R, NFC, Wi-Fi, Internet para comunicarse. En un ejemplo, el dispositivo óptico que puede llevarse puesto se utiliza en un vehículo. En este ejemplo, las gafas del conductor usan realidad aumentada para superponer carteles publicitarios que se pueden personalizar para el usuario que aparecen como si fueran vallas publicitarias normales en la carretera. En este ejemplo, una señal de peligro en realidad aumentada actualizada en tiempo real se coloca antes de un peligro en la carretera con la señal en realidad aumentada que se genera en tiempo real usando la información de las redes conectadas al dispositivo de gafas que puede llevarse puesto. Este ejemplo también muestra una traducción en tiempo real de inglés a español de señales de advertencia y publicidad de navegación que usan realidad aumentada con el dispositivo óptico que puede llevarse puesto.
[0093] Por consiguiente, se dan a conocer sistemas y métodos de conformidad con realizaciones que proporcionan estas características mejoradas para dispositivos ópticos que pueden llevarse puestos. Para describir estas características y realizaciones con mayor detalle, se remite a continuación a la siguiente descripción junto con el siguiente análisis. Una característica clave asociadas a estas mejoras es proporcionar una variedad de parámetros perceptivos que se pueden utilizar con los dispositivos ópticos que pueden llevarse puestos. Ejemplos de parámetros perceptivos incluyen, pero no se limitan a, expresión óptica, voz, onda cerebral, ambiente, audio, vídeo, náutico, realidad aumentada, algorítmico, espacial, cognitivo, interpretativo.
[0094] A pesar de que se ha descrito la presente invención de conformidad con las realizaciones mostradas, un experto en la técnica reconocerá fácilmente que podría haber variaciones a las realizaciones y que esas variaciones entrarían dentro del alcance de la presente invención. Por consiguiente, se pueden hacer muchas modificaciones por un experto en la técnica sin alejarse del alcance de las reivindicaciones adjuntas.

Claims (13)

REIVINDICACIONES
1. Dispositivo óptico que puede llevarse puesto que comprende:
una lente;
uno o más proyectores;
un mecanismo de seguimiento ocular dinámico acoplado a la lente, incluyendo el mecanismo de seguimiento ocular dinámico una cámara montada en el dispositivo óptico que puede llevarse puesto y orientada a detectar características de la persona que lo lleva, siendo el mecanismo de seguimiento ocular dinámico sensible a una contracción del iris/de la pupila; y
el control de una visualización en la lente, para proporcionar control del sombreado en el dispositivo óptico que puede llevarse puesto, en el que el control del sombreado se proporciona proyectando un efecto de oclusión en la lente, y en el que el control del sombreado se controla usando la contracción del iris/de la pupila.
2. Dispositivo óptico que puede llevarse puesto según la reivindicación 1, que comprende además un elemento relacionado con la realidad aumentada dispuesto para controlar la lente que altera la percepción de la persona que lo lleva para proporcionar una vista en realidad aumentada, en el que el elemento en realidad aumentada proporciona una mejora de la percepción utilizando estándares de calidad objetivos y subjetivos basados en parámetros perceptivos.
3. Dispositivo óptico que puede llevarse puesto según la reivindicación 2, en el que los parámetros perceptivos incluyen cualquiera de entre expresión óptica, voz, onda cerebral, ambiente, audio, vídeo, náutico, realidad aumentada, algorítmico, espacial, cognitivo, interpretativo, y cualquier combinación de estos.
4. Dispositivo óptico que puede llevarse puesto según la reivindicación 2, en el que el dispositivo óptico que puede llevarse puesto controla cualquiera de entre la amplificación o la expansión de la fisiología perceptiva de un usuario, o cualquier combinación de estas, utilizando parámetros perceptivos.
5. Dispositivo óptico que puede llevarse puesto según la reivindicación 4, en el que las expresiones ópticas son imágenes.
6. Dispositivo óptico que puede llevarse puesto según la reivindicación 1, en el que el dispositivo óptico que puede llevarse puesto comprende uno o más encartes en gafas.
7. Dispositivo óptico que puede llevarse puesto según la reivindicación 6, en el que las gafas comprenden gafas de cuatro estados.
8. Dispositivo óptico que puede llevarse puesto según la reivindicación 1, en el que se proporciona sombreado en una lente del dispositivo óptico que puede llevarse puesto en el que la zona circundante está ocluida o invertida.
9. Dispositivo óptico que puede llevarse puesto según la reivindicación 1, en el que se proporciona sombreado adicional por un filtro polarizado.
10. Dispositivo óptico que puede llevarse puesto según la reivindicación 1, en el que se proporciona control del sombreado adicional por las lentes en el interior del dispositivo óptico que puede llevarse puesto.
11. Dispositivo óptico que puede llevarse puesto según la reivindicación 10, en el que se proporciona sombreado adicional en una lente del dispositivo óptico que puede llevarse puesto en el que la zona circundante está ocluida o invertida.
12. Dispositivo óptico que puede llevarse puesto según la reivindicación 10, en el que se proporciona sombreado adicional por un filtro polarizado.
13. Dispositivo óptico que puede llevarse puesto según la reivindicación 1, que comprende además una cámara adicional;
en el que la cámara adicional se dispone para determinar una posición de la luz a ocluir;
en el que la cámara montada en el dispositivo óptico que puede llevarse puesto se dispone para determinar la posición del ojo, la pupila o la retina y la línea de visión entre la luz a ocluir y el ojo y una zona de intersección en la lente o la zona para proyectar la oclusión desde un proyector.
ES14763034T 2013-03-15 2014-03-14 Gafas digitales ópticas y perceptivas mejoradas Active ES2900423T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/841,550 US11428937B2 (en) 2005-10-07 2013-03-15 Enhanced optical and perceptual digital eyewear
PCT/US2014/029553 WO2014144940A2 (en) 2013-03-15 2014-03-14 Enhanced optical and perceptual digital eyewear

Publications (1)

Publication Number Publication Date
ES2900423T3 true ES2900423T3 (es) 2022-03-16

Family

ID=51538398

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14763034T Active ES2900423T3 (es) 2013-03-15 2014-03-14 Gafas digitales ópticas y perceptivas mejoradas

Country Status (6)

Country Link
EP (2) EP2967324B1 (es)
JP (3) JP2016515897A (es)
KR (1) KR102391405B1 (es)
CN (2) CN105142498B (es)
ES (1) ES2900423T3 (es)
WO (1) WO2014144940A2 (es)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448867B2 (en) 2014-09-05 2019-10-22 Vision Service Plan Wearable gait monitoring apparatus, systems, and related methods
US11918375B2 (en) 2014-09-05 2024-03-05 Beijing Zitiao Network Technology Co., Ltd. Wearable environmental pollution monitor computer apparatus, systems, and related methods
US10617342B2 (en) 2014-09-05 2020-04-14 Vision Service Plan Systems, apparatus, and methods for using a wearable device to monitor operator alertness
US10215568B2 (en) 2015-01-30 2019-02-26 Vision Service Plan Systems and methods for tracking motion, performance, and other data for an individual such as a winter sports athlete
CN107530034A (zh) 2015-03-16 2018-01-02 奇跃公司 增强现实脉冲血氧定量法
US10275369B2 (en) 2015-03-23 2019-04-30 International Business Machines Corporation Communication mode control for wearable devices
KR101756792B1 (ko) * 2015-07-28 2017-07-11 재단법인대구경북과학기술원 Hmd형 가상현실 콘텐츠 모니터링 및 제어 시스템
TWI571240B (zh) * 2015-09-16 2017-02-21 國立交通大學 抑制腦波雜訊之裝置及其方法
CN105427701B (zh) * 2015-11-30 2018-11-06 武汉华瑞密达科教股份有限公司 消防业务操作培训系统和方法
CN105511077B (zh) * 2015-12-19 2019-02-01 祁刚 头戴式智能设备
EP3398009A1 (fr) * 2015-12-30 2018-11-07 Essilor International (Compagnie Générale D'Optique) Procédé de commande d'un système ophtalmique à partir d'une mesure et d'une information obtenue par un dispositif électronique externe
CN106214118A (zh) * 2016-01-28 2016-12-14 北京爱生科贸有限公司 一种基于虚拟现实的眼球运动监测系统
KR20220040511A (ko) 2016-04-08 2022-03-30 매직 립, 인코포레이티드 가변 포커스 렌즈 엘리먼트들을 가진 증강 현실 시스템들 및 방법들
CN105788390A (zh) * 2016-04-29 2016-07-20 吉林医药学院 基于增强现实的医学解剖辅助教学系统
TWI597049B (zh) * 2016-06-01 2017-09-01 清弘生醫股份有限公司 可穿戴式眼溫監測裝置及其系統
KR102493607B1 (ko) * 2016-06-15 2023-02-01 삼성전자주식회사 지문 인식 기능을 지원하는 전자 장치 및 이의 운용 방법
CN107643597B (zh) * 2016-07-22 2020-05-01 蔡清来 统合实境智慧眼镜护眼遮光器
CN106324862A (zh) * 2016-08-22 2017-01-11 苏州倍声声学技术有限公司 一种智能化多功能通信眼镜
WO2018043975A1 (ko) * 2016-09-03 2018-03-08 정차균 방향 정렬 보조용 골프안경 및 그 동작방법
JP2018042755A (ja) * 2016-09-14 2018-03-22 株式会社トプコン 立体画像提示装置、及び眼科装置
CN106878540A (zh) * 2016-11-28 2017-06-20 苏州花坞信息科技有限公司 一种具有显示功能的智能眼镜及其控制方法
US9711072B1 (en) * 2016-12-01 2017-07-18 Varjo Technologies Oy Display apparatus and method of displaying using focus and context displays
CN106725280B (zh) * 2016-12-22 2018-06-05 首都医科大学附属北京同仁医院 一种斜视度测量装置
CN110546549B (zh) 2017-02-23 2022-06-07 奇跃公司 具有可变屈光力反射器的显示系统
CN106842576A (zh) * 2017-03-23 2017-06-13 核桃智能科技(常州)有限公司 一种具有移动通讯功能的头戴智能显示设备
US11106274B2 (en) * 2017-04-10 2021-08-31 Intel Corporation Adjusting graphics rendering based on facial expression
US9910298B1 (en) 2017-04-17 2018-03-06 Vision Service Plan Systems and methods for a computerized temple for use with eyewear
JP6845072B2 (ja) 2017-04-21 2021-03-17 ファナック株式会社 工場設備の保守支援装置及び保守支援システム
US10610179B2 (en) * 2017-06-05 2020-04-07 Biosense Webster (Israel) Ltd. Augmented reality goggles having X-ray protection
CN107300771B (zh) * 2017-06-21 2019-11-29 常州快来信息科技有限公司 头戴3d显示设备的视觉优化方法
CN107238003A (zh) * 2017-07-19 2017-10-10 广州新诚生物科技有限公司 智能头灯
WO2019040665A1 (en) 2017-08-23 2019-02-28 Neurable Inc. BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS
CN107544676A (zh) * 2017-09-08 2018-01-05 北京枭龙科技有限公司 一种ar眼镜的输入方法
KR20200098524A (ko) 2017-11-13 2020-08-20 뉴레이블 인크. 고속, 정확도 및 직관적 사용자 상호작용을 위한 적응을 갖춘 두뇌-컴퓨터 인터페이스
EP3492965A1 (en) * 2017-12-04 2019-06-05 Essilor International Optical device and means for detecting driving conditions
KR102570401B1 (ko) * 2018-05-09 2023-08-23 서강대학교 산학협력단 증강현실 기반의 전자책 제공 방법 및 착용형 디스플레이 장치
US10722128B2 (en) 2018-08-01 2020-07-28 Vision Service Plan Heart rate detection system and method
KR102236534B1 (ko) * 2018-11-02 2021-04-06 주식회사 엘지화학 편광자의 제조 방법
CN110200606A (zh) * 2019-05-07 2019-09-06 谷东科技有限公司 一种基于ar眼镜的环境及生命特征监测系统
CN111259135A (zh) * 2019-09-02 2020-06-09 北京佳珥医学科技有限公司 文本的显示方法、提词器及提词系统
JP7170277B2 (ja) * 2019-12-09 2022-11-14 株式会社辰巳菱機 通報装置
US11006093B1 (en) 2020-01-22 2021-05-11 Photonic Medical Inc. Open view, multi-modal, calibrated digital loupe with depth sensing
KR102322110B1 (ko) * 2020-05-11 2021-11-04 공주대학교 산학협력단 학습 증진을 위한 안경형 웨어러블 디바이스
IT202100013811A1 (it) * 2021-05-27 2022-11-27 Jlg Group S R L Micro fotocamera integrata indossabile
WO2022261031A2 (en) * 2021-06-07 2022-12-15 Percept Technologies, Inc. Dynamic visual optimization
EP4385009A1 (en) * 2021-08-11 2024-06-19 Meetkai, Inc. Conversational artificial intelligence system in a virtual reality space
US11955135B2 (en) 2021-08-23 2024-04-09 Snap Inc. Wearable speech input-based to moving lips display overlay
WO2023219236A1 (ko) * 2022-05-10 2023-11-16 주식회사 비브스튜디오스 스마트 안경에 광고를 디스플레이하는 방법
CN117064343B (zh) * 2023-10-11 2023-12-19 汉达科技发展集团有限公司 一种可检测生命体征的智能ar偏振探测数据处理方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4576453A (en) * 1984-08-03 1986-03-18 Richard Borowsky Light-occluding contact lens
US4659197A (en) * 1984-09-20 1987-04-21 Weinblatt Lee S Eyeglass-frame-mounted eye-movement-monitoring apparatus
JPH0738848B2 (ja) * 1990-07-16 1995-05-01 日本電信電話株式会社 視線トレーサ
CN2240155Y (zh) * 1995-01-28 1996-11-13 周仁荣 防眩光眼镜
US5671035A (en) * 1995-06-07 1997-09-23 Barnes; Elwood E. Light intensity reduction apparatus and method
CN1070614C (zh) * 1996-03-25 2001-09-05 王盛荣 一种防眩目眼镜
CN2293846Y (zh) * 1997-02-25 1998-10-07 黄加玉 新型多功能防眩光眼镜
EP1196807A1 (en) * 1999-07-20 2002-04-17 Smartspecs, L.l.c. Integrated method and system for communication
US7500747B2 (en) * 2003-10-09 2009-03-10 Ipventure, Inc. Eyeglasses with electrical components
JP2007528743A (ja) * 2003-04-30 2007-10-18 ディースリーディー,エル.ピー. 口腔内画像化システム
ZA200608191B (en) * 2004-04-01 2008-07-30 William C Torch Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US20050248722A1 (en) * 2004-05-04 2005-11-10 Nelis Thomas J Interactive eye glasses
CN101185016A (zh) * 2005-03-30 2008-05-21 诺瓦维申公司 在视觉训练中用头戴式显示器提供视觉刺激的方法和设备
JP2006309314A (ja) * 2005-04-26 2006-11-09 Konica Minolta Photo Imaging Inc 翻訳装置
US20070081123A1 (en) * 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
CN101000454A (zh) * 2006-01-10 2007-07-18 明基电通股份有限公司 由马达驱动设于光源和数字微晶镜片间的遮光罩的投影仪
JP2009034389A (ja) * 2007-08-02 2009-02-19 Daiichi Shokai Co Ltd 遊技機
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
WO2010083853A1 (en) * 2009-01-26 2010-07-29 Tobii Technology Ab Detection of gaze point assisted by optical reference signals
JP2011085829A (ja) * 2009-10-19 2011-04-28 Nikon Corp ヘッドマウントディスプレイ
JP5434499B2 (ja) * 2009-11-12 2014-03-05 大日本印刷株式会社 柄癖可視化装置、柄癖可視化方法、及びプログラム
US9097891B2 (en) * 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
WO2012023256A2 (en) * 2010-08-19 2012-02-23 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
US20120056993A1 (en) * 2010-09-08 2012-03-08 Salman Luqman Dental Field Visualization System with Improved Ergonomics
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils

Also Published As

Publication number Publication date
JP2016515897A (ja) 2016-06-02
KR20150140286A (ko) 2015-12-15
CN105142498A (zh) 2015-12-09
CN105142498B (zh) 2022-10-11
WO2014144940A2 (en) 2014-09-18
EP2967324A2 (en) 2016-01-20
WO2014144940A3 (en) 2014-11-06
CN115981000A (zh) 2023-04-18
EP2967324B1 (en) 2021-09-08
EP2967324A4 (en) 2016-11-09
EP3981320A1 (en) 2022-04-13
JP2023113596A (ja) 2023-08-16
KR102391405B1 (ko) 2022-04-27
JP2021051308A (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
ES2900423T3 (es) Gafas digitales ópticas y perceptivas mejoradas
US11630311B1 (en) Enhanced optical and perceptual digital eyewear
US20230266590A1 (en) Enhanced Optical and Perceptual Digital Eyewear
US10795183B1 (en) Enhanced optical and perceptual digital eyewear
US8733927B1 (en) Enhanced optical and perceptual digital eyewear
WO2014144918A2 (en) Enhanced optical and perceptual digital eyewear
US9619943B2 (en) Event augmentation with real-time information
KR102182605B1 (ko) 시선-기반 미디어 선택 및 편집을 위한 시스템들 및 방법들
CN103091843B (zh) 透视显示器亮度控制
US11428955B1 (en) Personalized optics
CN102928979A (zh) 调整混合现实显示器以供瞳孔间距对准
WO2013166365A1 (en) Intelligent translations in personal see through display
JP2015504616A (ja) 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正
US11199714B2 (en) Experimental reality integrated system
AU2013200187A1 (en) Automatic text scrolling on a head-mounted display
US11954249B1 (en) Head-mounted systems with sensor for eye monitoring
WO2023096713A1 (en) Personalized optics
WO2023205096A1 (en) Head-mountable device for eye monitoring