ES2333528T3 - Procedimiento y sistema de comunicacion audiovisual. - Google Patents

Procedimiento y sistema de comunicacion audiovisual. Download PDF

Info

Publication number
ES2333528T3
ES2333528T3 ES04732164T ES04732164T ES2333528T3 ES 2333528 T3 ES2333528 T3 ES 2333528T3 ES 04732164 T ES04732164 T ES 04732164T ES 04732164 T ES04732164 T ES 04732164T ES 2333528 T3 ES2333528 T3 ES 2333528T3
Authority
ES
Spain
Prior art keywords
aforementioned
user
signal
image
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES04732164T
Other languages
English (en)
Inventor
Asaf Ashkenazi
Yoram Shmuely
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elbit Systems Ltd
Original Assignee
Elbit Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elbit Systems Ltd filed Critical Elbit Systems Ltd
Application granted granted Critical
Publication of ES2333528T3 publication Critical patent/ES2333528T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Sistema para comunicación audiovisual, comprendiendo el sistema: un sistema para la determinación de una línea de visión para determinar una línea de visión de usuario de al menos un ojo de un usuario, y un sistema de visualización de imágenes, acoplado al citado sistema de determinación de la línea de visión, mostrando el citado sistema de visualización de imágenes al menos una imagen suplementaria para el citado al menos un ojo, y controlando la al menos una propiedad de la citada al menos una imagen suplementaria y una imagen de escena, de acuerdo con la citada línea de visión determinada del usuario, estando caracterizado el sistema porque comprende, además un sistema de audio multi-dimensional que está acoplado al citado sistema de determinación de línea de visión, produciendo el citado sistema de audio multi-dimensional sonido multi-dimensional para ser oído por el citado usuario, de acuerdo con la localización de al menos una señal de entrada relativa a la posición y a la orientación de la cabeza del citado usuario.

Description

Procedimiento y sistema de comunicación audiovisual.
Campo de la técnica desvelada
La técnica desvelada se refiere a sistemas audiovisuales en general y, en particular, a procedimientos y sistemas para mejorar la comunicación con el entorno.
Antecedentes de la técnica desvelada
El piloto de un avión de combate está ocupado ejecutando diferentes tareas simultáneamente en el ejercicio de una misión, tales como navegar, pilotar el avión, apuntar y disparar a los objetivos, y comunicar con el control de tierra o con otros pilotos. Se han desvelado varios sistemas y dispositivos para aliviar la carga ejercida sobre el piloto mientras ejecuta estas tareas y para aumentar el nivel de rendimiento del piloto. Estos sistemas se encuentran incorporados generalmente en el casco del piloto o están emplazados en una proximidad cercana al piloto.
La patente norteamericana número US-A-6 384 982 concedida a Spitzer y titulada "Sistema de Visualización de Imágenes Compacto para Gafas u otros Dispositivos Dispuestos en la Cabeza" se refiere a un dispositivo para mostrar una imagen contra una imagen del entorno. El dispositivo incluye una fuente de imágenes, una lente principal, una primera lente, una segunda lente y una inserción. La lente principal es la lente de prescripción de un par de gafas. Una primera porción de la inserción tiene un primer índice de refracción y una segunda porción de la misma tiene un segundo índice de refracción, en el que el primer índice de refracción es mayor que el segundo índice de refracción. La inserción se encuentra situada en el interior de la lente principal. El índice de refracción de la lente principal es igual al primer índice de refracción. La primera lente se encuentra situada entre la fuente de imágenes y la lente principal. La primera lente y la fuente de imágenes se encuentran situadas en la parte superior de la lente principal a lo largo de un primer eje. La segunda lente se encuentra situada entre la inserción y el ojo de un usuario, a lo largo de un segundo eje perpendicular al primer eje.
Un haz de luz procedente de la fuente de imágenes pasa a través de la primera lente y de la lente principal e impacta contra la primera porción. Los valores relativos del primer índice de refracción y del segundo índice de refracción son tales que el haz de luz se refleja internamente totalmente desde la inserción de la segunda lente y hacia el ojo del usuario. Otro haz de luz procedente de las imágenes de entorno pasa a través de la inserción y de la segunda lente, y llega al ojo del usuario. El dispositivo puede incluir además una banda de cabeza, transductores montados en uno o dos auriculares y un micrófono. El micrófono incluye una disposición de cancelación de ruido diferencial.
La patente norteamericana número US-A-5 861 994 concedida a Kelly y titulada "Sistema de Formación de Imágenes Electrónicas Binocular" se refiere a un sistema portátil binocular de formación de imágenes electrónicas que superpone una imagen en una escena vista, proporciona sonido estéreo al usuario y permite la grabación de vídeo y entrada y salida a dispositivos electrónicos. El sistema portátil binocular de formación de imágenes electrónicas incluye un alojamiento del sistema de núcleo, un módulo de visualización, un módulo de cámara electrónica y un módulo de batería y de grabador de vídeo. El sistema de núcleo incluye un subsistema de visualización binocular, altavoces estéreo, un subsistema de control del sistema electrónico, una interfaz de entrada/salida, tres puertos de módulos y un teclado de entrada.
El módulo de visualización incluye un subsistema de visualización. El módulo de batería y de grabador de vídeo incluye un grabador y reproductor y una batería. El subsistema de visualización binocular incluye una lente de proyección, un espejo plegable, una lente de Fresnel positiva en combinación, una superficie divisora de haz de prisma listado reflectante, y una lente ocular.
El subsistema de control del sistema electrónico está conectado a los altavoces estéreo, a la interfaz de entrada/salida, al teclado de entrada y a los tres puertos de módulos. Cada uno del módulo de visualización, del módulo de cámara electrónica y del módulo de batería y de grabadora de vídeo puede ser acoplado al sistema portátil binocular de formación de imagen electrónica. El espejo plegable se encuentra dispuesto en un lado de la lente ocular. La superficie divisora de haz de prisma listado reflectante está situada delante del espejo plegable y de la lente ocular. La combinación de lentes de Fresnel positivas se encuentra situada entre la superficie divisora de haz de prisma listado reflectante por un lado, y del espejo plegable y la lente ocular por el otro. La lente de proyección se encuentra situada entre el espejo plegable y el subsistema de visualización.
El subsistema de visualización proyecta una imagen hacia el espejo plegable a través de la lente de proyección, y el espejo plegable refleja la imagen hacia la combinación de lentes de Fresnel positivas y la superficie divisora de haz de prisma listado reflectante. La superficie divisora de haz de prisma listado reflectante refleja la imagen y la combinación de lentes de Fresnel positivas hace converger la imagen a la lente ocular. Una imagen de la escena también pasa por la superficie divisora de haz de prisma listado reflectante y alcanza la lente ocular a través de la combinación de lentes de Fresnel positivas.
La patente norteamericana número US-A-6 349 001 concedida a Spitzer y titulada "Sistema de Interfaz de Gafas", se refiere a una lente ocular que captura una imagen de escena visualizada por un usuario y proporciona comunicación de audio al usuario. La lente ocular incluye una primera patilla, una segunda patilla, una primera lente, una segunda lente, un conjunto de cámara, un revestimiento divisor de haz, un resentimiento del espejo, una tercera lente, un subsistema de entrada de audio, un subsistema de salida de audio, un subsistema de interconexión y un subsistema de potencia.
La primera patilla y la segunda patilla están conectadas a la primera lente y a la segunda lente, respectivamente. La primera lente y la segunda lente se encuentran delante de los ojos del usuario. El conjunto de cámara está conectado a la primera patilla. El conjunto de cámara está alineado con la dirección de la mirada del usuario. El revestimiento del divisor haz y el revestimiento del espejo están insertados dentro de la primera lente. La tercera lente se encuentra situada entre el conjunto de cámara y el revestimiento del espejo.
El revestimiento del divisor haz refleja parte a los haces de luz respectivos de la imagen de escena, al revestimiento del espejo y otra parte del mismo a la vista del usuario. El revestimiento del espejo refleja los haces de luz respectivos de la imagen de la escena al conjunto de cámara.
La patente norteamericana número US-A-6 456 438 concedida a Lee et al., y titulada "Pantalla de Viñetas de Inmersión Variable" se refiere a un visualizador montado en cabeza (HMD) que muestra una imagen generada por un usuario contra las imágenes del mundo real, de una manera seleccionada. El HMD incluye un combinador, un elemento de transmisión variable, un sistema óptico de visualización y un módulo de control. El combinador se encuentra situado entre los ojos del usuario y el elemento de transmisión variable. El módulo de control está conectado al elemento de transmisión variable. El combinador enfoca los datos ópticos generados por el sistema óptico de visualización hacia el ojo del usuario. Las imágenes del mundo real pasan a través del elemento de transmisión variable y del combinador y llegan al ojo del usuario. El HMD también puede incluir un dispositivo de seguimiento del ojo para registrar las imágenes del mundo real con la imagen generada de manera que sea coincidente con la dirección de la mirada del ojo del usuario.
La patente norteamericana número US-A-6 160 666 concedida a Rallison et al., y titulada "Sistema de Visualización Visual Personal", se refiere a un HMD para mostrar imágenes de vídeo a un usuario, contra la luz ambiental y produciendo sonido para el usuario. El HMD incluye un altavoz derecho, un altavoz izquierdo, una pieza de patilla derecha, una pieza de patilla izquierda, una banda, un tirante de frente, un dispositivo óptico y un dispositivo de seguimiento. El dispositivo óptico incluye un generador de imágenes, un dispositivo de corrección de campo, un espejo plegado y un combinador.
El altavoz derecho y el altavoz izquierdo están unidos a la pieza de patilla derecha y a la pieza de patilla izquierda, respectivamente. La pieza de patilla derecha, la pieza de patilla izquierda, la correa y el tirante de frente están unidos entre sí. El dispositivo óptico está unido al tirante de frente. El dispositivo de seguimiento se une ya sea a la pieza de patilla derecha o a la pieza de patilla izquierda.
El espejo plegado refleja al menos una porción de la imagen recibida desde el generador de imágenes hacia el combinador. El combinador refleja al menos una porción de la imagen recibida desde el espejo plegado, hacia el ojo del usuario. Si el combinador es transparente al menos parcialmente, combina la imagen con la luz del entorno para proporcionar al usuario una visión simultánea del entorno y de la imagen generada. El dispositivo de seguimiento recoge la información respectiva de la posición, postura, emplazamiento y movimiento de la cabeza del usuario. Esta información se utiliza para controlar la imagen generada a los ojos del usuario.
La patente norteamericana número US-A-5 422 653 concedida a Maguire, Jr. y titulada "Realidad Virtual Pasiva", se refiere a un sistema para controlar la porción de un objeto espacial que ha de ser formado en imágenes, de acuerdo con la posición del ojo de un operador de cámara. En esta patente, las palabras "espectador pasivo" significan uno cuyo cuerpo, cabeza o eje visual puede seguir analógicamente el cuerpo, la cabeza o el eje visual de un observador siguiendo percepciones activas simuladas. Las palabras "espectador activo" pretenden describir uno cuya actividad o los efectos de la misma son monitorizados para proporcionar una señal de control que afecta al contenido de la información de una imagen presentada al mismo.
El sistema incluye una fuente de luz, una cámara de vídeo, un monitor de posición del ojo, un primer control y un transmisor. Un casco de espectador pasivo incluye un receptor, un segundo control, una fuente de imágenes, un visualizador de cristal líquido transmisor de luz, un prisma, un primer espejo reflectante, un segundo espejo reflectante, un "emparedado" de tres capas y una pluralidad de fuentes de audio. El "emparedado" de tres capas incluye una válvula de luz, una lente de aumento variable y un prisma de Risley. El monitor de posición del ojo es un medidor ocular que dirige un haz invisible de radiación infrarroja al ojo del operador de cámara, donde se refleja retornando para la detección. El primer espejo reflectante y el segundo espejo reflectante se encuentran situados delante del ojo derecho y del ojo izquierdo del espectador pasivo, respectivamente.
El monitor de posición del ojo monitoriza la posición de los ojos del operador de cámara (es decir, del espectador activo) y proporciona una señal al primer control. El primer control controla la porción del objeto espacial que es formada por imágenes de una manera muy detallada en la cámara de vídeo. La cámara de vídeo proporciona información de imagen al primer control y el primer control transmite la información de imagen al segundo control a través del transmisor y del receptor. El segundo control controla la fuente de imágenes para cambiar la posición del componente muy detallado del objeto espacial con respecto al componente menos detallado, de acuerdo con el eje visual de los ojos del espectador activo.
Los ojos del espectador pasivo observan la imagen producida por la fuente de imágenes. De esta manera, el sistema induce al espectador pasivo a desplazar su mirada de acuerdo con los cambios en la posición del componente altamente detallado con respecto al objeto espacial formado en imágenes. El visualizador de cristal líquido transmisor de luz proporciona imágenes al prisma y el prisma transmite una imagen con una intensidad reducida del 50% al primer espejo reflectante y al segundo espejo reflectante, a través de las tres capas "emparedadas". El primer espejo reflectante y el segundo espejo reflectante reflejan la imagen de intensidad reducida al ojo derecho y al ojo izquierdo, respectivamente, del espectador pasivo. La fuente de audio proporciona un efecto envolvente de audio al espectador pasivo.
La patente norteamericana número US-A-6 421 031 concedida a Ronzani et al., y titulada "Sistema de Visualización de Cámara", se refiere a un sistema visualizador montado en cabeza que proporciona una comunicación audiovisual a un usuario. El sistema incluye un visualizador montado en cabeza, un teclado plegable, un ordenador montado en cabeza, un dispositivo de entrada y un módulo de comunicaciones. El visualizador montado en cabeza incluye un conjunto óptico, un conector y un conjunto de altavoces. El visualizador montado en cabeza se conecta a una fuente de vídeo remota y a una fuente de alimentación, a través del conector.
El dispositivo de entrada es un seguidor de ojo. El módulo de comunicaciones incluye un sistema de posicionamiento global (GPS) y un transductor inalámbrico. El ordenador montado en cabeza incluye una unidad de procesamiento central (CPU), un módulo de tarjeta de vídeo, un módulo de unidad de disco, al menos un módulo de expansión y un módulo de batería. El ordenador montado en cabeza comunica con un ordenador central de operaciones a través del módulo de comunicaciones y de una red de datos distribuida. El transductor inalámbrico transmite y recibe señales de audio, de video y datos. El conjunto óptico proporciona una imagen de vídeo a los ojos del usuario.
La patente norteamericana número US-A-5 682 172 concedida a Travers et al., y titulada "Casco para Presentar Señales de Vídeo y de Audio a un Usuario", se refiere a un casco para el suministro de información audiovisual a un usuario. El casco incluye una estructura rígida, un visor, altavoces, un compensador, bolsas inflables selectivamente y una correa de nuca. La estructura rígida incluye una viga de soporte y un pareja de brazos rígidos. El visor incluye un visualizador visual para presentar una imagen a los ojos del usuario. El compensador incluye una base de espuma de células alveolares. Los brazos rígidos alojan los altavoces. Los altavoces cooperen con el compensador. La pareja de brazos rígidos se extiende desde la viga de soporte y el visor está unido pivotantemente a la viga de soporte. La correa de nuca se extiende entre los brazos rígidos. Las bolsas inflables selectivamente se encuentran situadas en el interior de la estructura rígida. El documento US-A-2002/075286 desvela un sistema en el que una cámara de video capta una imagen de un espacio real en la línea de visión del observador en la dirección de la línea de visión. Un generador de imágenes de espacio virtual genera una imagen de espacio virtual en la línea de visión. Un generador de imágenes compuestas genera una imagen compuesta sintetizando la imagen de espacio virtual generada por el generador de imágenes de espacio virtual y una imagen de espacio real producida por la cámara de vídeo. Un dispositivo de visualización muestra la imagen compuesta.
Sumario de la técnica desvelada
Es un objeto de la técnica desvelada proporcionar un nuevo procedimiento y un sistema para mejorar la comunicaciones de un usuario con el entorno.
De acuerdo con la técnica desvelada, de esta manera se proporciona un sistema para la comunicaciones audiovisual de acuerdo con la reivindicación 1, y/o un procedimiento correspondiente de acuerdo con la reivindicación 21.
Breve descripción de los dibujos
La técnica desvelada se podrá entender y apreciar más completamente a partir de la descripción detallada que sigue tomada en conjunto con los dibujos, en los que
la figura 1A es una ilustración esquemática de un sistema para mejorar la comunicación audiovisual, construido y operativo de acuerdo con una realización de la técnica desvelada;
la figura 1B es una ilustración esquemática de un sistema similar al sistema de la figura 1A, incorporado con un dispositivo montado en cabeza;
la figura 2 es una ilustración esquemática de un sistema, construido y operativo de acuerdo con otra realización de la técnica desvelada;
la figura 3 es una ilustración esquemática de un casco de miembro de la tripulación, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 4 es una ilustración esquemática de un avión, en la que se indican ejemplos de posiciones de fuentes de audio virtuales preferidas;
la figura 5 es una ilustración esquemática de una formación de aviones que utilizan enlaces de radio para comunicar las señales de audio entre los miembros de las tripulaciones de los diferentes aviones;
la figura 6 es una ilustración esquemática de un procedimiento de formación de imágenes de audio en 3D en base a las mediciones de la línea de visión, operativo de acuerdo con otra realización de la técnica desvelada;
la figura 7A es una ilustración esquemática de un sistema para producir una señal de sonido libre de ruidos, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 7B es una ilustración esquemática de un detalle del controlador de audio del sistema de la figura 7A;
la figura 7C es una ilustración esquemática del sistema de la figura 7A incorporado en un dispositivo montado en cabeza;
la figura 8A es una ilustración esquemática de un sistema de cancelación de ruido, construido y operativo de acuerdo con otra realización de la técnica desvelada;
la figura 8B es una ilustración esquemática de un detalle del controlador de ANR analógico del controlador de ANR del sistema de la figura 8A;
la figura 8C es una ilustración esquemática del sistema de la figura 8A, incorporado en un dispositivo montado en cabeza;
la figura 9A es una ilustración esquemática de un sistema de reducción de ruido, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 9B es una ilustración esquemática del sistema de la figura 9A, incorporado en un dispositivo montado en cabeza;
la figura 10A es una ilustración esquemática de un sistema digital de reducción de ruido, construido y operativo de acuerdo con otra realización de la técnica desvelada;
la figura 10B es una ilustración esquemática de la porción predictiva del sistema de la figura 10A;
la figura 10C es una ilustración esquemática de la porción de respuesta del sistema de la figura 10A;
la figura 11A es una ilustración esquemática de un procedimiento para el funcionamiento del sistema de la figura 7A, operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 11B es una ilustración esquemática de un procedimiento para operar un sistema de cancelación de ruido, operativo de acuerdo con otra realización de la técnica desvelada;
la figura 12 es una ilustración esquemática de un procedimiento para el funcionamiento del sistema de la figura 9A, operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 13 es una ilustración esquemática delantera de un sistema construido y operativo de acuerdo con otra realización de la técnica desvelada;
la figura 14 es una ilustración en vista lateral esquemática del sistema de la figura 13;
la figura 15A es una ilustración esquemática de una primera escena, que es visualizada por un usuario, de acuerdo con una realización adicional de la técnica desvelada;
la figura 15B es una ilustración esquemática de una segunda escena, que es visualizada por el usuario de acuerdo con otra realización de la técnica desvelada;
la figura 15C es una ilustración esquemática de una tercera escena, que es visualizada por el usuario de acuerdo con una realización adicional de la técnica desvelada;
la figura 16 es una ilustración esquemática de un procedimiento para el seguimiento del ojo de un usuario, mientras se proyectan imágenes hacia el ojo, operativo de acuerdo con otra realización de la técnica desvelada;
la figura 17A es una ilustración en vista lateral esquemática de un sistema, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 17B es una ilustración en vista delantera del sistema de la figura 17A;
\newpage
la figura 18 es una ilustración esquemática de un sistema construido y operativo de acuerdo con otra realización de la técnica desvelada, para dirigir un arma hacia un objetivo;
la figura 19A es una vista esquemática en perspectiva de un transmisor variable, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 19B es una ilustración esquemática de una vista lateral del transmisor variable de la figura 19A;
la figura 19C es una vista esquemática en perspectiva del transmisor variable de la figura 19A, en otro modo de funcionamiento;
la figura 19D es una ilustración esquemática de una vista lateral del transmisor variable de la figura 19C;
la figura 20 es una ilustración esquemática de un transmisor variable, construido y operativo de acuerdo con otra realización de la técnica desvelada;
la figura 21 es una ilustración esquemática de un transmisor variable, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 22 es una ilustración esquemática de un procedimiento para transmitir luz a una reflectancia variable, operativo de acuerdo con otra realización de la técnica desvelada;
la figura 23A es una ilustración esquemática en perspectiva ampliada de un polarizador variable, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 23B es una ilustración esquemática de la vista I (vista delantera) de una de las capas de protección del polarizador variable de la figura 23A, cuando no hay voltaje eléctrico aplicado a través de la pareja de electrodos de la capa de protección;
la figura 23C es una ilustración esquemática de la vista II (vista superior) del polarizador variable de la figura 23A en forma montada y cuando no hay campo eléctrico aplicado a través de la pareja de electrodos de la capa de protección del polarizador variable de la figura 23A;
la figura 23D es una ilustración esquemática de la vista I, (vista delantera) de una de las capas de protección del polarizador variable de la figura 23A, cuando se aplica un voltaje eléctrico a través de la pareja de electrodos de la capa de protección;
la figura 23E es una ilustración esquemática de la sección transversal III de la pareja de electrodos de la figura 23D;
la figura 23F es una ilustración esquemática de la vista II (vista superior) del polarizador variable de la figura 23A en una forma montada, que tiene un material de LC de anisotropía dieléctrica positiva y un material huésped de anisotropía óptica positiva, y cuando se aplica un campo eléctrico a través de la pareja de electrodos de la capa de protección del polarizador variable de la figura 23A;
la figura 23G es una ilustración esquemática de la vista II (vista superior) de un polarizador variable similar al polarizador variable de la figura 23A en forma montada, construido y operativo de acuerdo con otra realización de la técnica desvelada;
la figura 24A es una ilustración esquemática ampliada en perspectiva de un polarizador variable, construido y operativo de acuerdo con una realización adicional de la técnica desvelada;
la figura 24B es una ilustración esquemática de la sección transversal IV del polarizador variable de la figura 24A, cuando no se aplica voltaje eléctrico entre los electrodos interdigitales y el electrodo plano de las capas de protección del polarizador variable de la figura 24A;
la figura 24C es una ilustración esquemática de la sección IV del polarizador variable de la figura 24A, que funciona en un modo de en plano;
la figura 24D es una ilustración esquemática de la sección transversal IV del polarizador variable de la figura 24A, operando en un modo de plano - paralelo;
la figura 25 es
una ilustración esquemática en perspectiva de una capa de protección de un polarizador variable, construido y operativo de acuerdo con otra realización de la técnica desvelada, y
\newpage
la figura 26 es una ilustración esquemática del sistema de seguimiento de cabeza de la figura 1A, construido y operativo de acuerdo con una realización adicional de la técnica desvelada.
\vskip1.000000\baselineskip
Descripción detallada de las realizaciones
La técnica desvelada supera las desventajas de la técnica anterior, proporcionando un sistema que determina la línea de visión (LOS) de un usuario, muestra una imagen suplementaria al usuario, y controla las propiedades de la imagen suplementario y de una imagen de escena de acuerdo con la LOS determinada. El sistema produce además sonido multidimensional para el usuario, recibe comandos de voz del usuario y captura imágenes de vídeo de una escena, de acuerdo con la LOS determinada. El sistema puede comunicarse adicionalmente con equipos diferentes (ya sea transportados por el usuario o situado a distancia), a través de redes diferentes. El término "usuario" en la presente memoria descriptiva y a continuación se refiere a una persona que vuela en un avión, tal como el piloto o miembro de la tripulación, una persona que se encuentra en una nave espacial, una persona en un vehículo de tierra, una persona en una embarcación marítima, una persona que se desplaza a pié en la superficie, un buceador, y otras similares.
Se hace referencia a continuación a las figuras 1A y 1B. La figura 1A es una ilustración esquemática de un sistema para mejorar la comunicaciones audiovisual, que en general se designa por 100, construido y operativo de acuerdo con una realización de la técnica desvelada. La figura 1B es una ilustración esquemática de un sistema similar al sistema 100, incorporado con un dispositivo montado en cabeza, que en general se designa por 160.
El sistema 100 incluye un sistema 102 de determinación de la LOS, un sistema 104 de visualización de la imagen, un sistema 106, multi-dimensional de audio; un sistema 108 de voz direccional, un sistema 110 de posicionamiento de respaldo, un procesador 112, una cámara direccional 114, un sistema 116 de reducción de ruido de comunicaciones de audio, una red 118, una interfaz de comunicaciones 120, una red de área personal 122, una pluralidad de ordenadores 124 y 126 utilizables, un ordenador local de a bordo 128, un ordenador remoto de a bordo 130, un ordenador basado en tierra 132 y un ordenador basado en satélite 134. El sistema 102 de determinación de la LOS incluye un sistema 136 de seguimiento de la cabeza y un seguidor de ojos 138. El sistema 104 de visualización de la imagen incluye una unidad de visualización 140 y un visor activo 142.
El sistema 136 de seguimiento de la cabeza es un sistema para determinar la posición y orientación del dispositivo 160 montado en cabeza en un sistema de coordenadas globales (por ejemplo, el sistema de coordenadas de un avión). El seguidor 138 de ojos determina la LOS de uno o más ojos 162 de un usuario (no mostrado) en relación con el dispositivo 160 montado en cabeza. El sistema 136 de seguimiento de la cabeza acoplado al seguidor 138 de ojos, determina la LOS de los ojos 162 en relación con el sistema de coordenadas globales.
La unidad de visualización 140 puede ser un tubo de rayos catódicos (CRT), un visualizador de cristal líquido (LCD), un diodo emisor de luz (LED), un LED orgánico, un láser, un elemento de luz fluorescente, un elemento de luz incandescente, un visualizador plano, una cámara de infrarrojos (ya sea una cámara fotográfica de infrarrojos cercanos o de infrarrojos o una cámara de vídeo), una vídeo cámara de luz visible, de luz estelar - SLS (es decir, un dispositivo que amplifica la intensidad de la luz de un objeto detectado), y similares. La unidad de visualización 140 muestra una o más imágenes suplementarias (por ejemplo, el estado funcional del vehículo, los parámetros dinámicos del vehículo tales como la velocidad y altitud) a los ojos 162. La unidad de visualización 140 varía las propiedades de la imagen suplementaria, tales como la intensidad de la luz y el emplazamiento relativo respecto a los ojos 162, de acuerdo con la LOS de los ojos 162. El visor activo 142 es un visor incorporado con un dispositivo 160 montado en cabeza que varía la intensidad de la luz de un objeto 164 (por ejemplo, una escena) detectado por el ojo 162.
El sistema 106 de audio multi-dimensional es un sistema de audio que produce sonidos para el usuario, de acuerdo con el emplazamiento de la fuente de un sonido en relación con la posición y la orientación de la cabeza del usuario. El sistema de voz direccional 108 incluye un micrófono direccional que se coloca dentro de un volumen sustancialmente cónico que define la geometría de disipación de las ondas sonoras generadas por el habla del usuario. De esta manera, la relación señal a ruido (SNR) de la salida del micrófono direccional es mejorada en comparación con un micrófono no direccional. El sistema de posicionamiento de respaldo 110 es un sistema de determinación de posición y orientación que puede sustituir al sistema 136 de seguimiento de cabeza, en caso de fallo del sistema 136 de seguimiento de cabeza. El sistema 110 de posicionamiento de respaldo de seguridad es un sistema electromagnético óptico, acústico y otros similares que determina la posición y la orientación de un objeto por triangulación.
La cámara direccional 114 es una cámara cuya LOS cambia de acuerdo con la LOS actual de los ojos 162. Con este propósito, la cámara direccional 114 incluye uno o más mecanismos móviles (incluyendo, por ejemplo, elementos electrónicos, elementos mecánicos, o una combinación de ambos) para reajustar continuamente la LOS de la cámara 114 de acuerdo con la LOS actual de los ojos 162. La cámara direccional 114 puede ser una cámara de vídeo o una cámara fotográfica. Además, la cámara direccional 114 está construida de tal manera que la resolución de aquellas porciones del objeto 164 que son producidas por la cámara direccional 114 y que se encuentran situadas directamente a lo largo de la LOS de los ojos 162, es mayor que otras porciones del objeto 164 que normalmente son detectadas por los ojos 162, pero que no se encuentran a lo largo de esta LOS.
Se hace notar que cada imagen del sistema 104 de visualización, sistema 106 de audio multi-dimensional, sistema 108 de voz y sistema de reducción de ruido de las comunicaciones, así como módulos adicionales que pueden incorporarse en este sistema (por ejemplo, el sistema de disparo, elementos robóticos), opera de acuerdo con la LOS de los ojos 162 y no solamente la posición y orientación del dispositivo 160 montado en cabeza. De esta manera, el sistema 100 permite la comunicación audiovisual del usuario de una manera sustancialmente precisa.
El sistema 116 de reducción de ruido de comunicaciones de audio reduce el ruido ambiental en donde se encuentra el usuario mientras transmite la voz del usuario a un receptor. El sistema 116 de reducción de ruido de comunicaciones por audio también produce el sonido deseado (por ejemplo, la voz recibida del control en tierra), de manera que el usuario no escucha el ruido ambiental en la proximidad del usuario. El sistema 116 de reducción de ruido de comunicaciones por audio también puede cancelar el ruido ambiental en la proximidad del usuario, de manera que el usuario no escucha el ruido ambiental.
Cada uno de los ordenadores utilizables 124 y 126 es un ordenador que está unido al usuario. El ordenador local de a bordo 128 es un equipo que se encuentra dentro del vehículo (no mostrado), tal como un avión, un vehículo de tierra, y otros similares, en el que se encuentra el usuario. El ordenador remoto de a bordo 130 es un equipo que se encuentra dentro de otro vehículo (no mostrado). El ordenador basado en tierra 132 es un equipo que es sustancialmente estacionario en relación con el usuario, tal como uno que está ubicado en una estación de control de mando sobre el terreno o en una plataforma sobre el agua, y otros similares. El ordenador basado en satélite 134 es un equipo que se encuentra dentro de un satélite, vehículo espacial, estación espacial, y otros similares. La red 118 es una red de área local (LAN), una LAN inalámbrica (WLAN), una red de área amplia (WAN), una red de área metropolitana (MAN), Internet, intranet, y otros similares. El dispositivo montado en cabeza 160 es un casco, auriculares, cinta, máscara (por ejemplo, gafas de buceo, máscara de gas), y otros similares.
El sistema 136 de seguimiento de la cabeza, seguidor de ojos 138, unidad de visualización 140, sistema 106 de audio multi-dimensional, sistema 108 de voz direccional, sistema 110 de posicionamiento de respaldo, procesador 112 de audio y sistema 116 de reducción de ruido de comunicaciones se unen al dispositivo 160 montado en cabeza. El visor activo 142 es parte del dispositivo 160 montado en cabeza. La cámara direccional 114 puede estar conectada al dispositivo 160 montado en cabeza o al vehículo en el que se encuentra el usuario. La interfaz de comunicaciones 120 puede estar unida al dispositivo 160 montado en cabeza o al vehículo en el que se encuentra el usuario.
El procesador 112 está acoplado al sistema 102 de determinación de la LOS, al sistema 104 de visualización de la imagen, al sistema 106 de audio multi-dimensional, al sistema 108 de voz direccional, al sistema 110 de posicionamiento de respaldo, a la cámara direccional 114, al sistema 116 de reducción de ruido de comunicaciones por audio y a la interfaz de comunicaciones 120. La red de área personal 122 está acoplada a la interfaz de comunicaciones 120 y a los ordenadores utilizables 124 y 126. La red 118 está acoplada al ordenador local de a bordo 128, al ordenador remoto de a bordo 130, al ordenador basado en el terreno 132, al ordenador basado en satélite 134 y a la interfaz de comunicaciones 120.
En lugar de acoplarse al procesador 112, la cámara direccional 114 se puede acoplar al sistema 102 de determinación de la LOS. Además de acoplarse a un procesador 112, la cámara direccional 114 se puede acoplar también al sistema 102 de determinación de la LOS. En lugar de acoplarse a un procesador 112, el sistema 104 de visualización de la imagen se puede acoplar al sistema 102 de determinación de la LOS. Además de acoplarse a un procesador 112, el sistema visualización de la imagen 104 se puede acoplar también al sistema 102 de determinación de la LOS.
En lugar acoplarse a un procesador 112, el sistema 106 de audio multi-dimensional se puede acoplar al sistema 102 de determinación de la LOS. Además de acoplarse a un procesador 112, el sistema 106 de audio multi-dimensional se puede acoplar también al sistema 102 de determinación de la LOS. En lugar de acoplarse a un procesador 112, el sistema 108 de voz direccional se puede acoplar al sistema 102 de determinación de la LOS. Además de acoplarse a un procesador 112, el sistema de voz direccional 108 se puede acoplar también al sistema 102 de determinación de la LOS.
El sistema 100 puede producir un sonido verbal específico respectivo de una información de la LOS recibida del sistema 102 de determinación de la LOS, asociado a un objeto al cual está mirando el usuario. Por ejemplo, cuando el usuario mira a un cierto edificio (es decir, en una imagen de escena), el sistema 102 de determinación de la LOS determina la LOS de los ojos 162, y mientras tanto el usuario interroga al sistema de voz direccional 108 preguntando verbalmente información relacionada con ese edificio (es decir, el usuario introduce un mensaje verbal al sistema 108 de voz direccional), utilizando un micrófono (no mostrado). En respuesta a la entrada del usuario, el sistema 100 proporciona al usuario, por ejemplo, la dirección de la calle de ese edificio en particular a través de un altavoz. Como alternativa o adicionalmente, el sistema 104 de visualización de la imagen muestra una imagen suplementaria en un visor del dispositivo montado en cabeza 160 con respecto al emplazamiento del edificio.
El sistema 104 de visualización de imagen puede mostrar la imagen suplementaria sobre una emplazamiento en el visor que se encuentra en la LOS actual de los ojos 162, de acuerdo con la LOS actual recibida del seguidor de ojos 138. En este caso, los ojos 162 pueden ver la imagen suplementaria mientras cambia la misma LOS.
Alternativamente, el sistema 104 de visualización de la imagen puede mostrar la imagen suplementaria sobre un emplazamiento en el visor desde donde se puede ver el edificio (aunque los ojos 162 del usuario puedan no mirar en esa dirección). En este caso, el sistema 104 de visualización de la imagen muestra la imagen adicional de acuerdo con los datos recibidos del sistema 136 de seguimiento de cabeza y la posición y orientación del dispositivo montado en cabeza 160 con respecto al edificio, en el sistema de coordenadas globales (por ejemplo, el sistema de coordenadas de un vehículo). Por otra parte, la imagen suplementaria se muestra en el visor cuando el usuario desplaza la cabeza hacia el edificio.
El usuario también puede almacenar (es decir, registrar) la información relevante de un objeto en una memoria (no mostrada) del sistema 100, mientras mira a ese objeto. Por ejemplo, cuando usuario mira a un edificio, el sistema 102 de determinación de la LOS determina la LOS de los ojos 162, y el usuario puede dirigir el sistema 100 para que almacene en la memoria (es decir, registre) la información verbal respectiva del edificio, tal como la dirección, número de pisos, tipo de edificio, y similares, mientras la cámara a bordo adquiere una imagen del objeto (es decir, el edificio mirado) en asociación con la imagen adquirida. Además, el usuario puede emplear el sistema 100 para proporcionar comandos verbales no direccionales que no están asociados a la LOS de los ojos 162 (por ejemplo, el asiento de expulsión, deshacerse de combustible, cerrar el tren de aterrizaje).
Uno o ambos sistemas 136 de seguimiento de cabeza y seguidor de ojos 138 se puede acoplar a un procesador 112. En lugar de acoplar uno o ambos sistema 136 de seguimiento de cabeza y del seguidor de ojos 138 al procesador 112, el sistema 136 de seguimiento de cabeza puede ser acoplado al seguidor de ojos 138. Además al acoplamiento de uno o ambos sistema 136 de seguimiento de cabeza y seguidor de ojos 138 al procesador 112, el sistema 136 de seguimiento de la cabeza puede ser acoplado también al seguidor de ojos 138.
El procesador 112 gestiona el funcionamiento del sistema 102 de determinación de la LOS, sistema 104 de visualización de la imagen, sistema 106 de audio multi-dimensional, sistema 108 de voz direccional, sistema 110 de posicionamiento de respaldo, cámara direccional 114 y sistema 116 de reducción de ruido de comunicaciones por audio, de acuerdo con las señales recibidas de la interfaz de comunicaciones 120. Alternativamente, el procesador 112 no está acoplado a la interfaz de comunicaciones 120 y el procesador 112 gestiona el funcionamiento del sistema 102 de determinación de la LOS, sistema 104 de visualización de la imagen, sistema 106 de audio multi-dimensional, sistema 108 de voz direccional, sistema 110 de posicionamiento de respaldo 110, cámara direccional 114 y sistema 116 de reducción de ruido de comunicaciones por audio sin ninguna señal de la interfaz de comunicaciones 120.
El visor activo 142 varía la transmisibilidad de la luz a través suyo de acuerdo con la LOS de los ojos 162, de acuerdo con una señal recibida desde el procesador 112, y otros similares. Por ejemplo, el sistema puede incluir un detector de luz (no mostrado) acoplado al procesador, para detectar la intensidad de la luz ambiental, en la que el visor activo varía la transmisibilidad de la luz de acuerdo con la intensidad detectada de la luz ambiental. Alternativamente, el visor activo varía la transmisibilidad de la luz de acuerdo con la señal recibida de un controlador manual (no mostrado).
Lo que sigue es una descripción del sistema 106 de audio multi-dimensional. El término "posición" en la presente memoria descriptiva y a continuación se refiere ya sea al emplazamiento, a la orientación o a ambos emplazamiento y orientación de un objeto tridimensional en un sistema de coordenadas. El término "avión" en la presente memoria descriptiva y a continuación, se refiere a aviones, helicópteros, vehículos anfibios, globos, planeadores, aviones no tripulados, vehículos espaciales, y otros similares. Se hace notar que la técnica desvelada es aplicable a los aviones así como a otros dispositivos distintos de los aviones, tales como vehículos de tierra, embarcaciones marinas, simuladores de vuelo, simuladores de vehículos de tierra, simuladores de embarcaciones marinas, sistemas de realidad virtual, juegos de ordenador, sistemas cine en casa, unidades estacionarias tales como una torre de control de aeropuerto, unidades portátiles utilizables, y otras similares.
Por ejemplo, la técnica desvelada puede proporcionar a un miembro de la tripulación de un avión una representación de audio de tres dimensiones con respecto a otra avión que vuela cerca, un automóvil en movimiento y un control en tierra. Del mismo modo, la técnica desvelada puede proporcionar a un controlador de vuelo en la torre de control, representación de audio en tres dimensiones relativa a avión en el aire o en el suelo, distintos vehículos y personas en las inmediaciones del aeropuerto, y otras similares.
En un ejemplo sencillo, las alertas relativas a los componentes de los aviones situados en el ala izquierda del avión están infundidas de un emplazamiento espacial que se corresponde a la parte izquierda del avión. Esto permite que el miembro de la tripulación reconozca de inmediato y se concentre en el emplazamiento requerido.
En otro ejemplo, cuando una pluralidad de aviones están volando en formación y están en comunicación por radio, un sistema de acuerdo con la técnica desvelada asocia una localización recibida a cada transmisión de señal de audio, en base a la localización del avión transmisor en relación con el avión recepto. Por ejemplo, cuando el avión transmisor está situado en la parte derecha del avión receptor, el sistema permite la transmisión de sonido al miembro de la tripulación del avión receptor como si procediese del lado derecho del avión, con independencia de la posición de la cabeza y de la orientación del miembro de la tripulación. De esta manera, si el miembro de la tripulación está mirando hacia la parte delantera del avión, el sistema hace que el sonido se escuche en el lado derecho del casco, mientras que si el miembro de la tripulación está mirando hacia la parte trasera del avión, el sistema hace que el sonido se escuche en el lado izquierdo del casco.
Tal asociación espacial es efectuada infundiendo las señales de audio con características de localización espacial, y correlacionando la localización espacial infundida con la localización espacial real o con una localización espacial preferida. La localización espacial real se refiere a la localización de la fuente de sonido en relación con el miembro receptor de la tripulación. Por ejemplo, cuando el avión transmisor está volando en la parte superior derecha del avión receptor, un sistema de acuerdo con la técnica desvelada infunde la localización real del avión transmisor (es decir, la parte superior derecha) al sonido del miembro de la tripulación del avión transmisor, al mismo tiempo que reproduce ese sonido en los oídos del miembro de la tripulación del avión receptor.
La localización espacial preferida se refiere a una localización que se define virtualmente para proporcionar una mejor separación de audio de las fuentes de audio o para enfatizar una fuente de audio determinada. Por ejemplo, cuando se han generado simultáneamente diferentes señales de advertencia en el ala derecha del avión, tales como indicaciones a los bomberos (señal S_{1}), indicación del tren de aterrizaje extendido (señal S_{2}) y una indicación de flap atascado (señal S_{3}), un sistema de acuerdo con la técnica desvelada infunde una localización espacial diferente en cada una de estas señales de advertencia. Si la orientación esférica (\varphi, \theta) del lado derecho es designada (0,0), entonces un sistema de acuerdo con la técnica desvelada infundirá las orientaciones (0, 30º), (0, -30º) y (30º, 0) a las señales S_{1}, S_{2} y S_{3}, respectivamente. En este caso, el miembro de la tripulación puede distinguir estas señales de advertencia más fácilmente. Se hace notar que la técnica desvelada localiza un sonido en una cierta posición en un espacio tridimensional mediante el empleo de la información de la línea de visión del miembro de la tripulación.
La mente humana ejecuta la localización de audio en tres dimensiones, en base al retraso relativo y a la respuesta de frecuencia de las señales de audio entre la oreja izquierda y la derecha. Introduciendo artificialmente tales retrasos y respuestas de frecuencia, una señal monoaural se transforma en una señal biaural que tiene características de localización espacial. El retraso y la respuesta de frecuencia que asocian una localización de la fuente de audio espacial a cada oreja se describen mediante un modelo de Función de Transferencia Relacionada con la Cabeza (HRTF). La técnica ilustrada puede ser mejorada construyendo modelos HRTC para cada individuo, teniendo en cuenta los diferentes tamaños y geometrías de la cabeza. La capacidad humana para detectar la localización espacial de una fuente de sonido por audición biaural se ve aumentada por los movimientos de la cabeza, permitiendo que el sonido sea detectado en varias orientaciones de la cabeza, aumentando la eficiencia de la localización.
En un entorno de cabina, un miembro de la tripulación no mantiene una orientación fija de la cabeza, sino que por el contrario cambia la orientación de la cabeza de acuerdo con las tareas realizadas. La técnica desvelada tiene en cuenta la orientación de la cabeza actual del miembro de la tripulación determinando un modelo de HRTF adecuado basado en la localización de la fuente actual así como en la orientación de la cabeza del miembro de la tripulación. La orientación de la cabeza del miembro de la tripulación es detectada por un sistema de posición del usuario. El sistema de posición del usuario incluye unidades para detectar la posición del usuario (por ejemplo, la línea de visión, orientación de las orejas) y además puede incluir unidades tales como una unidad de GPS, un radar y similares, para detectar la posición de un volumen que está asociada con el usuario (por ejemplo, un vehículo, un buque, un avión y otros similares). El sistema de posición del usuario pueden ser montado en la cabeza del usuario (por ejemplo, acoplado a un dispositivo montado en cabeza, tal como un casco, auriculares, lentes, gafas) o remota del usuario (por ejemplo, una o varias cámaras que examinan al usuario, un sistema de sonar). La unidad para detectar la posición en la que ese volumen puede ser acoplado al volumen (por ejemplo, unidad GPS, unidad de radar de a bordo) o ser exterior al volumen (por ejemplo, unidad de radar IFF - tierra con conexión inalámbrica al avión). Tales unidades de detección de la posición del volumen se pueden integrar con las unidades de detección de la posición del usuario. El sistema de posición del usuario puede ser en forma de un sistema de detección electromagnética, un sistema de detección óptica, un sistema de sonar, y otros similares.
Se hace referencia a continuación a la figura 2, que es una ilustración esquemática de un sistema, que en general se designa por 1100, construido y operativo de acuerdo con otra realización de la técnica desvelada. El sistema 1100 incluye una memoria 1102 de objetos de audio, un receptor de radio 1104, una interfaz de señales 1106 (por ejemplo, un multiplexor de señales), un convertidor multi canal analógico a digital (ADC) 1108, un sistema 1110 de posición de la fuente, un sistema 1114 de posición del avión, una memoria de HRTC 1116, un sistema 1112 de posición del casco, un procesador de señales digitales 1118, un conversor digital a analógico (DAC) 1120, un reproductor de sonido 1122 del canal izquierdo, y un reproductor de sonido 1124 del canal derecho. La memoria de objetos de audio 1102 incluye los datos de la señal de audio y los datos de la posición respectiva de una pluralidad de estados de alarma.
La interfaz de señal 1106 está acoplada a la memoria 1102 de objetos de audio, al receptor de radio 1104, al procesador de señales digitales 1118 y al ADC multi canal 1108. El ADC multi canal 1108 está acoplado adicionalmente al procesador de señales digitales 1118. El procesador de señales digitales 1118 está acoplado adicionalmente al sistema 1110 de posición de fuente, al sistema 1112 de posición de casco, al sistema 1114 de posición del avión, a la memoria de localización de fuente (HRTF) 1116 y al DAC 1120. El DAC 1120 está acoplado adicionalmente al reproductor de sonido del canal izquierdo 1122 y al reproductor de sonido del canal derecho 1124.
El receptor de radio 1104 recibe las transmisiones de radio, ya sea en formato analógica o digital y proporciona la porción de audio de las transmisiones de radio a la interfaz de señal 1106. La interfaz de señal 1106 recibe indicaciones de alerta de una fuente de indicación de alerta (no mostrada), tal como un componente de avión, sistema de radar de a bordo, sistema de IFF, y otros similares, ya sea en formato analógica o digital. La interfaz de señal 1106 recibe los datos de audio y los datos de localización espacial en formato digital, respectivos de la indicación de advertencia de la memoria de objetos de audio 1102.
Si las señales recibidas por la interfaz de señal 1106 están en formato digital, entonces la señal de interfaz 1106 proporciona estas señales digitales al procesador de señales digitales 1118. Si algunas de las señales recibidas por el interfaz de señal 1106 están en formato analógico y otros en formato digital, entonces la señal de interfaz 1106 proporciona las señales digitales al procesador de señales digitales y las señales analógicas al ADC multi canal 1108. El ADC multi canal 1108 convierte estas señales analógicas a formato digital, multiplexa las diferentes señales digitales y proporciona estas señales digitales multiplexadas al procesador de señales digitales 1118.
El sistema 1110 de posición de la fuente proporciona datos respectivos de la localización de la fuente de radio al procesador de señales digitales 1118. El sistema 1112 de posición del casco proporciona los datos respectivos de la posición del casco del miembro de la tripulación al procesador de señales digitales 1118. El sistema 1114 de posición del avión proporciona los datos respectivos de la localización actual del avión al procesador de señales digitales 1118. El procesador de señales digitales 1118 selecciona una localización de la fuente virtual en base a los datos respectivos de la localización de la fuente de radio, de la posición del casco del miembro de la tripulación, y de la localización actual del avión. El procesador de señales digitales 1118 a continuación recupera el modelo de HRTF apropiado de la memoria de HRTF 1116, en base a la localización de la fuente virtual seleccionada.
El procesador de señales digitales 1118 filtra la señal de audio digital, utilizando el modelo de HRTF recuperado para crear una señal digital del canal izquierdo y una señal digital del canal derecho. El procesador de señales digitales 1118 proporciona las señales de audio digitales filtradas al DAC 1120.
El DAC 1120 convierte la señal digital del canal izquierdo y la señal digital del canal derecho al formato analógico para crear una señal de audio del canal izquierdo y una señal de audio del canal derecho, respectivamente, y proporciona las señales de audio al reproductor 1122 de sonido del canal izquierdo y al reproductor de sonido del canal derecho 1124. El reproductor de sonido del canal izquierdo 1122 y el reproductor de sonido del canal derecho 1124 reproducen la señal de audio del canal izquierdo y la señal de audio del canal derecho en formato analógico respectivamente.
Cuando se detecta una alarma o amenaza, la memoria de objetos de audio 1102 proporciona la alarma de audio relevante al ADC multi canal 1108 a través de la interfaz de señalización 1106. El ADC multi canal 1108 convierte la señal analógica de audio a formato digital y proporciona la señal digital al procesador de señales digitales 1118.
El sistema 1112 de posición del casco proporciona los datos respectivos de la posición del casco del miembro de la tripulación al procesador de señales digitales 1118. El sistema 1114 de posición del avión proporciona los datos respectivos de la localización actual del avión al procesador de señales digitales 1118. El sistema 1114 de posición del avión está acoplado al avión. El procesador de señales digitales 1118 selecciona una localización de la fuente virtual en base a los datos respectivos de la localización espacial de la amenaza, alarma o alerta, de la posición del casco del miembro de la tripulación y de la localización actual del avión. A continuación, el procesador de señales digitales 1118 recupera el modelo de HRTF apropiado de la memoria de HRTF 1116, en base a la localización de la fuente virtual seleccionada, de acuerdo con la realización que se ha ilustrado más arriba.
Se hace notar que el sistema 1112 de posición de casco puede ser reemplazado por un sistema de localización o por un sistema de orientación. Por ejemplo, cuando la señal de audio es recibida desde un avión transmisor, entonces la orientación del casco y la localización del avión receptor en relación con el avión transmisor es más significativa que la localización del casco dentro de la cabina del avión receptor. En este caso, la localización del avión transmisor en relación con el avión receptor puede ser determinada por un sistema de posicionamiento global (GPS), un sistema radar, y otros similares.
Se hace notar que el receptor de radio 1104 es el receptor de radio que generalmente se utiliza para la comunicación con el avión, y puede incluir una pluralidad de receptores de radio que utilizan frecuencias y procedimientos de modulación. También se hace notar que la identificación de amenazas y la generación de alarmas son realizadas por distintos componentes del sistema 1100 que son bien conocidos en la técnica, tales como los sistemas IFF (Identificar Amigo o Enemigo), sistemas de alerta basados en tierra, y otros similares. También se hace notar que el reproductor de sonido del canal izquierdo 1122 y el reproductor de sonido del canal derecho 1124 son generalmente auriculares incrustados en el casco del miembro de la tripulación, pero pueden ser cualquier otro tipo de reproductores de sonido conocidos en el técnica, tales como sistemas de altavoces de sonido envolvente, auriculares de tipo de conducción ósea, y otros similares.
De acuerdo con otra realización de la técnica desvelada, la memoria de objetos de audio 1102 almacena alarmas de audio en formato digital, eliminando la necesidad de la conversión de la señal de audio a formato digital antes de ser procesada por el procesador de señales digitales 1118. En una realización de este tipo, la memoria 1102 de objetos de audio está acoplada directamente al procesador de señales digitales 1118.
De acuerdo con una realización adicional de la técnica desvelada, el receptor de radio 1104 puede ser un receptor de radio de formato digital, eliminando la necesidad de la conversión de la señal de audio a formato digital antes de ser procesada por el procesador de señales digitales 1118. Como consecuencia, el receptor de radio 1104 está acoplado directamente al procesador de señales digitales 1118.
De acuerdo con otra realización de la técnica desvelada, el sistema 1112 de posición del casco puede ser sustituido por un sistema de línea de visión del miembro de la tripulación (no mostrado), separado de un casco del miembro de la tripulación (no mostrado). Como consecuencia, el miembro de la tripulación no necesariamente tiene que usar un casco, pero todavía puede aprovechar los beneficios de la técnica desvelada. Por ejemplo, un miembro de la tripulación de un avión comercial que normalmente no usa un casco. En un ejemplo de este tipo, el sistema de línea de visión del miembro de la tripulación puede ser colocado en la cabeza del miembro de la tripulación, por ejemplo por medio de los auriculares del miembro de la tripulación, de tal manera que proporcione información de la línea de
visión.
Se hace referencia a continuación a la figura 3, que es una ilustración esquemática de un casco del miembro de la tripulación, generalmente indicado por 1200, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. El casco 1200 del miembro de la tripulación incluye un cuerpo de casco 1202, un sistema 1204 de línea de visión del casco, un reproductor de sonido del canal izquierdo 1206L, un reproductor de sonido del canal derecho (no mostrado) y una conexión de datos/audio 1208. El sistema 1204 de línea de visión de casco, el reproductor de sonido del canal izquierdo 1206L, el reproductor de sonido del canal derecho, y la conexión de audio/datos 1208 se montan en el cuerpo del casco 1202. La conexión de datos/ audio 1208 está acoplado al sistema 1204 de línea de visión del casco, al reproductor de sonido del canal izquierdo 1206L y al reproductor de sonido del canal derecho.
El sistema 1204 de línea de visión de casco, el reproductor de sonido del canal izquierdo 1206L y el reproductor de sonido del canal derecho son similares al sistema 1112 de línea de visión de casco (figura 2), al reproductor de sonido del canal izquierdo 1122 y al reproductor de sonido del canal derecho 1124, respectivamente. El sistema 1204 de línea de visión de casco, el reproductor de sonido del canal izquierdo 1206L y el reproductor de sonido del canal derecho están acoplados al resto de los tres elementos del sistema de formación de imágenes de sonido tridimensional (respectivos de los elementos del sistema 1100 de la figura 2) por medio de la conexión de datos/audio 1208.
Se hace referencia a continuación a la figura 4, que es una ilustración esquemática de un avión, que en general se designa por 1300, en la que se indican ejemplos de localizaciones de fuentes de audio virtuales preferidas. Indicadas en los aviones 1300 hay una localización de fuente virtual del ala izquierda 1302, una localización de fuente virtual del ala derecha 1304, una localización de fuente virtual de cola 1306, una localización de fuente virtual de la panza 1308, y una localización de fuente virtual de la cabina 1310. En general, cualquier combinación de localización y orientación de un punto de transmisión con respecto a un punto receptor se puede definir para cualquier punto transmisor que rodea el avión, usando coordenadas cartesianas, coordenadas esféricas, y otras similares. Las alertas relativas a los elementos del ala izquierda, tal como el motor izquierdo, tanque de combustible izquierdo y detección de amenazas del lado izquierdo están infundidas en la localización de fuente virtual del ala izquierda 1302, antes de la transmisión al miembro de la tripulación. En un ejemplo adicional, las alertas relativas a la parte de popa del avión, tales como las alertas de control del timón, la detección de amenazas de popa y las alertas de la cámara de postcombustión, están infundidas con la localización de fuente virtual de cola 1306, antes de ser transmitida al miembro de la tripulación.
Se hace notar las localizaciones de fuente virtual ilustradas son sólo ejemplos de la posible localización de la fuente virtual para ilustrar los principios de la técnica desvelada. Otras localizaciones de fuente virtual pueden ser proporcionadas, como se requiera.
Se hace referencia a continuación a la figura 5, que es una ilustración esquemática de una formación de aviones, generalmente designada como 1400, que utilizan enlaces de radio para comunicar señales de audio entre los miembros de las tripulaciones de los diferentes aviones. La formación de aviones 1400 incluye un avión de cabeza 1406, un avión de lado derecho 1408, y un avión de lado izquierdo 1410. Los aviones en la formación de aviones 1400 comunicarán por medio del primero enlace de radio 1402 y del segundo enlace de radio 1404. El avión de cabeza 1406 y el avión de lado derecho 1408 están en comunicación mediante el primer enlace de radio 1402. El avión de cabeza 1406 y el avión de lado izquierdo 1410 están en comunicación mediante el segundo enlace de radio 1404.
De acuerdo con la técnica desvelada, cuando el avión de cabeza 1406 recibe una transmisión de radio del avión del lado derecho 1408 mediante el primer enlace de radio 1402, la transmisión de radio recibida está infundida con una localización de fuente virtual del lado trasero derecho antes de ser transmitida al miembro de la tripulación del avión de cabeza 1406. En otro ejemplo, cuando el avión de lado izquierdo 1410 recibe una transmisión de radio del avión de cabeza 1406 mediante el segundo enlace de radio 1404, la transmisión de radio recibida está infundida de una localización de fuente virtual del lado delantero derecho, antes de ser transmitida al miembro de la tripulación en el avión del lado izquierdo 1410.
Se hace notar que la formación virtual ilustrada es sólo un ejemplo de una posible formación y de enlaces de radio, para ilustrar los principios de la técnica desvelada. Otra formación y enlaces de radio que corresponden a diferentes localizaciones de fuente virtual, puede ser utilizada, cuando sea necesario.
Se hace referencia a continuación a la figura 6, que es una ilustración esquemática de un procedimiento para la formación de imágenes de audio en 3D, en base a las mediciones de línea de visión, operativo de acuerdo con otra realización de la técnica desvelada. En el procedimiento 1500 se recibe una indicación de advertencia. La indicación de advertencia es respectiva de un evento, tal como un componente defectuoso, un misil que se aproxima, y otros similares. Con referencia a la figura 2, el procesador de señales digitales 1118 recibe una indicación de advertencia de un componente del avión (no mostrado), tal como un indicador de nivel de combustible, un indicador de posición del equipo de aterrizaje, un indicador de humo, y otros similares. Alternativamente, la indicación de advertencia se recibe de un sistema de detección a bordo, tal como un sistema de IFF, un sistema de monitorización de la presión del combustible, un sistema monitorización de la integridad estructural, un sistema de radar, y otros similares.
Por ejemplo, en una instalación de tierra, un sistema de alarma de acuerdo con la técnica desvelada proporciona a un guardia una indicación de advertencia respectiva de una persona en movimiento. En este caso, el sistema de alarma proporciona la señal de alerta (por ejemplo, una alarma silenciosa) respectiva de la posición de la persona en movimiento (por ejemplo, un ladrón), con respecto a la posición del guardia, por lo que el guardia puede deducir a partir de la señal de la alerta, donde buscar a esa persona.
En el procedimiento 1502, se recupera una señal de audio y una posición de alerta almacenadas respectivas de la indicación de advertencia recibida. Para cada indicación de advertencia, una señal de audio respectiva y una posición espacial respectiva se almacenan en una unidad de memoria. Por ejemplo, una señal de advertencia de flap atascado en el ala derecha se correlaciona con las señales de sonido a 5 kHz, con una duración de 500 mseg y separadas 200 mseg y con una localización superior derecha del avión. Con referencia a las figuras 2 y 4, el procesador de señales digitales 1118 recupera una señal de audio respectiva de un tanque de combustible bajo en el ala izquierda del avión 1300, y la localización de la fuente virtual del ala izquierda 1302, de la memoria de objetos de audio 1102. Alternativamente, cuando se recibe una advertencia respecto a un misil guiado desde el sistema de radar de a bordo, el procesador de señales digitales 1118 recupera una señal de audio respectiva de una alerta de misiles guiados de la memoria de objetos de audio 1102. El sistema asocia la señal de audio y la posición de ese misil que es proporcionada por el sistema de radar a bordo, de modo que cuando se selecciona el HRTF apropiado para proporcionar al usuario una idea respecto a desde donde está viniendo el misil.
En el procedimiento 1504, se recibe una señal de audio de comunicaciones. La señal de audio de comunicaciones se asocia generalmente con la voz (por ejemplo, la voz de otra persona en la red de comunicaciones). Con referencia a la figura 2, el receptor de radio 1104 recibe una señal de audio de comunicaciones. La señal de audio de comunicaciones puede ser recibida de otro miembro de la tripulación del mismo avión, de otro avión que vuela simultáneamente, de una fuente sustancialmente estacionaria con respecto a los aparatos receptores, tal como una embarcación marítima, un controlador de tráfico aéreo, un vehículo terrestre, y otros similares. Las fuentes de señales de audio de comunicaciones pueden ser, por ejemplo, la radio de comunicaciones de fuerzas terrestres (Soporte Aéreo), el sistema radio UHF, el sistema radio VHF, el sistema comunicaciones por satélite, y otros similares.
En el procedimiento 1506, la posición de la fuente de la señal de audio de comunicaciones se ha detectado. Esta posición detectada define la posición de un ser humano que habla en un sistema de coordenadas globales. Con referencia a la figura 2, si la señal de audio de comunicaciones se recibe de un miembro de la tripulación en el mismo avión, entonces el sistema de posición de la fuente 1110 detecta la localización del casco del miembro transmisor de la tripulación. Si la señal de audio de comunicaciones se recibe de otro avión o de una fuente sustancial estacionaria respecto al avión receptor, entonces el sistema de posición de la fuente 1110 detecta la localización del avión transmisor o de la fuente sustancialmente estacionaria. El sistema de posición de la fuente 1110 detecta la localización del avión transmisor o de la fuente sustancialmente estacionaria mediante el empleo de un sistema GPS, de un sistema de radar, de un sistema de IFF, y de otros similares, recibiendo la información de localización desde la fuente transmisora.
En el procedimiento 1508, se detecta una posición de escucha. Esta posición detectada define la posición de los oídos del oyente (es decir, el miembro de la tripulación). Con referencia a la figura 3, el sistema 1204 de línea de visión de casco detecta la posición del casco 1200, que define la posición de las orejas del usuario que está usando el casco 1200. Si se ha recibido una indicación de advertencia (procedimiento 1500), entonces el sistema 1204 de línea de visión de casco detecta la localización y orientación del casco 1200 (es decir, la línea de visión del miembro receptor de la tripulación). Si una señal de comunicaciones de audio ha sido recibida de otro miembro de la tripulación en el mismo avión (procedimiento 1504), entonces el sistema 1204 de línea de visión de casco detecta la localización y orientación del casco 1200. Por ejemplo, cuando el miembro de la tripulación está inspeccionando el avión mientras se desplazan en su interior, el sistema de línea de visión de casco detecta la localización y orientación del miembro de la tripulación en cualquier momento dado. Si una señal de audio de comunicaciones ha sido recibida de otro avión o de una fuente sustancialmente estacionaria (procedimiento 1504), entonces es suficiente que el sistema 1204 de línea de visión de casco detecte únicamente la orientación del casco 1200 del miembro receptor de la tripulación, en relación con el sistema de coordenadas del avión receptor.
En el procedimiento 1510, se detecta la posición del avión. La posición detectada define la posición del avión en el sistema de coordenadas globales. Con referencia a la figura 2, si una señal de audio de comunicaciones ha sido recibida de una fuente exterior al avión (por ejemplo, otro avión o una fuente sustancialmente estacionaria), entonces el sistema 1114 de posición del avión detecta la localización del avión receptor relativa a la localización del avión transmisor o de la fuente sustancialmente estacionaria. El sistema 1114 de posición del avión detecta la localización mediante el empleo de un sistema GPS, de un sistema de navegación inercial, de un sistema de radar, y otros similares. Alternativamente, la información de posición puede ser recibida de la fuente exterior.
En el procedimiento 1512, se ha seleccionado una HRTF. La HRTF es seleccionada con respecto a la posición relativa de las orejas del oyente y de la fuente de transmisión. Con referencia a la figura 2, si se ha recibido una indicación de advertencia (procedimiento 1500), a continuación el procesador de señales digitales 1118 selecciona un modelo de HRTF de acuerdo con la localización de alerta recuperada (procedimiento 1502) y la línea de visión detectada del miembro receptor de la tripulación (procedimiento 1508).Si una señal de audio de comunicaciones ha sido recibida de un miembro de la tripulación transmisor en el mismo avión (procedimiento 1504), a continuación el procesador de señales digitales 1118 selecciona un modelo de HRTF, de acuerdo con la localización detectada del casco del miembro de la tripulación transmisor (procedimiento 1506) y de la línea detectada de visión (localización y orientación) del miembro de la tripulación receptor (procedimiento 1508). Si una señal de comunicaciones de audio ha sido recibida de otro avión o de una fuente sustancialmente estacionaria, a continuación el procesador de señales digitales 1118 selecciona un modelo de HRTF de acuerdo con la localización detectada en el procedimiento 1506, la línea de visión detectada en el procedimiento 1508 y la localización del avión receptor detectada en el procedimiento 1510.
En el procedimiento 1514, la HRTF seleccionada se aplica a la señal de audio, produciendo así una pluralidad de señales de audio. Cada una de estas señales de audio es respectiva de una posición diferente en un espacio tridimensional. Con referencia a la figura 2, el procesador de señales digitales 1118 aplica el modelo de HRTF que fue seleccionado en el procedimiento 1512, a la indicación de alerta recibida (procedimiento 1500), o a la señal de audio de comunicaciones recibida (procedimiento 1504).
El procesador de señales digitales 1118 adicionalmente produce una señal de audio del canal izquierdo y una señal de audio del canal derecho (es decir, una señal de audio estereofónica). El procesador de señales digitales 1118 proporciona la señal de audio del canal izquierdo y la señal de audio del canal derecho al reproductor de sonido del canal izquierdo 1122 y al reproductor de sonido del canal derecho 1124, respectivamente, a través del CAD 1120. El reproductor de sonido del canal izquierdo 1122 y el reproductor de sonido del canal derecho 1124 producen un sonido del canal izquierdo y un sonido del canal derecho, de acuerdo con la señal de audio del canal izquierdo y la señal de audio del canal derecho, respectivamente (procedimiento 1516).
Se hace notar que las señales de audio del canal izquierdo y derecho incluyen una pluralidad de elementos que tienen frecuencias diferentes. Estos elementos se diferencian generalmente en fase y amplitud de acuerdo con el modelo de HRTF utilizado para filtrar la señal de audio original (es decir, en algunas configuraciones de HRTF, para cada frecuencia). Se hace notar adicionalmente que el procesador de señales digitales puede producir cuatro señales de audio en cuatro canales para cuatro reproductores de sonido (sonido cuadrafónico), cinco señales de audio en cinco canales para cinco reproductores de sonido (sonido envolvente), o cualquier número de señales de audio para el número respectivo de reproductores de sonido. De esta manera, el sonido reproducido puede ser multi-dimensional (es decir, bidimensional o tridimensional).
En una realización adicional de la técnica desvelada, el volumen de la señal de audio reproducida se altera con el fin de indicar las características de distancia de la señal recibida. Por ejemplo, dos amenazas detectadas que se encuentra situadas a diferentes distancias del avión, se anuncian al miembro de la tripulación utilizando diferentes volúmenes respectivos de la distancia de cada amenaza. En otra realización de la técnica desvelada, con el fin de aumentar la capacidad del usuario para percibir la localización y la orientación de una fuente de sonido, el sistema utiliza una máscara de ecos predeterminada para cada conjunto predeterminado de localización y orientación. En una realización adicional de la técnica desvelada, se ha seleccionado una localización de la fuente virtual para una transmisión recibida, en base al originador de la transmisión (es decir, la identidad del hablante o la función del enlace de radio). De esta manera un miembro de la tripulación puede identificar al hablante, o al enlace de radio, en base a la localización de la fuente virtual infundida.
Por ejemplo, las transmisiones desde el comandante de la misión puede ser infundidas con una localización de la fuente virtual directamente detrás del miembro de la tripulación, mientras que las transmisiones de la torre de control puede ser infundidas con una localización de fuente virtual directamente sobre el miembro de la tripulación, permitiendo que el miembro de la tripulación distinga fácilmente entre los dos altavoces. En otro ejemplo, las transmisiones de radio recibidas a través del canal de soporte en tierra puede ser infundidas con una localización espacial directamente debajo del miembro de la tripulación, mientras que las comunicaciones tácticas recibidas a través de un canal de comunicaciones dedicado pueden estar infundidas con una localización de fuente virtual a la derecha del miembro de la tripulación.
Se hace notar que los lugares y fuentes que se han descrito en la presente memoria descriptiva con anterioridad son sólo ejemplos de las posibles localizaciones y fuentes que se proporcionan para ilustrar los principios de la técnica desvelada. Otras localizaciones de fuentes virtuales y fuentes de comunicaciones pueden ser utilizadas como se requiera.
En una realización adicional de la técnica desvelada, el procedimiento ilustrado en la figura 6 incluye además un procedimiento preliminar para la construcción de modelos de HRTF, únicos para cada miembro de la tripulación. Como consecuencia, los modelos de HRTF utilizados para filtrar la reproducción de audio al miembro de la tripulación se cargan desde un dispositivo de memoria que el miembro de la tripulación introduce en el sistema (por ejemplo, un dispositivo de memoria de este tipo puede estar asociada a su casco personal). Se hace notar que estos modelos de HRTF se construyen generalmente con antelación y se utilizan cuando sea necesario.
En una realización adicional de la técnica desvelada, se usan los altavoces de sonido envolvente para reproducir la señal de audio al miembro de la tripulación. Cada uno de los modelos espaciales corresponde a la característica de los altavoces individuales y sus respectivas localizaciones y orientaciones dentro del avión. Como consecuencia, un modelo espacial de este tipo define una pluralidad del canales de audio de acuerdo con el número de hablantes. Sin embargo, el número del canales de audio puede ser menor que el número de hablantes puesto que la localización de estos altavoces es generalmente fija, no se selecciona un modelo espacial de acuerdo con la información de la línea de visión (LOS) del miembro de la tripulación, sino solamente en base a la localización y la orientación de la fuente con respecto al volumen definido y rodeado por los altavoces. Se hace notar que en una realización de este tipo, la señal de audio es escuchada por todos los miembros de la tripulación en el avión, sin que se requiera la información de la LOS para cualquier miembro de la tripulación.
Lo que sigue es una descripción del sistema 116 de reducción de ruido de comunicaciones por audio. El término "transductor acústico eléctrico" en la presente memoria descriptiva y en lo que sigue, se refiere a un dispositivo que convierte las señales acústicas en señales eléctricas (por ejemplo, un micrófono). La expresión "transductor electro acústico" en la presente memoria descriptiva y en lo que sigue se refiere a un dispositivo que convierte las señales eléctricas en señales acústicas (por ejemplo, un altavoz. Un transductor acústico eléctrico puede funcionar sobre la base de los principios de la electrodinámica, electrostática, piezoelectricidad, magnetoestricción, fibra óptica, estimulación de partículas de carbono, y otros similares. Un transductor electro acústico puede funcionar sobre la base de los principios de la electrodinámica, magnetismo, piezoelectricidad, magnetoestricción, hidráulica, y otros similares. El término "eléctrico" en la presente memoria descriptiva incluye todas las señales electromagnéticas tales como las eléctricas, ópticas, radio y similares, que pueden ser transmitidas por cables o por otros canales de comunicaciones, o de forma inalámbrica.
El término "zona tranquila" en la presente memoria descriptiva y a continuación, se refiere a una región en la proximidad del tímpano, el oído, o en el interior del canal exterior del mismo, en el que un sonido con un desfase de aproximadamente 180 grados con respecto el ruido ambiental (oposición de fase, o desfasado \pi radianes), cancela el ruido ambiental y, como resultado, la persona no escucha el ruido ambiental. Los lugares "cercanos a la oreja" en la presente memoria descriptiva y a continuación son aproximados y se refieren a la zona tranquila. La expresión "ruido tonal" en la presente memoria descriptiva y a continuación se refiere a un ruido que está confinado substancialmente en la gama rango o rangos de frecuencias limitados sustancialmente, tales como el ruido generado por los rotores de un helicóptero.
Se hace referencia a continuación a las figuras 7A, 7B y 7C. La figura 7A es una ilustración esquemática de un sistema para producir una señal de sonido libre de ruido, que en general se designa por 2100, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. La figura 7B es una ilustración esquemática de un detalle del controlador de audio del sistema de la figura 7A. La figura 7C es una ilustración esquemática del sistema de la figura 7A incorporado en un dispositivo montado en cabeza, por lo general se designa por 2150.
Con referencia a la figura 7A, el sistema 2100 incluye los transductores acústico eléctricos 2102 y 2104 y un controlador de audio 2106. El controlador de audio 2106 está acoplado a los transductores acústico eléctricos 2102 y 2104.
El controlador de audio 2106 es un procesador digita que muestrea simultáneamente dos señales de entrada a la misma velocidad de muestreo y determina la función de transferencia de estas dos señales de entrada, de acuerdo con un procedimiento de filtrado adaptativo. El controlador de audio 2106 aplica la función de transferencia en una de las señales de entrada y substrae el resultado a la otra señal de entrada. El controlador de audio 2106, a continuación produce una señal de salida respectiva del resultado de la substracción.
El transductor acústico eléctrico 2102 detecta sonido acústico. Este sonido acústico puede ser una voz humana, una voz generada por máquina y otras similares. Si el sonido acústico es la voz de una persona (no mostrada), entonces el transductor acústico eléctrico 2102 está situado cerca de la boca (no mostrada) de la persona. El transductor acústico eléctrico 2102 detecta el sonido deseado (es decir, la voz), así como el ruido (es decir, un sonido no deseado) que está presente en el entorno que rodea a la persona. El ruido es generado, por ejemplo, por otras personas y dispositivos, tales como motores, turbinas y dispositivos mecánicos, dispositivos hidráulicos o neumáticos (por ejemplo, tuberías, actuadores), dispositivos electromecánicos (por ejemplo, motores eléctricos), altavoces que rodean al hablante, disparo de municiones, las fuentes ambientales tales como viento, lluvia, olas del mar, tormentas, por los animales, y otros similares.
El transductor acústico eléctrico 2104 y el transductor acústico eléctrico 2102 detectan sonidos diferentes, ya sea debido a un material absorbente de sonido (no mostrado) que se encuentra entre los transductores acústico eléctricos 2102 y 2104, o la mera distancia entre los transductores acústico eléctricos 2102 y 2104. Por lo tanto, el transductor acústico eléctrico 2104 detecta el ruido y sustancialmente ninguno de los sonidos deseados, mientras que el transductor acústico eléctrico 2102 detecta el sonido deseado y el ruido.
El controlador de audio 2106 recibe señales 2108 y 2110 provenientes de transductores acústico eléctricos 2102 y 2104, respectivamente. Cada una de las señales 2108 y 2110 se encuentra en formato analógico. Un convertidor analógico a digital (no mostrado) y en la presente memoria descriptiva y a continuación que en general se designa por ADC que convierte una señal analógica a una señal digital, está acoplado al transductor acústico eléctrico 2102 y al controlador de audio 2106. Otro ADC (no mostrado) está acoplado al transductor acústico eléctrico 2104 y al controlador de audio 2106. De esta manera, el controlador de audio 2106 recibe señales 2108 y 2110 que están en formato digital.
La señal 2108 incluye información respecto a un sonido deseado y a un ruido. La señal 2110 incluye información respectiva del ruido. El controlador de audio 2106 determina un nuevo nivel de presión de sonido (SPL) de intensidad reducida para la señal 2110, mediante el empleo de un convertidor de SPL (no mostrado). El convertidor de SPL puede ser en forma de tabla de consulta física cableada, una tabla de consulta de software, una función de transferencia de cableado, una función de transferencia de software, un filtro de adaptación, y otros similares. El controlador de audio 2106 sustrae el nuevo SPL determinado del SPL de la señal 2108, que corresponde a la señal 2110. El ruido detectado por el transductor acústico eléctrico 2102 es diferente del ruido detectado por el transductor acústico eléctrico 2104, es decir, normalmente con una intensidad reducida y con una fase retardada (debido a un aislamiento acústico o la distancia de aislamiento acústico entre los transductores acústico eléctricos 2102 y 2104). De esta manera, el nuevo SPL determinado corresponde a una función reducida y retardada de la señal de SPL 2110. El controlador de audio 2106 produce una señal 2112 respectiva del resultado de la operación de sustracción arriba indicada. De esta manera, la señal 2112 incluye la información respectiva del sonido deseado, excluyendo sustancialmente el ruido.
La forma y los parámetros del convertidor de SPL se determinan de acuerdo con ciertos parámetros físicos, tales como las características de audición de una persona, las características de la voz de una persona, las características de absorción de sonido de un auricular utilizado por una persona, la dimensiones de los auriculares, las distancias relativas entre el transductor acústico eléctrico 2102 y el transductor acústico eléctrico 2104, las propiedades acústicas del entorno que rodea al transductor acústico eléctrico 2102 y al transductor acústico eléctrico 2104, las propiedades acústicas del material absorbente de sonido situado entre el transductor acústico eléctrico 2102 y el transductor acústico eléctrico 2104, y otros similares.
Con referencia a la figura 7B, el sistema 2100 incluye los transductores acústico eléctricos 2102 y 2104, el controlador de audio 2106 y los convertidores analógico a digital 2114 y 2116. El controlador de audio 2106 incluye un filtro adaptativo 2118 y un elemento de suma 2120. El ADC 2114 está acoplado al transductor acústico eléctrico 2102 y al elemento de suma 2120. El ADC 2116 está acoplado al transductor acústico eléctrico 2104 y al filtro adaptativo 2118. Alternativamente, el ADC 2114 se integra con cualquier transductor acústico eléctrico 2102 o controlador de audio 2106. Del mismo modo, el ADC 2116 puede estar integrado con el transductor acústico eléctrico 2104 o con el controlador de audio 2106.
El transductor acústico eléctrico 2102 produce una señal analógica 2122 y envía la señal analógica 2122 al ADC 2114. El ADC 2114 convierte la señal analógica 2122 a una señal digital 2124, envía la señal digital 2124 al elemento de suma 2120 y el filtro adaptativo 2118 produce una señal 2130 de acuerdo con la señal 2128. La señal 2130 es respectiva del ruido ambiental detectado por el transductor acústico eléctrico 2104 en un SPL reducido (es decir, el SPL del ruido ambiental cercano al transductor acústico eléctrico 2102). El elemento de suma 2120 produce la señal 2112, substrayendo la señal 2130 de la señal 2124. La señal 2112 está provista adicionalmente de una interfaz (no mostrada) para su tratamiento o transmisión posterior. El transductor acústico eléctrico 2104 produce una señal analógica 2126 y envía la señal analógica 2126 al ADC 2116. El ADC 2116 convierte la señal analógica 2126 a una señal digital 2128 y envía la señal digital 2128 al filtro adaptativo 2118. La señal 2112 del elemento de suma 2120 se realimenta al filtro adaptativo 2118, en un bucle de realimentación 2132. Si la señal 2112 incluye cualquier ruido residual, entonces el filtro adaptativo 2118 detecta el ruido residual y ajusta la señal 2130 en consecuencia. El elemento de suma 2120 a continuación, substrae este ruido residual de la señal 2124.
Haciendo referencia a la figura 7C, el transductor acústico eléctrico 2102 se incorpora al dispositivo montado en cabeza 2150. El controlador de audio 2106 está acoplado a los transductores acústico eléctricos 2102 y 2104. El dispositivo montado en cabeza 2150 es en forma de un casco, auriculares, y otros similares. El transductor acústico eléctrico 2102 se encuentra situado en la boca (no mostrada) del usuario (no mostrado). El transductor acústico eléctrico 2104 se encuentra situado exterior al dispositivo montado en cabeza 2150 o externamente montado en el mismo, pero aislado acústicamente o alejado de la boca del usuario.
El dispositivo montado en cabeza 2150 puede incluir un dispositivo visual (no mostrado), tal como un visualizador, visor, visualizador de cristal líquido (LCD), visualizador de emisión de campo (FED), espejo, y otros similares. Además, el dispositivo montado en cabeza 2150 puede incluir uno o más transductores electro acústicos.
Si el dispositivo montado en cabeza 2150 es en forma de un casco, puede incluir material que absorbe el sonido, tal como lana mineral, fibra de vidrio, y otros similares. En este caso, el transductor acústico eléctrico 2102 detecta la voz del usuario, al mismo tiempo que también detecta el ruido de fondo, pero con un SPL reducido.
En caso de que el dispositivo montado en cabeza 2150 sea en forma de un auricular, debido a la distancia física al transductor acústico eléctrico 2104 desde la boca del usuario, el transductor acústico eléctrico 2104 detecta el ruido ambiental y sustancialmente nada de la voz del usuario. Sin embargo, el transductor acústico eléctrico 2102 detecta la voz del usuario y el ruido ambiental. Se hace notar que incluso el aire ambiental puede aislar acústicamente de manera eficaz, tal como aislando el transductor acústico eléctrico 2104 de la boca del usuario.
En el caso de que el dispositivo montado en cabeza 2150 sea un casco usado por un piloto (no mostrado), el ruido ambiental puede ser el ruido generado por el motor (es decir, la planta de potencia) del avión, por los motores de los otros aviones que vuelan cercanos, por las voces de la tripulación del avión, por el sonido de un trueno, por el sonido de las partículas de hielo golpeando contra el parabrisas, por el sonido de los disparos de las municiones, y otros similares. El transductor acústico eléctrico 2102 se une a la porción interior del dispositivo montado en cabeza 2150 cerca de la boca del piloto y el transductor acústico eléctrico 2104 se une a la porción exterior del dispositivo montado en cabeza 2150.
\newpage
El dispositivo montado en cabeza 2150 incluye material de absorción de sonido, y el transductor acústico eléctrico 2104 está más lejos de la boca del piloto que el transductor acústico eléctrico 2102. Por lo tanto, el transductor acústico eléctrico 2104 detecta principalmente el ruido ambiental y sustancialmente nada de la voz del piloto. Sin embargo, puesto que material absorbente de sonido del dispositivo montado en cabeza 2150 absorbe sólo una parte del sonido, el transductor acústico eléctrico 2102 detecta la voz del piloto, además del ruido ambiental con un SPL reducido. Además, la señal 2108 incluye información respectiva de la voz del piloto y un nivel atenuado de ruido ambiental, mientras que la señal 2110 incluye la información respectiva del ruido ambiental con un SPL más alto que el detectado por el transductor acústico eléctrico 2102. El nivel de atenuación del ruido ambiental puede depender de la frecuencia.
Los parámetros del convertidor de SPL pueden ser determinados empíricamente mediante la medición de los valores de SPL de las señales 2108 y 2110 en un rango de frecuencias seleccionado, como respuesta al sonido que corresponde a los valores de SPL y en el rango de frecuencias del ruido ambiental esperado. Se hace notar que estas mediciones se realizan sin la voz del piloto en el mismo lugar dentro del avión en el que se emplea el sistema 2100. Estas mediciones pueden ser efectuadas antes del vuelo como "pre-calibrado" o durante las pausas de habla en el tiempo de vuelo. Además, el controlador de audio 2106 calibra el sistema 2100 al comienzo de cada vuelo. Alternativamente, los parámetros del convertidor de SPL se pueden determinar analíticamente, calculando la atenuación estimada de los valores de SPL del ruido ambiental en un rango de frecuencia seleccionado.
Se hace notar adicionalmente que el valor de SPL del ruido ambiental atenuado detectado por el transductor acústico eléctrico 2102 también depende de la distancia física entre los transductores acústico eléctricos 2102 y 2104. Se hace notar que debido a la distancia física entre los transductores acústico eléctricos 2102 y 2104 y un valor dado de la velocidad del sonido, las señales 2108 y 2110 pueden incluir información respectiva de la forma de onda del ruido ambiental, que están desfasados. Con el fin de substraer la parte correcta de la forma de onda del ruido ambiental de la señal 2108, el controlador de audio 2106 tiene en cuenta este desplazamiento de fase, al referirse a una tabla de consulta respectiva, función de transferencia, y otros similares.
De acuerdo con otro aspecto de la técnica desvelada, un sistema de reducción de ruido emplea un controlador de reducción activa de ruido (ANR) para producir un sonido libre de ruido a cerca de la oreja un usuario. El controlador de ANR produce una señal de en oposición de fase del ruido ambiental, que se deriva de la detección del ruido ambiental por un transductor acústico eléctrico exterior.
Se hace referencia a continuación a las figuras 8A, 8B y 8C. La figura 8A es una ilustración esquemática de un sistema de cancelación de ruido, que en general se designa por 2170, construido y operativo de acuerdo con otra realización de la técnica desvelada. La figura 8B es una ilustración esquemática de un detalle del controlador analógico de la ANR del controlador de ANR del sistema de la figura 8A. La figura 8C es una ilustración esquemática del sistema de la figura 8A incorporado en un dispositivo montado en cabeza, que en general se designa por 2214.
Con referencia a la figura 8A, el sistema 2170 incluye un controlador de ANR 2172, un transductor acústico eléctrico de referencia 2174, un transductor acústico eléctrico de error 2176 y un transductor electro acústico 2178. El controlador de ANR 2172 incluye un controlador de ANR digital 2180, un controlador de ANR analógico 2182 y un elemento de suma primario 2184. El controlador de ANR digital 2180 es un dispositivo que produce una señal en oposición de fase con una señal de entrada, con un SPL reducido. El controlador de ANR analógico 2182 es un dispositivo que produce una señal en oposición de fase con una señal de entrada, con el mismo SPL.
El controlador de ANR digital 2180 está acoplado al transductor acústico eléctrico de referencia 2174, al transductor acústico eléctrico de error 2176 y al elemento de suma primario 2184. El controlador de ANR analógico 2182 está acoplado al transductor acústico eléctrico 2176 de error y al elemento de suma primario 2184. El elemento de suma primario 2184 está acoplado al transductor electro acústico 2178.
El transductor electro acústico 2178 y el transductor acústico eléctrico de error 2176 se encuentran cerca de la oreja 2186 de un usuario (no mostrado). El transductor acústico eléctrico de referencia 2174 se encuentra considerablemente alejado de la oreja 2186. Alternativamente, un material absorbente de sonido (no mostrado) se encuentra situado entre el transductor electro acústico 2178 y el transductor acústico eléctrico de error 2176, por un lado y el transductor acústico eléctrico de referencia 2174 por el otro. En ambos casos, el transductor acústico eléctrico de referencia 2174 detecta el ruido ambiental y sustancialmente ninguno de los sonidos producidos por el transductor electro acústico 2178. De manera similar, el transductor acústico eléctrico de error 2176 detecta el sonido emitido por el transductor electro acústico 2178 y el ruido ambiental en una localización cercana a la oreja 2186.
Lo que sigue es una descripción de un bucle L_{1} formado por el controlador de ANR digital 2180, elemento de suma primario 2184, transductor electro acústico 2178 y el transductor acústico eléctrico de error 2176. El controlador de ANR digital 2180 muestrea continuamente una señal 2188 del transductor acústico eléctrico de referencia 2174, respectiva del ruido ambiental, y una señal 2192 respectiva de un sonido deseado de la fuente de sonido (no mostrada). El sonido deseado de la fuente de sonido puede ser una voz humana, un sonido generado por una máquina, una voz mecánica, una señal de sonido, un sonido acústico (por ejemplo, un altavoz), y otros similares.
El controlador de ANR digital 2180 determina un SPL reducido para la señal 2188 mediante el empleo de un convertidor de SPL, como se ha descrito en la presente memoria descriptiva más arriba en relación con el controlador de audio 2106 (figura 7C). El SPL reducido para la señal 2188 corresponde al SPL del ruido ambiental, en una localización cercana a la oreja 2186. El controlador de ANR digital 2180 produce una señal en oposición de fase (no mostrada) para la señal 2188 con el SPL reducido, y adiciona esta señal en oposición de fase al SPL reducido, a la señal 2192, produciendo de esta manera una señal 2194. El transductor electro acústico 2178 produce un sonido de acuerdo con la señal 2194.
Se hace notar que el transductor electro acústico de error 2176 se encuentra lo suficientemente cerca de la oreja 2186, de manera que el sonido en oposición de fase del ruido ambiental en la zona tranquila de la oreja 2186, que se emite por el transductor electro acústico 2178, anula sustancialmente el ruido ambiental en la zona tranquila de la oreja 2186. El transductor acústico eléctrico de error 2176 se encuentra lo suficientemente cerca del transductor electro acústico 2178 para detectar el sonido emitido por el transductor electro acústico 2178.
El controlador de ANR digital 2180 recibe una señal 2190 del transductor acústico eléctrico de error 2176, respectiva del sonido emitido por el transductor electro acústico 2178 (que incluye el sonido deseado y la oposición de fase del ruido ambiental en una localización cercana a la oreja 2186) y el ruido ambiental en una localización cercana a la oreja 2186. El controlador de ANR digital 2180 modifica una porción de la señal 2194 respectiva de la oposición de fase del ruido ambiental en una localización cercana a la oreja 2186, procesando las señales 2188, 2190 y 2192.
Se hace notar adicionalmente que puesto que las señales 2188 y 2190 son analógicas, se utilizan dos convertidores analógico a digital (no mostrados) para convertir las señales 2188 y 2190 a formato digital. Como alternativa, estos convertidores analógico a digital se integran con cada uno del transductor acústico eléctrico de referencia 2174 y del transductor acústico eléctrico de error 2176, o se integra con el controlador de ANR digital 2180. La señal 2192 puede ser digital o analógica. Si la señal 2192 es analógica, entonces otro ADC (no mostrado) convierte la señal 2192 a formato digital. Un convertidor digital a analógico (no mostrado), y que en la presente memoria descriptiva y a continuación será se designa por CAD, convierte la señal 2194 de formato digital a formato analógico. Alternativamente, este DAC está integrado con cualquier controlador de ANR digital 2180 o con el elemento de suma primario 2184.
Con referencia adicional a la figura 8B, el controlador de ANR analógico 2182 incluye una porción digital 2228, una porción analógica 2230 y un elemento de suma secundario 2232. El elemento de suma secundario 2232 está acoplado a la porción digital 2228, a la porción analógica 2230 y al elemento de suma primario 2184. El elemento de suma primario 2184 está acoplado al transductor electro acústico 2178. La porción analógica 2230 está acoplada al transductor acústico eléctrico de error 2176. La porción analógica 2230, el elemento de suma primario 2184, el elemento de suma secundario 2232, el transductor electro acústico 2178 y el transductor acústico eléctrico de error 2176 forman un bucle de realimentación L_{2} en el sistema 2170.
Lo que sigue es una descripción del bucle de realimentación L_{2}. La porción analógica 2230 recibe la señal 2190 del transductor acústico eléctrico de error 2176, produce una señal 2234 y envía la señal 2234 al elemento de suma secundario 2232.La señal 2234 está desfasada aproximadamente 180 grados con relación a la señal 2190. Debido a la operación de la porción analógica 2230 y las pérdidas de ganancia entre el transductor electro acústico 2178 y la porción analógica 2230, se atenúa la señal 2234. La porción digital 2228 produce una señal 2236, atenuando la señal 2192 en la misma cantidad que la señal 2234 se atenúa y envía la señal 2236 al elemento de suma secundario 2232.
El elemento de suma secundario 2232 produce una señal 2198 sumando las señales 2234 y 2236. Puesto que la porción de sonido deseado de la señal 2234 está desfasada aproximadamente 180 grados respecto a la señal 2236, la porción de sonido deseado de la señal 2234 y la señal 2236 se cancelan sustancialmente en el elemento de suma secundario 2232. De esta manera, la señal 2198 es respectiva sustancialmente solamente de la oposición de fase del ruido ambiental en una localización cercana a la oreja 2186. El elemento de suma primario 2184 produce una señal 2200 mediante la adición de las señales 2194 y 2198. El transductor electro acústico 2178 emite un sonido respectivo de la suma de la señal 2194 (que incluye el sonido deseado, una oposición de fase para el ruido ambiental en una localización cercana a la oreja 2186 y un ajuste de acuerdo con la señal 2190) y la señal 2198 (que incluye otra oposición de fase para el ruido ambiental en una localización cercana a la oreja 2186).
Se hace notar que el controlador de ANR puede incluir sólo el controlador de ANR digital acoplado al transductor acústico eléctrico de referencia, el transductor acústico eléctrico de error y el transductor electro acústico. De esta manera, el controlador de ANR digital hace ajustes a la señal que envía al transductor electro acústico de acuerdo con una señal de error, que el controlador de ANR digital recibe del transductor acústico eléctrico de error. En este caso, el controlador de ANR digital reduce principalmente los ruidos tonales.
Con referencia a la figura 8A, se hace notar que el controlador de ANR digital 2180 funciona a una velocidad más lenta que la del controlador de ANR analógico 2182, pero el controlador de ANR digital 2180 es mucho más eficaz para producir las señales oposición de fase para el ruido tonal y para el ruido a frecuencias substancialmente altas. Por otra parte, un controlador de ANR analógico 2182 es más eficaz en la producción de señales de oposición de fase para el ruido en un rango de frecuencias sustancialmente ancho, aunque con frecuencias considerablemente bajas. De esta manera, combinando el controlador de ANR digital 2180 y el controlador de ANR analógico 2182 en el controlador de ANR 2172, el sistema 2170 es capaz de producir un sonido deseado en presencia de ruido, tanto en un rango de frecuencias estrecho (es decir, ruido tonal) o ancho, así como con frecuencias bajas o altas. El controlador de ANR digital 2180 y el controlador de ANR analógico 2182 atenúan el mismo ruido. De esta manera, el ruido atenuado en la señal 2200 es sustancialmente igual a la suma de la atenuación efectuada por el controlador de ANR digital 2180 y por el controlador de ANR analógico 2182.
Con referencia a la figura 8C, el sistema 2170 incluye el controlador de ANR 2202, los transductores acústico eléctricos de referencia 2204 y 2238, los transductores acústico eléctricos de error 2206 y 2208 y los transductores electro acústicos 2210 y 2212. El controlador de ANR 2202 es similar al controlador de ANR 2172 (figura 8A). Cada uno de los transductores acústico eléctricos de error 2206 y 2208 es similar al transductor acústico eléctrico de error 2176. Cada uno de los transductores electro acústicos 2210 y 2212 es similar al transductor electro acústico 2178. Los transductores acústico eléctricos de error 2206 y 2208 y los transductores electro acústico 2210 y 2212 están acoplados a un dispositivo montado en cabeza 2214. Los transductores acústico eléctricos de referencia 2204 y 2238 se encuentran situados externos al dispositivo montado en cabeza 2214 o están montados externamente en el mismo, pero aislados acústicamente o alejados de los transductores acústico eléctricos de error 2206 y 2208 y de los transductores electro acústicos 2210 y 2212.
El dispositivo montado en cabeza 2214 es similar al dispositivo montado en cabeza 2150, de acuerdo con lo descrito en la presente memoria descriptiva más arriba en relación con la figura 7C.
El transductor acústico eléctrico de error 2206, el transductores electro acústico 2210 y el transductor acústico eléctrico de referencia 2238 están situados junto a la oreja derecha (no mostrada) del usuario (no mostrado). El transductor acústico eléctrico de error 2208, el transductor electro acústico 2212 y el transductor acústico eléctrico de referencia 2204 están situados junto a la oreja izquierda (no mostrada) del usuario. El transductor acústico eléctrico de error 2206 detecta el sonido emitido por el transductor electro acústico 2210, el ruido ambiental con un SPL reducido, y sustancialmente ninguno de los sonidos emitidos por el transductor electro acústico 2212. El transductor acústico eléctrico de error 2208 detecta el sonido emitido por el transductor electro acústico 2212, el ruido ambiental con un SPL reducido, y sustancialmente ninguno de los sonidos emitidos por el transductor electro acústico 2210. Los transductores electro acústicos de referencia 2204 y 2238 detectan el ruido ambiental y sustancialmente ninguno de los sonidos emitidos por los transductores electro acústicos 2210 y 2212.
El controlador de ANR 2202 está acoplado a los transductores acústico eléctricos de referencia 2204 y 2238, a los transductores acústico eléctricos de error 2206 y 2208 y a los transductores electro acústicos 2210 y 2212. El controlador de ANR 2202 recibe una señal 2216 del transductor acústico eléctrico de referencia 2204, una señal 2240 del transductor acústico eléctrico de referencia 2238, una señal 2218 del transductor acústico eléctrico de error 2206, una señal 2220 del transductor acústico eléctrico de error 2208 y una señal 2222 de una fuente de sonido (no mostrada). Las señales 2216 y 2238 son similares a la señal 2188 (figura 8A). Cada una de las señales 2218 y 2220 es similar a la señal 2190. Cada una de las señales 2224 y 2226 es similar a la señal 2222 y la señal 2200 es similar a la señal 2192.
La señal 2222 puede ser una señal de sonido de canal único (es decir, monoaural), o una señal de sonido multi-canal, tal como estereofónico, cuadrafónico, sonido envolvente, y otros similares. El controlador de ANR 2202 produce una señal 2224 para el transductor electro acústico 2210 y una señal 2226 para el transductor electro acústico 2212. El controlador de ANR 2202 produce señales 2224 y 2226 procesando las señales 2216, 2238, 2218, 2220 y 2222, de la misma manera que el controlador de ANR 2172 (figura 8A) procesa las señales 2188, 2192 y la señal recibida del transductor acústico eléctrico de error 2176, para producir la señal 2200.
Cada uno de los transductores electro acústicos 2210 y 2212 produce un sonido que incluye el sonido respectivo de la señal 2222 y uno en oposición de fase del ruido ambiental, con un SPL reducido. Puesto que la oposición de fase del ruido ambiental cancela sustancialmente el ruido ambiental actual en la zona tranquila de la oreja respectiva, el usuario escucha un sonido que principalmente se corresponde a la señal 2222 y sustancialmente ninguno de los ruidos ambientales. Si la señal 2222 es una señal de sonido del canal único, entonces cada una de las señales 2224 y 2226 es producida de acuerdo con la señal 2222 y la oposición de fase del ruido ambiental con un SPL reducido. Por lo tanto, el usuario puede escuchar un sonido monoaural.
Si la señal 2222 es estéreo, entonces las señales 2224 y 2226 se producen por ejemplo, de acuerdo con el canal derecho y el izquierdo de la señal 2222, respectivamente, y de acuerdo con la oposición de fase del ruido ambiental, con un SPL reducido. Por lo tanto, el usuario puede escuchar el sonido que corresponde a la señal 2222 en estéreo, sin escuchar el ruido ambiental.
Alternativamente, más de dos transductores electro acústicos y los transductores acústico eléctricos respectivos se puede acoplar al controlador de ANR. En este caso, si la señal 2222 es multi-canal, entonces el usuario puede escuchar el sonido que corresponde a la señal 2222 en múltiples dimensiones, sin escuchar el ruido ambiental.
Con referencia adicional a la figura 8A, los transductores electro acústicos están acoplados al elemento de suma primario y los transductores acústico eléctricos están acoplados al controlador de ANR digital. El controlador de ANR digital produce una señal para cada uno de los transductores electro acústicos, procesando la señal de sonido deseado, la señal de ruido y la señal de error recibidas desde el transductor acústico eléctrico respectivo.
Haciendo referencia adicional a la figura 8B, los transductores electro acústicos están acoplados al elemento de suma primario y los transductores acústico eléctricos están acoplados a la porción analógica del controlador de ANR analógico. De acuerdo con la señal de sonido deseado, la porción digital estima en tiempo real el SPL del sonido deseado que produce cada uno de los transductores electro acústicos y la porción digital produce estas señales de sonido deseado estimadas. La porción digital envía la señal de sonido deseado estimado respectivo de cada uno de los transductores electro acústicos, al elemento de suma secundario.
La porción analógica produce una señal en oposición de fase respectiva de cada una de las señales recibidas de los transductores acústico eléctricos y envía esas señales en oposición de fase al elemento de suma secundario. El elemento de suma secundario produce una señal respectiva de cada uno de los transductores electro acústicos, añadiendo la señal en oposición de fase respectiva de la porción analógica y la señal respectiva recibida de la porción digital. El elemento de suma primario produce una señal para cada uno de los transductores electro acústicos, añadiendo la señal respectiva recibida del controlador de ANR digital y la señal recibida respectiva del elemento de suma secundario.
Alternativamente, el sistema de cancelación de ruido de la figura 8A no recibe las señales respectivas del sonido deseado y solamente produce un sonido de ruido en oposición de fase, de acuerdo con el ruido detectado por un transductor acústico eléctrico de referencia situado lejos de la oreja del usuario. En este caso, el sistema de cancelación de ruido incluye un controlador de ANR digital similar al controlador de ANR digital 2180, un transductor acústico eléctrico de referencia y un transductor electro acústico. El controlador de ANR digital está acoplado al transductor acústico eléctrico de referencia y al transductor electro acústico. El transductor acústico eléctrico de referencia se encuentra situado en un entorno ruidoso, lejos de la oreja del usuario y el transductor electro acústico está situado cerca de la oreja del usuario.
Además, el sistema de cancelación de ruido incluye un transductor acústico eléctrico de error acoplado al controlador de ANR digital. El transductor acústico eléctrico de error está situado cerca de la oreja del usuario y envía una señal de error al controlador de ANR digital respectivo del sonido emitido por los transductores electro acústicos. El controlador de ANR digital procesa la señal de error y la señal de ruido de referencia y realiza los ajustes a la señal de ruido en oposición de fase, que envía al transductor electro acústico.
Además, el sistema de cancelación de ruido incluye un controlador de ANR analógico similar al controlador de ANR analógico 2182 y un elemento de suma. El controlador de ANR analógico está acoplado al transductor acústico eléctrico de error y al elemento de suma, y el elemento de suma está acoplado al controlador de ANR digital y al transductor electro acústico. El controlador de ANR analógico produce una señal de ruido en oposición de fase desfasada aproximadamente 180 grados en relación con la señal de error. El elemento de suma produce una señal para el transductor electro acústico, añadiendo las señales de ruido en oposición de fase producidas por el controlador de ANR digital y por el controlador de ANR analógico.
Alternativamente, el transductor acústico eléctrico de error sólo puede ser acoplado al controlador de reducción de ruido analógico activo y no al controlador de reducción de ruido digital activo. En este caso, sólo el controlador de reducción de ruido analógico activo hace ajustes a la señal ruido en oposición de fase que el controlador de reducción de ruido digital activo envía al transductor electro acústico.
De acuerdo con otro aspecto de la técnica desvelada, un sistema de reducción de ruido produce un sonido libre de ruidos cerca de la oreja de un usuario y una señal libre de ruidos que se corresponde a la voz del usuario. El sistema produce un sonido de cancelación de ruido o una señal de cancelación de ruido, de acuerdo con una señal de referencia de ruido.
Se hace referencia a continuación a las figuras 9A y 9B. La figura 9A es una ilustración esquemática de un sistema de reducción de ruido, en general se designa por 2250, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. La figura 9B es una ilustración esquemática del sistema de la figura 9A, incorporado en un dispositivo montado en cabeza, designado en general como 2304.
Con referencia a la figura 9A, el sistema 2250 incluye un controlador de ruido 2252, un transductor acústico eléctrico de referencia 2254, un transductor acústico eléctrico de error 2256, un transductor acústico eléctrico de voz 2258 y un transductor electro acústico 2260. El controlador de ruido 2252 incluye un controlador de ANR 2262 y un controlador de audio 2264. El controlador de ANR 2262 es similar al controlador de ANR 2172 (figura 8A) y el controlador de audio 2264 es similar al controlador de audio 2106 (figura 7A).
El controlador de ANR 2262 se acopla al transductor acústico eléctrico de referencia 2254, al transductor acústico eléctrico de error 2256 y al transductor electro acústico 2260. El controlador de audio 2264 se acopla al transductor acústico eléctrico de referencia 2254 y al transductor acústico eléctrico de voz 2258.
El transductor electro acústico 2260 y el transductor acústico eléctrico de error 2256 se encuentran cerca de la oreja 2266 de un usuario (no mostrado) y el transductor acústico eléctrico de voz 2258 está situado cerca de la boca 2268 del usuario. Materiales absorbentes de sonido (no mostrados) pueden ser colocados entre el transductor electro acústico 2260, el transductor acústico eléctrico de error 2256 y el transductor acústico eléctrico de voz 2258 por un lado y el transductor acústico eléctrico de referencia 2254 por el otro. Este material absorbente de sonido puede ser en forma de orejetas, y otros similares, que encierran al transductor electro acústico 2260 y al transductor acústico eléctrico de error 2256. Además, el material absorbente aísla acústicamente al transductor acústico eléctrico de voz 2258 y a la boca 2268 del transductor electro acústico 2260, del transductor acústico eléctrico de error 2256 y de la oreja 2266. Por lo tanto, el transductor acústico eléctrico de error 2256 no detecta la voz del usuario y el transductor acústico eléctrico de voz 2258 no detecta el sonido emitido por el transductor electro acústico 2260.
De esta manera, el transductor acústico eléctrico de referencia 2254 detecta el ruido ambiental y sustancialmente nada de la voz del usuario o del sonido emitido por el transductor electro acústico 2260. El transductor acústico eléctrico de referencia 2254 envía una señal 2274 respectiva del ruido ambiental detectado al controlador de ANR 2262 y al controlador de audio 2264. El transductor acústico eléctrico de error 2256 detecta el sonido emitido por el transductor electro acústico 2260 y el ruido ambiental con un SPL reducido y envía una señal 2276 al controlador de ANR respectivo 2262. El transductor acústico eléctrico de voz 2258 detecta la voz del usuario de la boca 2268 y el ruido ambiental con un SPL reducido y envía una señal 2278 respectiva al controlador de audio 2264.
El sistema 2250 puede estar dividido en una porción de audición y en una porción de habla. La porción de audición consiste en un controlador de ANR 2262, un transductor acústico eléctrico de referencia 2254, un transductor acústico eléctrico de error 2256 y un transductor electro acústico 2260. La porción de habla consiste en un controlador de audio 2264 y un transductor acústico eléctrico de referencia 2254 y un transductor acústico eléctrico de voz 2258. El transductor acústico eléctrico de referencia 2254 es común a la parte de audición y a la parte de habla.
La porción de audición del sistema 2250 es similar al sistema 2170, de acuerdo con lo descrito en la presente memoria descriptiva más arriba en relación con la figura 8A. El controlador de ANR 2262 determina una oposición de fase a la señal 2274 con un SPL reducido (es decir, el ruido ambiental en la zona tranquila de la oreja 2266). El controlador de ANR 2262 produce una señal 2280 respectiva del sonido deseado, de acuerdo con una señal 2270 de una fuente de sonido (no mostrada) y la oposición de fase de la señal 2274 con el SPL reducido. El transductor electro acústico 2260 produce un sonido de acuerdo con la señal 2280. De esta manera, el usuario escucha el sonido deseado y sustancialmente ninguno de los ruidos ambientales. El controlador de ANR 2262 realiza los ajustes a la señal 2280, de acuerdo con la señal 2276.
Alternativamente, el controlador de reducción activa de ruido no recibe ninguna señal respectiva del sonido deseado. En este caso, el controlador de reducción activa del ruido envía una señal de cancelación de ruido al transductor electro acústico y un transductor electro acústico diferente produce el sonido deseado en función de la señal respectiva del sonido deseado. Todavía más alternativamente, el sonido deseado llega a la oreja desde una fuente de sonido distinta del transductor electro acústico, tal como la voz de otra persona, una voz mecánica, un sonido generado por máquina, y otros similares.
Alternativamente, el transductor acústico eléctrico puede ser eliminado del sistema de reducción de ruido. En este caso, el controlador de reducción activa de ruido produce una señal de cancelación de ruido de acuerdo solamente con la señal de ruido de referencia, y sin ninguna señal de error como realimentación.
La porción de habla del sistema 2250 es similar al sistema 2100, como se ha descrito en la presente memoria descriptiva más arriba en relación con la figura 7A. De esta manera, el controlador de audio 2264 produce una señal de voz libre de ruido 2272.
Con referencia a la figura 9B, el sistema 2250 incluye un controlador de ruido 2290, un transductor acústico eléctrico de referencia 2292, los transductores acústico eléctricos de error 2294 y 2296, un transductor acústico eléctrico de voz 2298 y los transductores electro acústicos 2300 y 2302. El sistema de reducción de ruido 2290 es similar al sistema de reducción de ruido 2252 (figura 9A). El controlador de ruido 2290 se acopla al transductor acústico eléctrico de referencia 2292, a los transductores acústico eléctricos de error 2294 y 2296, al transductor acústico eléctrico de voz 2298 y a los transductores electro acústicos 2300 y 2302.
Los transductores acústico eléctricos de error 2294 y 2296, el transductor acústico eléctrico de voz 2298 y los transductores electro acústicos 2300 y 2302 se encuentran situados dentro del dispositivo montado en cabeza 2304. El transductor acústico eléctrico de referencia 2292 se encuentra situado exterior al dispositivo montado en cabeza 2304 o montado externamente al mismo, pero aislada acústicamente o alejado de la boca del usuario y de los transductores acústico eléctricos de error 2294 y 2296 y de los transductores electro acústicos 2300 y 2302. El transductor acústico eléctrico de error 2294 y el transductor electro acústico 2300 se encuentran situados en la oreja derecha (no mostrada) de un usuario (no mostrado). El transductor acústico eléctrico de error 2296 y el transductor electro acústico 2302 se encuentran situados en la oreja izquierda (no mostrada) del usuario. El transductor acústico eléctrico de voz 2298 se encuentra situado en la boca (no mostrada) del usuario.
El controlador de ruido 2290 recibe una señal 2306 del transductor acústico eléctrico de referencia 2292, respectiva del ruido ambiental y una señal 2308 de una fuente de sonido (no mostrada), respectiva de un sonido deseado. El controlador de ruido 2290 recibe una señal 2310 del transductor acústico eléctrico de voz 2298 respectiva de la voz del usuario y del ruido ambiental, con un SPL reducido.
El controlador de ruido 2290, el transductor acústico eléctrico de referencia 2292, los transductores acústico eléctricos de error 2294 y 2296 y los transductores electro acústico 2300 y 2302 forman la porción auditiva del sistema 2250, de acuerdo con lo descrito en la presente memoria descriptiva más arriba en relación con la figura 9A. Los transductores electro acústicos 2300 y 2302 producen sonidos que incluyen un sonido deseado transportado por una señal 2308 y otro sonido en oposición de fase y con un SPL reducido en relación con la señal 2306. De esta manera, el usuario escucha el sonido deseado y sustancialmente ninguno de los ruidos ambientales.
El controlador de ruido 2290, el transductor acústico eléctrico de referencia 2292 y el transductor acústico eléctrico de voz 2298 forman la parte de habla del sistema 2250, de acuerdo con lo descrito en la presente memoria descriptiva más arriba en relación con la figura 8A. De esta manera, el controlador de ruido 2290 produce una señal libre de ruido 2312 de la voz del usuario, de acuerdo con las señales 2306 y 2310.
Alternativamente, el sistema 2250 puede incluir dos transductores acústico eléctricos de referencia similares al transductor acústico eléctrico de referencia 2292 y acoplado al controlador de ruido 2290. Cada uno de estos transductores acústico eléctricos de referencia se encuentra situado exterior al dispositivo montado en cabeza 2304, de una manera similar a la descrita en la presente memoria descriptiva más arriba en relación con los transductores acústico eléctricos de referencia 2204 y 2238 (figura 8C).
De acuerdo con otro aspecto de la técnica desvelada, un sistema de reducción activa de ruido incluye una porción predictiva digital que recibe una señal de ruido de referencia y una porción de realimentación digital/analógica que recibe una señal respectiva de un sonido producido por el sistema en la zona tranquila de la oreja. La porción de realimentación produce una señal respectiva de un sonido deseado, y una oposición de fase del ruido de fondo de acuerdo con una señal de sonido deseado y de la realimentación desde la porción de realimentación.
Se hace referencia a continuación a las figuras 10A, 10B y 10C. La figura 10A es una ilustración esquemática de un sistema digital de reducción de ruido, en general, se designa por 2320, construido y operativo de acuerdo con otra realización de la técnica desvelada. La figura 10B es una ilustración esquemática de la porción predictiva del sistema de la figura 10A. La figura 10C es una ilustración esquemática de la porción de realimentación del sistema de la figura 10A. Se hace notar que el sistema 2320 es una ilustración detallada de un controlador de ANR digital tal como el controlador de ANR digital 2180 (figura 8A).
Con referencia a la figura 10A, el sistema 2320 incluye un transductor acústico eléctrico de referencia 2322, un transductor acústico eléctrico de error 2324, un transductor electro acústico 2326, elementos de respuesta de planta estimados (EPR) 2328 y 2330, un elemento predictivo 2332, un elemento de realimentación 2334, y los elementos de suma 2336, 2338 y 2340. El elemento predictivo 2332, el elemento de realimentación 2334, los elementos de EPR 2328 y 2330 y los elementos de suma 2336, 2338 y 2340 juntos son equivalentes a un controlador de ANR digital 2180 (figura 8A). El elemento predictivo 2332 incluye un elemento de EPR 2342, un filtro adaptativo 2344 y un elemento de mínimo cuadrado medio (LMS) 2346. El elemento de realimentación 2334 incluye un filtro adaptativo 2348, un elemento de LMS 2350 y un elemento de EPR 2352.
Un elemento de EPR es un elemento que estima la relación entre dos señales de sonido de acuerdo con la información predeterminada, aplica esta relación a una señal de entrada al elemento de EPR y como consecuencia produce una señal de salida. Una de estas dos señales de sonido puede ser por ejemplo, respectiva de un sonido deseado que debe ser producido por un transductor electro acústico, mientras que la otra señal de sonido es respectiva del sonido que el transductor electro acústico produce realmente. Un elemento de LMS es un elemento que actualiza la respuesta del filtro adaptativo, de acuerdo con un procedimiento de filtro adaptativo de LMS. La combinación de un elemento de LMS y de un elemento de EPR es equivalente a un elemento de Filtro LMS X (FXLMS), como se conoce en el técnica.
El transductor electro acústico 2326 y el transductor acústico eléctrico de error 2324 se encuentran cerca de la oreja 2354 de un usuario (no mostrado). Un elemento de absorción de sonido (no mostrado) se encuentra situado entre el transductor electro acústico 2326 y el transductor acústico eléctrico de error 2324, por un lado y el transductor acústico eléctrico de referencia 2322 por el otro. Por lo tanto, el transductor acústico eléctrico de referencia 2322 detecta el ruido ambiental y ninguno de los sonidos emitidos por el transductor electro acústico 2326. El transductor acústico eléctrico de error 2324 detecta el sonido emitido por el transductor electro acústico 2326 y el ruido ambiental, con un SPL reducido. Cada uno de los filtros adaptativos 2344 y 2348 es similar, en principio, al filtro adaptativo 2118, de acuerdo con lo descrito en la presente memoria descriptiva más arriba en relación con la figura 7B.
Con referencia a la figura 10B, la porción digital predictiva del sistema 2320 incluye el transductor acústico eléctrico de referencia 2322, el transductor acústico eléctrico de error 2324, el transductor electro acústico 2326, el elemento predictivo 2332, los elementos de suma 2336 y 2340 y el elemento de EPR 2330. El elemento de suma 2336 está acoplado al elemento predictivo 2332, al transductor electro acústico 2326 y al elemento de EPR 2330. El elemento de suma 2340 está acoplado al elemento predictivo 2332, al transductor acústico eléctrico de error 2324 y al elemento de EPR 2330. El transductor acústico eléctrico de referencia 2322 está acoplado al elemento predictivo 2332.
El transductor acústico eléctrico de referencia 2322 detecta el ruido ambiental y envía una señal respectiva 2356 al elemento predictivo 2332. El elemento predictivo 2332 determina el SPL reducido del ruido ambiental en la zona tranquila de la oreja 2354. Se hace notar que el SPL reducido es generalmente sensible a la frecuencia de la señal 2356. El elemento predictivo 2332 determina una señal 2358 que está en oposición de fase con la señal de ruido ambiental 2356 con un SPL reducido y envía una señal 2358 al elemento de suma 2336. El elemento de suma 2336 añade la señal 2358 a una señal 2360, y produce una señal respectiva 2362 del resultado de la suma. La señal 2360 es respectiva de un sonido deseado de una fuente de sonido (no mostrada). De esta manera, la señal 2362 incluye la señal de sonido deseado y la oposición de fase del ruido ambiental con un SPL reducido. El elemento de suma 2336 envía la señal 2362 al transductor electro acústico 2326.
El transductor electro acústico 2326 produce el sonido deseado, junto con un sonido de cancelación de ruido, de acuerdo con la señal 2362. Puesto que la oposición de fase del ruido ambiental en la zona tranquila de la oreja 2354 cancela el ruido ambiental en esta zona tranquila, el usuario escucha el sonido deseado y sustancialmente ninguno de los ruidos ambientales.
El transductor acústico eléctrico de error 2324 detecta el sonido emitido por el transductor electro acústico 2326 y envía una señal 2364 respectiva del sonido detectado al elemento de suma 2340. El elemento de EPR 2330 recibe la señal 2360, determina una señal 2366 que es una estimación del sonido deseado emitido por el transductor electro acústico 2326 en la zona tranquila de la oreja 2354, y envía una señal 2366 al elemento de suma 2340. El elemento de suma 2340 produce una señal de error 2368 comparando las señales 2366 y 2364 (es decir, substrayendo la señal 2366 de la señal 2364) y envía una señal de error 2368 al elemento predictivo y al elemento de realimentación 2334. La señal de error 2368 representa la diferencia entre el sonido deseado tal como es recibido de la fuente de sonido y el sonido deseado cancelado de ruido emitido en la zona tranquila de la oreja 2354. El elemento predictivo 2332 hace una corrección a la señal 2358 de acuerdo con la señal de error 2368 y envía una señal 2358 al elemento de suma 2336.
Haciendo referencia a la figura 10C, la porción de realimentación del sistema 2320 incluye el transductor electro acústico 2326, el transductor acústico eléctrico de error 2324, el elemento de realimentación 2334, los elementos de EPR 2328 y 2330 y los elementos de suma 2336, 2338 y 2340. El elemento de suma 2336 está acoplado al elemento de realimentación 2334, a los elementos de EPR 2328 y 2330 y al transductor electro acústico 2326. El elemento de suma 2338 está acoplado al elemento de realimentación 2334, al elemento de EPR 2328 y al elemento de suma 2340. El elemento de suma 2340 está acoplado al elemento de realimentación 2334, al elemento de EPR 2330, al elemento de suma 2338 y al transductor acústico eléctrico de error 2324.
El elemento de suma 2336 produce la señal 2362 mediante la adición de la señal 2358, que el elemento de suma 2,336 recibe del elemento predictivo 2332, a la señal 2360, que el elemento de suma 2336 recibe de la fuente de sonido. De esta manera, como se describe en la presente memoria descriptiva más arriba en relación con la figura 10B, la señal 2362 incluye la señal de sonido deseado y la oposición de fase del ruido ambiental con un SPL reducido. El elemento de suma 2336 envía la señal 2362 al transductor electro acústico 2326 y al elemento de EPR 2328.
El transductor electro acústico 2326 produce el sonido deseado, junto con un sonido de cancelación de ruido, de acuerdo con la señal 2362. Puesto que la oposición de fase del ruido ambiental en la zona tranquila de la oreja 2354 cancela el ruido ambiental en esta zona tranquila, el usuario escucha el sonido deseado y sustancialmente ninguno de los ruidos ambientales.
El transductor acústico eléctrico de error 2324 detecta el sonido emitido por el transductor electro acústico 2326 y envía una señal 2364 respectiva del sonido detectado al elemento de suma 2340. El elemento de EPR 2330 recibe la señal 2360, determina una señal 2366 que es una estimación del sonido deseado emitido en la zona tranquila de la oreja 2354 y envía una señal 2366 al elemento de suma 2340. El elemento de suma 2340 produce una señal de error 2368 comparando las señales 2366 y 2364 (es decir, restando la señal 2366 de la señal 2364) y envía una señal de error 2368 al elemento de realimentación 2334, al elemento de suma 2338 y al elemento predictivo 2332. La señal de error 2368 representa la diferencia entre el sonido deseado tal como se recibió de la fuente de sonido y el sonido deseado cancelado de ruido emitida en la zona tranquila de la oreja 2354.
El elemento de EPR 2328 produce una señal 2370, que es una estimación de un sonido emitido por el transductor electro acústico 2326 y como es detectado por un transductor acústico eléctrico de error 2324. El elemento de EPR 2328 produce la señal 2370 de acuerdo con la señal 2362. El elemento de suma 2338 produce una señal de error 2372 comparando las señales 2368 y 2370 (es decir, restando la señal 2370 de la señal 2368) y envía una señal de error 2372 al elemento de realimentación 2334. El elemento de realimentación 2334 produce una señal de error 2374 procesando las señales de error 2368 y 2372 y envía una señal de error 2374 al elemento de suma 2336. El elemento de suma 2336 produce la señal 2362 añadiendo la señal error 2374 a la señal 2358 (para la señal de cancelación ruido ambiental) y la señal 2360 (para la señal de la fuente de sonido).
Se hace notar que el sistema de reducción de ruido puede incluir una pluralidad de transductores electro acústicos y un transductor acústico eléctrico respectivo para cada uno de los transductores electro acústicos. En este caso, el sistema recibe el sonido deseado en una pluralidad de canales y el usuario puede escuchar el sonido deseado en múltiples dimensiones.
Se hace notar adicionalmente que el sistema 2320 produce una señal de ruido en oposición de fase de acuerdo con una señal recibida desde un transductor acústico eléctrico (es decir, el transductor acústico eléctrico de referencia 2322), que no se ve afectada por el sonido emitido por el transductor electro acústico (es decir, el transductor electro acústico 2326) y adapta a esta señal de ruido en oposición de fase de acuerdo con una señal respectiva del sonido emitido por este transductor electro acústico (es decir, la señal 2364). La operación de la porción predictiva y de la porción de realimentación del sistema 2320 son similares. La diferencia entre las dos porciones es que la entrada a la porción predictiva es el ruido ambiental desprovisto de cualquier sonido emitido por el transductor electro acústico, mientras que la entrada a la porción de realimentación es el sonido que es emitido realmente por este transductor electro acústico.
Se hace referencia a continuación a la figura 11A, que es una ilustración esquemática de un procedimiento para el funcionamiento del sistema de la figura 7A, operativo de acuerdo con una realización adicional de la técnica desvelada. En el procedimiento 2400, una señal de sonido que soporta el ruido se produce detectando el sonido acústico y el ruido. Con referencia a la figura 7A, el transductor acústico eléctrico 2102 detecta el sonido acústico y el ruido y envía la señal 2108 respectiva de este sonido acústico y ruido detectados a un controlador de audio 2106.
En el procedimiento 2402, una señal de ruido de referencia es producida detectando el ruido. Con referencia a la figura 7A, el transductor acústico eléctrico 2104 detecta el ruido y envía la señal 2110 respectiva de este ruido a un controlador de audio 2106.
En el procedimiento 2404, una señal de corrección es determinada de acuerdo con la señal de ruido de referencia. Con referencia a la figura 7A, el controlador de audio 2106 determina un SPL reducido de la señal 2110.
En el procedimiento 2406, una señal libre de ruido es producida de acuerdo con la señal de corrección y la señal de sonido de soporte de ruido. Con referencia a la figura 7A, el controlador de audio 2106 produce la señal 2112 substrayendo la señal 2110 con el SPL reducido, desde la señal 2108.
Se hace referencia a continuación a la figura 11B, que es una ilustración esquemática de un procedimiento de funcionamiento de un sistema de cancelación de ruido, operativo de acuerdo con otra realización de la técnica desvelada. Este sistema de cancelación de ruido emplea un transductor acústico eléctrico de referencia para detectar el ruido ambiental, en el que el transductor acústico eléctrico de referencia se encuentra lejos de las orejas del usuario. Se hace notar que el procedimiento para detectar el ruido ambiental por medio de este transductor acústico de referencia es común a ambos procedimientos de acuerdo con las figuras 11A y 11B. Además, se hace notar adicionalmente que los procedimientos de acuerdo con las figuras 11A y 11B, se pueden combinar en un único procedimiento que en la presente memoria descriptiva y a continuación se describe en relación con la figura 12.
Con referencia a la figura 11B, en el procedimiento 2408, que es similar al procedimiento 2402, la señal de ruido de referencia es producida detectando ruido. El transductor acústico eléctrico de referencia produce una señal de ruido de referencia detectando el ruido ambiental. En el procedimiento 2410, una señal de cancelación de ruido es determinada procesando la señal de ruido de referencia. Un controlador de ANR similar al controlador de ANR 2172 (figura 8A) determina una cancelación de ruido de la señal procesando la señal de ruido de referencia. El controlador de ANR determina un SPL reducido de la señal de ruido de referencia respectiva del SPL del ruido ambiental en una localización cercana a la oreja del usuario. Además, el controlador de ANR determina una señal de cancelación de ruido, que está desfasada aproximadamente 180 grados con respecto a la señal de ruido de referencia. Un transductor electro acústico similar al transductor electro acústico 2178 (figura 8A), produce un sonido de cancelación de ruido de acuerdo con la señal de cancelación de ruido determinada (procedimiento 2412).
Se hace referencia a continuación a la figura 12, que es una ilustración esquemática de un procedimiento para el funcionamiento del sistema de la figura 9A, operativo de acuerdo con una realización adicional de la técnica desvelada. En el procedimiento 2420, una señal de voz ruidosa es producida detectando voz y ruido. Con referencia a la figura 9A, el transductor acústico eléctrico de voz 2258 detecta la voz del usuario por la boca 2268, junto con el ruido ambiental, con un SPL reducido y envía una señal 2278 al controlador de audio 2264.
En el procedimiento 2422, una señal de ruido de referencia es producida detectando ruido. Con referencia a la figura 9A, el transductor acústico eléctrico de referencia 2254 detecta el ruido ambiental y envía la señal 2274 al controlador de audio 2264.
En el procedimiento 2424, una señal de corrección es determinada de acuerdo con la señal de ruido de referencia. Con referencia con la figura 9A, el controlador de audio 2264 determina un SPL reducido de la señal 2274.
En el procedimiento 2426, una señal de voz libre de ruido es producida de acuerdo con la señal de corrección y con la señal de voz ruidosa. Con referencia a la figura 9A, el controlador de audio 2264 produce la señal 2272, substrayendo la señal 2274 con un SPL reducido, de la señal 2278.
En el procedimiento 2428, una señal de audio es recibida. Con referencia a la figura 9A, el controlador de ANR 2262 recibe la señal 2270 de la fuente de sonido. En el procedimiento 2430, una señal de error es producida detectando sonido en las proximidades de la oreja. Con referencia a la figura 9A, el transductor acústico eléctrico de error 2256 detecta el sonido cerca de la oreja 2266 y envía la señal 2276 respectiva de este sonido detectado al controlador de ANR 2262.
En el procedimiento 2432, una señal de cancelación de audio y ruido es determinada de acuerdo con la señal de ruido de referencia, la señal de audio y la señal de error. Con referencia a la figura 9A, el controlador de ANR 2262 determina la señal 2280 procesando las señales 2270, 2274 y 2276.
En el procedimiento 2434, una señal de cancelación de audio y ruido es producida de acuerdo con la señal de cancelación de audio y ruido determinada. Con referencia a la figura 9A, el transductor electro acústico 2260 produce sonido de acuerdo con la señal 2280.
Lo que sigue es una descripción del seguidor de ojos 138. Se hace referencia ahora a la figura 13, que es un ilustración de vista delantera esquemática de un sistema 3100, construido y operativo de acuerdo con otra realización de la técnica desvelada, que muestra imágenes 3120 al ojo de un usuario y que además sigue al ojo 3120. Una pupila 3134 se encuentra dentro del ojo 3120. El sistema 3100 (por ejemplo, el seguidor de ojo 3534 ilustrado aquí más abajo en la figura 18) incluye un módulo de cámara 3102, un procesador de imágenes 3132, un divisor haz de 3104, fuentes de luz 3106, 3108 y 3110, un módulo de visualización 3112 y un conjunto óptico de colimación 3114, todo ello montado en un casco 3116.
El divisor haz 3104 transmite una porción de la luz incidente sobre el mismo y refleja otra porción de la luz incidente. Por ejemplo, el divisor de haz 3104 puede ser un divisor haz de polarización (PBS). Las fuentes de luz 3106, 3108 y 3110 emiten luz no visible. Por ejemplo, cada una de las fuentes de luz 3106, 3108 y 3110 puede emitir luz infrarroja (IR) o luz casi infrarroja (NIR). Las fuentes de luz 3106, 3108 y 3110 pueden ser diodos emisores de luz (LED), fuentes de luz de banda ancha filtrada de NIR y otros similares.
El módulo de visualización 3112 produce una imagen para ser vista por el usuario (por ejemplo, el módulo de visualización 3112 puede incluir un tubo de haces catódicos (CRT), un visualizador de cristal líquido iluminado posteriormente (LCD), o un diodo de emisión de luz orgánico (OLED). La fuente de luz 3110 y el visualizador 3112 están acopladas al conjunto óptico de colimación 3114.
El módulo de cámara 3102 recibe una imagen que pasa a través del divisor de haz 3104. El módulo de cámara 3102 incluye un sensor de imagen tal como un CCD, CMOS, y similares, para detectar imágenes.
El procesador de imágenes 3132 está acoplado al módulo de cámara 3102, al módulo de visualización 3112 y a las fuentes de luz 3106, 3108 y 3110. En el presente ejemplo, el procesador de imágenes 3132 se monta en el casco 3116. Se hace notar, sin embargo, que el procesador en general puede estar dispuesto, sobre el casco, fuera del casco, o parcialmente en el casco (por ejemplo, cuando el procesador se compone de un conjunto de chips). El procesador de imágenes 3132 recibe datos de imágenes de la cámara 3102, y determina la línea visual de la vista del ojo 3120 de acuerdo con estos datos de imágenes. El procesador de imágenes 3132 puede grabar imágenes adicionalmente, comunicarse con una fuente exterior (por ejemplo, una interfaz de usuario, un detector de luz ambiental), y controlar el visualizador 3112 y las fuentes de luz 3106, 3108 y 3110.
En el presente ejemplo, las fuentes de luz 3106, 3108 y 3110 emiten luz sustancialmente en el mismo rango de longitudes de onda predeterminado. El módulo de cámara 3102 incluye además un filtro (no mostrado), que admite la luz en el mismo rango de longitudes de onda que las fuentes de luz 3106, 3108 y 3110, y filtra la luz que está fuera de este rango. Se hace notar, sin embargo, que las fuentes de luz en general, pueden emitir luz que tiene diferentes rangos de longitudes de onda, y la cámara puede tener varios espectros de detección. El requisito general para que la cámara detecte las reflexiones de la luz procedente de las fuentes de luz 3106, 3108 y 3110, es que el espectro de emisión combinado de las fuentes de luz 3106, 3108 y 3110, tenga un solapamiento considerable con el rango de detección del módulo de cámara 3102.
La fuente de luz 3106 emite un haz de luz iluminante no visible 3122 hacia el divisor de haz hacia 3104. El divisor de haz 3104 refleja parcialmente el haz de luz 3122 hacia el ojo 3120, con lo que ilumina el ojo 3120. El haz de luz iluminante 3122 es concéntrico con el eje óptico del módulo de cámara 3102. Una porción del haz de luz iluminante 3122 se refleja de las pupilas 3134 del ojo 3120, como un haz de luz 3124, al sensor de imágenes del módulo de cámara 3102. De esta manera, la pupila 3134 aparece como un punto brillante en la imagen detectada por el módulo de cámara 3102. Como consecuencia, el procesador de imágenes de 3132 determina la posición del centro de la pupila 3134.
De acuerdo con otra realización de la técnica desvelada, el procesador de imágenes 3132 está acoplado adicionalmente a un detector de luz ambiental (no mostrado), que puede estar dispuesto en el casco o fuera del casco. Se hace notar que bajo ciertas condiciones, el módulo de cámara 3102 puede no ser capaz de detectar la pupila 3134 como un punto brillante. Por ejemplo, la luz ambiental en el sistema 3100 puede alcanzar altos niveles de intensidad. Puesto que la visualización de la pupila 3134 requiere un nivel mínimo de contraste entre la pupila y su tejido no transparente circundante (es decir, el iris), el nivel de intensidad del haz de luz 3122 también debe aumentar cuando la intensidad de la luz ambiental se incrementa. Sin embargo, la intensidad del haz de luz 3122 puede estar limitada por un umbral de seguridad.
Si la intensidad del haz de luz 3122, que sería requerida para ver la pupila 3134 como un punto brillante, está más allá del umbral de seguridad, el detector de luz ambiental puede señalizar al procesador de imágenes 3132 en consecuencia. El procesador de imágenes instruye a las fuentes de luz 3106, 3108 y 3110 para que iluminen el ojo de manera diferente. Por ejemplo, la fuente de luz 3106 puede reducir significativamente la intensidad del haz de luz 3122. De esta manera, la pupila 3134 aparecerá en la imagen detectada por el módulo de cámara 3102 como una mancha oscura. El procesador de imágenes 3132 detecta la pupila 3134 de acuerdo con diferentes criterios. Por ejemplo, el criterio para la detección de una "pupila brillante" puede seleccionar porciones de imágenes que están más allá de un cierto umbral de brillo, mientras que el criterio para la detección de una "pupila oscura" puede seleccionar porciones de imágenes por debajo de un umbral de "oscuridad".
La fuente de luz 3110 emite un haz iluminante 3128 de luz no visible hacia el conjunto óptico de colimación 3114. El módulo de visualización 3112 emite un haz de luz 3130 que lleva una imagen visible, hacia el conjunto óptico de colimación 3114. El conjunto óptico de colimación 3114 colima los haces de luz 3128 y 3130, y dirige los haces luminosos colimados hacia el ojo 3120 del usuario. El procesador de imágenes 3132 detecta el reflejo corneal 3138 del haz de luz 3128 (es decir, la reflexión corneal 3138 es el reflejo del haz de luz 3128 en la córnea del ojo 3120). Puesto que el haz de luz 3128 está colimado, la posición del reflejo corneal 3138 en la córnea es invariante con el movimiento del ojo 3120, relativa con la posición de la fuente de luz 3110 (por ejemplo, un movimiento relativo de este tipo puede ocurrir con el deslizamiento del casco). En el ejemplo presente, la reflexión corneal 3138 se encuentra situada fuera de la zona de la pupila 3134. Se hace notar, sin embargo, que la reflexión corneal 3138 puede superponerse, en general, total o parcialmente al área de la pupila 3134. Se hace notar además que la posición de la reflexión corneal 3138 depende de la mirada del ojo 3120.
La fuente de luz 3108 emite un haz de luz iluminante no visible 3126 hacia el ojo 3120 y los párpados 3136 del usuario. Una porción del haz de luz 3128 (no mostrado) se refleja hacia el módulo de cámara 3102. De esta manera, el módulo de cámara 3102 detecta una imagen del ojo 3120 y de los párpados 3136 el usuario. La fuente de luz 3108 puede estar configurada para producir iluminación de inundación en ciertas zonas de la cara (por ejemplo, los ojos y los párpados) con luz homogénea (es decir, intensidad, polarización, longitud de onda y similares). Por ejemplo, un difusor puede ser utilizado para generar una intensidad uniforme de iluminación.
De acuerdo con una realización adicional de la técnica desvelada, el procesador de imágenes 3132 determina la línea de visión del usuario de acuerdo con la posición relativa entre la pupila 3134 y la reflexión corneal 3138. Por ejemplo, el procesador de imágenes 3132 puede extraer de la imagen del ojo la posición del centro de la pupila 3134 y el centro de la reflexión corneal 3138. De esta manera, el procesador de imágenes puede calcular la posición relativa entre el centro de la pupila y el centro de la reflexión corneal. El procesador de imágenes puede entonces transformar este resultado, utilizando un modelo de transformación preestablecido, para determinar la línea de visión del usuario. Se hace notar que el modelo de transformación se basa en el conocimiento de la fisiología del ojo, y puede ser determinado adicionalmente de acuerdo con los datos previamente adquiridos en relación con el usuario. La posición de los párpados 3136 puede ser utilizada con el fin de mejorar la precisión del cálculo de la línea de visión. Por ejemplo, cualquiera de las esquinas de los párpados se encuentra en general en reposo con respecto a la cara del usuario. De esta manera, una esquina de los párpados 3136 puede ser utilizada como punto de referencia adicional, además de la pupila y del reflejo corneal.
Alternativamente, la posición de los párpados 3136 puede ser utilizada para calcular la línea de visión del usuario, en caso de que uno de los puntos de referencia (es decir, la pupila 3134 o el reflejo corneal 3138) no esté disponible. Por ejemplo, en determinadas condiciones, el reflejo corneal 3138 puede no estar disponible. Como consecuencia, el procesador de imágenes determina la línea de visión de acuerdo con la posición relativa entre el centro de la pupila 3134 y una esquina de los párpados 3136.
Se hace notar que el procesador de imágenes pueden calcular la línea de visión dinámicamente. Como consecuencia, el procesador de imágenes 3132 calcula inicialmente la línea de visión, y a continuación asocia cualquier movimiento posterior en el ojo con un cambio de la línea de visión.
De acuerdo con otra realización de la técnica desvelada, el procesador de imágenes 3132 determina el estado fisiológico del usuario de acuerdo con la posición y el movimiento ya sea de los párpados 3136 o de la pupila 3134. Por ejemplo, la posición de los párpados 3136 y el movimiento de la pupila 3134 pueden indicar el estado de fatiga del usuario, e identificar la pérdida de conciencia (LOC), y similares. Por ejemplo, el procesador de imágenes de esta manera puede determinar una pérdida de conciencia bajo altas cargas G (G-LOC). Este estado fisiológico puede ser, por ejemplo, de fatiga, pérdida de conciencia, bizquera, astigmatismo, daño a los ojos, vértigo, y otros similares.
Cuando determinadas condiciones fisiológicas son detectadas, el procesador de imágenes 3132 puede iniciar una respuesta en consecuencia. Por ejemplo, cuando el procesador de imágenes detecta que el usuario está soñoliento, el procesador de imágenes puede indicar a un sistema de alarma para que suene una alarma acústica, para generar un choque eléctrico suave, alertar la atención de un centro de órdenes, y otros similares.
El sistema 3100 incluye además un visor semi- transparente o combinador (no mostrado). Se hace notar que las trayectorias de los haces de luz que viajan entre el ojo 3120 y los elementos del sistema 3100 sólo se muestran esquemáticamente en la figura 13. Los haces de luz, 3122, 3124, 3126, 3128 y 3130 son en realidad reflejados en el visor antes de llegar al ojo 3120 o al módulo de cámara 3102.
Se hace referencia a continuación a la figura 14, que es una ilustración de la vista lateral esquemática del sistema 3100 (figura 13). Un visor 3140 refleja los haces de luz que pasan entre el ojo 3120 y la cámara 3102 (es decir, el haz de luz 3124 de la figura 13), así como los haces de luz que pasan entre el colimador 3114 y el ojo 3120 (es decir, los haces de luz 3128 y 3130 de la figura 13). Se hace notar que tanto el módulo de visualización 3112 como la fuente de luz 3110 transmiten luz al visor/combinador 3140 a través del colimador de 3114. De esta manera, el sistema determina la LOS 3100 de los ojos 3120 y muestra una imagen para los ojos 3120, mientras el módulo de visualización 3112 y la fuente de luz 3110 utilizan sustancialmente el mismo trayecto óptico.
En el presente ejemplo, la superficie del visor 3140 es esférica. Se hace notar, sin embargo, que la superficie del visor 3140 puede tener varias formas, tales como esférica, asférica, plana y otras similares. Se hace notar adicionalmente que un visor esférico puede tener cierto grado de libertad de rotación, sin afectar las trayectorias de los haces de luz reflejada desde allí.
El visor 3140 transmite, al menos parcialmente, luz visible, lo que permite al usuario visualizar una escena allí. El visor 3140 puede filtrar adicionalmente luz que tenga sustancialmente la misma longitud de onda que los haces de luz iluminantes 3122, 3126 y 3128. Por ejemplo, el visor puede incluir un pigmento que absorbe la luz que tenga estas longitudes de onda. Por lo tanto, el visor 3140 impide que la luz que tiene estas longitudes de onda pase, entrando en el espacio situado entre el visor y la cara del usuario. Esto elimina sustancialmente la interferencia al sistema 3100 causada por la luz ambiental (por ejemplo, la luz del sol), que en general es designada por 3150.
El visor 3140 está recubierto con un revestimiento interior 3142. Se hace notar que el revestimiento 3142 puede cubrir la parte interior completa del visor 3140. Por ejemplo, el revestimiento interior 3142 puede ser un revestimiento de espejo de interferencia, que tiene una respuesta a la reflexión pico en la región de longitud de onda de los haces de luz 3122, 3126 y 3128 y el visualizador 3112. De esta manera, el revestimiento interior 3142 impide que cualquier luz con estas longitudes de onda se desplace desde el interior del visor (es decir, el espacio situado entre el visor y la cara del usuario) a la parte exterior del visor.
Por lo tanto, el espacio entre el visor y la cara del usuario se encuentra ópticamente aislado prácticamente en estas longitudes de onda. Substancialmente la totalidad de la luz que tiene la misma longitud de onda que los haces de luz iluminante, que es detectada por el módulo de cámara 3102, se origina únicamente desde las fuentes de luz 3106, 3108 y 3110. De esta manera, la relación de señal (es decir, la luz que se origina en una de las fuentes de luz) a ruido (es decir, la luz ambiental 3150) (SNR) es suficiente para analizar la imagen recibida por el módulo de cámara 3102.
Se hace notar que una cámara de exposición puede ser incorporada en el sistema 3100. Esta cámara puede proporcionar datos referentes a la posición y orientación del casco 3116 durante el vuelo. Tomados en conjunto con los datos del módulo de cámara 3102, estos datos pueden proporcionar información adicional sobre la vista que ve el usuario. De manera similar, el sistema puede ser incorporado con un sensor de posición y orientación montado en el casco 3116 (por ejemplo, el seguidor de posición de la cabeza 3536 que se ilustra en la figura 18), así como un sensor de posición y de orientación que está asociado al avión (por ejemplo, el seguidor de posición y orientación del vehículo 3538 que se ilustra en la figura 18).
De acuerdo con otra realización de la técnica desvelada, la imagen que se muestra al espectador está controlada de acuerdo con la línea de visión detectada. Se hace referencia a continuación a las figuras 15A y 15B. La figura 15A es una ilustración esquemática de una primera escena, en general designada por 3200, que es visualizada por un usuario de acuerdo con una realización adicional de la técnica desvelada. La figura 15B es una ilustración esquemática de una segunda escena, en general designada por 3230, que es visualizada por el usuario de acuerdo con otra realización de la técnica desvelada. En los ejemplos establecidos en las figuras 15A y 15B, el usuario está operando un avión (por ejemplo, el usuario es un miembro de la tripulación del avión). Se hace notar, sin embargo, que la técnica desvelada se puede aplicar a varias aplicaciones para ampliar la capacidad del usuario de realizar una interfaz con sistemas, tales como en un tanque, un submarino, distintos tipos de simuladores, líneas de montaje, aparatos para personas con discapacidad, y otros similares.
Con referencia a la figura 15A, la escena 3200 incluye un objetivo 3206. En el ejemplo establecido en la figura 15A, el objetivo 3206 es un tanque. Un marcado de objetivo 3204 se superpone a la escena 3200. El marcado de objetivo 3204 se muestra alrededor de la línea de visión 3202 del espectador. Se hace notar que la línea de visión 3202 se incluye a título de explicación y generalmente no se muestra al usuario. La línea de visión se extiende desde la pupila, perpendicularmente a la córnea y, por lo tanto, desde la perspectiva visual del usuario; esta línea virtual es un punto único situado exactamente en el centro del campo de visión de cada ojo.
En el presente ejemplo, el usuario trata de apuntar a un objetivo 3206 y dirige un arma (por ejemplo, el arma 3532 que se ilustra en la figura 18) a ese objetivo. Con el fin de apuntar al objetivo, el usuario simplemente mira al objetivo, estableciendo así la línea de visión 3202 a la dirección del objetivo. El marcado de objetivo 3204 mostrado alrededor del objetivo ayuda al usuario a determinar si la puntería es suficientemente precisa. Cuando la puntería es suficientemente precisa, el usuario puede disparar al blanco (por ejemplo, pulsando un botón manual, dando una orden por voz).
Para determinar la localización real del objetivo al cual el usuario está apuntando, la técnica desvelada implementa una jerarquía de sistema de coordenadas. Como consecuencia, la técnica desvelada ejecuta en cascada el sistema de coordenadas de la línea de visión de la pupila (es decir, el seguimiento de los ojos), dentro del sistema de coordenadas de la línea de visión del casco (es decir, la posición y orientación del casco) que también está en registro con una posición del avión (por ejemplo, un sistema de posicionamiento global (GPS) en combinación con un radar) y orientación (por ejemplo, un giroscopio).
Se hace notar que la técnica desvelada proporciona al usuario un campo de puntería que puede incluir cualquier punto del campo de visión de los ojos del usuario. Se hace notar adicionalmente que la velocidad y la estabilidad de la puntería del usuario están limitas prácticamente sólo por las limitaciones fisiológicas del ojo del usuario.
Se hace notar que un avión puede estar sujeto a condiciones extremas (por ejemplo, durante el combate), como una alta fuerza de gravedad (G) en varias direcciones, vibraciones, presión, y otros similares. Los ojos humanos son virtualmente auto-estabilizados por el reflejo ocular vestibular. Siguiendo constantemente la vista y determinando la línea visual de visión, la técnica desvelada proporciona al usuario la estabilidad de puntería, incluso cuando el avión está sujeto a condiciones tan extremas. De esta manera, la técnica desvelada utiliza la auto estabilización natural de los ojos con el fin de compensar las vibraciones de la cabeza.
De acuerdo con otra realización de la técnica desvelada, el sistema de seguimiento de ojos registra los elementos de visualización lógicos de acuerdo con la línea de visión del espectador. De esta manera, el usuario puede seleccionar los elementos de visualización del ojo. Con referencia a la figura 15B, los elementos de visualización A (referencia 3234) y B (referencia 3236) se superponen en la escena 3230. Cada uno de los elementos de visualización 3234 y 3236 representa una acción (por ejemplo, la selección de misiles, asiento de expulsión, transmitir una señal de socorro), que el usuario puede seleccionar.
El sistema de seguimiento de los ojos registra inicialmente los elementos lógicos de visualización del campo de visión del espectador. De esta manera, el sistema detecta cuando el usuario mira a un cierto elemento lógico de visualización. Por lo tanto, el usuario puede seleccionar un elemento de visualización lógico mirando a este elemento y confirmando la selección. En el presente ejemplo, el usuario está seleccionando la opción A. La selección puede ser confirmada por diversos mecanismos de confirmación, tales como confirmación manual, mirar al elemento lógico de visualización durante una duración mínima, proporcionar una indicación vocal, y otros similares.
De acuerdo con otra realización de la técnica desvelada, el usuario puede seleccionar los objetivos fuera del campo de visualización. Se hace referencia a continuación a la figura 15C, que es una ilustración esquemática de una tercera escena, en general designada por 3260, que es visualizada por el usuario de acuerdo con una realización adicional de la técnica desvelada.
La escena 3260 incluye un objetivo 3266. En el ejemplo establecido en la figura 15C, el objetivo 3266 es un avión enemigo. El campo de visualización del sistema, se designa por 3264, representa el área en la que el sistema puede mostrar imágenes al usuario. Se hace notar que el campo de visualización 3264 es más pequeño típicamente que el campo de visión del ojo humano. Se hace notar adicionalmente que el campo de visualización 3264 se incluye con propósito de explicación, y no aparecen realmente en la escena 3260.
El objetivo 3266 se encuentra fuera del campo de visualización 3264 y por lo tanto, el sistema no muestra un marcado de objetivo (por ejemplo, similar al marcado de objetivo 3204 de la figura 15A) alrededor del objetivo 3266. El usuario del sistema 3100 puede bloquear el objetivo 3266, dirigiendo el campo de visión 3262 hacia el objetivo (es decir, mirando el objetivo), y activando adicionalmente un mecanismo de confirmación.
Se hace referencia a continuación a la figura 16, que es una ilustración esquemática de un procedimiento para el seguimiento de un ojo de un usuario mientras se proyectan imágenes hacia el ojo, que es operativo de acuerdo con otra realización de la técnica desvelada. En el procedimiento 3300, un haz de luz que ilumina una pupila es emitido hacia una superficie reflectante. Este haz de luz que ilumina una pupila está dirigido a iluminar una pupila y el tejido circundante a esa pupila de una manera que acentúa el contraste entre la pupila y el tejido. Se hace notar que el haz de luz que ilumina la pupila puede alcanzar la superficie reflectante de forma indirecta. Como consecuencia, el haz de luz es emitido en primer lugar hacia al menos un elemento óptico, el cual dirige entonces el haz de luz hacia la superficie reflectante. Con referencia a las figuras 13 y 14, la fuente de luz 3106 emite un haz de luz 3122 hacia el divisor de haz 3104 y desde allí hacia el revestimiento interior 3142 del visor 3140.
En el procedimiento 3302, un haz de luz que ilumina un párpado es emitido hacia la superficie reflectante. Este haz de luz que ilumina un párpado es dirigido para iluminar el ojo completo y los párpados, de un modo que permite el seguimiento de la posición de los párpados. Con referencia a las figuras 13 y 14, la fuente de luz 3108 emite un haz de luz 3126 hacia el revestimiento interior 3142 del visor 3140.
En el procedimiento 3304, un haz de luz que ilumina una córnea es emitido hacia la superficie reflectante. Tal haz de luz que ilumina una córnea está dirigido para iluminar la córnea del ojo, de manera que una reflexión de punto visible aparece en la córnea del ojo. Con referencia a las figuras 13 y 14, la fuente de luz 3110 emite un haz de luz 3128 a través del conjunto de colimación óptico 3114, hacia el revestimiento interior 3142 del visor 3140.
En el procedimiento 3306, un haz de luz de visualización es emitido hacia la superficie reflectante. El haz de luz de visualización transporta una imagen para ser vista por el usuario. Con referencia a las figuras 13 y 14, la fuente de luz 3112 emite un haz de luz 3130 a través del conjunto de colimación óptico 3114, hacia el revestimiento interior 3142 del visor 3140.
En el procedimiento 3308, los haces de luz iluminantes y el haz de luz de visualización son reflejados hacia un ojo de un usuario, con lo que ilumina el ojo y muestra una imagen de visualización al usuario. Con referencia a las figuras 13 y 14, el revestimiento interior 3142 del visor 3140 refleja los haces de luz 3122, 3126, 3128 y 3130 hacia el ojo 3120.
En el procedimiento 3310, la luz recibida desde los ojos se refleja hacia un detector de imágenes, con lo que se detecta una imagen del ojo. Con referencia a las figuras 13 y 14, el revestimiento interior 3142 del visor 3140 refleja porciones (no mostradas) de haces de luz, 3122, 3126 y 3130 a través del divisor de haz 3104, hacia el módulo de cámara 3102.
En el procedimiento 3312, la imagen del ojo es analizada, determinando de esta manera un estado fisiológico del usuarios. Con referencia a la figura 13, el procesador de imágenes 3132 analiza la imagen del ojo 3120, y determina el estado de fatiga del usuario de acuerdo con la posición y el movimiento de los párpados.
En el procedimiento 3314, la imagen del ojo es analizada, determinando de esta manera la línea de visión del usuario. Con referencia a las figuras 13 y 14, el procesador de imágenes 3132 analiza la imagen del ojo 3120 recibida del módulo de cámara 3102 y determina la línea de visión del usuario de acuerdo con la posición relativa de la pupila 3134, el reflejo corneal 3138 y la estructura y posición de los párpados 3136.
En el procedimiento 3316, el haz de luz de visualización es controlado de acuerdo con la línea de visión del usuario. Con referencia a la figura 15A, el haz de la fuente de luz de visualización proyecta una imagen que incluye un marcado de objetivo 3204. La posición del marcado de objetivo 3204 se controla de acuerdo con la posición de la línea de visión 3202 del espectador.
Se hace notar que otros sistemas pueden ser controlados de acuerdo con la línea de visión del usuario. Por ejemplo, un mecanismo de expulsión, un mecanismo de disparo, un modo de operación y otros similares pueden ser controlados de acuerdo con la línea de visión.
En el procedimiento 3318, la al menos una fuente de luz iluminante es controlada de acuerdo con la luz ambiental detectada. En el ejemplo que se establece en las figuras 13 y 14, un detector de luz ambiental (no mostrado) detecta el nivel de intensidad de la luz ambiental 3150 y como consecuencia proporciona una señal a un procesador de imágenes. Cuando los niveles de intensidad superan un cierto umbral, el procesador de imágenes instruye a la fuente de luz 3106 para reducir sustancialmente (o eliminar por completo) la intensidad del haz de luz iluminante 3122. Se hace notar que el procedimiento 3318 se realiza antes de los procedimientos 3300, 3302 y 3304.
De acuerdo con otra realización de la técnica desvelada, el aparato está montado delante del usuario, sin que esté fijado al usuario (por ejemplo, sin estar montado en un casco). En un sistema de este tipo, la línea de visión del espectador es seguida con respecto a diferentes posiciones de la cabeza. El módulo que sigue la cabeza puede estar físicamente acoplado a la cabeza (por ejemplo, unido a un casco) o seguir visualmente la posición de la cabeza desde una localización remota, en la proximidad del usuario.
Se hace referencia a continuación a las figuras 17A y 17B. La figura 17A es una ilustración en vista lateral esquemática de un sistema, que en general se designa por 3500, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. La figura 17B es una ilustración en vista delantera del sistema de la figura 17A. En los ejemplos establecidos en las figuras 17A y 17B, el usuario está operando un vehículo (por ejemplo, el usuario es un conductor de un automóvil). Se hace notar que esta realización de la técnica desvelada se puede aplicar a cualquier tipo de vehículo (por ejemplo, un autobús, camión, motocicleta, bicicleta), nave (por ejemplo, barcos o submarinos) o aeronaves (por ejemplo, avión, helicóptero, nave espacial) o en una instalación fija.
Con referencia a la figura 17A, el sistema 3500 incluye un módulo seguidor de ojos 3506, un módulo controlador 3510, y una unidad de procesamiento de vídeo 3508. El módulo seguidor de ojos 3506 está acoplado al módulo controlador 3510 y a la unidad de procesamiento de vídeo 3508, y todos se montan sobre el vehículo 3504. El vehículo 3504 es operado por un conductor 3502.
El módulo seguidor de ojos 3506 consta de componentes que incluyen un módulo de cámara, un divisor de haz, fuentes de luz, un módulo de visualización y un colimador óptico (no todos ellos mostrados) similar al sistema 3100 de la figura 13. La funcionalidad de estas unidades es análoga a las unidades correspondientes con referencia al sistema 3100. En general, el módulo seguidor de ojos 3506 emite haces de luz iluminantes y un haz de luz de visualización hacia el ojo del conductor 3502, con lo que ilumina el ojo y muestra una imagen al conductor 3502. La imagen mostrada puede incluir diferentes características o instrucciones relacionadas con la carretera o con el proceso de conducción, y permiten que el conductor 3502 seleccione un elemento mediante la activación de un mecanismo de confirmación.
Puesto que la posición de la cabeza del conductor 3502 no está restringida a un área limitada, la posición del ojo puede estar en un rango amplio posible dentro del vehículo 3504. De acuerdo con un aspecto de la técnica desvelada, el módulo controlador 3510 dirige el módulo seguidor de ojos 3506 hacia la localización general del ojo. Esta dirección puede ser determinada de acuerdo con un MPS montado en cabeza o de acuerdo con una cámara externa al usuario.
De acuerdo con otro aspecto de la técnica divulgada, existe una pluralidad de módulos seguidores de ojos 3506 que cubren el área completa en la cual se puede mover la cabeza del conductor. Además, también existe una unidad que determina cual módulo seguidor de ojos 3506 se selecciona para la operación en cualquier momento dado.
De acuerdo con un aspecto adicional de la técnica desvelada, la unidad de procesamiento de vídeo 3508 incluye un detector de alta resolución (por ejemplo, un reproductor de imágenes CMOS). Este tipo de detector de alta resolución, acoplado a una óptica gran angular, cubre un amplio campo de visión. Se hace notar que estos aspectos de la técnica desvelada no son mutuamente excluyentes. Por ejemplo, un detector de alta resolución puede ser usado acoplado a un módulo controlador 3510, con el fin de mejorar la precisión.
La unidad de procesamiento de vídeo 3508 recibe una imagen del ojo del conductor 3502 desde el módulo seguidor de ojos 3506. La unidad de procesamiento de vídeo 3508 analiza la imagen del ojo y determina la línea de visión del conductor 3502 con respecto a la posición de la cabeza. La unidad de procesamiento de vídeo 3508 controla las imágenes que se van a mostrar al conductor 3502 de acuerdo con la línea de visión. La unidad de procesamiento de vídeo 3508 también puede analizar la imagen del ojo para determinar un estado fisiológico del conductor 3502. Cuando se detectan ciertas condiciones fisiológicas, la unidad de procesamiento de vídeo 3508 puede iniciar una respuesta consecuente, como se ha descrito anteriormente en relación con el sistema 3100.
De acuerdo con otro aspecto de la técnica desvelada, el conductor 3502 puede mirar un objeto (es decir, una imagen de escena), fuera del vehículo 3504 e interroga al sistema 3500 para obtener información sobre el objeto. El conductor 3502 puede interrogar al sistema 3500 utilizando un micrófono (no mostrado). A continuación, el módulo seguidor de ojos 3506 muestra una imagen respectiva del objeto sobre el parabrisas del vehículo 3504 como respuesta al interrogatorio de acuerdo con la LOS del conductor 3502, tal como es determinada por el módulo seguidor de ojos 3506. En este caso, el módulo seguidor de ojos 3506 muestra la imagen en una localización en el parabrisas que corresponde a la LOP actual del conductor 3502 (es decir, la localización de la imagen en el parabrisas cambia de acuerdo con la dirección de la mirada del conductor 3502).
Alternativamente, el módulo seguidor de ojos 3506 muestra la imagen de acuerdo con la posición de la cabeza del conductor 3502 relativa al vehículo 3504, como ha sido determinado por el módulo seguidor de ojos 3506. En este caso, el módulo seguidor de ojos 3506 muestra la imagen en una localización en el parabrisas que corresponde a la posición actual de la cabeza del conductor 3502 (es decir, la localización de la imagen en el parabrisas cambia de acuerdo con la posición de la cabeza del conductor 3502).
Se hace referencia a continuación a la figura 17B, que es una ilustración en vista delantera esquemática del sistema 3500 (figura 17A). Se hace notar que el módulo seguidor de ojos 3506 está montado en un lugar adecuado dentro del vehículo 3504, encarado al usuario.
Se hace notar adicionalmente que los haces de luz no son reflejados en la superficie de una lente (tal como un visor) como en realizaciones anteriores de la técnica desvelada, sino que hay un trayecto directo entre los haces de luz y el ojo del conductor 3502.
Se hace referencia a continuación a la figura 18, que es una ilustración esquemática de un sistema, que es en general designado por 3530, construido y operativo de acuerdo con otra realización de la técnica desvelada, siendo utilizado el sistema para dirigir un arma, en general designada por 3532, hacia un objetivo. El sistema 3530 incluye un seguidor de ojos 3534, un seguidor de posición de la cabeza 3536, un seguidor de la posición y la orientación del vehículo 3538, un conjunto de audio 3540 y un procesador 3542. El arma 3532, el seguidor de ojos 3534, el seguidor de posición de la cabeza 3536, el seguidor de la posición y la orientación del vehículo 3538 y el conjunto de audio 3540 están acoplados al procesador 3542.
El arma 3532 incluye un mecanismo de movimiento (no mostrado), tal como un actuador eléctrico, actuador hidráulico, actuador neumático, actuador piezoeléctrico, y otros similares. El procesador 3542 apunta el arma 3532 hacia el objetivo de acuerdo con los datos recibidos del seguidor de ojos 3534, del seguidor de la posición de la cabeza 3536 y del seguidor de la orientación y la posición del vehículo 3538, empleando el mecanismo móvil. El procesador 3542 dirige el montaje de audio 3540 para que suenen señales acústicas a un usuario (no mostrado), indicando los estados o modos de operación predeterminados del arma 3532.
Se hace notar que el procesador 3542 puede estar acoplado adicionalmente a otros sistemas (no mostrados) que confirman la identidad del objetivo en base a las características medidas y detectadas del mismo, tales como análisis de materiales (por ejemplo, si el objetivo está hecho de metal), el análisis de la forma (por ejemplo, en base al proceso de formación de imágenes orientado por forma), análisis de la actividad (por ejemplo, detección de las transmisiones procedentes del objetivo), y otros similares.
Lo que sigue es una descripción del visor activo 142. El nivel de dicroísmo del polarizador variable determina el nivel de polarización del polarizador variable en ese momento. El nivel de dicroísmo se define con respecto a una dirección específica del polarizador variable. Por ejemplo, se supone que A_{x} y A_{y} son las amplitudes de los componentes X e Y, respectivamente, de la onda electromagnética de un haz de luz que entra en un polarizador variable, y A'_{x} y A'_{y} son las magnitudes de los distintos componentes de la onda electromagnética de ese haz de luz a medida que sale del polarizador variable. Entonces, una medida del nivel de dicroísmo D_{x} puede darse con respecto al eje X como:
\vskip1.000000\baselineskip
1
\newpage
en donde
2
3
\vskip1.000000\baselineskip
y en donde se supone que
4
De manera similar,
5
\vskip1.000000\baselineskip
cuándo
\vskip1.000000\baselineskip
6
Se hace notar que en la descripción de la presente memoria descriptiva y a continuación, los valores relativo y absoluto de diversos parámetros, tales como iluminación, campo eléctrico, voltaje, dicroísmo, nivel de polarización, dirección, ángulo de orientación, y otros similares, son valores aproximados y no valores precisos.
Un "desfasador óptico" es un elemento óptico que retrasa o adelanta la fase de al menos un componente de polarización lineal de un haz de luz entrante en relación a otro componente polarizado linealmente del mismo o a un haz de luz de referencia. Se hace notar que cualquier haz de luz monocromática puede ser representado como una combinación de dos componentes polarizados linealmente cuyos campos electromagnéticos oscilan en direcciones ortogonales. El cambio de fase puede ser cualquier valor entre cero y 2\pi radianes, y múltiplos enteros de los mismos.
Un tipo de desfasador óptico que se llama placa en onda, retrasa un componente polarizado linealmente de un haz de luz entrante, en relación con el otro componente polarizado linealmente de ese haz de luz entrante, en una fracción de una longitud de onda (por ejemplo, \lambda/8, \lambda/4, 3\lambda/8, \lambda/n, y similares). Una placa en onda \lambda/4 es un ejemplo de una placa en onda de este tipo, también conocida como placa en cuarto de onda. Un placa en onda \lambda/4 linealmente polarizada retrasa un componente de un haz de luz que entra con una determinada longitud de onda \lambda, en un cuarto de longitud de onda \lambda/4, en relación con el otro componente de polarización lineal de ese haz de luz entrante. Como resultado, un haz de luz polarizada lineal de entrada, que está linealmente polarizada 45 grados con respecto a los ejes de la placa en onda \lambda/4, saldrá polarizada circularmente. Del mismo modo, un haz de luz entrante polarizada circularmente saldrá de la placa en onda \lambda/4 polarizada linealmente 45 grados con respecto a los ejes de la placa en onda \lambda/4.
La técnica desvelada es aplicable para la luz monocromática, así como para la luz policromática. Se hace notar que una placa en onda generalmente está pensada para una determinada longitud de onda \lambda. Sin embargo, la placa en onda todavía proporciona aproximadamente el mismo efecto para longitudes de onda cerca de \lambda. Por ejemplo, si el dispositivo está diseñado para la luz del sol, se puede utilizar una placa en onda destinada para una longitud de onda de 550 nm (es decir, aproximadamente la longitud de onda media del espectro de la luz solar).
El término "polarizador variable" en la presente memoria descriptiva y a continuación, se refiere a un elemento óptico cuyo nivel de polarización puede variar entre cero y un nivel de polarización predeterminado, al variar el campo eléctrico aplicado al mismo. Tal polarizador variable incluye una sustancia que afecta la luz, que es una combinación de una sustancia ópticamente activa y unas partículas que absorben la luz anisotrópica. En la descripción en la presente memoria descriptiva y a continuación, la expresión "sustancia que afecta a la luz" se refiere a una sustancia que aplica un nivel de polarización a la luz entrante, dependiendo de la dirección (es decir, directora) a lo largo de la cual se alinean las partículas que absorben la luz anisotrópica. Una sustancia ópticamente activa es una que afecta a la dirección de polarización o los componentes de la luz entrante, mientras que no tiene substancialmente ningún efecto sobre la intensidad de la luz entrante. Esa sustancia ópticamente activa puede ser, por ejemplo, cristal líquido, polímeros de cristal líquido, cristal birrefringente, polímero birrefringente, plástico birrefringente y otros similares.
Las partículas que absorben la luz anisotrópica pueden ser por ejemplo, moléculas de colorante dicroicos, microcristales dicroicos, materia colorante pleocroica, y otros similares. Cada uno de los colorantes dicroicos o pleocroicos se compone de moléculas lineales en forma de barra, que tienen una gran absorbencia anisotrópica, en las que la absorbencia anisotrópica depende de la orientación de las moléculas en forma barra de relación con la dirección de la luz incidente y la polarización de la luz incidente. Las partículas que absorben la luz anisotrópica están alineadas con la directora (es decir, la dirección de las moléculas de la sustancia ópticamente activa) en todo momento.
Preferiblemente, el cristal líquido (es decir, el anfitrión) se acopla al colorante dicroico o pleocroico (es decir, el huésped), mezclando el colorante en la fase de cristal líquido, generalmente designada como "fase de cristal líquido (GHLC) anfitrión - huésped". En la descripción en la presente memoria descriptiva y a continuación, se supone que las moléculas huéspedes y las moléculas anfitrionas son en forma de barra. Cuando estas moléculas de colorante se mezclan en una fase de cristal líquido neumática, las moléculas de colorante están alineadas a lo largo de la fase directora de cristal líquido, y como resultado, la absorción de moléculas de colorante presenta absorbencia conmutable, polarización conmutable y reflectancia o transmitancia conmutable.
El polarizador variable puede ser un dispositivo energizado continuamente, o un dispositivo energizado de forma intermitente. En caso del dispositivo energizado continuamente, la orientación de la moléculas en forma de barra (es decir, las moléculas de colorante) se fija en una dirección predeterminada mediante la aplicación continua de un campo eléctrico con un valor predeterminado respectivo, estableciendo de esta manera el dispositivo energizado continuamente en un nivel de polarización predeterminado.
Por ejemplo, cuando el campo eléctrico es aplicado, las moléculas en forma de barra son alineadas uniformemente perpendicularmente a la superficies límite del polarizador variable (es decir, el polarizador variable está en un estado homotrópico). Por el contrario, cuando no se aplica campo eléctrico, las moléculas en forma de barra están alineadas uniformemente paralelas a las superficies límite del polarizador variable (es decir, el polarizador variable está en un estado plano). De esta manera, mediante la aplicación de diferentes campos eléctricos a la sustancia que afecta a la luz del polarizador variable, el polarizador variable aplica diferentes niveles de polarización a la luz incidente. Una capa de alineación homotrópica alinea las moléculas en forma de barra en una dirección perpendicular a las superficies límites del polarizador variable, mientras que una capa de alineación plana alinea las moléculas en forma de barra en una dirección paralela a las superficies límite del polarizador variable.
En el caso de un dispositivo energizado de forma intermitente, el polarizador variable se puede establecer en el estado homotrópico, plano, o al menos en uno intermedio estable, mediante la aplicación de un impulso momentáneo de campo eléctrico que tiene una forma de pulsos predeterminada. Una celda de cristal líquido multi-estable tiene al menos dos estados estables, teniendo cada estado estable una determinada estructura cristalina líquida. Cada estructura tiene una energía de estado fundamental predeterminada (es decir, un pozo de energía). De esta manera, aplicando un campo eléctrico con una energía de energización predeterminada que supera un barrera de energía predeterminada respectiva, las celdas multi-estables se transfieren de una estructura a otra.
La celda multi-estable puede ser fabricada por medio de la aplicación de un procedimiento de alineación de superficie mixta plana y homotrópica. Cada estado estable corresponde a una fuerza de anclaje predeterminada respectiva de las moléculas en forma de barra (es decir, en cada estado estable, las moléculas en forma de barra están ancladas a la superficie límite de la célula con una fuerza predeterminada). Cuando la estructura de la sustancia que afecta a la luz se encuentra en el estado homotrópico, la luz incidente pasa a través suyo sin ser afectada de ninguna manera. Cuando la estructura de la sustancia que afecta a la luz se encuentra en el estado plano, solamente el componente de la luz que está linealmente polarizado en la dirección de las moléculas en forma de barra pasa a través suyo.
Un "desfasador óptico controlable" es un dispositivo que pueda funcionar en una pluralidad de estados de cambio de fase, que también pueden incluir un estado de cambio de no fase, así (es decir, sin aplicar ningún cambio de fase a la luz).
Un desfasador óptico controlable puede ser en forma de un desfasador óptico multi-estable que tiene una pluralidad de estados estables (es decir, los estados que se mantienen sin la aplicación de un campo eléctrico o de cualquier otra forma de energía). Se hace notar que un desfasador óptico multi-estable puede ser mantenido además en una pluralidad de estados inestables, por medio de la aplicación de diferentes campos eléctricos al mismo.
\newpage
Por ejemplo, el desfasador óptico controlable puede ser en forma de un cristal líquido nemático bi-estable trenzado (es decir, que tiene dos estados estables), un cristal líquido estabilizado con un polímero bi-estable, un cristal líquido estabilizado con una superficie bi-estable, y otros similares que tienen un grosor seleccionado y que en la presente memoria descriptiva y a continuación se designan por "desfasador óptico bi-estable". La estructura del desfasador óptico bi-estable puede conmutarse entre un estado no trenzado (o uniforme), y un estado trenzado, mediante la aplicación de un campo eléctrico momentáneo con una forma de pulsos predeterminada. El tipo de desfasador óptico bi-estable (por ejemplo, placa en onda \lambda/4, placa en onda \lambda/2, y otros similares), depende del grosor de la misma. Alternativamente, un desfasador óptico controlable puede ser en forma de un desfasador óptico conmutable, como se describe en la presente memoria descriptiva y a continuación en relación con la figura 4.
Por ejemplo, cuando la estructura de cristal líquido nemático trenzado se encuentra en el estado no trenzado, el desfasador óptico bi-estable funciona como una placa en onda \lambda/2. Cuando la estructura del cristal líquido nemático trenzado se encuentra en el estado trenzado, el desfasador óptico bi-estable pasa la luz incidente sin tener ningún efecto sobre la misma. El cristal líquido nemático trenzado puede cambiar desde el estado no trenzado al estado trenzado mediante la aplicación de un pulso de campo eléctrico de corta duración y del estado trenzado al estado no trenzado aplicando un pulso en disminución lenta o un pulso en disminución escalonada de campo eléctrico.
La distribución de fase de la sustancia que afecta a la luz se divide en dos clases. Clase 1 (o fase dispersa) es una fase líquida que consiste en microfases dispersas aleatoriamente y orientadas aleatoriamente, tales como gotitas de GHLC (GH-PDLC) o microdominios de GHLC, que están incrustados en matrices de polímeros. La Clase 2 (o fase homogénea) es otra fase líquida que consiste en una fase homogénea de GHLC, que pueden ser derivadas de materiales de cristal líquido y las fases nemáticas, nemáticas trenzadas, nemáticas supertrenzadas, colestéricas, fases esméticas, otras fases, y las combinaciones o mezclas de las mismas.
Cada una de las distribuciones de fase GHLC de clase 1 y de clase 2 puede ser en forma de una mezcla o de un compuesto químico. En una mezcla, las moléculas de colorante dicroico (es decir, las moléculas huéspedes) se mezclan en una concentración pequeña (aproximadamente 1-3%), en el cristal líquido (es decir, en las moléculas anfitrionas). En un compuesto químico, las partículas que absorben la luz anisotrópica y moléculas de la sustancia que afectan a la luz se acoplan conjuntamente en una unión química, tal como enlaces covalentes, enlaces de Van der Waals, puentes de hidrógeno, enlaces electrostáticos, enlaces iónicos, y otros similares.
Los diversos tipos de sustancias que afectan a la luz de clase 1 utilizadas en la técnica desvelada pueden incluir un Cristal Líquido Disperso (GH-PDLC) en Polímero Huésped - Anfitrión, Cristal Líquido Disperso en Polímero Dicroico y sus subclases, tales como Cristal Líquido de Textura Colestérica Estabilizada en Polímero (PSCT) y Cristal Líquido Poliméricos Alineado Curva Nemático (NCAP).
Las estructuras GHLC de la clase 1 suelen presentar dispersión de luz inherente debido a la anisotropía del índice de refracción de la fase de cristal líquido con respecto a la fase circundante. Como consecuencia, en la GHLC de clase 1, la dispersión de luz inherente tiene que ser eliminada o reducida a niveles insignificantes, especialmente en aplicaciones de tipo visor. Esto se puede conseguir mediante la aplicación de la fase GHLC a un material de cristal líquido de birrefringencia muy pequeña, sobre la base de anisotropía dieléctrica pequeña, estando el índice de cristal líquido medio cerca de la fase polimérica circundante. En tales casos, la anisotropía del índice de refracción entre el índice ordinario y el índice extraordinario es sustancialmente pequeña (por ejemplo, menor que 0,1), de manera que la dispersión de la luz se reduce considerablemente. La reducción de la dispersión de la luz también puede lograrse mediante la definición del tamaño de las microgotas o microdominios, para que sean significativamente menores que la longitud de onda de la luz en interacción. Los sistemas son predominantemente modulados en absorción, lo cual conduce a las características ADM y VTO deseadas.
La estructura de la distribución de microfase o de gotitas de GH-PDLC de clase 1 preferible no es esférica, teniendo una geometría anisotrópica tal como elíptica, geometría cizallada, geometría alargada, y otras similares. De esta manera es posible hacer que la fase de cristal líquido en las gotitas tenga una orientación preferente, lo que puede ser empleado además en el contexto de la técnica desvelada para incrementar el contraste de una o múltiples capas de polarizadores variables, como se describe en la presente memoria descriptiva y a continuación.
Una estructura de clase 2 puede ser un cristal líquido dicroico Huésped - Anfitrión (GH) que incorpora una fase homogénea nemática (Heilmeier), una fase colestérica (White-Taylor), una fase multi- estable, y otras similares. En los polarizadores variables de clase 2, los colorantes dicroicos huéspedes se mezclan con los anfitriones en fase de cristal líquido homogénea. Los medios que utilizan este tipo de materiales por lo general tienen la propiedad de la absorción pura de imágenes moduladas, sin ningún tipo de dispersión de la luz. Un GHLC normalmente cerrado se puede formar por ejemplo, mediante la mezcla de colorantes dicroicos de momentos dipolares adecuados en una celda GHLC nemática anisotrópica dieléctrica positiva trenzada. Esta celda tiene la fase de cristal líquido con la textura plana trenzada en ausencia de un campo eléctrico, produciendo un polarizador variable de tipo normalmente cerrado. Esta celda se puede conmutar a la fase homotrópica por la aplicación de un campo eléctrico, produciendo de esta manera un estado abierto.
De manera similar, la mezcla de colorantes adecuados dicroicos en una célula GHLC de anisotropía dieléctrica negativa producirá un polarizador variable de tipo normalmente abierto. Sin embargo, este tipo de celda convencionalmente produce contrastes pobres, y por lo tanto no es práctica en algunas aplicaciones debido al hecho de que la fase de cristal líquido obtenida bajo el campo eléctrico no es una textura plana pura, y por lo tanto produce una polarización insignificante.
Un polarizador variable normalmente abierto puede construirse mediante la adición de una pequeña cantidad de cristal líquido colestérico a la mezcla de GHLC nemática, y la aplicación de un proceso de alineación de superficies planas y de superficies homotrópicas mezcladas. Este proceso de alineación permite a las moléculas en forma de barra alinearse sustancialmente en la misma dirección, cuando se aplica un campo eléctrico al cristal líquido (es decir, la directora huésped - anfitrión está bien definida cuando se aplica un campo eléctrico). De esta manera, se obtiene un contraste significativo, especialmente en una configuración de celda doble, acoplada a una VTO normalmente transparente (abierta).
Se hace referencia a continuación a las figuras 19A, 19B, 19C y 19D. La figura 19A es una vista esquemática en perspectiva de un transmisor variable, en general designado por 4410, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. La figura 19B es una ilustración esquemática de una vista lateral del transmisor variable de la figura 19A. La figura 19C es una vista esquemática en perspectiva del transmisor variable de la figura 19A, en otro modo de funcionamiento. La figura 19D es una ilustración esquemática de una vista lateral del transmisor variable de la figura 19C.
El transmisor variable 4410 incluye polarizadores variables 4412 y 4414. Cada uno de los polarizadores variables 4412 y 4414 es similar al polarizador variable 102, como se ha descrito anteriormente en relación con la figura 1A. Cada uno de los polarizadores variables 4412 y 4414 es un polarizador variable normalmente abierto. Los polarizadores variables 4412 y 4414 se colocan uno respecto al otro en una manera de polarización cruzada (es decir, cuando se encuentran en un modo de polarización, la polarización de uno es perpendicular a la polarización del otro), como se describirá más ampliamente en la figura 19C. Se hace notar que la diferencia en la dirección de polarización del polarizador variable 4412 y del polarizador variable 4414 puede ser cualquier valor, sin embargo, el valor preferido con el fin de proporcionar un rango dinámico máximo es \pi/2 radianes.
Con referencia a las figuras 19A y 19B, cuando no se aplica un campo eléctrico a través del polarizador variable 4412, la dirección de las moléculas en forma de barra 4416 del mismo es paralela al eje Z (es decir, perpendicular al plano del polarizador variable 4412). Del mismo modo, cuando no se aplica un campo eléctrico a través del polarizador variable 4414, la dirección de las moléculas en forma de barra 4418 del mismo es paralela al eje Z (es decir, perpendicular al plano del polarizador variable 4414). De esta manera, cuando no se aplica ningún campo eléctrico a cada uno de los polarizadores variables 4412 y 4414, el polarizador variable respectivo transmite la luz entrante sin ejercer ningún efecto sobre la luz entrante y sin afectar la luminancia de la luz entrante. Los polarizadores variables 4412 y 4414 transmiten un haz de luz 4420 de un objeto 4422 que tiene una luminancia L_{1} sin afectar el valor de la luminancia L_{1} y un observador (no mostrado) visualiza una imagen 4424 del objeto 4422 en un plano de visualización 4426.
Con referencia a las figuras 19C y 19D, cuando un campo eléctrico se aplica a través del polarizador variable 4412, las moléculas en forma de barra 4416 tienden a ser alineadas en el eje Y, con lo que el polarizador variable 4412 funciona como un polarizador lineal y de esta manera reduce la luminancia de la luz entrante. De una manera similar, cuando se aplica un campo eléctrico a través del polarizador variable 4414, las moléculas en forma de barra 4418 tienden a ser alineadas con el eje X, con lo cual el polarizador variable 4414 funciona como un polarizador lineal y de esta manera reduce la luminancia de la luz entrante. El polarizador variable 4412 polariza linealmente el haz de luz 4420 a lo largo del eje Y, y como resultado un haz de luz 4428 emerge del polarizador variable 4412 cuya luminancia L_{2} es menor que la luminancia L_{1}. La dirección de polarización del haz de luz 4428 está representada por una flecha 4430. El polarizador variable 4414 polariza linealmente el haz de luz 4428 a lo largo del eje X, y como resultado, un haz de luz 4432 emerge del polarizador variable 4414, cuya luminancia L_{3} es inferior a la luminancia L_{2}. El observador ve una imagen 4434 de un objeto 4422 en el plano de visualización 4426, en el que la luminancia L_{3} de la imagen 4434 es inferior a la luminancia L_{1} del objeto 4422.
El transmisor variable 4410 puede incluir un conjunto de capas conductoras eléctricamente (no mostradas) y un conjunto de capas aislantes de la electricidad (no mostradas). Cada una de las capas conductoras eléctricamente está hecha de un material delgado, transparente y conductor de la electricidad, tal como un polímero conductor, vidrio revestido de indio - estaño - óxido, óxido de estaño, un metal (por ejemplo, oro y plata), y otros similares. Cada una de las capas aislantes de la electricidad se compone de una capa delgada, transparente y aislante eléctricamente, tal como un polímero inorgánico de dióxido de silicio, óxido de silicio, nitruro de silicio, y otros similares.
Una pareja de las capas conductoras eléctricamente aplica un campo eléctrico a través del polarizador variable 4412 y otra pareja de capas conductoras eléctricamente aplica un campo eléctrico a través del polarizador variable 4414. Se hace notar que cada uno de los pares de capas conductoras eléctricamente puede aplicar un campo eléctrico diferente al polarizador variable respectivo. Por ejemplo, el transmisor variable 4410 puede incluir una secuencia de capas de la siguiente manera: una capa de protección, una capa eléctricamente conductora, una capa de aislamiento eléctrico, un polarizador variable, una capa de aislamiento eléctrico, una capa eléctricamente conductora, una capa de aislamiento eléctrico, una capa conductora eléctricamente, una capa de aislamiento eléctrico, un polarizador variable, una capa de aislamiento eléctrico, una capa conductora eléctricamente y una capa de protección.
\newpage
Alternativamente, un pareja de capas conductoras eléctricamente aplica simultáneamente un campo eléctrico a través de los polarizadores variables 4412 y 4414. Por ejemplo, el transmisor variable 4410 puede incluir una secuencia de capas de la siguiente manera: una capa de protección, una capa eléctricamente conductora, una capa de aislamiento eléctrico, un polarizador variable, una capa de separación de LC, otro polarizador variable, una capa de aislamiento eléctrico, una capa conductora eléctricamente y una capa de protección. La capa de separación de LC se hace de un polímero transparente, tal como el nylon y otros similares, que separa dos polarizadores variables adyacentes e impide que las fases de LC de estos dos polarizadores variables se mezclen. Además, un controlador (no mostrado) puede estar acoplado a las capas conductoras eléctricamente y una fotocélula (no mostrada) puede estar acoplada al controlador.
Se hace notar adicionalmente que el transmisor variable 4410 puede ser empleado en diversos dispositivos ópticos, tales como gafas, visor de casco, visor de soldadura, periscopio, telescopio, microscopio, binoculares, ventanilla de vehículo de tierra, ventanilla de avión, ventanilla de naves espaciales, ventanilla de vehículos marinos , ventanas de visión, ventanas de invernadero, y otras similares. En el caso de que cada uno de los polarizadores variables sea en forma de celda de GHLC nemática trenzada bi-estable, durante un fallo de suministro eléctrico, un campo eléctrico con una forma determinada de pulso se puede aplicar a los polarizadores variables, permitiendo así que el transmisor variable transmita luz con la máxima intensidad. Se hace notar que el usuario puede ajustar el nivel de polarización de los polarizadores variables 4412 y 4414, estableciendo así el nivel de contraste y el brillo de la imagen 4424.
Se hace referencia a continuación a la figura 20, que es una ilustración esquemática de un transmisor variable, en general designado por 4490, construido y operativo de acuerdo con otra realización de la técnica desvelada. El transmisor variable 4490 puede ser un visor de casco, un visor de soldadura, y otros similares. El transmisor variable 4490 incluye una pluralidad de regiones de transmisión 4492, 4494 y 4496. Cada una de las regiones 4492, 4494 y 4496 es similar al transmisor variable 4410, como se ha descrito en la presente memoria descriptiva con anterioridad en relación con la figura 19A. De esta manera, un controlador (no mostrado) acoplado a las regiones 4492, 4494 y 4496 puede controlar el voltaje eléctrico aplicado y por lo tanto, el campo eléctrico aplicado en cada una de las regiones 4492, 4494 y 4496, con el fin de transmitir la luz entrante con una luminancia diferentes en cada región. Un controlador de este tipo puede ser acoplado adicionalmente a una cámara, a sensores de luz y otros similares, para ser operado por un usuario. En el ejemplo establecido en la figura 20, la región 4492 se establece con una transmitancia elevada y por lo tanto, parece muy transparente y las regiones 4494 y 4496 se han establecido con una transmitancia baja, y por lo tanto las regiones 4494 y 4496 parecen más apagadas que la región 4492.
Se hace notar adicionalmente que cada uno de entre el polarizador variable delantero y el polarizador variable trasero está dividido en una pluralidad de regiones, de forma similar a las regiones 4492, 4494 y 4496, en el que cada región del polarizador variable delantero es espacialmente compatible con otra región del polarizador variable trasero. El controlador establece una región del polarizador variable delantero con el mismo nivel de polarización que la región respectiva del polarizador variable trasero. De esta manera, el controlador permite que el transmisor variable transmita la luz a través de una región seleccionada, con una luminancia seleccionada.
Se hace referencia a continuación a la figura 21, que es una ilustración esquemática de un transmisor variable, que en general se designa por 4570, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. El transmisor variable 4570 incluye polarizadores variables 4572 y 4574 y un desfasador óptico bi-estable 4576. Los polarizadores variables 4572 y 4574 son similares a los polarizadores variables 4412 y 4414 (figura 19A), respectivamente, como se ha descrito en la presente memoria descriptiva con anterioridad.
Cada uno de los polarizadores variables 4572 y 4574 es un polarizador variable normalmente cerrado. De esta manera, cuando se aplican los campos eléctricos a los polarizadores variables 4572 y 4574, las moléculas en forma de barra 4578 y 4580 de los polarizadores variables 4572 y 4574, respectivamente, están alineadas a lo largo del eje Z. Cuando no hay campo eléctrico aplicado a los polarizadores variables 4572 y 4574, las moléculas en forma de barra 4578 se alinean a lo largo del eje Y y las moléculas en forma de barra 4580 se alinean con el eje X. El desfasador 4576 es un desfasador óptico bi-estable, que puede operar como un elemento óptico transparente o como una placa en media onda.
Los polarizador variables 4572 y 4574 están situados uno respecto al otro en una forma polarizada cruzada (es decir, cuando en un modo de polarización, la polarización de uno es perpendicular a la polarización del otro), de acuerdo con lo descrito en la presente memoria descriptiva con anterioridad en relación con la figura 19C. El desfasador óptico bi-estable 4576 se encuentra situado entre los polarizadores variables 4572 y 4574.
Durante el funcionamiento normal del transmisor variable 4570, el desfasador óptico bi-estable 4576 opera como un elemento óptico transparente. Se hace notar que el desfasador óptico bi-estable 4576 se puede disponer en el estado transparente del mismo mediante la aplicación de un pulso de forma predeterminada al desfasador bi-estable 4576 cuando el transmisor óptico variable 4570 se conecta y además durante la operación del mismo. En este modo de operación, cada uno de los polarizadores variables 4572 y 4574 pueden fijarse en niveles de polarización diferentes, mediante la aplicación de campos eléctricos de valores respectivos.
En los fallos de alimentación eléctrica, cuando los polarizadores variables 4572 y 4574 conmutan al modo cerrado, un campo eléctrico de una determinada forma de pulso se aplica al desfasador óptico bi-estable 4576, con lo que el desfasador óptico bi-estable 4576 opera como una placa en media onda. El desfasador óptico bi-estable 4576 retarda el componente de la luz incidente a través suyo, que tiene una dirección del eje óptico de 45 grados en relación con las moléculas en forma de barra 4578 y las moléculas en forma de barra 4580. Por lo tanto, el desfasador óptico bi-estable 4576 rota el ángulo de polarización de la luz recibida del polarizador variable 4572 y transmite esa luz polarizada al polarizador variable 4574. Puesto que el ángulo de polarización de la luz que incide sobre el polarizador variable 4574 coincide con la dirección de las moléculas en forma de barra 4580, esta luz pasa a través del polarizador variable 4574 sin sufrir una reducción de la intensidad. De esta manera, durante un corte eléctrico, el transmisor variable 4570 transmite a través suyo aproximadamente el 50% de la luz (no polarizada) que llega de un objeto 4582 situado en frente del polarizador variable 4572.
Se hace referencia a continuación a la figura 22, que es una ilustración esquemática de un procedimiento para transmitir la luz con una reflectancia variable, operativo de acuerdo con otra realización de la técnica desvelada. En el procedimiento 4600, el campo eléctrico en una superficie de entrada está controlado, con lo que en primer lugar se selecciona un nivel de polarización. En el ejemplo de las figuras 19A y 19C, el polarizador variable 4416 se establece ya sea en el estado homotrópico (es decir, un nivel de polarización cero) como se muestra en la figura 19A, o bien en un estado plano (es decir, un nivel de polarización no-cero) como se muestra en la figura 19C.
En el procedimiento 4602, el campo eléctrico en una superficie media está controlado, con lo que se selecciona un cambio de fase. En el ejemplo establecido en la figura 21, el desfasador óptico bi-estable 4576 puede operar como un elemento óptico transparente (es decir, aplicando un desplazamiento de fase cero) o una placa en media onda (es decir, aplicando un desplazamiento de fase de \pi radianes).
En el procedimiento 4604, el campo eléctrico en una superficie de salida está controlado, con lo que se selecciona un segundo nivel de polarización de la superficie de salida. En el ejemplo de las figuras 19A y 19C, el polarizador variable 4418 se establece ya sea en el estado homotrópico como se muestra en la figura 19A, o bien en un estado plano como se muestra en la figura 19C.
En el procedimiento 4606, la luz es polarizada por el primer nivel de polarización seleccionado. En el ejemplo establecido en la figura 19A, el polarizador variable 4416 transmite un haz de luz 4420 (es decir, aplica un nivel de polarización cero). En el ejemplo establecido en la figura 19C, el polarizador variable 4416 polariza el haz de luz 4420 en la dirección del eje Y (es decir, aplica un nivel de polarización no-cero).
En el procedimiento 4608, la fase relativa entre los dos componentes polarizados linealmente de la luz es desplazada por el desplazamiento de fase seleccionado. En el ejemplo establecido en la figura 21, el desfasador óptico bi-estable 4576 funciona como un elemento óptico transparente (es decir, aplica un desplazamiento de fase cero a la luz) o como una placa en media onda (es decir, desplaza linealmente la fase de uno de los componentes de la luz en \pi radianes).
En el procedimiento 4610, la luz es polarizada por el segundo nivel de polarización seleccionado. En el ejemplo establecido en la figura 19A, el polarizador variable 4418 transmite un haz de luz 4420 (es decir, aplica un nivel de polarización cero). En el ejemplo establecido en la figura 19C, el polarizador variable 4418 polariza haz de luz 4428 en la dirección del eje X (es decir, aplica un nivel de polarización no-cero). Se hace notar que el procedimiento no aplica necesariamente los procedimientos 4602 y 4608. Por ejemplo, el transmisor variable 4410 (figura 19A) puede ser operado aplicando una secuencia de procedimientos 4600, 4604, 4606 y 4610. Se señala además que los procedimientos 4600, 4602 y 4604 se pueden ejecutar en cualquier orden o simultáneamente.
De acuerdo con otro aspecto de la técnica desvelada, el polarizador variable incluye dos capas de protección que encierran un cristal líquido, una capa de superficie de alineación homotrópica y una capa de aislante eléctrico, en donde una de las capas de protección está recubierta con una pareja de electrodos interdigitales. Cuando no se aplica voltaje eléctrico a través de la pareja de electrodos, la capa de alineación de superficie homotrópica hace que las moléculas en forma de barra del cristal líquido sean alineadas perpendicularmente a la superficie de las capas de protección, con lo que el polarizador variable no aplica la polarización a la luz incidente. Cuando se aplica un voltaje eléctrico a través de la pareja de electrodos, el campo eléctrico generado entre los electrodos hace que las moléculas en forma de barra se alineen con respecto al campo eléctrico generado (es decir, con componentes paralelos a la superficie de las capas de protección), con lo que el polarizador variable aplica polarización a la luz incidente.
Se hace referencia a continuación a las figuras 23A, 23B, 23C, 23D, 23E, 23F y 23G. La figura 23A es una ilustración en esquema en perspectiva en despiece ordenado de un polarizador variable, que en general se designa por 4630, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. La figura 23B es una ilustración esquemática de la vista I (vista delantera) de una de las capas de protección del polarizador variable de la figura 23A, cuando no se aplica voltaje eléctrico a través de la pareja de electrodos de la capa de protección. La figura 23C es una ilustración esquemática en vista II (vista superior) del polarizador variable de la figura 23A en forma montada y cuando no se aplica un campo eléctrico a través de la pareja de electrodos de la capa de protección del polarizador variable de la figura 23A. La figura 23D es una ilustración esquemática de la vista I, (vista delantera) de una de las capas de protección del polarizador variable la figura 23A, cuando se aplica voltaje eléctrico a través de la pareja de electrodos de la capa de protección. La figura 23E es una ilustración esquemática de la sección transversal III de la pareja de electrodos de la figura 23D. La figura 23F es una ilustración esquemática de la vista II (vista superior) del polarizador variable de la figura 23A en una forma montada, que tiene un material dieléctrico LC de anisotropía positiva y un material huésped de anisotropía óptica positiva, y cuando se aplica un campo eléctrico a través de la pareja de electrodos de la capa de protección del polarizador variable la figura 23A. La figura 23G es una ilustración esquemática de vista II (vista superior) de un polarizador variable similar al polarizador variable de la figura 23A en forma montada, generalmente se designa por 4660, construido y operativo en acuerdo con otra realización de la técnica desvelada.
Con referencia a la figura 23A, el polarizador variable 4630 incluye las capas de protección 4632 y 4634, una capa de alineación 4636 y una sustancia que afecta a la luz (por ejemplo, de GHLC). Cada una de las capas de protección 4632 y 4634 es similar a la capa de protección 302 (figura 5), de acuerdo con lo descrito en la presente memoria descriptiva con anterioridad. La capa de alineación 4636 está hecha de un material dieléctrico inorgánico, tal como el dióxido de silicio o de un material dieléctrico orgánico, tal como alcohol de polivinilo, poliamida, sustancia fotopolimeriza, y otras similares. Las moléculas (no mostrado) de estos tipos de capas de alineación tienen ramas laterales (como en los polímeros injertados) que como consecuencia de la congestión (impedimento estérico) salen del plano de la capa molecular, con lo que sobresalen de este plano y producen un efecto homotrópico a la capa de alineación 4636. Una capa fotopolimerizada autoalineada se puede construir polimerizando las moléculas de una capa de alineación, con lo cual forma una capa homotrópica o una capa de alineación plana. En el ejemplo de las figuras 23A, 23B, 23C, 23D, 23E, 23F y 23G, la capa de alineación 4636 es una capa de alineación homotrópica.
El cristal líquido puede ser de clase 1 (dispersado) o de clase 2 (homogéneo) y cada clase puede ser en forma de una mezcla o un compuesto químico, como se ha descrito en la presente memoria descriptiva más arriba.
Una superficie 4640 de la capa de protección 4632 enfrentada a la capa de alineación 4636 está recubierta con un material eléctricamente conductivo y transparente, similar a la capa eléctricamente conductora, como se ha descrito en la presente memoria descriptiva con anterioridad en relación con la figura 19C. La superficie 4640 es grabada entonces por fotolitografía, en forma de una pareja de electrodos 4642 y 4644. Los electrodos 4642 y 4644 poseen una pluralidad de patillas 4646 y 4648, respectivamente, en los que las patillas 4646 y 4648 se entremezclan. Los electrodos 4642 y 4644 están acoplados a una fuente de alimentación (no mostrada) y la salida de la fuente de alimentación está controlada por un controlador (no mostrado). El electrodo 4642 está acoplado a un polo de la fuente de alimentación y el electrodo 4644 está acoplado al otro polo de la fuente de alimentación. La disposición de los electrodos 4642 y 4644 de esta manera, es designada en la presente memoria descriptiva y a continuación por "configuración en plano".
La capa de alineación 4636 se encuentra entre las capas de protección 4632 y 4634. Los electrodos 4642 y 4644 se encuentran en la superficie 4640 de la capa de protección 4632 y los electrodos 4642 y 4644 se encuentran entre la capa de protección 4632 y la capa de alineación 4636. Después del montaje de las capas de protección 4632 y 4634 y de la capa de alineación 4636, los bordes (no mostrados) del polarizador variable 4630 se obturan con un adhesivo y las separaciones entre las capas de protección 4632 y 4634, y la capa de alineación de 4636 se llenan con el cristal líquido, o, preferiblemente, con un material separador adecuado.
Con referencia a las figuras 23B y 23C, no se aplica voltaje eléctrico entre los electrodos 4642 y 4644 (es decir, una condición no energizada). Debido a la presencia de la capa de alineación 4636, las moléculas en forma de barra 4650 del cristal líquido se alinean a lo largo del eje Z (es decir, perpendiculares a la superficie 4640 y las superficies - no mostradas - del polarizador variable 4630). De esta manera, cuando no se aplica voltaje eléctrico a través de los electrodos 4642 y 4644, el polarizador variable 4630 transmite la luz incidente sin afectar a la luz incidente (es decir, el polarizador variable 4630 es del tipo normalmente abierto). En este caso, las partículas que absorben la luz anisotrópica (es decir, las moléculas de colorante) se alinean a lo largo de la dirección de las moléculas de la sustancia ópticamente activa (por ejemplo, las moléculas de cristal líquido), y las partículas que absorben la luz anisotrópica no afectan a la luz incidente en ningún caso.
De esta manera, cuando la capa de alineación 4636 es una capa de alineación homotrópica, la anisotropía dieléctrica de las moléculas anfitrionas es positiva y la anisotropía óptica de las moléculas huéspedes es positiva, el polarizador variable 4630 está normalmente abierto (N.O) (es decir, el polarizador variable 4630 transmite la luz entrante cuando no se aplica campo eléctrico a través de los electrodos 4642 y 4644). Por consiguiente, la utilización de la configuración de electrodo en plano, en conjunto con la alineación homotrópica y una combinación de material GH positiva - positiva, proporciona una nueva variante de accionamiento de celda del tipo N.O (transparente).
Con referencia a la figura 23D, el controlador controla el funcionamiento de la fuente de alimentación para aplicar un voltaje V_{1} a través de los electrodos 4642 y 4644 (es decir, una condición energizada). Con referencia a la figura 23E, un campo eléctrico es generado por cada pareja de patillas contiguas 4646 y 4648, en la dirección del eje -X. Con referencia a la figura 23F, las moléculas en forma de barra 4650 que tienen anisotropía dieléctrica positiva, se alinean a lo largo de los campos eléctricos generados (es decir, a lo largo del eje X y paralelas a la superficie 4640 y a las superficie de las capas de protección 4632 y 4634). De esta manera, cuando un voltaje eléctrico se aplica a través de los electrodos 4642 y 4644, el polarizador variable 4630 aplica una polarización a la luz incidente, con un nivel que corresponde al valor del voltaje eléctrico aplicado.
El polarizador variable 4630 puede tener un radio de curvatura positivo (es decir, es convexo), un radio de curvatura negativo (es decir, es cóncavo), o una combinación de radios de curvatura positivo y negativo (es decir, un plano curvado arbitrario), así como ser prácticamente plano. El polarizador variable 4630 puede ser utilizado en un medio líquido así como en uno gaseoso. El polarizador variable 4630 puede ser flexible así como rígido.
\newpage
Se hace notar que el cristal líquido del polarizador variable 4630 puede ser un GHLC multi-estable. Por ejemplo, el cristal líquido puede ser en forma de un cristal líquido nemático trenzado bi-estable (es decir, que tiene dos estados estables), un cristal líquido estabilizado con polímero bi-estable, un cristal líquido estabilizado con una superficie bi-estable, y otros similares. En este caso, la aplicación de un pulso eléctrico predeterminado a través de los electrodos 4642 y 4644 hace que las moléculas en forma de barra 4650 se alineen a lo largo del eje Z o del eje X.
Un pareja de polarizadores variables 4630 puede ser empleada como un transmisor variable, similar al transmisor variable 4410 (figura 19A). En este caso, se pueden aplicar diferentes voltajes a través de los electrodos de los dos polarizadores variables, lo que permite el control de la intensidad de la luz incidente que pasa a través del transmisor variable. Se hace notar adicionalmente que, puesto que cada uno de estos polarizadores variables es de tipo normalmente abierto, el transmisor móvil que emplea estos polarizadores variables es un reflector variable o transmisor variable, respectivamente, de tipo de seguridad contra fallos(es decir, el transmisor variable transmite la luz incidente sin afectar a la intensidad de la luz incidente, en caso de fallo de alimentación).
Se hace notar adicionalmente que la anisotropía dieléctrica de las moléculas anfitrionas (es decir, las moléculas en forma de barra) del polarizador variable en el que los electrodos están dispuestos en una configuración en plano, puede ser positiva o negativa. De manera similar, la anisotropía óptica de las moléculas huéspedes (por ejemplo, las moléculas de colorante dicroicas o pleocroicas), puede ser positiva o negativa. Construyendo el polarizador variable con diferentes combinaciones de moléculas anfitrionas y de moléculas huéspedes, el polarizador variable puede operar en las modalidades que siguen, como se resume en la Tabla I. El modo paralelo plano de la operación tal como se resume en el cuadro I, se describe en la presente memoria descriptiva y a continuación en relación con la figura 24A.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Tabla pasa a página siguiente)
TABLA I Parámetros de celdas GH-LC para celdas homotrópicas alineadas para dos estructuras de electrodos y para cuatro combinaciones GH anisotrópicas
7
\newpage
Las combinaciones de LC-p y LC-n se refieren a la anisotropía dieléctrica positiva o negativa del cristal líquido, respectivamente, mientras que las combinaciones de G-p y G-n se refieren a la anisotropía óptica positiva o negativa de la molécula de colorante huésped, respectivamente
Las directoras corresponden a los ejes del sistema de coordenadas que se ilustra en la figura 23A y en la figura 24A como se describe en la presente memoria descriptiva y a continuación.
Con referencia a la figura 23G, el polarizador variable 4660 incluye las capas de protección 4662 y 4664 y una capa de alineación 4666. La capa de alineación 4666 es una capa de alineación homotrópica y está situada entre las capas de protección 4662 y 4664. Las moléculas anfitrionas del polarizador variable 4660 tienen anisotropía dieléctrica negativa, las moléculas huéspedes de las mismas tienen anisotropía óptica positiva. Cuando se aplica un campo eléctrico a través de un pareja de electrodos similares a los electrodos 4642 (figura 23D) y 4644), las moléculas en forma de barra 4668 del polarizador variable 4660 están alineadas en la dirección Y (véase la Tabla I más arriba para la estructura de electrodos en plano y el material LC-n + Gp GH).
Se hace notar que puesto que las moléculas en forma de barra 4668 están alineadas a lo largo de la pareja de electrodos similares a los electrodos 4642 y 4644, el contraste de una imagen polarizada (no mostrada) que polariza el polarizador variable 4660 es mayor que el del polarizador variable 4630. Ambas configuraciones que se muestran en las figuras 23F y 23G, de acuerdo con lo descrito en la presente memoria descriptiva con anterioridad, presentan una simple alineación homotrópica homogénea, uniformidad eléctrica, y son altamente reproducibles en la fabricación. Se hace notar que el polarizador variable 4630 se pueden incorporar con un transmisor variable 4410 (figura 19A), reemplazando a los polarizadores variables 4412 y 4414.
Se hace referencia a continuación a las figuras 24A, 24B, 24C y 24D. La figura 24A es una ilustración en perspectiva esquemática en despiece ordenado de un polarizador variable, que en general se designa por 4670, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. La figura 24B es una ilustración esquemática de la sección IV del polarizador variable de la figura 24A, cuando no se aplica voltaje eléctrico entre los electrodos interdigitales y el electrodo plano de las capas de protección del polarizador variable de la figura 24A. La figura 24C es una ilustración esquemática de la sección IV del polarizador variable de la figura 24A, operando en un modo en plano. La figura 24D es una ilustración esquemática de la sección transversal IV del polarizador variable de la figura 24A, operando en un modo paralelo plano.
Con referencia a la figura 24A, el polarizador variable 4670 incluye las capas de protección 4672 y 4674, capas de aislamiento eléctrico 4676 y 4678, una capa de alineación 4680 y sustancia que afectan a la luz (no mostrada). Cada una de las capas de protección 4672 y 4674 está hecha de un material transparente que transmite una gran parte de la luz sin distorsionar la imagen, como el vidrio, cristal, polímero, plástico y otros similares. Cada una de las capas de aislamiento eléctrico 4676 y 4678 es similar a las capas de aislamiento eléctrico que se han descrito anteriormente en relación con la figura 19C. La capa de alineación 4680 es similar a la capa de alineación 4636 (figura 23A), como se ha descrito en la presente memoria descriptiva más arriba. En el ejemplo establecido en las figuras 24A, 24B, 24C y 24D, la capa de alineación 4680 es una capa de alineación homotrópica. En el ejemplo establecido en las figuras 24A, 24B, 24C y 24D, las moléculas anfitrionas de LC tiene una anisotropía dieléctrica positiva y las moléculas huéspedes tienen una anisotropía óptica positiva. La sustancia que afecta a la luz puede ser de clase 1 (dispersa) o de clase 2 (homogénea) y cada clase puede ser en forma de una mezcla o un compuesto químico, como se ha descrito en la presente memoria descriptiva más arriba.
La capa de protección 4672 está recubierta con una pareja de electrodos interdigitales 4682 y 4684 sobre una superficie 4686 de la capa de protección 4672. Los electrodos interdigitales 4682 y 4684 se construyen de una manera similar a la construcción de los electrodos 4642 (figura 23A) y 4644, de acuerdo con lo descrito en la presente memoria descriptiva más arriba. Los electrodos interdigitales 4682 y 4684 incluyen una pluralidad de patillas 4688 y 4690, respectivamente. La capa de protección 4674 está recubierta con un electrodo plano 4692 sobre una superficie 4694 de la misma. El electrodo plano 4692 está hecho de un material conductor de electricidad y transparente, tal como las capas conductoras de electricidad que se han descrito en la presente memoria descriptiva más arriba en relación con la figura 19C.
La capa de aislamiento eléctrico 4676 se encuentra situada entre la capa de protección 4674 y la capa de alineación 4680. La capa de alineación 4680 se encuentra situada entre la capa de aislamiento eléctrico 4676 y la capa de aislamiento eléctrico 4678. La capa de aislamiento eléctrico 4678 se encuentra situada entre la capa de alineación de 4680 y la capa de protección 4672. Los electrodos interdigitales 4682 y 4684 se encuentran situados en la superficie 4686 de la capa de protección 4672 y los electrodos interdigitales 4682 y 4684 se encuentran situados entre la capa de protección 4672 y la capa de aislamiento eléctrico 4678. El electrodo plano 4692 se encuentra situado en la superficie 4694 de la capa de protección 4674 y el electrodo plano 4692 se encuentra situado entre la capa de protección 4674 y la capa de aislamiento eléctrico 4676.
Los electrodos interdigitales 4682 y 4684 y el electrodo plano 4692 están acoplados a una fuente de alimentación (no mostrada) y la salida de la fuente de alimentación es controlada por un controlador (no mostrado). El controlador controla el acoplamiento entre los polos de la fuente de alimentación y los electrodos interdigitales 4682 y 4684 y el electrodo plano 4692, lo que permite el funcionamiento del polarizador variable 4670, ya sea en el modo en plano (de acuerdo con lo descrito en la presente memoria descriptiva más arriba en relación con la figura 23A), o en el modo paralelo plano (como se describe en la presente memoria descriptiva más arriba en relación con la figura 19C). El controlador también controla la potencia de la fuente de alimentación, permitiendo así que el polarizador variable 4670 aplique diversos niveles de polarización y absorbencia a la luz entrante.
Con referencia a la figura 24B, no se aplica voltaje eléctrico a través de los electrodos interdigitales 4682 y 4684 y el electrodo plano 4692. Debido a la presencia de la capa de alineación 4680, las moléculas en forma de barra 4696 de la sustancia que afecta a la luz se alinean a lo largo del eje Z (es decir, perpendiculares a la superficie 4686 y 4694). De esta manera, cuando no se aplica voltaje eléctrico a través de los electrodos interdigitales 4682 y 4684 y el electrodo plano 4692, el polarizador variable 4670 transmite la luz incidente sin afectar a la luz incidente (es decir, el polarizador variable 4670 es del tipo normalmente abierto).
Con referencia a la figura 24C, el controlador acopla las patillas 4688 de los electrodos interdigitales 4682 a un polo de la fuente de alimentación y las patillas 4690 de los electrodos interdigitales 4684 al otro polo de la fuente de alimentación, con lo cual se aplica un voltaje V_{2} a través de las patillas 4688 y 4690. En este caso, el polarizador variable 4670 opera en el modo en plano, como se ha descrito en la presente memoria descriptiva y anteriormente en relación con la figura 23A. El campo eléctrico generado entre las patillas 4688 y 4690 hace que las moléculas en forma de barra 4696 se alineen con el eje X (véase la Tabla I, en la presente memoria descriptiva más arriba, para la estructura de electrodo en el plano y el material GH LC-P + GP). Por lo tanto, el polarizador variable 4670 aplica un nivel de polarización a la luz entrante, con lo que se conmuta al estado cerrado.
Con referencia a la figura 24D, el controlador acopla los electrodos interdigitales 4682 y 4684 a un polo de la fuente de alimentación y el electrodo plano 4692 al otro polo de la fuente de alimentación. La fuente de alimentación aplica un voltaje V_{3} entre los electrodos interdigitales 4682 y 4684, por una parte y el electrodo plano 4692 por la otra parte. En este caso, el polarizador variable 4670 opera en el modo de plano paralelo, en el que el campo eléctrico generado entre los electrodos interdigitales 4682 y 4684 por un lado y el electrodo plano 4692 por el otro, hace que las moléculas en forma de barra 4696 sean alineadas a lo largo del eje Z (véase la Tabla I para la estructura de electrodo paralela plana y el material de GH LC-P + GP). De esta manera, el polarizador variable 4670 vuelve al estado abierto.
Se hace notar que la conmutación desde el estado cerrado al estado abierto, desconectando la energía eléctrica en el modo de operación en el plano (es decir, la figura 24B), tiene un orden de magnitud más largo que conectar la electricidad en el modo paralelo plano de la operación (es decir, la figura 24D). Este tiempo de conmutación depende de la magnitud del campo eléctrico, la forma del pulso, los movimientos térmicos moleculares y los materiales y los parámetros del polarizador variable 4670. La conservación en el tiempo de conmutación se aplica a otras combinaciones de anisotropía óptica dieléctrica y anisotropía óptica de las moléculas anfitrionas y de las moléculas huéspedes, respectivamente, en el polarizador variable con la alineación homotrópica (Tabla I, más arriba), así como la alineación plana (Tabla II, más abajo).
De esta manera, la combinación de modo en plano y modo paralelo plano de la operación en el polarizador variable 4670 permite una operación más flexible y una conmutación más rápida entre los diferentes niveles de iluminación. Además, la combinación del modo en plano y del modo paralelo plano de la operación en el polarizador variable 4670 proporciona una imagen con un contraste mejorado y permite controlar más eficientemente la anisotropía molecular espacial.
Los esquemas adicionales de multi transmisión que utilizan la configuración simultánea en plano y plano paralelo d pueden derivarse de los Tablas I y II. La Tabla II resume las diferentes combinaciones posibles de la anisotropía de material GH en conjunto con la alineación plana y las configuraciones diferentes de electrodos (es decir, en la configuración en plano y en la configuración paralela - plana).
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Tabla pasa a página siguiente)
TABLA II Parámetros de celda de GH- LC para celdas alineadas planas para estructuras de dos electrodos y cuatro combinaciones de anisotropía de GH
8
\newpage
\global\parskip0.900000\baselineskip
Las combinaciones de LC-p y LC-n se refieren a la anisotropía dieléctrica positiva o negativa del cristal líquido, respectivamente, mientras que las combinaciones de G-p y G-n se refieren a la anisotropía óptica positiva o negativa de las moléculas de colorante huésped, respectivamente
Las directoras corresponden a los ejes del sistema de coordenadas que se ilustra en las figuras 23A y 24A.
Se hace referencia a continuación a la figura 25, que es una ilustración esquemática en perspectiva de una capa de protección, en general designada por 4720, de un polarizador variable construido y operativo de acuerdo con otra realización de la técnica desvelada. La capa de protección 4720 se divide en una pluralidad de secciones 4722, 4724 y 4726.
Una pareja de electrodos 4728 y 4730 son grabados en la sección 4722. Una pareja de electrodos 4732 y 4734 son grabados en la sección 4724. Un pareja de electrodos 4736 y 4738 son grabados en la sección 4726. Un voltaje V_{4} se aplica a través de los electrodos 4728 y 4730. Un voltaje V_{5} se aplica a través de los electrodos 4732 y 4734. Un voltaje V_{6} se aplica a través de los electrodos 4736 y 4738. Cuando la capa de protección 4720 se incorpora en un polarizador variable (no mostrado), similar al polarizador variable 4630 (figura 23A), los voltajes V_{4}, V_{5} y V_{6} pueden ser controlados individualmente, de manera que cada sección del polarizador variable (como las secciones 4722, 4724 y 4726), aplica un nivel diferente de polarización a la luz incidente.
Una capa de protección similar a la capa de protección 4720 se puede incorporar en un polarizador variable similar al polarizador variable 4670, en el que una capa de protección similar a la capa de protección 4674 incluye una pluralidad de distintos electrodos planos similares al electrodo plano 4692. El controlador conmuta la energía eléctrica a una pareja de electrodos similares a los electrodos 4728 y 4730 por un lado y a un electrodo plano respectivo por el otro lado, permitiendo así que el polarizador variable aplique un nivel de polarización a la luz incidente en la sección respectiva del mismo de forma similar a la sección 4722. En este caso también, el polarizador variable puede funcionar en el modo en plano o en el modo paralelo plano.
Se hace referencia a continuación a la figura 26, que es una ilustración esquemática del sistema de seguimiento de cabeza de la figura 1A, construido y operativo de acuerdo con una realización adicional de la técnica desvelada. El sistema de seguimiento de cabeza 136 incluye un procesador de posición y orientación 5182, una interfaz de transmisión 5184, una pluralidad de unidades de tablas de consulta 5186_{1}, 5186_{2} y 5186_{3}, una pluralidad de convertidores digital a analógico (DAC) 5188_{1}, 5188_{2} y 5188_{3}, un amplificador 5190, un transmisor 5192, una pluralidad de sensores 5194_{1}, _{51}94_{2}, _{51}94_{3} y 5194_{N} (es decir, detectores de posición y orientación), una pluralidad de convertidores analógico a digital (ADC) 5196_{1}, 5196_{2}, _{51}96_{3} y 5196_{N} y una interfaz de sensor 5198.
El transmisor de interfaz 5184 está acoplado al procesador de posición y orientación 5182 y a las unidades de tabla de consulta 5186_{1}, 5186_{2} y 5186_{3}. Las unidades CAD 5188_{1}, 5188_{2} y 5188_{3} están acopladas a una unidad respectiva de tabla de consulta 5186_{1}, 5186_{2} y 5186_{3} y al amplificador 5190. El amplificador 5190 está acoplado adicionalmente al transmisor 5192. El transmisor 5192 también está marcado TX. Los sensores 5194_{1}, 5194_{2}, 5194_{3} y 5194_{N} están marcados adicionalmente RX_{1}, RX_{2}, RX_{3} y RX_{N}, respectivamente.
Los convertidores analógico a digital (ADC) 5196_{1}, 5196_{2}, 5196_{3} y 5196_{N} están acoplados respectivamente a los sensores 5194_{1}, 5194_{2}, 5194_{3} y 5194_{N} y a la interfaz de sensor 5198. La interfaz de sensor 5198 está acoplada adicionalmente al procesador de posición y orientación 5182.
Cada una de las unidades de tabla de consulta 5186_{1}, 5186_{2} y 5186_{3} produce una secuencia cíclica de números y la proporciona a la unidad respectiva CAD 5188_{1}, 5188_{2} y 5188_{3}, que a su vez la traduce a su señal analógica respectiva. Cada una de las señales analógicas es respectiva de un eje espacial diferente. En el presente ejemplo, la tabla de consulta 5186_{1} y la unidad DAC 5188_{1} producen una señal para el eje X, la tabla de consulta 5186_{2} y la unidad DAC 5188_{2} producen una señal para el eje Y, y la tabla de consulta 5186_{3} y la unidades DAC 5188_{3} producen una señal para el eje Z.
Las unidades DAC 5188_{1}, 5188_{2} y 5188_{3} proporcionan sus respectivas señales analógicas a un amplificador 5190, que amplía y proporcionan las señales amplificadas al transmisor 5192. El transmisor 5192 proporciona un campo electromagnético de ejes múltiples, que pueden ser detectados por los sensores 5194_{1}, 5194_{2}, 5194_{3} y 5194_{N}. Cada uno de los sensores 5194_{1}, 5194_{2}, 5194_{3} y 5194_{N} detecta un campo electromagnético, produce una señal eléctrica analógica respectiva y la proporciona a la unidad ADC respectiva 5196_{1}, 5196_{2}, 5196_{3} y 5196_{N}, acoplada a la misma. Cada una de las unidades ADC 5196_{1}, 5196_{2}, 5196_{3} y 5196_{N} digitaliza la señal analógica alimentada a la misma, la convierte en una secuencia de números y la proporciona a una interfaz de sensor 5198, que a su vez la proporciona al procesador de posición y orientación 5182.
El procesador de posición y orientación 5182 analiza las secuencias de números recibidas, con lo que determina la posición y orientación de cada uno de los sensores 5194_{1}, 5194_{2}, 5194_{3} y 5194_{N}. El procesador de posición y orientación 5182 determina adicionalmente los sucesos de distorsión y actualiza las tablas de consulta 5186_{1}, 5186_{2} y 5186_{3} en consecuencia.
Podrá ser apreciado por los expertos en la técnica que la técnica desvelada no se limita a lo que se ha mostrado y descrito en la presente memoria descriptiva más arriba. Por el contrario, el alcance de la técnica desvelada está definido solamente por las reivindicaciones que siguen.
\global\parskip1.000000\baselineskip

Claims (21)

1. Sistema para comunicación audiovisual, comprendiendo el sistema: un sistema para la determinación de una línea de visión para determinar una línea de visión de usuario de al menos un ojo de un usuario, y un sistema de visualización de imágenes, acoplado al citado sistema de determinación de la línea de visión, mostrando el citado sistema de visualización de imágenes al menos una imagen suplementaria para el citado al menos un ojo, y controlando la al menos una propiedad de la citada al menos una imagen suplementaria y una imagen de escena, de acuerdo con la citada línea de visión determinada del usuario, estando caracterizado el sistema porque comprende, además
un sistema de audio multi-dimensional que está acoplado al citado sistema de determinación de línea de visión, produciendo el citado sistema de audio multi-dimensional sonido multi-dimensional para ser oído por el citado usuario, de acuerdo con la localización de al menos una señal de entrada relativa a la posición y a la orientación de la cabeza del citado usuario.
2. El sistema de acuerdo con la reivindicación 1, que comprende además un sistema de voz direccional para el procesamiento de la voz del citado usuario de acuerdo con la línea de visión determinada del citado usuario.
3. El sistema de acuerdo con la reivindicación 1, en el que un micrófono recibe una interrogación respectiva de la citada imagen de escena del citado usuario, respectiva de la citada imagen de escena que el citado usuario está mirando en ese momento.
4. El sistema de acuerdo con la reivindicación 3, en el que el citado micrófono es direccional y se encuentra situado dentro de un volumen cónico que define una geometría de disipación de las ondas sonoras generadas por el habla del citado usuario.
5. El sistema de acuerdo con la reivindicación 3, en el que un altavoz produce un sonido verbal para el citado usuario de acuerdo con la citada interrogación, el citado sonido verbal es respectivo de la citada imagen de escena y está asociado a la citada línea de visión de usuario determinada.
6. El sistema de acuerdo con la reivindicación 3, en el que el citado sistema de visualización muestra la citada al menos una imagen suplementaria de acuerdo con la citada interrogación, la citada al menos una imagen suplementaria es respectiva de la citada imagen de escena y está asociada a la citada línea de visión del usuario determinada,
y
en el que el citado sistema de visualización muestra al menos una imagen suplementaria en una localización de un visor de un dispositivo montado en cabeza, que está en una la línea de visión actual del citado usuario y en la citada imagen de escena.
7. El sistema de acuerdo con la reivindicación 3, en el que el citado sistema de visualización de imágenes muestra al menos una imagen suplementaria de acuerdo con la citada interrogación, siendo respectiva la citada al menos una imagen suplementaria de la citada imagen de escena y asociada a la posición y orientación de la cabeza del citado usuario, estando determinada la citada posición y orientación por un sistema de seguimiento de la cabeza, y
en el que el citado sistema de visualización de imágenes muestra al menos una imagen suplementaria sobre una localización en un visor de un dispositivo montado en cabeza, el cual está sustancialmente alineado con la citada posición y orientación y con la citada la imagen de escena.
8. El sistema de acuerdo con la reivindicación 3, en el que el citado sistema de visualización de imágenes muestra al menos una imagen suplementaria, de acuerdo con la citada interrogación, la citada al menos una imagen suplementaria es respectiva de la citada imagen de escena y está asociada a la citada línea de visión del usuario determinada,
y
en el que el citado sistema de visualización de imágenes muestra al menos una imagen suplementaria sobre una localización en un parabrisas de un vehículo, que se encuentra situada en una línea de visión actual del citado usuario y de la citada imagen de escena.
9. El sistema de acuerdo con la reivindicación 3, en el que el citado sistema de visualización de imágenes muestra la citada al menos una imagen suplementaria de acuerdo con la citada interrogación, la citada al menos una imagen suplementaria es respectiva de la citada imagen de escena y está asociada con la posición y la orientación de la cabeza del citado usuario, siendo determinadas la citada posición y orientación por el citado sistema de determinación de la línea de visión, y
en el que el citado sistema de visualización de imágenes muestra la citada al menos una imagen suplementaria sobre una localización en un parabrisas de un vehículo, que está sustancialmente alineada con la citada posición y orientación y con la citada imagen de escena.
\newpage
10. El sistema de acuerdo con la reivindicación 1, en el que una memoria registra la información verbal proporcionada por el citado usuario por medio de un micrófono mientras el citado usuario está mirando la citada imagen de escena, siendo respectiva la citada información verbal de la citada imagen de escena y asociada a la citada línea de visión del usuario determinada.
11. El sistema, de acuerdo con la reivindicación 1, que comprende además: una cámara direccional acoplada al citado sistema de determinación de la línea de visión, y
al menos un mecanismo de movimiento acoplado a la citada cámara direccional,
en el que el citado al menos un mecanismo de movimiento mueve la citada cámara direccional de acuerdo con la citada línea de visión del usuario determinada.
12. El sistema de acuerdo con la reivindicación 1, en el que el citado sistema de determinación de la línea de visión comprende un seguidor de ojos, estando acoplado el citado seguidor de ojos a un dispositivo montado en cabeza del citado usuario, determinando el citado seguidor de ojos la citada línea de visión del usuario en un primer sistema de coordenadas.
13. El sistema de acuerdo con la reivindicación 12, en el que el citado sistema de determinación de la línea de visión comprende un sistema de seguimiento de la cabeza, estando acoplado el citado sistema de seguimiento de la cabeza al citado seguidor de ojos y al citado dispositivo montado en cabeza,
en el que el citado sistema de seguimiento de la cabeza determina la posición y la orientación del citado usuario en un segundo sistema de coordenadas y
en el que el citado seguidor de ojos determina la citada línea de visión del usuario en el citado segundo sistema de coordenadas, de acuerdo con la citada posición y orientación.
14. El sistema de acuerdo con la reivindicación 13, que comprende además: un sistema de posicionamiento de respaldo; y
un procesador acoplado al citado sistema de posicionamiento de respaldo, al citado sistema de determinación de la línea de visión y al citado sistema de visualización de imágenes,
en el que el citado sistema de posicionamiento de respaldo determina la citada posición y orientación en el citado segundo sistema de coordenadas y en el que el citado el procesador controla el funcionamiento del citado sistema de determinación de la línea de visión del citado sistema de visualización de imágenes.
15. El sistema de acuerdo con la reivindicación 13, que comprende además: un sistema de posicionamiento de respaldo y
un procesador acoplado al citado sistema de posicionamiento de respaldo, al citado sistema de determinación de la línea de visión y al citado sistema de visualización de imágenes.
16. El sistema de acuerdo con la reivindicación 1, que comprende además un sistema de reducción de ruido de comunicaciones por audio, en el que el citado sistema de reducción de ruido de comunicaciones por audio produce una señal substancialmente libre de ruidos de un sonido acústico, el citado sistema de reducción de ruido de comunicaciones por audio produce al menos un sonido, el citado al menos un sonido incluye un sonido deseado y un sonido de ruido en oposición de fase, el citado sonido de ruido en oposición de fase se encuentra en oposición de fase relativa a un ruido, el citado sistema de reducción de ruido de comunicaciones por audio comprende:
un transductor acústico eléctrico para producir una señal de sonido que soporta un ruido mediante la detección del citado sonido acústico y del citado ruido;
un transductor acústico eléctrico de referencia para producir una señal de ruido de referencia mediante la detección del citado sonido en un entorno ruidoso, y
un controlador de audio acoplado al citado transductor acústico eléctrico de referencia y al citado transductor acústico eléctrico,
en el que el citado controlador de audio produce la citada señal sustancialmente libre de ruido de acuerdo con la citada señal de ruido de referencia y la citada señal de sonido de soporte de ruido.
17. El sistema de acuerdo con la reivindicación 16, en el que el citado sistema de reducción de ruido de comunicaciones por audio, el citado sistema de determinación de la línea de visión y el citado sistema de visualización de imágenes se acoplan entre sí por medio de un procesador y se acoplan adicionalmente a un dispositivo montado en cabeza.
18. El sistema, de acuerdo con la reivindicación 14, que comprende además: una interfaz de comunicaciones está acoplada al citado procesador;
una red acoplada a la citada interfaz de comunicaciones, y al menos un ordenador fijo acoplado a la citada red,
en el que el citado procesador controla el funcionamiento del citado sistema de determinación de la línea de visión y del citado sistema de visualización de imágenes de acuerdo con las señales recibidas desde la citada interfaz de comunicaciones.
19. El sistema de acuerdo con la reivindicación 18, en el que el citado al menos un ordenador estacionario se selecciona de la lista que consiste en:
un ordenador local de a bordo;
un ordenador remoto de a bordo;
un ordenador basado en tierra, y
un ordenador basado en satélite.
20. El sistema de acuerdo con la reivindicación 1, en el que la citada al menos una propiedad es seleccionada de la lista que consiste en: la localización de la citada al menos una imagen suplementaria en relación con la citada línea de visión del usuario determinada;
la intensidad de la luz de la citada al menos una imagen suplementaria, y la intensidad de la luz de la citada imagen de escena.
21. Procedimiento para la comunicación audiovisual, comprendiendo el procedimiento los procedimientos de:
determinar la línea de visión del usuario de al menos un ojo de un usuario; mostrar al menos una imagen suplementaria para el al menos uno ojo, y controlar al menos una propiedad de la citada al menos una imagen suplementaria y de una imagen de escena de acuerdo con la citada línea de visión del usuario determinada,
el procedimiento se caracteriza por comprender el procedimiento adicional de: producir un sonido multi-dimensional para que sea oído por el citado usuario de acuerdo con la localización de al menos una señal de entrada relativa a la posición y orientación de la cabeza del citado usuario usando un sistema de audio multi-dimensional acoplado a un sistema de determinación de la línea de visión.
ES04732164T 2003-05-12 2004-05-11 Procedimiento y sistema de comunicacion audiovisual. Expired - Lifetime ES2333528T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US46963703P 2003-05-12 2003-05-12
US469637P 2003-05-12

Publications (1)

Publication Number Publication Date
ES2333528T3 true ES2333528T3 (es) 2010-02-23

Family

ID=33435250

Family Applications (1)

Application Number Title Priority Date Filing Date
ES04732164T Expired - Lifetime ES2333528T3 (es) 2003-05-12 2004-05-11 Procedimiento y sistema de comunicacion audiovisual.

Country Status (7)

Country Link
US (1) US7710654B2 (es)
EP (1) EP1623266B1 (es)
KR (1) KR20060014399A (es)
AT (1) ATE447205T1 (es)
DE (1) DE602004023831D1 (es)
ES (1) ES2333528T3 (es)
WO (1) WO2004099851A2 (es)

Families Citing this family (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
SE527257C2 (sv) * 2004-06-21 2006-01-31 Totalfoersvarets Forskningsins Anordning och metod för att presentera en omvärldsbild
US7809215B2 (en) 2006-10-11 2010-10-05 The Invention Science Fund I, Llc Contextual information encoded in a formed expression
US8290313B2 (en) 2005-03-18 2012-10-16 The Invention Science Fund I, Llc Electronic acquisition of a hand formed expression and a context of the expression
US8640959B2 (en) 2005-03-18 2014-02-04 The Invention Science Fund I, Llc Acquisition of a user expression and a context of the expression
US8340476B2 (en) 2005-03-18 2012-12-25 The Invention Science Fund I, Llc Electronic acquisition of a hand formed expression and a context of the expression
US7813597B2 (en) 2005-03-18 2010-10-12 The Invention Science Fund I, Llc Information encoded in an expression
US8232979B2 (en) 2005-05-25 2012-07-31 The Invention Science Fund I, Llc Performing an action with respect to hand-formed expression
US8599174B2 (en) 2005-03-18 2013-12-03 The Invention Science Fund I, Llc Verifying a written expression
US7672512B2 (en) 2005-03-18 2010-03-02 Searete Llc Forms for completion with an electronic writing device
US20060212430A1 (en) 2005-03-18 2006-09-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Outputting a saved hand-formed expression
US8229252B2 (en) 2005-03-18 2012-07-24 The Invention Science Fund I, Llc Electronic association of a user expression and a context of the expression
US7383106B1 (en) * 2005-05-31 2008-06-03 Coonse Jr Lester C Active noise control system for aircraft, and method for enhancing pilot situational awareness
US20070030211A1 (en) * 2005-06-02 2007-02-08 Honeywell International Inc. Wearable marine heads-up display system
WO2007113975A1 (ja) * 2006-03-31 2007-10-11 National University Corporation Shizuoka University 視点検出装置
GB0718706D0 (en) 2007-09-25 2007-11-07 Creative Physics Ltd Method and apparatus for reducing laser speckle
KR100786108B1 (ko) * 2006-05-01 2007-12-18 김준식 음파통신 네트워크
US7633852B2 (en) * 2006-06-21 2009-12-15 Northrop Gruman Corporation Wireless control system for ground-mobile robotic vehicles
US20090243966A1 (en) * 2006-07-25 2009-10-01 Nikon Corporation Outputting apparatus and image display apparatus
JP5119636B2 (ja) 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
KR100865548B1 (ko) 2006-12-28 2008-10-28 주식회사 하이닉스반도체 반도체 메모리장치의 제조방법
ITMI20070009A1 (it) * 2007-01-05 2008-07-06 St Microelectronics Srl Un sistema elettronico interattivo di intrattenimento
US8064475B2 (en) * 2007-03-21 2011-11-22 At&T Intellectual Property I, L.P. Systems and methods of wireless communication
WO2008139018A1 (en) * 2007-05-09 2008-11-20 Savox Communications Oy Ab (Ltd) A display apparatus
EP1990674A1 (en) 2007-05-09 2008-11-12 Harman Becker Automotive Systems GmbH Head-mounted display system
US8151311B2 (en) 2007-11-30 2012-04-03 At&T Intellectual Property I, L.P. System and method of detecting potential video traffic interference
US8290638B2 (en) * 2008-02-04 2012-10-16 Lockheed Martin Corporation Apparatus, program product, and methods for updating data on embedded control systems
US9886231B2 (en) 2008-03-28 2018-02-06 Kopin Corporation Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US8026834B2 (en) * 2008-06-09 2011-09-27 Honeywell International Inc. Method and system for operating a display device
US20110141223A1 (en) * 2008-06-13 2011-06-16 Raytheon Company Multiple Operating Mode Optical Instrument
US8687844B2 (en) 2008-06-13 2014-04-01 Raytheon Company Visual detection system for identifying objects within region of interest
FR2940565B1 (fr) * 2008-12-19 2010-12-31 Thales Sa Dispositif de generation de messages sonores a detection de defaut integree
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
US9335604B2 (en) 2013-12-11 2016-05-10 Milan Momcilo Popovich Holographic waveguide display
US8350726B2 (en) * 2009-05-19 2013-01-08 Honeywell International Inc. Gaze-based touchdown point selection system and method
US9843743B2 (en) * 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US8416715B2 (en) * 2009-06-15 2013-04-09 Microsoft Corporation Interest determination for auditory enhancement
CN101943982B (zh) * 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
DE202009009804U1 (de) * 2009-07-17 2009-10-29 Sennheiser Electronic Gmbh & Co. Kg Headset und Hörer
US10795160B1 (en) 2014-09-25 2020-10-06 Rockwell Collins, Inc. Systems for and methods of using fold gratings for dual axis expansion
US8233204B1 (en) 2009-09-30 2012-07-31 Rockwell Collins, Inc. Optical displays
US11300795B1 (en) 2009-09-30 2022-04-12 Digilens Inc. Systems for and methods of using fold gratings coordinated with output couplers for dual axis expansion
US11320571B2 (en) 2012-11-16 2022-05-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view with uniform light extraction
US20110106447A1 (en) * 2009-11-03 2011-05-05 Honeywell International Inc. System for providing a pilot of an aircraft with a visual depiction of a terrain
US8659826B1 (en) 2010-02-04 2014-02-25 Rockwell Collins, Inc. Worn display system and method without requiring real time tracking for boresight precision
US8552850B2 (en) * 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
JP5499854B2 (ja) 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
JP5434848B2 (ja) 2010-08-18 2014-03-05 ソニー株式会社 表示装置
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
WO2012062872A1 (en) * 2010-11-11 2012-05-18 Bae Systems Plc Image presentation method, and apparatus therefor
EP2453290A1 (en) * 2010-11-11 2012-05-16 BAE Systems PLC Image presentation method and apparatus therefor
CN103430125B (zh) * 2011-03-04 2016-10-05 株式会社尼康 电子设备及处理系统
US9274349B2 (en) 2011-04-07 2016-03-01 Digilens Inc. Laser despeckler based on angular diversity
US20120259638A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Apparatus and method for determining relevance of input speech
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US8902085B1 (en) * 2011-05-17 2014-12-02 Raytheon Company Integrated 3D audiovisual threat cueing system
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US20120303211A1 (en) * 2011-05-27 2012-11-29 Igor Igorevich Stukanov Safety evacuation system for drivers and passengers of ground and water vehicles
US9509924B2 (en) * 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US8823740B1 (en) 2011-08-15 2014-09-02 Google Inc. Display system
WO2016020630A2 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Waveguide laser illuminator incorporating a despeckler
WO2013027004A1 (en) 2011-08-24 2013-02-28 Milan Momcilo Popovich Wearable data display
US10670876B2 (en) 2011-08-24 2020-06-02 Digilens Inc. Waveguide laser illuminator incorporating a despeckler
US20130051560A1 (en) * 2011-08-30 2013-02-28 Raytheon Company 3-Dimensional Audio Projection
US8767306B1 (en) * 2011-09-22 2014-07-01 Google Inc. Display system
US9599813B1 (en) 2011-09-30 2017-03-21 Rockwell Collins, Inc. Waveguide combiner system and method with less susceptibility to glare
US9715067B1 (en) 2011-09-30 2017-07-25 Rockwell Collins, Inc. Ultra-compact HUD utilizing waveguide pupil expander with surface relief gratings in high refractive index materials
US9366864B1 (en) 2011-09-30 2016-06-14 Rockwell Collins, Inc. System for and method of displaying information without need for a combiner alignment detector
US8634139B1 (en) 2011-09-30 2014-01-21 Rockwell Collins, Inc. System for and method of catadioptric collimation in a compact head up display (HUD)
DE102011084217A1 (de) * 2011-10-10 2013-04-11 Continental Automotive Gmbh Kommunikationssystem eines Kraftfahrzeuges
WO2013064914A1 (en) * 2011-10-31 2013-05-10 Sony Ericsson Mobile Communications Ab Amplifying audio-visual data based on user's head orientation
US20130131897A1 (en) * 2011-11-23 2013-05-23 Honeywell International Inc. Three dimensional auditory reporting of unusual aircraft attitude
US9084058B2 (en) * 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US20150010265A1 (en) 2012-01-06 2015-01-08 Milan, Momcilo POPOVICH Contact image sensor using switchable bragg gratings
US10129682B2 (en) * 2012-01-06 2018-11-13 Bacch Laboratories, Inc. Method and apparatus to provide a virtualized audio file
US9042736B2 (en) 2012-02-09 2015-05-26 N2 Imaging Systems, LLC Intrapersonal data communication systems
US9705605B2 (en) 2012-02-09 2017-07-11 N2 Imaging Systems, LLC Intrapersonal data communication system
WO2014150076A1 (en) 2013-03-14 2014-09-25 N2 Imaging Systems, LLC Intrapersonal data communication system
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US9523852B1 (en) 2012-03-28 2016-12-20 Rockwell Collins, Inc. Micro collimator system and method for a head up display (HUD)
CN103562802B (zh) 2012-04-25 2016-08-17 罗克韦尔柯林斯公司 全息广角显示器
US9442290B2 (en) * 2012-05-10 2016-09-13 Kopin Corporation Headset computer operation using vehicle sensor feedback for remote control vehicle
JP5661067B2 (ja) * 2012-05-29 2015-01-28 株式会社ジェイアイエヌ アイウエア
US9674331B2 (en) 2012-06-08 2017-06-06 Apple Inc. Transmitting data from an automated assistant to an accessory
US9933684B2 (en) * 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
JP5954147B2 (ja) 2012-12-07 2016-07-20 ソニー株式会社 機能制御装置およびプログラム
CN105247150B (zh) 2013-02-19 2018-01-09 梦光控股公司 娱乐场馆及相关的系统/方法
WO2014130459A1 (en) 2013-02-19 2014-08-28 Dreamlight Holdings Inc., Formerly Known As A Thousand Miles Llc Rotating performance stage
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9674413B1 (en) 2013-04-17 2017-06-06 Rockwell Collins, Inc. Vision system and method having improved performance and solar mitigation
DE102013210354A1 (de) 2013-06-04 2014-12-04 Bayerische Motoren Werke Aktiengesellschaft Blickgesteuerte Interaktion für Datenbrillen
AT14754U3 (de) * 2013-06-18 2016-10-15 Kolotov Alexandr Alexandrovich Helm für Motorradfahrer und Menschen, die Extrem-Aktivitäten betreiben
US9187188B2 (en) * 2013-07-02 2015-11-17 Premium Aerotec Gmbh Assembly inspection system and method
US9727772B2 (en) 2013-07-31 2017-08-08 Digilens, Inc. Method and apparatus for contact image sensing
US9244281B1 (en) 2013-09-26 2016-01-26 Rockwell Collins, Inc. Display system and method using a detached combiner
US9785231B1 (en) * 2013-09-26 2017-10-10 Rockwell Collins, Inc. Head worn display integrity monitor system and methods
DE102013021137B4 (de) 2013-12-13 2022-01-27 Audi Ag Verfahren zum Betreiben einer Datenschnittstelle eines Kraftwagens und Kraftwagen
KR102178333B1 (ko) * 2013-12-31 2020-11-12 엘지디스플레이 주식회사 영상처리방법 및 투명표시장치
US10732407B1 (en) 2014-01-10 2020-08-04 Rockwell Collins, Inc. Near eye head up display system and method with fixed combiner
US9519089B1 (en) 2014-01-30 2016-12-13 Rockwell Collins, Inc. High performance volume phase gratings
US20150223005A1 (en) * 2014-01-31 2015-08-06 Raytheon Company 3-dimensional audio projection
JP6589855B2 (ja) * 2014-02-21 2019-10-16 ソニー株式会社 頭部装着ディスプレイ、制御装置および制御方法
US9244280B1 (en) 2014-03-25 2016-01-26 Rockwell Collins, Inc. Near eye display system and method for display enhancement or redundancy
JP6445784B2 (ja) * 2014-05-16 2018-12-26 キヤノン株式会社 画像診断支援装置、その処理方法及びプログラム
US10305748B2 (en) 2014-05-19 2019-05-28 The Michael Harrison Tretter Auerbach Trust Dynamic computer systems and uses thereof
US10666735B2 (en) 2014-05-19 2020-05-26 Auerbach Michael Harrison Tretter Dynamic computer systems and uses thereof
US9742853B2 (en) 2014-05-19 2017-08-22 The Michael Harrison Tretter Auerbach Trust Dynamic computer systems and uses thereof
WO2016020632A1 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Method for holographic mastering and replication
US10241330B2 (en) 2014-09-19 2019-03-26 Digilens, Inc. Method and apparatus for generating input images for holographic waveguide displays
US10088675B1 (en) 2015-05-18 2018-10-02 Rockwell Collins, Inc. Turning light pipe for a pupil expansion system and method
US9715110B1 (en) 2014-09-25 2017-07-25 Rockwell Collins, Inc. Automotive head up display (HUD)
US9606355B2 (en) * 2014-09-29 2017-03-28 Honeywell International Inc. Apparatus and method for suppressing double images on a combiner head-up display
US10459224B2 (en) 2014-09-29 2019-10-29 Honeywell International Inc. High transmittance eyewear for head-up displays
WO2016086230A1 (en) * 2014-11-28 2016-06-02 Tammam Eric S Augmented audio enhanced perception system
CN107873086B (zh) 2015-01-12 2020-03-20 迪吉伦斯公司 环境隔离的波导显示器
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
US9558760B2 (en) * 2015-03-06 2017-01-31 Microsoft Technology Licensing, Llc Real-time remodeling of user voice in an immersive visualization system
DE102015003946A1 (de) * 2015-03-26 2016-09-29 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
DE102015207337B4 (de) * 2015-04-22 2024-06-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Unterhaltung mindestens eines Insassen eines Kraftfahrzeugs
US10254544B1 (en) * 2015-05-13 2019-04-09 Rockwell Collins, Inc. Head tracking accuracy and reducing latency in dynamic environments
US11366316B2 (en) 2015-05-18 2022-06-21 Rockwell Collins, Inc. Head up display (HUD) using a light pipe
US10247943B1 (en) 2015-05-18 2019-04-02 Rockwell Collins, Inc. Head up display (HUD) using a light pipe
US10126552B2 (en) 2015-05-18 2018-11-13 Rockwell Collins, Inc. Micro collimator system and method for a head up display (HUD)
CN107852488B (zh) 2015-05-22 2021-03-30 三星电子株式会社 用于通过hmd设备显示虚拟图像的系统和方法
US10473942B2 (en) * 2015-06-05 2019-11-12 Marc Lemchen Apparatus and method for image capture of medical or dental images using a head mounted camera and computer system
US10108010B2 (en) 2015-06-29 2018-10-23 Rockwell Collins, Inc. System for and method of integrating head up displays and head down displays
US10382746B1 (en) * 2015-09-22 2019-08-13 Rockwell Collins, Inc. Stereoscopic augmented reality head-worn display with indicator conforming to a real-world object
US10690916B2 (en) 2015-10-05 2020-06-23 Digilens Inc. Apparatus for providing waveguide displays with two-dimensional pupil expansion
US10113837B2 (en) 2015-11-03 2018-10-30 N2 Imaging Systems, LLC Non-contact optical connections for firearm accessories
US10598932B1 (en) 2016-01-06 2020-03-24 Rockwell Collins, Inc. Head up display for integrating views of conformally mapped symbols and a fixed image source
JP6665572B2 (ja) * 2016-02-16 2020-03-13 富士通株式会社 制御プログラム、制御方法およびコンピュータ
EP3433659B1 (en) 2016-03-24 2024-10-23 DigiLens, Inc. Method and apparatus for providing a polarization selective holographic waveguide device
JP6734933B2 (ja) 2016-04-11 2020-08-05 ディジレンズ インコーポレイテッド 構造化光投影のためのホログラフィック導波管装置
DE102016207150A1 (de) * 2016-04-27 2017-11-02 Bayerische Motoren Werke Aktiengesellschaft Adaptives Audiosystem für ein Einspurfahrzeug, Einspurfahrzeug mit adaptivem Audiosystem sowie Verfahren zur Akustikoptimierung bei einem Einspurfahrzeug
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
US11023818B2 (en) 2016-06-23 2021-06-01 3M Innovative Properties Company Personal protective equipment system having analytics engine with integrated monitoring, alerting, and predictive safety event avoidance
US9848666B1 (en) * 2016-06-23 2017-12-26 3M Innovative Properties Company Retrofit sensor module for a protective head top
US10610708B2 (en) 2016-06-23 2020-04-07 3M Innovative Properties Company Indicating hazardous exposure in a supplied air respirator system
DE102016112826A1 (de) * 2016-07-13 2018-01-18 Jabil Optics Germany GmbH Detektionseinrichtung, HUD und Verfahren zum Betrieb eines HUD
US11195542B2 (en) 2019-10-31 2021-12-07 Ron Zass Detecting repetitions in audio data
US10433052B2 (en) * 2016-07-16 2019-10-01 Ron Zass System and method for identifying speech prosody
US10679511B2 (en) 2016-09-30 2020-06-09 Sony Interactive Entertainment Inc. Collision detection and avoidance
US10410320B2 (en) 2016-09-30 2019-09-10 Sony Interactive Entertainment Inc. Course profiling and sharing
US11125561B2 (en) 2016-09-30 2021-09-21 Sony Interactive Entertainment Inc. Steering assist
US11513350B2 (en) 2016-12-02 2022-11-29 Digilens Inc. Waveguide device with uniform output illumination
US10088911B2 (en) 2016-12-30 2018-10-02 Manuel Saez Programmable electronic helmet
US10545346B2 (en) 2017-01-05 2020-01-28 Digilens Inc. Wearable heads up displays
US10295824B2 (en) 2017-01-26 2019-05-21 Rockwell Collins, Inc. Head up display with an angled light pipe
KR102572998B1 (ko) * 2017-03-02 2023-08-30 링컨 글로벌, 인크. 헤드 업 디스플레이 및 음성 명령이 지원되는 용접 헬멧
US20190064344A1 (en) * 2017-03-22 2019-02-28 Bragi GmbH Use of body-worn radar for biometric measurements, contextual awareness and identification
JP6543848B2 (ja) * 2017-03-29 2019-07-17 本田技研工業株式会社 音声処理装置、音声処理方法及びプログラム
US10699691B1 (en) * 2017-06-29 2020-06-30 Amazon Technologies, Inc. Active noise cancellation for bone conduction speaker of a head-mounted wearable device
MA41223A1 (fr) * 2017-09-28 2019-05-31 Univ Int Rabat Dispositif électronique intégré au micro-casque du pilote d'avion pour la mesure d'alcoolémie
US11323838B2 (en) * 2017-10-12 2022-05-03 Interdigital Madison Patent Holdings, Sas Method and apparatus for providing audio content in immersive reality
CN116149058A (zh) 2017-10-16 2023-05-23 迪吉伦斯公司 用于倍增像素化显示器的图像分辨率的系统和方法
KR20200104402A (ko) 2018-01-08 2020-09-03 디지렌즈 인코포레이티드. 도파관 셀을 제조하기 위한 시스템 및 방법
WO2019136476A1 (en) 2018-01-08 2019-07-11 Digilens, Inc. Waveguide architectures and related methods of manufacturing
KR20200108030A (ko) 2018-01-08 2020-09-16 디지렌즈 인코포레이티드. 도파관 셀 내의 홀로그래픽 격자의 높은 처리능력의 레코딩을 위한 시스템 및 방법
US11372476B1 (en) * 2018-02-20 2022-06-28 Rockwell Collins, Inc. Low profile helmet mounted display (HMD) eye tracker
US11062149B2 (en) 2018-03-02 2021-07-13 Honda Motor Co., Ltd. System and method for recording images reflected from a visor
US10753709B2 (en) 2018-05-17 2020-08-25 Sensors Unlimited, Inc. Tactical rails, tactical rail systems, and firearm assemblies having tactical rails
US10645348B2 (en) 2018-07-07 2020-05-05 Sensors Unlimited, Inc. Data communication between image sensors and image displays
US11079202B2 (en) 2018-07-07 2021-08-03 Sensors Unlimited, Inc. Boresighting peripherals to digital weapon sights
US11402801B2 (en) 2018-07-25 2022-08-02 Digilens Inc. Systems and methods for fabricating a multilayer optical structure
US10742913B2 (en) 2018-08-08 2020-08-11 N2 Imaging Systems, LLC Shutterless calibration
US10921578B2 (en) 2018-09-07 2021-02-16 Sensors Unlimited, Inc. Eyecups for optics
US11122698B2 (en) 2018-11-06 2021-09-14 N2 Imaging Systems, LLC Low stress electronic board retainers and assemblies
US10801813B2 (en) 2018-11-07 2020-10-13 N2 Imaging Systems, LLC Adjustable-power data rail on a digital weapon sight
US10796860B2 (en) 2018-12-12 2020-10-06 N2 Imaging Systems, LLC Hermetically sealed over-molded button assembly
AT522012A1 (de) * 2018-12-19 2020-07-15 Viewpointsystem Gmbh Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer
US11143838B2 (en) 2019-01-08 2021-10-12 N2 Imaging Systems, LLC Optical element retainers
US11726319B2 (en) * 2019-01-11 2023-08-15 Google Llc Displays and methods of operating thereof
KR20210138609A (ko) 2019-02-15 2021-11-19 디지렌즈 인코포레이티드. 일체형 격자를 이용하여 홀로그래픽 도파관 디스플레이를 제공하기 위한 방법 및 장치
JP2022525165A (ja) 2019-03-12 2022-05-11 ディジレンズ インコーポレイテッド ホログラフィック導波管バックライトおよび関連する製造方法
CA3142476A1 (en) * 2019-06-03 2020-12-10 Third Eye Design, Inc. Remote lighting system and methods of operating same
CN114207492A (zh) 2019-06-07 2022-03-18 迪吉伦斯公司 带透射光栅和反射光栅的波导及其生产方法
KR20220038452A (ko) 2019-07-29 2022-03-28 디지렌즈 인코포레이티드. 픽셀화된 디스플레이의 이미지 해상도와 시야를 증배하는 방법 및 장치
KR20220054386A (ko) 2019-08-29 2022-05-02 디지렌즈 인코포레이티드. 진공 브래그 격자 및 이의 제조 방법
US11989344B2 (en) * 2020-02-21 2024-05-21 Maxell, Ltd. Information display device
US11089427B1 (en) 2020-03-31 2021-08-10 Snap Inc. Immersive augmented reality experiences using spatial audio
CN116529652A (zh) * 2020-12-07 2023-08-01 美国斯耐普公司 增强现实空间音频体验

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7243945B2 (en) * 1992-05-05 2007-07-17 Automotive Technologies International, Inc. Weight measuring systems and methods for vehicles
US5422653A (en) * 1993-01-07 1995-06-06 Maguire, Jr.; Francis J. Passive virtual reality
US7310072B2 (en) * 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
US6160666A (en) * 1994-02-07 2000-12-12 I-O Display Systems Llc Personal visual display system
WO1996014641A1 (en) * 1994-11-04 1996-05-17 Kelly Shawn L Modular binocular electronic imaging system
US5682172A (en) * 1994-12-30 1997-10-28 Forte Technologies, Inc. Headset for presenting video and audio signals to a wearer
JP3771973B2 (ja) * 1996-09-26 2006-05-10 オリンパス株式会社 立体映像表示装置
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6204974B1 (en) * 1996-10-08 2001-03-20 The Microoptical Corporation Compact image display system for eyeglasses or other head-borne frames
DE69840547D1 (de) * 1997-10-30 2009-03-26 Myvu Corp Schnittstellensystem für brillen
US6456438B1 (en) * 1999-08-12 2002-09-24 Honeywell Inc. Variable immersion vignetting display
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
JP2005182306A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置

Also Published As

Publication number Publication date
WO2004099851A2 (en) 2004-11-18
ATE447205T1 (de) 2009-11-15
WO2004099851A3 (en) 2006-02-02
DE602004023831D1 (de) 2009-12-10
EP1623266B1 (en) 2009-10-28
US7710654B2 (en) 2010-05-04
KR20060014399A (ko) 2006-02-15
EP1623266A2 (en) 2006-02-08
US20060238877A1 (en) 2006-10-26

Similar Documents

Publication Publication Date Title
ES2333528T3 (es) Procedimiento y sistema de comunicacion audiovisual.
US5815126A (en) Monocular portable communication and display system
US6693749B2 (en) Low-observability, wide-field-of-view, situation awareness viewing device
US7110013B2 (en) Augmented reality display integrated with self-contained breathing apparatus
US6088165A (en) Enhanced night vision device
US20170336641A1 (en) Apparatus und Method for Rendering a Virtual Monitor on Smart Ophthalmic Devices in Augmented Reality Environments
US8040292B2 (en) Portable communication display device
ES2498671T3 (es) Dispositivo de visualización "de cabeza alta" para gafas de visión nocturna
EP0821257A2 (en) Portable communication display system
JPH06502054A (ja) ビームスプリッタを用いた頭部搭載型投射ディスプレイシステム
US20210072821A1 (en) Apparatus und Method for Rendering a Virtual Monitor on Smart Ophthalmic Devices in Augmented Reality Environments
CN104570353A (zh) 利用全息波导进行彩色目视显示的方法、光学系统及穿戴设备
JPH09508711A (ja) パーソナルビジュアルディスプレイシステム
CN105137598A (zh) 透明显示屏及其制备方法、光学系统和应用
US10969675B1 (en) Optical assemblies having scanning reflectors for projecting augmented reality content
CN109073890B (zh) 具有与音频头戴式耳机兼容的搭扣的飞行器头戴式可视化系统
CN207752239U (zh) 一种车载增强现实抬头显示系统
JPS61501946A (ja) ホログラフィックヘルメットに装着した両眼用ディスプレイ
Melzer et al. Head-mounted displays
CN109387947A (zh) 一种3d近眼优化显示装置及方法
JP4649400B2 (ja) オーディオビジュアル通信向上方法及びシステム
CN209281084U (zh) 一种3d近眼优化显示装置
IL170714A (en) Method and system for improving audiovisual communication
WO2000052515A1 (en) Enhanced night vision device
CN221326846U (zh) 一种具有单物镜的微光夜视仪光学结构