ES2333528T3 - Procedimiento y sistema de comunicacion audiovisual. - Google Patents
Procedimiento y sistema de comunicacion audiovisual. Download PDFInfo
- Publication number
- ES2333528T3 ES2333528T3 ES04732164T ES04732164T ES2333528T3 ES 2333528 T3 ES2333528 T3 ES 2333528T3 ES 04732164 T ES04732164 T ES 04732164T ES 04732164 T ES04732164 T ES 04732164T ES 2333528 T3 ES2333528 T3 ES 2333528T3
- Authority
- ES
- Spain
- Prior art keywords
- aforementioned
- user
- signal
- image
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000004891 communication Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims description 217
- 230000005236 sound signal Effects 0.000 claims description 71
- 230000009467 reduction Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 15
- 230000033001 locomotion Effects 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000001755 vocal effect Effects 0.000 claims description 9
- 238000012544 monitoring process Methods 0.000 claims description 7
- 210000001508 eye Anatomy 0.000 abstract description 136
- 239000010410 layer Substances 0.000 description 105
- 239000012071 phase Substances 0.000 description 101
- 230000003287 optical effect Effects 0.000 description 65
- 210000003128 head Anatomy 0.000 description 54
- 230000010287 polarization Effects 0.000 description 46
- 230000005684 electric field Effects 0.000 description 43
- 239000004973 liquid crystal related substance Substances 0.000 description 35
- 210000001747 pupil Anatomy 0.000 description 31
- 230000005540 biological transmission Effects 0.000 description 25
- 239000011241 protective layer Substances 0.000 description 22
- 239000000463 material Substances 0.000 description 19
- 210000004027 cell Anatomy 0.000 description 16
- 239000000975 dye Substances 0.000 description 16
- 210000000744 eyelid Anatomy 0.000 description 16
- 238000010292 electrical insulation Methods 0.000 description 15
- 239000000126 substance Substances 0.000 description 15
- 230000003044 adaptive effect Effects 0.000 description 13
- 230000007613 environmental effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 239000011521 glass Substances 0.000 description 11
- 229920000642 polymer Polymers 0.000 description 11
- 239000007788 liquid Substances 0.000 description 10
- 239000000203 mixture Substances 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 239000002245 particle Substances 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000008878 coupling Effects 0.000 description 8
- 238000010168 coupling process Methods 0.000 description 8
- 238000005859 coupling reaction Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 210000004087 cornea Anatomy 0.000 description 7
- 239000013078 crystal Substances 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000011514 reflex Effects 0.000 description 7
- 239000011358 absorbing material Substances 0.000 description 6
- 238000010521 absorption reaction Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 210000005069 ears Anatomy 0.000 description 6
- 230000005611 electricity Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000012800 visualization Methods 0.000 description 6
- 239000013543 active substance Substances 0.000 description 5
- 230000002238 attenuated effect Effects 0.000 description 5
- 239000011248 coating agent Substances 0.000 description 5
- 238000000576 coating method Methods 0.000 description 5
- 230000001934 delay Effects 0.000 description 5
- 230000010363 phase shift Effects 0.000 description 5
- 239000004988 Nematic liquid crystal Substances 0.000 description 4
- 238000000149 argon plasma sintering Methods 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 4
- 239000004020 conductor Substances 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 239000000446 fuel Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 3
- 208000003443 Unconsciousness Diseases 0.000 description 3
- 239000003570 air Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000003098 cholesteric effect Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000005672 electromagnetic field Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 238000009413 insulation Methods 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 239000012780 transparent material Substances 0.000 description 3
- 239000004986 Cholesteric liquid crystals (ChLC) Substances 0.000 description 2
- 239000006096 absorbing agent Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 239000003989 dielectric material Substances 0.000 description 2
- 230000005520 electrodynamics Effects 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000007791 liquid phase Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 230000004962 physiological condition Effects 0.000 description 2
- 230000035790 physiological processes and functions Effects 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 239000002344 surface layer Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 241000380131 Ammophila arenaria Species 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000790351 Iris latifolia Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000004677 Nylon Substances 0.000 description 1
- 239000004952 Polyamide Substances 0.000 description 1
- 239000004372 Polyvinyl alcohol Substances 0.000 description 1
- 108091027981 Response element Proteins 0.000 description 1
- 229910052581 Si3N4 Inorganic materials 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 208000012886 Vertigo Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 239000012080 ambient air Substances 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 229920001940 conductive polymer Polymers 0.000 description 1
- 210000002858 crystal cell Anatomy 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 238000000295 emission spectrum Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 231100000040 eye damage Toxicity 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000011152 fibreglass Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 239000002828 fuel tank Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229920000578 graft copolymer Polymers 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- RHZWSUVWRRXEJF-UHFFFAOYSA-N indium tin Chemical compound [In].[Sn] RHZWSUVWRRXEJF-UHFFFAOYSA-N 0.000 description 1
- 229920000592 inorganic polymer Polymers 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013081 microcrystal Substances 0.000 description 1
- 239000011490 mineral wool Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 229920001778 nylon Polymers 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 229920002647 polyamide Polymers 0.000 description 1
- 230000000379 polymerizing effect Effects 0.000 description 1
- 229920002451 polyvinyl alcohol Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 235000012239 silicon dioxide Nutrition 0.000 description 1
- 239000000377 silicon dioxide Substances 0.000 description 1
- HQVNEWCFYHHQES-UHFFFAOYSA-N silicon nitride Chemical compound N12[Si]34N5[Si]62N3[Si]51N64 HQVNEWCFYHHQES-UHFFFAOYSA-N 0.000 description 1
- 229910052814 silicon oxide Inorganic materials 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- XOLBLPGZBRYERU-UHFFFAOYSA-N tin dioxide Chemical compound O=[Sn]=O XOLBLPGZBRYERU-UHFFFAOYSA-N 0.000 description 1
- 229910001887 tin oxide Inorganic materials 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000003454 tympanic membrane Anatomy 0.000 description 1
- 231100000889 vertigo Toxicity 0.000 description 1
- 230000001720 vestibular Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/30—Polarising elements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Selective Calling Equipment (AREA)
Abstract
Sistema para comunicación audiovisual, comprendiendo el sistema: un sistema para la determinación de una línea de visión para determinar una línea de visión de usuario de al menos un ojo de un usuario, y un sistema de visualización de imágenes, acoplado al citado sistema de determinación de la línea de visión, mostrando el citado sistema de visualización de imágenes al menos una imagen suplementaria para el citado al menos un ojo, y controlando la al menos una propiedad de la citada al menos una imagen suplementaria y una imagen de escena, de acuerdo con la citada línea de visión determinada del usuario, estando caracterizado el sistema porque comprende, además un sistema de audio multi-dimensional que está acoplado al citado sistema de determinación de línea de visión, produciendo el citado sistema de audio multi-dimensional sonido multi-dimensional para ser oído por el citado usuario, de acuerdo con la localización de al menos una señal de entrada relativa a la posición y a la orientación de la cabeza del citado usuario.
Description
Procedimiento y sistema de comunicación
audiovisual.
La técnica desvelada se refiere a sistemas
audiovisuales en general y, en particular, a procedimientos y
sistemas para mejorar la comunicación con el entorno.
El piloto de un avión de combate está ocupado
ejecutando diferentes tareas simultáneamente en el ejercicio de una
misión, tales como navegar, pilotar el avión, apuntar y disparar a
los objetivos, y comunicar con el control de tierra o con otros
pilotos. Se han desvelado varios sistemas y dispositivos para
aliviar la carga ejercida sobre el piloto mientras ejecuta estas
tareas y para aumentar el nivel de rendimiento del piloto. Estos
sistemas se encuentran incorporados generalmente en el casco del
piloto o están emplazados en una proximidad cercana al piloto.
La patente norteamericana número
US-A-6 384 982 concedida a Spitzer y
titulada "Sistema de Visualización de Imágenes Compacto para
Gafas u otros Dispositivos Dispuestos en la Cabeza" se refiere a
un dispositivo para mostrar una imagen contra una imagen del
entorno. El dispositivo incluye una fuente de imágenes, una lente
principal, una primera lente, una segunda lente y una inserción. La
lente principal es la lente de prescripción de un par de gafas. Una
primera porción de la inserción tiene un primer índice de refracción
y una segunda porción de la misma tiene un segundo índice de
refracción, en el que el primer índice de refracción es mayor que
el segundo índice de refracción. La inserción se encuentra situada
en el interior de la lente principal. El índice de refracción de la
lente principal es igual al primer índice de refracción. La primera
lente se encuentra situada entre la fuente de imágenes y la lente
principal. La primera lente y la fuente de imágenes se encuentran
situadas en la parte superior de la lente principal a lo largo de
un primer eje. La segunda lente se encuentra situada entre la
inserción y el ojo de un usuario, a lo largo de un segundo eje
perpendicular al primer eje.
Un haz de luz procedente de la fuente de
imágenes pasa a través de la primera lente y de la lente principal
e impacta contra la primera porción. Los valores relativos del
primer índice de refracción y del segundo índice de refracción son
tales que el haz de luz se refleja internamente totalmente desde la
inserción de la segunda lente y hacia el ojo del usuario. Otro haz
de luz procedente de las imágenes de entorno pasa a través de la
inserción y de la segunda lente, y llega al ojo del usuario. El
dispositivo puede incluir además una banda de cabeza, transductores
montados en uno o dos auriculares y un micrófono. El micrófono
incluye una disposición de cancelación de ruido diferencial.
La patente norteamericana número
US-A-5 861 994 concedida a Kelly y
titulada "Sistema de Formación de Imágenes Electrónicas
Binocular" se refiere a un sistema portátil binocular de
formación de imágenes electrónicas que superpone una imagen en una
escena vista, proporciona sonido estéreo al usuario y permite la
grabación de vídeo y entrada y salida a dispositivos electrónicos.
El sistema portátil binocular de formación de imágenes electrónicas
incluye un alojamiento del sistema de núcleo, un módulo de
visualización, un módulo de cámara electrónica y un módulo de
batería y de grabador de vídeo. El sistema de núcleo incluye un
subsistema de visualización binocular, altavoces estéreo, un
subsistema de control del sistema electrónico, una interfaz de
entrada/salida, tres puertos de módulos y un teclado de entrada.
El módulo de visualización incluye un subsistema
de visualización. El módulo de batería y de grabador de vídeo
incluye un grabador y reproductor y una batería. El subsistema de
visualización binocular incluye una lente de proyección, un espejo
plegable, una lente de Fresnel positiva en combinación, una
superficie divisora de haz de prisma listado reflectante, y una
lente ocular.
El subsistema de control del sistema electrónico
está conectado a los altavoces estéreo, a la interfaz de
entrada/salida, al teclado de entrada y a los tres puertos de
módulos. Cada uno del módulo de visualización, del módulo de cámara
electrónica y del módulo de batería y de grabadora de vídeo puede
ser acoplado al sistema portátil binocular de formación de imagen
electrónica. El espejo plegable se encuentra dispuesto en un lado
de la lente ocular. La superficie divisora de haz de prisma listado
reflectante está situada delante del espejo plegable y de la lente
ocular. La combinación de lentes de Fresnel positivas se encuentra
situada entre la superficie divisora de haz de prisma listado
reflectante por un lado, y del espejo plegable y la lente ocular
por el otro. La lente de proyección se encuentra situada entre el
espejo plegable y el subsistema de visualización.
El subsistema de visualización proyecta una
imagen hacia el espejo plegable a través de la lente de proyección,
y el espejo plegable refleja la imagen hacia la combinación de
lentes de Fresnel positivas y la superficie divisora de haz de
prisma listado reflectante. La superficie divisora de haz de prisma
listado reflectante refleja la imagen y la combinación de lentes de
Fresnel positivas hace converger la imagen a la lente ocular. Una
imagen de la escena también pasa por la superficie divisora de haz
de prisma listado reflectante y alcanza la lente ocular a través de
la combinación de lentes de Fresnel positivas.
La patente norteamericana número
US-A-6 349 001 concedida a Spitzer y
titulada "Sistema de Interfaz de Gafas", se refiere a una
lente ocular que captura una imagen de escena visualizada por un
usuario y proporciona comunicación de audio al usuario. La lente
ocular incluye una primera patilla, una segunda patilla, una primera
lente, una segunda lente, un conjunto de cámara, un revestimiento
divisor de haz, un resentimiento del espejo, una tercera lente, un
subsistema de entrada de audio, un subsistema de salida de audio, un
subsistema de interconexión y un subsistema de potencia.
La primera patilla y la segunda patilla están
conectadas a la primera lente y a la segunda lente, respectivamente.
La primera lente y la segunda lente se encuentran delante de los
ojos del usuario. El conjunto de cámara está conectado a la primera
patilla. El conjunto de cámara está alineado con la dirección de la
mirada del usuario. El revestimiento del divisor haz y el
revestimiento del espejo están insertados dentro de la primera
lente. La tercera lente se encuentra situada entre el conjunto de
cámara y el revestimiento del espejo.
El revestimiento del divisor haz refleja parte a
los haces de luz respectivos de la imagen de escena, al
revestimiento del espejo y otra parte del mismo a la vista del
usuario. El revestimiento del espejo refleja los haces de luz
respectivos de la imagen de la escena al conjunto de cámara.
La patente norteamericana número
US-A-6 456 438 concedida a Lee et
al., y titulada "Pantalla de Viñetas de Inmersión
Variable" se refiere a un visualizador montado en cabeza (HMD)
que muestra una imagen generada por un usuario contra las imágenes
del mundo real, de una manera seleccionada. El HMD incluye un
combinador, un elemento de transmisión variable, un sistema óptico
de visualización y un módulo de control. El combinador se encuentra
situado entre los ojos del usuario y el elemento de transmisión
variable. El módulo de control está conectado al elemento de
transmisión variable. El combinador enfoca los datos ópticos
generados por el sistema óptico de visualización hacia el ojo del
usuario. Las imágenes del mundo real pasan a través del elemento de
transmisión variable y del combinador y llegan al ojo del usuario.
El HMD también puede incluir un dispositivo de seguimiento del ojo
para registrar las imágenes del mundo real con la imagen generada de
manera que sea coincidente con la dirección de la mirada del ojo
del usuario.
La patente norteamericana número
US-A-6 160 666 concedida a Rallison
et al., y titulada "Sistema de Visualización Visual
Personal", se refiere a un HMD para mostrar imágenes de vídeo a
un usuario, contra la luz ambiental y produciendo sonido para el
usuario. El HMD incluye un altavoz derecho, un altavoz izquierdo,
una pieza de patilla derecha, una pieza de patilla izquierda, una
banda, un tirante de frente, un dispositivo óptico y un dispositivo
de seguimiento. El dispositivo óptico incluye un generador de
imágenes, un dispositivo de corrección de campo, un espejo plegado
y un combinador.
El altavoz derecho y el altavoz izquierdo están
unidos a la pieza de patilla derecha y a la pieza de patilla
izquierda, respectivamente. La pieza de patilla derecha, la pieza de
patilla izquierda, la correa y el tirante de frente están unidos
entre sí. El dispositivo óptico está unido al tirante de frente. El
dispositivo de seguimiento se une ya sea a la pieza de patilla
derecha o a la pieza de patilla izquierda.
El espejo plegado refleja al menos una porción
de la imagen recibida desde el generador de imágenes hacia el
combinador. El combinador refleja al menos una porción de la imagen
recibida desde el espejo plegado, hacia el ojo del usuario. Si el
combinador es transparente al menos parcialmente, combina la imagen
con la luz del entorno para proporcionar al usuario una visión
simultánea del entorno y de la imagen generada. El dispositivo de
seguimiento recoge la información respectiva de la posición,
postura, emplazamiento y movimiento de la cabeza del usuario. Esta
información se utiliza para controlar la imagen generada a los ojos
del usuario.
La patente norteamericana número
US-A-5 422 653 concedida a Maguire,
Jr. y titulada "Realidad Virtual Pasiva", se refiere a un
sistema para controlar la porción de un objeto espacial que ha de
ser formado en imágenes, de acuerdo con la posición del ojo de un
operador de cámara. En esta patente, las palabras "espectador
pasivo" significan uno cuyo cuerpo, cabeza o eje visual puede
seguir analógicamente el cuerpo, la cabeza o el eje visual de un
observador siguiendo percepciones activas simuladas. Las palabras
"espectador activo" pretenden describir uno cuya actividad o
los efectos de la misma son monitorizados para proporcionar una
señal de control que afecta al contenido de la información de una
imagen presentada al mismo.
El sistema incluye una fuente de luz, una cámara
de vídeo, un monitor de posición del ojo, un primer control y un
transmisor. Un casco de espectador pasivo incluye un receptor, un
segundo control, una fuente de imágenes, un visualizador de cristal
líquido transmisor de luz, un prisma, un primer espejo reflectante,
un segundo espejo reflectante, un "emparedado" de tres capas y
una pluralidad de fuentes de audio. El "emparedado" de tres
capas incluye una válvula de luz, una lente de aumento variable y un
prisma de Risley. El monitor de posición del ojo es un medidor
ocular que dirige un haz invisible de radiación infrarroja al ojo
del operador de cámara, donde se refleja retornando para la
detección. El primer espejo reflectante y el segundo espejo
reflectante se encuentran situados delante del ojo derecho y del ojo
izquierdo del espectador pasivo, respectivamente.
El monitor de posición del ojo monitoriza la
posición de los ojos del operador de cámara (es decir, del
espectador activo) y proporciona una señal al primer control. El
primer control controla la porción del objeto espacial que es
formada por imágenes de una manera muy detallada en la cámara de
vídeo. La cámara de vídeo proporciona información de imagen al
primer control y el primer control transmite la información de
imagen al segundo control a través del transmisor y del receptor.
El segundo control controla la fuente de imágenes para cambiar la
posición del componente muy detallado del objeto espacial con
respecto al componente menos detallado, de acuerdo con el eje
visual de los ojos del espectador activo.
Los ojos del espectador pasivo observan la
imagen producida por la fuente de imágenes. De esta manera, el
sistema induce al espectador pasivo a desplazar su mirada de acuerdo
con los cambios en la posición del componente altamente detallado
con respecto al objeto espacial formado en imágenes. El visualizador
de cristal líquido transmisor de luz proporciona imágenes al prisma
y el prisma transmite una imagen con una intensidad reducida del
50% al primer espejo reflectante y al segundo espejo reflectante, a
través de las tres capas "emparedadas". El primer espejo
reflectante y el segundo espejo reflectante reflejan la imagen de
intensidad reducida al ojo derecho y al ojo izquierdo,
respectivamente, del espectador pasivo. La fuente de audio
proporciona un efecto envolvente de audio al espectador pasivo.
La patente norteamericana número
US-A-6 421 031 concedida a Ronzani
et al., y titulada "Sistema de Visualización de
Cámara", se refiere a un sistema visualizador montado en cabeza
que proporciona una comunicación audiovisual a un usuario. El
sistema incluye un visualizador montado en cabeza, un teclado
plegable, un ordenador montado en cabeza, un dispositivo de entrada
y un módulo de comunicaciones. El visualizador montado en cabeza
incluye un conjunto óptico, un conector y un conjunto de altavoces.
El visualizador montado en cabeza se conecta a una fuente de vídeo
remota y a una fuente de alimentación, a través del conector.
El dispositivo de entrada es un seguidor de ojo.
El módulo de comunicaciones incluye un sistema de posicionamiento
global (GPS) y un transductor inalámbrico. El ordenador montado en
cabeza incluye una unidad de procesamiento central (CPU), un módulo
de tarjeta de vídeo, un módulo de unidad de disco, al menos un
módulo de expansión y un módulo de batería. El ordenador montado en
cabeza comunica con un ordenador central de operaciones a través
del módulo de comunicaciones y de una red de datos distribuida. El
transductor inalámbrico transmite y recibe señales de audio, de
video y datos. El conjunto óptico proporciona una imagen de vídeo a
los ojos del usuario.
La patente norteamericana número
US-A-5 682 172 concedida a Travers
et al., y titulada "Casco para Presentar Señales de Vídeo
y de Audio a un Usuario", se refiere a un casco para el
suministro de información audiovisual a un usuario. El casco
incluye una estructura rígida, un visor, altavoces, un compensador,
bolsas inflables selectivamente y una correa de nuca. La estructura
rígida incluye una viga de soporte y un pareja de brazos rígidos.
El visor incluye un visualizador visual para presentar una imagen a
los ojos del usuario. El compensador incluye una base de espuma de
células alveolares. Los brazos rígidos alojan los altavoces. Los
altavoces cooperen con el compensador. La pareja de brazos rígidos
se extiende desde la viga de soporte y el visor está unido
pivotantemente a la viga de soporte. La correa de nuca se extiende
entre los brazos rígidos. Las bolsas inflables selectivamente se
encuentran situadas en el interior de la estructura rígida. El
documento US-A-2002/075286 desvela
un sistema en el que una cámara de video capta una imagen de un
espacio real en la línea de visión del observador en la dirección
de la línea de visión. Un generador de imágenes de espacio virtual
genera una imagen de espacio virtual en la línea de visión. Un
generador de imágenes compuestas genera una imagen compuesta
sintetizando la imagen de espacio virtual generada por el generador
de imágenes de espacio virtual y una imagen de espacio real
producida por la cámara de vídeo. Un dispositivo de visualización
muestra la imagen compuesta.
Es un objeto de la técnica desvelada
proporcionar un nuevo procedimiento y un sistema para mejorar la
comunicaciones de un usuario con el entorno.
De acuerdo con la técnica desvelada, de esta
manera se proporciona un sistema para la comunicaciones audiovisual
de acuerdo con la reivindicación 1, y/o un procedimiento
correspondiente de acuerdo con la reivindicación 21.
La técnica desvelada se podrá entender y
apreciar más completamente a partir de la descripción detallada que
sigue tomada en conjunto con los dibujos, en los que
la figura 1A es una ilustración esquemática de
un sistema para mejorar la comunicación audiovisual, construido y
operativo de acuerdo con una realización de la técnica
desvelada;
la figura 1B es una ilustración esquemática de
un sistema similar al sistema de la figura 1A, incorporado con un
dispositivo montado en cabeza;
la figura 2 es una ilustración esquemática de un
sistema, construido y operativo de acuerdo con otra realización de
la técnica desvelada;
la figura 3 es una ilustración esquemática de un
casco de miembro de la tripulación, construido y operativo de
acuerdo con una realización adicional de la técnica desvelada;
la figura 4 es una ilustración esquemática de un
avión, en la que se indican ejemplos de posiciones de fuentes de
audio virtuales preferidas;
la figura 5 es una ilustración esquemática de
una formación de aviones que utilizan enlaces de radio para
comunicar las señales de audio entre los miembros de las
tripulaciones de los diferentes aviones;
la figura 6 es una ilustración esquemática de un
procedimiento de formación de imágenes de audio en 3D en base a las
mediciones de la línea de visión, operativo de acuerdo con otra
realización de la técnica desvelada;
la figura 7A es una ilustración esquemática de
un sistema para producir una señal de sonido libre de ruidos,
construido y operativo de acuerdo con una realización adicional de
la técnica desvelada;
la figura 7B es una ilustración esquemática de
un detalle del controlador de audio del sistema de la figura
7A;
la figura 7C es una ilustración esquemática del
sistema de la figura 7A incorporado en un dispositivo montado en
cabeza;
la figura 8A es una ilustración esquemática de
un sistema de cancelación de ruido, construido y operativo de
acuerdo con otra realización de la técnica desvelada;
la figura 8B es una ilustración esquemática de
un detalle del controlador de ANR analógico del controlador de ANR
del sistema de la figura 8A;
la figura 8C es una ilustración esquemática del
sistema de la figura 8A, incorporado en un dispositivo montado en
cabeza;
la figura 9A es una ilustración esquemática de
un sistema de reducción de ruido, construido y operativo de acuerdo
con una realización adicional de la técnica desvelada;
la figura 9B es una ilustración esquemática del
sistema de la figura 9A, incorporado en un dispositivo montado en
cabeza;
la figura 10A es una ilustración esquemática de
un sistema digital de reducción de ruido, construido y operativo de
acuerdo con otra realización de la técnica desvelada;
la figura 10B es una ilustración esquemática de
la porción predictiva del sistema de la figura 10A;
la figura 10C es una ilustración esquemática de
la porción de respuesta del sistema de la figura 10A;
la figura 11A es una ilustración esquemática de
un procedimiento para el funcionamiento del sistema de la figura
7A, operativo de acuerdo con una realización adicional de la técnica
desvelada;
la figura 11B es una ilustración esquemática de
un procedimiento para operar un sistema de cancelación de ruido,
operativo de acuerdo con otra realización de la técnica
desvelada;
la figura 12 es una ilustración esquemática de
un procedimiento para el funcionamiento del sistema de la figura
9A, operativo de acuerdo con una realización adicional de la técnica
desvelada;
la figura 13 es una ilustración esquemática
delantera de un sistema construido y operativo de acuerdo con otra
realización de la técnica desvelada;
la figura 14 es una ilustración en vista lateral
esquemática del sistema de la figura 13;
la figura 15A es una ilustración esquemática de
una primera escena, que es visualizada por un usuario, de acuerdo
con una realización adicional de la técnica desvelada;
la figura 15B es una ilustración esquemática de
una segunda escena, que es visualizada por el usuario de acuerdo
con otra realización de la técnica desvelada;
la figura 15C es una ilustración esquemática de
una tercera escena, que es visualizada por el usuario de acuerdo
con una realización adicional de la técnica desvelada;
la figura 16 es una ilustración esquemática de
un procedimiento para el seguimiento del ojo de un usuario,
mientras se proyectan imágenes hacia el ojo, operativo de acuerdo
con otra realización de la técnica desvelada;
la figura 17A es una ilustración en vista
lateral esquemática de un sistema, construido y operativo de acuerdo
con una realización adicional de la técnica desvelada;
la figura 17B es una ilustración en vista
delantera del sistema de la figura 17A;
\newpage
la figura 18 es una ilustración esquemática de
un sistema construido y operativo de acuerdo con otra realización
de la técnica desvelada, para dirigir un arma hacia un objetivo;
la figura 19A es una vista esquemática en
perspectiva de un transmisor variable, construido y operativo de
acuerdo con una realización adicional de la técnica desvelada;
la figura 19B es una ilustración esquemática de
una vista lateral del transmisor variable de la figura 19A;
la figura 19C es una vista esquemática en
perspectiva del transmisor variable de la figura 19A, en otro modo
de funcionamiento;
la figura 19D es una ilustración esquemática de
una vista lateral del transmisor variable de la figura 19C;
la figura 20 es una ilustración esquemática de
un transmisor variable, construido y operativo de acuerdo con otra
realización de la técnica desvelada;
la figura 21 es una ilustración esquemática de
un transmisor variable, construido y operativo de acuerdo con una
realización adicional de la técnica desvelada;
la figura 22 es una ilustración esquemática de
un procedimiento para transmitir luz a una reflectancia variable,
operativo de acuerdo con otra realización de la técnica
desvelada;
la figura 23A es una ilustración esquemática en
perspectiva ampliada de un polarizador variable, construido y
operativo de acuerdo con una realización adicional de la técnica
desvelada;
la figura 23B es una ilustración esquemática de
la vista I (vista delantera) de una de las capas de protección del
polarizador variable de la figura 23A, cuando no hay voltaje
eléctrico aplicado a través de la pareja de electrodos de la capa
de protección;
la figura 23C es una ilustración esquemática de
la vista II (vista superior) del polarizador variable de la figura
23A en forma montada y cuando no hay campo eléctrico aplicado a
través de la pareja de electrodos de la capa de protección del
polarizador variable de la figura 23A;
la figura 23D es una ilustración esquemática de
la vista I, (vista delantera) de una de las capas de protección del
polarizador variable de la figura 23A, cuando se aplica un voltaje
eléctrico a través de la pareja de electrodos de la capa de
protección;
la figura 23E es una ilustración esquemática de
la sección transversal III de la pareja de electrodos de la figura
23D;
la figura 23F es una ilustración esquemática de
la vista II (vista superior) del polarizador variable de la figura
23A en una forma montada, que tiene un material de LC de anisotropía
dieléctrica positiva y un material huésped de anisotropía óptica
positiva, y cuando se aplica un campo eléctrico a través de la
pareja de electrodos de la capa de protección del polarizador
variable de la figura 23A;
la figura 23G es una ilustración esquemática de
la vista II (vista superior) de un polarizador variable similar al
polarizador variable de la figura 23A en forma montada, construido y
operativo de acuerdo con otra realización de la técnica
desvelada;
la figura 24A es una ilustración esquemática
ampliada en perspectiva de un polarizador variable, construido y
operativo de acuerdo con una realización adicional de la técnica
desvelada;
la figura 24B es una ilustración esquemática de
la sección transversal IV del polarizador variable de la figura
24A, cuando no se aplica voltaje eléctrico entre los electrodos
interdigitales y el electrodo plano de las capas de protección del
polarizador variable de la figura 24A;
la figura 24C es una ilustración esquemática de
la sección IV del polarizador variable de la figura 24A, que
funciona en un modo de en plano;
la figura 24D es una ilustración esquemática de
la sección transversal IV del polarizador variable de la figura
24A, operando en un modo de plano - paralelo;
la figura 25 es
una ilustración esquemática en perspectiva de
una capa de protección de un polarizador variable, construido y
operativo de acuerdo con otra realización de la técnica desvelada,
y
\newpage
la figura 26 es una ilustración esquemática del
sistema de seguimiento de cabeza de la figura 1A, construido y
operativo de acuerdo con una realización adicional de la técnica
desvelada.
\vskip1.000000\baselineskip
La técnica desvelada supera las desventajas de
la técnica anterior, proporcionando un sistema que determina la
línea de visión (LOS) de un usuario, muestra una imagen
suplementaria al usuario, y controla las propiedades de la imagen
suplementario y de una imagen de escena de acuerdo con la LOS
determinada. El sistema produce además sonido multidimensional para
el usuario, recibe comandos de voz del usuario y captura imágenes de
vídeo de una escena, de acuerdo con la LOS determinada. El sistema
puede comunicarse adicionalmente con equipos diferentes (ya sea
transportados por el usuario o situado a distancia), a través de
redes diferentes. El término "usuario" en la presente memoria
descriptiva y a continuación se refiere a una persona que vuela en
un avión, tal como el piloto o miembro de la tripulación, una
persona que se encuentra en una nave espacial, una persona en un
vehículo de tierra, una persona en una embarcación marítima, una
persona que se desplaza a pié en la superficie, un buceador, y
otras similares.
Se hace referencia a continuación a las figuras
1A y 1B. La figura 1A es una ilustración esquemática de un sistema
para mejorar la comunicaciones audiovisual, que en general se
designa por 100, construido y operativo de acuerdo con una
realización de la técnica desvelada. La figura 1B es una ilustración
esquemática de un sistema similar al sistema 100, incorporado con
un dispositivo montado en cabeza, que en general se designa por
160.
El sistema 100 incluye un sistema 102 de
determinación de la LOS, un sistema 104 de visualización de la
imagen, un sistema 106, multi-dimensional de audio;
un sistema 108 de voz direccional, un sistema 110 de posicionamiento
de respaldo, un procesador 112, una cámara direccional 114, un
sistema 116 de reducción de ruido de comunicaciones de audio, una
red 118, una interfaz de comunicaciones 120, una red de área
personal 122, una pluralidad de ordenadores 124 y 126 utilizables,
un ordenador local de a bordo 128, un ordenador remoto de a bordo
130, un ordenador basado en tierra 132 y un ordenador basado en
satélite 134. El sistema 102 de determinación de la LOS incluye un
sistema 136 de seguimiento de la cabeza y un seguidor de ojos 138.
El sistema 104 de visualización de la imagen incluye una unidad de
visualización 140 y un visor activo 142.
El sistema 136 de seguimiento de la cabeza es un
sistema para determinar la posición y orientación del dispositivo
160 montado en cabeza en un sistema de coordenadas globales (por
ejemplo, el sistema de coordenadas de un avión). El seguidor 138 de
ojos determina la LOS de uno o más ojos 162 de un usuario (no
mostrado) en relación con el dispositivo 160 montado en cabeza. El
sistema 136 de seguimiento de la cabeza acoplado al seguidor 138 de
ojos, determina la LOS de los ojos 162 en relación con el sistema de
coordenadas globales.
La unidad de visualización 140 puede ser un tubo
de rayos catódicos (CRT), un visualizador de cristal líquido
(LCD), un diodo emisor de luz (LED), un LED orgánico, un láser, un
elemento de luz fluorescente, un elemento de luz incandescente, un
visualizador plano, una cámara de infrarrojos (ya sea una cámara
fotográfica de infrarrojos cercanos o de infrarrojos o una cámara
de vídeo), una vídeo cámara de luz visible, de luz estelar - SLS (es
decir, un dispositivo que amplifica la intensidad de la luz de un
objeto detectado), y similares. La unidad de visualización 140
muestra una o más imágenes suplementarias (por ejemplo, el estado
funcional del vehículo, los parámetros dinámicos del vehículo
tales como la velocidad y altitud) a los ojos 162. La unidad de
visualización 140 varía las propiedades de la imagen suplementaria,
tales como la intensidad de la luz y el emplazamiento relativo
respecto a los ojos 162, de acuerdo con la LOS de los ojos 162. El
visor activo 142 es un visor incorporado con un dispositivo 160
montado en cabeza que varía la intensidad de la luz de un objeto 164
(por ejemplo, una escena) detectado por el ojo 162.
El sistema 106 de audio
multi-dimensional es un sistema de audio que produce
sonidos para el usuario, de acuerdo con el emplazamiento de la
fuente de un sonido en relación con la posición y la orientación de
la cabeza del usuario. El sistema de voz direccional 108 incluye un
micrófono direccional que se coloca dentro de un volumen
sustancialmente cónico que define la geometría de disipación de las
ondas sonoras generadas por el habla del usuario. De esta manera,
la relación señal a ruido (SNR) de la salida del micrófono
direccional es mejorada en comparación con un micrófono no
direccional. El sistema de posicionamiento de respaldo 110 es un
sistema de determinación de posición y orientación que puede
sustituir al sistema 136 de seguimiento de cabeza, en caso de fallo
del sistema 136 de seguimiento de cabeza. El sistema 110 de
posicionamiento de respaldo de seguridad es un sistema
electromagnético óptico, acústico y otros similares que determina la
posición y la orientación de un objeto por triangulación.
La cámara direccional 114 es una cámara cuya LOS
cambia de acuerdo con la LOS actual de los ojos 162. Con este
propósito, la cámara direccional 114 incluye uno o más mecanismos
móviles (incluyendo, por ejemplo, elementos electrónicos, elementos
mecánicos, o una combinación de ambos) para reajustar continuamente
la LOS de la cámara 114 de acuerdo con la LOS actual de los ojos
162. La cámara direccional 114 puede ser una cámara de vídeo o una
cámara fotográfica. Además, la cámara direccional 114 está
construida de tal manera que la resolución de aquellas porciones
del objeto 164 que son producidas por la cámara direccional 114 y
que se encuentran situadas directamente a lo largo de la LOS de los
ojos 162, es mayor que otras porciones del objeto 164 que
normalmente son detectadas por los ojos 162, pero que no se
encuentran a lo largo de esta LOS.
Se hace notar que cada imagen del sistema 104 de
visualización, sistema 106 de audio
multi-dimensional, sistema 108 de voz y sistema de
reducción de ruido de las comunicaciones, así como módulos
adicionales que pueden incorporarse en este sistema (por ejemplo,
el sistema de disparo, elementos robóticos), opera de acuerdo con
la LOS de los ojos 162 y no solamente la posición y orientación del
dispositivo 160 montado en cabeza. De esta manera, el sistema 100
permite la comunicación audiovisual del usuario de una manera
sustancialmente precisa.
El sistema 116 de reducción de ruido de
comunicaciones de audio reduce el ruido ambiental en donde se
encuentra el usuario mientras transmite la voz del usuario a un
receptor. El sistema 116 de reducción de ruido de comunicaciones
por audio también produce el sonido deseado (por ejemplo, la voz
recibida del control en tierra), de manera que el usuario no
escucha el ruido ambiental en la proximidad del usuario. El sistema
116 de reducción de ruido de comunicaciones por audio también puede
cancelar el ruido ambiental en la proximidad del usuario, de manera
que el usuario no escucha el ruido ambiental.
Cada uno de los ordenadores utilizables 124 y
126 es un ordenador que está unido al usuario. El ordenador local
de a bordo 128 es un equipo que se encuentra dentro del vehículo (no
mostrado), tal como un avión, un vehículo de tierra, y otros
similares, en el que se encuentra el usuario. El ordenador remoto de
a bordo 130 es un equipo que se encuentra dentro de otro vehículo
(no mostrado). El ordenador basado en tierra 132 es un equipo que
es sustancialmente estacionario en relación con el usuario, tal como
uno que está ubicado en una estación de control de mando sobre el
terreno o en una plataforma sobre el agua, y otros similares. El
ordenador basado en satélite 134 es un equipo que se encuentra
dentro de un satélite, vehículo espacial, estación espacial, y
otros similares. La red 118 es una red de área local (LAN), una LAN
inalámbrica (WLAN), una red de área amplia (WAN), una red de área
metropolitana (MAN), Internet, intranet, y otros similares. El
dispositivo montado en cabeza 160 es un casco, auriculares, cinta,
máscara (por ejemplo, gafas de buceo, máscara de gas), y otros
similares.
El sistema 136 de seguimiento de la cabeza,
seguidor de ojos 138, unidad de visualización 140, sistema 106 de
audio multi-dimensional, sistema 108 de voz
direccional, sistema 110 de posicionamiento de respaldo, procesador
112 de audio y sistema 116 de reducción de ruido de comunicaciones
se unen al dispositivo 160 montado en cabeza. El visor activo 142
es parte del dispositivo 160 montado en cabeza. La cámara
direccional 114 puede estar conectada al dispositivo 160 montado en
cabeza o al vehículo en el que se encuentra el usuario. La interfaz
de comunicaciones 120 puede estar unida al dispositivo 160 montado
en cabeza o al vehículo en el que se encuentra el usuario.
El procesador 112 está acoplado al sistema 102
de determinación de la LOS, al sistema 104 de visualización de la
imagen, al sistema 106 de audio multi-dimensional,
al sistema 108 de voz direccional, al sistema 110 de
posicionamiento de respaldo, a la cámara direccional 114, al sistema
116 de reducción de ruido de comunicaciones por audio y a la
interfaz de comunicaciones 120. La red de área personal 122 está
acoplada a la interfaz de comunicaciones 120 y a los ordenadores
utilizables 124 y 126. La red 118 está acoplada al ordenador local
de a bordo 128, al ordenador remoto de a bordo 130, al ordenador
basado en el terreno 132, al ordenador basado en satélite 134 y a
la interfaz de comunicaciones 120.
En lugar de acoplarse al procesador 112, la
cámara direccional 114 se puede acoplar al sistema 102 de
determinación de la LOS. Además de acoplarse a un procesador 112,
la cámara direccional 114 se puede acoplar también al sistema 102
de determinación de la LOS. En lugar de acoplarse a un procesador
112, el sistema 104 de visualización de la imagen se puede acoplar
al sistema 102 de determinación de la LOS. Además de acoplarse a un
procesador 112, el sistema visualización de la imagen 104 se puede
acoplar también al sistema 102 de determinación de la LOS.
En lugar acoplarse a un procesador 112, el
sistema 106 de audio multi-dimensional se puede
acoplar al sistema 102 de determinación de la LOS. Además de
acoplarse a un procesador 112, el sistema 106 de audio
multi-dimensional se puede acoplar también al
sistema 102 de determinación de la LOS. En lugar de acoplarse a un
procesador 112, el sistema 108 de voz direccional se puede acoplar
al sistema 102 de determinación de la LOS. Además de acoplarse a un
procesador 112, el sistema de voz direccional 108 se puede acoplar
también al sistema 102 de determinación de la LOS.
El sistema 100 puede producir un sonido verbal
específico respectivo de una información de la LOS recibida del
sistema 102 de determinación de la LOS, asociado a un objeto al cual
está mirando el usuario. Por ejemplo, cuando el usuario mira a un
cierto edificio (es decir, en una imagen de escena), el sistema 102
de determinación de la LOS determina la LOS de los ojos 162, y
mientras tanto el usuario interroga al sistema de voz direccional
108 preguntando verbalmente información relacionada con ese edificio
(es decir, el usuario introduce un mensaje verbal al sistema 108 de
voz direccional), utilizando un micrófono (no mostrado). En
respuesta a la entrada del usuario, el sistema 100 proporciona al
usuario, por ejemplo, la dirección de la calle de ese edificio en
particular a través de un altavoz. Como alternativa o
adicionalmente, el sistema 104 de visualización de la imagen
muestra una imagen suplementaria en un visor del dispositivo montado
en cabeza 160 con respecto al emplazamiento del edificio.
El sistema 104 de visualización de imagen puede
mostrar la imagen suplementaria sobre una emplazamiento en el visor
que se encuentra en la LOS actual de los ojos 162, de acuerdo con la
LOS actual recibida del seguidor de ojos 138. En este caso, los
ojos 162 pueden ver la imagen suplementaria mientras cambia la misma
LOS.
Alternativamente, el sistema 104 de
visualización de la imagen puede mostrar la imagen suplementaria
sobre un emplazamiento en el visor desde donde se puede ver el
edificio (aunque los ojos 162 del usuario puedan no mirar en esa
dirección). En este caso, el sistema 104 de visualización de la
imagen muestra la imagen adicional de acuerdo con los datos
recibidos del sistema 136 de seguimiento de cabeza y la posición y
orientación del dispositivo montado en cabeza 160 con respecto al
edificio, en el sistema de coordenadas globales (por ejemplo, el
sistema de coordenadas de un vehículo). Por otra parte, la imagen
suplementaria se muestra en el visor cuando el usuario desplaza la
cabeza hacia el edificio.
El usuario también puede almacenar (es decir,
registrar) la información relevante de un objeto en una memoria (no
mostrada) del sistema 100, mientras mira a ese objeto. Por ejemplo,
cuando usuario mira a un edificio, el sistema 102 de determinación
de la LOS determina la LOS de los ojos 162, y el usuario puede
dirigir el sistema 100 para que almacene en la memoria (es decir,
registre) la información verbal respectiva del edificio, tal como
la dirección, número de pisos, tipo de edificio, y similares,
mientras la cámara a bordo adquiere una imagen del objeto (es
decir, el edificio mirado) en asociación con la imagen adquirida.
Además, el usuario puede emplear el sistema 100 para proporcionar
comandos verbales no direccionales que no están asociados a la LOS
de los ojos 162 (por ejemplo, el asiento de expulsión, deshacerse de
combustible, cerrar el tren de aterrizaje).
Uno o ambos sistemas 136 de seguimiento de
cabeza y seguidor de ojos 138 se puede acoplar a un procesador 112.
En lugar de acoplar uno o ambos sistema 136 de seguimiento de cabeza
y del seguidor de ojos 138 al procesador 112, el sistema 136 de
seguimiento de cabeza puede ser acoplado al seguidor de ojos 138.
Además al acoplamiento de uno o ambos sistema 136 de seguimiento de
cabeza y seguidor de ojos 138 al procesador 112, el sistema 136 de
seguimiento de la cabeza puede ser acoplado también al seguidor de
ojos 138.
El procesador 112 gestiona el funcionamiento del
sistema 102 de determinación de la LOS, sistema 104 de visualización
de la imagen, sistema 106 de audio
multi-dimensional, sistema 108 de voz direccional,
sistema 110 de posicionamiento de respaldo, cámara direccional 114
y sistema 116 de reducción de ruido de comunicaciones por audio, de
acuerdo con las señales recibidas de la interfaz de comunicaciones
120. Alternativamente, el procesador 112 no está acoplado a la
interfaz de comunicaciones 120 y el procesador 112 gestiona el
funcionamiento del sistema 102 de determinación de la LOS, sistema
104 de visualización de la imagen, sistema 106 de audio
multi-dimensional, sistema 108 de voz direccional,
sistema 110 de posicionamiento de respaldo 110, cámara direccional
114 y sistema 116 de reducción de ruido de comunicaciones por audio
sin ninguna señal de la interfaz de comunicaciones 120.
El visor activo 142 varía la transmisibilidad de
la luz a través suyo de acuerdo con la LOS de los ojos 162, de
acuerdo con una señal recibida desde el procesador 112, y otros
similares. Por ejemplo, el sistema puede incluir un detector de luz
(no mostrado) acoplado al procesador, para detectar la intensidad de
la luz ambiental, en la que el visor activo varía la
transmisibilidad de la luz de acuerdo con la intensidad detectada de
la luz ambiental. Alternativamente, el visor activo varía la
transmisibilidad de la luz de acuerdo con la señal recibida de un
controlador manual (no mostrado).
Lo que sigue es una descripción del sistema 106
de audio multi-dimensional. El término
"posición" en la presente memoria descriptiva y a continuación
se refiere ya sea al emplazamiento, a la orientación o a ambos
emplazamiento y orientación de un objeto tridimensional en un
sistema de coordenadas. El término "avión" en la presente
memoria descriptiva y a continuación, se refiere a aviones,
helicópteros, vehículos anfibios, globos, planeadores, aviones no
tripulados, vehículos espaciales, y otros similares. Se hace notar
que la técnica desvelada es aplicable a los aviones así como a
otros dispositivos distintos de los aviones, tales como vehículos de
tierra, embarcaciones marinas, simuladores de vuelo, simuladores de
vehículos de tierra, simuladores de embarcaciones marinas, sistemas
de realidad virtual, juegos de ordenador, sistemas cine en casa,
unidades estacionarias tales como una torre de control de
aeropuerto, unidades portátiles utilizables, y otras similares.
Por ejemplo, la técnica desvelada puede
proporcionar a un miembro de la tripulación de un avión una
representación de audio de tres dimensiones con respecto a otra
avión que vuela cerca, un automóvil en movimiento y un control en
tierra. Del mismo modo, la técnica desvelada puede proporcionar a un
controlador de vuelo en la torre de control, representación de
audio en tres dimensiones relativa a avión en el aire o en el suelo,
distintos vehículos y personas en las inmediaciones del aeropuerto,
y otras similares.
En un ejemplo sencillo, las alertas relativas a
los componentes de los aviones situados en el ala izquierda del
avión están infundidas de un emplazamiento espacial que se
corresponde a la parte izquierda del avión. Esto permite que el
miembro de la tripulación reconozca de inmediato y se concentre en
el emplazamiento requerido.
En otro ejemplo, cuando una pluralidad de
aviones están volando en formación y están en comunicación por
radio, un sistema de acuerdo con la técnica desvelada asocia una
localización recibida a cada transmisión de señal de audio, en base
a la localización del avión transmisor en relación con el avión
recepto. Por ejemplo, cuando el avión transmisor está situado en la
parte derecha del avión receptor, el sistema permite la transmisión
de sonido al miembro de la tripulación del avión receptor como si
procediese del lado derecho del avión, con independencia de la
posición de la cabeza y de la orientación del miembro de la
tripulación. De esta manera, si el miembro de la tripulación está
mirando hacia la parte delantera del avión, el sistema hace que el
sonido se escuche en el lado derecho del casco, mientras que si el
miembro de la tripulación está mirando hacia la parte trasera del
avión, el sistema hace que el sonido se escuche en el lado izquierdo
del casco.
Tal asociación espacial es efectuada infundiendo
las señales de audio con características de localización espacial,
y correlacionando la localización espacial infundida con la
localización espacial real o con una localización espacial
preferida. La localización espacial real se refiere a la
localización de la fuente de sonido en relación con el miembro
receptor de la tripulación. Por ejemplo, cuando el avión transmisor
está volando en la parte superior derecha del avión receptor, un
sistema de acuerdo con la técnica desvelada infunde la localización
real del avión transmisor (es decir, la parte superior derecha) al
sonido del miembro de la tripulación del avión transmisor, al mismo
tiempo que reproduce ese sonido en los oídos del miembro de la
tripulación del avión receptor.
La localización espacial preferida se refiere a
una localización que se define virtualmente para proporcionar una
mejor separación de audio de las fuentes de audio o para enfatizar
una fuente de audio determinada. Por ejemplo, cuando se han
generado simultáneamente diferentes señales de advertencia en el ala
derecha del avión, tales como indicaciones a los bomberos (señal
S_{1}), indicación del tren de aterrizaje extendido (señal
S_{2}) y una indicación de flap atascado (señal S_{3}), un
sistema de acuerdo con la técnica desvelada infunde una
localización espacial diferente en cada una de estas señales de
advertencia. Si la orientación esférica (\varphi, \theta) del
lado derecho es designada (0,0), entonces un sistema de acuerdo con
la técnica desvelada infundirá las orientaciones (0, 30º), (0, -30º)
y (30º, 0) a las señales S_{1}, S_{2} y S_{3},
respectivamente. En este caso, el miembro de la tripulación puede
distinguir estas señales de advertencia más fácilmente. Se hace
notar que la técnica desvelada localiza un sonido en una cierta
posición en un espacio tridimensional mediante el empleo de la
información de la línea de visión del miembro de la tripulación.
La mente humana ejecuta la localización de audio
en tres dimensiones, en base al retraso relativo y a la respuesta
de frecuencia de las señales de audio entre la oreja izquierda y la
derecha. Introduciendo artificialmente tales retrasos y respuestas
de frecuencia, una señal monoaural se transforma en una señal
biaural que tiene características de localización espacial. El
retraso y la respuesta de frecuencia que asocian una localización
de la fuente de audio espacial a cada oreja se describen mediante un
modelo de Función de Transferencia Relacionada con la Cabeza
(HRTF). La técnica ilustrada puede ser mejorada construyendo modelos
HRTC para cada individuo, teniendo en cuenta los diferentes tamaños
y geometrías de la cabeza. La capacidad humana para detectar la
localización espacial de una fuente de sonido por audición biaural
se ve aumentada por los movimientos de la cabeza, permitiendo que
el sonido sea detectado en varias orientaciones de la cabeza,
aumentando la eficiencia de la localización.
En un entorno de cabina, un miembro de la
tripulación no mantiene una orientación fija de la cabeza, sino que
por el contrario cambia la orientación de la cabeza de acuerdo con
las tareas realizadas. La técnica desvelada tiene en cuenta la
orientación de la cabeza actual del miembro de la tripulación
determinando un modelo de HRTF adecuado basado en la localización
de la fuente actual así como en la orientación de la cabeza del
miembro de la tripulación. La orientación de la cabeza del miembro
de la tripulación es detectada por un sistema de posición del
usuario. El sistema de posición del usuario incluye unidades para
detectar la posición del usuario (por ejemplo, la línea de visión,
orientación de las orejas) y además puede incluir unidades tales
como una unidad de GPS, un radar y similares, para detectar la
posición de un volumen que está asociada con el usuario (por
ejemplo, un vehículo, un buque, un avión y otros similares). El
sistema de posición del usuario pueden ser montado en la cabeza del
usuario (por ejemplo, acoplado a un dispositivo montado en cabeza,
tal como un casco, auriculares, lentes, gafas) o remota del usuario
(por ejemplo, una o varias cámaras que examinan al usuario, un
sistema de sonar). La unidad para detectar la posición en la que ese
volumen puede ser acoplado al volumen (por ejemplo, unidad GPS,
unidad de radar de a bordo) o ser exterior al volumen (por ejemplo,
unidad de radar IFF - tierra con conexión inalámbrica al avión).
Tales unidades de detección de la posición del volumen se pueden
integrar con las unidades de detección de la posición del usuario.
El sistema de posición del usuario puede ser en forma de un sistema
de detección electromagnética, un sistema de detección óptica, un
sistema de sonar, y otros similares.
Se hace referencia a continuación a la figura 2,
que es una ilustración esquemática de un sistema, que en general se
designa por 1100, construido y operativo de acuerdo con otra
realización de la técnica desvelada. El sistema 1100 incluye una
memoria 1102 de objetos de audio, un receptor de radio 1104, una
interfaz de señales 1106 (por ejemplo, un multiplexor de señales),
un convertidor multi canal analógico a digital (ADC) 1108, un
sistema 1110 de posición de la fuente, un sistema 1114 de posición
del avión, una memoria de HRTC 1116, un sistema 1112 de posición
del casco, un procesador de señales digitales 1118, un conversor
digital a analógico (DAC) 1120, un reproductor de sonido 1122 del
canal izquierdo, y un reproductor de sonido 1124 del canal derecho.
La memoria de objetos de audio 1102 incluye los datos de la señal de
audio y los datos de la posición respectiva de una pluralidad de
estados de alarma.
La interfaz de señal 1106 está acoplada a la
memoria 1102 de objetos de audio, al receptor de radio 1104, al
procesador de señales digitales 1118 y al ADC multi canal 1108. El
ADC multi canal 1108 está acoplado adicionalmente al procesador de
señales digitales 1118. El procesador de señales digitales 1118 está
acoplado adicionalmente al sistema 1110 de posición de fuente, al
sistema 1112 de posición de casco, al sistema 1114 de posición del
avión, a la memoria de localización de fuente (HRTF) 1116 y al DAC
1120. El DAC 1120 está acoplado adicionalmente al reproductor de
sonido del canal izquierdo 1122 y al reproductor de sonido del canal
derecho 1124.
El receptor de radio 1104 recibe las
transmisiones de radio, ya sea en formato analógica o digital y
proporciona la porción de audio de las transmisiones de radio a la
interfaz de señal 1106. La interfaz de señal 1106 recibe
indicaciones de alerta de una fuente de indicación de alerta (no
mostrada), tal como un componente de avión, sistema de radar de a
bordo, sistema de IFF, y otros similares, ya sea en formato
analógica o digital. La interfaz de señal 1106 recibe los datos de
audio y los datos de localización espacial en formato digital,
respectivos de la indicación de advertencia de la memoria de objetos
de audio 1102.
Si las señales recibidas por la interfaz de
señal 1106 están en formato digital, entonces la señal de interfaz
1106 proporciona estas señales digitales al procesador de señales
digitales 1118. Si algunas de las señales recibidas por el interfaz
de señal 1106 están en formato analógico y otros en formato digital,
entonces la señal de interfaz 1106 proporciona las señales
digitales al procesador de señales digitales y las señales
analógicas al ADC multi canal 1108. El ADC multi canal 1108
convierte estas señales analógicas a formato digital, multiplexa
las diferentes señales digitales y proporciona estas señales
digitales multiplexadas al procesador de señales digitales
1118.
El sistema 1110 de posición de la fuente
proporciona datos respectivos de la localización de la fuente de
radio al procesador de señales digitales 1118. El sistema 1112 de
posición del casco proporciona los datos respectivos de la posición
del casco del miembro de la tripulación al procesador de señales
digitales 1118. El sistema 1114 de posición del avión proporciona
los datos respectivos de la localización actual del avión al
procesador de señales digitales 1118. El procesador de señales
digitales 1118 selecciona una localización de la fuente virtual en
base a los datos respectivos de la localización de la fuente de
radio, de la posición del casco del miembro de la tripulación, y de
la localización actual del avión. El procesador de señales digitales
1118 a continuación recupera el modelo de HRTF apropiado de la
memoria de HRTF 1116, en base a la localización de la fuente
virtual seleccionada.
El procesador de señales digitales 1118 filtra
la señal de audio digital, utilizando el modelo de HRTF recuperado
para crear una señal digital del canal izquierdo y una señal digital
del canal derecho. El procesador de señales digitales 1118
proporciona las señales de audio digitales filtradas al DAC
1120.
El DAC 1120 convierte la señal digital del canal
izquierdo y la señal digital del canal derecho al formato analógico
para crear una señal de audio del canal izquierdo y una señal de
audio del canal derecho, respectivamente, y proporciona las señales
de audio al reproductor 1122 de sonido del canal izquierdo y al
reproductor de sonido del canal derecho 1124. El reproductor de
sonido del canal izquierdo 1122 y el reproductor de sonido del canal
derecho 1124 reproducen la señal de audio del canal izquierdo y la
señal de audio del canal derecho en formato analógico
respectivamente.
Cuando se detecta una alarma o amenaza, la
memoria de objetos de audio 1102 proporciona la alarma de audio
relevante al ADC multi canal 1108 a través de la interfaz de
señalización 1106. El ADC multi canal 1108 convierte la señal
analógica de audio a formato digital y proporciona la señal digital
al procesador de señales digitales 1118.
El sistema 1112 de posición del casco
proporciona los datos respectivos de la posición del casco del
miembro de la tripulación al procesador de señales digitales 1118.
El sistema 1114 de posición del avión proporciona los datos
respectivos de la localización actual del avión al procesador de
señales digitales 1118. El sistema 1114 de posición del avión está
acoplado al avión. El procesador de señales digitales 1118
selecciona una localización de la fuente virtual en base a los
datos respectivos de la localización espacial de la amenaza, alarma
o alerta, de la posición del casco del miembro de la tripulación y
de la localización actual del avión. A continuación, el procesador
de señales digitales 1118 recupera el modelo de HRTF apropiado de la
memoria de HRTF 1116, en base a la localización de la fuente
virtual seleccionada, de acuerdo con la realización que se ha
ilustrado más arriba.
Se hace notar que el sistema 1112 de posición de
casco puede ser reemplazado por un sistema de localización o por un
sistema de orientación. Por ejemplo, cuando la señal de audio es
recibida desde un avión transmisor, entonces la orientación del
casco y la localización del avión receptor en relación con el avión
transmisor es más significativa que la localización del casco
dentro de la cabina del avión receptor. En este caso, la
localización del avión transmisor en relación con el avión receptor
puede ser determinada por un sistema de posicionamiento global
(GPS), un sistema radar, y otros similares.
Se hace notar que el receptor de radio 1104 es
el receptor de radio que generalmente se utiliza para la
comunicación con el avión, y puede incluir una pluralidad de
receptores de radio que utilizan frecuencias y procedimientos de
modulación. También se hace notar que la identificación de amenazas
y la generación de alarmas son realizadas por distintos componentes
del sistema 1100 que son bien conocidos en la técnica, tales como
los sistemas IFF (Identificar Amigo o Enemigo), sistemas de alerta
basados en tierra, y otros similares. También se hace notar que el
reproductor de sonido del canal izquierdo 1122 y el reproductor de
sonido del canal derecho 1124 son generalmente auriculares
incrustados en el casco del miembro de la tripulación, pero pueden
ser cualquier otro tipo de reproductores de sonido conocidos en el
técnica, tales como sistemas de altavoces de sonido envolvente,
auriculares de tipo de conducción ósea, y otros similares.
De acuerdo con otra realización de la técnica
desvelada, la memoria de objetos de audio 1102 almacena alarmas de
audio en formato digital, eliminando la necesidad de la conversión
de la señal de audio a formato digital antes de ser procesada por
el procesador de señales digitales 1118. En una realización de este
tipo, la memoria 1102 de objetos de audio está acoplada
directamente al procesador de señales digitales 1118.
De acuerdo con una realización adicional de la
técnica desvelada, el receptor de radio 1104 puede ser un receptor
de radio de formato digital, eliminando la necesidad de la
conversión de la señal de audio a formato digital antes de ser
procesada por el procesador de señales digitales 1118. Como
consecuencia, el receptor de radio 1104 está acoplado directamente
al procesador de señales digitales 1118.
De acuerdo con otra realización de la técnica
desvelada, el sistema 1112 de posición del casco puede ser
sustituido por un sistema de línea de visión del miembro de la
tripulación (no mostrado), separado de un casco del miembro de la
tripulación (no mostrado). Como consecuencia, el miembro de la
tripulación no necesariamente tiene que usar un casco, pero todavía
puede aprovechar los beneficios de la técnica desvelada. Por
ejemplo, un miembro de la tripulación de un avión comercial que
normalmente no usa un casco. En un ejemplo de este tipo, el sistema
de línea de visión del miembro de la tripulación puede ser colocado
en la cabeza del miembro de la tripulación, por ejemplo por medio
de los auriculares del miembro de la tripulación, de tal manera que
proporcione información de la línea de
visión.
visión.
Se hace referencia a continuación a la figura 3,
que es una ilustración esquemática de un casco del miembro de la
tripulación, generalmente indicado por 1200, construido y operativo
de acuerdo con una realización adicional de la técnica desvelada.
El casco 1200 del miembro de la tripulación incluye un cuerpo de
casco 1202, un sistema 1204 de línea de visión del casco, un
reproductor de sonido del canal izquierdo 1206L, un reproductor de
sonido del canal derecho (no mostrado) y una conexión de datos/audio
1208. El sistema 1204 de línea de visión de casco, el reproductor de
sonido del canal izquierdo 1206L, el reproductor de sonido del canal
derecho, y la conexión de audio/datos 1208 se montan en el cuerpo
del casco 1202. La conexión de datos/ audio 1208 está acoplado al
sistema 1204 de línea de visión del casco, al reproductor de sonido
del canal izquierdo 1206L y al reproductor de sonido del canal
derecho.
El sistema 1204 de línea de visión de casco, el
reproductor de sonido del canal izquierdo 1206L y el reproductor de
sonido del canal derecho son similares al sistema 1112 de línea de
visión de casco (figura 2), al reproductor de sonido del canal
izquierdo 1122 y al reproductor de sonido del canal derecho 1124,
respectivamente. El sistema 1204 de línea de visión de casco, el
reproductor de sonido del canal izquierdo 1206L y el reproductor de
sonido del canal derecho están acoplados al resto de los tres
elementos del sistema de formación de imágenes de sonido
tridimensional (respectivos de los elementos del sistema 1100 de la
figura 2) por medio de la conexión de datos/audio 1208.
Se hace referencia a continuación a la figura 4,
que es una ilustración esquemática de un avión, que en general se
designa por 1300, en la que se indican ejemplos de localizaciones de
fuentes de audio virtuales preferidas. Indicadas en los aviones
1300 hay una localización de fuente virtual del ala izquierda 1302,
una localización de fuente virtual del ala derecha 1304, una
localización de fuente virtual de cola 1306, una localización de
fuente virtual de la panza 1308, y una localización de fuente
virtual de la cabina 1310. En general, cualquier combinación de
localización y orientación de un punto de transmisión con respecto a
un punto receptor se puede definir para cualquier punto transmisor
que rodea el avión, usando coordenadas cartesianas, coordenadas
esféricas, y otras similares. Las alertas relativas a los elementos
del ala izquierda, tal como el motor izquierdo, tanque de
combustible izquierdo y detección de amenazas del lado izquierdo
están infundidas en la localización de fuente virtual del ala
izquierda 1302, antes de la transmisión al miembro de la
tripulación. En un ejemplo adicional, las alertas relativas a la
parte de popa del avión, tales como las alertas de control del
timón, la detección de amenazas de popa y las alertas de la cámara
de postcombustión, están infundidas con la localización de fuente
virtual de cola 1306, antes de ser transmitida al miembro de la
tripulación.
Se hace notar las localizaciones de fuente
virtual ilustradas son sólo ejemplos de la posible localización de
la fuente virtual para ilustrar los principios de la técnica
desvelada. Otras localizaciones de fuente virtual pueden ser
proporcionadas, como se requiera.
Se hace referencia a continuación a la figura 5,
que es una ilustración esquemática de una formación de aviones,
generalmente designada como 1400, que utilizan enlaces de radio para
comunicar señales de audio entre los miembros de las tripulaciones
de los diferentes aviones. La formación de aviones 1400 incluye un
avión de cabeza 1406, un avión de lado derecho 1408, y un avión de
lado izquierdo 1410. Los aviones en la formación de aviones 1400
comunicarán por medio del primero enlace de radio 1402 y del segundo
enlace de radio 1404. El avión de cabeza 1406 y el avión de lado
derecho 1408 están en comunicación mediante el primer enlace de
radio 1402. El avión de cabeza 1406 y el avión de lado izquierdo
1410 están en comunicación mediante el segundo enlace de radio
1404.
De acuerdo con la técnica desvelada, cuando el
avión de cabeza 1406 recibe una transmisión de radio del avión del
lado derecho 1408 mediante el primer enlace de radio 1402, la
transmisión de radio recibida está infundida con una localización
de fuente virtual del lado trasero derecho antes de ser transmitida
al miembro de la tripulación del avión de cabeza 1406. En otro
ejemplo, cuando el avión de lado izquierdo 1410 recibe una
transmisión de radio del avión de cabeza 1406 mediante el segundo
enlace de radio 1404, la transmisión de radio recibida está
infundida de una localización de fuente virtual del lado delantero
derecho, antes de ser transmitida al miembro de la tripulación en
el avión del lado izquierdo 1410.
Se hace notar que la formación virtual ilustrada
es sólo un ejemplo de una posible formación y de enlaces de radio,
para ilustrar los principios de la técnica desvelada. Otra formación
y enlaces de radio que corresponden a diferentes localizaciones de
fuente virtual, puede ser utilizada, cuando sea necesario.
Se hace referencia a continuación a la figura 6,
que es una ilustración esquemática de un procedimiento para la
formación de imágenes de audio en 3D, en base a las mediciones de
línea de visión, operativo de acuerdo con otra realización de la
técnica desvelada. En el procedimiento 1500 se recibe una indicación
de advertencia. La indicación de advertencia es respectiva de un
evento, tal como un componente defectuoso, un misil que se
aproxima, y otros similares. Con referencia a la figura 2, el
procesador de señales digitales 1118 recibe una indicación de
advertencia de un componente del avión (no mostrado), tal como un
indicador de nivel de combustible, un indicador de posición del
equipo de aterrizaje, un indicador de humo, y otros similares.
Alternativamente, la indicación de advertencia se recibe de un
sistema de detección a bordo, tal como un sistema de IFF, un
sistema de monitorización de la presión del combustible, un sistema
monitorización de la integridad estructural, un sistema de radar, y
otros similares.
Por ejemplo, en una instalación de tierra, un
sistema de alarma de acuerdo con la técnica desvelada proporciona a
un guardia una indicación de advertencia respectiva de una persona
en movimiento. En este caso, el sistema de alarma proporciona la
señal de alerta (por ejemplo, una alarma silenciosa) respectiva de
la posición de la persona en movimiento (por ejemplo, un ladrón),
con respecto a la posición del guardia, por lo que el guardia puede
deducir a partir de la señal de la alerta, donde buscar a esa
persona.
En el procedimiento 1502, se recupera una señal
de audio y una posición de alerta almacenadas respectivas de la
indicación de advertencia recibida. Para cada indicación de
advertencia, una señal de audio respectiva y una posición espacial
respectiva se almacenan en una unidad de memoria. Por ejemplo, una
señal de advertencia de flap atascado en el ala derecha se
correlaciona con las señales de sonido a 5 kHz, con una duración de
500 mseg y separadas 200 mseg y con una localización superior
derecha del avión. Con referencia a las figuras 2 y 4, el
procesador de señales digitales 1118 recupera una señal de audio
respectiva de un tanque de combustible bajo en el ala izquierda del
avión 1300, y la localización de la fuente virtual del ala izquierda
1302, de la memoria de objetos de audio 1102. Alternativamente,
cuando se recibe una advertencia respecto a un misil guiado desde
el sistema de radar de a bordo, el procesador de señales digitales
1118 recupera una señal de audio respectiva de una alerta de
misiles guiados de la memoria de objetos de audio 1102. El sistema
asocia la señal de audio y la posición de ese misil que es
proporcionada por el sistema de radar a bordo, de modo que cuando
se selecciona el HRTF apropiado para proporcionar al usuario una
idea respecto a desde donde está viniendo el misil.
En el procedimiento 1504, se recibe una señal de
audio de comunicaciones. La señal de audio de comunicaciones se
asocia generalmente con la voz (por ejemplo, la voz de otra persona
en la red de comunicaciones). Con referencia a la figura 2, el
receptor de radio 1104 recibe una señal de audio de comunicaciones.
La señal de audio de comunicaciones puede ser recibida de otro
miembro de la tripulación del mismo avión, de otro avión que vuela
simultáneamente, de una fuente sustancialmente estacionaria con
respecto a los aparatos receptores, tal como una embarcación
marítima, un controlador de tráfico aéreo, un vehículo terrestre, y
otros similares. Las fuentes de señales de audio de comunicaciones
pueden ser, por ejemplo, la radio de comunicaciones de fuerzas
terrestres (Soporte Aéreo), el sistema radio UHF, el sistema radio
VHF, el sistema comunicaciones por satélite, y otros similares.
En el procedimiento 1506, la posición de la
fuente de la señal de audio de comunicaciones se ha detectado. Esta
posición detectada define la posición de un ser humano que habla en
un sistema de coordenadas globales. Con referencia a la figura 2,
si la señal de audio de comunicaciones se recibe de un miembro de la
tripulación en el mismo avión, entonces el sistema de posición de
la fuente 1110 detecta la localización del casco del miembro
transmisor de la tripulación. Si la señal de audio de comunicaciones
se recibe de otro avión o de una fuente sustancial estacionaria
respecto al avión receptor, entonces el sistema de posición de la
fuente 1110 detecta la localización del avión transmisor o de la
fuente sustancialmente estacionaria. El sistema de posición de la
fuente 1110 detecta la localización del avión transmisor o de la
fuente sustancialmente estacionaria mediante el empleo de un
sistema GPS, de un sistema de radar, de un sistema de IFF, y de
otros similares, recibiendo la información de localización desde la
fuente transmisora.
En el procedimiento 1508, se detecta una
posición de escucha. Esta posición detectada define la posición de
los oídos del oyente (es decir, el miembro de la tripulación). Con
referencia a la figura 3, el sistema 1204 de línea de visión de
casco detecta la posición del casco 1200, que define la posición de
las orejas del usuario que está usando el casco 1200. Si se ha
recibido una indicación de advertencia (procedimiento 1500),
entonces el sistema 1204 de línea de visión de casco detecta la
localización y orientación del casco 1200 (es decir, la línea de
visión del miembro receptor de la tripulación). Si una señal de
comunicaciones de audio ha sido recibida de otro miembro de la
tripulación en el mismo avión (procedimiento 1504), entonces el
sistema 1204 de línea de visión de casco detecta la localización y
orientación del casco 1200. Por ejemplo, cuando el miembro de la
tripulación está inspeccionando el avión mientras se desplazan en su
interior, el sistema de línea de visión de casco detecta la
localización y orientación del miembro de la tripulación en
cualquier momento dado. Si una señal de audio de comunicaciones ha
sido recibida de otro avión o de una fuente sustancialmente
estacionaria (procedimiento 1504), entonces es suficiente que el
sistema 1204 de línea de visión de casco detecte únicamente la
orientación del casco 1200 del miembro receptor de la tripulación,
en relación con el sistema de coordenadas del avión receptor.
En el procedimiento 1510, se detecta la posición
del avión. La posición detectada define la posición del avión en el
sistema de coordenadas globales. Con referencia a la figura 2, si
una señal de audio de comunicaciones ha sido recibida de una
fuente exterior al avión (por ejemplo, otro avión o una fuente
sustancialmente estacionaria), entonces el sistema 1114 de posición
del avión detecta la localización del avión receptor relativa a la
localización del avión transmisor o de la fuente sustancialmente
estacionaria. El sistema 1114 de posición del avión detecta la
localización mediante el empleo de un sistema GPS, de un sistema de
navegación inercial, de un sistema de radar, y otros similares.
Alternativamente, la información de posición puede ser recibida de
la fuente exterior.
En el procedimiento 1512, se ha seleccionado una
HRTF. La HRTF es seleccionada con respecto a la posición relativa
de las orejas del oyente y de la fuente de transmisión. Con
referencia a la figura 2, si se ha recibido una indicación de
advertencia (procedimiento 1500), a continuación el procesador de
señales digitales 1118 selecciona un modelo de HRTF de acuerdo con
la localización de alerta recuperada (procedimiento 1502) y la
línea de visión detectada del miembro receptor de la tripulación
(procedimiento 1508).Si una señal de audio de comunicaciones ha
sido recibida de un miembro de la tripulación transmisor en el mismo
avión (procedimiento 1504), a continuación el procesador de señales
digitales 1118 selecciona un modelo de HRTF, de acuerdo con la
localización detectada del casco del miembro de la tripulación
transmisor (procedimiento 1506) y de la línea detectada de visión
(localización y orientación) del miembro de la tripulación receptor
(procedimiento 1508). Si una señal de comunicaciones de audio ha
sido recibida de otro avión o de una fuente sustancialmente
estacionaria, a continuación el procesador de señales digitales 1118
selecciona un modelo de HRTF de acuerdo con la localización
detectada en el procedimiento 1506, la línea de visión detectada en
el procedimiento 1508 y la localización del avión receptor
detectada en el procedimiento 1510.
En el procedimiento 1514, la HRTF seleccionada
se aplica a la señal de audio, produciendo así una pluralidad de
señales de audio. Cada una de estas señales de audio es respectiva
de una posición diferente en un espacio tridimensional. Con
referencia a la figura 2, el procesador de señales digitales 1118
aplica el modelo de HRTF que fue seleccionado en el procedimiento
1512, a la indicación de alerta recibida (procedimiento 1500), o a
la señal de audio de comunicaciones recibida (procedimiento
1504).
El procesador de señales digitales 1118
adicionalmente produce una señal de audio del canal izquierdo y una
señal de audio del canal derecho (es decir, una señal de audio
estereofónica). El procesador de señales digitales 1118 proporciona
la señal de audio del canal izquierdo y la señal de audio del canal
derecho al reproductor de sonido del canal izquierdo 1122 y al
reproductor de sonido del canal derecho 1124, respectivamente, a
través del CAD 1120. El reproductor de sonido del canal izquierdo
1122 y el reproductor de sonido del canal derecho 1124 producen un
sonido del canal izquierdo y un sonido del canal derecho, de acuerdo
con la señal de audio del canal izquierdo y la señal de audio del
canal derecho, respectivamente (procedimiento 1516).
Se hace notar que las señales de audio del canal
izquierdo y derecho incluyen una pluralidad de elementos que tienen
frecuencias diferentes. Estos elementos se diferencian generalmente
en fase y amplitud de acuerdo con el modelo de HRTF utilizado para
filtrar la señal de audio original (es decir, en algunas
configuraciones de HRTF, para cada frecuencia). Se hace notar
adicionalmente que el procesador de señales digitales puede
producir cuatro señales de audio en cuatro canales para cuatro
reproductores de sonido (sonido cuadrafónico), cinco señales de
audio en cinco canales para cinco reproductores de sonido (sonido
envolvente), o cualquier número de señales de audio para el número
respectivo de reproductores de sonido. De esta manera, el sonido
reproducido puede ser multi-dimensional (es decir,
bidimensional o tridimensional).
En una realización adicional de la técnica
desvelada, el volumen de la señal de audio reproducida se altera
con el fin de indicar las características de distancia de la señal
recibida. Por ejemplo, dos amenazas detectadas que se encuentra
situadas a diferentes distancias del avión, se anuncian al miembro
de la tripulación utilizando diferentes volúmenes respectivos de la
distancia de cada amenaza. En otra realización de la técnica
desvelada, con el fin de aumentar la capacidad del usuario para
percibir la localización y la orientación de una fuente de sonido,
el sistema utiliza una máscara de ecos predeterminada para cada
conjunto predeterminado de localización y orientación. En una
realización adicional de la técnica desvelada, se ha seleccionado
una localización de la fuente virtual para una transmisión
recibida, en base al originador de la transmisión (es decir, la
identidad del hablante o la función del enlace de radio). De esta
manera un miembro de la tripulación puede identificar al hablante,
o al enlace de radio, en base a la localización de la fuente virtual
infundida.
Por ejemplo, las transmisiones desde el
comandante de la misión puede ser infundidas con una localización
de la fuente virtual directamente detrás del miembro de la
tripulación, mientras que las transmisiones de la torre de control
puede ser infundidas con una localización de fuente virtual
directamente sobre el miembro de la tripulación, permitiendo que el
miembro de la tripulación distinga fácilmente entre los dos
altavoces. En otro ejemplo, las transmisiones de radio recibidas a
través del canal de soporte en tierra puede ser infundidas con una
localización espacial directamente debajo del miembro de la
tripulación, mientras que las comunicaciones tácticas recibidas a
través de un canal de comunicaciones dedicado pueden estar
infundidas con una localización de fuente virtual a la derecha del
miembro de la tripulación.
Se hace notar que los lugares y fuentes que se
han descrito en la presente memoria descriptiva con anterioridad
son sólo ejemplos de las posibles localizaciones y fuentes que se
proporcionan para ilustrar los principios de la técnica desvelada.
Otras localizaciones de fuentes virtuales y fuentes de
comunicaciones pueden ser utilizadas como se requiera.
En una realización adicional de la técnica
desvelada, el procedimiento ilustrado en la figura 6 incluye además
un procedimiento preliminar para la construcción de modelos de HRTF,
únicos para cada miembro de la tripulación. Como consecuencia, los
modelos de HRTF utilizados para filtrar la reproducción de audio al
miembro de la tripulación se cargan desde un dispositivo de memoria
que el miembro de la tripulación introduce en el sistema (por
ejemplo, un dispositivo de memoria de este tipo puede estar
asociada a su casco personal). Se hace notar que estos modelos de
HRTF se construyen generalmente con antelación y se utilizan cuando
sea necesario.
En una realización adicional de la técnica
desvelada, se usan los altavoces de sonido envolvente para
reproducir la señal de audio al miembro de la tripulación. Cada uno
de los modelos espaciales corresponde a la característica de los
altavoces individuales y sus respectivas localizaciones y
orientaciones dentro del avión. Como consecuencia, un modelo
espacial de este tipo define una pluralidad del canales de audio de
acuerdo con el número de hablantes. Sin embargo, el número del
canales de audio puede ser menor que el número de hablantes puesto
que la localización de estos altavoces es generalmente fija, no se
selecciona un modelo espacial de acuerdo con la información de la
línea de visión (LOS) del miembro de la tripulación, sino solamente
en base a la localización y la orientación de la fuente con
respecto al volumen definido y rodeado por los altavoces. Se hace
notar que en una realización de este tipo, la señal de audio es
escuchada por todos los miembros de la tripulación en el avión, sin
que se requiera la información de la LOS para cualquier miembro de
la tripulación.
Lo que sigue es una descripción del sistema 116
de reducción de ruido de comunicaciones por audio. El término
"transductor acústico eléctrico" en la presente memoria
descriptiva y en lo que sigue, se refiere a un dispositivo que
convierte las señales acústicas en señales eléctricas (por ejemplo,
un micrófono). La expresión "transductor electro acústico" en
la presente memoria descriptiva y en lo que sigue se refiere a un
dispositivo que convierte las señales eléctricas en señales
acústicas (por ejemplo, un altavoz. Un transductor acústico
eléctrico puede funcionar sobre la base de los principios de la
electrodinámica, electrostática, piezoelectricidad,
magnetoestricción, fibra óptica, estimulación de partículas de
carbono, y otros similares. Un transductor electro acústico puede
funcionar sobre la base de los principios de la electrodinámica,
magnetismo, piezoelectricidad, magnetoestricción, hidráulica, y
otros similares. El término "eléctrico" en la presente memoria
descriptiva incluye todas las señales electromagnéticas tales como
las eléctricas, ópticas, radio y similares, que pueden ser
transmitidas por cables o por otros canales de comunicaciones, o de
forma inalámbrica.
El término "zona tranquila" en la presente
memoria descriptiva y a continuación, se refiere a una región en la
proximidad del tímpano, el oído, o en el interior del canal exterior
del mismo, en el que un sonido con un desfase de aproximadamente
180 grados con respecto el ruido ambiental (oposición de fase, o
desfasado \pi radianes), cancela el ruido ambiental y, como
resultado, la persona no escucha el ruido ambiental. Los lugares
"cercanos a la oreja" en la presente memoria descriptiva y a
continuación son aproximados y se refieren a la zona tranquila. La
expresión "ruido tonal" en la presente memoria descriptiva y a
continuación se refiere a un ruido que está confinado
substancialmente en la gama rango o rangos de frecuencias limitados
sustancialmente, tales como el ruido generado por los rotores de un
helicóptero.
Se hace referencia a continuación a las figuras
7A, 7B y 7C. La figura 7A es una ilustración esquemática de un
sistema para producir una señal de sonido libre de ruido, que en
general se designa por 2100, construido y operativo de acuerdo con
una realización adicional de la técnica desvelada. La figura 7B es
una ilustración esquemática de un detalle del controlador de audio
del sistema de la figura 7A. La figura 7C es una ilustración
esquemática del sistema de la figura 7A incorporado en un
dispositivo montado en cabeza, por lo general se designa por
2150.
Con referencia a la figura 7A, el sistema 2100
incluye los transductores acústico eléctricos 2102 y 2104 y un
controlador de audio 2106. El controlador de audio 2106 está
acoplado a los transductores acústico eléctricos 2102 y 2104.
El controlador de audio 2106 es un procesador
digita que muestrea simultáneamente dos señales de entrada a la
misma velocidad de muestreo y determina la función de transferencia
de estas dos señales de entrada, de acuerdo con un procedimiento de
filtrado adaptativo. El controlador de audio 2106 aplica la función
de transferencia en una de las señales de entrada y substrae el
resultado a la otra señal de entrada. El controlador de audio 2106,
a continuación produce una señal de salida respectiva del resultado
de la substracción.
El transductor acústico eléctrico 2102 detecta
sonido acústico. Este sonido acústico puede ser una voz humana, una
voz generada por máquina y otras similares. Si el sonido acústico es
la voz de una persona (no mostrada), entonces el transductor
acústico eléctrico 2102 está situado cerca de la boca (no mostrada)
de la persona. El transductor acústico eléctrico 2102 detecta el
sonido deseado (es decir, la voz), así como el ruido (es decir, un
sonido no deseado) que está presente en el entorno que rodea a la
persona. El ruido es generado, por ejemplo, por otras personas y
dispositivos, tales como motores, turbinas y dispositivos mecánicos,
dispositivos hidráulicos o neumáticos (por ejemplo, tuberías,
actuadores), dispositivos electromecánicos (por ejemplo, motores
eléctricos), altavoces que rodean al hablante, disparo de
municiones, las fuentes ambientales tales como viento, lluvia, olas
del mar, tormentas, por los animales, y otros similares.
El transductor acústico eléctrico 2104 y el
transductor acústico eléctrico 2102 detectan sonidos diferentes, ya
sea debido a un material absorbente de sonido (no mostrado) que se
encuentra entre los transductores acústico eléctricos 2102 y 2104,
o la mera distancia entre los transductores acústico eléctricos 2102
y 2104. Por lo tanto, el transductor acústico eléctrico 2104
detecta el ruido y sustancialmente ninguno de los sonidos deseados,
mientras que el transductor acústico eléctrico 2102 detecta el
sonido deseado y el ruido.
El controlador de audio 2106 recibe señales 2108
y 2110 provenientes de transductores acústico eléctricos 2102 y
2104, respectivamente. Cada una de las señales 2108 y 2110 se
encuentra en formato analógico. Un convertidor analógico a digital
(no mostrado) y en la presente memoria descriptiva y a continuación
que en general se designa por ADC que convierte una señal analógica
a una señal digital, está acoplado al transductor acústico
eléctrico 2102 y al controlador de audio 2106. Otro ADC (no
mostrado) está acoplado al transductor acústico eléctrico 2104 y al
controlador de audio 2106. De esta manera, el controlador de audio
2106 recibe señales 2108 y 2110 que están en formato digital.
La señal 2108 incluye información respecto a un
sonido deseado y a un ruido. La señal 2110 incluye información
respectiva del ruido. El controlador de audio 2106 determina un
nuevo nivel de presión de sonido (SPL) de intensidad reducida para
la señal 2110, mediante el empleo de un convertidor de SPL (no
mostrado). El convertidor de SPL puede ser en forma de tabla de
consulta física cableada, una tabla de consulta de software, una
función de transferencia de cableado, una función de transferencia
de software, un filtro de adaptación, y otros similares. El
controlador de audio 2106 sustrae el nuevo SPL determinado del SPL
de la señal 2108, que corresponde a la señal 2110. El ruido
detectado por el transductor acústico eléctrico 2102 es diferente
del ruido detectado por el transductor acústico eléctrico 2104, es
decir, normalmente con una intensidad reducida y con una fase
retardada (debido a un aislamiento acústico o la distancia de
aislamiento acústico entre los transductores acústico eléctricos
2102 y 2104). De esta manera, el nuevo SPL determinado corresponde a
una función reducida y retardada de la señal de SPL 2110. El
controlador de audio 2106 produce una señal 2112 respectiva del
resultado de la operación de sustracción arriba indicada. De esta
manera, la señal 2112 incluye la información respectiva del sonido
deseado, excluyendo sustancialmente el ruido.
La forma y los parámetros del convertidor de SPL
se determinan de acuerdo con ciertos parámetros físicos, tales como
las características de audición de una persona, las características
de la voz de una persona, las características de absorción de
sonido de un auricular utilizado por una persona, la dimensiones de
los auriculares, las distancias relativas entre el transductor
acústico eléctrico 2102 y el transductor acústico eléctrico 2104,
las propiedades acústicas del entorno que rodea al transductor
acústico eléctrico 2102 y al transductor acústico eléctrico 2104,
las propiedades acústicas del material absorbente de sonido situado
entre el transductor acústico eléctrico 2102 y el transductor
acústico eléctrico 2104, y otros similares.
Con referencia a la figura 7B, el sistema 2100
incluye los transductores acústico eléctricos 2102 y 2104, el
controlador de audio 2106 y los convertidores analógico a digital
2114 y 2116. El controlador de audio 2106 incluye un filtro
adaptativo 2118 y un elemento de suma 2120. El ADC 2114 está
acoplado al transductor acústico eléctrico 2102 y al elemento de
suma 2120. El ADC 2116 está acoplado al transductor acústico
eléctrico 2104 y al filtro adaptativo 2118. Alternativamente, el
ADC 2114 se integra con cualquier transductor acústico eléctrico
2102 o controlador de audio 2106. Del mismo modo, el ADC 2116 puede
estar integrado con el transductor acústico eléctrico 2104 o con
el controlador de audio 2106.
El transductor acústico eléctrico 2102 produce
una señal analógica 2122 y envía la señal analógica 2122 al ADC
2114. El ADC 2114 convierte la señal analógica 2122 a una señal
digital 2124, envía la señal digital 2124 al elemento de suma 2120
y el filtro adaptativo 2118 produce una señal 2130 de acuerdo con la
señal 2128. La señal 2130 es respectiva del ruido ambiental
detectado por el transductor acústico eléctrico 2104 en un SPL
reducido (es decir, el SPL del ruido ambiental cercano al
transductor acústico eléctrico 2102). El elemento de suma 2120
produce la señal 2112, substrayendo la señal 2130 de la señal 2124.
La señal 2112 está provista adicionalmente de una interfaz (no
mostrada) para su tratamiento o transmisión posterior. El
transductor acústico eléctrico 2104 produce una señal analógica
2126 y envía la señal analógica 2126 al ADC 2116. El ADC 2116
convierte la señal analógica 2126 a una señal digital 2128 y envía
la señal digital 2128 al filtro adaptativo 2118. La señal 2112 del
elemento de suma 2120 se realimenta al filtro adaptativo 2118, en un
bucle de realimentación 2132. Si la señal 2112 incluye cualquier
ruido residual, entonces el filtro adaptativo 2118 detecta el ruido
residual y ajusta la señal 2130 en consecuencia. El elemento de suma
2120 a continuación, substrae este ruido residual de la señal
2124.
Haciendo referencia a la figura 7C, el
transductor acústico eléctrico 2102 se incorpora al dispositivo
montado en cabeza 2150. El controlador de audio 2106 está acoplado
a los transductores acústico eléctricos 2102 y 2104. El dispositivo
montado en cabeza 2150 es en forma de un casco, auriculares, y otros
similares. El transductor acústico eléctrico 2102 se encuentra
situado en la boca (no mostrada) del usuario (no mostrado). El
transductor acústico eléctrico 2104 se encuentra situado exterior
al dispositivo montado en cabeza 2150 o externamente montado en el
mismo, pero aislado acústicamente o alejado de la boca del
usuario.
El dispositivo montado en cabeza 2150 puede
incluir un dispositivo visual (no mostrado), tal como un
visualizador, visor, visualizador de cristal líquido (LCD),
visualizador de emisión de campo (FED), espejo, y otros similares.
Además, el dispositivo montado en cabeza 2150 puede incluir uno o
más transductores electro acústicos.
Si el dispositivo montado en cabeza 2150 es en
forma de un casco, puede incluir material que absorbe el sonido,
tal como lana mineral, fibra de vidrio, y otros similares. En este
caso, el transductor acústico eléctrico 2102 detecta la voz del
usuario, al mismo tiempo que también detecta el ruido de fondo, pero
con un SPL reducido.
En caso de que el dispositivo montado en cabeza
2150 sea en forma de un auricular, debido a la distancia física al
transductor acústico eléctrico 2104 desde la boca del usuario, el
transductor acústico eléctrico 2104 detecta el ruido ambiental y
sustancialmente nada de la voz del usuario. Sin embargo, el
transductor acústico eléctrico 2102 detecta la voz del usuario y el
ruido ambiental. Se hace notar que incluso el aire ambiental puede
aislar acústicamente de manera eficaz, tal como aislando el
transductor acústico eléctrico 2104 de la boca del usuario.
En el caso de que el dispositivo montado en
cabeza 2150 sea un casco usado por un piloto (no mostrado), el
ruido ambiental puede ser el ruido generado por el motor (es decir,
la planta de potencia) del avión, por los motores de los otros
aviones que vuelan cercanos, por las voces de la tripulación del
avión, por el sonido de un trueno, por el sonido de las partículas
de hielo golpeando contra el parabrisas, por el sonido de los
disparos de las municiones, y otros similares. El transductor
acústico eléctrico 2102 se une a la porción interior del
dispositivo montado en cabeza 2150 cerca de la boca del piloto y el
transductor acústico eléctrico 2104 se une a la porción exterior
del dispositivo montado en cabeza 2150.
\newpage
El dispositivo montado en cabeza 2150 incluye
material de absorción de sonido, y el transductor acústico eléctrico
2104 está más lejos de la boca del piloto que el transductor
acústico eléctrico 2102. Por lo tanto, el transductor acústico
eléctrico 2104 detecta principalmente el ruido ambiental y
sustancialmente nada de la voz del piloto. Sin embargo, puesto que
material absorbente de sonido del dispositivo montado en cabeza 2150
absorbe sólo una parte del sonido, el transductor acústico
eléctrico 2102 detecta la voz del piloto, además del ruido
ambiental con un SPL reducido. Además, la señal 2108 incluye
información respectiva de la voz del piloto y un nivel atenuado de
ruido ambiental, mientras que la señal 2110 incluye la información
respectiva del ruido ambiental con un SPL más alto que el detectado
por el transductor acústico eléctrico 2102. El nivel de atenuación
del ruido ambiental puede depender de la frecuencia.
Los parámetros del convertidor de SPL pueden ser
determinados empíricamente mediante la medición de los valores de
SPL de las señales 2108 y 2110 en un rango de frecuencias
seleccionado, como respuesta al sonido que corresponde a los
valores de SPL y en el rango de frecuencias del ruido ambiental
esperado. Se hace notar que estas mediciones se realizan sin la voz
del piloto en el mismo lugar dentro del avión en el que se emplea el
sistema 2100. Estas mediciones pueden ser efectuadas antes del
vuelo como "pre-calibrado" o durante las pausas
de habla en el tiempo de vuelo. Además, el controlador de audio
2106 calibra el sistema 2100 al comienzo de cada vuelo.
Alternativamente, los parámetros del convertidor de SPL se pueden
determinar analíticamente, calculando la atenuación estimada de los
valores de SPL del ruido ambiental en un rango de frecuencia
seleccionado.
Se hace notar adicionalmente que el valor de SPL
del ruido ambiental atenuado detectado por el transductor acústico
eléctrico 2102 también depende de la distancia física entre los
transductores acústico eléctricos 2102 y 2104. Se hace notar que
debido a la distancia física entre los transductores acústico
eléctricos 2102 y 2104 y un valor dado de la velocidad del sonido,
las señales 2108 y 2110 pueden incluir información respectiva de la
forma de onda del ruido ambiental, que están desfasados. Con el fin
de substraer la parte correcta de la forma de onda del ruido
ambiental de la señal 2108, el controlador de audio 2106 tiene en
cuenta este desplazamiento de fase, al referirse a una tabla de
consulta respectiva, función de transferencia, y otros
similares.
De acuerdo con otro aspecto de la técnica
desvelada, un sistema de reducción de ruido emplea un controlador
de reducción activa de ruido (ANR) para producir un sonido libre de
ruido a cerca de la oreja un usuario. El controlador de ANR produce
una señal de en oposición de fase del ruido ambiental, que se deriva
de la detección del ruido ambiental por un transductor acústico
eléctrico exterior.
Se hace referencia a continuación a las figuras
8A, 8B y 8C. La figura 8A es una ilustración esquemática de un
sistema de cancelación de ruido, que en general se designa por 2170,
construido y operativo de acuerdo con otra realización de la
técnica desvelada. La figura 8B es una ilustración esquemática de un
detalle del controlador analógico de la ANR del controlador de ANR
del sistema de la figura 8A. La figura 8C es una ilustración
esquemática del sistema de la figura 8A incorporado en un
dispositivo montado en cabeza, que en general se designa por
2214.
Con referencia a la figura 8A, el sistema 2170
incluye un controlador de ANR 2172, un transductor acústico
eléctrico de referencia 2174, un transductor acústico eléctrico de
error 2176 y un transductor electro acústico 2178. El controlador
de ANR 2172 incluye un controlador de ANR digital 2180, un
controlador de ANR analógico 2182 y un elemento de suma primario
2184. El controlador de ANR digital 2180 es un dispositivo que
produce una señal en oposición de fase con una señal de entrada,
con un SPL reducido. El controlador de ANR analógico 2182 es un
dispositivo que produce una señal en oposición de fase con una señal
de entrada, con el mismo SPL.
El controlador de ANR digital 2180 está acoplado
al transductor acústico eléctrico de referencia 2174, al
transductor acústico eléctrico de error 2176 y al elemento de suma
primario 2184. El controlador de ANR analógico 2182 está acoplado
al transductor acústico eléctrico 2176 de error y al elemento de
suma primario 2184. El elemento de suma primario 2184 está acoplado
al transductor electro acústico 2178.
El transductor electro acústico 2178 y el
transductor acústico eléctrico de error 2176 se encuentran cerca de
la oreja 2186 de un usuario (no mostrado). El transductor acústico
eléctrico de referencia 2174 se encuentra considerablemente alejado
de la oreja 2186. Alternativamente, un material absorbente de sonido
(no mostrado) se encuentra situado entre el transductor electro
acústico 2178 y el transductor acústico eléctrico de error 2176,
por un lado y el transductor acústico eléctrico de referencia 2174
por el otro. En ambos casos, el transductor acústico eléctrico de
referencia 2174 detecta el ruido ambiental y sustancialmente ninguno
de los sonidos producidos por el transductor electro acústico 2178.
De manera similar, el transductor acústico eléctrico de error 2176
detecta el sonido emitido por el transductor electro acústico 2178 y
el ruido ambiental en una localización cercana a la oreja 2186.
Lo que sigue es una descripción de un bucle
L_{1} formado por el controlador de ANR digital 2180, elemento de
suma primario 2184, transductor electro acústico 2178 y el
transductor acústico eléctrico de error 2176. El controlador de
ANR digital 2180 muestrea continuamente una señal 2188 del
transductor acústico eléctrico de referencia 2174, respectiva del
ruido ambiental, y una señal 2192 respectiva de un sonido deseado de
la fuente de sonido (no mostrada). El sonido deseado de la fuente
de sonido puede ser una voz humana, un sonido generado por una
máquina, una voz mecánica, una señal de sonido, un sonido acústico
(por ejemplo, un altavoz), y otros similares.
El controlador de ANR digital 2180 determina un
SPL reducido para la señal 2188 mediante el empleo de un convertidor
de SPL, como se ha descrito en la presente memoria descriptiva más
arriba en relación con el controlador de audio 2106 (figura 7C). El
SPL reducido para la señal 2188 corresponde al SPL del ruido
ambiental, en una localización cercana a la oreja 2186. El
controlador de ANR digital 2180 produce una señal en oposición de
fase (no mostrada) para la señal 2188 con el SPL reducido, y
adiciona esta señal en oposición de fase al SPL reducido, a la
señal 2192, produciendo de esta manera una señal 2194. El
transductor electro acústico 2178 produce un sonido de acuerdo con
la señal 2194.
Se hace notar que el transductor electro
acústico de error 2176 se encuentra lo suficientemente cerca de la
oreja 2186, de manera que el sonido en oposición de fase del ruido
ambiental en la zona tranquila de la oreja 2186, que se emite por
el transductor electro acústico 2178, anula sustancialmente el ruido
ambiental en la zona tranquila de la oreja 2186. El transductor
acústico eléctrico de error 2176 se encuentra lo suficientemente
cerca del transductor electro acústico 2178 para detectar el sonido
emitido por el transductor electro acústico 2178.
El controlador de ANR digital 2180 recibe una
señal 2190 del transductor acústico eléctrico de error 2176,
respectiva del sonido emitido por el transductor electro acústico
2178 (que incluye el sonido deseado y la oposición de fase del
ruido ambiental en una localización cercana a la oreja 2186) y el
ruido ambiental en una localización cercana a la oreja 2186. El
controlador de ANR digital 2180 modifica una porción de la señal
2194 respectiva de la oposición de fase del ruido ambiental en una
localización cercana a la oreja 2186, procesando las señales 2188,
2190 y 2192.
Se hace notar adicionalmente que puesto que las
señales 2188 y 2190 son analógicas, se utilizan dos convertidores
analógico a digital (no mostrados) para convertir las señales 2188 y
2190 a formato digital. Como alternativa, estos convertidores
analógico a digital se integran con cada uno del transductor
acústico eléctrico de referencia 2174 y del transductor acústico
eléctrico de error 2176, o se integra con el controlador de ANR
digital 2180. La señal 2192 puede ser digital o analógica. Si la
señal 2192 es analógica, entonces otro ADC (no mostrado) convierte
la señal 2192 a formato digital. Un convertidor digital a analógico
(no mostrado), y que en la presente memoria descriptiva y a
continuación será se designa por CAD, convierte la señal 2194 de
formato digital a formato analógico. Alternativamente, este DAC
está integrado con cualquier controlador de ANR digital 2180 o con
el elemento de suma primario 2184.
Con referencia adicional a la figura 8B, el
controlador de ANR analógico 2182 incluye una porción digital 2228,
una porción analógica 2230 y un elemento de suma secundario 2232. El
elemento de suma secundario 2232 está acoplado a la porción digital
2228, a la porción analógica 2230 y al elemento de suma primario
2184. El elemento de suma primario 2184 está acoplado al
transductor electro acústico 2178. La porción analógica 2230 está
acoplada al transductor acústico eléctrico de error 2176. La porción
analógica 2230, el elemento de suma primario 2184, el elemento de
suma secundario 2232, el transductor electro acústico 2178 y el
transductor acústico eléctrico de error 2176 forman un bucle de
realimentación L_{2} en el sistema 2170.
Lo que sigue es una descripción del bucle de
realimentación L_{2}. La porción analógica 2230 recibe la
señal 2190 del transductor acústico eléctrico de error 2176, produce
una señal 2234 y envía la señal 2234 al elemento de suma secundario
2232.La señal 2234 está desfasada aproximadamente 180 grados con
relación a la señal 2190. Debido a la operación de la porción
analógica 2230 y las pérdidas de ganancia entre el transductor
electro acústico 2178 y la porción analógica 2230, se atenúa la
señal 2234. La porción digital 2228 produce una señal 2236,
atenuando la señal 2192 en la misma cantidad que la señal 2234 se
atenúa y envía la señal 2236 al elemento de suma secundario
2232.
El elemento de suma secundario 2232 produce una
señal 2198 sumando las señales 2234 y 2236. Puesto que la porción
de sonido deseado de la señal 2234 está desfasada aproximadamente
180 grados respecto a la señal 2236, la porción de sonido deseado
de la señal 2234 y la señal 2236 se cancelan sustancialmente en el
elemento de suma secundario 2232. De esta manera, la señal 2198 es
respectiva sustancialmente solamente de la oposición de fase del
ruido ambiental en una localización cercana a la oreja 2186. El
elemento de suma primario 2184 produce una señal 2200 mediante la
adición de las señales 2194 y 2198. El transductor electro acústico
2178 emite un sonido respectivo de la suma de la señal 2194 (que
incluye el sonido deseado, una oposición de fase para el ruido
ambiental en una localización cercana a la oreja 2186 y un ajuste de
acuerdo con la señal 2190) y la señal 2198 (que incluye otra
oposición de fase para el ruido ambiental en una localización
cercana a la oreja 2186).
Se hace notar que el controlador de ANR puede
incluir sólo el controlador de ANR digital acoplado al transductor
acústico eléctrico de referencia, el transductor acústico eléctrico
de error y el transductor electro acústico. De esta manera, el
controlador de ANR digital hace ajustes a la señal que envía al
transductor electro acústico de acuerdo con una señal de error, que
el controlador de ANR digital recibe del transductor acústico
eléctrico de error. En este caso, el controlador de ANR digital
reduce principalmente los ruidos tonales.
Con referencia a la figura 8A, se hace notar que
el controlador de ANR digital 2180 funciona a una velocidad más
lenta que la del controlador de ANR analógico 2182, pero el
controlador de ANR digital 2180 es mucho más eficaz para producir
las señales oposición de fase para el ruido tonal y para el ruido a
frecuencias substancialmente altas. Por otra parte, un controlador
de ANR analógico 2182 es más eficaz en la producción de señales de
oposición de fase para el ruido en un rango de frecuencias
sustancialmente ancho, aunque con frecuencias considerablemente
bajas. De esta manera, combinando el controlador de ANR digital 2180
y el controlador de ANR analógico 2182 en el controlador de ANR
2172, el sistema 2170 es capaz de producir un sonido deseado en
presencia de ruido, tanto en un rango de frecuencias estrecho (es
decir, ruido tonal) o ancho, así como con frecuencias bajas o
altas. El controlador de ANR digital 2180 y el controlador de ANR
analógico 2182 atenúan el mismo ruido. De esta manera, el ruido
atenuado en la señal 2200 es sustancialmente igual a la suma de la
atenuación efectuada por el controlador de ANR digital 2180 y por
el controlador de ANR analógico 2182.
Con referencia a la figura 8C, el sistema 2170
incluye el controlador de ANR 2202, los transductores acústico
eléctricos de referencia 2204 y 2238, los transductores acústico
eléctricos de error 2206 y 2208 y los transductores electro
acústicos 2210 y 2212. El controlador de ANR 2202 es similar al
controlador de ANR 2172 (figura 8A). Cada uno de los transductores
acústico eléctricos de error 2206 y 2208 es similar al transductor
acústico eléctrico de error 2176. Cada uno de los transductores
electro acústicos 2210 y 2212 es similar al transductor electro
acústico 2178. Los transductores acústico eléctricos de error 2206 y
2208 y los transductores electro acústico 2210 y 2212 están
acoplados a un dispositivo montado en cabeza 2214. Los transductores
acústico eléctricos de referencia 2204 y 2238 se encuentran
situados externos al dispositivo montado en cabeza 2214 o están
montados externamente en el mismo, pero aislados acústicamente o
alejados de los transductores acústico eléctricos de error 2206 y
2208 y de los transductores electro acústicos 2210 y 2212.
El dispositivo montado en cabeza 2214 es similar
al dispositivo montado en cabeza 2150, de acuerdo con lo descrito en
la presente memoria descriptiva más arriba en relación con la figura
7C.
El transductor acústico eléctrico de error 2206,
el transductores electro acústico 2210 y el transductor acústico
eléctrico de referencia 2238 están situados junto a la oreja derecha
(no mostrada) del usuario (no mostrado). El transductor acústico
eléctrico de error 2208, el transductor electro acústico 2212 y el
transductor acústico eléctrico de referencia 2204 están situados
junto a la oreja izquierda (no mostrada) del usuario. El transductor
acústico eléctrico de error 2206 detecta el sonido emitido por el
transductor electro acústico 2210, el ruido ambiental con un SPL
reducido, y sustancialmente ninguno de los sonidos emitidos por el
transductor electro acústico 2212. El transductor acústico
eléctrico de error 2208 detecta el sonido emitido por el
transductor electro acústico 2212, el ruido ambiental con un SPL
reducido, y sustancialmente ninguno de los sonidos emitidos por el
transductor electro acústico 2210. Los transductores electro
acústicos de referencia 2204 y 2238 detectan el ruido ambiental y
sustancialmente ninguno de los sonidos emitidos por los
transductores electro acústicos 2210 y 2212.
El controlador de ANR 2202 está acoplado a los
transductores acústico eléctricos de referencia 2204 y 2238, a los
transductores acústico eléctricos de error 2206 y 2208 y a los
transductores electro acústicos 2210 y 2212. El controlador de ANR
2202 recibe una señal 2216 del transductor acústico eléctrico de
referencia 2204, una señal 2240 del transductor acústico eléctrico
de referencia 2238, una señal 2218 del transductor acústico
eléctrico de error 2206, una señal 2220 del transductor acústico
eléctrico de error 2208 y una señal 2222 de una fuente de sonido
(no mostrada). Las señales 2216 y 2238 son similares a la señal 2188
(figura 8A). Cada una de las señales 2218 y 2220 es similar a la
señal 2190. Cada una de las señales 2224 y 2226 es similar a la
señal 2222 y la señal 2200 es similar a la señal 2192.
La señal 2222 puede ser una señal de sonido de
canal único (es decir, monoaural), o una señal de sonido
multi-canal, tal como estereofónico, cuadrafónico,
sonido envolvente, y otros similares. El controlador de ANR 2202
produce una señal 2224 para el transductor electro acústico 2210 y
una señal 2226 para el transductor electro acústico 2212. El
controlador de ANR 2202 produce señales 2224 y 2226 procesando las
señales 2216, 2238, 2218, 2220 y 2222, de la misma manera que el
controlador de ANR 2172 (figura 8A) procesa las señales 2188, 2192 y
la señal recibida del transductor acústico eléctrico de error 2176,
para producir la señal 2200.
Cada uno de los transductores electro acústicos
2210 y 2212 produce un sonido que incluye el sonido respectivo de
la señal 2222 y uno en oposición de fase del ruido ambiental, con un
SPL reducido. Puesto que la oposición de fase del ruido ambiental
cancela sustancialmente el ruido ambiental actual en la zona
tranquila de la oreja respectiva, el usuario escucha un sonido que
principalmente se corresponde a la señal 2222 y sustancialmente
ninguno de los ruidos ambientales. Si la señal 2222 es una señal de
sonido del canal único, entonces cada una de las señales 2224 y
2226 es producida de acuerdo con la señal 2222 y la oposición de
fase del ruido ambiental con un SPL reducido. Por lo tanto, el
usuario puede escuchar un sonido monoaural.
Si la señal 2222 es estéreo, entonces las
señales 2224 y 2226 se producen por ejemplo, de acuerdo con el canal
derecho y el izquierdo de la señal 2222, respectivamente, y de
acuerdo con la oposición de fase del ruido ambiental, con un SPL
reducido. Por lo tanto, el usuario puede escuchar el sonido que
corresponde a la señal 2222 en estéreo, sin escuchar el ruido
ambiental.
Alternativamente, más de dos transductores
electro acústicos y los transductores acústico eléctricos
respectivos se puede acoplar al controlador de ANR. En este caso,
si la señal 2222 es multi-canal, entonces el usuario
puede escuchar el sonido que corresponde a la señal 2222 en
múltiples dimensiones, sin escuchar el ruido ambiental.
Con referencia adicional a la figura 8A, los
transductores electro acústicos están acoplados al elemento de suma
primario y los transductores acústico eléctricos están acoplados al
controlador de ANR digital. El controlador de ANR digital produce
una señal para cada uno de los transductores electro acústicos,
procesando la señal de sonido deseado, la señal de ruido y la señal
de error recibidas desde el transductor acústico eléctrico
respectivo.
Haciendo referencia adicional a la figura 8B,
los transductores electro acústicos están acoplados al elemento de
suma primario y los transductores acústico eléctricos están
acoplados a la porción analógica del controlador de ANR analógico.
De acuerdo con la señal de sonido deseado, la porción digital estima
en tiempo real el SPL del sonido deseado que produce cada uno de
los transductores electro acústicos y la porción digital produce
estas señales de sonido deseado estimadas. La porción digital envía
la señal de sonido deseado estimado respectivo de cada uno de los
transductores electro acústicos, al elemento de suma secundario.
La porción analógica produce una señal en
oposición de fase respectiva de cada una de las señales recibidas
de los transductores acústico eléctricos y envía esas señales en
oposición de fase al elemento de suma secundario. El elemento de
suma secundario produce una señal respectiva de cada uno de los
transductores electro acústicos, añadiendo la señal en oposición de
fase respectiva de la porción analógica y la señal respectiva
recibida de la porción digital. El elemento de suma primario
produce una señal para cada uno de los transductores electro
acústicos, añadiendo la señal respectiva recibida del controlador de
ANR digital y la señal recibida respectiva del elemento de suma
secundario.
Alternativamente, el sistema de cancelación de
ruido de la figura 8A no recibe las señales respectivas del sonido
deseado y solamente produce un sonido de ruido en oposición de fase,
de acuerdo con el ruido detectado por un transductor acústico
eléctrico de referencia situado lejos de la oreja del usuario. En
este caso, el sistema de cancelación de ruido incluye un
controlador de ANR digital similar al controlador de ANR digital
2180, un transductor acústico eléctrico de referencia y un
transductor electro acústico. El controlador de ANR digital está
acoplado al transductor acústico eléctrico de referencia y al
transductor electro acústico. El transductor acústico eléctrico de
referencia se encuentra situado en un entorno ruidoso, lejos de la
oreja del usuario y el transductor electro acústico está situado
cerca de la oreja del usuario.
Además, el sistema de cancelación de ruido
incluye un transductor acústico eléctrico de error acoplado al
controlador de ANR digital. El transductor acústico eléctrico de
error está situado cerca de la oreja del usuario y envía una señal
de error al controlador de ANR digital respectivo del sonido emitido
por los transductores electro acústicos. El controlador de ANR
digital procesa la señal de error y la señal de ruido de referencia
y realiza los ajustes a la señal de ruido en oposición de fase, que
envía al transductor electro acústico.
Además, el sistema de cancelación de ruido
incluye un controlador de ANR analógico similar al controlador de
ANR analógico 2182 y un elemento de suma. El controlador de ANR
analógico está acoplado al transductor acústico eléctrico de error
y al elemento de suma, y el elemento de suma está acoplado al
controlador de ANR digital y al transductor electro acústico. El
controlador de ANR analógico produce una señal de ruido en oposición
de fase desfasada aproximadamente 180 grados en relación con la
señal de error. El elemento de suma produce una señal para el
transductor electro acústico, añadiendo las señales de ruido en
oposición de fase producidas por el controlador de ANR digital y
por el controlador de ANR analógico.
Alternativamente, el transductor acústico
eléctrico de error sólo puede ser acoplado al controlador de
reducción de ruido analógico activo y no al controlador de
reducción de ruido digital activo. En este caso, sólo el
controlador de reducción de ruido analógico activo hace ajustes a la
señal ruido en oposición de fase que el controlador de reducción de
ruido digital activo envía al transductor electro acústico.
De acuerdo con otro aspecto de la técnica
desvelada, un sistema de reducción de ruido produce un sonido libre
de ruidos cerca de la oreja de un usuario y una señal libre de
ruidos que se corresponde a la voz del usuario. El sistema produce
un sonido de cancelación de ruido o una señal de cancelación de
ruido, de acuerdo con una señal de referencia de ruido.
Se hace referencia a continuación a las figuras
9A y 9B. La figura 9A es una ilustración esquemática de un sistema
de reducción de ruido, en general se designa por 2250, construido y
operativo de acuerdo con una realización adicional de la técnica
desvelada. La figura 9B es una ilustración esquemática del sistema
de la figura 9A, incorporado en un dispositivo montado en cabeza,
designado en general como 2304.
Con referencia a la figura 9A, el sistema 2250
incluye un controlador de ruido 2252, un transductor acústico
eléctrico de referencia 2254, un transductor acústico eléctrico de
error 2256, un transductor acústico eléctrico de voz 2258 y un
transductor electro acústico 2260. El controlador de ruido 2252
incluye un controlador de ANR 2262 y un controlador de audio 2264.
El controlador de ANR 2262 es similar al controlador de ANR 2172
(figura 8A) y el controlador de audio 2264 es similar al controlador
de audio 2106 (figura 7A).
El controlador de ANR 2262 se acopla al
transductor acústico eléctrico de referencia 2254, al transductor
acústico eléctrico de error 2256 y al transductor electro acústico
2260. El controlador de audio 2264 se acopla al transductor
acústico eléctrico de referencia 2254 y al transductor acústico
eléctrico de voz 2258.
El transductor electro acústico 2260 y el
transductor acústico eléctrico de error 2256 se encuentran cerca de
la oreja 2266 de un usuario (no mostrado) y el transductor acústico
eléctrico de voz 2258 está situado cerca de la boca 2268 del
usuario. Materiales absorbentes de sonido (no mostrados) pueden ser
colocados entre el transductor electro acústico 2260, el
transductor acústico eléctrico de error 2256 y el transductor
acústico eléctrico de voz 2258 por un lado y el transductor
acústico eléctrico de referencia 2254 por el otro. Este material
absorbente de sonido puede ser en forma de orejetas, y otros
similares, que encierran al transductor electro acústico 2260 y al
transductor acústico eléctrico de error 2256. Además, el material
absorbente aísla acústicamente al transductor acústico eléctrico de
voz 2258 y a la boca 2268 del transductor electro acústico 2260,
del transductor acústico eléctrico de error 2256 y de la oreja 2266.
Por lo tanto, el transductor acústico eléctrico de error 2256 no
detecta la voz del usuario y el transductor acústico eléctrico de
voz 2258 no detecta el sonido emitido por el transductor electro
acústico 2260.
De esta manera, el transductor acústico
eléctrico de referencia 2254 detecta el ruido ambiental y
sustancialmente nada de la voz del usuario o del sonido emitido por
el transductor electro acústico 2260. El transductor acústico
eléctrico de referencia 2254 envía una señal 2274 respectiva del
ruido ambiental detectado al controlador de ANR 2262 y al
controlador de audio 2264. El transductor acústico eléctrico de
error 2256 detecta el sonido emitido por el transductor electro
acústico 2260 y el ruido ambiental con un SPL reducido y envía una
señal 2276 al controlador de ANR respectivo 2262. El transductor
acústico eléctrico de voz 2258 detecta la voz del usuario de la
boca 2268 y el ruido ambiental con un SPL reducido y envía una señal
2278 respectiva al controlador de audio 2264.
El sistema 2250 puede estar dividido en una
porción de audición y en una porción de habla. La porción de
audición consiste en un controlador de ANR 2262, un transductor
acústico eléctrico de referencia 2254, un transductor acústico
eléctrico de error 2256 y un transductor electro acústico 2260. La
porción de habla consiste en un controlador de audio 2264 y un
transductor acústico eléctrico de referencia 2254 y un transductor
acústico eléctrico de voz 2258. El transductor acústico eléctrico
de referencia 2254 es común a la parte de audición y a la parte de
habla.
La porción de audición del sistema 2250 es
similar al sistema 2170, de acuerdo con lo descrito en la presente
memoria descriptiva más arriba en relación con la figura 8A. El
controlador de ANR 2262 determina una oposición de fase a la señal
2274 con un SPL reducido (es decir, el ruido ambiental en la zona
tranquila de la oreja 2266). El controlador de ANR 2262 produce una
señal 2280 respectiva del sonido deseado, de acuerdo con una señal
2270 de una fuente de sonido (no mostrada) y la oposición de fase de
la señal 2274 con el SPL reducido. El transductor electro acústico
2260 produce un sonido de acuerdo con la señal 2280. De esta manera,
el usuario escucha el sonido deseado y sustancialmente ninguno de
los ruidos ambientales. El controlador de ANR 2262 realiza los
ajustes a la señal 2280, de acuerdo con la señal 2276.
Alternativamente, el controlador de reducción
activa de ruido no recibe ninguna señal respectiva del sonido
deseado. En este caso, el controlador de reducción activa del ruido
envía una señal de cancelación de ruido al transductor electro
acústico y un transductor electro acústico diferente produce el
sonido deseado en función de la señal respectiva del sonido
deseado. Todavía más alternativamente, el sonido deseado llega a la
oreja desde una fuente de sonido distinta del transductor electro
acústico, tal como la voz de otra persona, una voz mecánica, un
sonido generado por máquina, y otros similares.
Alternativamente, el transductor acústico
eléctrico puede ser eliminado del sistema de reducción de ruido. En
este caso, el controlador de reducción activa de ruido produce una
señal de cancelación de ruido de acuerdo solamente con la señal de
ruido de referencia, y sin ninguna señal de error como
realimentación.
La porción de habla del sistema 2250 es similar
al sistema 2100, como se ha descrito en la presente memoria
descriptiva más arriba en relación con la figura 7A. De esta manera,
el controlador de audio 2264 produce una señal de voz libre de
ruido 2272.
Con referencia a la figura 9B, el sistema 2250
incluye un controlador de ruido 2290, un transductor acústico
eléctrico de referencia 2292, los transductores acústico eléctricos
de error 2294 y 2296, un transductor acústico eléctrico de voz 2298
y los transductores electro acústicos 2300 y 2302. El sistema de
reducción de ruido 2290 es similar al sistema de reducción de ruido
2252 (figura 9A). El controlador de ruido 2290 se acopla al
transductor acústico eléctrico de referencia 2292, a los
transductores acústico eléctricos de error 2294 y 2296, al
transductor acústico eléctrico de voz 2298 y a los transductores
electro acústicos 2300 y 2302.
Los transductores acústico eléctricos de error
2294 y 2296, el transductor acústico eléctrico de voz 2298 y los
transductores electro acústicos 2300 y 2302 se encuentran situados
dentro del dispositivo montado en cabeza 2304. El transductor
acústico eléctrico de referencia 2292 se encuentra situado exterior
al dispositivo montado en cabeza 2304 o montado externamente al
mismo, pero aislada acústicamente o alejado de la boca del usuario
y de los transductores acústico eléctricos de error 2294 y 2296 y de
los transductores electro acústicos 2300 y 2302. El transductor
acústico eléctrico de error 2294 y el transductor electro acústico
2300 se encuentran situados en la oreja derecha (no mostrada) de un
usuario (no mostrado). El transductor acústico eléctrico de error
2296 y el transductor electro acústico 2302 se encuentran situados
en la oreja izquierda (no mostrada) del usuario. El transductor
acústico eléctrico de voz 2298 se encuentra situado en la boca (no
mostrada) del usuario.
El controlador de ruido 2290 recibe una señal
2306 del transductor acústico eléctrico de referencia 2292,
respectiva del ruido ambiental y una señal 2308 de una fuente de
sonido (no mostrada), respectiva de un sonido deseado. El
controlador de ruido 2290 recibe una señal 2310 del transductor
acústico eléctrico de voz 2298 respectiva de la voz del usuario y
del ruido ambiental, con un SPL reducido.
El controlador de ruido 2290, el transductor
acústico eléctrico de referencia 2292, los transductores acústico
eléctricos de error 2294 y 2296 y los transductores electro acústico
2300 y 2302 forman la porción auditiva del sistema 2250, de acuerdo
con lo descrito en la presente memoria descriptiva más arriba en
relación con la figura 9A. Los transductores electro acústicos 2300
y 2302 producen sonidos que incluyen un sonido deseado transportado
por una señal 2308 y otro sonido en oposición de fase y con un SPL
reducido en relación con la señal 2306. De esta manera, el usuario
escucha el sonido deseado y sustancialmente ninguno de los ruidos
ambientales.
El controlador de ruido 2290, el transductor
acústico eléctrico de referencia 2292 y el transductor acústico
eléctrico de voz 2298 forman la parte de habla del sistema 2250, de
acuerdo con lo descrito en la presente memoria descriptiva más
arriba en relación con la figura 8A. De esta manera, el controlador
de ruido 2290 produce una señal libre de ruido 2312 de la voz del
usuario, de acuerdo con las señales 2306 y 2310.
Alternativamente, el sistema 2250 puede incluir
dos transductores acústico eléctricos de referencia similares al
transductor acústico eléctrico de referencia 2292 y acoplado al
controlador de ruido 2290. Cada uno de estos transductores acústico
eléctricos de referencia se encuentra situado exterior al
dispositivo montado en cabeza 2304, de una manera similar a la
descrita en la presente memoria descriptiva más arriba en relación
con los transductores acústico eléctricos de referencia 2204 y 2238
(figura 8C).
De acuerdo con otro aspecto de la técnica
desvelada, un sistema de reducción activa de ruido incluye una
porción predictiva digital que recibe una señal de ruido de
referencia y una porción de realimentación digital/analógica que
recibe una señal respectiva de un sonido producido por el sistema en
la zona tranquila de la oreja. La porción de realimentación produce
una señal respectiva de un sonido deseado, y una oposición de fase
del ruido de fondo de acuerdo con una señal de sonido deseado y de
la realimentación desde la porción de realimentación.
Se hace referencia a continuación a las figuras
10A, 10B y 10C. La figura 10A es una ilustración esquemática de un
sistema digital de reducción de ruido, en general, se designa por
2320, construido y operativo de acuerdo con otra realización de la
técnica desvelada. La figura 10B es una ilustración esquemática de
la porción predictiva del sistema de la figura 10A. La figura 10C
es una ilustración esquemática de la porción de realimentación del
sistema de la figura 10A. Se hace notar que el sistema 2320 es una
ilustración detallada de un controlador de ANR digital tal como el
controlador de ANR digital 2180 (figura 8A).
Con referencia a la figura 10A, el sistema 2320
incluye un transductor acústico eléctrico de referencia 2322, un
transductor acústico eléctrico de error 2324, un transductor electro
acústico 2326, elementos de respuesta de planta estimados (EPR)
2328 y 2330, un elemento predictivo 2332, un elemento de
realimentación 2334, y los elementos de suma 2336, 2338 y 2340. El
elemento predictivo 2332, el elemento de realimentación 2334, los
elementos de EPR 2328 y 2330 y los elementos de suma 2336, 2338 y
2340 juntos son equivalentes a un controlador de ANR digital 2180
(figura 8A). El elemento predictivo 2332 incluye un elemento de EPR
2342, un filtro adaptativo 2344 y un elemento de mínimo cuadrado
medio (LMS) 2346. El elemento de realimentación 2334 incluye un
filtro adaptativo 2348, un elemento de LMS 2350 y un elemento de
EPR 2352.
Un elemento de EPR es un elemento que estima la
relación entre dos señales de sonido de acuerdo con la información
predeterminada, aplica esta relación a una señal de entrada al
elemento de EPR y como consecuencia produce una señal de salida.
Una de estas dos señales de sonido puede ser por ejemplo, respectiva
de un sonido deseado que debe ser producido por un transductor
electro acústico, mientras que la otra señal de sonido es respectiva
del sonido que el transductor electro acústico produce realmente.
Un elemento de LMS es un elemento que actualiza la respuesta del
filtro adaptativo, de acuerdo con un procedimiento de filtro
adaptativo de LMS. La combinación de un elemento de LMS y de un
elemento de EPR es equivalente a un elemento de Filtro LMS X
(FXLMS), como se conoce en el técnica.
El transductor electro acústico 2326 y el
transductor acústico eléctrico de error 2324 se encuentran cerca
de la oreja 2354 de un usuario (no mostrado). Un elemento de
absorción de sonido (no mostrado) se encuentra situado entre el
transductor electro acústico 2326 y el transductor acústico
eléctrico de error 2324, por un lado y el transductor acústico
eléctrico de referencia 2322 por el otro. Por lo tanto, el
transductor acústico eléctrico de referencia 2322 detecta el ruido
ambiental y ninguno de los sonidos emitidos por el transductor
electro acústico 2326. El transductor acústico eléctrico de error
2324 detecta el sonido emitido por el transductor electro acústico
2326 y el ruido ambiental, con un SPL reducido. Cada uno de los
filtros adaptativos 2344 y 2348 es similar, en principio, al filtro
adaptativo 2118, de acuerdo con lo descrito en la presente memoria
descriptiva más arriba en relación con la figura 7B.
Con referencia a la figura 10B, la porción
digital predictiva del sistema 2320 incluye el transductor acústico
eléctrico de referencia 2322, el transductor acústico eléctrico de
error 2324, el transductor electro acústico 2326, el elemento
predictivo 2332, los elementos de suma 2336 y 2340 y el elemento de
EPR 2330. El elemento de suma 2336 está acoplado al elemento
predictivo 2332, al transductor electro acústico 2326 y al elemento
de EPR 2330. El elemento de suma 2340 está acoplado al elemento
predictivo 2332, al transductor acústico eléctrico de error 2324 y
al elemento de EPR 2330. El transductor acústico eléctrico de
referencia 2322 está acoplado al elemento predictivo 2332.
El transductor acústico eléctrico de referencia
2322 detecta el ruido ambiental y envía una señal respectiva 2356
al elemento predictivo 2332. El elemento predictivo 2332 determina
el SPL reducido del ruido ambiental en la zona tranquila de la
oreja 2354. Se hace notar que el SPL reducido es generalmente
sensible a la frecuencia de la señal 2356. El elemento predictivo
2332 determina una señal 2358 que está en oposición de fase con la
señal de ruido ambiental 2356 con un SPL reducido y envía una señal
2358 al elemento de suma 2336. El elemento de suma 2336 añade la
señal 2358 a una señal 2360, y produce una señal respectiva 2362 del
resultado de la suma. La señal 2360 es respectiva de un sonido
deseado de una fuente de sonido (no mostrada). De esta manera, la
señal 2362 incluye la señal de sonido deseado y la oposición de fase
del ruido ambiental con un SPL reducido. El elemento de suma 2336
envía la señal 2362 al transductor electro acústico 2326.
El transductor electro acústico 2326 produce el
sonido deseado, junto con un sonido de cancelación de ruido, de
acuerdo con la señal 2362. Puesto que la oposición de fase del ruido
ambiental en la zona tranquila de la oreja 2354 cancela el ruido
ambiental en esta zona tranquila, el usuario escucha el sonido
deseado y sustancialmente ninguno de los ruidos ambientales.
El transductor acústico eléctrico de error 2324
detecta el sonido emitido por el transductor electro acústico 2326
y envía una señal 2364 respectiva del sonido detectado al elemento
de suma 2340. El elemento de EPR 2330 recibe la señal 2360,
determina una señal 2366 que es una estimación del sonido deseado
emitido por el transductor electro acústico 2326 en la zona
tranquila de la oreja 2354, y envía una señal 2366 al elemento de
suma 2340. El elemento de suma 2340 produce una señal de error 2368
comparando las señales 2366 y 2364 (es decir, substrayendo la señal
2366 de la señal 2364) y envía una señal de error 2368 al elemento
predictivo y al elemento de realimentación 2334. La señal de error
2368 representa la diferencia entre el sonido deseado tal como es
recibido de la fuente de sonido y el sonido deseado cancelado de
ruido emitido en la zona tranquila de la oreja 2354. El elemento
predictivo 2332 hace una corrección a la señal 2358 de acuerdo con
la señal de error 2368 y envía una señal 2358 al elemento de suma
2336.
Haciendo referencia a la figura 10C, la porción
de realimentación del sistema 2320 incluye el transductor electro
acústico 2326, el transductor acústico eléctrico de error 2324, el
elemento de realimentación 2334, los elementos de EPR 2328 y 2330 y
los elementos de suma 2336, 2338 y 2340. El elemento de suma 2336
está acoplado al elemento de realimentación 2334, a los elementos
de EPR 2328 y 2330 y al transductor electro acústico 2326. El
elemento de suma 2338 está acoplado al elemento de realimentación
2334, al elemento de EPR 2328 y al elemento de suma 2340. El
elemento de suma 2340 está acoplado al elemento de realimentación
2334, al elemento de EPR 2330, al elemento de suma 2338 y al
transductor acústico eléctrico de error 2324.
El elemento de suma 2336 produce la señal 2362
mediante la adición de la señal 2358, que el elemento de suma 2,336
recibe del elemento predictivo 2332, a la señal 2360, que el
elemento de suma 2336 recibe de la fuente de sonido. De esta
manera, como se describe en la presente memoria descriptiva más
arriba en relación con la figura 10B, la señal 2362 incluye la
señal de sonido deseado y la oposición de fase del ruido ambiental
con un SPL reducido. El elemento de suma 2336 envía la señal 2362 al
transductor electro acústico 2326 y al elemento de EPR 2328.
El transductor electro acústico 2326 produce el
sonido deseado, junto con un sonido de cancelación de ruido, de
acuerdo con la señal 2362. Puesto que la oposición de fase del ruido
ambiental en la zona tranquila de la oreja 2354 cancela el ruido
ambiental en esta zona tranquila, el usuario escucha el sonido
deseado y sustancialmente ninguno de los ruidos ambientales.
El transductor acústico eléctrico de error 2324
detecta el sonido emitido por el transductor electro acústico 2326
y envía una señal 2364 respectiva del sonido detectado al elemento
de suma 2340. El elemento de EPR 2330 recibe la señal 2360,
determina una señal 2366 que es una estimación del sonido deseado
emitido en la zona tranquila de la oreja 2354 y envía una señal
2366 al elemento de suma 2340. El elemento de suma 2340 produce una
señal de error 2368 comparando las señales 2366 y 2364 (es decir,
restando la señal 2366 de la señal 2364) y envía una señal de error
2368 al elemento de realimentación 2334, al elemento de suma 2338
y al elemento predictivo 2332. La señal de error 2368 representa la
diferencia entre el sonido deseado tal como se recibió de la fuente
de sonido y el sonido deseado cancelado de ruido emitida en la zona
tranquila de la oreja 2354.
El elemento de EPR 2328 produce una señal 2370,
que es una estimación de un sonido emitido por el transductor
electro acústico 2326 y como es detectado por un transductor
acústico eléctrico de error 2324. El elemento de EPR 2328 produce
la señal 2370 de acuerdo con la señal 2362. El elemento de suma 2338
produce una señal de error 2372 comparando las señales 2368 y 2370
(es decir, restando la señal 2370 de la señal 2368) y envía una
señal de error 2372 al elemento de realimentación 2334. El elemento
de realimentación 2334 produce una señal de error 2374 procesando
las señales de error 2368 y 2372 y envía una señal de error 2374 al
elemento de suma 2336. El elemento de suma 2336 produce la señal
2362 añadiendo la señal error 2374 a la señal 2358 (para la señal
de cancelación ruido ambiental) y la señal 2360 (para la señal de la
fuente de sonido).
Se hace notar que el sistema de reducción de
ruido puede incluir una pluralidad de transductores electro
acústicos y un transductor acústico eléctrico respectivo para cada
uno de los transductores electro acústicos. En este caso, el
sistema recibe el sonido deseado en una pluralidad de canales y el
usuario puede escuchar el sonido deseado en múltiples
dimensiones.
Se hace notar adicionalmente que el sistema 2320
produce una señal de ruido en oposición de fase de acuerdo con una
señal recibida desde un transductor acústico eléctrico (es decir,
el transductor acústico eléctrico de referencia 2322), que no se ve
afectada por el sonido emitido por el transductor electro acústico
(es decir, el transductor electro acústico 2326) y adapta a esta
señal de ruido en oposición de fase de acuerdo con una señal
respectiva del sonido emitido por este transductor electro acústico
(es decir, la señal 2364). La operación de la porción predictiva y
de la porción de realimentación del sistema 2320 son similares. La
diferencia entre las dos porciones es que la entrada a la porción
predictiva es el ruido ambiental desprovisto de cualquier sonido
emitido por el transductor electro acústico, mientras que la entrada
a la porción de realimentación es el sonido que es emitido
realmente por este transductor electro acústico.
Se hace referencia a continuación a la figura
11A, que es una ilustración esquemática de un procedimiento para el
funcionamiento del sistema de la figura 7A, operativo de acuerdo con
una realización adicional de la técnica desvelada. En el
procedimiento 2400, una señal de sonido que soporta el ruido se
produce detectando el sonido acústico y el ruido. Con referencia a
la figura 7A, el transductor acústico eléctrico 2102 detecta el
sonido acústico y el ruido y envía la señal 2108 respectiva de este
sonido acústico y ruido detectados a un controlador de audio
2106.
En el procedimiento 2402, una señal de ruido de
referencia es producida detectando el ruido. Con referencia a la
figura 7A, el transductor acústico eléctrico 2104 detecta el ruido
y envía la señal 2110 respectiva de este ruido a un controlador de
audio 2106.
En el procedimiento 2404, una señal de
corrección es determinada de acuerdo con la señal de ruido de
referencia. Con referencia a la figura 7A, el controlador de audio
2106 determina un SPL reducido de la señal 2110.
En el procedimiento 2406, una señal libre de
ruido es producida de acuerdo con la señal de corrección y la señal
de sonido de soporte de ruido. Con referencia a la figura 7A, el
controlador de audio 2106 produce la señal 2112 substrayendo la
señal 2110 con el SPL reducido, desde la señal 2108.
Se hace referencia a continuación a la figura
11B, que es una ilustración esquemática de un procedimiento de
funcionamiento de un sistema de cancelación de ruido, operativo de
acuerdo con otra realización de la técnica desvelada. Este sistema
de cancelación de ruido emplea un transductor acústico eléctrico de
referencia para detectar el ruido ambiental, en el que el
transductor acústico eléctrico de referencia se encuentra lejos de
las orejas del usuario. Se hace notar que el procedimiento para
detectar el ruido ambiental por medio de este transductor acústico
de referencia es común a ambos procedimientos de acuerdo con las
figuras 11A y 11B. Además, se hace notar adicionalmente que los
procedimientos de acuerdo con las figuras 11A y 11B, se pueden
combinar en un único procedimiento que en la presente memoria
descriptiva y a continuación se describe en relación con la figura
12.
Con referencia a la figura 11B, en el
procedimiento 2408, que es similar al procedimiento 2402, la señal
de ruido de referencia es producida detectando ruido. El
transductor acústico eléctrico de referencia produce una señal de
ruido de referencia detectando el ruido ambiental. En el
procedimiento 2410, una señal de cancelación de ruido es
determinada procesando la señal de ruido de referencia. Un
controlador de ANR similar al controlador de ANR 2172 (figura 8A)
determina una cancelación de ruido de la señal procesando la señal
de ruido de referencia. El controlador de ANR determina un SPL
reducido de la señal de ruido de referencia respectiva del SPL del
ruido ambiental en una localización cercana a la oreja del usuario.
Además, el controlador de ANR determina una señal de cancelación de
ruido, que está desfasada aproximadamente 180 grados con respecto a
la señal de ruido de referencia. Un transductor electro acústico
similar al transductor electro acústico 2178 (figura 8A), produce
un sonido de cancelación de ruido de acuerdo con la señal de
cancelación de ruido determinada (procedimiento 2412).
Se hace referencia a continuación a la figura
12, que es una ilustración esquemática de un procedimiento para el
funcionamiento del sistema de la figura 9A, operativo de acuerdo con
una realización adicional de la técnica desvelada. En el
procedimiento 2420, una señal de voz ruidosa es producida detectando
voz y ruido. Con referencia a la figura 9A, el transductor acústico
eléctrico de voz 2258 detecta la voz del usuario por la boca 2268,
junto con el ruido ambiental, con un SPL reducido y envía una señal
2278 al controlador de audio 2264.
En el procedimiento 2422, una señal de ruido de
referencia es producida detectando ruido. Con referencia a la
figura 9A, el transductor acústico eléctrico de referencia 2254
detecta el ruido ambiental y envía la señal 2274 al controlador de
audio 2264.
En el procedimiento 2424, una señal de
corrección es determinada de acuerdo con la señal de ruido de
referencia. Con referencia con la figura 9A, el controlador de
audio 2264 determina un SPL reducido de la señal 2274.
En el procedimiento 2426, una señal de voz libre
de ruido es producida de acuerdo con la señal de corrección y con
la señal de voz ruidosa. Con referencia a la figura 9A, el
controlador de audio 2264 produce la señal 2272, substrayendo la
señal 2274 con un SPL reducido, de la señal 2278.
En el procedimiento 2428, una señal de audio es
recibida. Con referencia a la figura 9A, el controlador de ANR 2262
recibe la señal 2270 de la fuente de sonido. En el procedimiento
2430, una señal de error es producida detectando sonido en las
proximidades de la oreja. Con referencia a la figura 9A, el
transductor acústico eléctrico de error 2256 detecta el sonido
cerca de la oreja 2266 y envía la señal 2276 respectiva de este
sonido detectado al controlador de ANR 2262.
En el procedimiento 2432, una señal de
cancelación de audio y ruido es determinada de acuerdo con la señal
de ruido de referencia, la señal de audio y la señal de error. Con
referencia a la figura 9A, el controlador de ANR 2262 determina la
señal 2280 procesando las señales 2270, 2274 y 2276.
En el procedimiento 2434, una señal de
cancelación de audio y ruido es producida de acuerdo con la señal de
cancelación de audio y ruido determinada. Con referencia a la
figura 9A, el transductor electro acústico 2260 produce sonido de
acuerdo con la señal 2280.
Lo que sigue es una descripción del seguidor de
ojos 138. Se hace referencia ahora a la figura 13, que es un
ilustración de vista delantera esquemática de un sistema 3100,
construido y operativo de acuerdo con otra realización de la
técnica desvelada, que muestra imágenes 3120 al ojo de un usuario y
que además sigue al ojo 3120. Una pupila 3134 se encuentra dentro
del ojo 3120. El sistema 3100 (por ejemplo, el seguidor de ojo 3534
ilustrado aquí más abajo en la figura 18) incluye un módulo de
cámara 3102, un procesador de imágenes 3132, un divisor haz de
3104, fuentes de luz 3106, 3108 y 3110, un módulo de visualización
3112 y un conjunto óptico de colimación 3114, todo ello montado en
un casco 3116.
El divisor haz 3104 transmite una porción de la
luz incidente sobre el mismo y refleja otra porción de la luz
incidente. Por ejemplo, el divisor de haz 3104 puede ser un divisor
haz de polarización (PBS). Las fuentes de luz 3106, 3108 y 3110
emiten luz no visible. Por ejemplo, cada una de las fuentes de luz
3106, 3108 y 3110 puede emitir luz infrarroja (IR) o luz casi
infrarroja (NIR). Las fuentes de luz 3106, 3108 y 3110 pueden ser
diodos emisores de luz (LED), fuentes de luz de banda ancha filtrada
de NIR y otros similares.
El módulo de visualización 3112 produce una
imagen para ser vista por el usuario (por ejemplo, el módulo de
visualización 3112 puede incluir un tubo de haces catódicos (CRT),
un visualizador de cristal líquido iluminado posteriormente (LCD),
o un diodo de emisión de luz orgánico (OLED). La fuente de luz 3110
y el visualizador 3112 están acopladas al conjunto óptico de
colimación 3114.
El módulo de cámara 3102 recibe una imagen que
pasa a través del divisor de haz 3104. El módulo de cámara 3102
incluye un sensor de imagen tal como un CCD, CMOS, y similares, para
detectar imágenes.
El procesador de imágenes 3132 está acoplado al
módulo de cámara 3102, al módulo de visualización 3112 y a las
fuentes de luz 3106, 3108 y 3110. En el presente ejemplo, el
procesador de imágenes 3132 se monta en el casco 3116. Se hace
notar, sin embargo, que el procesador en general puede estar
dispuesto, sobre el casco, fuera del casco, o parcialmente en el
casco (por ejemplo, cuando el procesador se compone de un conjunto
de chips). El procesador de imágenes 3132 recibe datos de imágenes
de la cámara 3102, y determina la línea visual de la vista del ojo
3120 de acuerdo con estos datos de imágenes. El procesador de
imágenes 3132 puede grabar imágenes adicionalmente, comunicarse con
una fuente exterior (por ejemplo, una interfaz de usuario, un
detector de luz ambiental), y controlar el visualizador 3112 y las
fuentes de luz 3106, 3108 y 3110.
En el presente ejemplo, las fuentes de luz 3106,
3108 y 3110 emiten luz sustancialmente en el mismo rango de
longitudes de onda predeterminado. El módulo de cámara 3102 incluye
además un filtro (no mostrado), que admite la luz en el mismo rango
de longitudes de onda que las fuentes de luz 3106, 3108 y 3110, y
filtra la luz que está fuera de este rango. Se hace notar, sin
embargo, que las fuentes de luz en general, pueden emitir luz que
tiene diferentes rangos de longitudes de onda, y la cámara puede
tener varios espectros de detección. El requisito general para que
la cámara detecte las reflexiones de la luz procedente de las
fuentes de luz 3106, 3108 y 3110, es que el espectro de emisión
combinado de las fuentes de luz 3106, 3108 y 3110, tenga un
solapamiento considerable con el rango de detección del módulo de
cámara 3102.
La fuente de luz 3106 emite un haz de luz
iluminante no visible 3122 hacia el divisor de haz hacia 3104. El
divisor de haz 3104 refleja parcialmente el haz de luz 3122 hacia el
ojo 3120, con lo que ilumina el ojo 3120. El haz de luz iluminante
3122 es concéntrico con el eje óptico del módulo de cámara 3102. Una
porción del haz de luz iluminante 3122 se refleja de las pupilas
3134 del ojo 3120, como un haz de luz 3124, al sensor de imágenes
del módulo de cámara 3102. De esta manera, la pupila 3134 aparece
como un punto brillante en la imagen detectada por el módulo de
cámara 3102. Como consecuencia, el procesador de imágenes de 3132
determina la posición del centro de la pupila 3134.
De acuerdo con otra realización de la técnica
desvelada, el procesador de imágenes 3132 está acoplado
adicionalmente a un detector de luz ambiental (no mostrado), que
puede estar dispuesto en el casco o fuera del casco. Se hace notar
que bajo ciertas condiciones, el módulo de cámara 3102 puede no ser
capaz de detectar la pupila 3134 como un punto brillante. Por
ejemplo, la luz ambiental en el sistema 3100 puede alcanzar altos
niveles de intensidad. Puesto que la visualización de la pupila
3134 requiere un nivel mínimo de contraste entre la pupila y su
tejido no transparente circundante (es decir, el iris), el nivel de
intensidad del haz de luz 3122 también debe aumentar cuando la
intensidad de la luz ambiental se incrementa. Sin embargo, la
intensidad del haz de luz 3122 puede estar limitada por un umbral
de seguridad.
Si la intensidad del haz de luz 3122, que sería
requerida para ver la pupila 3134 como un punto brillante, está más
allá del umbral de seguridad, el detector de luz ambiental puede
señalizar al procesador de imágenes 3132 en consecuencia. El
procesador de imágenes instruye a las fuentes de luz 3106, 3108 y
3110 para que iluminen el ojo de manera diferente. Por ejemplo, la
fuente de luz 3106 puede reducir significativamente la intensidad
del haz de luz 3122. De esta manera, la pupila 3134 aparecerá en la
imagen detectada por el módulo de cámara 3102 como una mancha
oscura. El procesador de imágenes 3132 detecta la pupila 3134 de
acuerdo con diferentes criterios. Por ejemplo, el criterio para la
detección de una "pupila brillante" puede seleccionar
porciones de imágenes que están más allá de un cierto umbral de
brillo, mientras que el criterio para la detección de una "pupila
oscura" puede seleccionar porciones de imágenes por debajo de un
umbral de "oscuridad".
La fuente de luz 3110 emite un haz iluminante
3128 de luz no visible hacia el conjunto óptico de colimación 3114.
El módulo de visualización 3112 emite un haz de luz 3130 que lleva
una imagen visible, hacia el conjunto óptico de colimación 3114. El
conjunto óptico de colimación 3114 colima los haces de luz 3128 y
3130, y dirige los haces luminosos colimados hacia el ojo 3120 del
usuario. El procesador de imágenes 3132 detecta el reflejo corneal
3138 del haz de luz 3128 (es decir, la reflexión corneal 3138 es el
reflejo del haz de luz 3128 en la córnea del ojo 3120). Puesto que
el haz de luz 3128 está colimado, la posición del reflejo corneal
3138 en la córnea es invariante con el movimiento del ojo 3120,
relativa con la posición de la fuente de luz 3110 (por ejemplo, un
movimiento relativo de este tipo puede ocurrir con el deslizamiento
del casco). En el ejemplo presente, la reflexión corneal 3138 se
encuentra situada fuera de la zona de la pupila 3134. Se hace notar,
sin embargo, que la reflexión corneal 3138 puede superponerse, en
general, total o parcialmente al área de la pupila 3134. Se hace
notar además que la posición de la reflexión corneal 3138 depende
de la mirada del ojo 3120.
La fuente de luz 3108 emite un haz de luz
iluminante no visible 3126 hacia el ojo 3120 y los párpados 3136
del usuario. Una porción del haz de luz 3128 (no mostrado) se
refleja hacia el módulo de cámara 3102. De esta manera, el módulo
de cámara 3102 detecta una imagen del ojo 3120 y de los párpados
3136 el usuario. La fuente de luz 3108 puede estar configurada para
producir iluminación de inundación en ciertas zonas de la cara (por
ejemplo, los ojos y los párpados) con luz homogénea (es decir,
intensidad, polarización, longitud de onda y similares). Por
ejemplo, un difusor puede ser utilizado para generar una intensidad
uniforme de iluminación.
De acuerdo con una realización adicional de la
técnica desvelada, el procesador de imágenes 3132 determina la
línea de visión del usuario de acuerdo con la posición relativa
entre la pupila 3134 y la reflexión corneal 3138. Por ejemplo, el
procesador de imágenes 3132 puede extraer de la imagen del ojo la
posición del centro de la pupila 3134 y el centro de la reflexión
corneal 3138. De esta manera, el procesador de imágenes puede
calcular la posición relativa entre el centro de la pupila y el
centro de la reflexión corneal. El procesador de imágenes puede
entonces transformar este resultado, utilizando un modelo de
transformación preestablecido, para determinar la línea de visión
del usuario. Se hace notar que el modelo de transformación se basa
en el conocimiento de la fisiología del ojo, y puede ser
determinado adicionalmente de acuerdo con los datos previamente
adquiridos en relación con el usuario. La posición de los párpados
3136 puede ser utilizada con el fin de mejorar la precisión del
cálculo de la línea de visión. Por ejemplo, cualquiera de las
esquinas de los párpados se encuentra en general en reposo con
respecto a la cara del usuario. De esta manera, una esquina de los
párpados 3136 puede ser utilizada como punto de referencia
adicional, además de la pupila y del reflejo corneal.
Alternativamente, la posición de los párpados
3136 puede ser utilizada para calcular la línea de visión del
usuario, en caso de que uno de los puntos de referencia (es decir,
la pupila 3134 o el reflejo corneal 3138) no esté disponible. Por
ejemplo, en determinadas condiciones, el reflejo corneal 3138 puede
no estar disponible. Como consecuencia, el procesador de imágenes
determina la línea de visión de acuerdo con la posición relativa
entre el centro de la pupila 3134 y una esquina de los párpados
3136.
Se hace notar que el procesador de imágenes
pueden calcular la línea de visión dinámicamente. Como consecuencia,
el procesador de imágenes 3132 calcula inicialmente la línea de
visión, y a continuación asocia cualquier movimiento posterior en
el ojo con un cambio de la línea de visión.
De acuerdo con otra realización de la técnica
desvelada, el procesador de imágenes 3132 determina el estado
fisiológico del usuario de acuerdo con la posición y el movimiento
ya sea de los párpados 3136 o de la pupila 3134. Por ejemplo, la
posición de los párpados 3136 y el movimiento de la pupila 3134
pueden indicar el estado de fatiga del usuario, e identificar la
pérdida de conciencia (LOC), y similares. Por ejemplo, el procesador
de imágenes de esta manera puede determinar una pérdida de
conciencia bajo altas cargas G (G-LOC). Este estado
fisiológico puede ser, por ejemplo, de fatiga, pérdida de
conciencia, bizquera, astigmatismo, daño a los ojos, vértigo, y
otros similares.
Cuando determinadas condiciones fisiológicas son
detectadas, el procesador de imágenes 3132 puede iniciar una
respuesta en consecuencia. Por ejemplo, cuando el procesador de
imágenes detecta que el usuario está soñoliento, el procesador de
imágenes puede indicar a un sistema de alarma para que suene una
alarma acústica, para generar un choque eléctrico suave, alertar la
atención de un centro de órdenes, y otros similares.
El sistema 3100 incluye además un visor semi-
transparente o combinador (no mostrado). Se hace notar que las
trayectorias de los haces de luz que viajan entre el ojo 3120 y los
elementos del sistema 3100 sólo se muestran esquemáticamente en la
figura 13. Los haces de luz, 3122, 3124, 3126, 3128 y 3130 son en
realidad reflejados en el visor antes de llegar al ojo 3120 o al
módulo de cámara 3102.
Se hace referencia a continuación a la figura
14, que es una ilustración de la vista lateral esquemática del
sistema 3100 (figura 13). Un visor 3140 refleja los haces de luz
que pasan entre el ojo 3120 y la cámara 3102 (es decir, el haz de
luz 3124 de la figura 13), así como los haces de luz que pasan
entre el colimador 3114 y el ojo 3120 (es decir, los haces de luz
3128 y 3130 de la figura 13). Se hace notar que tanto el módulo de
visualización 3112 como la fuente de luz 3110 transmiten luz al
visor/combinador 3140 a través del colimador de 3114. De esta
manera, el sistema determina la LOS 3100 de los ojos 3120 y muestra
una imagen para los ojos 3120, mientras el módulo de visualización
3112 y la fuente de luz 3110 utilizan sustancialmente el mismo
trayecto óptico.
En el presente ejemplo, la superficie del visor
3140 es esférica. Se hace notar, sin embargo, que la superficie del
visor 3140 puede tener varias formas, tales como esférica, asférica,
plana y otras similares. Se hace notar adicionalmente que un visor
esférico puede tener cierto grado de libertad de rotación, sin
afectar las trayectorias de los haces de luz reflejada desde
allí.
El visor 3140 transmite, al menos parcialmente,
luz visible, lo que permite al usuario visualizar una escena allí.
El visor 3140 puede filtrar adicionalmente luz que tenga
sustancialmente la misma longitud de onda que los haces de luz
iluminantes 3122, 3126 y 3128. Por ejemplo, el visor puede incluir
un pigmento que absorbe la luz que tenga estas longitudes de onda.
Por lo tanto, el visor 3140 impide que la luz que tiene estas
longitudes de onda pase, entrando en el espacio situado entre el
visor y la cara del usuario. Esto elimina sustancialmente la
interferencia al sistema 3100 causada por la luz ambiental (por
ejemplo, la luz del sol), que en general es designada por 3150.
El visor 3140 está recubierto con un
revestimiento interior 3142. Se hace notar que el revestimiento 3142
puede cubrir la parte interior completa del visor 3140. Por
ejemplo, el revestimiento interior 3142 puede ser un revestimiento
de espejo de interferencia, que tiene una respuesta a la reflexión
pico en la región de longitud de onda de los haces de luz 3122,
3126 y 3128 y el visualizador 3112. De esta manera, el revestimiento
interior 3142 impide que cualquier luz con estas longitudes de onda
se desplace desde el interior del visor (es decir, el espacio
situado entre el visor y la cara del usuario) a la parte exterior
del visor.
Por lo tanto, el espacio entre el visor y la
cara del usuario se encuentra ópticamente aislado prácticamente en
estas longitudes de onda. Substancialmente la totalidad de la luz
que tiene la misma longitud de onda que los haces de luz
iluminante, que es detectada por el módulo de cámara 3102, se
origina únicamente desde las fuentes de luz 3106, 3108 y 3110. De
esta manera, la relación de señal (es decir, la luz que se origina
en una de las fuentes de luz) a ruido (es decir, la luz ambiental
3150) (SNR) es suficiente para analizar la imagen recibida por el
módulo de cámara 3102.
Se hace notar que una cámara de exposición puede
ser incorporada en el sistema 3100. Esta cámara puede proporcionar
datos referentes a la posición y orientación del casco 3116 durante
el vuelo. Tomados en conjunto con los datos del módulo de cámara
3102, estos datos pueden proporcionar información adicional sobre la
vista que ve el usuario. De manera similar, el sistema puede ser
incorporado con un sensor de posición y orientación montado en el
casco 3116 (por ejemplo, el seguidor de posición de la cabeza 3536
que se ilustra en la figura 18), así como un sensor de posición y
de orientación que está asociado al avión (por ejemplo, el seguidor
de posición y orientación del vehículo 3538 que se ilustra en la
figura 18).
De acuerdo con otra realización de la técnica
desvelada, la imagen que se muestra al espectador está controlada
de acuerdo con la línea de visión detectada. Se hace referencia a
continuación a las figuras 15A y 15B. La figura 15A es una
ilustración esquemática de una primera escena, en general designada
por 3200, que es visualizada por un usuario de acuerdo con una
realización adicional de la técnica desvelada. La figura 15B es una
ilustración esquemática de una segunda escena, en general designada
por 3230, que es visualizada por el usuario de acuerdo con otra
realización de la técnica desvelada. En los ejemplos establecidos en
las figuras 15A y 15B, el usuario está operando un avión (por
ejemplo, el usuario es un miembro de la tripulación del avión). Se
hace notar, sin embargo, que la técnica desvelada se puede aplicar
a varias aplicaciones para ampliar la capacidad del usuario de
realizar una interfaz con sistemas, tales como en un tanque, un
submarino, distintos tipos de simuladores, líneas de montaje,
aparatos para personas con discapacidad, y otros similares.
Con referencia a la figura 15A, la escena 3200
incluye un objetivo 3206. En el ejemplo establecido en la figura
15A, el objetivo 3206 es un tanque. Un marcado de objetivo 3204 se
superpone a la escena 3200. El marcado de objetivo 3204 se muestra
alrededor de la línea de visión 3202 del espectador. Se hace notar
que la línea de visión 3202 se incluye a título de explicación y
generalmente no se muestra al usuario. La línea de visión se
extiende desde la pupila, perpendicularmente a la córnea y, por lo
tanto, desde la perspectiva visual del usuario; esta línea virtual
es un punto único situado exactamente en el centro del campo de
visión de cada ojo.
En el presente ejemplo, el usuario trata de
apuntar a un objetivo 3206 y dirige un arma (por ejemplo, el arma
3532 que se ilustra en la figura 18) a ese objetivo. Con el fin de
apuntar al objetivo, el usuario simplemente mira al objetivo,
estableciendo así la línea de visión 3202 a la dirección del
objetivo. El marcado de objetivo 3204 mostrado alrededor del
objetivo ayuda al usuario a determinar si la puntería es
suficientemente precisa. Cuando la puntería es suficientemente
precisa, el usuario puede disparar al blanco (por ejemplo, pulsando
un botón manual, dando una orden por voz).
Para determinar la localización real del
objetivo al cual el usuario está apuntando, la técnica desvelada
implementa una jerarquía de sistema de coordenadas. Como
consecuencia, la técnica desvelada ejecuta en cascada el sistema de
coordenadas de la línea de visión de la pupila (es decir, el
seguimiento de los ojos), dentro del sistema de coordenadas de la
línea de visión del casco (es decir, la posición y orientación del
casco) que también está en registro con una posición del avión (por
ejemplo, un sistema de posicionamiento global (GPS) en combinación
con un radar) y orientación (por ejemplo, un giroscopio).
Se hace notar que la técnica desvelada
proporciona al usuario un campo de puntería que puede incluir
cualquier punto del campo de visión de los ojos del usuario. Se
hace notar adicionalmente que la velocidad y la estabilidad de la
puntería del usuario están limitas prácticamente sólo por las
limitaciones fisiológicas del ojo del usuario.
Se hace notar que un avión puede estar sujeto a
condiciones extremas (por ejemplo, durante el combate), como una
alta fuerza de gravedad (G) en varias direcciones, vibraciones,
presión, y otros similares. Los ojos humanos son virtualmente
auto-estabilizados por el reflejo ocular vestibular.
Siguiendo constantemente la vista y determinando la línea visual de
visión, la técnica desvelada proporciona al usuario la estabilidad
de puntería, incluso cuando el avión está sujeto a condiciones tan
extremas. De esta manera, la técnica desvelada utiliza la auto
estabilización natural de los ojos con el fin de compensar las
vibraciones de la cabeza.
De acuerdo con otra realización de la técnica
desvelada, el sistema de seguimiento de ojos registra los elementos
de visualización lógicos de acuerdo con la línea de visión del
espectador. De esta manera, el usuario puede seleccionar los
elementos de visualización del ojo. Con referencia a la figura 15B,
los elementos de visualización A (referencia 3234) y B (referencia
3236) se superponen en la escena 3230. Cada uno de los elementos de
visualización 3234 y 3236 representa una acción (por ejemplo, la
selección de misiles, asiento de expulsión, transmitir una señal de
socorro), que el usuario puede seleccionar.
El sistema de seguimiento de los ojos registra
inicialmente los elementos lógicos de visualización del campo de
visión del espectador. De esta manera, el sistema detecta cuando el
usuario mira a un cierto elemento lógico de visualización. Por lo
tanto, el usuario puede seleccionar un elemento de visualización
lógico mirando a este elemento y confirmando la selección. En el
presente ejemplo, el usuario está seleccionando la opción A. La
selección puede ser confirmada por diversos mecanismos de
confirmación, tales como confirmación manual, mirar al elemento
lógico de visualización durante una duración mínima, proporcionar
una indicación vocal, y otros similares.
De acuerdo con otra realización de la técnica
desvelada, el usuario puede seleccionar los objetivos fuera del
campo de visualización. Se hace referencia a continuación a la
figura 15C, que es una ilustración esquemática de una tercera
escena, en general designada por 3260, que es visualizada por el
usuario de acuerdo con una realización adicional de la técnica
desvelada.
La escena 3260 incluye un objetivo 3266. En el
ejemplo establecido en la figura 15C, el objetivo 3266 es un avión
enemigo. El campo de visualización del sistema, se designa por 3264,
representa el área en la que el sistema puede mostrar imágenes al
usuario. Se hace notar que el campo de visualización 3264 es más
pequeño típicamente que el campo de visión del ojo humano. Se hace
notar adicionalmente que el campo de visualización 3264 se incluye
con propósito de explicación, y no aparecen realmente en la escena
3260.
El objetivo 3266 se encuentra fuera del campo de
visualización 3264 y por lo tanto, el sistema no muestra un marcado
de objetivo (por ejemplo, similar al marcado de objetivo 3204 de la
figura 15A) alrededor del objetivo 3266. El usuario del sistema
3100 puede bloquear el objetivo 3266, dirigiendo el campo de visión
3262 hacia el objetivo (es decir, mirando el objetivo), y activando
adicionalmente un mecanismo de confirmación.
Se hace referencia a continuación a la figura
16, que es una ilustración esquemática de un procedimiento para el
seguimiento de un ojo de un usuario mientras se proyectan imágenes
hacia el ojo, que es operativo de acuerdo con otra realización de
la técnica desvelada. En el procedimiento 3300, un haz de luz que
ilumina una pupila es emitido hacia una superficie reflectante.
Este haz de luz que ilumina una pupila está dirigido a iluminar una
pupila y el tejido circundante a esa pupila de una manera que
acentúa el contraste entre la pupila y el tejido. Se hace notar que
el haz de luz que ilumina la pupila puede alcanzar la superficie
reflectante de forma indirecta. Como consecuencia, el haz de luz es
emitido en primer lugar hacia al menos un elemento óptico, el cual
dirige entonces el haz de luz hacia la superficie reflectante. Con
referencia a las figuras 13 y 14, la fuente de luz 3106 emite un
haz de luz 3122 hacia el divisor de haz 3104 y desde allí hacia el
revestimiento interior 3142 del visor 3140.
En el procedimiento 3302, un haz de luz que
ilumina un párpado es emitido hacia la superficie reflectante. Este
haz de luz que ilumina un párpado es dirigido para iluminar el ojo
completo y los párpados, de un modo que permite el seguimiento de
la posición de los párpados. Con referencia a las figuras 13 y 14,
la fuente de luz 3108 emite un haz de luz 3126 hacia el
revestimiento interior 3142 del visor 3140.
En el procedimiento 3304, un haz de luz que
ilumina una córnea es emitido hacia la superficie reflectante. Tal
haz de luz que ilumina una córnea está dirigido para iluminar la
córnea del ojo, de manera que una reflexión de punto visible
aparece en la córnea del ojo. Con referencia a las figuras 13 y 14,
la fuente de luz 3110 emite un haz de luz 3128 a través del
conjunto de colimación óptico 3114, hacia el revestimiento interior
3142 del visor 3140.
En el procedimiento 3306, un haz de luz de
visualización es emitido hacia la superficie reflectante. El haz de
luz de visualización transporta una imagen para ser vista por el
usuario. Con referencia a las figuras 13 y 14, la fuente de luz
3112 emite un haz de luz 3130 a través del conjunto de colimación
óptico 3114, hacia el revestimiento interior 3142 del visor
3140.
En el procedimiento 3308, los haces de luz
iluminantes y el haz de luz de visualización son reflejados hacia
un ojo de un usuario, con lo que ilumina el ojo y muestra una imagen
de visualización al usuario. Con referencia a las figuras 13 y 14,
el revestimiento interior 3142 del visor 3140 refleja los haces de
luz 3122, 3126, 3128 y 3130 hacia el ojo 3120.
En el procedimiento 3310, la luz recibida desde
los ojos se refleja hacia un detector de imágenes, con lo que se
detecta una imagen del ojo. Con referencia a las figuras 13 y 14, el
revestimiento interior 3142 del visor 3140 refleja porciones (no
mostradas) de haces de luz, 3122, 3126 y 3130 a través del divisor
de haz 3104, hacia el módulo de cámara 3102.
En el procedimiento 3312, la imagen del ojo es
analizada, determinando de esta manera un estado fisiológico del
usuarios. Con referencia a la figura 13, el procesador de imágenes
3132 analiza la imagen del ojo 3120, y determina el estado de
fatiga del usuario de acuerdo con la posición y el movimiento de los
párpados.
En el procedimiento 3314, la imagen del ojo es
analizada, determinando de esta manera la línea de visión del
usuario. Con referencia a las figuras 13 y 14, el procesador de
imágenes 3132 analiza la imagen del ojo 3120 recibida del módulo de
cámara 3102 y determina la línea de visión del usuario de acuerdo
con la posición relativa de la pupila 3134, el reflejo corneal 3138
y la estructura y posición de los párpados 3136.
En el procedimiento 3316, el haz de luz de
visualización es controlado de acuerdo con la línea de visión del
usuario. Con referencia a la figura 15A, el haz de la fuente de luz
de visualización proyecta una imagen que incluye un marcado de
objetivo 3204. La posición del marcado de objetivo 3204 se controla
de acuerdo con la posición de la línea de visión 3202 del
espectador.
Se hace notar que otros sistemas pueden ser
controlados de acuerdo con la línea de visión del usuario. Por
ejemplo, un mecanismo de expulsión, un mecanismo de disparo, un modo
de operación y otros similares pueden ser controlados de acuerdo
con la línea de visión.
En el procedimiento 3318, la al menos una fuente
de luz iluminante es controlada de acuerdo con la luz ambiental
detectada. En el ejemplo que se establece en las figuras 13 y 14, un
detector de luz ambiental (no mostrado) detecta el nivel de
intensidad de la luz ambiental 3150 y como consecuencia proporciona
una señal a un procesador de imágenes. Cuando los niveles de
intensidad superan un cierto umbral, el procesador de imágenes
instruye a la fuente de luz 3106 para reducir sustancialmente (o
eliminar por completo) la intensidad del haz de luz iluminante
3122. Se hace notar que el procedimiento 3318 se realiza antes de
los procedimientos 3300, 3302 y 3304.
De acuerdo con otra realización de la técnica
desvelada, el aparato está montado delante del usuario, sin que
esté fijado al usuario (por ejemplo, sin estar montado en un casco).
En un sistema de este tipo, la línea de visión del espectador es
seguida con respecto a diferentes posiciones de la cabeza. El módulo
que sigue la cabeza puede estar físicamente acoplado a la cabeza
(por ejemplo, unido a un casco) o seguir visualmente la posición de
la cabeza desde una localización remota, en la proximidad del
usuario.
Se hace referencia a continuación a las figuras
17A y 17B. La figura 17A es una ilustración en vista lateral
esquemática de un sistema, que en general se designa por 3500,
construido y operativo de acuerdo con una realización adicional de
la técnica desvelada. La figura 17B es una ilustración en vista
delantera del sistema de la figura 17A. En los ejemplos
establecidos en las figuras 17A y 17B, el usuario está operando un
vehículo (por ejemplo, el usuario es un conductor de un automóvil).
Se hace notar que esta realización de la técnica desvelada se puede
aplicar a cualquier tipo de vehículo (por ejemplo, un autobús,
camión, motocicleta, bicicleta), nave (por ejemplo, barcos o
submarinos) o aeronaves (por ejemplo, avión, helicóptero, nave
espacial) o en una instalación fija.
Con referencia a la figura 17A, el sistema 3500
incluye un módulo seguidor de ojos 3506, un módulo controlador
3510, y una unidad de procesamiento de vídeo 3508. El módulo
seguidor de ojos 3506 está acoplado al módulo controlador 3510 y a
la unidad de procesamiento de vídeo 3508, y todos se montan sobre el
vehículo 3504. El vehículo 3504 es operado por un conductor
3502.
El módulo seguidor de ojos 3506 consta de
componentes que incluyen un módulo de cámara, un divisor de haz,
fuentes de luz, un módulo de visualización y un colimador óptico (no
todos ellos mostrados) similar al sistema 3100 de la figura 13. La
funcionalidad de estas unidades es análoga a las unidades
correspondientes con referencia al sistema 3100. En general, el
módulo seguidor de ojos 3506 emite haces de luz iluminantes y un haz
de luz de visualización hacia el ojo del conductor 3502, con lo que
ilumina el ojo y muestra una imagen al conductor 3502. La imagen
mostrada puede incluir diferentes características o instrucciones
relacionadas con la carretera o con el proceso de conducción, y
permiten que el conductor 3502 seleccione un elemento mediante la
activación de un mecanismo de confirmación.
Puesto que la posición de la cabeza del
conductor 3502 no está restringida a un área limitada, la posición
del ojo puede estar en un rango amplio posible dentro del vehículo
3504. De acuerdo con un aspecto de la técnica desvelada, el módulo
controlador 3510 dirige el módulo seguidor de ojos 3506 hacia la
localización general del ojo. Esta dirección puede ser determinada
de acuerdo con un MPS montado en cabeza o de acuerdo con una cámara
externa al usuario.
De acuerdo con otro aspecto de la técnica
divulgada, existe una pluralidad de módulos seguidores de ojos 3506
que cubren el área completa en la cual se puede mover la cabeza del
conductor. Además, también existe una unidad que determina cual
módulo seguidor de ojos 3506 se selecciona para la operación en
cualquier momento dado.
De acuerdo con un aspecto adicional de la
técnica desvelada, la unidad de procesamiento de vídeo 3508 incluye
un detector de alta resolución (por ejemplo, un reproductor de
imágenes CMOS). Este tipo de detector de alta resolución, acoplado
a una óptica gran angular, cubre un amplio campo de visión. Se hace
notar que estos aspectos de la técnica desvelada no son mutuamente
excluyentes. Por ejemplo, un detector de alta resolución puede ser
usado acoplado a un módulo controlador 3510, con el fin de mejorar
la precisión.
La unidad de procesamiento de vídeo 3508 recibe
una imagen del ojo del conductor 3502 desde el módulo seguidor de
ojos 3506. La unidad de procesamiento de vídeo 3508 analiza la
imagen del ojo y determina la línea de visión del conductor 3502
con respecto a la posición de la cabeza. La unidad de procesamiento
de vídeo 3508 controla las imágenes que se van a mostrar al
conductor 3502 de acuerdo con la línea de visión. La unidad de
procesamiento de vídeo 3508 también puede analizar la imagen del
ojo para determinar un estado fisiológico del conductor 3502.
Cuando se detectan ciertas condiciones fisiológicas, la unidad de
procesamiento de vídeo 3508 puede iniciar una respuesta
consecuente, como se ha descrito anteriormente en relación con el
sistema 3100.
De acuerdo con otro aspecto de la técnica
desvelada, el conductor 3502 puede mirar un objeto (es decir, una
imagen de escena), fuera del vehículo 3504 e interroga al sistema
3500 para obtener información sobre el objeto. El conductor 3502
puede interrogar al sistema 3500 utilizando un micrófono (no
mostrado). A continuación, el módulo seguidor de ojos 3506 muestra
una imagen respectiva del objeto sobre el parabrisas del vehículo
3504 como respuesta al interrogatorio de acuerdo con la LOS del
conductor 3502, tal como es determinada por el módulo seguidor de
ojos 3506. En este caso, el módulo seguidor de ojos 3506 muestra la
imagen en una localización en el parabrisas que corresponde a la
LOP actual del conductor 3502 (es decir, la localización de la
imagen en el parabrisas cambia de acuerdo con la dirección de la
mirada del conductor 3502).
Alternativamente, el módulo seguidor de ojos
3506 muestra la imagen de acuerdo con la posición de la cabeza del
conductor 3502 relativa al vehículo 3504, como ha sido determinado
por el módulo seguidor de ojos 3506. En este caso, el módulo
seguidor de ojos 3506 muestra la imagen en una localización en el
parabrisas que corresponde a la posición actual de la cabeza del
conductor 3502 (es decir, la localización de la imagen en el
parabrisas cambia de acuerdo con la posición de la cabeza del
conductor 3502).
Se hace referencia a continuación a la figura
17B, que es una ilustración en vista delantera esquemática del
sistema 3500 (figura 17A). Se hace notar que el módulo seguidor de
ojos 3506 está montado en un lugar adecuado dentro del vehículo
3504, encarado al usuario.
Se hace notar adicionalmente que los haces de
luz no son reflejados en la superficie de una lente (tal como un
visor) como en realizaciones anteriores de la técnica desvelada,
sino que hay un trayecto directo entre los haces de luz y el ojo
del conductor 3502.
Se hace referencia a continuación a la figura
18, que es una ilustración esquemática de un sistema, que es en
general designado por 3530, construido y operativo de acuerdo con
otra realización de la técnica desvelada, siendo utilizado el
sistema para dirigir un arma, en general designada por 3532, hacia
un objetivo. El sistema 3530 incluye un seguidor de ojos 3534, un
seguidor de posición de la cabeza 3536, un seguidor de la posición
y la orientación del vehículo 3538, un conjunto de audio 3540 y un
procesador 3542. El arma 3532, el seguidor de ojos 3534, el
seguidor de posición de la cabeza 3536, el seguidor de la posición y
la orientación del vehículo 3538 y el conjunto de audio 3540 están
acoplados al procesador 3542.
El arma 3532 incluye un mecanismo de movimiento
(no mostrado), tal como un actuador eléctrico, actuador hidráulico,
actuador neumático, actuador piezoeléctrico, y otros similares. El
procesador 3542 apunta el arma 3532 hacia el objetivo de acuerdo
con los datos recibidos del seguidor de ojos 3534, del seguidor de
la posición de la cabeza 3536 y del seguidor de la orientación y la
posición del vehículo 3538, empleando el mecanismo móvil. El
procesador 3542 dirige el montaje de audio 3540 para que suenen
señales acústicas a un usuario (no mostrado), indicando los estados
o modos de operación predeterminados del arma 3532.
Se hace notar que el procesador 3542 puede estar
acoplado adicionalmente a otros sistemas (no mostrados) que
confirman la identidad del objetivo en base a las características
medidas y detectadas del mismo, tales como análisis de materiales
(por ejemplo, si el objetivo está hecho de metal), el análisis de la
forma (por ejemplo, en base al proceso de formación de imágenes
orientado por forma), análisis de la actividad (por ejemplo,
detección de las transmisiones procedentes del objetivo), y otros
similares.
Lo que sigue es una descripción del visor activo
142. El nivel de dicroísmo del polarizador variable determina el
nivel de polarización del polarizador variable en ese momento. El
nivel de dicroísmo se define con respecto a una dirección
específica del polarizador variable. Por ejemplo, se supone que
A_{x} y A_{y} son las amplitudes de los componentes X e Y,
respectivamente, de la onda electromagnética de un haz de luz que
entra en un polarizador variable, y A'_{x} y A'_{y} son las
magnitudes de los distintos componentes de la onda electromagnética
de ese haz de luz a medida que sale del polarizador variable.
Entonces, una medida del nivel de dicroísmo D_{x} puede darse con
respecto al eje X como:
\vskip1.000000\baselineskip
\newpage
en donde
\vskip1.000000\baselineskip
y en donde se supone que
De manera similar,
\vskip1.000000\baselineskip
cuándo
\vskip1.000000\baselineskip
Se hace notar que en la descripción de la
presente memoria descriptiva y a continuación, los valores relativo
y absoluto de diversos parámetros, tales como iluminación, campo
eléctrico, voltaje, dicroísmo, nivel de polarización, dirección,
ángulo de orientación, y otros similares, son valores aproximados y
no valores precisos.
Un "desfasador óptico" es un elemento
óptico que retrasa o adelanta la fase de al menos un componente de
polarización lineal de un haz de luz entrante en relación a otro
componente polarizado linealmente del mismo o a un haz de luz de
referencia. Se hace notar que cualquier haz de luz monocromática
puede ser representado como una combinación de dos componentes
polarizados linealmente cuyos campos electromagnéticos oscilan en
direcciones ortogonales. El cambio de fase puede ser cualquier
valor entre cero y 2\pi radianes, y múltiplos enteros de los
mismos.
Un tipo de desfasador óptico que se llama placa
en onda, retrasa un componente polarizado linealmente de un haz de
luz entrante, en relación con el otro componente polarizado
linealmente de ese haz de luz entrante, en una fracción de una
longitud de onda (por ejemplo, \lambda/8, \lambda/4,
3\lambda/8, \lambda/n, y similares). Una placa en onda
\lambda/4 es un ejemplo de una placa en onda de este tipo, también
conocida como placa en cuarto de onda. Un placa en onda \lambda/4
linealmente polarizada retrasa un componente de un haz de luz que
entra con una determinada longitud de onda \lambda, en un cuarto
de longitud de onda \lambda/4, en relación con el otro componente
de polarización lineal de ese haz de luz entrante. Como resultado,
un haz de luz polarizada lineal de entrada, que está linealmente
polarizada 45 grados con respecto a los ejes de la placa en onda
\lambda/4, saldrá polarizada circularmente. Del mismo modo, un
haz de luz entrante polarizada circularmente saldrá de la placa en
onda \lambda/4 polarizada linealmente 45 grados con respecto a los
ejes de la placa en onda \lambda/4.
La técnica desvelada es aplicable para la luz
monocromática, así como para la luz policromática. Se hace notar
que una placa en onda generalmente está pensada para una determinada
longitud de onda \lambda. Sin embargo, la placa en onda todavía
proporciona aproximadamente el mismo efecto para longitudes de onda
cerca de \lambda. Por ejemplo, si el dispositivo está diseñado
para la luz del sol, se puede utilizar una placa en onda destinada
para una longitud de onda de 550 nm (es decir, aproximadamente la
longitud de onda media del espectro de la luz solar).
El término "polarizador variable" en la
presente memoria descriptiva y a continuación, se refiere a un
elemento óptico cuyo nivel de polarización puede variar entre cero
y un nivel de polarización predeterminado, al variar el campo
eléctrico aplicado al mismo. Tal polarizador variable incluye una
sustancia que afecta la luz, que es una combinación de una
sustancia ópticamente activa y unas partículas que absorben la luz
anisotrópica. En la descripción en la presente memoria descriptiva y
a continuación, la expresión "sustancia que afecta a la luz" se
refiere a una sustancia que aplica un nivel de polarización a la luz
entrante, dependiendo de la dirección (es decir, directora) a lo
largo de la cual se alinean las partículas que absorben la luz
anisotrópica. Una sustancia ópticamente activa es una que afecta a
la dirección de polarización o los componentes de la luz entrante,
mientras que no tiene substancialmente ningún efecto sobre la
intensidad de la luz entrante. Esa sustancia ópticamente activa
puede ser, por ejemplo, cristal líquido, polímeros de cristal
líquido, cristal birrefringente, polímero birrefringente, plástico
birrefringente y otros similares.
Las partículas que absorben la luz anisotrópica
pueden ser por ejemplo, moléculas de colorante dicroicos,
microcristales dicroicos, materia colorante pleocroica, y otros
similares. Cada uno de los colorantes dicroicos o pleocroicos se
compone de moléculas lineales en forma de barra, que tienen una gran
absorbencia anisotrópica, en las que la absorbencia anisotrópica
depende de la orientación de las moléculas en forma barra de
relación con la dirección de la luz incidente y la polarización de
la luz incidente. Las partículas que absorben la luz anisotrópica
están alineadas con la directora (es decir, la dirección de las
moléculas de la sustancia ópticamente activa) en todo momento.
Preferiblemente, el cristal líquido (es decir,
el anfitrión) se acopla al colorante dicroico o pleocroico (es
decir, el huésped), mezclando el colorante en la fase de cristal
líquido, generalmente designada como "fase de cristal líquido
(GHLC) anfitrión - huésped". En la descripción en la presente
memoria descriptiva y a continuación, se supone que las moléculas
huéspedes y las moléculas anfitrionas son en forma de barra. Cuando
estas moléculas de colorante se mezclan en una fase de cristal
líquido neumática, las moléculas de colorante están alineadas a lo
largo de la fase directora de cristal líquido, y como resultado, la
absorción de moléculas de colorante presenta absorbencia
conmutable, polarización conmutable y reflectancia o transmitancia
conmutable.
El polarizador variable puede ser un dispositivo
energizado continuamente, o un dispositivo energizado de forma
intermitente. En caso del dispositivo energizado continuamente, la
orientación de la moléculas en forma de barra (es decir, las
moléculas de colorante) se fija en una dirección predeterminada
mediante la aplicación continua de un campo eléctrico con un valor
predeterminado respectivo, estableciendo de esta manera el
dispositivo energizado continuamente en un nivel de polarización
predeterminado.
Por ejemplo, cuando el campo eléctrico es
aplicado, las moléculas en forma de barra son alineadas
uniformemente perpendicularmente a la superficies límite del
polarizador variable (es decir, el polarizador variable está en un
estado homotrópico). Por el contrario, cuando no se aplica campo
eléctrico, las moléculas en forma de barra están alineadas
uniformemente paralelas a las superficies límite del polarizador
variable (es decir, el polarizador variable está en un estado
plano). De esta manera, mediante la aplicación de diferentes campos
eléctricos a la sustancia que afecta a la luz del polarizador
variable, el polarizador variable aplica diferentes niveles de
polarización a la luz incidente. Una capa de alineación homotrópica
alinea las moléculas en forma de barra en una dirección
perpendicular a las superficies límites del polarizador variable,
mientras que una capa de alineación plana alinea las moléculas en
forma de barra en una dirección paralela a las superficies límite
del polarizador variable.
En el caso de un dispositivo energizado de forma
intermitente, el polarizador variable se puede establecer en el
estado homotrópico, plano, o al menos en uno intermedio estable,
mediante la aplicación de un impulso momentáneo de campo eléctrico
que tiene una forma de pulsos predeterminada. Una celda de cristal
líquido multi-estable tiene al menos dos estados
estables, teniendo cada estado estable una determinada estructura
cristalina líquida. Cada estructura tiene una energía de estado
fundamental predeterminada (es decir, un pozo de energía). De esta
manera, aplicando un campo eléctrico con una energía de energización
predeterminada que supera un barrera de energía predeterminada
respectiva, las celdas multi-estables se transfieren
de una estructura a otra.
La celda multi-estable puede ser
fabricada por medio de la aplicación de un procedimiento de
alineación de superficie mixta plana y homotrópica. Cada estado
estable corresponde a una fuerza de anclaje predeterminada
respectiva de las moléculas en forma de barra (es decir, en cada
estado estable, las moléculas en forma de barra están ancladas a la
superficie límite de la célula con una fuerza predeterminada).
Cuando la estructura de la sustancia que afecta a la luz se
encuentra en el estado homotrópico, la luz incidente pasa a través
suyo sin ser afectada de ninguna manera. Cuando la estructura de la
sustancia que afecta a la luz se encuentra en el estado plano,
solamente el componente de la luz que está linealmente polarizado en
la dirección de las moléculas en forma de barra pasa a través
suyo.
Un "desfasador óptico controlable" es un
dispositivo que pueda funcionar en una pluralidad de estados de
cambio de fase, que también pueden incluir un estado de cambio de no
fase, así (es decir, sin aplicar ningún cambio de fase a la
luz).
Un desfasador óptico controlable puede ser en
forma de un desfasador óptico multi-estable que
tiene una pluralidad de estados estables (es decir, los estados que
se mantienen sin la aplicación de un campo eléctrico o de cualquier
otra forma de energía). Se hace notar que un desfasador óptico
multi-estable puede ser mantenido además en una
pluralidad de estados inestables, por medio de la aplicación de
diferentes campos eléctricos al mismo.
\newpage
Por ejemplo, el desfasador óptico controlable
puede ser en forma de un cristal líquido nemático
bi-estable trenzado (es decir, que tiene dos
estados estables), un cristal líquido estabilizado con un polímero
bi-estable, un cristal líquido estabilizado con una
superficie bi-estable, y otros similares que tienen
un grosor seleccionado y que en la presente memoria descriptiva y a
continuación se designan por "desfasador óptico
bi-estable". La estructura del desfasador óptico
bi-estable puede conmutarse entre un estado no
trenzado (o uniforme), y un estado trenzado, mediante la aplicación
de un campo eléctrico momentáneo con una forma de pulsos
predeterminada. El tipo de desfasador óptico
bi-estable (por ejemplo, placa en onda \lambda/4,
placa en onda \lambda/2, y otros similares), depende del grosor
de la misma. Alternativamente, un desfasador óptico controlable
puede ser en forma de un desfasador óptico conmutable, como se
describe en la presente memoria descriptiva y a continuación en
relación con la figura 4.
Por ejemplo, cuando la estructura de cristal
líquido nemático trenzado se encuentra en el estado no trenzado, el
desfasador óptico bi-estable funciona como una placa
en onda \lambda/2. Cuando la estructura del cristal líquido
nemático trenzado se encuentra en el estado trenzado, el desfasador
óptico bi-estable pasa la luz incidente sin tener
ningún efecto sobre la misma. El cristal líquido nemático trenzado
puede cambiar desde el estado no trenzado al estado trenzado
mediante la aplicación de un pulso de campo eléctrico de corta
duración y del estado trenzado al estado no trenzado aplicando un
pulso en disminución lenta o un pulso en disminución escalonada de
campo eléctrico.
La distribución de fase de la sustancia que
afecta a la luz se divide en dos clases. Clase 1 (o fase dispersa)
es una fase líquida que consiste en microfases dispersas
aleatoriamente y orientadas aleatoriamente, tales como gotitas de
GHLC (GH-PDLC) o microdominios de GHLC, que están
incrustados en matrices de polímeros. La Clase 2 (o fase homogénea)
es otra fase líquida que consiste en una fase homogénea de GHLC, que
pueden ser derivadas de materiales de cristal líquido y las fases
nemáticas, nemáticas trenzadas, nemáticas supertrenzadas,
colestéricas, fases esméticas, otras fases, y las combinaciones o
mezclas de las mismas.
Cada una de las distribuciones de fase GHLC de
clase 1 y de clase 2 puede ser en forma de una mezcla o de un
compuesto químico. En una mezcla, las moléculas de colorante
dicroico (es decir, las moléculas huéspedes) se mezclan en una
concentración pequeña (aproximadamente 1-3%), en el
cristal líquido (es decir, en las moléculas anfitrionas). En un
compuesto químico, las partículas que absorben la luz anisotrópica y
moléculas de la sustancia que afectan a la luz se acoplan
conjuntamente en una unión química, tal como enlaces covalentes,
enlaces de Van der Waals, puentes de hidrógeno, enlaces
electrostáticos, enlaces iónicos, y otros similares.
Los diversos tipos de sustancias que afectan a
la luz de clase 1 utilizadas en la técnica desvelada pueden incluir
un Cristal Líquido Disperso (GH-PDLC) en Polímero
Huésped - Anfitrión, Cristal Líquido Disperso en Polímero Dicroico
y sus subclases, tales como Cristal Líquido de Textura Colestérica
Estabilizada en Polímero (PSCT) y Cristal Líquido Poliméricos
Alineado Curva Nemático (NCAP).
Las estructuras GHLC de la clase 1 suelen
presentar dispersión de luz inherente debido a la anisotropía del
índice de refracción de la fase de cristal líquido con respecto a la
fase circundante. Como consecuencia, en la GHLC de clase 1, la
dispersión de luz inherente tiene que ser eliminada o reducida a
niveles insignificantes, especialmente en aplicaciones de tipo
visor. Esto se puede conseguir mediante la aplicación de la fase
GHLC a un material de cristal líquido de birrefringencia muy
pequeña, sobre la base de anisotropía dieléctrica pequeña, estando
el índice de cristal líquido medio cerca de la fase polimérica
circundante. En tales casos, la anisotropía del índice de
refracción entre el índice ordinario y el índice extraordinario es
sustancialmente pequeña (por ejemplo, menor que 0,1), de manera que
la dispersión de la luz se reduce considerablemente. La reducción
de la dispersión de la luz también puede lograrse mediante la
definición del tamaño de las microgotas o microdominios, para que
sean significativamente menores que la longitud de onda de la luz en
interacción. Los sistemas son predominantemente modulados en
absorción, lo cual conduce a las características ADM y VTO
deseadas.
La estructura de la distribución de microfase o
de gotitas de GH-PDLC de clase 1 preferible no es
esférica, teniendo una geometría anisotrópica tal como elíptica,
geometría cizallada, geometría alargada, y otras similares. De esta
manera es posible hacer que la fase de cristal líquido en las
gotitas tenga una orientación preferente, lo que puede ser empleado
además en el contexto de la técnica desvelada para incrementar el
contraste de una o múltiples capas de polarizadores variables, como
se describe en la presente memoria descriptiva y a continuación.
Una estructura de clase 2 puede ser un cristal
líquido dicroico Huésped - Anfitrión (GH) que incorpora una fase
homogénea nemática (Heilmeier), una fase colestérica
(White-Taylor), una fase multi- estable, y otras
similares. En los polarizadores variables de clase 2, los colorantes
dicroicos huéspedes se mezclan con los anfitriones en fase de
cristal líquido homogénea. Los medios que utilizan este tipo de
materiales por lo general tienen la propiedad de la absorción pura
de imágenes moduladas, sin ningún tipo de dispersión de la luz. Un
GHLC normalmente cerrado se puede formar por ejemplo, mediante la
mezcla de colorantes dicroicos de momentos dipolares adecuados en
una celda GHLC nemática anisotrópica dieléctrica positiva trenzada.
Esta celda tiene la fase de cristal líquido con la textura plana
trenzada en ausencia de un campo eléctrico, produciendo un
polarizador variable de tipo normalmente cerrado. Esta celda se
puede conmutar a la fase homotrópica por la aplicación de un campo
eléctrico, produciendo de esta manera un estado abierto.
De manera similar, la mezcla de colorantes
adecuados dicroicos en una célula GHLC de anisotropía dieléctrica
negativa producirá un polarizador variable de tipo normalmente
abierto. Sin embargo, este tipo de celda convencionalmente produce
contrastes pobres, y por lo tanto no es práctica en algunas
aplicaciones debido al hecho de que la fase de cristal líquido
obtenida bajo el campo eléctrico no es una textura plana pura, y por
lo tanto produce una polarización insignificante.
Un polarizador variable normalmente abierto
puede construirse mediante la adición de una pequeña cantidad de
cristal líquido colestérico a la mezcla de GHLC nemática, y la
aplicación de un proceso de alineación de superficies planas y de
superficies homotrópicas mezcladas. Este proceso de alineación
permite a las moléculas en forma de barra alinearse sustancialmente
en la misma dirección, cuando se aplica un campo eléctrico al
cristal líquido (es decir, la directora huésped - anfitrión está
bien definida cuando se aplica un campo eléctrico). De esta manera,
se obtiene un contraste significativo, especialmente en una
configuración de celda doble, acoplada a una VTO normalmente
transparente (abierta).
Se hace referencia a continuación a las figuras
19A, 19B, 19C y 19D. La figura 19A es una vista esquemática en
perspectiva de un transmisor variable, en general designado por
4410, construido y operativo de acuerdo con una realización
adicional de la técnica desvelada. La figura 19B es una ilustración
esquemática de una vista lateral del transmisor variable de la
figura 19A. La figura 19C es una vista esquemática en perspectiva
del transmisor variable de la figura 19A, en otro modo de
funcionamiento. La figura 19D es una ilustración esquemática de una
vista lateral del transmisor variable de la figura 19C.
El transmisor variable 4410 incluye
polarizadores variables 4412 y 4414. Cada uno de los polarizadores
variables 4412 y 4414 es similar al polarizador variable 102, como
se ha descrito anteriormente en relación con la figura 1A. Cada uno
de los polarizadores variables 4412 y 4414 es un polarizador
variable normalmente abierto. Los polarizadores variables 4412 y
4414 se colocan uno respecto al otro en una manera de polarización
cruzada (es decir, cuando se encuentran en un modo de polarización,
la polarización de uno es perpendicular a la polarización del
otro), como se describirá más ampliamente en la figura 19C. Se hace
notar que la diferencia en la dirección de polarización del
polarizador variable 4412 y del polarizador variable 4414 puede ser
cualquier valor, sin embargo, el valor preferido con el fin de
proporcionar un rango dinámico máximo es \pi/2 radianes.
Con referencia a las figuras 19A y 19B, cuando
no se aplica un campo eléctrico a través del polarizador variable
4412, la dirección de las moléculas en forma de barra 4416 del mismo
es paralela al eje Z (es decir, perpendicular al plano del
polarizador variable 4412). Del mismo modo, cuando no se aplica un
campo eléctrico a través del polarizador variable 4414, la
dirección de las moléculas en forma de barra 4418 del mismo es
paralela al eje Z (es decir, perpendicular al plano del polarizador
variable 4414). De esta manera, cuando no se aplica ningún campo
eléctrico a cada uno de los polarizadores variables 4412 y 4414, el
polarizador variable respectivo transmite la luz entrante sin
ejercer ningún efecto sobre la luz entrante y sin afectar la
luminancia de la luz entrante. Los polarizadores variables 4412 y
4414 transmiten un haz de luz 4420 de un objeto 4422 que tiene una
luminancia L_{1} sin afectar el valor de la luminancia
L_{1} y un observador (no mostrado) visualiza una imagen
4424 del objeto 4422 en un plano de visualización 4426.
Con referencia a las figuras 19C y 19D, cuando
un campo eléctrico se aplica a través del polarizador variable
4412, las moléculas en forma de barra 4416 tienden a ser alineadas
en el eje Y, con lo que el polarizador variable 4412 funciona como
un polarizador lineal y de esta manera reduce la luminancia de la
luz entrante. De una manera similar, cuando se aplica un campo
eléctrico a través del polarizador variable 4414, las moléculas en
forma de barra 4418 tienden a ser alineadas con el eje X, con lo
cual el polarizador variable 4414 funciona como un polarizador
lineal y de esta manera reduce la luminancia de la luz entrante. El
polarizador variable 4412 polariza linealmente el haz de luz 4420 a
lo largo del eje Y, y como resultado un haz de luz 4428 emerge del
polarizador variable 4412 cuya luminancia L_{2} es menor
que la luminancia L_{1}. La dirección de polarización del
haz de luz 4428 está representada por una flecha 4430. El
polarizador variable 4414 polariza linealmente el haz de luz 4428 a
lo largo del eje X, y como resultado, un haz de luz 4432 emerge del
polarizador variable 4414, cuya luminancia L_{3} es
inferior a la luminancia L_{2}. El observador ve una imagen
4434 de un objeto 4422 en el plano de visualización 4426, en el que
la luminancia L_{3} de la imagen 4434 es inferior a la
luminancia L_{1} del objeto 4422.
El transmisor variable 4410 puede incluir un
conjunto de capas conductoras eléctricamente (no mostradas) y un
conjunto de capas aislantes de la electricidad (no mostradas). Cada
una de las capas conductoras eléctricamente está hecha de un
material delgado, transparente y conductor de la electricidad, tal
como un polímero conductor, vidrio revestido de indio - estaño -
óxido, óxido de estaño, un metal (por ejemplo, oro y plata), y otros
similares. Cada una de las capas aislantes de la electricidad se
compone de una capa delgada, transparente y aislante
eléctricamente, tal como un polímero inorgánico de dióxido de
silicio, óxido de silicio, nitruro de silicio, y otros
similares.
Una pareja de las capas conductoras
eléctricamente aplica un campo eléctrico a través del polarizador
variable 4412 y otra pareja de capas conductoras eléctricamente
aplica un campo eléctrico a través del polarizador variable 4414.
Se hace notar que cada uno de los pares de capas conductoras
eléctricamente puede aplicar un campo eléctrico diferente al
polarizador variable respectivo. Por ejemplo, el transmisor variable
4410 puede incluir una secuencia de capas de la siguiente manera:
una capa de protección, una capa eléctricamente conductora, una
capa de aislamiento eléctrico, un polarizador variable, una capa de
aislamiento eléctrico, una capa eléctricamente conductora, una capa
de aislamiento eléctrico, una capa conductora eléctricamente, una
capa de aislamiento eléctrico, un polarizador variable, una capa de
aislamiento eléctrico, una capa conductora eléctricamente y una
capa de protección.
\newpage
Alternativamente, un pareja de capas conductoras
eléctricamente aplica simultáneamente un campo eléctrico a través
de los polarizadores variables 4412 y 4414. Por ejemplo, el
transmisor variable 4410 puede incluir una secuencia de capas de la
siguiente manera: una capa de protección, una capa eléctricamente
conductora, una capa de aislamiento eléctrico, un polarizador
variable, una capa de separación de LC, otro polarizador variable,
una capa de aislamiento eléctrico, una capa conductora
eléctricamente y una capa de protección. La capa de separación de
LC se hace de un polímero transparente, tal como el nylon y otros
similares, que separa dos polarizadores variables adyacentes e
impide que las fases de LC de estos dos polarizadores variables se
mezclen. Además, un controlador (no mostrado) puede estar acoplado a
las capas conductoras eléctricamente y una fotocélula (no mostrada)
puede estar acoplada al controlador.
Se hace notar adicionalmente que el transmisor
variable 4410 puede ser empleado en diversos dispositivos ópticos,
tales como gafas, visor de casco, visor de soldadura, periscopio,
telescopio, microscopio, binoculares, ventanilla de vehículo de
tierra, ventanilla de avión, ventanilla de naves espaciales,
ventanilla de vehículos marinos , ventanas de visión, ventanas de
invernadero, y otras similares. En el caso de que cada uno de los
polarizadores variables sea en forma de celda de GHLC nemática
trenzada bi-estable, durante un fallo de suministro
eléctrico, un campo eléctrico con una forma determinada de pulso se
puede aplicar a los polarizadores variables, permitiendo así que el
transmisor variable transmita luz con la máxima intensidad. Se hace
notar que el usuario puede ajustar el nivel de polarización de los
polarizadores variables 4412 y 4414, estableciendo así el nivel de
contraste y el brillo de la imagen 4424.
Se hace referencia a continuación a la figura
20, que es una ilustración esquemática de un transmisor variable,
en general designado por 4490, construido y operativo de acuerdo con
otra realización de la técnica desvelada. El transmisor variable
4490 puede ser un visor de casco, un visor de soldadura, y otros
similares. El transmisor variable 4490 incluye una pluralidad de
regiones de transmisión 4492, 4494 y 4496. Cada una de las regiones
4492, 4494 y 4496 es similar al transmisor variable 4410, como se ha
descrito en la presente memoria descriptiva con anterioridad en
relación con la figura 19A. De esta manera, un controlador (no
mostrado) acoplado a las regiones 4492, 4494 y 4496 puede controlar
el voltaje eléctrico aplicado y por lo tanto, el campo eléctrico
aplicado en cada una de las regiones 4492, 4494 y 4496, con el fin
de transmitir la luz entrante con una luminancia diferentes en cada
región. Un controlador de este tipo puede ser acoplado
adicionalmente a una cámara, a sensores de luz y otros similares,
para ser operado por un usuario. En el ejemplo establecido en la
figura 20, la región 4492 se establece con una transmitancia
elevada y por lo tanto, parece muy transparente y las regiones 4494
y 4496 se han establecido con una transmitancia baja, y por lo tanto
las regiones 4494 y 4496 parecen más apagadas que la región
4492.
Se hace notar adicionalmente que cada uno de
entre el polarizador variable delantero y el polarizador variable
trasero está dividido en una pluralidad de regiones, de forma
similar a las regiones 4492, 4494 y 4496, en el que cada región del
polarizador variable delantero es espacialmente compatible con otra
región del polarizador variable trasero. El controlador establece
una región del polarizador variable delantero con el mismo nivel de
polarización que la región respectiva del polarizador variable
trasero. De esta manera, el controlador permite que el transmisor
variable transmita la luz a través de una región seleccionada, con
una luminancia seleccionada.
Se hace referencia a continuación a la figura
21, que es una ilustración esquemática de un transmisor variable,
que en general se designa por 4570, construido y operativo de
acuerdo con una realización adicional de la técnica desvelada. El
transmisor variable 4570 incluye polarizadores variables 4572 y 4574
y un desfasador óptico bi-estable 4576. Los
polarizadores variables 4572 y 4574 son similares a los
polarizadores variables 4412 y 4414 (figura 19A), respectivamente,
como se ha descrito en la presente memoria descriptiva con
anterioridad.
Cada uno de los polarizadores variables 4572 y
4574 es un polarizador variable normalmente cerrado. De esta
manera, cuando se aplican los campos eléctricos a los polarizadores
variables 4572 y 4574, las moléculas en forma de barra 4578 y 4580
de los polarizadores variables 4572 y 4574, respectivamente, están
alineadas a lo largo del eje Z. Cuando no hay campo eléctrico
aplicado a los polarizadores variables 4572 y 4574, las moléculas
en forma de barra 4578 se alinean a lo largo del eje Y y las
moléculas en forma de barra 4580 se alinean con el eje X. El
desfasador 4576 es un desfasador óptico bi-estable,
que puede operar como un elemento óptico transparente o como una
placa en media onda.
Los polarizador variables 4572 y 4574 están
situados uno respecto al otro en una forma polarizada cruzada (es
decir, cuando en un modo de polarización, la polarización de uno es
perpendicular a la polarización del otro), de acuerdo con lo
descrito en la presente memoria descriptiva con anterioridad en
relación con la figura 19C. El desfasador óptico
bi-estable 4576 se encuentra situado entre los
polarizadores variables 4572 y 4574.
Durante el funcionamiento normal del transmisor
variable 4570, el desfasador óptico bi-estable 4576
opera como un elemento óptico transparente. Se hace notar que el
desfasador óptico bi-estable 4576 se puede disponer
en el estado transparente del mismo mediante la aplicación de un
pulso de forma predeterminada al desfasador
bi-estable 4576 cuando el transmisor óptico variable
4570 se conecta y además durante la operación del mismo. En este
modo de operación, cada uno de los polarizadores variables 4572 y
4574 pueden fijarse en niveles de polarización diferentes, mediante
la aplicación de campos eléctricos de valores respectivos.
En los fallos de alimentación eléctrica, cuando
los polarizadores variables 4572 y 4574 conmutan al modo cerrado,
un campo eléctrico de una determinada forma de pulso se aplica al
desfasador óptico bi-estable 4576, con lo que el
desfasador óptico bi-estable 4576 opera como una
placa en media onda. El desfasador óptico bi-estable
4576 retarda el componente de la luz incidente a través suyo, que
tiene una dirección del eje óptico de 45 grados en relación con las
moléculas en forma de barra 4578 y las moléculas en forma de barra
4580. Por lo tanto, el desfasador óptico bi-estable
4576 rota el ángulo de polarización de la luz recibida del
polarizador variable 4572 y transmite esa luz polarizada al
polarizador variable 4574. Puesto que el ángulo de polarización de
la luz que incide sobre el polarizador variable 4574 coincide con la
dirección de las moléculas en forma de barra 4580, esta luz pasa a
través del polarizador variable 4574 sin sufrir una reducción de la
intensidad. De esta manera, durante un corte eléctrico, el
transmisor variable 4570 transmite a través suyo aproximadamente el
50% de la luz (no polarizada) que llega de un objeto 4582 situado en
frente del polarizador variable 4572.
Se hace referencia a continuación a la figura
22, que es una ilustración esquemática de un procedimiento para
transmitir la luz con una reflectancia variable, operativo de
acuerdo con otra realización de la técnica desvelada. En el
procedimiento 4600, el campo eléctrico en una superficie de entrada
está controlado, con lo que en primer lugar se selecciona un nivel
de polarización. En el ejemplo de las figuras 19A y 19C, el
polarizador variable 4416 se establece ya sea en el estado
homotrópico (es decir, un nivel de polarización cero) como se
muestra en la figura 19A, o bien en un estado plano (es decir, un
nivel de polarización no-cero) como se muestra en
la figura 19C.
En el procedimiento 4602, el campo eléctrico en
una superficie media está controlado, con lo que se selecciona un
cambio de fase. En el ejemplo establecido en la figura 21, el
desfasador óptico bi-estable 4576 puede operar como
un elemento óptico transparente (es decir, aplicando un
desplazamiento de fase cero) o una placa en media onda (es decir,
aplicando un desplazamiento de fase de \pi radianes).
En el procedimiento 4604, el campo eléctrico en
una superficie de salida está controlado, con lo que se selecciona
un segundo nivel de polarización de la superficie de salida. En el
ejemplo de las figuras 19A y 19C, el polarizador variable 4418 se
establece ya sea en el estado homotrópico como se muestra en la
figura 19A, o bien en un estado plano como se muestra en la figura
19C.
En el procedimiento 4606, la luz es polarizada
por el primer nivel de polarización seleccionado. En el ejemplo
establecido en la figura 19A, el polarizador variable 4416 transmite
un haz de luz 4420 (es decir, aplica un nivel de polarización
cero). En el ejemplo establecido en la figura 19C, el polarizador
variable 4416 polariza el haz de luz 4420 en la dirección del eje Y
(es decir, aplica un nivel de polarización
no-cero).
En el procedimiento 4608, la fase relativa entre
los dos componentes polarizados linealmente de la luz es desplazada
por el desplazamiento de fase seleccionado. En el ejemplo
establecido en la figura 21, el desfasador óptico
bi-estable 4576 funciona como un elemento óptico
transparente (es decir, aplica un desplazamiento de fase cero a la
luz) o como una placa en media onda (es decir, desplaza linealmente
la fase de uno de los componentes de la luz en \pi radianes).
En el procedimiento 4610, la luz es polarizada
por el segundo nivel de polarización seleccionado. En el ejemplo
establecido en la figura 19A, el polarizador variable 4418 transmite
un haz de luz 4420 (es decir, aplica un nivel de polarización
cero). En el ejemplo establecido en la figura 19C, el polarizador
variable 4418 polariza haz de luz 4428 en la dirección del eje X
(es decir, aplica un nivel de polarización no-cero).
Se hace notar que el procedimiento no aplica necesariamente los
procedimientos 4602 y 4608. Por ejemplo, el transmisor variable
4410 (figura 19A) puede ser operado aplicando una secuencia de
procedimientos 4600, 4604, 4606 y 4610. Se señala además que los
procedimientos 4600, 4602 y 4604 se pueden ejecutar en cualquier
orden o simultáneamente.
De acuerdo con otro aspecto de la técnica
desvelada, el polarizador variable incluye dos capas de protección
que encierran un cristal líquido, una capa de superficie de
alineación homotrópica y una capa de aislante eléctrico, en donde
una de las capas de protección está recubierta con una pareja de
electrodos interdigitales. Cuando no se aplica voltaje eléctrico a
través de la pareja de electrodos, la capa de alineación de
superficie homotrópica hace que las moléculas en forma de barra del
cristal líquido sean alineadas perpendicularmente a la superficie
de las capas de protección, con lo que el polarizador variable no
aplica la polarización a la luz incidente. Cuando se aplica un
voltaje eléctrico a través de la pareja de electrodos, el campo
eléctrico generado entre los electrodos hace que las moléculas en
forma de barra se alineen con respecto al campo eléctrico generado
(es decir, con componentes paralelos a la superficie de las capas de
protección), con lo que el polarizador variable aplica polarización
a la luz incidente.
Se hace referencia a continuación a las figuras
23A, 23B, 23C, 23D, 23E, 23F y 23G. La figura 23A es una ilustración
en esquema en perspectiva en despiece ordenado de un polarizador
variable, que en general se designa por 4630, construido y
operativo de acuerdo con una realización adicional de la técnica
desvelada. La figura 23B es una ilustración esquemática de la vista
I (vista delantera) de una de las capas de protección del
polarizador variable de la figura 23A, cuando no se aplica voltaje
eléctrico a través de la pareja de electrodos de la capa de
protección. La figura 23C es una ilustración esquemática en vista II
(vista superior) del polarizador variable de la figura 23A en forma
montada y cuando no se aplica un campo eléctrico a través de la
pareja de electrodos de la capa de protección del polarizador
variable de la figura 23A. La figura 23D es una ilustración
esquemática de la vista I, (vista delantera) de una de las capas de
protección del polarizador variable la figura 23A, cuando se aplica
voltaje eléctrico a través de la pareja de electrodos de la capa de
protección. La figura 23E es una ilustración esquemática de la
sección transversal III de la pareja de electrodos de la figura
23D. La figura 23F es una ilustración esquemática de la vista II
(vista superior) del polarizador variable de la figura 23A en una
forma montada, que tiene un material dieléctrico LC de anisotropía
positiva y un material huésped de anisotropía óptica positiva, y
cuando se aplica un campo eléctrico a través de la pareja de
electrodos de la capa de protección del polarizador variable la
figura 23A. La figura 23G es una ilustración esquemática de vista
II (vista superior) de un polarizador variable similar al
polarizador variable de la figura 23A en forma montada,
generalmente se designa por 4660, construido y operativo en acuerdo
con otra realización de la técnica desvelada.
Con referencia a la figura 23A, el polarizador
variable 4630 incluye las capas de protección 4632 y 4634, una capa
de alineación 4636 y una sustancia que afecta a la luz (por ejemplo,
de GHLC). Cada una de las capas de protección 4632 y 4634 es
similar a la capa de protección 302 (figura 5), de acuerdo con lo
descrito en la presente memoria descriptiva con anterioridad. La
capa de alineación 4636 está hecha de un material dieléctrico
inorgánico, tal como el dióxido de silicio o de un material
dieléctrico orgánico, tal como alcohol de polivinilo, poliamida,
sustancia fotopolimeriza, y otras similares. Las moléculas (no
mostrado) de estos tipos de capas de alineación tienen ramas
laterales (como en los polímeros injertados) que como consecuencia
de la congestión (impedimento estérico) salen del plano de la capa
molecular, con lo que sobresalen de este plano y producen un efecto
homotrópico a la capa de alineación 4636. Una capa fotopolimerizada
autoalineada se puede construir polimerizando las moléculas de una
capa de alineación, con lo cual forma una capa homotrópica o una
capa de alineación plana. En el ejemplo de las figuras 23A, 23B,
23C, 23D, 23E, 23F y 23G, la capa de alineación 4636 es una capa de
alineación homotrópica.
El cristal líquido puede ser de clase 1
(dispersado) o de clase 2 (homogéneo) y cada clase puede ser en
forma de una mezcla o un compuesto químico, como se ha descrito en
la presente memoria descriptiva más arriba.
Una superficie 4640 de la capa de protección
4632 enfrentada a la capa de alineación 4636 está recubierta con
un material eléctricamente conductivo y transparente, similar a la
capa eléctricamente conductora, como se ha descrito en la presente
memoria descriptiva con anterioridad en relación con la figura 19C.
La superficie 4640 es grabada entonces por fotolitografía, en forma
de una pareja de electrodos 4642 y 4644. Los electrodos 4642 y 4644
poseen una pluralidad de patillas 4646 y 4648, respectivamente, en
los que las patillas 4646 y 4648 se entremezclan. Los electrodos
4642 y 4644 están acoplados a una fuente de alimentación (no
mostrada) y la salida de la fuente de alimentación está controlada
por un controlador (no mostrado). El electrodo 4642 está acoplado a
un polo de la fuente de alimentación y el electrodo 4644 está
acoplado al otro polo de la fuente de alimentación. La disposición
de los electrodos 4642 y 4644 de esta manera, es designada en la
presente memoria descriptiva y a continuación por "configuración
en plano".
La capa de alineación 4636 se encuentra entre
las capas de protección 4632 y 4634. Los electrodos 4642 y 4644 se
encuentran en la superficie 4640 de la capa de protección 4632 y los
electrodos 4642 y 4644 se encuentran entre la capa de protección
4632 y la capa de alineación 4636. Después del montaje de las capas
de protección 4632 y 4634 y de la capa de alineación 4636, los
bordes (no mostrados) del polarizador variable 4630 se obturan con
un adhesivo y las separaciones entre las capas de protección 4632 y
4634, y la capa de alineación de 4636 se llenan con el cristal
líquido, o, preferiblemente, con un material separador adecuado.
Con referencia a las figuras 23B y 23C, no se
aplica voltaje eléctrico entre los electrodos 4642 y 4644 (es
decir, una condición no energizada). Debido a la presencia de la
capa de alineación 4636, las moléculas en forma de barra 4650 del
cristal líquido se alinean a lo largo del eje Z (es decir,
perpendiculares a la superficie 4640 y las superficies - no
mostradas - del polarizador variable 4630). De esta manera, cuando
no se aplica voltaje eléctrico a través de los electrodos 4642 y
4644, el polarizador variable 4630 transmite la luz incidente sin
afectar a la luz incidente (es decir, el polarizador variable 4630
es del tipo normalmente abierto). En este caso, las partículas que
absorben la luz anisotrópica (es decir, las moléculas de colorante)
se alinean a lo largo de la dirección de las moléculas de la
sustancia ópticamente activa (por ejemplo, las moléculas de cristal
líquido), y las partículas que absorben la luz anisotrópica no
afectan a la luz incidente en ningún caso.
De esta manera, cuando la capa de alineación
4636 es una capa de alineación homotrópica, la anisotropía
dieléctrica de las moléculas anfitrionas es positiva y la
anisotropía óptica de las moléculas huéspedes es positiva, el
polarizador variable 4630 está normalmente abierto (N.O) (es decir,
el polarizador variable 4630 transmite la luz entrante cuando no se
aplica campo eléctrico a través de los electrodos 4642 y 4644). Por
consiguiente, la utilización de la configuración de electrodo en
plano, en conjunto con la alineación homotrópica y una combinación
de material GH positiva - positiva, proporciona una nueva variante
de accionamiento de celda del tipo N.O (transparente).
Con referencia a la figura 23D, el controlador
controla el funcionamiento de la fuente de alimentación para
aplicar un voltaje V_{1} a través de los electrodos 4642 y 4644
(es decir, una condición energizada). Con referencia a la figura
23E, un campo eléctrico es generado por cada pareja de patillas
contiguas 4646 y 4648, en la dirección del eje -X. Con referencia a
la figura 23F, las moléculas en forma de barra 4650 que tienen
anisotropía dieléctrica positiva, se alinean a lo largo de los
campos eléctricos generados (es decir, a lo largo del eje X y
paralelas a la superficie 4640 y a las superficie de las capas de
protección 4632 y 4634). De esta manera, cuando un voltaje
eléctrico se aplica a través de los electrodos 4642 y 4644, el
polarizador variable 4630 aplica una polarización a la luz
incidente, con un nivel que corresponde al valor del voltaje
eléctrico aplicado.
El polarizador variable 4630 puede tener un
radio de curvatura positivo (es decir, es convexo), un radio de
curvatura negativo (es decir, es cóncavo), o una combinación de
radios de curvatura positivo y negativo (es decir, un plano curvado
arbitrario), así como ser prácticamente plano. El polarizador
variable 4630 puede ser utilizado en un medio líquido así como en
uno gaseoso. El polarizador variable 4630 puede ser flexible así
como rígido.
\newpage
Se hace notar que el cristal líquido del
polarizador variable 4630 puede ser un GHLC
multi-estable. Por ejemplo, el cristal líquido
puede ser en forma de un cristal líquido nemático trenzado
bi-estable (es decir, que tiene dos estados
estables), un cristal líquido estabilizado con polímero
bi-estable, un cristal líquido estabilizado con una
superficie bi-estable, y otros similares. En este
caso, la aplicación de un pulso eléctrico predeterminado a través
de los electrodos 4642 y 4644 hace que las moléculas en forma de
barra 4650 se alineen a lo largo del eje Z o del eje X.
Un pareja de polarizadores variables 4630 puede
ser empleada como un transmisor variable, similar al transmisor
variable 4410 (figura 19A). En este caso, se pueden aplicar
diferentes voltajes a través de los electrodos de los dos
polarizadores variables, lo que permite el control de la intensidad
de la luz incidente que pasa a través del transmisor variable. Se
hace notar adicionalmente que, puesto que cada uno de estos
polarizadores variables es de tipo normalmente abierto, el
transmisor móvil que emplea estos polarizadores variables es un
reflector variable o transmisor variable, respectivamente, de tipo
de seguridad contra fallos(es decir, el transmisor variable
transmite la luz incidente sin afectar a la intensidad de la luz
incidente, en caso de fallo de alimentación).
Se hace notar adicionalmente que la anisotropía
dieléctrica de las moléculas anfitrionas (es decir, las moléculas
en forma de barra) del polarizador variable en el que los electrodos
están dispuestos en una configuración en plano, puede ser positiva
o negativa. De manera similar, la anisotropía óptica de las
moléculas huéspedes (por ejemplo, las moléculas de colorante
dicroicas o pleocroicas), puede ser positiva o negativa.
Construyendo el polarizador variable con diferentes combinaciones
de moléculas anfitrionas y de moléculas huéspedes, el polarizador
variable puede operar en las modalidades que siguen, como se resume
en la Tabla I. El modo paralelo plano de la operación tal como se
resume en el cuadro I, se describe en la presente memoria
descriptiva y a continuación en relación con la figura 24A.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Tabla pasa a página
siguiente)
\newpage
Las combinaciones de LC-p y
LC-n se refieren a la anisotropía dieléctrica
positiva o negativa del cristal líquido, respectivamente, mientras
que las combinaciones de G-p y G-n
se refieren a la anisotropía óptica positiva o negativa de la
molécula de colorante huésped, respectivamente
Las directoras corresponden a los ejes del
sistema de coordenadas que se ilustra en la figura 23A y en la
figura 24A como se describe en la presente memoria descriptiva y a
continuación.
Con referencia a la figura 23G, el polarizador
variable 4660 incluye las capas de protección 4662 y 4664 y una
capa de alineación 4666. La capa de alineación 4666 es una capa de
alineación homotrópica y está situada entre las capas de protección
4662 y 4664. Las moléculas anfitrionas del polarizador variable 4660
tienen anisotropía dieléctrica negativa, las moléculas huéspedes de
las mismas tienen anisotropía óptica positiva. Cuando se aplica un
campo eléctrico a través de un pareja de electrodos similares a los
electrodos 4642 (figura 23D) y 4644), las moléculas en forma de
barra 4668 del polarizador variable 4660 están alineadas en la
dirección Y (véase la Tabla I más arriba para la estructura de
electrodos en plano y el material LC-n + Gp GH).
Se hace notar que puesto que las moléculas en
forma de barra 4668 están alineadas a lo largo de la pareja de
electrodos similares a los electrodos 4642 y 4644, el contraste de
una imagen polarizada (no mostrada) que polariza el polarizador
variable 4660 es mayor que el del polarizador variable 4630. Ambas
configuraciones que se muestran en las figuras 23F y 23G, de
acuerdo con lo descrito en la presente memoria descriptiva con
anterioridad, presentan una simple alineación homotrópica homogénea,
uniformidad eléctrica, y son altamente reproducibles en la
fabricación. Se hace notar que el polarizador variable 4630 se
pueden incorporar con un transmisor variable 4410 (figura 19A),
reemplazando a los polarizadores variables 4412 y 4414.
Se hace referencia a continuación a las figuras
24A, 24B, 24C y 24D. La figura 24A es una ilustración en perspectiva
esquemática en despiece ordenado de un polarizador variable, que en
general se designa por 4670, construido y operativo de acuerdo con
una realización adicional de la técnica desvelada. La figura 24B es
una ilustración esquemática de la sección IV del polarizador
variable de la figura 24A, cuando no se aplica voltaje eléctrico
entre los electrodos interdigitales y el electrodo plano de las
capas de protección del polarizador variable de la figura 24A. La
figura 24C es una ilustración esquemática de la sección IV del
polarizador variable de la figura 24A, operando en un modo en
plano. La figura 24D es una ilustración esquemática de la sección
transversal IV del polarizador variable de la figura 24A, operando
en un modo paralelo plano.
Con referencia a la figura 24A, el polarizador
variable 4670 incluye las capas de protección 4672 y 4674, capas de
aislamiento eléctrico 4676 y 4678, una capa de alineación 4680 y
sustancia que afectan a la luz (no mostrada). Cada una de las capas
de protección 4672 y 4674 está hecha de un material transparente que
transmite una gran parte de la luz sin distorsionar la imagen, como
el vidrio, cristal, polímero, plástico y otros similares. Cada una
de las capas de aislamiento eléctrico 4676 y 4678 es similar a las
capas de aislamiento eléctrico que se han descrito anteriormente en
relación con la figura 19C. La capa de alineación 4680 es similar a
la capa de alineación 4636 (figura 23A), como se ha descrito en la
presente memoria descriptiva más arriba. En el ejemplo establecido
en las figuras 24A, 24B, 24C y 24D, la capa de alineación 4680 es
una capa de alineación homotrópica. En el ejemplo establecido en
las figuras 24A, 24B, 24C y 24D, las moléculas anfitrionas de LC
tiene una anisotropía dieléctrica positiva y las moléculas huéspedes
tienen una anisotropía óptica positiva. La sustancia que afecta a
la luz puede ser de clase 1 (dispersa) o de clase 2 (homogénea) y
cada clase puede ser en forma de una mezcla o un compuesto químico,
como se ha descrito en la presente memoria descriptiva más
arriba.
La capa de protección 4672 está recubierta con
una pareja de electrodos interdigitales 4682 y 4684 sobre una
superficie 4686 de la capa de protección 4672. Los electrodos
interdigitales 4682 y 4684 se construyen de una manera similar a la
construcción de los electrodos 4642 (figura 23A) y 4644, de acuerdo
con lo descrito en la presente memoria descriptiva más arriba. Los
electrodos interdigitales 4682 y 4684 incluyen una pluralidad de
patillas 4688 y 4690, respectivamente. La capa de protección 4674
está recubierta con un electrodo plano 4692 sobre una superficie
4694 de la misma. El electrodo plano 4692 está hecho de un material
conductor de electricidad y transparente, tal como las capas
conductoras de electricidad que se han descrito en la presente
memoria descriptiva más arriba en relación con la figura 19C.
La capa de aislamiento eléctrico 4676 se
encuentra situada entre la capa de protección 4674 y la capa de
alineación 4680. La capa de alineación 4680 se encuentra situada
entre la capa de aislamiento eléctrico 4676 y la capa de
aislamiento eléctrico 4678. La capa de aislamiento eléctrico 4678 se
encuentra situada entre la capa de alineación de 4680 y la capa de
protección 4672. Los electrodos interdigitales 4682 y 4684 se
encuentran situados en la superficie 4686 de la capa de protección
4672 y los electrodos interdigitales 4682 y 4684 se encuentran
situados entre la capa de protección 4672 y la capa de aislamiento
eléctrico 4678. El electrodo plano 4692 se encuentra situado en la
superficie 4694 de la capa de protección 4674 y el electrodo plano
4692 se encuentra situado entre la capa de protección 4674 y la
capa de aislamiento eléctrico 4676.
Los electrodos interdigitales 4682 y 4684 y el
electrodo plano 4692 están acoplados a una fuente de alimentación
(no mostrada) y la salida de la fuente de alimentación es controlada
por un controlador (no mostrado). El controlador controla el
acoplamiento entre los polos de la fuente de alimentación y los
electrodos interdigitales 4682 y 4684 y el electrodo plano 4692, lo
que permite el funcionamiento del polarizador variable 4670, ya sea
en el modo en plano (de acuerdo con lo descrito en la presente
memoria descriptiva más arriba en relación con la figura 23A), o en
el modo paralelo plano (como se describe en la presente memoria
descriptiva más arriba en relación con la figura 19C). El
controlador también controla la potencia de la fuente de
alimentación, permitiendo así que el polarizador variable 4670
aplique diversos niveles de polarización y absorbencia a la luz
entrante.
Con referencia a la figura 24B, no se aplica
voltaje eléctrico a través de los electrodos interdigitales 4682 y
4684 y el electrodo plano 4692. Debido a la presencia de la capa de
alineación 4680, las moléculas en forma de barra 4696 de la
sustancia que afecta a la luz se alinean a lo largo del eje Z (es
decir, perpendiculares a la superficie 4686 y 4694). De esta
manera, cuando no se aplica voltaje eléctrico a través de los
electrodos interdigitales 4682 y 4684 y el electrodo plano 4692, el
polarizador variable 4670 transmite la luz incidente sin afectar a
la luz incidente (es decir, el polarizador variable 4670 es del tipo
normalmente abierto).
Con referencia a la figura 24C, el controlador
acopla las patillas 4688 de los electrodos interdigitales 4682 a un
polo de la fuente de alimentación y las patillas 4690 de los
electrodos interdigitales 4684 al otro polo de la fuente de
alimentación, con lo cual se aplica un voltaje V_{2} a través de
las patillas 4688 y 4690. En este caso, el polarizador variable
4670 opera en el modo en plano, como se ha descrito en la presente
memoria descriptiva y anteriormente en relación con la figura 23A.
El campo eléctrico generado entre las patillas 4688 y 4690 hace que
las moléculas en forma de barra 4696 se alineen con el eje X (véase
la Tabla I, en la presente memoria descriptiva más arriba, para la
estructura de electrodo en el plano y el material GH
LC-P + GP). Por lo tanto, el polarizador variable
4670 aplica un nivel de polarización a la luz entrante, con lo que
se conmuta al estado cerrado.
Con referencia a la figura 24D, el controlador
acopla los electrodos interdigitales 4682 y 4684 a un polo de la
fuente de alimentación y el electrodo plano 4692 al otro polo de la
fuente de alimentación. La fuente de alimentación aplica un voltaje
V_{3} entre los electrodos interdigitales 4682 y 4684, por una
parte y el electrodo plano 4692 por la otra parte. En este caso, el
polarizador variable 4670 opera en el modo de plano paralelo, en el
que el campo eléctrico generado entre los electrodos interdigitales
4682 y 4684 por un lado y el electrodo plano 4692 por el otro, hace
que las moléculas en forma de barra 4696 sean alineadas a lo largo
del eje Z (véase la Tabla I para la estructura de electrodo paralela
plana y el material de GH LC-P + GP). De esta
manera, el polarizador variable 4670 vuelve al estado abierto.
Se hace notar que la conmutación desde el estado
cerrado al estado abierto, desconectando la energía eléctrica en el
modo de operación en el plano (es decir, la figura 24B), tiene un
orden de magnitud más largo que conectar la electricidad en el modo
paralelo plano de la operación (es decir, la figura 24D). Este
tiempo de conmutación depende de la magnitud del campo eléctrico,
la forma del pulso, los movimientos térmicos moleculares y los
materiales y los parámetros del polarizador variable 4670. La
conservación en el tiempo de conmutación se aplica a otras
combinaciones de anisotropía óptica dieléctrica y anisotropía óptica
de las moléculas anfitrionas y de las moléculas huéspedes,
respectivamente, en el polarizador variable con la alineación
homotrópica (Tabla I, más arriba), así como la alineación plana
(Tabla II, más abajo).
De esta manera, la combinación de modo en plano
y modo paralelo plano de la operación en el polarizador variable
4670 permite una operación más flexible y una conmutación más rápida
entre los diferentes niveles de iluminación. Además, la combinación
del modo en plano y del modo paralelo plano de la operación en el
polarizador variable 4670 proporciona una imagen con un contraste
mejorado y permite controlar más eficientemente la anisotropía
molecular espacial.
Los esquemas adicionales de multi transmisión
que utilizan la configuración simultánea en plano y plano paralelo
d pueden derivarse de los Tablas I y II. La Tabla II resume las
diferentes combinaciones posibles de la anisotropía de material GH
en conjunto con la alineación plana y las configuraciones diferentes
de electrodos (es decir, en la configuración en plano y en la
configuración paralela - plana).
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Tabla pasa a página
siguiente)
\newpage
\global\parskip0.900000\baselineskip
Las combinaciones de LC-p y
LC-n se refieren a la anisotropía dieléctrica
positiva o negativa del cristal líquido, respectivamente, mientras
que las combinaciones de G-p y G-n
se refieren a la anisotropía óptica positiva o negativa de las
moléculas de colorante huésped, respectivamente
Las directoras corresponden a los ejes del
sistema de coordenadas que se ilustra en las figuras 23A y 24A.
Se hace referencia a continuación a la figura
25, que es una ilustración esquemática en perspectiva de una capa
de protección, en general designada por 4720, de un polarizador
variable construido y operativo de acuerdo con otra realización de
la técnica desvelada. La capa de protección 4720 se divide en una
pluralidad de secciones 4722, 4724 y 4726.
Una pareja de electrodos 4728 y 4730 son
grabados en la sección 4722. Una pareja de electrodos 4732 y 4734
son grabados en la sección 4724. Un pareja de electrodos 4736 y 4738
son grabados en la sección 4726. Un voltaje V_{4} se aplica a
través de los electrodos 4728 y 4730. Un voltaje V_{5} se aplica a
través de los electrodos 4732 y 4734. Un voltaje V_{6} se aplica
a través de los electrodos 4736 y 4738. Cuando la capa de protección
4720 se incorpora en un polarizador variable (no mostrado), similar
al polarizador variable 4630 (figura 23A), los voltajes V_{4},
V_{5} y V_{6} pueden ser controlados individualmente, de manera
que cada sección del polarizador variable (como las secciones 4722,
4724 y 4726), aplica un nivel diferente de polarización a la luz
incidente.
Una capa de protección similar a la capa de
protección 4720 se puede incorporar en un polarizador variable
similar al polarizador variable 4670, en el que una capa de
protección similar a la capa de protección 4674 incluye una
pluralidad de distintos electrodos planos similares al electrodo
plano 4692. El controlador conmuta la energía eléctrica a una
pareja de electrodos similares a los electrodos 4728 y 4730 por un
lado y a un electrodo plano respectivo por el otro lado,
permitiendo así que el polarizador variable aplique un nivel de
polarización a la luz incidente en la sección respectiva del mismo
de forma similar a la sección 4722. En este caso también, el
polarizador variable puede funcionar en el modo en plano o en el
modo paralelo plano.
Se hace referencia a continuación a la figura
26, que es una ilustración esquemática del sistema de seguimiento
de cabeza de la figura 1A, construido y operativo de acuerdo con una
realización adicional de la técnica desvelada. El sistema de
seguimiento de cabeza 136 incluye un procesador de posición y
orientación 5182, una interfaz de transmisión 5184, una pluralidad
de unidades de tablas de consulta 5186_{1}, 5186_{2} y
5186_{3}, una pluralidad de convertidores digital a analógico
(DAC) 5188_{1}, 5188_{2} y 5188_{3}, un amplificador 5190, un
transmisor 5192, una pluralidad de sensores 5194_{1},
_{51}94_{2}, _{51}94_{3} y 5194_{N} (es decir, detectores
de posición y orientación), una pluralidad de convertidores
analógico a digital (ADC) 5196_{1}, 5196_{2}, _{51}96_{3} y
5196_{N} y una interfaz de sensor 5198.
El transmisor de interfaz 5184 está acoplado al
procesador de posición y orientación 5182 y a las unidades de tabla
de consulta 5186_{1}, 5186_{2} y 5186_{3}. Las unidades CAD
5188_{1}, 5188_{2} y 5188_{3} están acopladas a una unidad
respectiva de tabla de consulta 5186_{1}, 5186_{2} y 5186_{3}
y al amplificador 5190. El amplificador 5190 está acoplado
adicionalmente al transmisor 5192. El transmisor 5192 también está
marcado TX. Los sensores 5194_{1}, 5194_{2}, 5194_{3} y
5194_{N} están marcados adicionalmente RX_{1}, RX_{2},
RX_{3} y RX_{N}, respectivamente.
Los convertidores analógico a digital (ADC)
5196_{1}, 5196_{2}, 5196_{3} y 5196_{N} están acoplados
respectivamente a los sensores 5194_{1}, 5194_{2}, 5194_{3} y
5194_{N} y a la interfaz de sensor 5198. La interfaz de sensor
5198 está acoplada adicionalmente al procesador de posición y
orientación 5182.
Cada una de las unidades de tabla de consulta
5186_{1}, 5186_{2} y 5186_{3} produce una secuencia cíclica
de números y la proporciona a la unidad respectiva CAD 5188_{1},
5188_{2} y 5188_{3}, que a su vez la traduce a su señal
analógica respectiva. Cada una de las señales analógicas es
respectiva de un eje espacial diferente. En el presente ejemplo, la
tabla de consulta 5186_{1} y la unidad DAC 5188_{1} producen una
señal para el eje X, la tabla de consulta 5186_{2} y la unidad
DAC 5188_{2} producen una señal para el eje Y, y la tabla de
consulta 5186_{3} y la unidades DAC 5188_{3} producen una señal
para el eje Z.
Las unidades DAC 5188_{1}, 5188_{2} y
5188_{3} proporcionan sus respectivas señales analógicas a un
amplificador 5190, que amplía y proporcionan las señales
amplificadas al transmisor 5192. El transmisor 5192 proporciona un
campo electromagnético de ejes múltiples, que pueden ser detectados
por los sensores 5194_{1}, 5194_{2}, 5194_{3} y 5194_{N}.
Cada uno de los sensores 5194_{1}, 5194_{2}, 5194_{3} y
5194_{N} detecta un campo electromagnético, produce una señal
eléctrica analógica respectiva y la proporciona a la unidad ADC
respectiva 5196_{1}, 5196_{2}, 5196_{3} y 5196_{N}, acoplada
a la misma. Cada una de las unidades ADC 5196_{1}, 5196_{2},
5196_{3} y 5196_{N} digitaliza la señal analógica alimentada a
la misma, la convierte en una secuencia de números y la proporciona
a una interfaz de sensor 5198, que a su vez la proporciona al
procesador de posición y orientación 5182.
El procesador de posición y orientación 5182
analiza las secuencias de números recibidas, con lo que determina
la posición y orientación de cada uno de los sensores 5194_{1},
5194_{2}, 5194_{3} y 5194_{N}. El procesador de posición y
orientación 5182 determina adicionalmente los sucesos de distorsión
y actualiza las tablas de consulta 5186_{1}, 5186_{2} y
5186_{3} en consecuencia.
Podrá ser apreciado por los expertos en la
técnica que la técnica desvelada no se limita a lo que se ha
mostrado y descrito en la presente memoria descriptiva más arriba.
Por el contrario, el alcance de la técnica desvelada está definido
solamente por las reivindicaciones que siguen.
\global\parskip1.000000\baselineskip
Claims (21)
1. Sistema para comunicación audiovisual,
comprendiendo el sistema: un sistema para la determinación de una
línea de visión para determinar una línea de visión de usuario de
al menos un ojo de un usuario, y un sistema de visualización de
imágenes, acoplado al citado sistema de determinación de la línea de
visión, mostrando el citado sistema de visualización de imágenes al
menos una imagen suplementaria para el citado al menos un ojo, y
controlando la al menos una propiedad de la citada al menos una
imagen suplementaria y una imagen de escena, de acuerdo con la
citada línea de visión determinada del usuario, estando
caracterizado el sistema porque comprende, además
un sistema de audio
multi-dimensional que está acoplado al citado
sistema de determinación de línea de visión, produciendo el citado
sistema de audio multi-dimensional sonido
multi-dimensional para ser oído por el citado
usuario, de acuerdo con la localización de al menos una señal de
entrada relativa a la posición y a la orientación de la cabeza del
citado usuario.
2. El sistema de acuerdo con la reivindicación
1, que comprende además un sistema de voz direccional para el
procesamiento de la voz del citado usuario de acuerdo con la línea
de visión determinada del citado usuario.
3. El sistema de acuerdo con la reivindicación
1, en el que un micrófono recibe una interrogación respectiva de la
citada imagen de escena del citado usuario, respectiva de la citada
imagen de escena que el citado usuario está mirando en ese
momento.
4. El sistema de acuerdo con la reivindicación
3, en el que el citado micrófono es direccional y se encuentra
situado dentro de un volumen cónico que define una geometría de
disipación de las ondas sonoras generadas por el habla del citado
usuario.
5. El sistema de acuerdo con la reivindicación
3, en el que un altavoz produce un sonido verbal para el citado
usuario de acuerdo con la citada interrogación, el citado sonido
verbal es respectivo de la citada imagen de escena y está asociado a
la citada línea de visión de usuario determinada.
6. El sistema de acuerdo con la reivindicación
3, en el que el citado sistema de visualización muestra la citada al
menos una imagen suplementaria de acuerdo con la citada
interrogación, la citada al menos una imagen suplementaria es
respectiva de la citada imagen de escena y está asociada a la citada
línea de visión del usuario determinada,
y
y
en el que el citado sistema de visualización
muestra al menos una imagen suplementaria en una localización de un
visor de un dispositivo montado en cabeza, que está en una la línea
de visión actual del citado usuario y en la citada imagen de
escena.
7. El sistema de acuerdo con la reivindicación
3, en el que el citado sistema de visualización de imágenes muestra
al menos una imagen suplementaria de acuerdo con la citada
interrogación, siendo respectiva la citada al menos una imagen
suplementaria de la citada imagen de escena y asociada a la posición
y orientación de la cabeza del citado usuario, estando determinada
la citada posición y orientación por un sistema de seguimiento de la
cabeza, y
en el que el citado sistema de visualización de
imágenes muestra al menos una imagen suplementaria sobre una
localización en un visor de un dispositivo montado en cabeza, el
cual está sustancialmente alineado con la citada posición y
orientación y con la citada la imagen de escena.
8. El sistema de acuerdo con la reivindicación
3, en el que el citado sistema de visualización de imágenes muestra
al menos una imagen suplementaria, de acuerdo con la citada
interrogación, la citada al menos una imagen suplementaria es
respectiva de la citada imagen de escena y está asociada a la citada
línea de visión del usuario determinada,
y
y
en el que el citado sistema de visualización de
imágenes muestra al menos una imagen suplementaria sobre una
localización en un parabrisas de un vehículo, que se encuentra
situada en una línea de visión actual del citado usuario y de la
citada imagen de escena.
9. El sistema de acuerdo con la reivindicación
3, en el que el citado sistema de visualización de imágenes muestra
la citada al menos una imagen suplementaria de acuerdo con la citada
interrogación, la citada al menos una imagen suplementaria es
respectiva de la citada imagen de escena y está asociada con la
posición y la orientación de la cabeza del citado usuario, siendo
determinadas la citada posición y orientación por el citado sistema
de determinación de la línea de visión, y
en el que el citado sistema de visualización de
imágenes muestra la citada al menos una imagen suplementaria sobre
una localización en un parabrisas de un vehículo, que está
sustancialmente alineada con la citada posición y orientación y con
la citada imagen de escena.
\newpage
10. El sistema de acuerdo con la reivindicación
1, en el que una memoria registra la información verbal
proporcionada por el citado usuario por medio de un micrófono
mientras el citado usuario está mirando la citada imagen de escena,
siendo respectiva la citada información verbal de la citada imagen
de escena y asociada a la citada línea de visión del usuario
determinada.
11. El sistema, de acuerdo con la reivindicación
1, que comprende además: una cámara direccional acoplada al citado
sistema de determinación de la línea de visión, y
al menos un mecanismo de movimiento acoplado a
la citada cámara direccional,
en el que el citado al menos un mecanismo de
movimiento mueve la citada cámara direccional de acuerdo con la
citada línea de visión del usuario determinada.
12. El sistema de acuerdo con la reivindicación
1, en el que el citado sistema de determinación de la línea de
visión comprende un seguidor de ojos, estando acoplado el citado
seguidor de ojos a un dispositivo montado en cabeza del citado
usuario, determinando el citado seguidor de ojos la citada línea de
visión del usuario en un primer sistema de coordenadas.
13. El sistema de acuerdo con la reivindicación
12, en el que el citado sistema de determinación de la línea de
visión comprende un sistema de seguimiento de la cabeza, estando
acoplado el citado sistema de seguimiento de la cabeza al citado
seguidor de ojos y al citado dispositivo montado en cabeza,
en el que el citado sistema de seguimiento de la
cabeza determina la posición y la orientación del citado usuario en
un segundo sistema de coordenadas y
en el que el citado seguidor de ojos determina
la citada línea de visión del usuario en el citado segundo sistema
de coordenadas, de acuerdo con la citada posición y orientación.
14. El sistema de acuerdo con la reivindicación
13, que comprende además: un sistema de posicionamiento de
respaldo; y
un procesador acoplado al citado sistema de
posicionamiento de respaldo, al citado sistema de determinación de
la línea de visión y al citado sistema de visualización de
imágenes,
en el que el citado sistema de posicionamiento
de respaldo determina la citada posición y orientación en el citado
segundo sistema de coordenadas y en el que el citado el procesador
controla el funcionamiento del citado sistema de determinación de la
línea de visión del citado sistema de visualización de imágenes.
15. El sistema de acuerdo con la reivindicación
13, que comprende además: un sistema de posicionamiento de respaldo
y
un procesador acoplado al citado sistema de
posicionamiento de respaldo, al citado sistema de determinación de
la línea de visión y al citado sistema de visualización de
imágenes.
16. El sistema de acuerdo con la reivindicación
1, que comprende además un sistema de reducción de ruido de
comunicaciones por audio, en el que el citado sistema de reducción
de ruido de comunicaciones por audio produce una señal
substancialmente libre de ruidos de un sonido acústico, el citado
sistema de reducción de ruido de comunicaciones por audio produce al
menos un sonido, el citado al menos un sonido incluye un sonido
deseado y un sonido de ruido en oposición de fase, el citado sonido
de ruido en oposición de fase se encuentra en oposición de fase
relativa a un ruido, el citado sistema de reducción de ruido de
comunicaciones por audio comprende:
un transductor acústico eléctrico para producir
una señal de sonido que soporta un ruido mediante la detección del
citado sonido acústico y del citado ruido;
un transductor acústico eléctrico de referencia
para producir una señal de ruido de referencia mediante la detección
del citado sonido en un entorno ruidoso, y
un controlador de audio acoplado al citado
transductor acústico eléctrico de referencia y al citado transductor
acústico eléctrico,
en el que el citado controlador de audio produce
la citada señal sustancialmente libre de ruido de acuerdo con la
citada señal de ruido de referencia y la citada señal de sonido de
soporte de ruido.
17. El sistema de acuerdo con la reivindicación
16, en el que el citado sistema de reducción de ruido de
comunicaciones por audio, el citado sistema de determinación de la
línea de visión y el citado sistema de visualización de imágenes se
acoplan entre sí por medio de un procesador y se acoplan
adicionalmente a un dispositivo montado en cabeza.
18. El sistema, de acuerdo con la reivindicación
14, que comprende además: una interfaz de comunicaciones está
acoplada al citado procesador;
una red acoplada a la citada interfaz de
comunicaciones, y al menos un ordenador fijo acoplado a la citada
red,
en el que el citado procesador controla el
funcionamiento del citado sistema de determinación de la línea de
visión y del citado sistema de visualización de imágenes de acuerdo
con las señales recibidas desde la citada interfaz de
comunicaciones.
19. El sistema de acuerdo con la reivindicación
18, en el que el citado al menos un ordenador estacionario se
selecciona de la lista que consiste en:
un ordenador local de a bordo;
un ordenador remoto de a bordo;
un ordenador basado en tierra, y
un ordenador basado en satélite.
20. El sistema de acuerdo con la reivindicación
1, en el que la citada al menos una propiedad es seleccionada de la
lista que consiste en: la localización de la citada al menos una
imagen suplementaria en relación con la citada línea de visión del
usuario determinada;
la intensidad de la luz de la citada al menos
una imagen suplementaria, y la intensidad de la luz de la citada
imagen de escena.
21. Procedimiento para la comunicación
audiovisual, comprendiendo el procedimiento los procedimientos
de:
determinar la línea de visión del usuario de al
menos un ojo de un usuario; mostrar al menos una imagen
suplementaria para el al menos uno ojo, y controlar al menos una
propiedad de la citada al menos una imagen suplementaria y de una
imagen de escena de acuerdo con la citada línea de visión del
usuario determinada,
el procedimiento se caracteriza por
comprender el procedimiento adicional de: producir un sonido
multi-dimensional para que sea oído por el citado
usuario de acuerdo con la localización de al menos una señal de
entrada relativa a la posición y orientación de la cabeza del citado
usuario usando un sistema de audio multi-dimensional
acoplado a un sistema de determinación de la línea de visión.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US46963703P | 2003-05-12 | 2003-05-12 | |
US469637P | 2003-05-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2333528T3 true ES2333528T3 (es) | 2010-02-23 |
Family
ID=33435250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES04732164T Expired - Lifetime ES2333528T3 (es) | 2003-05-12 | 2004-05-11 | Procedimiento y sistema de comunicacion audiovisual. |
Country Status (7)
Country | Link |
---|---|
US (1) | US7710654B2 (es) |
EP (1) | EP1623266B1 (es) |
KR (1) | KR20060014399A (es) |
AT (1) | ATE447205T1 (es) |
DE (1) | DE602004023831D1 (es) |
ES (1) | ES2333528T3 (es) |
WO (1) | WO2004099851A2 (es) |
Families Citing this family (182)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7401920B1 (en) * | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
SE527257C2 (sv) * | 2004-06-21 | 2006-01-31 | Totalfoersvarets Forskningsins | Anordning och metod för att presentera en omvärldsbild |
US7809215B2 (en) | 2006-10-11 | 2010-10-05 | The Invention Science Fund I, Llc | Contextual information encoded in a formed expression |
US8290313B2 (en) | 2005-03-18 | 2012-10-16 | The Invention Science Fund I, Llc | Electronic acquisition of a hand formed expression and a context of the expression |
US8640959B2 (en) | 2005-03-18 | 2014-02-04 | The Invention Science Fund I, Llc | Acquisition of a user expression and a context of the expression |
US8340476B2 (en) | 2005-03-18 | 2012-12-25 | The Invention Science Fund I, Llc | Electronic acquisition of a hand formed expression and a context of the expression |
US7813597B2 (en) | 2005-03-18 | 2010-10-12 | The Invention Science Fund I, Llc | Information encoded in an expression |
US8232979B2 (en) | 2005-05-25 | 2012-07-31 | The Invention Science Fund I, Llc | Performing an action with respect to hand-formed expression |
US8599174B2 (en) | 2005-03-18 | 2013-12-03 | The Invention Science Fund I, Llc | Verifying a written expression |
US7672512B2 (en) | 2005-03-18 | 2010-03-02 | Searete Llc | Forms for completion with an electronic writing device |
US20060212430A1 (en) | 2005-03-18 | 2006-09-21 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Outputting a saved hand-formed expression |
US8229252B2 (en) | 2005-03-18 | 2012-07-24 | The Invention Science Fund I, Llc | Electronic association of a user expression and a context of the expression |
US7383106B1 (en) * | 2005-05-31 | 2008-06-03 | Coonse Jr Lester C | Active noise control system for aircraft, and method for enhancing pilot situational awareness |
US20070030211A1 (en) * | 2005-06-02 | 2007-02-08 | Honeywell International Inc. | Wearable marine heads-up display system |
WO2007113975A1 (ja) * | 2006-03-31 | 2007-10-11 | National University Corporation Shizuoka University | 視点検出装置 |
GB0718706D0 (en) | 2007-09-25 | 2007-11-07 | Creative Physics Ltd | Method and apparatus for reducing laser speckle |
KR100786108B1 (ko) * | 2006-05-01 | 2007-12-18 | 김준식 | 음파통신 네트워크 |
US7633852B2 (en) * | 2006-06-21 | 2009-12-15 | Northrop Gruman Corporation | Wireless control system for ground-mobile robotic vehicles |
US20090243966A1 (en) * | 2006-07-25 | 2009-10-01 | Nikon Corporation | Outputting apparatus and image display apparatus |
JP5119636B2 (ja) | 2006-09-27 | 2013-01-16 | ソニー株式会社 | 表示装置、表示方法 |
KR100865548B1 (ko) | 2006-12-28 | 2008-10-28 | 주식회사 하이닉스반도체 | 반도체 메모리장치의 제조방법 |
ITMI20070009A1 (it) * | 2007-01-05 | 2008-07-06 | St Microelectronics Srl | Un sistema elettronico interattivo di intrattenimento |
US8064475B2 (en) * | 2007-03-21 | 2011-11-22 | At&T Intellectual Property I, L.P. | Systems and methods of wireless communication |
WO2008139018A1 (en) * | 2007-05-09 | 2008-11-20 | Savox Communications Oy Ab (Ltd) | A display apparatus |
EP1990674A1 (en) | 2007-05-09 | 2008-11-12 | Harman Becker Automotive Systems GmbH | Head-mounted display system |
US8151311B2 (en) | 2007-11-30 | 2012-04-03 | At&T Intellectual Property I, L.P. | System and method of detecting potential video traffic interference |
US8290638B2 (en) * | 2008-02-04 | 2012-10-16 | Lockheed Martin Corporation | Apparatus, program product, and methods for updating data on embedded control systems |
US9886231B2 (en) | 2008-03-28 | 2018-02-06 | Kopin Corporation | Head worn wireless computer having high-resolution display suitable for use as a mobile internet device |
US8026834B2 (en) * | 2008-06-09 | 2011-09-27 | Honeywell International Inc. | Method and system for operating a display device |
US20110141223A1 (en) * | 2008-06-13 | 2011-06-16 | Raytheon Company | Multiple Operating Mode Optical Instrument |
US8687844B2 (en) | 2008-06-13 | 2014-04-01 | Raytheon Company | Visual detection system for identifying objects within region of interest |
FR2940565B1 (fr) * | 2008-12-19 | 2010-12-31 | Thales Sa | Dispositif de generation de messages sonores a detection de defaut integree |
US11726332B2 (en) | 2009-04-27 | 2023-08-15 | Digilens Inc. | Diffractive projection apparatus |
US9335604B2 (en) | 2013-12-11 | 2016-05-10 | Milan Momcilo Popovich | Holographic waveguide display |
US8350726B2 (en) * | 2009-05-19 | 2013-01-08 | Honeywell International Inc. | Gaze-based touchdown point selection system and method |
US9843743B2 (en) * | 2009-06-03 | 2017-12-12 | Flir Systems, Inc. | Infant monitoring systems and methods using thermal imaging |
US8416715B2 (en) * | 2009-06-15 | 2013-04-09 | Microsoft Corporation | Interest determination for auditory enhancement |
CN101943982B (zh) * | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
DE202009009804U1 (de) * | 2009-07-17 | 2009-10-29 | Sennheiser Electronic Gmbh & Co. Kg | Headset und Hörer |
US10795160B1 (en) | 2014-09-25 | 2020-10-06 | Rockwell Collins, Inc. | Systems for and methods of using fold gratings for dual axis expansion |
US8233204B1 (en) | 2009-09-30 | 2012-07-31 | Rockwell Collins, Inc. | Optical displays |
US11300795B1 (en) | 2009-09-30 | 2022-04-12 | Digilens Inc. | Systems for and methods of using fold gratings coordinated with output couplers for dual axis expansion |
US11320571B2 (en) | 2012-11-16 | 2022-05-03 | Rockwell Collins, Inc. | Transparent waveguide display providing upper and lower fields of view with uniform light extraction |
US20110106447A1 (en) * | 2009-11-03 | 2011-05-05 | Honeywell International Inc. | System for providing a pilot of an aircraft with a visual depiction of a terrain |
US8659826B1 (en) | 2010-02-04 | 2014-02-25 | Rockwell Collins, Inc. | Worn display system and method without requiring real time tracking for boresight precision |
US8552850B2 (en) * | 2010-02-17 | 2013-10-08 | Honeywell International Inc. | Near-to-eye tracking for adaptive operation |
JP5499854B2 (ja) | 2010-04-08 | 2014-05-21 | ソニー株式会社 | 頭部装着型ディスプレイにおける光学的位置調整方法 |
JP5434848B2 (ja) | 2010-08-18 | 2014-03-05 | ソニー株式会社 | 表示装置 |
US10013976B2 (en) | 2010-09-20 | 2018-07-03 | Kopin Corporation | Context sensitive overlays in voice controlled headset computer displays |
WO2012062872A1 (en) * | 2010-11-11 | 2012-05-18 | Bae Systems Plc | Image presentation method, and apparatus therefor |
EP2453290A1 (en) * | 2010-11-11 | 2012-05-16 | BAE Systems PLC | Image presentation method and apparatus therefor |
CN103430125B (zh) * | 2011-03-04 | 2016-10-05 | 株式会社尼康 | 电子设备及处理系统 |
US9274349B2 (en) | 2011-04-07 | 2016-03-01 | Digilens Inc. | Laser despeckler based on angular diversity |
US20120259638A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Apparatus and method for determining relevance of input speech |
US10627860B2 (en) | 2011-05-10 | 2020-04-21 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
US8902085B1 (en) * | 2011-05-17 | 2014-12-02 | Raytheon Company | Integrated 3D audiovisual threat cueing system |
US10120438B2 (en) * | 2011-05-25 | 2018-11-06 | Sony Interactive Entertainment Inc. | Eye gaze to alter device behavior |
US20120303211A1 (en) * | 2011-05-27 | 2012-11-29 | Igor Igorevich Stukanov | Safety evacuation system for drivers and passengers of ground and water vehicles |
US9509924B2 (en) * | 2011-06-10 | 2016-11-29 | Flir Systems, Inc. | Wearable apparatus with integrated infrared imaging module |
US8823740B1 (en) | 2011-08-15 | 2014-09-02 | Google Inc. | Display system |
WO2016020630A2 (en) | 2014-08-08 | 2016-02-11 | Milan Momcilo Popovich | Waveguide laser illuminator incorporating a despeckler |
WO2013027004A1 (en) | 2011-08-24 | 2013-02-28 | Milan Momcilo Popovich | Wearable data display |
US10670876B2 (en) | 2011-08-24 | 2020-06-02 | Digilens Inc. | Waveguide laser illuminator incorporating a despeckler |
US20130051560A1 (en) * | 2011-08-30 | 2013-02-28 | Raytheon Company | 3-Dimensional Audio Projection |
US8767306B1 (en) * | 2011-09-22 | 2014-07-01 | Google Inc. | Display system |
US9599813B1 (en) | 2011-09-30 | 2017-03-21 | Rockwell Collins, Inc. | Waveguide combiner system and method with less susceptibility to glare |
US9715067B1 (en) | 2011-09-30 | 2017-07-25 | Rockwell Collins, Inc. | Ultra-compact HUD utilizing waveguide pupil expander with surface relief gratings in high refractive index materials |
US9366864B1 (en) | 2011-09-30 | 2016-06-14 | Rockwell Collins, Inc. | System for and method of displaying information without need for a combiner alignment detector |
US8634139B1 (en) | 2011-09-30 | 2014-01-21 | Rockwell Collins, Inc. | System for and method of catadioptric collimation in a compact head up display (HUD) |
DE102011084217A1 (de) * | 2011-10-10 | 2013-04-11 | Continental Automotive Gmbh | Kommunikationssystem eines Kraftfahrzeuges |
WO2013064914A1 (en) * | 2011-10-31 | 2013-05-10 | Sony Ericsson Mobile Communications Ab | Amplifying audio-visual data based on user's head orientation |
US20130131897A1 (en) * | 2011-11-23 | 2013-05-23 | Honeywell International Inc. | Three dimensional auditory reporting of unusual aircraft attitude |
US9084058B2 (en) * | 2011-12-29 | 2015-07-14 | Sonos, Inc. | Sound field calibration using listener localization |
US20150010265A1 (en) | 2012-01-06 | 2015-01-08 | Milan, Momcilo POPOVICH | Contact image sensor using switchable bragg gratings |
US10129682B2 (en) * | 2012-01-06 | 2018-11-13 | Bacch Laboratories, Inc. | Method and apparatus to provide a virtualized audio file |
US9042736B2 (en) | 2012-02-09 | 2015-05-26 | N2 Imaging Systems, LLC | Intrapersonal data communication systems |
US9705605B2 (en) | 2012-02-09 | 2017-07-11 | N2 Imaging Systems, LLC | Intrapersonal data communication system |
WO2014150076A1 (en) | 2013-03-14 | 2014-09-25 | N2 Imaging Systems, LLC | Intrapersonal data communication system |
US20130246967A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Head-Tracked User Interaction with Graphical Interface |
US9523852B1 (en) | 2012-03-28 | 2016-12-20 | Rockwell Collins, Inc. | Micro collimator system and method for a head up display (HUD) |
CN103562802B (zh) | 2012-04-25 | 2016-08-17 | 罗克韦尔柯林斯公司 | 全息广角显示器 |
US9442290B2 (en) * | 2012-05-10 | 2016-09-13 | Kopin Corporation | Headset computer operation using vehicle sensor feedback for remote control vehicle |
JP5661067B2 (ja) * | 2012-05-29 | 2015-01-28 | 株式会社ジェイアイエヌ | アイウエア |
US9674331B2 (en) | 2012-06-08 | 2017-06-06 | Apple Inc. | Transmitting data from an automated assistant to an accessory |
US9933684B2 (en) * | 2012-11-16 | 2018-04-03 | Rockwell Collins, Inc. | Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
JP5954147B2 (ja) | 2012-12-07 | 2016-07-20 | ソニー株式会社 | 機能制御装置およびプログラム |
CN105247150B (zh) | 2013-02-19 | 2018-01-09 | 梦光控股公司 | 娱乐场馆及相关的系统/方法 |
WO2014130459A1 (en) | 2013-02-19 | 2014-08-28 | Dreamlight Holdings Inc., Formerly Known As A Thousand Miles Llc | Rotating performance stage |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9674413B1 (en) | 2013-04-17 | 2017-06-06 | Rockwell Collins, Inc. | Vision system and method having improved performance and solar mitigation |
DE102013210354A1 (de) | 2013-06-04 | 2014-12-04 | Bayerische Motoren Werke Aktiengesellschaft | Blickgesteuerte Interaktion für Datenbrillen |
AT14754U3 (de) * | 2013-06-18 | 2016-10-15 | Kolotov Alexandr Alexandrovich | Helm für Motorradfahrer und Menschen, die Extrem-Aktivitäten betreiben |
US9187188B2 (en) * | 2013-07-02 | 2015-11-17 | Premium Aerotec Gmbh | Assembly inspection system and method |
US9727772B2 (en) | 2013-07-31 | 2017-08-08 | Digilens, Inc. | Method and apparatus for contact image sensing |
US9244281B1 (en) | 2013-09-26 | 2016-01-26 | Rockwell Collins, Inc. | Display system and method using a detached combiner |
US9785231B1 (en) * | 2013-09-26 | 2017-10-10 | Rockwell Collins, Inc. | Head worn display integrity monitor system and methods |
DE102013021137B4 (de) | 2013-12-13 | 2022-01-27 | Audi Ag | Verfahren zum Betreiben einer Datenschnittstelle eines Kraftwagens und Kraftwagen |
KR102178333B1 (ko) * | 2013-12-31 | 2020-11-12 | 엘지디스플레이 주식회사 | 영상처리방법 및 투명표시장치 |
US10732407B1 (en) | 2014-01-10 | 2020-08-04 | Rockwell Collins, Inc. | Near eye head up display system and method with fixed combiner |
US9519089B1 (en) | 2014-01-30 | 2016-12-13 | Rockwell Collins, Inc. | High performance volume phase gratings |
US20150223005A1 (en) * | 2014-01-31 | 2015-08-06 | Raytheon Company | 3-dimensional audio projection |
JP6589855B2 (ja) * | 2014-02-21 | 2019-10-16 | ソニー株式会社 | 頭部装着ディスプレイ、制御装置および制御方法 |
US9244280B1 (en) | 2014-03-25 | 2016-01-26 | Rockwell Collins, Inc. | Near eye display system and method for display enhancement or redundancy |
JP6445784B2 (ja) * | 2014-05-16 | 2018-12-26 | キヤノン株式会社 | 画像診断支援装置、その処理方法及びプログラム |
US10305748B2 (en) | 2014-05-19 | 2019-05-28 | The Michael Harrison Tretter Auerbach Trust | Dynamic computer systems and uses thereof |
US10666735B2 (en) | 2014-05-19 | 2020-05-26 | Auerbach Michael Harrison Tretter | Dynamic computer systems and uses thereof |
US9742853B2 (en) | 2014-05-19 | 2017-08-22 | The Michael Harrison Tretter Auerbach Trust | Dynamic computer systems and uses thereof |
WO2016020632A1 (en) | 2014-08-08 | 2016-02-11 | Milan Momcilo Popovich | Method for holographic mastering and replication |
US10241330B2 (en) | 2014-09-19 | 2019-03-26 | Digilens, Inc. | Method and apparatus for generating input images for holographic waveguide displays |
US10088675B1 (en) | 2015-05-18 | 2018-10-02 | Rockwell Collins, Inc. | Turning light pipe for a pupil expansion system and method |
US9715110B1 (en) | 2014-09-25 | 2017-07-25 | Rockwell Collins, Inc. | Automotive head up display (HUD) |
US9606355B2 (en) * | 2014-09-29 | 2017-03-28 | Honeywell International Inc. | Apparatus and method for suppressing double images on a combiner head-up display |
US10459224B2 (en) | 2014-09-29 | 2019-10-29 | Honeywell International Inc. | High transmittance eyewear for head-up displays |
WO2016086230A1 (en) * | 2014-11-28 | 2016-06-02 | Tammam Eric S | Augmented audio enhanced perception system |
CN107873086B (zh) | 2015-01-12 | 2020-03-20 | 迪吉伦斯公司 | 环境隔离的波导显示器 |
US9632226B2 (en) | 2015-02-12 | 2017-04-25 | Digilens Inc. | Waveguide grating device |
US9558760B2 (en) * | 2015-03-06 | 2017-01-31 | Microsoft Technology Licensing, Llc | Real-time remodeling of user voice in an immersive visualization system |
DE102015003946A1 (de) * | 2015-03-26 | 2016-09-29 | Audi Ag | Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System |
DE102015207337B4 (de) * | 2015-04-22 | 2024-06-06 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Unterhaltung mindestens eines Insassen eines Kraftfahrzeugs |
US10254544B1 (en) * | 2015-05-13 | 2019-04-09 | Rockwell Collins, Inc. | Head tracking accuracy and reducing latency in dynamic environments |
US11366316B2 (en) | 2015-05-18 | 2022-06-21 | Rockwell Collins, Inc. | Head up display (HUD) using a light pipe |
US10247943B1 (en) | 2015-05-18 | 2019-04-02 | Rockwell Collins, Inc. | Head up display (HUD) using a light pipe |
US10126552B2 (en) | 2015-05-18 | 2018-11-13 | Rockwell Collins, Inc. | Micro collimator system and method for a head up display (HUD) |
CN107852488B (zh) | 2015-05-22 | 2021-03-30 | 三星电子株式会社 | 用于通过hmd设备显示虚拟图像的系统和方法 |
US10473942B2 (en) * | 2015-06-05 | 2019-11-12 | Marc Lemchen | Apparatus and method for image capture of medical or dental images using a head mounted camera and computer system |
US10108010B2 (en) | 2015-06-29 | 2018-10-23 | Rockwell Collins, Inc. | System for and method of integrating head up displays and head down displays |
US10382746B1 (en) * | 2015-09-22 | 2019-08-13 | Rockwell Collins, Inc. | Stereoscopic augmented reality head-worn display with indicator conforming to a real-world object |
US10690916B2 (en) | 2015-10-05 | 2020-06-23 | Digilens Inc. | Apparatus for providing waveguide displays with two-dimensional pupil expansion |
US10113837B2 (en) | 2015-11-03 | 2018-10-30 | N2 Imaging Systems, LLC | Non-contact optical connections for firearm accessories |
US10598932B1 (en) | 2016-01-06 | 2020-03-24 | Rockwell Collins, Inc. | Head up display for integrating views of conformally mapped symbols and a fixed image source |
JP6665572B2 (ja) * | 2016-02-16 | 2020-03-13 | 富士通株式会社 | 制御プログラム、制御方法およびコンピュータ |
EP3433659B1 (en) | 2016-03-24 | 2024-10-23 | DigiLens, Inc. | Method and apparatus for providing a polarization selective holographic waveguide device |
JP6734933B2 (ja) | 2016-04-11 | 2020-08-05 | ディジレンズ インコーポレイテッド | 構造化光投影のためのホログラフィック導波管装置 |
DE102016207150A1 (de) * | 2016-04-27 | 2017-11-02 | Bayerische Motoren Werke Aktiengesellschaft | Adaptives Audiosystem für ein Einspurfahrzeug, Einspurfahrzeug mit adaptivem Audiosystem sowie Verfahren zur Akustikoptimierung bei einem Einspurfahrzeug |
US11577159B2 (en) | 2016-05-26 | 2023-02-14 | Electronic Scripting Products Inc. | Realistic virtual/augmented/mixed reality viewing and interactions |
US11023818B2 (en) | 2016-06-23 | 2021-06-01 | 3M Innovative Properties Company | Personal protective equipment system having analytics engine with integrated monitoring, alerting, and predictive safety event avoidance |
US9848666B1 (en) * | 2016-06-23 | 2017-12-26 | 3M Innovative Properties Company | Retrofit sensor module for a protective head top |
US10610708B2 (en) | 2016-06-23 | 2020-04-07 | 3M Innovative Properties Company | Indicating hazardous exposure in a supplied air respirator system |
DE102016112826A1 (de) * | 2016-07-13 | 2018-01-18 | Jabil Optics Germany GmbH | Detektionseinrichtung, HUD und Verfahren zum Betrieb eines HUD |
US11195542B2 (en) | 2019-10-31 | 2021-12-07 | Ron Zass | Detecting repetitions in audio data |
US10433052B2 (en) * | 2016-07-16 | 2019-10-01 | Ron Zass | System and method for identifying speech prosody |
US10679511B2 (en) | 2016-09-30 | 2020-06-09 | Sony Interactive Entertainment Inc. | Collision detection and avoidance |
US10410320B2 (en) | 2016-09-30 | 2019-09-10 | Sony Interactive Entertainment Inc. | Course profiling and sharing |
US11125561B2 (en) | 2016-09-30 | 2021-09-21 | Sony Interactive Entertainment Inc. | Steering assist |
US11513350B2 (en) | 2016-12-02 | 2022-11-29 | Digilens Inc. | Waveguide device with uniform output illumination |
US10088911B2 (en) | 2016-12-30 | 2018-10-02 | Manuel Saez | Programmable electronic helmet |
US10545346B2 (en) | 2017-01-05 | 2020-01-28 | Digilens Inc. | Wearable heads up displays |
US10295824B2 (en) | 2017-01-26 | 2019-05-21 | Rockwell Collins, Inc. | Head up display with an angled light pipe |
KR102572998B1 (ko) * | 2017-03-02 | 2023-08-30 | 링컨 글로벌, 인크. | 헤드 업 디스플레이 및 음성 명령이 지원되는 용접 헬멧 |
US20190064344A1 (en) * | 2017-03-22 | 2019-02-28 | Bragi GmbH | Use of body-worn radar for biometric measurements, contextual awareness and identification |
JP6543848B2 (ja) * | 2017-03-29 | 2019-07-17 | 本田技研工業株式会社 | 音声処理装置、音声処理方法及びプログラム |
US10699691B1 (en) * | 2017-06-29 | 2020-06-30 | Amazon Technologies, Inc. | Active noise cancellation for bone conduction speaker of a head-mounted wearable device |
MA41223A1 (fr) * | 2017-09-28 | 2019-05-31 | Univ Int Rabat | Dispositif électronique intégré au micro-casque du pilote d'avion pour la mesure d'alcoolémie |
US11323838B2 (en) * | 2017-10-12 | 2022-05-03 | Interdigital Madison Patent Holdings, Sas | Method and apparatus for providing audio content in immersive reality |
CN116149058A (zh) | 2017-10-16 | 2023-05-23 | 迪吉伦斯公司 | 用于倍增像素化显示器的图像分辨率的系统和方法 |
KR20200104402A (ko) | 2018-01-08 | 2020-09-03 | 디지렌즈 인코포레이티드. | 도파관 셀을 제조하기 위한 시스템 및 방법 |
WO2019136476A1 (en) | 2018-01-08 | 2019-07-11 | Digilens, Inc. | Waveguide architectures and related methods of manufacturing |
KR20200108030A (ko) | 2018-01-08 | 2020-09-16 | 디지렌즈 인코포레이티드. | 도파관 셀 내의 홀로그래픽 격자의 높은 처리능력의 레코딩을 위한 시스템 및 방법 |
US11372476B1 (en) * | 2018-02-20 | 2022-06-28 | Rockwell Collins, Inc. | Low profile helmet mounted display (HMD) eye tracker |
US11062149B2 (en) | 2018-03-02 | 2021-07-13 | Honda Motor Co., Ltd. | System and method for recording images reflected from a visor |
US10753709B2 (en) | 2018-05-17 | 2020-08-25 | Sensors Unlimited, Inc. | Tactical rails, tactical rail systems, and firearm assemblies having tactical rails |
US10645348B2 (en) | 2018-07-07 | 2020-05-05 | Sensors Unlimited, Inc. | Data communication between image sensors and image displays |
US11079202B2 (en) | 2018-07-07 | 2021-08-03 | Sensors Unlimited, Inc. | Boresighting peripherals to digital weapon sights |
US11402801B2 (en) | 2018-07-25 | 2022-08-02 | Digilens Inc. | Systems and methods for fabricating a multilayer optical structure |
US10742913B2 (en) | 2018-08-08 | 2020-08-11 | N2 Imaging Systems, LLC | Shutterless calibration |
US10921578B2 (en) | 2018-09-07 | 2021-02-16 | Sensors Unlimited, Inc. | Eyecups for optics |
US11122698B2 (en) | 2018-11-06 | 2021-09-14 | N2 Imaging Systems, LLC | Low stress electronic board retainers and assemblies |
US10801813B2 (en) | 2018-11-07 | 2020-10-13 | N2 Imaging Systems, LLC | Adjustable-power data rail on a digital weapon sight |
US10796860B2 (en) | 2018-12-12 | 2020-10-06 | N2 Imaging Systems, LLC | Hermetically sealed over-molded button assembly |
AT522012A1 (de) * | 2018-12-19 | 2020-07-15 | Viewpointsystem Gmbh | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer |
US11143838B2 (en) | 2019-01-08 | 2021-10-12 | N2 Imaging Systems, LLC | Optical element retainers |
US11726319B2 (en) * | 2019-01-11 | 2023-08-15 | Google Llc | Displays and methods of operating thereof |
KR20210138609A (ko) | 2019-02-15 | 2021-11-19 | 디지렌즈 인코포레이티드. | 일체형 격자를 이용하여 홀로그래픽 도파관 디스플레이를 제공하기 위한 방법 및 장치 |
JP2022525165A (ja) | 2019-03-12 | 2022-05-11 | ディジレンズ インコーポレイテッド | ホログラフィック導波管バックライトおよび関連する製造方法 |
CA3142476A1 (en) * | 2019-06-03 | 2020-12-10 | Third Eye Design, Inc. | Remote lighting system and methods of operating same |
CN114207492A (zh) | 2019-06-07 | 2022-03-18 | 迪吉伦斯公司 | 带透射光栅和反射光栅的波导及其生产方法 |
KR20220038452A (ko) | 2019-07-29 | 2022-03-28 | 디지렌즈 인코포레이티드. | 픽셀화된 디스플레이의 이미지 해상도와 시야를 증배하는 방법 및 장치 |
KR20220054386A (ko) | 2019-08-29 | 2022-05-02 | 디지렌즈 인코포레이티드. | 진공 브래그 격자 및 이의 제조 방법 |
US11989344B2 (en) * | 2020-02-21 | 2024-05-21 | Maxell, Ltd. | Information display device |
US11089427B1 (en) | 2020-03-31 | 2021-08-10 | Snap Inc. | Immersive augmented reality experiences using spatial audio |
CN116529652A (zh) * | 2020-12-07 | 2023-08-01 | 美国斯耐普公司 | 增强现实空间音频体验 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7243945B2 (en) * | 1992-05-05 | 2007-07-17 | Automotive Technologies International, Inc. | Weight measuring systems and methods for vehicles |
US5422653A (en) * | 1993-01-07 | 1995-06-06 | Maguire, Jr.; Francis J. | Passive virtual reality |
US7310072B2 (en) * | 1993-10-22 | 2007-12-18 | Kopin Corporation | Portable communication display device |
US6160666A (en) * | 1994-02-07 | 2000-12-12 | I-O Display Systems Llc | Personal visual display system |
WO1996014641A1 (en) * | 1994-11-04 | 1996-05-17 | Kelly Shawn L | Modular binocular electronic imaging system |
US5682172A (en) * | 1994-12-30 | 1997-10-28 | Forte Technologies, Inc. | Headset for presenting video and audio signals to a wearer |
JP3771973B2 (ja) * | 1996-09-26 | 2006-05-10 | オリンパス株式会社 | 立体映像表示装置 |
US6847336B1 (en) * | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6204974B1 (en) * | 1996-10-08 | 2001-03-20 | The Microoptical Corporation | Compact image display system for eyeglasses or other head-borne frames |
DE69840547D1 (de) * | 1997-10-30 | 2009-03-26 | Myvu Corp | Schnittstellensystem für brillen |
US6456438B1 (en) * | 1999-08-12 | 2002-09-24 | Honeywell Inc. | Variable immersion vignetting display |
JP2002157607A (ja) | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
US7050078B2 (en) * | 2002-12-19 | 2006-05-23 | Accenture Global Services Gmbh | Arbitrary object tracking augmented reality applications |
JP2005182306A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車両用表示装置 |
-
2004
- 2004-05-11 US US10/556,322 patent/US7710654B2/en active Active
- 2004-05-11 EP EP04732164A patent/EP1623266B1/en not_active Expired - Lifetime
- 2004-05-11 AT AT04732164T patent/ATE447205T1/de not_active IP Right Cessation
- 2004-05-11 DE DE602004023831T patent/DE602004023831D1/de not_active Expired - Lifetime
- 2004-05-11 WO PCT/IL2004/000398 patent/WO2004099851A2/en active Application Filing
- 2004-05-11 KR KR1020057021486A patent/KR20060014399A/ko not_active Application Discontinuation
- 2004-05-11 ES ES04732164T patent/ES2333528T3/es not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
WO2004099851A2 (en) | 2004-11-18 |
ATE447205T1 (de) | 2009-11-15 |
WO2004099851A3 (en) | 2006-02-02 |
DE602004023831D1 (de) | 2009-12-10 |
EP1623266B1 (en) | 2009-10-28 |
US7710654B2 (en) | 2010-05-04 |
KR20060014399A (ko) | 2006-02-15 |
EP1623266A2 (en) | 2006-02-08 |
US20060238877A1 (en) | 2006-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2333528T3 (es) | Procedimiento y sistema de comunicacion audiovisual. | |
US5815126A (en) | Monocular portable communication and display system | |
US6693749B2 (en) | Low-observability, wide-field-of-view, situation awareness viewing device | |
US7110013B2 (en) | Augmented reality display integrated with self-contained breathing apparatus | |
US6088165A (en) | Enhanced night vision device | |
US20170336641A1 (en) | Apparatus und Method for Rendering a Virtual Monitor on Smart Ophthalmic Devices in Augmented Reality Environments | |
US8040292B2 (en) | Portable communication display device | |
ES2498671T3 (es) | Dispositivo de visualización "de cabeza alta" para gafas de visión nocturna | |
EP0821257A2 (en) | Portable communication display system | |
JPH06502054A (ja) | ビームスプリッタを用いた頭部搭載型投射ディスプレイシステム | |
US20210072821A1 (en) | Apparatus und Method for Rendering a Virtual Monitor on Smart Ophthalmic Devices in Augmented Reality Environments | |
CN104570353A (zh) | 利用全息波导进行彩色目视显示的方法、光学系统及穿戴设备 | |
JPH09508711A (ja) | パーソナルビジュアルディスプレイシステム | |
CN105137598A (zh) | 透明显示屏及其制备方法、光学系统和应用 | |
US10969675B1 (en) | Optical assemblies having scanning reflectors for projecting augmented reality content | |
CN109073890B (zh) | 具有与音频头戴式耳机兼容的搭扣的飞行器头戴式可视化系统 | |
CN207752239U (zh) | 一种车载增强现实抬头显示系统 | |
JPS61501946A (ja) | ホログラフィックヘルメットに装着した両眼用ディスプレイ | |
Melzer et al. | Head-mounted displays | |
CN109387947A (zh) | 一种3d近眼优化显示装置及方法 | |
JP4649400B2 (ja) | オーディオビジュアル通信向上方法及びシステム | |
CN209281084U (zh) | 一种3d近眼优化显示装置 | |
IL170714A (en) | Method and system for improving audiovisual communication | |
WO2000052515A1 (en) | Enhanced night vision device | |
CN221326846U (zh) | 一种具有单物镜的微光夜视仪光学结构 |