ES2331175T3 - Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento. - Google Patents
Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento. Download PDFInfo
- Publication number
- ES2331175T3 ES2331175T3 ES00917791T ES00917791T ES2331175T3 ES 2331175 T3 ES2331175 T3 ES 2331175T3 ES 00917791 T ES00917791 T ES 00917791T ES 00917791 T ES00917791 T ES 00917791T ES 2331175 T3 ES2331175 T3 ES 2331175T3
- Authority
- ES
- Spain
- Prior art keywords
- signal
- audio
- signals
- video
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 31
- 230000005236 sound signal Effects 0.000 claims abstract description 78
- 210000003128 head Anatomy 0.000 description 30
- 230000008878 coupling Effects 0.000 description 17
- 238000010168 coupling process Methods 0.000 description 17
- 238000005859 coupling reaction Methods 0.000 description 17
- 239000004020 conductor Substances 0.000 description 14
- 230000009467 reduction Effects 0.000 description 12
- 210000005036 nerve Anatomy 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010040925 Skin striae Diseases 0.000 description 1
- 208000031439 Striae Distensae Diseases 0.000 description 1
- 239000006096 absorbing agent Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009413 insulation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4347—Demultiplexing of several video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/443—OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
- H04N21/4438—Window management, e.g. event handling following interaction with the user interface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4821—End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4858—End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
- H04S1/005—For headphones
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Systems (AREA)
- Studio Circuits (AREA)
- Headphones And Earphones (AREA)
- Studio Devices (AREA)
Abstract
Un método que comprende los pasos de: recibir una pluralidad de señales de audio asociadas con un evento; recibir una pluralidad de señales de vídeo asociadas con dicho evento; combinar dichas señales de audio y de vídeo para formar una señal multiplexada que incluye una pluralidad de señales combinadas, definiendo dichas señales combinadas combinaciones diferentes de dichas señales de vídeo y de audio; transmitir dicha señal multiplexada a receptores portátiles (75) que son llevados por usuarios a cualquier lugar deseado en o alrededor de dicho evento, recibiendo dicha señal multiplexada en el receptor portátil (75); demultiplexar, en los receptores portátiles (75) dicha señal multiplexada para recuperar dichas señales de audio y de vídeo; recibir del usuario entradas en el receptor portátil (75); seleccionar en el receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada y al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dichas entradas realizadas por dicho usuario; visualizar en un dispositivo de visualización (101) del receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección; y producir en un altavoz (103) del receptor portátil (75) el sonido definido por al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección.
Description
Sistema y método de audio/vídeo que permite a un
usuario seleccionar imágenes y sonidos diferentes asociados con un
evento.
Este documento está relacionado con y reivindica
prioridad en las siguientes solicitudes de patente de EEUU no
provisionales de patente en tramitación junto con la presente: (1)
Sistema y Método de Vídeo/Audio que permite a un usuario
seleccionar imágenes y sonidos diferentes de un evento, con número
de serie asignado 09/322.411, y presentada el 28 de mayo de 1999; y
(2) Sistema y Método de Audio/Vídeo que utiliza un aparato montado
en la cabeza con atenuación de ruidos, con número de serie asignado
09/386.613, y presentada el 31 de agosto de 1999. Este documento
también está relacionado con y reivindica la prioridad en las
siguientes solicitudes provisionales de EEUU en tramitación junto
con la presente: (1) Sistema de Distribución de señales de
Audio/Vídeo para Pantallas Montadas en la Cabeza, con número de
serie asignado 60/123.341, y presentada el 8 de marzo de 1999; y
(2) "Pantalla Montada en Cabeza con Aislamiento acústico/Auricular
Protector de Audición", con número de serie asignado 60/137.323
y presentada el 3 de junio de 1999.
El presente invento se refiere generalmente a
técnicas de procesamiento de señales de vídeo y de audio y, en
particular, a un sistema y un método para recibir señales de vídeo y
de audio de una pluralidad de fuentes y para proporcionar a un
usuario múltiples combinaciones de estas señales para seleccionar
entre ellas.
Las señales de audio y vídeo son generadas a
partir de una pluralidad de fuentes durante muchos eventos. Por
ejemplo, en una carrera de autos los equipos de televisión
normalmente sitúan las cámaras en diversos lugares dentro del campo
de visión de una pista de carreras. Estas cámaras generan señales de
vídeo que definen imágenes de la pista de carreras desde distintas
perspectivas. Además, micrófonos situados en distintos lugares
generan señales de audio que definen sonidos diferentes en la
carrera de coches. Por ejemplo, los micrófonos pueden colocarse
cerca de la pista de carreras para recibir los sonidos producidos
por los vehículos que participan en la carrera, y los micrófonos
pueden colocarse cerca de los comentadores de televisión para
recibir los comentarios mientras observan y hacen comentarios sobre
la carrera.
Una de las señales de vídeo y una o más de las
señales de audio se seleccionan y combinan usualmente de forma
conjunta en una emisora de televisión para formar una señal
combinada de audio/vídeo. Esta señal es después modulada y
transmitida de forma que los usuarios que tienen una televisión
pueden recibir la señal combinada a través de la televisión. La
televisión demodula la señal combinada y visualiza una imagen
definida por la señal de vídeo sobre una pantalla de visualización
y reproduce los sonidos definidos por las señales de audio a través
de los altavoces. Por lo tanto, las imágenes y los sonidos de la
carrera pueden ser vistas y oídas a través de la televisión.
Además, una o más de las señales de audio, tales
como las señales de audio que definen los comentarios de los
comentaristas de la radio, son usualmente seleccionadas y moduladas
en una emisora de radio para formar una señal de radio. Esta señal
de radio es después transmitida como una señal inalámbrica para que
los usuarios que tienen radio puedan recibir la señal a través de
una radio. La radio demodula la señal y reproduce los sonidos
definidos por la señal de radio a través de los altavoces.
Sin embargo, a los usuarios que ven y/o oyen las
imágenes y sonidos de la carrera a través de las televisiones y/o
radios no sólo se les da usualmente la oportunidad de seleccionar
qué señales de vídeo y/o audio son demoduladas y transmitidas a la
televisión y/o radio.
Por lo tanto, el usuario solamente es capaz de
recibir las señales moduladas y transmitidas a la televisión y/o
radio aun cuando el usuario pueda preferir recibir las otras señales
de audio y/o vídeo que se generan en la carrera de coches.
A los espectadores que realmente atienden a la
carrera de coches se les ofrecen más opciones de ver y/o oír las
imágenes y/o sonidos de la carrera desde diferentes perspectivas. A
este respecto, una pluralidad de monitores están usualmente
colocados en determinados lugares en el estadio. Tal como se emplea
aquí, la palabra "estadio" se define como cualquier estructura
fija que tiene un gran número (es decir, cientos) de asientos, en la
que se desarrolla un evento en (es decir, en la proximidad de) los
asientos de forma que los espectadores que están en los asientos
pueden ver el evento. Un evento es cualquier acontecimiento visto
por un espectador.
Cada monitor dentro del estadio recibe una de
las anteriormente mencionadas señales de vídeo y visualiza una
imagen definida por la señal de vídeo definida por la señal de vídeo
recibida a muchos de los espectadores. Sin embargo, el monitor no
siempre visualiza una perspectiva deseable con respecto a cada
espectador en el estadio, y el monitor a menudo no está situado en
un lugar conveniente para muchos espectadores. A este respecto,
muchos espectadores a menudo tienen que abandonar sus asientos (u
otros sitios) en el estadio e ir a un lugar en el que los
espectadores, junto con otros espectadores, puedan ver el monitor
que visualiza la perspectiva deseada. Los espectadores que ven el
monitor a menudo no pueden controlar qué imagen es visualizada por
el monitor.
Por lo tanto, a partir de ahora existe en la
industria una necesidad, a la que no se ha prestado, atención de
proporcionar un sistema y un método que permita a un espectador ver
satisfactoriamente un evento desde diferentes perspectivas.
El documento
US-A-6.600.365 describe un aparato
que proporciona una señal y que comprende un medio de la generación
de una señal de vídeo digital, un multiplexador por división de
tiempo, un modulador de señal de vídeo digital, un multiplexador
por división de frecuencia, un sintonizador, un demultiplexador de
señal de vídeo, un expansor, y un visualizador. El medio de
generación de una señal de vídeo digital genera varias señales de
vídeo digitales comprimidas. El multiplexador por división de
tiempo multiplexa varias señales de vídeo digitales comprimidas por
división de tiempo. El modulador de la señal de vídeo digital modula
la señal de salida del multiplexador por división de tiempo. El
multiplexador por división de frecuencia, que recibe la señal de
salida del modulador de señal de vídeo digital y otra señal de
entrada, multiplexa la señal de salida del modulador y la posterior
señal de entrada por división de frecuencia. El sintonizador, que
recibe la señal de salida del multiplexador por división de
frecuencia, demodula la señal de salida y selecciona una señal que
tiene una frecuencia específica. El demultiplexador de la señal de
vídeo selecciona una de las señales de vídeo digitales comprimidas
multiplexadas por división de tiempo en la señal de salida del
sintonizador. El expansor expande la señal de salida del
demultiplexador de la señal de vídeo. El visualizador, que recibe la
señal de salida del expansor, visualiza una imagen de vídeo.
El documento
JP-A-10136277 describe una caja en
la parte superior del aparato que permite a un espectador de
televisión seleccionar entre una selección de ángulos de cámara
posibles y de alimentaciones de audio cuando se ve un evento
deportivo tal como un partido de fútbol sin cambiar el canal de
televisión. Los datos de audio, vídeo y de control son transmitidos
en flujos de datos en paquetes con datos de control que proporcionan
una indicación de canal preasignado (por ejemplo, canal 10 para la
red X). Un terminal colocado encima del aparato recibe y procesa
los flujos de datos de acuerdo con las instrucciones proporcionadas
por el usuario. El terminal incluye un soporte lógico que puede ser
descargado a través de los flujos de datos o instalado localmente.
Los datos de control en el flujo de datos se usan para proporcionar
una visualización gráfica sobre la pantalla en la televisión, lo
que permite al usuario seleccionar el audio y vídeo que corresponde
a ciertas áreas del estadio de fútbol, por ejemplo. Opcionalmente,
el espectador puede seleccionar resúmenes alternativos en un
programa de películas o similar. Una falta de ajuste proporciona
unas señales primarias de audio y de vídeo. Señales de vídeo y de
audio alternativas son seleccionadas por el usuario y asignadas al
indicador de canal de la señal primaria de forma que puedan ser
vistas y oídas las diferentes alimentaciones de audio. Al espectador
se le da, por lo tanto, la oportunidad de personalizar la
programación para mejorar el valor educativo o de espectáculo.
El presente invento supera las faltas de
adecuación y deficiencias de la técnica anterior como se ha
discutido anteriormente. Generalmente, el presente invento
proporciona un sistema y un método de vídeo/audio para recibir
señales de vídeo y audio de una pluralidad de fuentes y para
proporcionar a un usuario múltiples combinaciones de estas señales
para seleccionar entre ellas.
El presente invento proporciona un método de
acuerdo con la reivindicación 1 de las reivindicaciones anejas. El
presente invento además proporciona un sistema de acuerdo con la
reivindicación 11 de las reivindicaciones
anejas.
anejas.
Otras características y ventajas del presente
invento serán evidentes a un experto en la técnica tras el examen
de la siguiente descripción detallada al ser leída en conjunción con
los dibujos que se acompañan. Se pretende que todas las
características y ventajas estén incluidas aquí dentro del ámbito
del presente invento y protegidas por las reivindicaciones.
El invento puede ser entendido mejor con
referencia a los siguientes dibujos. Los elementos de los dibujos
no están necesariamente a escala entre ellos, en cambio se ha
intentado ilustrar claramente los principios del invento. Además,
los números de referencia indican las correspondientes piezas en las
diferentes vistas.
La Figura 1 es un diagrama de bloques que
ilustra un sistema de vídeo/audio de acuerdo con el presente
invento.
La Figura 2 es un diagrama de bloques que
ilustra una vista detallada de un dispositivo de interfaz
representado en la Figura 1.
La Figura 3 es un diagrama de bloques que
ilustra una vista detallada de un receptor representado en la Figura
1.
La Figura 4 es una vista tridimensional de un
visualizador convencional montado en la cabeza.
La Figura 5 es una vista lateral que ilustra el
visualizador convencional montado en la cabeza representado en la
Figura 4.
La Figura 6 es una vista tridimensional de un
visualizador montado en la cabeza de acuerdo con el presente
invento.
La Figura 7A es una vista lateral del
dispositivo de reducción de ruido del visualizador montado en la
cabeza representado en la Figura 6.
La Figura 7B es una vista frontal del
dispositivo de reducción de ruido del visualizador montado en la
cabeza representado en la Figura 6.
La Figura 7C es una vista desde abajo del
dispositivo de reducción de ruido del visualizador montado en la
cabeza representado en la Figura 6.
La Figura 8A es una vista lateral más detallada
de un elemento del dispositivo de reducción de ruido de la Figura
7C que está adaptado para recibir una patilla del visualizador
montado en la cabeza representado en la Figura 6.
La Figura 8B es una vista tridimensional del
elemento representado en la Figura 8A.
La Figura 9 es una vista desde arriba del
elemento representado en la Figura 8A al recibir una patilla del
visualizador montado en la cabeza de la Figura 6.
La Figura 10 es una vista lateral de la patilla
representada en la Figura 6.
A continuación se describirá la realización
preferida del presente invento en el contexto de las aplicaciones
a carreras de coches. No obstante, el alcance del presente invento
no debería estar limitado a esto, y debería ser evidente a un
experto en la técnica que los principios del presente invento pueden
ser empleados en el contexto de otras aplicaciones, particularmente
en el contexto de otros eventos deportivos (por ejemplo, partidos
de fútbol, partidos de baloncesto, partidos de pelota base, partidos
de jockey, etc).
La Figura 1 representa un sistema de vídeo/audio
20 que aplica los principios del presente invento. Al menos una
señal de vídeo 22 y al menos una señal de audio 25 son recibidas por
un dispositivo de interfaz 28. Cada una de las señales de vídeo
recibidas 22 define una imagen desde una perspectiva diferente. Por
ejemplo, las señales de vídeo 22 pueden ser generadas por cámaras
de vídeo distintas situadas en lugares diferentes alrededor del
estadio, incluyendo dentro de al menos algunos de los vehículos que
participan en la carrera.
Además, cada una de las señales de audio 25
define sonidos diferentes asociados con la carrera. Por ejemplo, al
menos una de las señales de audio 25 puede ser generada desde un
micrófono situado cerca de la pista o en uno de los vehículos, de
forma que la señal de audio 25 defina el ruido de los vehículos que
participan en la carrera.
Alternativamente, al menos una de las señales de
audio 25 puede definir los comentarios de los comentaristas de
televisión, y al menos una de las señales de audio 25 puede definir
los comentarios de los comentaristas de radio. Además, al menos una
de las señales de audio 25 puede definir los comentarios entre uno
de los conductores que participa en la carrera y su equipo de
mecánicos.
Algunas de las señales de vídeo y de audio 22 y
25 pueden estar sin modular al ser transmitidas al dispositivo de
interfaz 28 y, por lo tanto, no necesitan ser demoduladas por el
sistema 20. Sin embargo, algunas de las señales de vídeo y de audio
22 y 25 pueden necesitar ser demoduladas por el sistema 20. Por
ejemplo, al menos una de las señales de audio 25 que definen los
comentarios de los comentaristas de radio puede ser modulada como
una señal de radio para transmisión a radios situadas en o lejos del
estadio, y al menos una de las señales de vídeo 25 puede ser
modulada como una señal de televisión para transmisión a
televisiones situadas en o lejos del estadio. Además, los
comentarios entre un conductor y su equipo de mecánicos se
transmiten usualmente a través de ondas de radio de ultra alta
frecuencia (UHF), que como se sabe son señales moduladas. Por lo
tanto, como se muestra en la Figura 1, el sistema 20 preferiblemente
incluye demoduladores 32 configurados para recibir y demodular las
señales de vídeo y/o de audio 22 y 25.
Es posible que algunas de las señales de vídeo y
de audio 22 y 25 se reciban de una señal combinada 35, la cual está
compuesta por al menos una señal de vídeo 22 combinada con al menos
una señal de audio 25. Por ejemplo, la señal combinada 35 puede ser
una señal de televisión modulada para transmisión a televisiones
situadas en o lejos del estadio donde está la pista. Para facilitar
la combinación de las diferentes señales de audio 25 con la señal o
señales de vídeo 22 definidas por la señal combinada 35, un
separador 37 preferiblemente separa la señal combinada 35 en sus
respectivas señal de vídeo 22 y señal de audio 25, como se muestra
en la Figura 1.
Pueden existir diversas configuraciones del
separador 37 sin apartarse de los principios del presente invento.
La Figura 1 representa una posible aplicación del separador 37. A
este respecto, el separador 37 incluye un filtro 41 de la señal de
audio diseñado para eliminar cualesquiera señales de audio 25 de la
señal combinada 35 y transmitir la o las señales de vídeo
resultantes 22 al dispositivo de interfaz 28. Además, el separador
37 incluye también un filtro 43 de la señal de vídeo diseñado para
eliminar cualesquiera señales de vídeo 22 de la señal combinada 35
y transmitir la o las señales de audio resultantes 25 al dispositivo
de interfaz 28. Si en la señal combinada 35 está incluida más de
una señal de vídeo 22 o más de una señal de audio 25, entonces el
separador 37 puede incluir filtros adicionales (no mostrados) para
separar las señales múltiples de vídeo y/o de audio 22 y 25 en
señales individuales antes de transmitir las señales 22 y 25 al
dispositivo de interfaz 28.
La Figura 2 representa una vista más detallada
del dispositivo de interfaz 28. El dispositivo de interfaz 28
incluye combinadores de audio 52 configurados para recibir señales
de audio 25 y para combinar las señales de audio recibidas 25 en
una única señal de audio combinada 55. Como se muestra en la Figura
2, cada combinador de audio 52 recibe preferiblemente una
combinación diferente de señales de audio 25, aunque es posible para
cualquiera de las señales combinadas 55 incluir la misma
combinación de señales de audio 25 al igual que cualquier otra
señal combinada 55. Adviértase que cuando un combinador de audio 52
recibe solamente una señal de audio 25 la señal combinada 55
generada por el combinador 52 se corresponde con la señal 25
recibida por el combinador 52.
Como ejemplo, una de las señales combinadas 55
puede incluir una señal de audio 25 que define los comentarios
entre un conductor y su equipo de mecánicos y también una señal de
audio 25 que define los sonidos (es decir, los ruidos de los
vehículos) recibidos por un micrófono situado en el vehículo del
conductor. Otra de las señales combinadas 55 puede incluir las
anteriormente mencionadas señales de audio 25 así como una señal de
audio 25 que define los comentarios de un comentarista de radio.
Otra señal combinada 55 puede solamente incluir una señal de audio
25 que define los comentarios de un comentarista de televisión. Por
lo tanto, las señales combinadas 55 preferiblemente definen
combinaciones de sonidos diferentes. Se debería observar que son
posibles combinaciones de señales de audio 25 distintas de las
descritas anteriormente.
Como se muestra en la Figura 2, cada señal
combinada 55 es transmitida a un respectivo modulador de señal 61.
Cada modulador de señal 61 está también configurado para recibir una
respectiva señal de las señales de vídeo 25 recibidas por el
dispositivo de interfaz 28. Cada modulador de señal 61 está
configurado para combinar la señal combinada recibida 55 y la señal
de vídeo 25 y para modular las señales recibidas 55 y 25 en una
única gama de frecuencias. El modulador de señal 61 está después
diseñado para transmitir la señal modulada 64, la cual comprende la
señal combinada 55 y la señal de vídeo 25 recibida por el modulador
de señal 61, a un combinador 67. El combinador 67 está configurado
para combinar cada una de las señales moduladas 64 transmitidas
desde cada uno de los moduladores de señal 61 en una única señal
combinada (es decir, multiplexada) 71. Esta señal combinada 71 es
después transmitida a una pluralidad de receptores 75.
Existen diversas técnicas para transmitir la
señal combinada 71 a los receptores 75.
Por ejemplo, se puede usar un cable coaxial para
transmitir la señal combinada 71 a cada uno de los receptores 75.
En otro ejemplo el sistema 20 puede incluir un transmisor
inalámbrico (no mostrado) que transmite la señal combinada 71 a los
receptores 75. Cualquier técnica para transmitir la señal combinada
71 a los receptores 75 debería ser apropiada para poner en práctica
el presente invento.
En la Figura 3 se muestra una vista más
detallada del receptor 75. El receptor 75 incluye preferiblemente
un demodulador 82. El demodulador 82 está configurado para demodular
la señal combinada 71 y para separar (es decir, demultiplexar) la
señal combinada 71 en señales 84 sobre la base de la frecuencia, de
forma que cada señal 84 se corresponde respectivamente con una de
las señales demoduladas 84. En otras palabras, el demodulador 82
recupera las señales individuales 64 como señales 84, y cada señal
84 está, por tanto, definida por las mismas señales de vídeo y de
audio 22 y 25 que definen su correspondiente señal modulada 64. Por
lo tanto, al igual que las señales moduladas 64, cada señal 84 está
preferiblemente compuesta por una única combinación de señales de
vídeo y de audio 22 y 25.
Las señales 84 son transmitidas desde un
demodulador 82 a un multiplexador 88, el cual también recibe señales
de control 92 de una interfaz de usuario 94. La interfaz de usuario
94 preferiblemente incluye botones u otros tipos de conmutadores
que permiten a un espectador seleccionar una de las señales 84 a
través de las señales de control 92. A este respecto, el
multiplexador 88, mediante técnicas bien conocidas en el oficio,
selecciona una de las señales 84 sobre la base de las señales de
control 92 y genera la señal seleccionada 84 como señal de salida
97, como se muestra en la Figura 8.
El receptor 75 incluye un filtro 41 de la señal
de audio configurado para eliminar la o las señales de audio 25 de
la señal 97. Por lo tanto, solamente la o las señales de vídeo 22
dentro de la señal 97 son transmitidas a una pantalla de
visualización 101 que está configurada para ofrecer al espectador la
o las señales de vídeo recibidas 22 (es decir, visualiza una imagen
definida por la o las señales de vídeo recibidas 22).
El receptor 75 también incluye un filtro de
señal de vídeo 43 configurado para eliminar la o las señales de
vídeo 22 de la señal 97. Por lo tanto, solamente la o las señales de
audio 25 dentro de la señal 97 son transmitidas a un altavoz 103,
el cual está configurado para producir sonidos definidos por la o
las señales de audio recibidas 25, mediante técnicas bien conocidas
en el oficio.
En la realización preferida la pantalla de
visualización 101 y el altavoz 103 están incluidos dentro de un
visualizador montado en la cabeza (HMD), el cual es discutido
posteriormente con más detalle. Utilizando dispositivos montados en
la cabeza se puede mejorar la experiencia del espectador. Por
ejemplo, cuando se usa un visualizador montado en la cabeza para
mostrar una imagen desde dentro del vehículo desde una cámara
situada en un coche de un conductor durante una carrera de coches
el espectador ve una imagen similar a la del conductor del coche.
Debido a que el visualizador montado en la cabeza limita la vista
periférica que tiene el espectador del entorno alrededor de él, el
usuario naturalmente enfoca la imagen proporcionada por el
visualizador montado en la cabeza. Por lo tanto, el usuario puede
sentir casi lo mismo que si estuviera conduciendo el coche junto con
el conductor, lo que aumenta la experiencia del espectador. El
visualizador montado en la cabeza puede igualmente mejorar la
experiencia del espectador en otros eventos tales como eventos
deportivos de otro tipo, por ejemplo.
Además, cuando la señal combinada 71 es
transmitida a través de un cable coaxial el receptor 75 puede estar
situado en un asiento de un espectador en un estadio o en cualquier
otro sitio apropiado. Cuando la señal combinada 71 es transmitida a
través de un transmisor inalámbrico el receptor 75 es portátil y un
espectador puede llevar el receptor 75 con él y elegir dónde
querría ver las imágenes y oír los sonidos producidos por el
receptor 75.
Por lo tanto, el espectador puede permanecer en
su asiento (o en cualquier otro lugar apropiado) y controlar
manipulando los botones u otro tipo de conmutadores en la interfaz
de usuario 94, cuya combinación de señales de vídeo y de audio 22 y
25 son respectivamente transmitidas a una pantalla de visualización
101 y a un altavoz 103. Por lo tanto, el sistema 20 da al
espectador más flexibilidad sobre cómo ve la carrera y, como
resultado, hace que disfrute más de la experiencia de la
carrera.
Se debería observar que las señales de vídeo 22
y las señales de audio 25 puede ser transmitidas independientemente
al receptor 75. Por ejemplo, las señales de vídeo 22 pueden ser
procesadas y transmitidas al receptor 75 a través del dispositivo
de interfaz 28 u otro tipo de dispositivo, y las señales de audio 25
pueden ser transmitidas al receptor 75 a través de otro
dispositivo. Mediante técnicas convencionales el receptor 75 puede
estar además configurado para seleccionar las señales de audio y de
vídeo 25 y 22 para ser transmitidas al dispositivo de visualización
101 y al
altavoz 103.
altavoz 103.
Muchos tipos diferentes de visualizadores
montados en la cabeza pueden ser empleados para poner en práctica
el presente invento. Ejemplos de visualizadores montados en la
cabeza que pueden utilizarse para poner en práctica el presente
invento se describen de forma completa en la Patente de EEUU Nº
5.844.656 titulada "Visualizador montado en la cabeza con
componentes de ajuste" y presentada el 7 de noviembre de 1996 por
Ronzani y otros, y la Patente de EEUU Nº 5.903.395 titulada
"Sistema de representación visual personal" y presentada el 31
de agosto de 1994 por Rallison y otros, que son ambas incorporadas
aquí como referencia. Las Figuras 4 y 5 representan un visualizador
montado en la cabeza (HMD) 151 descrito por la Patente de EEUU Nº
5.903.395.
Como se ha representado en la Figura 4, el HMD
151 incluye un componente principal 152 que contiene la electrónica
u óptica utilizadas para proporcionar una representación visual al
espectador. El HMD 151 incluye también las patillas izquierda y
derecha 154a y 154b que pueden ser usadas para ayudar y mantener la
parte principal 152 en la posición deseada para proporcionar la
salida de vídeo a los ojos del espectador. Se puede disponer un
conductor de acoplamiento 156 para ayudar además a sostener el
aparato en la posición deseada con respecto a la cabeza 158 del
espectador. Se puede disponer una cabecera frontal 161 para ayudar
además a colocar de forma apropiada la parte principal 152. La
cabecera frontal 161 es útil para transferir parte del peso del
aparato a la frente del espectador. Esto puede proporcionar una
configuración más cómoda que cuando sustancialmente todo el peso es
transferido a través de otros componentes tales como las patillas
154a y 154b, el conductor de acoplamiento de la cabeza 156 y/o una
pieza de puente sobre la nariz (no mostrada) que pueden ser usadas
en otros tipos de HMDs.
Como puede verse en la Figura 5, la cabecera
frontal 161 de la cabeza se extiende hacia atrás una distancia 165
desde la parte principal 152 del aparato. Como consecuencia, hay una
cantidad de espacio 166 entre la posición del ojo 167 del
espectador y la parte 168 del aparato que se encuentra en la parte
frontal de los ojos del espectador suficiente para poner las gafas
del espectador, por ejemplo aproximadamente una pulgada o más (en
una realización, aproximadamente 25 mm).
Está dispuesta una conexión para establecer
comunicación o transferencia de datos al HMD 151 que, en la
realización representada, tiene un cable 171 montado a lo largo del
lado inferior de la patilla 154b. Como ejemplo, el demodulador 82
(Figura 3), el multiplexador 88, y la interfaz de usuario 94 pueden
estar incluidos en un dispositivo independiente del HMD 151
mostrado en las Figuras 4 y 5. El cable 171 puede transmitir las
señales 97 (Figura 3) a los filtros 41 y 43, que están situados en
la parte principal 152. Las señales filtradas procedentes de los
filtros 41 y 43 pueden ser respectivamente transmitidas al
dispositivo de visualización 101 (Figura 3) y al altavoz 103
(Figura 3) a través de otros cables u otros tipos de conexiones.
Como puede verse en las Figuras 4 y 5, los
altavoces 103a y 103b están respectivamente dispuestos en cada oído
del espectador. Además, el dispositivo de visualización 101 (Figura
3) está formado por dos visualizadores de cristal líquido (LCDs)
175 que reciben señales de vídeo y producen imágenes sobre la base
de las señales de vídeo recibidas mediante técnicas bien conocidas
en el oficio. Cada uno de los LCDs 175 está colocado enfrente de un
respectivo ojo del espectador de forma que cada ojo del espectador
ve una imagen producida por uno de los LCDs 175.
En la realización representada un conmutador
oscilante 179 puede usarse para proporcionar el control de un
parámetro que varía a lo largo de una gama tal como el volumen del
sonido producido por los altavoces 103a y 103b. Otros elementos que
podrían ser controlados de esta forma incluyen, pero no están
limitados a, tinte, tonalidad o contraste del vídeo, selección de
una fuente de vídeo y/o de audio tal como la selección de canal,
brillo de la imagen, tono de audio (es decir, control agudos/graves)
y similares. Se puede usar un conmutador deslizante 181, por
ejemplo para seleccionar entre elecciones discretas. Por ejemplo, el
conmutador deslizante 181 puede usarse para seleccionar izquierda,
derecha o ajuste con independencia de la fase de trama, para
seleccionar entre imágenes estereoscópicas y no estereoscópicas,
etc. Pueden también usarse otros controles y/o indicadores y pueden
estar montados en diversas superficies del aparato montado en la
cabeza mostrado en la Figura 4.
El altavoz izquierdo 103a está unido de forma
móvil al extremo de la patilla 154a, por ejemplo mediante un brazo
pivotante 185a que puede ajustarse lateralmente a una ranura de
montaje 188a en las patillas 154a. El altavoz 103a puede ser
mantenido en posición mediante rozamiento o se puede usar un
apretador de retención 189 para fijar el altavoz 103a en la
posición deseada. El altavoz derecho 103b está similarmente fijado a
la patilla 154b. Los cables 191a y 191b se usan respectivamente en
el HMD 151 de la Figura 4 para proporcionar las señales deseadas a
los altavoces 103a y 103b, respectivamente. El conductor de
acoplamiento en la cabeza 156 está preferiblemente acoplado con las
patillas 154a y 154b a través de unos pivotes, abrazaderas, o
anillos en forma de D derechos o izquierdos del conductor de
acoplamiento 195a y 195b. Un mecanismo de ajuste de longitud y/o de
tensión tal como una hebilla, por ejemplo, puede estar dispuesto en
el conductor de acoplamiento 156.
En muchos eventos deportivos (por ejemplo
carreras de automóviles, en particular), se producen ruidos
relativamente altos. Por lo tanto, sería difícil para un usuario
oír las señales de audio seleccionadas a través de muchos
dispositivos montados en la cabeza convencionales, tal como el
representado en las Figuras 4 y 5. Por lo tanto, los inventores han
diseñado un HMD 250 que incluye dispositivos de reducción de ruido
252a y 252b para reducir la cantidad de ruido externo oído por un
espectador, como se muestra en la Figura 6.
Similar al HMD 151 de la Figura 4, el HMD 250
incluye patillas 259a y 259b que están conectadas a la parte
principal 152. La parte principal 152 y las patillas 259a y 259b
forman un montaje en la cabeza al que pueden acoplarse otros
componentes del HMD 151. Cada dispositivo de reducción de ruido 252a
y 252b está diseñado de forma similar y está respectivamente
acoplado a las patillas 259a y 259b de tal forma que cada
dispositivo 252a y 252b se ajusta sobre un respectivo oído de un
espectador durante su uso.
A este respecto, cada dispositivo de reducción
de ruido 252a y 252b forma una concha en forma de copa que tiene un
entrante 267 (Figuras 7A-7D). Preferiblemente, un
colchón almohadillado 271, tal como el descrito en la Patente de
EEUU Nº 4.856.118 titulada "Acolchamiento de auriculares", que
está aquí incorporada como referencia, está colocado en la boca de
cada dispositivo 252a y 252b, como se muestra en las Figuras
7A-7D, de forma que los dispositivos de reducción
de ruido 252a y 252b se aplican de forma cómoda en la cabeza del
espectador durante su uso. Cuando el dispositivo 252a y 252b está
aplicado en la cabeza del espectador, el oído del espectador se
ajusta en el entrante 267, y el dispositivo aplicado 252a o 252b
impide que los ruidos exteriores lleguen al oído. Por lo tanto, los
dispositivos 252a y 252b son similares a los auriculares descritos
en la Patente de EEUU Nº 5.023.955 titulada "Auriculares
absorbentes de impactos y atenuadores de ruido", presentada el
13 de abril de 1989, por Murphy, II y otros, que está aquí
incorporada como referencia.
Similar a la Patente de EEUU Nº 5.018.599,
titulada "Dispositivo de auricular", y presentada el 18 de
septiembre de 1989, por Masahito y otros, que está aquí incorporada
como referencia, cada dispositivo de reducción de ruido 252a y 252b
está respectivamente acoplado a y aloja unos altavoces 103a y 103b.
Los altavoces 103a y 103b están respectivamente acoplados a los
cables 191a y 191b y producen un sonido que corresponde a las
señales de audio transmitidas a través de los cables 191a y 191b.
En consecuencia, en uso, aunque los ruidos externos se atenúan el
espectador puede claramente oír las señales de audio seleccionadas
producidas por los altavoces 103a y 103b.
A continuación se describirá con más detalle el
dispositivo 252a. Sin embargo, debería ser evidente para un experto
en la técnica que el dispositivo 252b tiene las mismas
características que el dispositivo 252a excepto que el dispositivo
252b está acoplado a la patilla 259b (en vez de a la pieza 259a) y
está diseñado para cubrir el oído opuesto del espectador.
Con referencia a las Figuras 7A, 8A y 8B, el
dispositivo 252a incluye preferiblemente un elemento 281 que tiene
una ranura 283 adaptada para recibir la patilla 259a. El elemento
281 incluye también un agujero 286. En funcionamiento, la patilla
259a atraviesa la ranura 283, y un elemento de fijación 288 (Figura
9), tal como un perno o un tornillo, por ejemplo, atraviesa el
agujero 286 y atraviesa una ranura 264 (Figura 9) en la patilla
259a.
El elemento de fijación 288 está preferiblemente
fijado a la patilla 259a y al elemento 281 mediante cualquier
técnica apropiada. Por ejemplo, el elemento de fijación 288 puede
ser atornillado mediante el elemento 281 a través del agujero 286,
y el elemento de fijación 288 puede también ser atornillado mediante
una pieza 291 (Figura 9) situada en un lado de la patilla 259a
opuesta al elemento 281. Por lo tanto, el elemento 281 está fijado
a la patilla 259a mediante el elemento de fijación 288. Sin embargo,
resultaría evidente a un experto en el oficio que otros
dispositivos y metodologías pueden emplearse para fijar el elemento
281 a la patilla 259a.
\newpage
Como se muestra en la Figura 10, en un lado de
la patilla está formado un nervio 301 que se aplica en una pared
299 (Figura 7A) de la ranura 283. Como se muestra en la Figura 7A,
una parte de la pared 299 de la ranura 283 incluye una serie de
muescas 303 siendo cada una de ellas capaz de recibir el nervio 301.
Cuando el nervio 301 es recibido por una muesca 303, como se
muestra en la Figura 9, cualquier fuerza que tienda a mover el
dispositivo 252a con relación a la patilla 259a en la dirección X
hace que el nervio 301 haga presión contra una parte de la pared
299 que forma la muesca 303 hasta que el dispositivo 252a sea
empujado con una fuerza suficiente para deformar una parte flexible
311 de la patilla 259a. La parte flexible 311 está colocada contigua
a la ranura 312 para permitir que la parte flexible 311 se deforme
separándose de la superficie 299. Una vez ocurrido esto, el nervio
301 se mueve más fácilmente pasada la muesca 303, permitiendo a la
patilla 259a moverse con relación al elemento 281 y, por lo tanto,
al dispositivo 252a. La parte flexible 311 preferiblemente tiene
una elasticidad suficiente para volver a su estado no deformado
antes de que el nervio 301 se mueva pasada la muesca 303. Por
consiguiente, después de moverse pasada la muesca anteriormente
mencionada 303, el nervio 301 debería aplicarse en una parte de la
pared que forma otra muesca 303.
Por lo tanto, el usuario puede deslizar el
dispositivo 252a en la dirección X a lo largo de la longitud de la
patilla 259a haciendo que el nervio 301 sea recibido por muescas
diferentes 303 hasta que el dispositivo 252a esté adecuadamente
situado con relación a la cabeza del espectador (es decir, hasta que
el oído del espectador esté cómodamente colocado dentro del
entrante 267 del dispositivo 252a).
Una vez que el espectador se detiene deslizando
el dispositivo 252a y el nervio 301 es recibido por una de las
muescas 303, la posición del dispositivo 252a con relación a la
patilla 259a y, por lo tanto, a la cabeza del espectador debería
permanecer constante hasta que se ejerza sobre el HMD 250 una fuerza
suficiente para deformar la parte flexible.
Como se muestra en la Figura 6, el dispositivo
252a está preferiblemente asegurado a un extremo del conductor de
acoplamiento 156. Por lo tanto, cada extremo del conductor de
acoplamiento 156 está adaptado a cada uno de los dispositivos de
reducción de ruido 252a y 252b. Para asegurar los dispositivos 252a
y 252b al conductor de acoplamiento 156, cada dispositivo 252a y
252b puede incluir una grapa, presilla, abrazadera, anillo 304 u
otro tipo de dispositivo de sujeción. La longitud del conductor de
acoplamiento 156 puede ajustarse mediante técnicas convencionales
para ajustar el tamaño del HMD 250. Por lo tanto, para colocarse el
HMD 250, un usuario coloca la cabecera frontal 161 (Figura 6)
contra la parte delantera de su cabeza y coloca el conductor de
acoplamiento 156 alrededor de la parte trasera de su cabeza. El
espectador aprieta entonces el conductor de acoplamiento 156 (es
decir, reduce la longitud del conductor de acoplamiento 156) hasta
que el HMD 250 esté cómodamente situado en su sitio. El espectador
ajusta la posición de los dispositivos 252a y 252b deslizando
respectivamente los dispositivos 252a y 252b a lo largo de la
longitud de la patilla 259a y 259b en la dirección X hasta que los
dispositivos 252a y 252b estén situados adecuadamente. Entonces, el
espectador puede además apretar el conductor de acoplamiento 156
como desee para posteriormente presionar la cabecera frontal 161 y
los dispositivos 252a y 252b contra la cabeza del espectador.
A este respecto, al apretar el conductor de
acoplamiento 156 se reduce la circunferencia del HMD 250, con lo
que presiona cada dispositivo 252a y 252b y la cabecera frontal 161
además contra la cabeza del espectador. Hasta un cierto grado,
cuanto más se aprieta el conductor de acoplamiento 156 tanto más se
atenúa el ruido exterior, y es menos probable que el HMD 250 se
mueva con respecto a la cabeza del espectador. Por lo tanto, el
espectador puede apretar o aflojar
el conductor de acoplamiento 156 como desee hasta que se consiga el ajuste deseado y la reducción de ruido deseada.
el conductor de acoplamiento 156 como desee hasta que se consiga el ajuste deseado y la reducción de ruido deseada.
Se debería observar que es posible cambiar la
posición del nervio 301 con las muescas 303. En otras palabras, es
posible formar el nervio 301 en una parte flexible del dispositivo
252a y formar las estrías 303 en la patilla 259a sin afectar
materialmente a las características o al funcionamiento del HMD
250.
A continuación se describe el uso y
funcionamiento preferidos del sistema de vídeo/audio 20 y la
metodología asociada.
Se acepta con fines ilustrativos que un
espectador querría asistir a una carrera de coches y querría tener
acceso a una visión desde dentro de un coche desde una cámara dentro
del coche de su conductor favorito. Además, el espectador querría
también oír continuamente el diálogo entre el conductor
anteriormente mencionado y su equipo de mecánicos, así como los
comentarios proporcionados por su comentarista de radio favorito.
Sería evidente que otras imágenes y/o sonidos podrían ser deseables
en otros ejemplos.
En el pasado el espectador tenía que atender a
la competición y comprar (así como sintonizar) una radio para
recibir los comentarios del comentarista y una radio para recibir
las señales de radio transmitidas entre el conductor y su equipo de
mecánicos. Después, el espectador situaría un monitor en el estadio
visionando las imágenes de dentro del coche que deseara ver,
suponiendo que dispusiera de tal monitor. El espectador
permanecería entonces dentro del campo de visión del monitor y
escucharía las dos radios. Si el monitor no está situado en un
lugar apropiado para ver la carrera, el espectador tendría que
elegir entre ver el monitor y ver la carrera en un lugar deseado.
Además, la manipulación de varias radios es generalmente pesada y
distrae la atención.
Sin embargo, de acuerdo con el presente invento,
el usuario atiende la carrera y está provisto de un receptor 75
para su uso individual. En la realización preferida, el receptor 75
está situado en el asiento del espectador dentro del estadio. Sin
embargo, el receptor 75 puede estar situado en otros lugares
convenientes, y cuando la señal combinada 71 es transmitida a
través de un transmisor inalámbrico, el espectador puede llevar el
receptor 75 con él a cualquier lugar deseado dentro o en los
alrededores del estadio.
El receptor preferiblemente incluye el HMD 250
representado en la Figura 8. Por lo tanto, el espectador se pone el
HMD 250 de forma que la cabecera frontal 161 esté presionada contra
la parte delantera de la cabeza y cada dispositivo de reducción de
ruido 252a y 252b cubra un oído del espectador. Entonces, el
espectador ajusta la longitud del conductor de acoplamiento 156
hasta que el HMD 250 se ajuste apropiadamente sobre su cabeza. El
espectador manipula entonces los botones u otro tipo de conmutadores
en la interfaz del usuario 94 para controlar qué señal 84 es
generada por el multiplexador 88 y, por lo tanto, qué señales 22 y
25 se transmiten a través de cable 171 al HMD 250. Mediante
técnicas conocidas en el oficio, las imágenes definidas por las
señales de vídeo transmitidas por el cable 171 son mostradas por el
dispositivo de visualización 101 (por ejemplo, los LCDs 175), y los
sonidos definidos por las señales de audio transmitidas por el cable
171 son producidos por los altavoces 103a y 103b, los cuales están
respectivamente situados dentro de los dispositivos 252a y 252b. En
consecuencia, el espectador puede usar el receptor 75 para ver las
imágenes deseadas de la carrera (es decir, la imagen de dentro del
coche) y oír los sonidos deseados de la
carrera (es decir, el diálogo entre el conductor y su equipo de mecánicos, y los comentarios del comentarista de radio).
carrera (es decir, el diálogo entre el conductor y su equipo de mecánicos, y los comentarios del comentarista de radio).
A este respecto, el dispositivo de interfaz 28
preferiblemente recibe al menos una señal de vídeo 22 que define la
imagen desde dentro del coche de su conductor favorito y una
pluralidad de señales de audio 25 que definen el diálogo entre su
conductor favorito y su equipo de mecánicos, así como los
comentarios de su comentarista de radio favorito. Al menos uno de
los combinadores de audio 52 combina estas señales de audio 25 en
una señal combinada 55. Uno de los moduladores de señal 61 recibe
esta señal combinada 55 y la señal de vídeo 22 que define la imagen
deseada desde dentro del coche. Esta señal de vídeo es modulada y
combinada con la señal combinada previa 55 por uno de los
moduladores de señal 61 para crear una señal modulada 64. Esta señal
modulada 64 se combina con otras señales moduladas 64 y se
transmite al receptor del espectador 75 a través de un combinador
67.
El demodulador 82 en el receptor del espectador
75 demodula y separa la señal recibida 71 en señales independientes
84. Sobre la base de las señales de control 92 recibidas de la
interfaz de usuario 94, el multiplexador 88 permite que pase
solamente la señal 84 definida por las señales de vídeo y de audio
22 y 25 anteriormente mencionadas. Por lo tanto, estas señales de
vídeo y de audio 22 y 25 son respectivamente transmitidas al
dispositivo de visualización 101 y a los altavoces 103a y 103b y el
espectador puede disfrutar de la imagen y sonido que ha
seleccionado.
Se debería observar que no es necesario para el
espectador mantener el receptor 75 dentro del estadio. A este
respecto, la señal 71 puede ser transmitida a vía satélite y/o redes
de comunicación a diversos lugares en todo el mundo, y el
espectador puede seleccionar las imágenes y sonidos que prefiera de
cualquier lugar capaz de recibir la señal 71.
También se debería observar que el receptor 75
puede ser recuperado del espectador después de que el espectador
haya finalizado de ver el evento, de forma que el receptor puede ser
dado a otro espectador para otro evento en el estadio. A cada
espectador se le cobra preferiblemente una tasa de uso por la
utilización del receptor 75. Se debería observar que una parte del
receptor 75 puede estar instalada en el asiento del espectador de
forma que el usuario sólo necesite recuperar el HMD 151 y/o otros
componentes del receptor 75 durante el evento y devolver después
del evento los componentes recuperados. Además, todo el receptor 75
puede ser instalado en el asiento del espectador de forma que ese
espectador sólo necesita pagar por el uso del receptor.
Además, puede ser deseable para una de las
señales de audio 25 tener una mayor amplitud que las otras señales
de audio 25. Por ejemplo, un espectador puede desear oír comentarios
de un comentarista de radio a menos que se produzca una
comunicación entre su conductor favorito y su equipo de mecánicos.
Cuando se produce la comunicación entre el conductor y su equipo de
mecánicos, el espectador oiría más bien esta comunicación en lugar
de los comentarios del comentarista de radio.
Por lo tanto, uno de los combinadores de audio
25 es preferiblemente usado para combinar una primera señal de
audio 25 que define los comentarios del comentarista de radio y una
segunda señal de audio que define las comunicaciones entre el
conductor y su equipo de mecánicos preferiblemente aumenta la
amplitud de la segunda señal de audio 25 con relación a la primera
señal de audio. Esto puede realizarse aumentando la amplitud de la
segunda señal de audio 25 con un amplificador o atenuando la
amplitud de la primera señal de audio 25 con un atenuador. Por lo
tanto, cuando la señal combinada 55 producida por el combinador de
audio 52 anteriormente mencionado es en último lugar recibida por
el receptor 75 del espectador, el cual produce un sonido sobre la
base de esta señal combinada 55, el usuario oye los comentarios del
comentarista de radio cuando no existe comunicación entre el
conductor y su equipo de mecánicos. Sin embargo, cuando existe una
comunicación entre el conductor y su equipo de mecánicos esta
comunicación es más alta que los comentarios del comentarista de
radio. Por lo tanto, el espectador puede claramente oír las
comunicaciones entre el conductor y su equipo de mecánicos aun
cuando la capacidad de oír claramente los comentarios del
comentarista de radio esté deteriorada. Se debería observar que las
técnicas anteriormente mencionadas para aumentar la amplitud de una
señal de audio 25 con relación a otras pueden emplearse para
diferentes combinaciones de señales de audio 25 y no están limitadas
a la combinación a modo de ejemplo descrita anteriormente.
Además, también se debería observar que el
presente invento ha sido descrito aquí en el contexto de las
carreras de coches. Sin embargo, el sistema 20 puede ser útil.
Se debería resaltar que las realizaciones del
presente invento anteriormente descritas, particularmente
cualesquiera realizaciones "preferidas", son solamente
posibles ejemplos de puestas en práctica, solamente expuestas para
un claro entendimiento de los principios del invento. Se pueden
hacer muchas variaciones y modificaciones en las realizaciones
anteriormente descritas del invento sin apartarse del
sustancialmente del ámbito del invento. Se pretende que tales
modificaciones y variaciones se incluyan aquí dentro del ámbito del
presente invento y protegidas por las reivindicaciones.
Claims (16)
1. Un método que comprende los pasos de:
- recibir una pluralidad de señales de audio asociadas con un evento;
- recibir una pluralidad de señales de vídeo asociadas con dicho evento;
- combinar dichas señales de audio y de vídeo para formar una señal multiplexada que incluye una pluralidad de señales combinadas, definiendo dichas señales combinadas combinaciones diferentes de dichas señales de vídeo y de audio;
- transmitir dicha señal multiplexada a receptores portátiles (75) que son llevados por usuarios a cualquier lugar deseado en o alrededor de dicho evento, recibiendo dicha señal multiplexada en el receptor portátil (75);
- demultiplexar, en los receptores portátiles (75) dicha señal multiplexada para recuperar dichas señales de audio y de vídeo;
- recibir del usuario entradas en el receptor portátil (75);
- seleccionar en el receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada y al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dichas entradas realizadas por dicho usuario;
- visualizar en un dispositivo de visualización (101) del receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección; y
- producir en un altavoz (103) del receptor portátil (75) el sonido definido por al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección.
2. El método de la reivindicación 1, que además
comprende el paso de realizar dicho paso de visualización a través
de un visualizador montado en la cabeza (151).
3. El método de la reivindicación 1, en el que
al menos una de dichas señales de audio es transmitida desde una
radio de ultra alta frecuencia (UHF).
4. El método de la reivindicación 1, en el que
dicha pluralidad de señales de audio incluye una primera señal de
audio que define un sonido y una segunda señal de audio que define
dicho sonido y en el que dicha primera señal de audio está incluida
dentro de una de dichas señales combinadas y dicha segunda señal de
audio está incluida en otra de dichas señales combinadas.
5. El método de la reivindicación 1, en el que
dicha pluralidad de señales de vídeo incluye una primera señal de
vídeo que define una imagen y una segunda señal de vídeo que define
dicha imagen, y en el que dicha primera señal de vídeo está
incluida dentro de una de dichas señales combinadas y dicha segunda
señal de vídeo está incluida en otra de dichas señales
combinadas.
6. El método de la reivindicación 1, en el que
el paso de recibir una pluralidad de señales de audio comprende
además recibir al menos una señal de audio asociada con dicho
evento, y el paso de recibir una pluralidad de señales de vídeo
comprende además recibir al menos una señal de vídeo asociada con
dicho evento.
7. El método de la reivindicación 6, en el que
cada una de dicha pluralidad de señales combinadas incluye al menos
una de dichas señales de audio y al menos una de dichas señales de
vídeo.
8. El método de la reivindicación 6, en el que
una de dichas señales de audio es transmitida desde una emisora de
radio.
9. El método de la reivindicación 6, en el que
una de dichas señales de audio es transmitida desde una radio de
ultra alta frecuencia (UHF) situada en dicho evento.
10. El método de la reivindicación 6, en el que
dicho evento es un evento deportivo o una carrera de coches.
11. Un sistema que comprende:
- un medio para recibir una pluralidad se señales de audio asociadas con un evento;
- un medio para recibir una pluralidad se señales de vídeo asociadas con dicho evento;
- un medio para combinar dichas señales de audio y de vídeo para formar una señal multiplexada que incluye una pluralidad de señales combinadas, definiendo dichas señales combinadas diferentes combinaciones de dichas señales de vídeo y de audio;
- un medio para transmitir dicha señal multiplexada a receptores portátiles (75) que son llevados por los usuarios a algún lugar deseado o alrededor de dicho evento;
- un medio para recibir dicha señal multiplexada en el receptor portátil (75);
- un medio para demultiplexar, en los receptores portátiles (75), dicha señal multiplexada para recuperar dichas señales de audio y de vídeo;
- un medio para recibir del usuario entradas en el receptor portátil (75);
- un medio para seleccionar en el receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada y al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dichas entradas realizadas por dicho usuario;
- un medio para visualizar en un visualizador (101) del receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección; y
- un medio para producir en un altavoz (103) del receptor portátil (75) un sonido definido por al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección.
12. El sistema (20) de la reivindicación 11, en
el que dicho visualizador (101) y el altavoz (103) de cada receptor
(75) están incluidos en el visualizador montado en la cabeza (151)
para visualizar al menos una señal de vídeo seleccionada y producir
dichos sonidos sobre la base de al menos una señal de audio
seleccionada.
13. El sistema (20) de la reivindicación 11, en
el que el medio para combinar (52, 67) comprende un combinador de
señales (67) que combina las señales de audio y de vídeo en dicha
señal multiplexada (71) y en el que los receptores portátiles (75)
reciben inalámbricamente dicha señal multiplexada (71) y reproduce
una de las señales de audio (25) seleccionadas y una de las señales
de vídeo (22) seleccionadas.
14. El sistema (20) de la reivindicación 11, en
el que el medio para combinar (52, 67) comprende un combinador de
audio (52) que recibe solamente una señal de audio (25) y genera
una señal de audio combinada (55) que se corresponde con la señal
de audio (25) recibida por el combinador de audio (52).
15. El sistema (20) de la reivindicación 11, que
además comprende una pluralidad de moduladores de señal (61) que
modulan las correspondientes señales de audio y de vídeo que son
recibidas en una única gama de frecuencias.
16. El sistema (20) de la reivindicación 11, en
el que cada uno de los receptores portátiles (75) incluye un
demodulador (82) configurado para demodular y separar las señales de
audio y de vídeo que son recibidas sobre la base de la
frecuencia.
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12334199P | 1999-03-08 | 1999-03-08 | |
US123341P | 1999-03-08 | ||
US09/322,411 US6578203B1 (en) | 1999-03-08 | 1999-05-28 | Audio/video signal distribution system for head mounted displays |
US322411 | 1999-05-28 | ||
US13732399P | 1999-06-03 | 1999-06-03 | |
US137323P | 1999-06-03 | ||
US386613 | 1999-08-31 | ||
US09/386,613 US7124425B1 (en) | 1999-03-08 | 1999-08-31 | Audio/video system and method utilizing a head mounted apparatus with noise attenuation |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2331175T3 true ES2331175T3 (es) | 2009-12-23 |
Family
ID=27494481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES00917791T Expired - Lifetime ES2331175T3 (es) | 1999-03-08 | 2000-03-08 | Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento. |
Country Status (11)
Country | Link |
---|---|
US (1) | US7124425B1 (es) |
EP (2) | EP1166596B1 (es) |
JP (1) | JP2002539701A (es) |
CN (1) | CN100353771C (es) |
AT (1) | ATE443411T1 (es) |
AU (1) | AU779175B2 (es) |
CA (2) | CA2369832C (es) |
DE (1) | DE60042967D1 (es) |
ES (1) | ES2331175T3 (es) |
PT (1) | PT1166596E (es) |
WO (1) | WO2000054554A1 (es) |
Families Citing this family (123)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7162532B2 (en) | 1998-02-23 | 2007-01-09 | Koehler Steven M | System and method for listening to teams in a race event |
US6578203B1 (en) | 1999-03-08 | 2003-06-10 | Tazwell L. Anderson, Jr. | Audio/video signal distribution system for head mounted displays |
US20020057364A1 (en) | 1999-05-28 | 2002-05-16 | Anderson Tazwell L. | Electronic handheld audio/video receiver and listening/viewing device |
US7210160B2 (en) * | 1999-05-28 | 2007-04-24 | Immersion Entertainment, L.L.C. | Audio/video programming and charging system and method |
JP2002051320A (ja) * | 2000-05-10 | 2002-02-15 | Sharp Corp | データ記録装置、それを用いた興行記録システム、興行用入場券、データ記録のためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US8482488B2 (en) | 2004-12-22 | 2013-07-09 | Oakley, Inc. | Data input management system for wearable electronically enabled interface |
US6325507B1 (en) | 2000-06-02 | 2001-12-04 | Oakley, Inc. | Eyewear retention system extending across the top of a wearer's head |
US7461936B2 (en) * | 2000-06-02 | 2008-12-09 | Oakley, Inc. | Eyeglasses with detachable adjustable electronics module |
US20120105740A1 (en) | 2000-06-02 | 2012-05-03 | Oakley, Inc. | Eyewear with detachable adjustable electronics module |
US7782363B2 (en) | 2000-06-27 | 2010-08-24 | Front Row Technologies, Llc | Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences |
US7796162B2 (en) | 2000-10-26 | 2010-09-14 | Front Row Technologies, Llc | Providing multiple synchronized camera views for broadcast from a live venue activity to remote viewers |
US7630721B2 (en) | 2000-06-27 | 2009-12-08 | Ortiz & Associates Consulting, Llc | Systems, methods and apparatuses for brokering data between wireless devices and data rendering devices |
US7149549B1 (en) | 2000-10-26 | 2006-12-12 | Ortiz Luis M | Providing multiple perspectives for a venue activity through an electronic hand held device |
US7812856B2 (en) | 2000-10-26 | 2010-10-12 | Front Row Technologies, Llc | Providing multiple perspectives of a venue activity to electronic wireless hand held devices |
US8583027B2 (en) | 2000-10-26 | 2013-11-12 | Front Row Technologies, Llc | Methods and systems for authorizing computing devices for receipt of venue-based data based on the location of a user |
CA2348353A1 (en) | 2001-05-22 | 2002-11-22 | Marc Arseneau | Local broadcast system |
US7013009B2 (en) | 2001-06-21 | 2006-03-14 | Oakley, Inc. | Eyeglasses with wireless communication features |
US8409024B2 (en) * | 2001-09-12 | 2013-04-02 | Pillar Vision, Inc. | Trajectory detection and feedback system for golf |
US7593687B2 (en) | 2003-10-07 | 2009-09-22 | Immersion Entertainment, Llc | System and method for providing event spectators with audio/video signals pertaining to remote events |
US20050280705A1 (en) * | 2004-05-20 | 2005-12-22 | Immersion Entertainment | Portable receiver device |
WO2007009225A1 (en) | 2005-07-22 | 2007-01-25 | Kangaroo Media Inc. | System and methods for enhancing the experience of spectators attending a live sporting event |
US8042140B2 (en) | 2005-07-22 | 2011-10-18 | Kangaroo Media, Inc. | Buffering content on a handheld electronic device |
US8929870B2 (en) | 2006-02-27 | 2015-01-06 | Qualcomm Incorporated | Methods, apparatus, and system for venue-cast |
CA2569967A1 (en) * | 2006-04-07 | 2007-10-07 | Marc Arseneau | Method and system for enhancing the experience of a spectator attending a live sporting event |
WO2008035612A1 (fr) * | 2006-09-19 | 2008-03-27 | Nikon Corporation | Dispositif de sortie et écran pouvant être porté |
US7740353B2 (en) | 2006-12-14 | 2010-06-22 | Oakley, Inc. | Wearable high resolution audio visual interface |
US9136957B1 (en) * | 2006-12-21 | 2015-09-15 | Sprint Communications Company L.P. | Mobile device activation for events |
US9430074B2 (en) | 2008-01-04 | 2016-08-30 | Tactus Technology, Inc. | Dynamic tactile interface |
US8456438B2 (en) | 2008-01-04 | 2013-06-04 | Tactus Technology, Inc. | User interface system |
US8704790B2 (en) | 2010-10-20 | 2014-04-22 | Tactus Technology, Inc. | User interface system |
US9063627B2 (en) | 2008-01-04 | 2015-06-23 | Tactus Technology, Inc. | User interface and methods |
US8179375B2 (en) | 2008-01-04 | 2012-05-15 | Tactus Technology | User interface system and method |
US9423875B2 (en) | 2008-01-04 | 2016-08-23 | Tactus Technology, Inc. | Dynamic tactile interface with exhibiting optical dispersion characteristics |
US9552065B2 (en) | 2008-01-04 | 2017-01-24 | Tactus Technology, Inc. | Dynamic tactile interface |
US8947383B2 (en) | 2008-01-04 | 2015-02-03 | Tactus Technology, Inc. | User interface system and method |
US9274612B2 (en) | 2008-01-04 | 2016-03-01 | Tactus Technology, Inc. | User interface system |
US9128525B2 (en) | 2008-01-04 | 2015-09-08 | Tactus Technology, Inc. | Dynamic tactile interface |
US8243038B2 (en) | 2009-07-03 | 2012-08-14 | Tactus Technologies | Method for adjusting the user interface of a device |
US8553005B2 (en) | 2008-01-04 | 2013-10-08 | Tactus Technology, Inc. | User interface system |
US8922510B2 (en) | 2008-01-04 | 2014-12-30 | Tactus Technology, Inc. | User interface system |
US9052790B2 (en) | 2008-01-04 | 2015-06-09 | Tactus Technology, Inc. | User interface and methods |
US9588683B2 (en) | 2008-01-04 | 2017-03-07 | Tactus Technology, Inc. | Dynamic tactile interface |
US8547339B2 (en) | 2008-01-04 | 2013-10-01 | Tactus Technology, Inc. | System and methods for raised touch screens |
US9557915B2 (en) | 2008-01-04 | 2017-01-31 | Tactus Technology, Inc. | Dynamic tactile interface |
US8587541B2 (en) | 2010-04-19 | 2013-11-19 | Tactus Technology, Inc. | Method for actuating a tactile interface layer |
US9298261B2 (en) | 2008-01-04 | 2016-03-29 | Tactus Technology, Inc. | Method for actuating a tactile interface layer |
US8570295B2 (en) | 2008-01-04 | 2013-10-29 | Tactus Technology, Inc. | User interface system |
US8179377B2 (en) | 2009-01-05 | 2012-05-15 | Tactus Technology | User interface system |
US9013417B2 (en) | 2008-01-04 | 2015-04-21 | Tactus Technology, Inc. | User interface system |
US9720501B2 (en) | 2008-01-04 | 2017-08-01 | Tactus Technology, Inc. | Dynamic tactile interface |
US9760172B2 (en) | 2008-01-04 | 2017-09-12 | Tactus Technology, Inc. | Dynamic tactile interface |
US9612659B2 (en) | 2008-01-04 | 2017-04-04 | Tactus Technology, Inc. | User interface system |
US8154527B2 (en) | 2008-01-04 | 2012-04-10 | Tactus Technology | User interface system |
JP4737251B2 (ja) | 2008-08-20 | 2011-07-27 | ソニー株式会社 | ヘッドホン |
US8635645B2 (en) | 2008-09-30 | 2014-01-21 | Qualcomm Incorporated | Apparatus and methods of providing and receiving venue level transmissions and services |
CN101753940A (zh) * | 2008-12-12 | 2010-06-23 | 康佳集团股份有限公司 | 可录制电视节目的电视机 |
US8254304B2 (en) * | 2008-12-14 | 2012-08-28 | Qualcomm Incorporated | Channel capacity adaptive repeater |
US9588684B2 (en) | 2009-01-05 | 2017-03-07 | Tactus Technology, Inc. | Tactile interface for a computing device |
WO2010078596A1 (en) | 2009-01-05 | 2010-07-08 | Tactus Technology, Inc. | User interface system |
US9137495B2 (en) * | 2009-01-30 | 2015-09-15 | Yinzcam, Inc. | Systems and methods for providing interactive video services |
AU2009201810A1 (en) * | 2009-05-06 | 2010-11-25 | Jorge Miguel Pereira | Ear Muffs |
US20100309290A1 (en) * | 2009-06-08 | 2010-12-09 | Stephen Brooks Myers | System for capture and display of stereoscopic content |
EP2449452B1 (en) | 2009-07-03 | 2016-02-10 | Tactus Technology | User interface enhancement system |
US8879440B2 (en) * | 2009-09-29 | 2014-11-04 | Qualcomm Incorporated | Method and apparatus for ad hoc venue-cast service |
WO2011087816A1 (en) | 2009-12-21 | 2011-07-21 | Tactus Technology | User interface system |
CN102782617B (zh) | 2009-12-21 | 2015-10-07 | 泰克图斯科技公司 | 用户接口系统 |
US9239623B2 (en) | 2010-01-05 | 2016-01-19 | Tactus Technology, Inc. | Dynamic tactile interface |
US8619035B2 (en) | 2010-02-10 | 2013-12-31 | Tactus Technology, Inc. | Method for assisting user input to a device |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9134534B2 (en) | 2010-02-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including a modular image source |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9341843B2 (en) | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
US8477425B2 (en) | 2010-02-28 | 2013-07-02 | Osterhout Group, Inc. | See-through near-eye display glasses including a partially reflective, partially transmitting optical element |
US9097891B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9759917B2 (en) | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US9229227B2 (en) | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
JP2013521576A (ja) | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
US9223134B2 (en) | 2010-02-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses |
US9129295B2 (en) | 2010-02-28 | 2015-09-08 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear |
US9091851B2 (en) | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US8488246B2 (en) | 2010-02-28 | 2013-07-16 | Osterhout Group, Inc. | See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film |
US9182596B2 (en) | 2010-02-28 | 2015-11-10 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light |
US9097890B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | Grating in a light transmissive illumination system for see-through near-eye display glasses |
US8482859B2 (en) | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
US8472120B2 (en) | 2010-02-28 | 2013-06-25 | Osterhout Group, Inc. | See-through near-eye display glasses with a small scale image source |
US8467133B2 (en) | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
WO2011112984A1 (en) | 2010-03-11 | 2011-09-15 | Tactus Technology | User interface system |
WO2012054781A1 (en) | 2010-10-20 | 2012-04-26 | Tactus Technology | User interface system and method |
US9330499B2 (en) * | 2011-05-20 | 2016-05-03 | Microsoft Technology Licensing, Llc | Event augmentation with real-time information |
US8175297B1 (en) | 2011-07-06 | 2012-05-08 | Google Inc. | Ad hoc sensor arrays |
FR2982110B3 (fr) * | 2012-01-10 | 2014-03-14 | Samsung Electronics Co Ltd | Dispositif de lunettes pour visionner une image d'affichage |
US9519640B2 (en) * | 2012-05-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Intelligent translations in personal see through display |
GB2501768A (en) | 2012-05-04 | 2013-11-06 | Sony Comp Entertainment Europe | Head mounted display |
GB2501767A (en) * | 2012-05-04 | 2013-11-06 | Sony Comp Entertainment Europe | Noise cancelling headset |
CN102739323B (zh) * | 2012-06-16 | 2013-09-04 | 天地融科技股份有限公司 | 音频数据传输方法 |
US10176635B2 (en) | 2012-06-28 | 2019-01-08 | Microsoft Technology Licensing, Llc | Saving augmented realities |
CN104662497A (zh) | 2012-09-24 | 2015-05-27 | 泰克图斯科技公司 | 动态触觉界面和方法 |
US9405417B2 (en) | 2012-09-24 | 2016-08-02 | Tactus Technology, Inc. | Dynamic tactile interface and methods |
US9019174B2 (en) | 2012-10-31 | 2015-04-28 | Microsoft Technology Licensing, Llc | Wearable emotion detection and feedback system |
CN205177388U (zh) | 2013-03-15 | 2016-04-20 | 奥克利有限公司 | 目镜系统 |
WO2014201213A1 (en) | 2013-06-12 | 2014-12-18 | Oakley, Inc. | Modular heads-up display system |
US9557813B2 (en) | 2013-06-28 | 2017-01-31 | Tactus Technology, Inc. | Method for reducing perceived optical distortion |
US9317120B2 (en) | 2013-09-06 | 2016-04-19 | Immersion Corporation | Multiplexing and demultiplexing haptic signals |
USD738374S1 (en) * | 2013-11-15 | 2015-09-08 | Oculus Vr, Llc | Virtual reality headset |
JP6678346B2 (ja) * | 2014-05-13 | 2020-04-08 | パナソニックIpマネジメント株式会社 | 装着装置 |
USD732028S1 (en) * | 2014-12-09 | 2015-06-16 | Samsung Electronics Co., Ltd. | Head-mounted display device |
US9472025B2 (en) * | 2015-01-21 | 2016-10-18 | Oculus Vr, Llc | Compressible eyecup assemblies in a virtual reality headset |
CA3032812A1 (en) | 2016-08-04 | 2018-02-08 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US10437070B2 (en) | 2016-12-23 | 2019-10-08 | Realwear, Inc. | Interchangeable optics for a head-mounted display |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US10365493B2 (en) * | 2016-12-23 | 2019-07-30 | Realwear, Incorporated | Modular components for a head-mounted display |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
US10393312B2 (en) | 2016-12-23 | 2019-08-27 | Realwear, Inc. | Articulating components for a head-mounted display |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
JP2018152812A (ja) * | 2017-03-15 | 2018-09-27 | ソニー株式会社 | ヘッドホン |
US10278001B2 (en) | 2017-05-12 | 2019-04-30 | Microsoft Technology Licensing, Llc | Multiple listener cloud render with enhanced instant replay |
AU2019225246B2 (en) | 2018-02-26 | 2022-11-17 | Cewi Networks, Inc. | Systems and methods for broadcasting digital data to a plurality of receivers |
US10656670B2 (en) | 2018-06-04 | 2020-05-19 | Htc Corporation | Head-mounted display device |
Family Cites Families (111)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1527802A (en) | 1923-01-17 | 1925-02-24 | Huggins Kenneth Levi | Soundproof attachment for ear phones |
US1648832A (en) | 1924-08-15 | 1927-11-08 | Urban Ladislaus | Phone pillar |
US2603724A (en) | 1948-10-30 | 1952-07-15 | Rca Corp | Sound translating device arranged to eliminate extraneous sound |
US2856469A (en) | 1955-12-05 | 1958-10-14 | Morse Milton | Earphone barrier device |
US2946860A (en) | 1957-01-03 | 1960-07-26 | Rca Corp | Headset |
DE3042269A1 (de) | 1980-11-08 | 1982-06-09 | Basf Ag, 6700 Ludwigshafen | Verfahren und anordnungen zum veraendern der audioinformation in einem audio/video-aufzeichnungs/wiedergabesystem |
US4965825A (en) | 1981-11-03 | 1990-10-23 | The Personalized Mass Media Corporation | Signal processing apparatus and methods |
JPS58136181A (ja) | 1982-02-05 | 1983-08-13 | Sony Corp | 受信装置 |
JPS58121473U (ja) | 1982-02-09 | 1983-08-18 | ソニー株式会社 | 音声多重受信機 |
US4504861A (en) | 1982-02-18 | 1985-03-12 | Emcee A Division Of Electronics, Missiles & Communications, Inc. | Portable TV transmitter |
US4580174A (en) | 1982-11-19 | 1986-04-01 | Sony Corporation | Apparatus for recording and/or reproducing video and audio signals |
GB8308484D0 (en) | 1983-03-28 | 1983-05-05 | Racal Safety Ltd | Hearing protectors |
US4605950A (en) | 1983-09-20 | 1986-08-12 | Cbs Inc. | Two channel compatible high definition television broadcast system |
US4620068A (en) | 1984-06-06 | 1986-10-28 | Remic Corporation | Communication headset |
SE450085B (sv) | 1984-07-04 | 1987-06-09 | Bo Gunnar Lonnstedt | Bygel for t ex horselskydd |
US5023707A (en) | 1985-12-02 | 1991-06-11 | Media Transference International, Ltd. | System for combining multiple audio channels into the baseband video signal and the recovery of the audio channels therefrom |
US4856089A (en) | 1986-07-28 | 1989-08-08 | Horton Lee A | Combined eye covering and ear covering assembly |
SE8604244L (sv) | 1986-10-06 | 1988-04-11 | Finnveden Holding Ab | Tryckring for horselskydd |
US4727585A (en) | 1986-11-24 | 1988-02-23 | Telex Communications, Inc. | Adjustable tension support band for headset |
JP2658030B2 (ja) * | 1987-01-30 | 1997-09-30 | ソニー株式会社 | 情報伝送装置 |
US4887152A (en) | 1987-01-30 | 1989-12-12 | Sony Corporation | Message delivery system operable in an override mode upon reception of a command signal |
US4856118A (en) | 1987-02-11 | 1989-08-15 | Bose Corporation | Headphone cushioning |
US4864425A (en) | 1987-06-10 | 1989-09-05 | Leonard Bloom | Video recording camera |
US4791477A (en) | 1987-06-10 | 1988-12-13 | Leonard Bloom | Video recording camera |
US4809079A (en) | 1987-06-10 | 1989-02-28 | Leonard Bloom | Video recording camera |
US4764817A (en) | 1987-06-10 | 1988-08-16 | Leonard Bloom | Video recording camera |
US4855827A (en) | 1987-07-21 | 1989-08-08 | Worlds Of Wonder, Inc. | Method of providing identification, other digital data and multiple audio tracks in video systems |
SE465014C (sv) | 1987-09-02 | 1997-11-24 | Kompositprodukter Sk Fm Ab | Hörselskydd |
US4983967A (en) | 1987-10-16 | 1991-01-08 | I.R.T. Electronics Pty. Limited | Transmission of audio in a video signal |
US4802243A (en) | 1987-10-26 | 1989-02-07 | Griffiths John W | Acoustic headgear-sun visor assembly |
JPH01136277A (ja) | 1987-11-24 | 1989-05-29 | Toshiba Corp | 所見入力装置 |
GB2215083B (en) | 1988-02-16 | 1992-02-05 | Graham Green | Optical aid for attachment to a human body. |
SE463803B (sv) | 1988-04-28 | 1991-01-28 | Milmas Ab | Fjaedrande monteringsarm foer hoerselskydd |
US4853764A (en) * | 1988-09-16 | 1989-08-01 | Pedalo, Inc. | Method and apparatus for screenless panoramic stereo TV system |
JPH0297198A (ja) | 1988-10-03 | 1990-04-09 | Sony Corp | ヘッドホン装置 |
US5128765A (en) | 1988-11-29 | 1992-07-07 | Visual Subliminal Technologies, Inc. | System for implementing the synchronized superimposition of subliminal signals |
US4982278A (en) | 1989-02-15 | 1991-01-01 | Dahl Thomas R | Binocular stereovision |
US5023955A (en) | 1989-04-13 | 1991-06-18 | Gentex Corporation | Impact-absorbing sound-attenuating earcup |
JP2785337B2 (ja) | 1989-06-19 | 1998-08-13 | ソニー株式会社 | 磁気記録再生装置 |
US5020163A (en) | 1989-06-29 | 1991-06-04 | Gentex Corporation | Earseal for sound-attenuating earcup assembly |
US4958697A (en) | 1989-09-11 | 1990-09-25 | The United States Of America As Represented By The Secretary Of The Army | Anatomically shaped earseals for headsets |
US5046192A (en) | 1989-09-26 | 1991-09-10 | Ryder International Corporation | Headset sun visor |
US5133081A (en) | 1989-11-03 | 1992-07-21 | Mayo Scott T | Remotely controllable message broadcast system including central programming station, remote message transmitters and repeaters |
JPH03203478A (ja) * | 1989-12-28 | 1991-09-05 | Sony Corp | 顔面装着型視覚装置 |
US5130815A (en) | 1990-07-20 | 1992-07-14 | Mti Associates | Method and apparatus for encoding a video signal having multi-language capabilities |
US5138440A (en) | 1990-10-29 | 1992-08-11 | General Instrument Corporation | Method and apparatus for communicating a plurality of asynchronous signals over a digital communication path |
US5719588A (en) | 1991-03-08 | 1998-02-17 | Nashua Corporation | Viewing device |
US5185807A (en) | 1991-05-08 | 1993-02-09 | David Clark Company Incorporated | Headset with multi-position stirrup assemblies |
US5138722A (en) | 1991-07-02 | 1992-08-18 | David Clark Company Inc. | Headset ear seal |
US5179736A (en) | 1991-09-30 | 1993-01-19 | Scanlon Thomas A | Combination headset and face mask device |
DE69221987T2 (de) | 1991-11-01 | 1998-02-05 | Sega Enterprises Kk | Am Kopf befestigte Abbildungsvorrichtung |
US5880773A (en) | 1991-12-27 | 1999-03-09 | Sony Corporation | Head mounted display configured to a user's physical features |
US5289272A (en) | 1992-02-18 | 1994-02-22 | Hughes Aircraft Company | Combined data, audio and video distribution system in passenger aircraft |
US5252069A (en) | 1992-03-30 | 1993-10-12 | Richard A. Lamb | Instrument flight rules (IFR) training device |
US5321416A (en) | 1992-07-27 | 1994-06-14 | Virtual Research Systems | Head-mounted visual display apparatus |
US5594470A (en) | 1992-10-02 | 1997-01-14 | Teletransaction, Inc. | Highly integrated portable electronic work slate unit |
KR960011030B1 (ko) | 1992-11-20 | 1996-08-16 | 마쯔시다덴기산교 가부시기가이샤 | 복수텔레비젼 신호기록재생방법 및 그것을 사용한 기록재생장치 |
JPH06194600A (ja) | 1992-12-25 | 1994-07-15 | Sony Corp | 表示装置 |
US5815411A (en) | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US5420381A (en) | 1993-04-19 | 1995-05-30 | Cabot Safety Corporation | Acoustical earmuff |
US5596647A (en) | 1993-06-01 | 1997-01-21 | Matsushita Avionics Development Corporation | Integrated video and audio signal distribution system and method for use on commercial aircraft and other vehicles |
US5546099A (en) | 1993-08-02 | 1996-08-13 | Virtual Vision | Head mounted display system with light blocking structure |
JPH0772446A (ja) | 1993-09-01 | 1995-03-17 | Sharp Corp | 表示システム |
JPH07107446A (ja) * | 1993-09-30 | 1995-04-21 | Toshiba Corp | 関連番組情報供給装置 |
US5440197A (en) | 1993-10-05 | 1995-08-08 | Tir Technologies, Inc. | Backlighting apparatus for uniformly illuminating a display panel |
US5815126A (en) | 1993-10-22 | 1998-09-29 | Kopin Corporation | Monocular portable communication and display system |
US5631693A (en) | 1993-10-25 | 1997-05-20 | Antec Corporation | Method and apparatus for providing on demand services in a subscriber system |
US5576843A (en) | 1993-10-29 | 1996-11-19 | Time Warner Entertainment Co., L.P. | System and method for controlling play of multiple dialog audio tracks of a software carrier |
US5513384A (en) * | 1993-11-09 | 1996-04-30 | Inner Ear Communications, Inc. | System and method for providing multiple broadcasts of audio information to spectators |
US5600365A (en) | 1994-01-28 | 1997-02-04 | Sony Corporation | Multiple audio and video signal providing apparatus |
US5463428A (en) | 1994-02-08 | 1995-10-31 | Stereographics Corporation | Wireless active eyewear for stereoscopic applications |
US5510828A (en) | 1994-03-01 | 1996-04-23 | Lutterbach; R. Steven | Interactive video display system |
US5642221A (en) | 1994-03-09 | 1997-06-24 | Optics 1, Inc. | Head mounted display system |
US5537141A (en) | 1994-04-15 | 1996-07-16 | Actv, Inc. | Distance learning system providing individual television participation, audio responses and memory for every student |
US5481478A (en) | 1994-06-03 | 1996-01-02 | Palmieri; Herman D. | Broadcast system for a facility |
US5696521A (en) | 1994-06-22 | 1997-12-09 | Astounding Technologies (M) Sdn. Bhd. | Video headset |
US5903395A (en) | 1994-08-31 | 1999-05-11 | I-O Display Systems Llc | Personal visual display system |
US5631369A (en) * | 1994-08-31 | 1997-05-20 | Eli Lilly And Company | Process for preparing benzoic acid derivative intermediates and benzothiophene pharmaceutical agents |
US5668339A (en) | 1994-10-26 | 1997-09-16 | Daewoo Electronics Co., Ltd. | Apparatus for multiplexing an audio signal in a video-song playback system |
US5682172A (en) | 1994-12-30 | 1997-10-28 | Forte Technologies, Inc. | Headset for presenting video and audio signals to a wearer |
JPH08191416A (ja) | 1995-01-10 | 1996-07-23 | Sony Corp | デジタル映像音声処理装置 |
US5729471A (en) | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
JPH08307848A (ja) * | 1995-04-27 | 1996-11-22 | Pioneer Electron Corp | Catvシステム |
US5767820A (en) | 1995-05-09 | 1998-06-16 | Virtual Research Systems | Head-mounted visual display apparatus |
GB2301216A (en) | 1995-05-25 | 1996-11-27 | Philips Electronics Uk Ltd | Display headset |
US5835609A (en) | 1995-06-02 | 1998-11-10 | The Gorgonz Group, Inc. | Ear protection device |
US5867223A (en) | 1995-07-17 | 1999-02-02 | Gateway 2000, Inc. | System for assigning multichannel audio signals to independent wireless audio output devices |
JPH0955925A (ja) * | 1995-08-11 | 1997-02-25 | Nippon Telegr & Teleph Corp <Ntt> | 画像システム |
JP3614947B2 (ja) * | 1995-09-18 | 2005-01-26 | ソニー株式会社 | 選局装置および選局方法並びに放送装置および放送方法 |
JPH09130705A (ja) | 1995-10-31 | 1997-05-16 | Olympus Optical Co Ltd | 頭部装着式映像表示装置 |
US5742263A (en) * | 1995-12-18 | 1998-04-21 | Telxon Corporation | Head tracking system for a head mounted display system |
JPH09298729A (ja) * | 1996-05-01 | 1997-11-18 | Tietech Co Ltd | ケーブルテレビにおける放映方式及びその端末表示装置 |
US5894320A (en) * | 1996-05-29 | 1999-04-13 | General Instrument Corporation | Multi-channel television system with viewer-selectable video and audio |
US5760819A (en) | 1996-06-19 | 1998-06-02 | Hughes Electronics | Distribution of a large number of live television programs to individual passengers in an aircraft |
US5809574A (en) | 1996-08-15 | 1998-09-22 | Cabot Safety Intermediate Corporation | Hearing protection device |
US6166734A (en) | 1996-10-01 | 2000-12-26 | Diamond Multimedia Systems, Inc. | Portable interactive graphics display tablet and communications system |
US6084584A (en) | 1996-10-01 | 2000-07-04 | Diamond Multimedia Systems, Inc. | Computer system supporting portable interactive graphics display tablet and communications systems |
US5764512A (en) * | 1996-10-04 | 1998-06-09 | Lucent Technologies Inc. | Intelligent acoustic systems peripheral |
US5844656A (en) | 1996-11-07 | 1998-12-01 | Xybernaut Corporation | Head mounted display with adjustment components |
KR19980044990A (ko) | 1996-12-09 | 1998-09-15 | 양승택 | 휴대형 멀티미디어 데이터 입출력 처리기의 구조 및 그 구동 방법 |
US6060995A (en) | 1997-02-19 | 2000-05-09 | Sony Corporation | Nightlife information pager |
US6195090B1 (en) | 1997-02-28 | 2001-02-27 | Riggins, Iii A. Stephen | Interactive sporting-event monitoring system |
US5946635A (en) | 1997-08-12 | 1999-08-31 | Dominguez; David C. | Sporting event configurable radio receiver/scanner |
US6020851A (en) * | 1997-10-06 | 2000-02-01 | Busack; Andrew J. | Auto race monitoring system |
EP1013089B1 (en) | 1997-10-06 | 2005-06-22 | Silicon Image, Inc. | Digital video system and methods for providing same |
US6681398B1 (en) * | 1998-01-12 | 2004-01-20 | Scanz Communications, Inc. | Systems, devices and methods for reviewing selected signal segments |
US5887286A (en) | 1998-01-22 | 1999-03-30 | Waldron; Carolyn A. | Ear protector |
US7162532B2 (en) * | 1998-02-23 | 2007-01-09 | Koehler Steven M | System and method for listening to teams in a race event |
JPH11352904A (ja) | 1998-04-10 | 1999-12-24 | Olympus Optical Co Ltd | 頭部装着型映像表示装置 |
US6347301B1 (en) | 1999-02-02 | 2002-02-12 | Bearden, Iii Fred E. | Conference communication facilitator and method of use |
US6356905B1 (en) | 1999-03-05 | 2002-03-12 | Accenture Llp | System, method and article of manufacture for mobile communication utilizing an interface support framework |
-
1999
- 1999-08-31 US US09/386,613 patent/US7124425B1/en not_active Expired - Lifetime
-
2000
- 2000-03-08 CN CNB008072752A patent/CN100353771C/zh not_active Expired - Fee Related
- 2000-03-08 AU AU38709/00A patent/AU779175B2/en not_active Ceased
- 2000-03-08 EP EP00917791A patent/EP1166596B1/en not_active Expired - Lifetime
- 2000-03-08 JP JP2000604652A patent/JP2002539701A/ja active Pending
- 2000-03-08 AT AT00917791T patent/ATE443411T1/de not_active IP Right Cessation
- 2000-03-08 CA CA002369832A patent/CA2369832C/en not_active Expired - Fee Related
- 2000-03-08 PT PT00917791T patent/PT1166596E/pt unknown
- 2000-03-08 WO PCT/US2000/005998 patent/WO2000054554A1/en active IP Right Grant
- 2000-03-08 ES ES00917791T patent/ES2331175T3/es not_active Expired - Lifetime
- 2000-03-08 EP EP09010070.2A patent/EP2114092B1/en not_active Expired - Lifetime
- 2000-03-08 DE DE60042967T patent/DE60042967D1/de not_active Expired - Lifetime
- 2000-03-08 CA CA2636037A patent/CA2636037C/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP2114092B1 (en) | 2016-08-10 |
CN1350764A (zh) | 2002-05-22 |
CA2636037C (en) | 2014-07-29 |
AU779175B2 (en) | 2005-01-13 |
WO2000054554A1 (en) | 2000-09-14 |
CA2369832C (en) | 2009-11-24 |
CA2369832A1 (en) | 2000-09-14 |
EP1166596B1 (en) | 2009-09-16 |
PT1166596E (pt) | 2009-12-10 |
EP1166596A1 (en) | 2002-01-02 |
CA2636037A1 (en) | 2000-09-14 |
EP1166596A4 (en) | 2006-01-18 |
EP2114092A1 (en) | 2009-11-04 |
DE60042967D1 (de) | 2009-10-29 |
JP2002539701A (ja) | 2002-11-19 |
ATE443411T1 (de) | 2009-10-15 |
US7124425B1 (en) | 2006-10-17 |
AU3870900A (en) | 2000-09-28 |
CN100353771C (zh) | 2007-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2331175T3 (es) | Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento. | |
US6578203B1 (en) | Audio/video signal distribution system for head mounted displays | |
US9674491B2 (en) | Audio/video entertainment system and method | |
US4853764A (en) | Method and apparatus for screenless panoramic stereo TV system | |
US8310527B2 (en) | Display device with 3D shutter control unit | |
US20100277485A1 (en) | System and method of displaying multiple video feeds | |
US20130281162A1 (en) | Portable Personal Entertainment Video Viewing System | |
JPH06194600A (ja) | 表示装置 | |
WO2013063165A2 (en) | Smart helmet | |
US9300924B2 (en) | Electronic handheld audio/video receiver and listening/viewing device | |
US20020034004A1 (en) | Optically multiplexed hand-held digital binocular system | |
JP2002142233A (ja) | 立体画像を提供するための画像提供装置および画像提供方法、受信装置および受信方法、並びに立体画像を提供するための立体画像提供システムおよび立体画像提供方法。 | |
KR200430109Y1 (ko) | 단안형 페이스 마운트 디스플레이 장치 | |
JP2006229594A (ja) | ヘッドマウントディスプレイ装置 | |
CN117278912A (zh) | 扬声器单元、头带组件、头戴设备及其控制方法 | |
JPH08163597A (ja) | 映像表示装置 |