ES2331175T3 - Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento. - Google Patents

Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento. Download PDF

Info

Publication number
ES2331175T3
ES2331175T3 ES00917791T ES00917791T ES2331175T3 ES 2331175 T3 ES2331175 T3 ES 2331175T3 ES 00917791 T ES00917791 T ES 00917791T ES 00917791 T ES00917791 T ES 00917791T ES 2331175 T3 ES2331175 T3 ES 2331175T3
Authority
ES
Spain
Prior art keywords
signal
audio
signals
video
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00917791T
Other languages
English (en)
Inventor
Tazwell L. Anderson, Jr.
Mark A. Wood
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Entertainment LLC
Original Assignee
Immersion Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=27494481&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2331175(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US09/322,411 external-priority patent/US6578203B1/en
Application filed by Immersion Entertainment LLC filed Critical Immersion Entertainment LLC
Application granted granted Critical
Publication of ES2331175T3 publication Critical patent/ES2331175T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Studio Circuits (AREA)
  • Headphones And Earphones (AREA)
  • Studio Devices (AREA)

Abstract

Un método que comprende los pasos de: recibir una pluralidad de señales de audio asociadas con un evento; recibir una pluralidad de señales de vídeo asociadas con dicho evento; combinar dichas señales de audio y de vídeo para formar una señal multiplexada que incluye una pluralidad de señales combinadas, definiendo dichas señales combinadas combinaciones diferentes de dichas señales de vídeo y de audio; transmitir dicha señal multiplexada a receptores portátiles (75) que son llevados por usuarios a cualquier lugar deseado en o alrededor de dicho evento, recibiendo dicha señal multiplexada en el receptor portátil (75); demultiplexar, en los receptores portátiles (75) dicha señal multiplexada para recuperar dichas señales de audio y de vídeo; recibir del usuario entradas en el receptor portátil (75); seleccionar en el receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada y al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dichas entradas realizadas por dicho usuario; visualizar en un dispositivo de visualización (101) del receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección; y producir en un altavoz (103) del receptor portátil (75) el sonido definido por al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección.

Description

Sistema y método de audio/vídeo que permite a un usuario seleccionar imágenes y sonidos diferentes asociados con un evento.
Referencia cruzada con la solicitud relacionada
Este documento está relacionado con y reivindica prioridad en las siguientes solicitudes de patente de EEUU no provisionales de patente en tramitación junto con la presente: (1) Sistema y Método de Vídeo/Audio que permite a un usuario seleccionar imágenes y sonidos diferentes de un evento, con número de serie asignado 09/322.411, y presentada el 28 de mayo de 1999; y (2) Sistema y Método de Audio/Vídeo que utiliza un aparato montado en la cabeza con atenuación de ruidos, con número de serie asignado 09/386.613, y presentada el 31 de agosto de 1999. Este documento también está relacionado con y reivindica la prioridad en las siguientes solicitudes provisionales de EEUU en tramitación junto con la presente: (1) Sistema de Distribución de señales de Audio/Vídeo para Pantallas Montadas en la Cabeza, con número de serie asignado 60/123.341, y presentada el 8 de marzo de 1999; y (2) "Pantalla Montada en Cabeza con Aislamiento acústico/Auricular Protector de Audición", con número de serie asignado 60/137.323 y presentada el 3 de junio de 1999.
Antecedentes del invento Campo del invento
El presente invento se refiere generalmente a técnicas de procesamiento de señales de vídeo y de audio y, en particular, a un sistema y un método para recibir señales de vídeo y de audio de una pluralidad de fuentes y para proporcionar a un usuario múltiples combinaciones de estas señales para seleccionar entre ellas.
Técnica relacionada
Las señales de audio y vídeo son generadas a partir de una pluralidad de fuentes durante muchos eventos. Por ejemplo, en una carrera de autos los equipos de televisión normalmente sitúan las cámaras en diversos lugares dentro del campo de visión de una pista de carreras. Estas cámaras generan señales de vídeo que definen imágenes de la pista de carreras desde distintas perspectivas. Además, micrófonos situados en distintos lugares generan señales de audio que definen sonidos diferentes en la carrera de coches. Por ejemplo, los micrófonos pueden colocarse cerca de la pista de carreras para recibir los sonidos producidos por los vehículos que participan en la carrera, y los micrófonos pueden colocarse cerca de los comentadores de televisión para recibir los comentarios mientras observan y hacen comentarios sobre la carrera.
Una de las señales de vídeo y una o más de las señales de audio se seleccionan y combinan usualmente de forma conjunta en una emisora de televisión para formar una señal combinada de audio/vídeo. Esta señal es después modulada y transmitida de forma que los usuarios que tienen una televisión pueden recibir la señal combinada a través de la televisión. La televisión demodula la señal combinada y visualiza una imagen definida por la señal de vídeo sobre una pantalla de visualización y reproduce los sonidos definidos por las señales de audio a través de los altavoces. Por lo tanto, las imágenes y los sonidos de la carrera pueden ser vistas y oídas a través de la televisión.
Además, una o más de las señales de audio, tales como las señales de audio que definen los comentarios de los comentaristas de la radio, son usualmente seleccionadas y moduladas en una emisora de radio para formar una señal de radio. Esta señal de radio es después transmitida como una señal inalámbrica para que los usuarios que tienen radio puedan recibir la señal a través de una radio. La radio demodula la señal y reproduce los sonidos definidos por la señal de radio a través de los altavoces.
Sin embargo, a los usuarios que ven y/o oyen las imágenes y sonidos de la carrera a través de las televisiones y/o radios no sólo se les da usualmente la oportunidad de seleccionar qué señales de vídeo y/o audio son demoduladas y transmitidas a la televisión y/o radio.
Por lo tanto, el usuario solamente es capaz de recibir las señales moduladas y transmitidas a la televisión y/o radio aun cuando el usuario pueda preferir recibir las otras señales de audio y/o vídeo que se generan en la carrera de coches.
A los espectadores que realmente atienden a la carrera de coches se les ofrecen más opciones de ver y/o oír las imágenes y/o sonidos de la carrera desde diferentes perspectivas. A este respecto, una pluralidad de monitores están usualmente colocados en determinados lugares en el estadio. Tal como se emplea aquí, la palabra "estadio" se define como cualquier estructura fija que tiene un gran número (es decir, cientos) de asientos, en la que se desarrolla un evento en (es decir, en la proximidad de) los asientos de forma que los espectadores que están en los asientos pueden ver el evento. Un evento es cualquier acontecimiento visto por un espectador.
Cada monitor dentro del estadio recibe una de las anteriormente mencionadas señales de vídeo y visualiza una imagen definida por la señal de vídeo definida por la señal de vídeo recibida a muchos de los espectadores. Sin embargo, el monitor no siempre visualiza una perspectiva deseable con respecto a cada espectador en el estadio, y el monitor a menudo no está situado en un lugar conveniente para muchos espectadores. A este respecto, muchos espectadores a menudo tienen que abandonar sus asientos (u otros sitios) en el estadio e ir a un lugar en el que los espectadores, junto con otros espectadores, puedan ver el monitor que visualiza la perspectiva deseada. Los espectadores que ven el monitor a menudo no pueden controlar qué imagen es visualizada por el monitor.
Por lo tanto, a partir de ahora existe en la industria una necesidad, a la que no se ha prestado, atención de proporcionar un sistema y un método que permita a un espectador ver satisfactoriamente un evento desde diferentes perspectivas.
El documento US-A-6.600.365 describe un aparato que proporciona una señal y que comprende un medio de la generación de una señal de vídeo digital, un multiplexador por división de tiempo, un modulador de señal de vídeo digital, un multiplexador por división de frecuencia, un sintonizador, un demultiplexador de señal de vídeo, un expansor, y un visualizador. El medio de generación de una señal de vídeo digital genera varias señales de vídeo digitales comprimidas. El multiplexador por división de tiempo multiplexa varias señales de vídeo digitales comprimidas por división de tiempo. El modulador de la señal de vídeo digital modula la señal de salida del multiplexador por división de tiempo. El multiplexador por división de frecuencia, que recibe la señal de salida del modulador de señal de vídeo digital y otra señal de entrada, multiplexa la señal de salida del modulador y la posterior señal de entrada por división de frecuencia. El sintonizador, que recibe la señal de salida del multiplexador por división de frecuencia, demodula la señal de salida y selecciona una señal que tiene una frecuencia específica. El demultiplexador de la señal de vídeo selecciona una de las señales de vídeo digitales comprimidas multiplexadas por división de tiempo en la señal de salida del sintonizador. El expansor expande la señal de salida del demultiplexador de la señal de vídeo. El visualizador, que recibe la señal de salida del expansor, visualiza una imagen de vídeo.
El documento JP-A-10136277 describe una caja en la parte superior del aparato que permite a un espectador de televisión seleccionar entre una selección de ángulos de cámara posibles y de alimentaciones de audio cuando se ve un evento deportivo tal como un partido de fútbol sin cambiar el canal de televisión. Los datos de audio, vídeo y de control son transmitidos en flujos de datos en paquetes con datos de control que proporcionan una indicación de canal preasignado (por ejemplo, canal 10 para la red X). Un terminal colocado encima del aparato recibe y procesa los flujos de datos de acuerdo con las instrucciones proporcionadas por el usuario. El terminal incluye un soporte lógico que puede ser descargado a través de los flujos de datos o instalado localmente. Los datos de control en el flujo de datos se usan para proporcionar una visualización gráfica sobre la pantalla en la televisión, lo que permite al usuario seleccionar el audio y vídeo que corresponde a ciertas áreas del estadio de fútbol, por ejemplo. Opcionalmente, el espectador puede seleccionar resúmenes alternativos en un programa de películas o similar. Una falta de ajuste proporciona unas señales primarias de audio y de vídeo. Señales de vídeo y de audio alternativas son seleccionadas por el usuario y asignadas al indicador de canal de la señal primaria de forma que puedan ser vistas y oídas las diferentes alimentaciones de audio. Al espectador se le da, por lo tanto, la oportunidad de personalizar la programación para mejorar el valor educativo o de espectáculo.
Compendio del invento
El presente invento supera las faltas de adecuación y deficiencias de la técnica anterior como se ha discutido anteriormente. Generalmente, el presente invento proporciona un sistema y un método de vídeo/audio para recibir señales de vídeo y audio de una pluralidad de fuentes y para proporcionar a un usuario múltiples combinaciones de estas señales para seleccionar entre ellas.
El presente invento proporciona un método de acuerdo con la reivindicación 1 de las reivindicaciones anejas. El presente invento además proporciona un sistema de acuerdo con la reivindicación 11 de las reivindicaciones
anejas.
Otras características y ventajas del presente invento serán evidentes a un experto en la técnica tras el examen de la siguiente descripción detallada al ser leída en conjunción con los dibujos que se acompañan. Se pretende que todas las características y ventajas estén incluidas aquí dentro del ámbito del presente invento y protegidas por las reivindicaciones.
Breve descripción de los dibujos
El invento puede ser entendido mejor con referencia a los siguientes dibujos. Los elementos de los dibujos no están necesariamente a escala entre ellos, en cambio se ha intentado ilustrar claramente los principios del invento. Además, los números de referencia indican las correspondientes piezas en las diferentes vistas.
La Figura 1 es un diagrama de bloques que ilustra un sistema de vídeo/audio de acuerdo con el presente invento.
La Figura 2 es un diagrama de bloques que ilustra una vista detallada de un dispositivo de interfaz representado en la Figura 1.
La Figura 3 es un diagrama de bloques que ilustra una vista detallada de un receptor representado en la Figura 1.
La Figura 4 es una vista tridimensional de un visualizador convencional montado en la cabeza.
La Figura 5 es una vista lateral que ilustra el visualizador convencional montado en la cabeza representado en la Figura 4.
La Figura 6 es una vista tridimensional de un visualizador montado en la cabeza de acuerdo con el presente invento.
La Figura 7A es una vista lateral del dispositivo de reducción de ruido del visualizador montado en la cabeza representado en la Figura 6.
La Figura 7B es una vista frontal del dispositivo de reducción de ruido del visualizador montado en la cabeza representado en la Figura 6.
La Figura 7C es una vista desde abajo del dispositivo de reducción de ruido del visualizador montado en la cabeza representado en la Figura 6.
La Figura 8A es una vista lateral más detallada de un elemento del dispositivo de reducción de ruido de la Figura 7C que está adaptado para recibir una patilla del visualizador montado en la cabeza representado en la Figura 6.
La Figura 8B es una vista tridimensional del elemento representado en la Figura 8A.
La Figura 9 es una vista desde arriba del elemento representado en la Figura 8A al recibir una patilla del visualizador montado en la cabeza de la Figura 6.
La Figura 10 es una vista lateral de la patilla representada en la Figura 6.
Descripción detallada de la realización preferida
A continuación se describirá la realización preferida del presente invento en el contexto de las aplicaciones a carreras de coches. No obstante, el alcance del presente invento no debería estar limitado a esto, y debería ser evidente a un experto en la técnica que los principios del presente invento pueden ser empleados en el contexto de otras aplicaciones, particularmente en el contexto de otros eventos deportivos (por ejemplo, partidos de fútbol, partidos de baloncesto, partidos de pelota base, partidos de jockey, etc).
La Figura 1 representa un sistema de vídeo/audio 20 que aplica los principios del presente invento. Al menos una señal de vídeo 22 y al menos una señal de audio 25 son recibidas por un dispositivo de interfaz 28. Cada una de las señales de vídeo recibidas 22 define una imagen desde una perspectiva diferente. Por ejemplo, las señales de vídeo 22 pueden ser generadas por cámaras de vídeo distintas situadas en lugares diferentes alrededor del estadio, incluyendo dentro de al menos algunos de los vehículos que participan en la carrera.
Además, cada una de las señales de audio 25 define sonidos diferentes asociados con la carrera. Por ejemplo, al menos una de las señales de audio 25 puede ser generada desde un micrófono situado cerca de la pista o en uno de los vehículos, de forma que la señal de audio 25 defina el ruido de los vehículos que participan en la carrera.
Alternativamente, al menos una de las señales de audio 25 puede definir los comentarios de los comentaristas de televisión, y al menos una de las señales de audio 25 puede definir los comentarios de los comentaristas de radio. Además, al menos una de las señales de audio 25 puede definir los comentarios entre uno de los conductores que participa en la carrera y su equipo de mecánicos.
Algunas de las señales de vídeo y de audio 22 y 25 pueden estar sin modular al ser transmitidas al dispositivo de interfaz 28 y, por lo tanto, no necesitan ser demoduladas por el sistema 20. Sin embargo, algunas de las señales de vídeo y de audio 22 y 25 pueden necesitar ser demoduladas por el sistema 20. Por ejemplo, al menos una de las señales de audio 25 que definen los comentarios de los comentaristas de radio puede ser modulada como una señal de radio para transmisión a radios situadas en o lejos del estadio, y al menos una de las señales de vídeo 25 puede ser modulada como una señal de televisión para transmisión a televisiones situadas en o lejos del estadio. Además, los comentarios entre un conductor y su equipo de mecánicos se transmiten usualmente a través de ondas de radio de ultra alta frecuencia (UHF), que como se sabe son señales moduladas. Por lo tanto, como se muestra en la Figura 1, el sistema 20 preferiblemente incluye demoduladores 32 configurados para recibir y demodular las señales de vídeo y/o de audio 22 y 25.
Es posible que algunas de las señales de vídeo y de audio 22 y 25 se reciban de una señal combinada 35, la cual está compuesta por al menos una señal de vídeo 22 combinada con al menos una señal de audio 25. Por ejemplo, la señal combinada 35 puede ser una señal de televisión modulada para transmisión a televisiones situadas en o lejos del estadio donde está la pista. Para facilitar la combinación de las diferentes señales de audio 25 con la señal o señales de vídeo 22 definidas por la señal combinada 35, un separador 37 preferiblemente separa la señal combinada 35 en sus respectivas señal de vídeo 22 y señal de audio 25, como se muestra en la Figura 1.
Pueden existir diversas configuraciones del separador 37 sin apartarse de los principios del presente invento. La Figura 1 representa una posible aplicación del separador 37. A este respecto, el separador 37 incluye un filtro 41 de la señal de audio diseñado para eliminar cualesquiera señales de audio 25 de la señal combinada 35 y transmitir la o las señales de vídeo resultantes 22 al dispositivo de interfaz 28. Además, el separador 37 incluye también un filtro 43 de la señal de vídeo diseñado para eliminar cualesquiera señales de vídeo 22 de la señal combinada 35 y transmitir la o las señales de audio resultantes 25 al dispositivo de interfaz 28. Si en la señal combinada 35 está incluida más de una señal de vídeo 22 o más de una señal de audio 25, entonces el separador 37 puede incluir filtros adicionales (no mostrados) para separar las señales múltiples de vídeo y/o de audio 22 y 25 en señales individuales antes de transmitir las señales 22 y 25 al dispositivo de interfaz 28.
La Figura 2 representa una vista más detallada del dispositivo de interfaz 28. El dispositivo de interfaz 28 incluye combinadores de audio 52 configurados para recibir señales de audio 25 y para combinar las señales de audio recibidas 25 en una única señal de audio combinada 55. Como se muestra en la Figura 2, cada combinador de audio 52 recibe preferiblemente una combinación diferente de señales de audio 25, aunque es posible para cualquiera de las señales combinadas 55 incluir la misma combinación de señales de audio 25 al igual que cualquier otra señal combinada 55. Adviértase que cuando un combinador de audio 52 recibe solamente una señal de audio 25 la señal combinada 55 generada por el combinador 52 se corresponde con la señal 25 recibida por el combinador 52.
Como ejemplo, una de las señales combinadas 55 puede incluir una señal de audio 25 que define los comentarios entre un conductor y su equipo de mecánicos y también una señal de audio 25 que define los sonidos (es decir, los ruidos de los vehículos) recibidos por un micrófono situado en el vehículo del conductor. Otra de las señales combinadas 55 puede incluir las anteriormente mencionadas señales de audio 25 así como una señal de audio 25 que define los comentarios de un comentarista de radio. Otra señal combinada 55 puede solamente incluir una señal de audio 25 que define los comentarios de un comentarista de televisión. Por lo tanto, las señales combinadas 55 preferiblemente definen combinaciones de sonidos diferentes. Se debería observar que son posibles combinaciones de señales de audio 25 distintas de las descritas anteriormente.
Como se muestra en la Figura 2, cada señal combinada 55 es transmitida a un respectivo modulador de señal 61. Cada modulador de señal 61 está también configurado para recibir una respectiva señal de las señales de vídeo 25 recibidas por el dispositivo de interfaz 28. Cada modulador de señal 61 está configurado para combinar la señal combinada recibida 55 y la señal de vídeo 25 y para modular las señales recibidas 55 y 25 en una única gama de frecuencias. El modulador de señal 61 está después diseñado para transmitir la señal modulada 64, la cual comprende la señal combinada 55 y la señal de vídeo 25 recibida por el modulador de señal 61, a un combinador 67. El combinador 67 está configurado para combinar cada una de las señales moduladas 64 transmitidas desde cada uno de los moduladores de señal 61 en una única señal combinada (es decir, multiplexada) 71. Esta señal combinada 71 es después transmitida a una pluralidad de receptores 75.
Existen diversas técnicas para transmitir la señal combinada 71 a los receptores 75.
Por ejemplo, se puede usar un cable coaxial para transmitir la señal combinada 71 a cada uno de los receptores 75. En otro ejemplo el sistema 20 puede incluir un transmisor inalámbrico (no mostrado) que transmite la señal combinada 71 a los receptores 75. Cualquier técnica para transmitir la señal combinada 71 a los receptores 75 debería ser apropiada para poner en práctica el presente invento.
En la Figura 3 se muestra una vista más detallada del receptor 75. El receptor 75 incluye preferiblemente un demodulador 82. El demodulador 82 está configurado para demodular la señal combinada 71 y para separar (es decir, demultiplexar) la señal combinada 71 en señales 84 sobre la base de la frecuencia, de forma que cada señal 84 se corresponde respectivamente con una de las señales demoduladas 84. En otras palabras, el demodulador 82 recupera las señales individuales 64 como señales 84, y cada señal 84 está, por tanto, definida por las mismas señales de vídeo y de audio 22 y 25 que definen su correspondiente señal modulada 64. Por lo tanto, al igual que las señales moduladas 64, cada señal 84 está preferiblemente compuesta por una única combinación de señales de vídeo y de audio 22 y 25.
Las señales 84 son transmitidas desde un demodulador 82 a un multiplexador 88, el cual también recibe señales de control 92 de una interfaz de usuario 94. La interfaz de usuario 94 preferiblemente incluye botones u otros tipos de conmutadores que permiten a un espectador seleccionar una de las señales 84 a través de las señales de control 92. A este respecto, el multiplexador 88, mediante técnicas bien conocidas en el oficio, selecciona una de las señales 84 sobre la base de las señales de control 92 y genera la señal seleccionada 84 como señal de salida 97, como se muestra en la Figura 8.
El receptor 75 incluye un filtro 41 de la señal de audio configurado para eliminar la o las señales de audio 25 de la señal 97. Por lo tanto, solamente la o las señales de vídeo 22 dentro de la señal 97 son transmitidas a una pantalla de visualización 101 que está configurada para ofrecer al espectador la o las señales de vídeo recibidas 22 (es decir, visualiza una imagen definida por la o las señales de vídeo recibidas 22).
El receptor 75 también incluye un filtro de señal de vídeo 43 configurado para eliminar la o las señales de vídeo 22 de la señal 97. Por lo tanto, solamente la o las señales de audio 25 dentro de la señal 97 son transmitidas a un altavoz 103, el cual está configurado para producir sonidos definidos por la o las señales de audio recibidas 25, mediante técnicas bien conocidas en el oficio.
En la realización preferida la pantalla de visualización 101 y el altavoz 103 están incluidos dentro de un visualizador montado en la cabeza (HMD), el cual es discutido posteriormente con más detalle. Utilizando dispositivos montados en la cabeza se puede mejorar la experiencia del espectador. Por ejemplo, cuando se usa un visualizador montado en la cabeza para mostrar una imagen desde dentro del vehículo desde una cámara situada en un coche de un conductor durante una carrera de coches el espectador ve una imagen similar a la del conductor del coche. Debido a que el visualizador montado en la cabeza limita la vista periférica que tiene el espectador del entorno alrededor de él, el usuario naturalmente enfoca la imagen proporcionada por el visualizador montado en la cabeza. Por lo tanto, el usuario puede sentir casi lo mismo que si estuviera conduciendo el coche junto con el conductor, lo que aumenta la experiencia del espectador. El visualizador montado en la cabeza puede igualmente mejorar la experiencia del espectador en otros eventos tales como eventos deportivos de otro tipo, por ejemplo.
Además, cuando la señal combinada 71 es transmitida a través de un cable coaxial el receptor 75 puede estar situado en un asiento de un espectador en un estadio o en cualquier otro sitio apropiado. Cuando la señal combinada 71 es transmitida a través de un transmisor inalámbrico el receptor 75 es portátil y un espectador puede llevar el receptor 75 con él y elegir dónde querría ver las imágenes y oír los sonidos producidos por el receptor 75.
Por lo tanto, el espectador puede permanecer en su asiento (o en cualquier otro lugar apropiado) y controlar manipulando los botones u otro tipo de conmutadores en la interfaz de usuario 94, cuya combinación de señales de vídeo y de audio 22 y 25 son respectivamente transmitidas a una pantalla de visualización 101 y a un altavoz 103. Por lo tanto, el sistema 20 da al espectador más flexibilidad sobre cómo ve la carrera y, como resultado, hace que disfrute más de la experiencia de la carrera.
Se debería observar que las señales de vídeo 22 y las señales de audio 25 puede ser transmitidas independientemente al receptor 75. Por ejemplo, las señales de vídeo 22 pueden ser procesadas y transmitidas al receptor 75 a través del dispositivo de interfaz 28 u otro tipo de dispositivo, y las señales de audio 25 pueden ser transmitidas al receptor 75 a través de otro dispositivo. Mediante técnicas convencionales el receptor 75 puede estar además configurado para seleccionar las señales de audio y de vídeo 25 y 22 para ser transmitidas al dispositivo de visualización 101 y al
altavoz 103.
Visualizadores montados en la cabeza
Muchos tipos diferentes de visualizadores montados en la cabeza pueden ser empleados para poner en práctica el presente invento. Ejemplos de visualizadores montados en la cabeza que pueden utilizarse para poner en práctica el presente invento se describen de forma completa en la Patente de EEUU Nº 5.844.656 titulada "Visualizador montado en la cabeza con componentes de ajuste" y presentada el 7 de noviembre de 1996 por Ronzani y otros, y la Patente de EEUU Nº 5.903.395 titulada "Sistema de representación visual personal" y presentada el 31 de agosto de 1994 por Rallison y otros, que son ambas incorporadas aquí como referencia. Las Figuras 4 y 5 representan un visualizador montado en la cabeza (HMD) 151 descrito por la Patente de EEUU Nº 5.903.395.
Como se ha representado en la Figura 4, el HMD 151 incluye un componente principal 152 que contiene la electrónica u óptica utilizadas para proporcionar una representación visual al espectador. El HMD 151 incluye también las patillas izquierda y derecha 154a y 154b que pueden ser usadas para ayudar y mantener la parte principal 152 en la posición deseada para proporcionar la salida de vídeo a los ojos del espectador. Se puede disponer un conductor de acoplamiento 156 para ayudar además a sostener el aparato en la posición deseada con respecto a la cabeza 158 del espectador. Se puede disponer una cabecera frontal 161 para ayudar además a colocar de forma apropiada la parte principal 152. La cabecera frontal 161 es útil para transferir parte del peso del aparato a la frente del espectador. Esto puede proporcionar una configuración más cómoda que cuando sustancialmente todo el peso es transferido a través de otros componentes tales como las patillas 154a y 154b, el conductor de acoplamiento de la cabeza 156 y/o una pieza de puente sobre la nariz (no mostrada) que pueden ser usadas en otros tipos de HMDs.
Como puede verse en la Figura 5, la cabecera frontal 161 de la cabeza se extiende hacia atrás una distancia 165 desde la parte principal 152 del aparato. Como consecuencia, hay una cantidad de espacio 166 entre la posición del ojo 167 del espectador y la parte 168 del aparato que se encuentra en la parte frontal de los ojos del espectador suficiente para poner las gafas del espectador, por ejemplo aproximadamente una pulgada o más (en una realización, aproximadamente 25 mm).
Está dispuesta una conexión para establecer comunicación o transferencia de datos al HMD 151 que, en la realización representada, tiene un cable 171 montado a lo largo del lado inferior de la patilla 154b. Como ejemplo, el demodulador 82 (Figura 3), el multiplexador 88, y la interfaz de usuario 94 pueden estar incluidos en un dispositivo independiente del HMD 151 mostrado en las Figuras 4 y 5. El cable 171 puede transmitir las señales 97 (Figura 3) a los filtros 41 y 43, que están situados en la parte principal 152. Las señales filtradas procedentes de los filtros 41 y 43 pueden ser respectivamente transmitidas al dispositivo de visualización 101 (Figura 3) y al altavoz 103 (Figura 3) a través de otros cables u otros tipos de conexiones.
Como puede verse en las Figuras 4 y 5, los altavoces 103a y 103b están respectivamente dispuestos en cada oído del espectador. Además, el dispositivo de visualización 101 (Figura 3) está formado por dos visualizadores de cristal líquido (LCDs) 175 que reciben señales de vídeo y producen imágenes sobre la base de las señales de vídeo recibidas mediante técnicas bien conocidas en el oficio. Cada uno de los LCDs 175 está colocado enfrente de un respectivo ojo del espectador de forma que cada ojo del espectador ve una imagen producida por uno de los LCDs 175.
En la realización representada un conmutador oscilante 179 puede usarse para proporcionar el control de un parámetro que varía a lo largo de una gama tal como el volumen del sonido producido por los altavoces 103a y 103b. Otros elementos que podrían ser controlados de esta forma incluyen, pero no están limitados a, tinte, tonalidad o contraste del vídeo, selección de una fuente de vídeo y/o de audio tal como la selección de canal, brillo de la imagen, tono de audio (es decir, control agudos/graves) y similares. Se puede usar un conmutador deslizante 181, por ejemplo para seleccionar entre elecciones discretas. Por ejemplo, el conmutador deslizante 181 puede usarse para seleccionar izquierda, derecha o ajuste con independencia de la fase de trama, para seleccionar entre imágenes estereoscópicas y no estereoscópicas, etc. Pueden también usarse otros controles y/o indicadores y pueden estar montados en diversas superficies del aparato montado en la cabeza mostrado en la Figura 4.
El altavoz izquierdo 103a está unido de forma móvil al extremo de la patilla 154a, por ejemplo mediante un brazo pivotante 185a que puede ajustarse lateralmente a una ranura de montaje 188a en las patillas 154a. El altavoz 103a puede ser mantenido en posición mediante rozamiento o se puede usar un apretador de retención 189 para fijar el altavoz 103a en la posición deseada. El altavoz derecho 103b está similarmente fijado a la patilla 154b. Los cables 191a y 191b se usan respectivamente en el HMD 151 de la Figura 4 para proporcionar las señales deseadas a los altavoces 103a y 103b, respectivamente. El conductor de acoplamiento en la cabeza 156 está preferiblemente acoplado con las patillas 154a y 154b a través de unos pivotes, abrazaderas, o anillos en forma de D derechos o izquierdos del conductor de acoplamiento 195a y 195b. Un mecanismo de ajuste de longitud y/o de tensión tal como una hebilla, por ejemplo, puede estar dispuesto en el conductor de acoplamiento 156.
En muchos eventos deportivos (por ejemplo carreras de automóviles, en particular), se producen ruidos relativamente altos. Por lo tanto, sería difícil para un usuario oír las señales de audio seleccionadas a través de muchos dispositivos montados en la cabeza convencionales, tal como el representado en las Figuras 4 y 5. Por lo tanto, los inventores han diseñado un HMD 250 que incluye dispositivos de reducción de ruido 252a y 252b para reducir la cantidad de ruido externo oído por un espectador, como se muestra en la Figura 6.
Similar al HMD 151 de la Figura 4, el HMD 250 incluye patillas 259a y 259b que están conectadas a la parte principal 152. La parte principal 152 y las patillas 259a y 259b forman un montaje en la cabeza al que pueden acoplarse otros componentes del HMD 151. Cada dispositivo de reducción de ruido 252a y 252b está diseñado de forma similar y está respectivamente acoplado a las patillas 259a y 259b de tal forma que cada dispositivo 252a y 252b se ajusta sobre un respectivo oído de un espectador durante su uso.
A este respecto, cada dispositivo de reducción de ruido 252a y 252b forma una concha en forma de copa que tiene un entrante 267 (Figuras 7A-7D). Preferiblemente, un colchón almohadillado 271, tal como el descrito en la Patente de EEUU Nº 4.856.118 titulada "Acolchamiento de auriculares", que está aquí incorporada como referencia, está colocado en la boca de cada dispositivo 252a y 252b, como se muestra en las Figuras 7A-7D, de forma que los dispositivos de reducción de ruido 252a y 252b se aplican de forma cómoda en la cabeza del espectador durante su uso. Cuando el dispositivo 252a y 252b está aplicado en la cabeza del espectador, el oído del espectador se ajusta en el entrante 267, y el dispositivo aplicado 252a o 252b impide que los ruidos exteriores lleguen al oído. Por lo tanto, los dispositivos 252a y 252b son similares a los auriculares descritos en la Patente de EEUU Nº 5.023.955 titulada "Auriculares absorbentes de impactos y atenuadores de ruido", presentada el 13 de abril de 1989, por Murphy, II y otros, que está aquí incorporada como referencia.
Similar a la Patente de EEUU Nº 5.018.599, titulada "Dispositivo de auricular", y presentada el 18 de septiembre de 1989, por Masahito y otros, que está aquí incorporada como referencia, cada dispositivo de reducción de ruido 252a y 252b está respectivamente acoplado a y aloja unos altavoces 103a y 103b. Los altavoces 103a y 103b están respectivamente acoplados a los cables 191a y 191b y producen un sonido que corresponde a las señales de audio transmitidas a través de los cables 191a y 191b. En consecuencia, en uso, aunque los ruidos externos se atenúan el espectador puede claramente oír las señales de audio seleccionadas producidas por los altavoces 103a y 103b.
A continuación se describirá con más detalle el dispositivo 252a. Sin embargo, debería ser evidente para un experto en la técnica que el dispositivo 252b tiene las mismas características que el dispositivo 252a excepto que el dispositivo 252b está acoplado a la patilla 259b (en vez de a la pieza 259a) y está diseñado para cubrir el oído opuesto del espectador.
Con referencia a las Figuras 7A, 8A y 8B, el dispositivo 252a incluye preferiblemente un elemento 281 que tiene una ranura 283 adaptada para recibir la patilla 259a. El elemento 281 incluye también un agujero 286. En funcionamiento, la patilla 259a atraviesa la ranura 283, y un elemento de fijación 288 (Figura 9), tal como un perno o un tornillo, por ejemplo, atraviesa el agujero 286 y atraviesa una ranura 264 (Figura 9) en la patilla 259a.
El elemento de fijación 288 está preferiblemente fijado a la patilla 259a y al elemento 281 mediante cualquier técnica apropiada. Por ejemplo, el elemento de fijación 288 puede ser atornillado mediante el elemento 281 a través del agujero 286, y el elemento de fijación 288 puede también ser atornillado mediante una pieza 291 (Figura 9) situada en un lado de la patilla 259a opuesta al elemento 281. Por lo tanto, el elemento 281 está fijado a la patilla 259a mediante el elemento de fijación 288. Sin embargo, resultaría evidente a un experto en el oficio que otros dispositivos y metodologías pueden emplearse para fijar el elemento 281 a la patilla 259a.
\newpage
Como se muestra en la Figura 10, en un lado de la patilla está formado un nervio 301 que se aplica en una pared 299 (Figura 7A) de la ranura 283. Como se muestra en la Figura 7A, una parte de la pared 299 de la ranura 283 incluye una serie de muescas 303 siendo cada una de ellas capaz de recibir el nervio 301. Cuando el nervio 301 es recibido por una muesca 303, como se muestra en la Figura 9, cualquier fuerza que tienda a mover el dispositivo 252a con relación a la patilla 259a en la dirección X hace que el nervio 301 haga presión contra una parte de la pared 299 que forma la muesca 303 hasta que el dispositivo 252a sea empujado con una fuerza suficiente para deformar una parte flexible 311 de la patilla 259a. La parte flexible 311 está colocada contigua a la ranura 312 para permitir que la parte flexible 311 se deforme separándose de la superficie 299. Una vez ocurrido esto, el nervio 301 se mueve más fácilmente pasada la muesca 303, permitiendo a la patilla 259a moverse con relación al elemento 281 y, por lo tanto, al dispositivo 252a. La parte flexible 311 preferiblemente tiene una elasticidad suficiente para volver a su estado no deformado antes de que el nervio 301 se mueva pasada la muesca 303. Por consiguiente, después de moverse pasada la muesca anteriormente mencionada 303, el nervio 301 debería aplicarse en una parte de la pared que forma otra muesca 303.
Por lo tanto, el usuario puede deslizar el dispositivo 252a en la dirección X a lo largo de la longitud de la patilla 259a haciendo que el nervio 301 sea recibido por muescas diferentes 303 hasta que el dispositivo 252a esté adecuadamente situado con relación a la cabeza del espectador (es decir, hasta que el oído del espectador esté cómodamente colocado dentro del entrante 267 del dispositivo 252a).
Una vez que el espectador se detiene deslizando el dispositivo 252a y el nervio 301 es recibido por una de las muescas 303, la posición del dispositivo 252a con relación a la patilla 259a y, por lo tanto, a la cabeza del espectador debería permanecer constante hasta que se ejerza sobre el HMD 250 una fuerza suficiente para deformar la parte flexible.
Como se muestra en la Figura 6, el dispositivo 252a está preferiblemente asegurado a un extremo del conductor de acoplamiento 156. Por lo tanto, cada extremo del conductor de acoplamiento 156 está adaptado a cada uno de los dispositivos de reducción de ruido 252a y 252b. Para asegurar los dispositivos 252a y 252b al conductor de acoplamiento 156, cada dispositivo 252a y 252b puede incluir una grapa, presilla, abrazadera, anillo 304 u otro tipo de dispositivo de sujeción. La longitud del conductor de acoplamiento 156 puede ajustarse mediante técnicas convencionales para ajustar el tamaño del HMD 250. Por lo tanto, para colocarse el HMD 250, un usuario coloca la cabecera frontal 161 (Figura 6) contra la parte delantera de su cabeza y coloca el conductor de acoplamiento 156 alrededor de la parte trasera de su cabeza. El espectador aprieta entonces el conductor de acoplamiento 156 (es decir, reduce la longitud del conductor de acoplamiento 156) hasta que el HMD 250 esté cómodamente situado en su sitio. El espectador ajusta la posición de los dispositivos 252a y 252b deslizando respectivamente los dispositivos 252a y 252b a lo largo de la longitud de la patilla 259a y 259b en la dirección X hasta que los dispositivos 252a y 252b estén situados adecuadamente. Entonces, el espectador puede además apretar el conductor de acoplamiento 156 como desee para posteriormente presionar la cabecera frontal 161 y los dispositivos 252a y 252b contra la cabeza del espectador.
A este respecto, al apretar el conductor de acoplamiento 156 se reduce la circunferencia del HMD 250, con lo que presiona cada dispositivo 252a y 252b y la cabecera frontal 161 además contra la cabeza del espectador. Hasta un cierto grado, cuanto más se aprieta el conductor de acoplamiento 156 tanto más se atenúa el ruido exterior, y es menos probable que el HMD 250 se mueva con respecto a la cabeza del espectador. Por lo tanto, el espectador puede apretar o aflojar
el conductor de acoplamiento 156 como desee hasta que se consiga el ajuste deseado y la reducción de ruido deseada.
Se debería observar que es posible cambiar la posición del nervio 301 con las muescas 303. En otras palabras, es posible formar el nervio 301 en una parte flexible del dispositivo 252a y formar las estrías 303 en la patilla 259a sin afectar materialmente a las características o al funcionamiento del HMD 250.
Funcionamiento
A continuación se describe el uso y funcionamiento preferidos del sistema de vídeo/audio 20 y la metodología asociada.
Se acepta con fines ilustrativos que un espectador querría asistir a una carrera de coches y querría tener acceso a una visión desde dentro de un coche desde una cámara dentro del coche de su conductor favorito. Además, el espectador querría también oír continuamente el diálogo entre el conductor anteriormente mencionado y su equipo de mecánicos, así como los comentarios proporcionados por su comentarista de radio favorito. Sería evidente que otras imágenes y/o sonidos podrían ser deseables en otros ejemplos.
En el pasado el espectador tenía que atender a la competición y comprar (así como sintonizar) una radio para recibir los comentarios del comentarista y una radio para recibir las señales de radio transmitidas entre el conductor y su equipo de mecánicos. Después, el espectador situaría un monitor en el estadio visionando las imágenes de dentro del coche que deseara ver, suponiendo que dispusiera de tal monitor. El espectador permanecería entonces dentro del campo de visión del monitor y escucharía las dos radios. Si el monitor no está situado en un lugar apropiado para ver la carrera, el espectador tendría que elegir entre ver el monitor y ver la carrera en un lugar deseado. Además, la manipulación de varias radios es generalmente pesada y distrae la atención.
Sin embargo, de acuerdo con el presente invento, el usuario atiende la carrera y está provisto de un receptor 75 para su uso individual. En la realización preferida, el receptor 75 está situado en el asiento del espectador dentro del estadio. Sin embargo, el receptor 75 puede estar situado en otros lugares convenientes, y cuando la señal combinada 71 es transmitida a través de un transmisor inalámbrico, el espectador puede llevar el receptor 75 con él a cualquier lugar deseado dentro o en los alrededores del estadio.
El receptor preferiblemente incluye el HMD 250 representado en la Figura 8. Por lo tanto, el espectador se pone el HMD 250 de forma que la cabecera frontal 161 esté presionada contra la parte delantera de la cabeza y cada dispositivo de reducción de ruido 252a y 252b cubra un oído del espectador. Entonces, el espectador ajusta la longitud del conductor de acoplamiento 156 hasta que el HMD 250 se ajuste apropiadamente sobre su cabeza. El espectador manipula entonces los botones u otro tipo de conmutadores en la interfaz del usuario 94 para controlar qué señal 84 es generada por el multiplexador 88 y, por lo tanto, qué señales 22 y 25 se transmiten a través de cable 171 al HMD 250. Mediante técnicas conocidas en el oficio, las imágenes definidas por las señales de vídeo transmitidas por el cable 171 son mostradas por el dispositivo de visualización 101 (por ejemplo, los LCDs 175), y los sonidos definidos por las señales de audio transmitidas por el cable 171 son producidos por los altavoces 103a y 103b, los cuales están respectivamente situados dentro de los dispositivos 252a y 252b. En consecuencia, el espectador puede usar el receptor 75 para ver las imágenes deseadas de la carrera (es decir, la imagen de dentro del coche) y oír los sonidos deseados de la
carrera (es decir, el diálogo entre el conductor y su equipo de mecánicos, y los comentarios del comentarista de radio).
A este respecto, el dispositivo de interfaz 28 preferiblemente recibe al menos una señal de vídeo 22 que define la imagen desde dentro del coche de su conductor favorito y una pluralidad de señales de audio 25 que definen el diálogo entre su conductor favorito y su equipo de mecánicos, así como los comentarios de su comentarista de radio favorito. Al menos uno de los combinadores de audio 52 combina estas señales de audio 25 en una señal combinada 55. Uno de los moduladores de señal 61 recibe esta señal combinada 55 y la señal de vídeo 22 que define la imagen deseada desde dentro del coche. Esta señal de vídeo es modulada y combinada con la señal combinada previa 55 por uno de los moduladores de señal 61 para crear una señal modulada 64. Esta señal modulada 64 se combina con otras señales moduladas 64 y se transmite al receptor del espectador 75 a través de un combinador 67.
El demodulador 82 en el receptor del espectador 75 demodula y separa la señal recibida 71 en señales independientes 84. Sobre la base de las señales de control 92 recibidas de la interfaz de usuario 94, el multiplexador 88 permite que pase solamente la señal 84 definida por las señales de vídeo y de audio 22 y 25 anteriormente mencionadas. Por lo tanto, estas señales de vídeo y de audio 22 y 25 son respectivamente transmitidas al dispositivo de visualización 101 y a los altavoces 103a y 103b y el espectador puede disfrutar de la imagen y sonido que ha seleccionado.
Se debería observar que no es necesario para el espectador mantener el receptor 75 dentro del estadio. A este respecto, la señal 71 puede ser transmitida a vía satélite y/o redes de comunicación a diversos lugares en todo el mundo, y el espectador puede seleccionar las imágenes y sonidos que prefiera de cualquier lugar capaz de recibir la señal 71.
También se debería observar que el receptor 75 puede ser recuperado del espectador después de que el espectador haya finalizado de ver el evento, de forma que el receptor puede ser dado a otro espectador para otro evento en el estadio. A cada espectador se le cobra preferiblemente una tasa de uso por la utilización del receptor 75. Se debería observar que una parte del receptor 75 puede estar instalada en el asiento del espectador de forma que el usuario sólo necesite recuperar el HMD 151 y/o otros componentes del receptor 75 durante el evento y devolver después del evento los componentes recuperados. Además, todo el receptor 75 puede ser instalado en el asiento del espectador de forma que ese espectador sólo necesita pagar por el uso del receptor.
Además, puede ser deseable para una de las señales de audio 25 tener una mayor amplitud que las otras señales de audio 25. Por ejemplo, un espectador puede desear oír comentarios de un comentarista de radio a menos que se produzca una comunicación entre su conductor favorito y su equipo de mecánicos. Cuando se produce la comunicación entre el conductor y su equipo de mecánicos, el espectador oiría más bien esta comunicación en lugar de los comentarios del comentarista de radio.
Por lo tanto, uno de los combinadores de audio 25 es preferiblemente usado para combinar una primera señal de audio 25 que define los comentarios del comentarista de radio y una segunda señal de audio que define las comunicaciones entre el conductor y su equipo de mecánicos preferiblemente aumenta la amplitud de la segunda señal de audio 25 con relación a la primera señal de audio. Esto puede realizarse aumentando la amplitud de la segunda señal de audio 25 con un amplificador o atenuando la amplitud de la primera señal de audio 25 con un atenuador. Por lo tanto, cuando la señal combinada 55 producida por el combinador de audio 52 anteriormente mencionado es en último lugar recibida por el receptor 75 del espectador, el cual produce un sonido sobre la base de esta señal combinada 55, el usuario oye los comentarios del comentarista de radio cuando no existe comunicación entre el conductor y su equipo de mecánicos. Sin embargo, cuando existe una comunicación entre el conductor y su equipo de mecánicos esta comunicación es más alta que los comentarios del comentarista de radio. Por lo tanto, el espectador puede claramente oír las comunicaciones entre el conductor y su equipo de mecánicos aun cuando la capacidad de oír claramente los comentarios del comentarista de radio esté deteriorada. Se debería observar que las técnicas anteriormente mencionadas para aumentar la amplitud de una señal de audio 25 con relación a otras pueden emplearse para diferentes combinaciones de señales de audio 25 y no están limitadas a la combinación a modo de ejemplo descrita anteriormente.
Además, también se debería observar que el presente invento ha sido descrito aquí en el contexto de las carreras de coches. Sin embargo, el sistema 20 puede ser útil.
Se debería resaltar que las realizaciones del presente invento anteriormente descritas, particularmente cualesquiera realizaciones "preferidas", son solamente posibles ejemplos de puestas en práctica, solamente expuestas para un claro entendimiento de los principios del invento. Se pueden hacer muchas variaciones y modificaciones en las realizaciones anteriormente descritas del invento sin apartarse del sustancialmente del ámbito del invento. Se pretende que tales modificaciones y variaciones se incluyan aquí dentro del ámbito del presente invento y protegidas por las reivindicaciones.

Claims (16)

1. Un método que comprende los pasos de:
recibir una pluralidad de señales de audio asociadas con un evento;
recibir una pluralidad de señales de vídeo asociadas con dicho evento;
combinar dichas señales de audio y de vídeo para formar una señal multiplexada que incluye una pluralidad de señales combinadas, definiendo dichas señales combinadas combinaciones diferentes de dichas señales de vídeo y de audio;
transmitir dicha señal multiplexada a receptores portátiles (75) que son llevados por usuarios a cualquier lugar deseado en o alrededor de dicho evento, recibiendo dicha señal multiplexada en el receptor portátil (75);
demultiplexar, en los receptores portátiles (75) dicha señal multiplexada para recuperar dichas señales de audio y de vídeo;
recibir del usuario entradas en el receptor portátil (75);
seleccionar en el receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada y al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dichas entradas realizadas por dicho usuario;
visualizar en un dispositivo de visualización (101) del receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección; y
producir en un altavoz (103) del receptor portátil (75) el sonido definido por al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección.
2. El método de la reivindicación 1, que además comprende el paso de realizar dicho paso de visualización a través de un visualizador montado en la cabeza (151).
3. El método de la reivindicación 1, en el que al menos una de dichas señales de audio es transmitida desde una radio de ultra alta frecuencia (UHF).
4. El método de la reivindicación 1, en el que dicha pluralidad de señales de audio incluye una primera señal de audio que define un sonido y una segunda señal de audio que define dicho sonido y en el que dicha primera señal de audio está incluida dentro de una de dichas señales combinadas y dicha segunda señal de audio está incluida en otra de dichas señales combinadas.
5. El método de la reivindicación 1, en el que dicha pluralidad de señales de vídeo incluye una primera señal de vídeo que define una imagen y una segunda señal de vídeo que define dicha imagen, y en el que dicha primera señal de vídeo está incluida dentro de una de dichas señales combinadas y dicha segunda señal de vídeo está incluida en otra de dichas señales combinadas.
6. El método de la reivindicación 1, en el que el paso de recibir una pluralidad de señales de audio comprende además recibir al menos una señal de audio asociada con dicho evento, y el paso de recibir una pluralidad de señales de vídeo comprende además recibir al menos una señal de vídeo asociada con dicho evento.
7. El método de la reivindicación 6, en el que cada una de dicha pluralidad de señales combinadas incluye al menos una de dichas señales de audio y al menos una de dichas señales de vídeo.
8. El método de la reivindicación 6, en el que una de dichas señales de audio es transmitida desde una emisora de radio.
9. El método de la reivindicación 6, en el que una de dichas señales de audio es transmitida desde una radio de ultra alta frecuencia (UHF) situada en dicho evento.
10. El método de la reivindicación 6, en el que dicho evento es un evento deportivo o una carrera de coches.
11. Un sistema que comprende:
un medio para recibir una pluralidad se señales de audio asociadas con un evento;
un medio para recibir una pluralidad se señales de vídeo asociadas con dicho evento;
un medio para combinar dichas señales de audio y de vídeo para formar una señal multiplexada que incluye una pluralidad de señales combinadas, definiendo dichas señales combinadas diferentes combinaciones de dichas señales de vídeo y de audio;
un medio para transmitir dicha señal multiplexada a receptores portátiles (75) que son llevados por los usuarios a algún lugar deseado o alrededor de dicho evento;
un medio para recibir dicha señal multiplexada en el receptor portátil (75);
un medio para demultiplexar, en los receptores portátiles (75), dicha señal multiplexada para recuperar dichas señales de audio y de vídeo;
un medio para recibir del usuario entradas en el receptor portátil (75);
un medio para seleccionar en el receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada y al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dichas entradas realizadas por dicho usuario;
un medio para visualizar en un visualizador (101) del receptor portátil (75) al menos una señal de vídeo que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección; y
un medio para producir en un altavoz (103) del receptor portátil (75) un sonido definido por al menos una señal de audio que está asociada con el evento y que está incluida en dicha señal multiplexada sobre la base de dicho paso de selección.
12. El sistema (20) de la reivindicación 11, en el que dicho visualizador (101) y el altavoz (103) de cada receptor (75) están incluidos en el visualizador montado en la cabeza (151) para visualizar al menos una señal de vídeo seleccionada y producir dichos sonidos sobre la base de al menos una señal de audio seleccionada.
13. El sistema (20) de la reivindicación 11, en el que el medio para combinar (52, 67) comprende un combinador de señales (67) que combina las señales de audio y de vídeo en dicha señal multiplexada (71) y en el que los receptores portátiles (75) reciben inalámbricamente dicha señal multiplexada (71) y reproduce una de las señales de audio (25) seleccionadas y una de las señales de vídeo (22) seleccionadas.
14. El sistema (20) de la reivindicación 11, en el que el medio para combinar (52, 67) comprende un combinador de audio (52) que recibe solamente una señal de audio (25) y genera una señal de audio combinada (55) que se corresponde con la señal de audio (25) recibida por el combinador de audio (52).
15. El sistema (20) de la reivindicación 11, que además comprende una pluralidad de moduladores de señal (61) que modulan las correspondientes señales de audio y de vídeo que son recibidas en una única gama de frecuencias.
16. El sistema (20) de la reivindicación 11, en el que cada uno de los receptores portátiles (75) incluye un demodulador (82) configurado para demodular y separar las señales de audio y de vídeo que son recibidas sobre la base de la frecuencia.
ES00917791T 1999-03-08 2000-03-08 Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento. Expired - Lifetime ES2331175T3 (es)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US12334199P 1999-03-08 1999-03-08
US123341P 1999-03-08
US09/322,411 US6578203B1 (en) 1999-03-08 1999-05-28 Audio/video signal distribution system for head mounted displays
US322411 1999-05-28
US13732399P 1999-06-03 1999-06-03
US137323P 1999-06-03
US386613 1999-08-31
US09/386,613 US7124425B1 (en) 1999-03-08 1999-08-31 Audio/video system and method utilizing a head mounted apparatus with noise attenuation

Publications (1)

Publication Number Publication Date
ES2331175T3 true ES2331175T3 (es) 2009-12-23

Family

ID=27494481

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00917791T Expired - Lifetime ES2331175T3 (es) 1999-03-08 2000-03-08 Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento.

Country Status (11)

Country Link
US (1) US7124425B1 (es)
EP (2) EP1166596B1 (es)
JP (1) JP2002539701A (es)
CN (1) CN100353771C (es)
AT (1) ATE443411T1 (es)
AU (1) AU779175B2 (es)
CA (2) CA2369832C (es)
DE (1) DE60042967D1 (es)
ES (1) ES2331175T3 (es)
PT (1) PT1166596E (es)
WO (1) WO2000054554A1 (es)

Families Citing this family (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7162532B2 (en) 1998-02-23 2007-01-09 Koehler Steven M System and method for listening to teams in a race event
US6578203B1 (en) 1999-03-08 2003-06-10 Tazwell L. Anderson, Jr. Audio/video signal distribution system for head mounted displays
US20020057364A1 (en) 1999-05-28 2002-05-16 Anderson Tazwell L. Electronic handheld audio/video receiver and listening/viewing device
US7210160B2 (en) * 1999-05-28 2007-04-24 Immersion Entertainment, L.L.C. Audio/video programming and charging system and method
JP2002051320A (ja) * 2000-05-10 2002-02-15 Sharp Corp データ記録装置、それを用いた興行記録システム、興行用入場券、データ記録のためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
US6325507B1 (en) 2000-06-02 2001-12-04 Oakley, Inc. Eyewear retention system extending across the top of a wearer's head
US7461936B2 (en) * 2000-06-02 2008-12-09 Oakley, Inc. Eyeglasses with detachable adjustable electronics module
US20120105740A1 (en) 2000-06-02 2012-05-03 Oakley, Inc. Eyewear with detachable adjustable electronics module
US7782363B2 (en) 2000-06-27 2010-08-24 Front Row Technologies, Llc Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences
US7796162B2 (en) 2000-10-26 2010-09-14 Front Row Technologies, Llc Providing multiple synchronized camera views for broadcast from a live venue activity to remote viewers
US7630721B2 (en) 2000-06-27 2009-12-08 Ortiz & Associates Consulting, Llc Systems, methods and apparatuses for brokering data between wireless devices and data rendering devices
US7149549B1 (en) 2000-10-26 2006-12-12 Ortiz Luis M Providing multiple perspectives for a venue activity through an electronic hand held device
US7812856B2 (en) 2000-10-26 2010-10-12 Front Row Technologies, Llc Providing multiple perspectives of a venue activity to electronic wireless hand held devices
US8583027B2 (en) 2000-10-26 2013-11-12 Front Row Technologies, Llc Methods and systems for authorizing computing devices for receipt of venue-based data based on the location of a user
CA2348353A1 (en) 2001-05-22 2002-11-22 Marc Arseneau Local broadcast system
US7013009B2 (en) 2001-06-21 2006-03-14 Oakley, Inc. Eyeglasses with wireless communication features
US8409024B2 (en) * 2001-09-12 2013-04-02 Pillar Vision, Inc. Trajectory detection and feedback system for golf
US7593687B2 (en) 2003-10-07 2009-09-22 Immersion Entertainment, Llc System and method for providing event spectators with audio/video signals pertaining to remote events
US20050280705A1 (en) * 2004-05-20 2005-12-22 Immersion Entertainment Portable receiver device
WO2007009225A1 (en) 2005-07-22 2007-01-25 Kangaroo Media Inc. System and methods for enhancing the experience of spectators attending a live sporting event
US8042140B2 (en) 2005-07-22 2011-10-18 Kangaroo Media, Inc. Buffering content on a handheld electronic device
US8929870B2 (en) 2006-02-27 2015-01-06 Qualcomm Incorporated Methods, apparatus, and system for venue-cast
CA2569967A1 (en) * 2006-04-07 2007-10-07 Marc Arseneau Method and system for enhancing the experience of a spectator attending a live sporting event
WO2008035612A1 (fr) * 2006-09-19 2008-03-27 Nikon Corporation Dispositif de sortie et écran pouvant être porté
US7740353B2 (en) 2006-12-14 2010-06-22 Oakley, Inc. Wearable high resolution audio visual interface
US9136957B1 (en) * 2006-12-21 2015-09-15 Sprint Communications Company L.P. Mobile device activation for events
US9430074B2 (en) 2008-01-04 2016-08-30 Tactus Technology, Inc. Dynamic tactile interface
US8456438B2 (en) 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
US8704790B2 (en) 2010-10-20 2014-04-22 Tactus Technology, Inc. User interface system
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US8179375B2 (en) 2008-01-04 2012-05-15 Tactus Technology User interface system and method
US9423875B2 (en) 2008-01-04 2016-08-23 Tactus Technology, Inc. Dynamic tactile interface with exhibiting optical dispersion characteristics
US9552065B2 (en) 2008-01-04 2017-01-24 Tactus Technology, Inc. Dynamic tactile interface
US8947383B2 (en) 2008-01-04 2015-02-03 Tactus Technology, Inc. User interface system and method
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US9128525B2 (en) 2008-01-04 2015-09-08 Tactus Technology, Inc. Dynamic tactile interface
US8243038B2 (en) 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
US8553005B2 (en) 2008-01-04 2013-10-08 Tactus Technology, Inc. User interface system
US8922510B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9052790B2 (en) 2008-01-04 2015-06-09 Tactus Technology, Inc. User interface and methods
US9588683B2 (en) 2008-01-04 2017-03-07 Tactus Technology, Inc. Dynamic tactile interface
US8547339B2 (en) 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US9557915B2 (en) 2008-01-04 2017-01-31 Tactus Technology, Inc. Dynamic tactile interface
US8587541B2 (en) 2010-04-19 2013-11-19 Tactus Technology, Inc. Method for actuating a tactile interface layer
US9298261B2 (en) 2008-01-04 2016-03-29 Tactus Technology, Inc. Method for actuating a tactile interface layer
US8570295B2 (en) 2008-01-04 2013-10-29 Tactus Technology, Inc. User interface system
US8179377B2 (en) 2009-01-05 2012-05-15 Tactus Technology User interface system
US9013417B2 (en) 2008-01-04 2015-04-21 Tactus Technology, Inc. User interface system
US9720501B2 (en) 2008-01-04 2017-08-01 Tactus Technology, Inc. Dynamic tactile interface
US9760172B2 (en) 2008-01-04 2017-09-12 Tactus Technology, Inc. Dynamic tactile interface
US9612659B2 (en) 2008-01-04 2017-04-04 Tactus Technology, Inc. User interface system
US8154527B2 (en) 2008-01-04 2012-04-10 Tactus Technology User interface system
JP4737251B2 (ja) 2008-08-20 2011-07-27 ソニー株式会社 ヘッドホン
US8635645B2 (en) 2008-09-30 2014-01-21 Qualcomm Incorporated Apparatus and methods of providing and receiving venue level transmissions and services
CN101753940A (zh) * 2008-12-12 2010-06-23 康佳集团股份有限公司 可录制电视节目的电视机
US8254304B2 (en) * 2008-12-14 2012-08-28 Qualcomm Incorporated Channel capacity adaptive repeater
US9588684B2 (en) 2009-01-05 2017-03-07 Tactus Technology, Inc. Tactile interface for a computing device
WO2010078596A1 (en) 2009-01-05 2010-07-08 Tactus Technology, Inc. User interface system
US9137495B2 (en) * 2009-01-30 2015-09-15 Yinzcam, Inc. Systems and methods for providing interactive video services
AU2009201810A1 (en) * 2009-05-06 2010-11-25 Jorge Miguel Pereira Ear Muffs
US20100309290A1 (en) * 2009-06-08 2010-12-09 Stephen Brooks Myers System for capture and display of stereoscopic content
EP2449452B1 (en) 2009-07-03 2016-02-10 Tactus Technology User interface enhancement system
US8879440B2 (en) * 2009-09-29 2014-11-04 Qualcomm Incorporated Method and apparatus for ad hoc venue-cast service
WO2011087816A1 (en) 2009-12-21 2011-07-21 Tactus Technology User interface system
CN102782617B (zh) 2009-12-21 2015-10-07 泰克图斯科技公司 用户接口系统
US9239623B2 (en) 2010-01-05 2016-01-19 Tactus Technology, Inc. Dynamic tactile interface
US8619035B2 (en) 2010-02-10 2013-12-31 Tactus Technology, Inc. Method for assisting user input to a device
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
WO2011112984A1 (en) 2010-03-11 2011-09-15 Tactus Technology User interface system
WO2012054781A1 (en) 2010-10-20 2012-04-26 Tactus Technology User interface system and method
US9330499B2 (en) * 2011-05-20 2016-05-03 Microsoft Technology Licensing, Llc Event augmentation with real-time information
US8175297B1 (en) 2011-07-06 2012-05-08 Google Inc. Ad hoc sensor arrays
FR2982110B3 (fr) * 2012-01-10 2014-03-14 Samsung Electronics Co Ltd Dispositif de lunettes pour visionner une image d'affichage
US9519640B2 (en) * 2012-05-04 2016-12-13 Microsoft Technology Licensing, Llc Intelligent translations in personal see through display
GB2501768A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mounted display
GB2501767A (en) * 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Noise cancelling headset
CN102739323B (zh) * 2012-06-16 2013-09-04 天地融科技股份有限公司 音频数据传输方法
US10176635B2 (en) 2012-06-28 2019-01-08 Microsoft Technology Licensing, Llc Saving augmented realities
CN104662497A (zh) 2012-09-24 2015-05-27 泰克图斯科技公司 动态触觉界面和方法
US9405417B2 (en) 2012-09-24 2016-08-02 Tactus Technology, Inc. Dynamic tactile interface and methods
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
CN205177388U (zh) 2013-03-15 2016-04-20 奥克利有限公司 目镜系统
WO2014201213A1 (en) 2013-06-12 2014-12-18 Oakley, Inc. Modular heads-up display system
US9557813B2 (en) 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion
US9317120B2 (en) 2013-09-06 2016-04-19 Immersion Corporation Multiplexing and demultiplexing haptic signals
USD738374S1 (en) * 2013-11-15 2015-09-08 Oculus Vr, Llc Virtual reality headset
JP6678346B2 (ja) * 2014-05-13 2020-04-08 パナソニックIpマネジメント株式会社 装着装置
USD732028S1 (en) * 2014-12-09 2015-06-16 Samsung Electronics Co., Ltd. Head-mounted display device
US9472025B2 (en) * 2015-01-21 2016-10-18 Oculus Vr, Llc Compressible eyecup assemblies in a virtual reality headset
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10365493B2 (en) * 2016-12-23 2019-07-30 Realwear, Incorporated Modular components for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
JP2018152812A (ja) * 2017-03-15 2018-09-27 ソニー株式会社 ヘッドホン
US10278001B2 (en) 2017-05-12 2019-04-30 Microsoft Technology Licensing, Llc Multiple listener cloud render with enhanced instant replay
AU2019225246B2 (en) 2018-02-26 2022-11-17 Cewi Networks, Inc. Systems and methods for broadcasting digital data to a plurality of receivers
US10656670B2 (en) 2018-06-04 2020-05-19 Htc Corporation Head-mounted display device

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1527802A (en) 1923-01-17 1925-02-24 Huggins Kenneth Levi Soundproof attachment for ear phones
US1648832A (en) 1924-08-15 1927-11-08 Urban Ladislaus Phone pillar
US2603724A (en) 1948-10-30 1952-07-15 Rca Corp Sound translating device arranged to eliminate extraneous sound
US2856469A (en) 1955-12-05 1958-10-14 Morse Milton Earphone barrier device
US2946860A (en) 1957-01-03 1960-07-26 Rca Corp Headset
DE3042269A1 (de) 1980-11-08 1982-06-09 Basf Ag, 6700 Ludwigshafen Verfahren und anordnungen zum veraendern der audioinformation in einem audio/video-aufzeichnungs/wiedergabesystem
US4965825A (en) 1981-11-03 1990-10-23 The Personalized Mass Media Corporation Signal processing apparatus and methods
JPS58136181A (ja) 1982-02-05 1983-08-13 Sony Corp 受信装置
JPS58121473U (ja) 1982-02-09 1983-08-18 ソニー株式会社 音声多重受信機
US4504861A (en) 1982-02-18 1985-03-12 Emcee A Division Of Electronics, Missiles & Communications, Inc. Portable TV transmitter
US4580174A (en) 1982-11-19 1986-04-01 Sony Corporation Apparatus for recording and/or reproducing video and audio signals
GB8308484D0 (en) 1983-03-28 1983-05-05 Racal Safety Ltd Hearing protectors
US4605950A (en) 1983-09-20 1986-08-12 Cbs Inc. Two channel compatible high definition television broadcast system
US4620068A (en) 1984-06-06 1986-10-28 Remic Corporation Communication headset
SE450085B (sv) 1984-07-04 1987-06-09 Bo Gunnar Lonnstedt Bygel for t ex horselskydd
US5023707A (en) 1985-12-02 1991-06-11 Media Transference International, Ltd. System for combining multiple audio channels into the baseband video signal and the recovery of the audio channels therefrom
US4856089A (en) 1986-07-28 1989-08-08 Horton Lee A Combined eye covering and ear covering assembly
SE8604244L (sv) 1986-10-06 1988-04-11 Finnveden Holding Ab Tryckring for horselskydd
US4727585A (en) 1986-11-24 1988-02-23 Telex Communications, Inc. Adjustable tension support band for headset
JP2658030B2 (ja) * 1987-01-30 1997-09-30 ソニー株式会社 情報伝送装置
US4887152A (en) 1987-01-30 1989-12-12 Sony Corporation Message delivery system operable in an override mode upon reception of a command signal
US4856118A (en) 1987-02-11 1989-08-15 Bose Corporation Headphone cushioning
US4864425A (en) 1987-06-10 1989-09-05 Leonard Bloom Video recording camera
US4791477A (en) 1987-06-10 1988-12-13 Leonard Bloom Video recording camera
US4809079A (en) 1987-06-10 1989-02-28 Leonard Bloom Video recording camera
US4764817A (en) 1987-06-10 1988-08-16 Leonard Bloom Video recording camera
US4855827A (en) 1987-07-21 1989-08-08 Worlds Of Wonder, Inc. Method of providing identification, other digital data and multiple audio tracks in video systems
SE465014C (sv) 1987-09-02 1997-11-24 Kompositprodukter Sk Fm Ab Hörselskydd
US4983967A (en) 1987-10-16 1991-01-08 I.R.T. Electronics Pty. Limited Transmission of audio in a video signal
US4802243A (en) 1987-10-26 1989-02-07 Griffiths John W Acoustic headgear-sun visor assembly
JPH01136277A (ja) 1987-11-24 1989-05-29 Toshiba Corp 所見入力装置
GB2215083B (en) 1988-02-16 1992-02-05 Graham Green Optical aid for attachment to a human body.
SE463803B (sv) 1988-04-28 1991-01-28 Milmas Ab Fjaedrande monteringsarm foer hoerselskydd
US4853764A (en) * 1988-09-16 1989-08-01 Pedalo, Inc. Method and apparatus for screenless panoramic stereo TV system
JPH0297198A (ja) 1988-10-03 1990-04-09 Sony Corp ヘッドホン装置
US5128765A (en) 1988-11-29 1992-07-07 Visual Subliminal Technologies, Inc. System for implementing the synchronized superimposition of subliminal signals
US4982278A (en) 1989-02-15 1991-01-01 Dahl Thomas R Binocular stereovision
US5023955A (en) 1989-04-13 1991-06-18 Gentex Corporation Impact-absorbing sound-attenuating earcup
JP2785337B2 (ja) 1989-06-19 1998-08-13 ソニー株式会社 磁気記録再生装置
US5020163A (en) 1989-06-29 1991-06-04 Gentex Corporation Earseal for sound-attenuating earcup assembly
US4958697A (en) 1989-09-11 1990-09-25 The United States Of America As Represented By The Secretary Of The Army Anatomically shaped earseals for headsets
US5046192A (en) 1989-09-26 1991-09-10 Ryder International Corporation Headset sun visor
US5133081A (en) 1989-11-03 1992-07-21 Mayo Scott T Remotely controllable message broadcast system including central programming station, remote message transmitters and repeaters
JPH03203478A (ja) * 1989-12-28 1991-09-05 Sony Corp 顔面装着型視覚装置
US5130815A (en) 1990-07-20 1992-07-14 Mti Associates Method and apparatus for encoding a video signal having multi-language capabilities
US5138440A (en) 1990-10-29 1992-08-11 General Instrument Corporation Method and apparatus for communicating a plurality of asynchronous signals over a digital communication path
US5719588A (en) 1991-03-08 1998-02-17 Nashua Corporation Viewing device
US5185807A (en) 1991-05-08 1993-02-09 David Clark Company Incorporated Headset with multi-position stirrup assemblies
US5138722A (en) 1991-07-02 1992-08-18 David Clark Company Inc. Headset ear seal
US5179736A (en) 1991-09-30 1993-01-19 Scanlon Thomas A Combination headset and face mask device
DE69221987T2 (de) 1991-11-01 1998-02-05 Sega Enterprises Kk Am Kopf befestigte Abbildungsvorrichtung
US5880773A (en) 1991-12-27 1999-03-09 Sony Corporation Head mounted display configured to a user's physical features
US5289272A (en) 1992-02-18 1994-02-22 Hughes Aircraft Company Combined data, audio and video distribution system in passenger aircraft
US5252069A (en) 1992-03-30 1993-10-12 Richard A. Lamb Instrument flight rules (IFR) training device
US5321416A (en) 1992-07-27 1994-06-14 Virtual Research Systems Head-mounted visual display apparatus
US5594470A (en) 1992-10-02 1997-01-14 Teletransaction, Inc. Highly integrated portable electronic work slate unit
KR960011030B1 (ko) 1992-11-20 1996-08-16 마쯔시다덴기산교 가부시기가이샤 복수텔레비젼 신호기록재생방법 및 그것을 사용한 기록재생장치
JPH06194600A (ja) 1992-12-25 1994-07-15 Sony Corp 表示装置
US5815411A (en) 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US5420381A (en) 1993-04-19 1995-05-30 Cabot Safety Corporation Acoustical earmuff
US5596647A (en) 1993-06-01 1997-01-21 Matsushita Avionics Development Corporation Integrated video and audio signal distribution system and method for use on commercial aircraft and other vehicles
US5546099A (en) 1993-08-02 1996-08-13 Virtual Vision Head mounted display system with light blocking structure
JPH0772446A (ja) 1993-09-01 1995-03-17 Sharp Corp 表示システム
JPH07107446A (ja) * 1993-09-30 1995-04-21 Toshiba Corp 関連番組情報供給装置
US5440197A (en) 1993-10-05 1995-08-08 Tir Technologies, Inc. Backlighting apparatus for uniformly illuminating a display panel
US5815126A (en) 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
US5631693A (en) 1993-10-25 1997-05-20 Antec Corporation Method and apparatus for providing on demand services in a subscriber system
US5576843A (en) 1993-10-29 1996-11-19 Time Warner Entertainment Co., L.P. System and method for controlling play of multiple dialog audio tracks of a software carrier
US5513384A (en) * 1993-11-09 1996-04-30 Inner Ear Communications, Inc. System and method for providing multiple broadcasts of audio information to spectators
US5600365A (en) 1994-01-28 1997-02-04 Sony Corporation Multiple audio and video signal providing apparatus
US5463428A (en) 1994-02-08 1995-10-31 Stereographics Corporation Wireless active eyewear for stereoscopic applications
US5510828A (en) 1994-03-01 1996-04-23 Lutterbach; R. Steven Interactive video display system
US5642221A (en) 1994-03-09 1997-06-24 Optics 1, Inc. Head mounted display system
US5537141A (en) 1994-04-15 1996-07-16 Actv, Inc. Distance learning system providing individual television participation, audio responses and memory for every student
US5481478A (en) 1994-06-03 1996-01-02 Palmieri; Herman D. Broadcast system for a facility
US5696521A (en) 1994-06-22 1997-12-09 Astounding Technologies (M) Sdn. Bhd. Video headset
US5903395A (en) 1994-08-31 1999-05-11 I-O Display Systems Llc Personal visual display system
US5631369A (en) * 1994-08-31 1997-05-20 Eli Lilly And Company Process for preparing benzoic acid derivative intermediates and benzothiophene pharmaceutical agents
US5668339A (en) 1994-10-26 1997-09-16 Daewoo Electronics Co., Ltd. Apparatus for multiplexing an audio signal in a video-song playback system
US5682172A (en) 1994-12-30 1997-10-28 Forte Technologies, Inc. Headset for presenting video and audio signals to a wearer
JPH08191416A (ja) 1995-01-10 1996-07-23 Sony Corp デジタル映像音声処理装置
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
JPH08307848A (ja) * 1995-04-27 1996-11-22 Pioneer Electron Corp Catvシステム
US5767820A (en) 1995-05-09 1998-06-16 Virtual Research Systems Head-mounted visual display apparatus
GB2301216A (en) 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US5835609A (en) 1995-06-02 1998-11-10 The Gorgonz Group, Inc. Ear protection device
US5867223A (en) 1995-07-17 1999-02-02 Gateway 2000, Inc. System for assigning multichannel audio signals to independent wireless audio output devices
JPH0955925A (ja) * 1995-08-11 1997-02-25 Nippon Telegr & Teleph Corp <Ntt> 画像システム
JP3614947B2 (ja) * 1995-09-18 2005-01-26 ソニー株式会社 選局装置および選局方法並びに放送装置および放送方法
JPH09130705A (ja) 1995-10-31 1997-05-16 Olympus Optical Co Ltd 頭部装着式映像表示装置
US5742263A (en) * 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
JPH09298729A (ja) * 1996-05-01 1997-11-18 Tietech Co Ltd ケーブルテレビにおける放映方式及びその端末表示装置
US5894320A (en) * 1996-05-29 1999-04-13 General Instrument Corporation Multi-channel television system with viewer-selectable video and audio
US5760819A (en) 1996-06-19 1998-06-02 Hughes Electronics Distribution of a large number of live television programs to individual passengers in an aircraft
US5809574A (en) 1996-08-15 1998-09-22 Cabot Safety Intermediate Corporation Hearing protection device
US6166734A (en) 1996-10-01 2000-12-26 Diamond Multimedia Systems, Inc. Portable interactive graphics display tablet and communications system
US6084584A (en) 1996-10-01 2000-07-04 Diamond Multimedia Systems, Inc. Computer system supporting portable interactive graphics display tablet and communications systems
US5764512A (en) * 1996-10-04 1998-06-09 Lucent Technologies Inc. Intelligent acoustic systems peripheral
US5844656A (en) 1996-11-07 1998-12-01 Xybernaut Corporation Head mounted display with adjustment components
KR19980044990A (ko) 1996-12-09 1998-09-15 양승택 휴대형 멀티미디어 데이터 입출력 처리기의 구조 및 그 구동 방법
US6060995A (en) 1997-02-19 2000-05-09 Sony Corporation Nightlife information pager
US6195090B1 (en) 1997-02-28 2001-02-27 Riggins, Iii A. Stephen Interactive sporting-event monitoring system
US5946635A (en) 1997-08-12 1999-08-31 Dominguez; David C. Sporting event configurable radio receiver/scanner
US6020851A (en) * 1997-10-06 2000-02-01 Busack; Andrew J. Auto race monitoring system
EP1013089B1 (en) 1997-10-06 2005-06-22 Silicon Image, Inc. Digital video system and methods for providing same
US6681398B1 (en) * 1998-01-12 2004-01-20 Scanz Communications, Inc. Systems, devices and methods for reviewing selected signal segments
US5887286A (en) 1998-01-22 1999-03-30 Waldron; Carolyn A. Ear protector
US7162532B2 (en) * 1998-02-23 2007-01-09 Koehler Steven M System and method for listening to teams in a race event
JPH11352904A (ja) 1998-04-10 1999-12-24 Olympus Optical Co Ltd 頭部装着型映像表示装置
US6347301B1 (en) 1999-02-02 2002-02-12 Bearden, Iii Fred E. Conference communication facilitator and method of use
US6356905B1 (en) 1999-03-05 2002-03-12 Accenture Llp System, method and article of manufacture for mobile communication utilizing an interface support framework

Also Published As

Publication number Publication date
EP2114092B1 (en) 2016-08-10
CN1350764A (zh) 2002-05-22
CA2636037C (en) 2014-07-29
AU779175B2 (en) 2005-01-13
WO2000054554A1 (en) 2000-09-14
CA2369832C (en) 2009-11-24
CA2369832A1 (en) 2000-09-14
EP1166596B1 (en) 2009-09-16
PT1166596E (pt) 2009-12-10
EP1166596A1 (en) 2002-01-02
CA2636037A1 (en) 2000-09-14
EP1166596A4 (en) 2006-01-18
EP2114092A1 (en) 2009-11-04
DE60042967D1 (de) 2009-10-29
JP2002539701A (ja) 2002-11-19
ATE443411T1 (de) 2009-10-15
US7124425B1 (en) 2006-10-17
AU3870900A (en) 2000-09-28
CN100353771C (zh) 2007-12-05

Similar Documents

Publication Publication Date Title
ES2331175T3 (es) Sistema y metodo de audio/video que permite a un usuario seleccionar imagenes y sonidos diferentes asociados con un evento.
US6578203B1 (en) Audio/video signal distribution system for head mounted displays
US9674491B2 (en) Audio/video entertainment system and method
US4853764A (en) Method and apparatus for screenless panoramic stereo TV system
US8310527B2 (en) Display device with 3D shutter control unit
US20100277485A1 (en) System and method of displaying multiple video feeds
US20130281162A1 (en) Portable Personal Entertainment Video Viewing System
JPH06194600A (ja) 表示装置
WO2013063165A2 (en) Smart helmet
US9300924B2 (en) Electronic handheld audio/video receiver and listening/viewing device
US20020034004A1 (en) Optically multiplexed hand-held digital binocular system
JP2002142233A (ja) 立体画像を提供するための画像提供装置および画像提供方法、受信装置および受信方法、並びに立体画像を提供するための立体画像提供システムおよび立体画像提供方法。
KR200430109Y1 (ko) 단안형 페이스 마운트 디스플레이 장치
JP2006229594A (ja) ヘッドマウントディスプレイ装置
CN117278912A (zh) 扬声器单元、头带组件、头戴设备及其控制方法
JPH08163597A (ja) 映像表示装置