MX2008012429A - Video y audio combinados con base en el control de iluminacion ambiental. - Google Patents

Video y audio combinados con base en el control de iluminacion ambiental.

Info

Publication number
MX2008012429A
MX2008012429A MX2008012429A MX2008012429A MX2008012429A MX 2008012429 A MX2008012429 A MX 2008012429A MX 2008012429 A MX2008012429 A MX 2008012429A MX 2008012429 A MX2008012429 A MX 2008012429A MX 2008012429 A MX2008012429 A MX 2008012429A
Authority
MX
Mexico
Prior art keywords
ambient lighting
lighting data
audio
video
content
Prior art date
Application number
MX2008012429A
Other languages
English (en)
Inventor
Erik Nieuwlands
Original Assignee
Koninkl Philips Electronics Nv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninkl Philips Electronics Nv filed Critical Koninkl Philips Electronics Nv
Publication of MX2008012429A publication Critical patent/MX2008012429A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Un elemento para controlar un elemento de iluminación ambiental que incluye determinar datos de iluminación ambiental para controlar un elemento de iluminación ambiental para controlar un elemento de iluminación ambiental. El método incluye procesar datos de iluminación ambiental combinados, en donde los datos de iluminación ambiental combinados están basados en las porciones de contenido de video correspondientes y porciones de contenido de audio correspondiente. Los datos de iluminación ambiental combinados procesados entonces pueden ser utilizados para controlar un elemento de iluminación ambiental. En una modalidad, los datos de iluminación ambiental combinados pueden ser recibidos como un archivo de procesamiento de iluminación ambiental combinado. Los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en audio pueden ser combinados para producir los datos de iluminación ambiental combinados. Combinar los datos de iluminación ambiental basados en audio y basados en video puede incluir modular los datos de iluminación ambiental basados en video por los datos de iluminación ambiental basados en audio. El contenido de video y/o contenido de audio puede ser analizado para producir los datos de iluminación ambiental basados en video y basados en audio.

Description

VIDEO Y AUDIO COMBINADOS CON BASE EN EL CONTROL DE ILUMINACION AMBIENTAL CAMPO DE LA INVENCIÓN El presente sistema se relaciona con efectos de iluminación ambiental que son modulados por características de un flujo de datos de contenido de video y audio.
ANTECEDENTES DE LA INVENCIÓN Koninklijke Philips Electronics N.V. (Philips) y otras compañías han descrito medios para cambiar la iluminación ambiental o periférica para mejorar el contenido de video para aplicaciones de hogares o comerciales típicas. La iluminación ambiental modulada por el contenido de video que se proporciona junto con una pantalla de video o televisión ha mostrado que reduce la fatiga del televidente y mejora el realismo y la profundidad de la experiencia. Actualmente, Philips tiene una línea de televisiones, incluyendo las televisiones de panel plano con iluminación ambiental, en donde un marco alrededor de la televisión incluye fuentes de luz ambiental que proyectan luz ambiental en la pared trasera que soporta o está cerca de la televisión. Además, las fuentes de luz separadas de la televisión también pueden ser moduladas en relación al contenido de video para producir luz ambiental que puede ser controlada de forma similar.
Ref . : 195636 En un caso de una fuente de luz de un solo color, la modulación de la fuente de luz solamente puede ser una modulación del brillo de la fuente de luz. Uncí fuente de luz capaz de producir luz multicolor proporciona una oportunidad para modular muchos aspectos de la fuente de luz multicolor basada en el video reproducido que incluye un amplio intervalo de color seleccionable por punto.
SUMARIO DE LA INVENCIÓN Es un objeto del presente sistema superar las desventajas en el arte previo y/o proporcionar una inmersión más dimensional en una experiencia de iluminación ambiental. El presente sistema proporciona un método, programa y dispositivo para determinar datos de iluminación ambiental para controlar un elemento de iluminación ambiental. El método incluye el procesamiento de datos de iluminación ambiental combinados, en donde los datos de iluminación ambiental combinados se basan en porciones de contenido de video correspondientes y porciones de contenido de audio correspondientes. Los datos de iluminación ambiental combinados procesados entonces pueden ser utilizados para controlar un elemento de iluminación ambiental . En una modalidad, los datos de iluminación ambiental combinados pueden ser recibidos como un archivo de procesamiento de iluminación ambiental combinado o como archivos de procesamiento de iluminación ambiental basados en video y basados en audio separados . Los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en audio pueden ser combinados para producir los datos de iluminación ambiental combinados. Combinar los datos de iluminación ambiental basados en video y basados en audio puede incluir la modulación de los datos de iluminación ambiental basados en video por los datos de iluminación ambiental basados en audio . En una modalidad, el contenido de video y/ o el contenido de audio puede ser analizado para producir los datos de iluminación ambiental basados en video y/o basados en audio. Analizar el contenido de video puede incluir analizar porciones temporales del contenido de video para producir porciones temporales de datos de iluminación ambiental basados en video. En esta modalidad, las porciones temporales de datos de iluminación ambiental basados en video pueden ser combinados para producir un archivo de procesamiento de iluminación ambiental basado en video como datos de iluminación ambiental basados en video. El contenido de audio puede ser analizado para producir los datos de iluminación ambiental basados en audio. Analizar el contenido de audio puede incluir analizar por lo menos uno de una frecuencia, un intervalo de frecuencia, y amplitud de las porciones de contenido de audio correspondientes. El análisis del contenido de audio puede identificar y utilizar otras características del contenido de audio incluyendo pulsaciones por minuto; tono, tales como tonos mayores y menores, y tono absoluto del contenido de audio; intensidad; y/o clasificación tal como clásica, pop, discusión, películas. Adicionalmente, pueden ser analizcidos datos que están separados del mismo audio, pero que pueden estar asociados con los datos de audio, tal como meta datos que están asociados con los datos de audio. La combinación de los datos de iluminación ambiental basados en video y basados en audio puede incluir utilizar los datos de iluminación ambiental basados en audio para ajustar la dinámica de un punto de color determinado utilizando los datos de iluminación ambiental basados en video.
BREVE DESCRIPCIÓN DE LAS FIGURAS El presente sistema se explica con detalle adicional, y a modo de ejemplo, con referencia a las figuras anexas en donde : La Figura 1 muestra un diagrama de flujo de conformidad con una modalidad del presente sistema; y La Figura 2 muestra un dispositivo de conformidad con una modalidad del presente sistema.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN Las siguientes son descripciones de las modalidades ilustrativas que cuando se toman junto con las siguientes figuras demostrarán las características y ventajas observadas anteriormente, así como otras adicionales. En la siguiente descripción, para propósitos de explicación en lugar de limitación, para ilustración se establecen detalles específicos tales como las técnicas, interfaces, arquitectura particular etc.,. Sin embargo, será evidente para las personas experimentadas en el arte que las otras modalidades que se partan de estos detalles específicos todavía serían entendidas que están dentro del alcance de las reivindicaciones anexas. Sin embargo, para los propósitos de claridad, las descripciones detalladas de los dispositivos, circuitos, y métodos bien conocidos se omiten con el fin de opacar la descripción del presente sistema. Debe ser entendido expresamente que las figuras son incluidas para propósitos ilustrativos y no representan el alcance del presente sistema. La Figura 1 muestra un diagrama de flujo 100 de conformidad con una modalidad del presente sistema. Durante la acción 110, el proceso comienza. Después de esto, durante la acción 120, se reciben los datos de iluminación ambiental relacionados con el contenido de video, de aquí en adelante llamados datos de iluminación ambiental basados en video. Los datos de iluminación ambiental basados en video pueden ser recibidos en una forma de un archivo de procesamiento de iluminación que es producido interno o externo al sistema, tal como el descrito en la solicitud de Patente Internacional No. de serie IB2006/053524 (Expediente del apoderado No. 003 663 ) presentado el 27 de septiembre de 2006 , que reivindica el beneficio de las Solicitudes de Patentes Provisionales Norteamericanas Nos. 60/722, 903 y 60/826,117, todas de las cuales se asignan al cesionario de las mismas, y el contenido de todas las cuales se incorporan aquí por referencia en su totalidad. En una modalidad, el archivo de procesamiento de iluminación se produce externo al sistema, por ejemplo mediante un servicio de autoría de archivo de procesamiento de iluminación que proporciona un archivo de procesamiento de iluminación relacionado con el contenido del video particular. El archivo de procesamiento de iluminación puede ser recuperado de una fuente externa accesible, por ejemplo, de una conexión a Internet alámbrica o inalámbrica. En esta modalidad, el contenido de video o un medio que porta el contenido de video puede incluir un identificador para el contenido y/o un identificador puede ser discernible del contenido directamente. El identificador puede ser utilizado para recuperar un archivo de procesamiento de iluminación que corresponde al contenido de video. En otra modalidad, el archivo de procesamiento de iluminación puede ser almacenado o suministrado en el mismo medio como el contenido de audio visual. En esta modalidad, el identificador puede ser innecesario para recuperar el archivo de procesamiento de iluminación correspondiente. En otra modalidad, el contenido de video puede ser procesado para producir los datos de iluminación ambiental basados en video relacionados con el contenido de video durante la acción 13 0 . El procesamiento, en una forma de analizar el contenido de video o porciones del mismo, puede ser realizado justo antes de reproducir el contenido de video o puede ser realizado en un contenido de video almacenado o accesible. La solicitud de Patente WO 2004 / 006570 del PCT incorporada aquí como referencia considerándola en su totalidad describe un sistema y un dispositivo para controlar los efectos de iluminación ambiental basados en características de color de contenido, tales como tonalidad, saturación, brillo, colores, velocidad de cambios de escena, caracteres reconocidos, ambientación detectada, etc. En operación, el sistema analiza el contenido recibido y puede utilizar la distribución del contenido, tal como color promedio, en uno o más marcos del contenido de video o utilizar porciones del contenido de video que se colocan cerca del borde de uno o más marcos para producir los datos de iluminación ambiental basados en video relacionados con el contenido de video. El promedio temporal puede ser utilizado para resolver las transiciones temporales en los datos de iluminación ambiental basados en video causados por los cambios rápidos en el contenido de video analizado. La Solicitud de Patente Internacional No. de serie IB2006/053524 también describe un sistema para analizar el contenido de video para producir datos de iluminación ambiental basados en video relacionados con el contenido de video. En esta modalidad, los pixeles del contenido de video son analizados para identificar los pixeles que proporcionan un color coherente mientras que los pixeles de color incoherente se desechan. Los pixeles de color coherente entonces son utilizados para producir los datos de iluminación ambiental basados en video. Existen otros numerosos sistemas para determinar los datos de iluminación ambiental basados en video incluyendo el análisis del histograma del contenido de video, el análisis de los campos de color del contenido de video, etc. Como puede ser apreciado fácilmente por una persona experimentada en el arte, cualquiera de los sistemas puede ser aplicado para producir los datos de iluminación ambiental basados en video de conformidad con el presente sistema. Los datos de iluminación ambiental basados en video pueden incluir datos para controlar las características de iluminación ambiental tales como tonalidad, saturación, brillo, color, etc. de uno o más elementos de iluminación ambiental. Por ejemplo, en una modalidad de conformidad con el presente sistema, los datos de iluminación ambiental basados en video determinan los puntos de color dependientes del tiempo de uno o más elementos de iluminación ambiental para coincidir con el contenido de video. Durante la acción 140, el presente sistema recibe los datos de iluminación ambiental relacionados con el contenido de audio, de aquí en adelante llamados datos de iluminación ambiental basados en audio. Los datos de iluminación ambiental basados en audio pueden, similar a los datos de iluminación ambiental basados en video, ser recibidos en la forma de un archivo de procesamiento de iluminación ambiental basado en audio. En una modalidad, el archivo de procesamiento de iluminación basado en audio es producido externo al sistema, por ejemplo mediante un servicio de autoría de archivo de procesamiento de iluminación relacionado con el contenido de audio particular. El archivo de procesamiento de iluminación puede ser recuperado de una fuente externa accesible, por ejemplo, de una conexión a Internet alámbrica o inalámbrica. En esta modalidad, el contenido de audio o un medio que porta el contenido de audio puede incluir un identificador para el contenido y/o un identificador puede ser discernible del contenido directamente. En otra modalidad, el identificador determinado del contenido de video puede ser utilizado para recuperar el archivo de procesamiento de iluminación basado en audio mientras que el contenido de audio corresponde típicamente al contenido de video del contenido de audiovisual . En cualquier caso, el identificador , si está basado en audio o basado en video, puede ser utilizado para recuperar un archivo de procesamiento de iluminación que corresponde al contenido de audio. En una modalidad, el archivo de procesamiento de iluminación basado en audio puede ser accesible, por ejemplo, de un medio en donde el contenido de audiovisual es almacenado sin el uso de un identificador . En otra modalidad, el contenido de audio puede ser procesado para producir los datos de la iluminación ambiental basados en audio relacionados con el contenido de audio durante la acción 150. El procesamiento, en una forma de analizar el contenido de audio o porciones del mismo, puede ser realizado justo antes de antes de reproducir el contenido de audiovisual o puede ser realizado en el contenido de audio almacenado o accesible. El análisis audio para producir los datos de iluminación ambiental basados en audio pueden incluir el análisis de una frecuencia del contenido de audio, de un intervalo de frecuencia del contenido de audio, energía del contenido de audio, amplitud de energía de audio, pulsación del contenido de audio, tiempo del contenido de audio, y otros sistemas para determinar las cairacterísticas del contenido de audio puesto que pueden ser aplicados fácilmente. En otra modalidad, puede ser utilizado el análisis del histograma del contenido de audio, tal como análisis del histograma de audio en un dominio de frecuencia. Un promedio temporal puede ser utilizado para resolver las transiciones temporales en los datos de iluminación ambiental basados en audio causados por los cambios rápidos en el contenido de audio analizado. El análisis del contenido de audio puede identificar y utilizar otras características del contenido de audio incluyendo pulsaciones por minuto; tono, por ejemplo tonos mayores y menores, y tono absoluto del contenido de audio; intensidad; y/o clasificación tal como clásica, pop, discusión, películas. Adicionalmente, pueden ser analizados los datos que están separados del contenido del mismo audio, pero que pueden estar asociados con los datos de audio, tales como meta datos que están asociados con el contenido de audio. Como puede ser apreciado fácilmente por una persona experimentada en el arte, se puede solicitar cualquier sistema de diferenciación de características del contenido de audio para producir los datos de iluminación ambiental basados en audio de conformidad con el presente sistema . Los datos de iluminación ambiental basados en audio pueden incluir datos para controlar las características de iluminación ambiental tal como dinámica (por ejemplo, brillo, saturación, etc.) de uno o más elementos de iluminación ambiental así como características de iluminación ambiental basadas en video moduladas de acuerdo a lo descrito aquí. Los datos de iluminación ambiental basados en audio pueden ser utilizados para determinar datos para controlar las características de iluminación ambiental que son similares y/o complementarias a las características determinadas de iluminación ambiental basadas en video. Durante la acción 160, los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en audio son combinados para formar datos de iluminación ambiental combinados. Típicamente, el contenido de video y el contenido de audio son sincronizados en el contenido de audiovisual. Como tal, los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en audio se proporcionan como secuencias temporales de datos. Por lo tanto, las porciones temporales de los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en audio pueden ser combinados para producir los datos de iluminación ambiental combinados que también son sincronizados con el contenido de audiovisual y pueden ser reproducidos como tal durante la acción 170. Después de reproducir, el proceso termina durante la acción 180. En una modalidad de conformidad con el presente sistema, los datos de iluminación ambiental basados en video pueden ser utilizados para determinar las características de color de los datos de iluminación ambiental, tales como puntos de color. Los datos de iluminación ambiental basados en audio entonces pueden ser aplicados para modular los puntos de color, tal como dinámica de ajuste de los puntos de color determinados por el video. Por ejemplo, en una secuencia audiovisual en donde los datos de iluminación ambiental basados en video se determinan para establecer características de iluminación ambiental dadas para un punto de color dado durante una porción temporal dada, los datos de iluminación ambiental basados en audio en combinación con los datos de iluminación ambiental basados en video pueden ajustar el color a un regulador (por ejemplo, menos brillo) de color basado en energía de audio baja durante la secuencia audiovisual correspondiente. De forma similar, en una secuencia audiovisual en donde los datos de iluminación ambiental basados en video determinan establecer características de iluminación ambiental a un punto de color dado, el contenido de audio puede ajustar el color a un color más brillante basado en energía de audio alta durante la secuencia audiovisual correspondiente. Claramente, otros sistemas para combinar los datos de iluminación ambiental basada en video y los datos de iluminación ambiental basados en audio se le ocurrirían a una persona experimentada en el arte y tienen la intención de ser entendidos para estar dentro de los límites del presente sistema y de las reivindicaciones anexas. De esta manera, los datos de iluminación ambiental combinados pueden ser utilizados para controlar uno o más elementos de iluminación ambiental para responder a ambos de contenido de video correspondiente y audio reproducido. En una modalidad de conformidad con el presente sistema, un usuario puede ajustar la influencia que cada uno del contenido de audio y video tiene en los datos de iluminación ambiental combinados. Por ejemplo, el usuario puede decidir que los datos de iluminación ambiental basados en audio tienen un efecto disminuido o mayor en los datos de iluminación ambiental basados en video en la determinación de los datos combinados de iluminación ambiental . En una modalidad adicional, el contenido de audio y el contenido de video pueden tener un contenido separado no arreglado previamente como contenido de audiovisual. Por ejemplo, una imagen o una secuencia de video puede tener un contenido de audio previsto para reproducir durante la secuencia de imagen o video. De conformidad con el presente sistema, los datos de iluminación ambiental basados en video pueden ser modulados por los datos de iluminación ambiental basados en audio similares de acuerdo a lo previsto anteriormente para el contenido de audiovisual . En una modalidad adicional, las porciones de audio múltiples pueden ser proporcionadas para reproducir con el contenido de video. De conformidad con el presente sistema, una y/o la otra de las porciones de audio puede ser utilizada para determinar los datos de iluminación ambiental basados en audio. Mientras que la Figura 1 muestra los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en audio que son recibidos por separado, claramente no hay ninguna necesidad de tener que recibir cada uno por separado. Por ejemplo, puede ser producido un archivo de iluminación ambiental recibido que es determinado basado en ambas características visuales y de audio del contenido de audiovisual. Otras acciones 130 y 150 pueden ser proporcionadas substancialmente simultáneamente de manera que los datos de iluminación ambiental combinados sean producidos directamente sin una necesidad de producir datos de iluminación ambiental basados en video separados y datos de iluminación ambiental basados en audio que se combinan posteriormente. Otras variaciones se le ocurrirían fácilmente a una persona experimentada en el arte y tienen la intención de ser incluidas dentro del presente sistema. En una modalidad de conformidad con el presente sistema, en combinación los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en audio, los datos de iluminación ambiental basados en audio pueden ser utilizados para determinar las características de iluminación ambiental basadas en audio similares de acuerdo a lo discutido para los datos de iluminación ambiental basados en video, que en consecuencia son modulados por los datos de iluminación ambiental basados en video. Por ejemplo, en una modalidad, las características de los datos de iluminación ambiental basados en audio pueden ser mapeadas a características de iluminación ambiental. De esta manera, una característica del audio, tal como un número dado de pulsaciones por minuto de los datos de audio, pueden ser mapeados a un color dado de iluminación ambiental. Por ejemplo, un color de iluminación ambiental determinado puede ser mapeado a un intervalo de pulsaciones por minuto. Naturalmente, otras características de iluminación ambiental y audio pueden ser fácilmente, de manera similar, mapeadas. En aún otra modalidad, las características de los datos de iluminación ambiental basadas en video pueden ser moduladas de manera que un patrón basado en audio es producido utilizando colores determinados de las características ambientales basadas en video, similar a una presentación de VU-metro como puede ser apreciado fácilmente por una persona experimentada en el arte. Por ejemplo, en un sistema de iluminación ambiental pixelado, las porciones individuales del sistema de iluminación ambiental pixelado puede ser modulado por los datos de iluminación ambiental basados en audio. En un VU-metro como presentación, la modulación de audio de la presentación puede ser proporcionada de una porción inferior que avanza hacia arriba en un sistema de iluminación ambiental o puede ser proporcionada al contrario (por ejemplo, parte superior que avanza hacia abajo) . Además, el avance puede ser de izquierda a derecha o hacia fuera de una porción central del sistema de iluminación ambiental. Como puede ser apreciado adicionalmente, puesto que los datos de iluminación ambiental basados en audio típicamente pueden ser diferentes para diferentes canales de los datos de audio, incluyendo datos izquierdos, datos derechos, datos centrales, datos izquierdos posteriores, datos derechos posteriores, etc., cada una de estas porciones de los datos de audio posicionales , o partes del mismo pueden ser utilizadas fácilmente en combinación con los datos y las características de iluminación ambiental basados en video. Por ejemplo, una porción de las características de iluminación ambiental basadas en video previstas para la presentación en un lado izquierdo de una pantalla puede ser combinada con un canal izquierdo de los datos de iluminación ambiental basados en audio mientras que una porción de las características de iluminación ambiental basadas en video previstas para la presentación en un lado derecho de la pantalla puede ser combinado con un canal derecho de los datos de iluminación ambiental basados en audio. Otras combinaciones de las porciones de los datos de iluminación ambiental basados en video y las porciones de los datos de iluminación ambiental basados en audio pueden ser aplicadas fácilmente. La Figura 2 muestra un dispositivo 200 de conformidad con una modalidad del presente sistema. El dispositivo tiene un procesador 210 acoplado operacionalmente a una memoria 220, un dispositivo de reproducción de video (por ejemplo, pantalla) 230, un dispositivo de reproducción de audio (por ejemplo, altavoces) 280, los elementos de iluminación ambiental 250, 260, una entrada/salida (1/0) 240 y un dispositivo de entrada del usuario 270. La memoria 220 puede ser cualquier tipo de dispositivo para almacenar datos de aplicación así como otros datos, tales como datos de iluminación ambiental, datos de audio, datos de video, datos de mapeo, etc. Los datos de aplicación y otros datos son recibidos por el procesador 210 para configurar el procesador 210 para realizar acciones de operación de conformidad con el presente sistema. Las acciones de operación incluyen controlar por lo menos una de la pantalla 230 para reproducir el contenido y controlar uno o más de los elementos de iluminación ambiental 250, 260 para exhibir efectos de iluminación ambiental de conformidad con el presente sistema. La entrada de usuario 270 puede incluir un teclado, ratón, u otros dispositivos, incluyendo pantallas sensibles al tacto, que pueden ser independientes o ser una parte de un sistema, tal como parte de una computadora personal, asistente digital personal, y dispositivo de pantalla tal como una televisión, para comunicarse con el procesador vía cualquier tipo de conexión, tal como una conexión alámbrica o inalámbrica. Claramente el procesador 210, la memoria 220, la pantalla 230, los elementos de iluminación ambiental 250, 260 y/o entrada de usuario 270 puede todo o en parte ser una porción de una plataforma de televisión, tal como una televisión independiente o pueden ser dispositivos independientes. Los métodos del presente sistema son particularmente apropiados para ser realizados por un programa informático de computadora, tal programa informático de computadora contiene preferiblemente módulos que corresponden a los pasos individuales o acciones de los métodos. Tal programa informático puede por supuesto ser incluido en un medio legible por computadora, tal como un chip integrado, a un dispositivo periférico o a una memoria, tal como la memoria 220 u otra memoria acoplada al procesador 210. El medio legible por computadora y/o la memoria 220 pueden ser cualquier medio registrable (por ejemplo, RAM, ROM, memoria portátil, CD-ROM, discos duros, DVD, discos flexibles o tarjetas de memoria) o puede ser un medio de transmisión (por ejemplo, una red que comprende fibra óptica, la red mundial, cables, o un canal inalámbrico usando acceso múltiple de división de tiempo, acceso múltiple de división de códigos, u otro canal de radiofrecuencia). Cualquier medio conocido o desarrollado que pueda proporcionar información apropiada para utilizarse con un sistema de computadora puede ser utilizado como el medio legible por computadora y/o la memoria 220 . También pueden ser utilizadas memorias adicionales. El medio legible por computadora, la memoria 220 , y/o cualquier otra memoria pueden ser a largo plazo, corto plazo, o una combinación de memorias a largo plazo y a corto plazo. Estas memorias configuran el procesador 210 para implementar los métodos, acciones operacionales , y las funciones descritas aquí. Las memorias pueden ser distribuidas o locales y el procesador 210 , en donde los procesadores adicionales pueden ser proporcionados, también puede ser distribuido, como por ejemplo con base dentro de los elementos de iluminación ambiental, o pueden ser singulares. Las memorias pueden ser implementadas como memoria eléctrica, magnética u óptica, o cualquier combinación de éstos u otros tipos de dispositivos de almacenamiento. Además, el término "memoria" debe ser interpretado ampliamente suficiente para abarcar cualquier información capaz de ser leída de o escrita a una dirección en el espacio direccionable accesado por un procesador. Con esta definición, la información sobre una red todavía está dentro de la memoria 220, por ejemplo, porque el procesador 210 puede recuperar la información de la red para la operación de conformidad con el presente sistema. El procesador 210 es capaz de proporcionar señales de control y/o realizar operaciones en respuesta a señales de la entrada de usuario 270 y ejecutar instrucciones almacenadas en la memoria 220. El procesador 210 puede ser un circuito (s) integrado de aplicación especifica o uso general. Además, el procesador 210 puede ser un procesador dedicado para funcionar de acuerdo con el presente sistema o puede ser un procesador para uso general en donde solamente una de muchas funciones opera para funcionar de conformidad con el presente sistema. El procesador 210 puede operar utilizando una porción del programa, segmentos de programa múltiples, o puede ser un dispositivo de equipo físico que utiliza un circuito integrado dedicado o multiusos . La I/O 240 puede ser utilizada para transferir un identificador de contenido, para recibir uno o más archivos de procesamiento de iluminación, y/o para otras operaciones de acuerdo a lo descrito anteriormente. Por supuesto, debe ser apreciado que cualquiera de las modalidades o procesos anteriores se pueden combinar con una o más otras modalidades o procesos o ser separados de conformidad con el presente sistema.
Finalmente, la discusión anterior tiene la intención de ser simplemente ilustrativa del presente sistema y no debe ser interpretado como limitación de las reivindicaciones anexas para cualquier modalidad particular o grupo de modalidades. Así, mientras que el presente sistema se ha descrito con referencia a modalidades ejemplares, también debe ser apreciado que las modificaciones numerosas y las modalidades alternativas pueden ser inventadas por aquellas personas experimentadas en el arte sin salir del espíritu y alcance más amplios y previstos del presente sistema de acuerdo a lo dispuesto en las reivindicaciones que siguen. Por lo tanto, la especificación y las figuras deben ser consideradas de una manera ilustrativa y no tienen la intención de limitar el alcance de las reivindicaciones anexas. En la interpretación de las reivindicaciones anexas, debe ser entendido que: a) la palabra "que comprende" no excluye la presencia de otros elementos ni representa a aquellos enumerados en una reivindicación dada; b) la palabra "un" o "una" precediendo un elemento no excluye la presencia de una pluralidad de tales elementos; c) ningunas señales de referencia en las reivindicaciones limitan su alcance; d) varios "medios" pueden ser representados por la misma estructura o función implementada de elemento o equipo físico o programa informático; e) cualquiera de los elementos descritos puede ser comprendidos de las porciones de equipo físico (por ejemplo, incluyendo circuito electrónico discreto e integrado) , porciones de programas informáticos (por ejemplo, programa de computadora), y de cualquier combinación de los mismos; f) las porciones del equipo físico se pueden ser comprendidas de una o ambas porciones análogas y digitales; g) cualquiera de los dispositivos o porciones descritas de los mismos se pueden combinar juntas o separadas en otras porciones a menos que se indique lo contrario específicamente; y h) ninguna secuencia específica de acciones o pasos tienen la intención de ser requeridos a menos que se indique específicamente . Se hace constar que con relación a esta fecha, el mejor método conocido por el solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (21)

  1. REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones : 1. Un método para controlar un elemento de iluminación ambiental, caracterizado porque comprende las acciones de: procesar datos de iluminación de ambiente combinados, en donde los datos de iluminación ambiental combinados se basan en las porciones de contenido de video y porciones de contenido de audio correspondientes; y controlar un elemento de iluminación ambiental basado en los datos de iluminación ambiental combinados procesados.
  2. 2. El método de conformidad con la reivindicación 1, caracterizado porque comprende una acción de recibir los datos de iluminación ambiental combinados como un archivo de procesamiento de iluminación ambiental combinado.
  3. 3. El método de conformidad con la reivindicación 1, caracterizado porque comprende las acciones de: recibir datos de iluminación ambiental basados en video; recibir datos de iluminación ambiental basados en audio; y combinar los datos de iluminación ambiental basados en video recibidos y los datos de iluminación ambiental basados en audio recibidos para producir los datos de iluminación ambiental combinados.
  4. 4. El método de conformidad con la reivindicación 3, caracterizado porque la acción de combinar comprende la acción de modular los datos de iluminación ambiental basados en video por los datos de iluminación ambiental basados en audio .
  5. 5. El método de conformidad con la reivindicación 3 , caracterizado porque comprende una acción de analizar el contenido de video para producir los datos de iluminación ambiental basados en video.
  6. 6. El método de conformidad con la reivindicación 5, caracterizado porque la acción de analizar el contenido de video comprende una acción de determinar una pluralidad de puntos de color como los datos de iluminación ambiental basados en video.
  7. 7. El método de conformidad con la reivindicación 3, caracterizado porque comprende una acción de analizar el contenido de audio para producir los datos de iluminación ambiental basados en audio.
  8. 8. El método de conformidad con la reivindicación 7, caracterizado porque la acción de analizar el contenido de audio comprende una acción de analizar por lo menos uno de una frecuencia, un intervalo de frecuencia, y una amplitud de las porciones del contenido de audio correspondientes.
  9. 9. El método de conformidad con la reivindicación 7, caracterizado porque la acción de analizar el contenido de audio comprende una acción de analizar porciones temporales del contenido de audio para producir porciones temporales de datos de iluminación ambiental basados en audio.
  10. 10. El método de conformidad con la reivindicación 7, caracterizado porque la acción de analizar el contenido de audio comprende una acción de analizar las porciones posicionales del contenido de audio para producir porciones posicionales de los datos de iluminación ambiental basados en audio .
  11. 11. El método de conformidad con la reivindicación 3, caracterizado porque la acción de combinar comprende las acciones de: determinar un punto de color basado en los datos de iluminación ambiental basados en video; y utilizar los datos de iluminación ambiental basados en audio para ajustar la dinámica del punto de color.
  12. 12. Una aplicación representada en un medio legible por computadora para controlar un elemento de iluminación ambiental, caracterizada porque comprende: una porción configurada para procesar datos de iluminación ambiental combinados, en donde los datos de iluminación ambiental combinados corresponden a las porciones de contenido de video y las porciones de contenido de audio; y una porción configurada para controlar un elemento de iluminación ambiental basado en los datos de iluminación ambiental combinados procesados .
  13. 13. La aplicación de conformidad con la reivindicación 12, caracterizada porque comprende: una porción configurada para recibir datos de iluminación ambiental basados en video; una porción configurada para recibir datos de iluminación ambiental basados en audio; y una porción configurada para combinar los datos de iluminación ambiental basados en video recibidos y los datos de iluminación ambiental basados en audio recibidos para producir los datos de iluminación ambiental combinados.
  14. 14. La aplicación de conformidad con la reivindicación 12, caracterizada porque comprende: una porción configurada para analizar el contenido de video para producir los datos de iluminación ambiental basados en video, en donde la porción configurada para analizar el contenido de video está configurada para determinar un punto de color como los datos de iluminación ambiental basados en video.
  15. 15. La aplicación de conformidad con la reivindicación 12, caracterizada porque comprende una porción configurada para analizar el contenido de audio para producir los datos de iluminación ambiental basados en audio, en donde la porción configurada para analizar el contenido de audio está configurada para analizar las porciones del contenido de audio para producir porciones de datos de iluminación ambiental basados en audio como los datos de iluminación ambiental basados en audio.
  16. 16. La aplicación de conformidad con la reivindicación 15, caracterizada porque las porciones de datos de iluminación ambiental basados en audio son por lo menos una de las distribuidas posicionalmente y temporalmente.
  17. 17. La aplicación de conformidad con la reivindicación 15, caracterizada porque la porción configurada para analizar el contenido de audio está configurada para analizar por lo menos uno de una frecuencia, un intervalo de frecuencia, y una amplitud de las porciones de contenido de audio correspondientes .
  18. 18. La aplicación de conformidad con la reivindicación 12, caracterizada porque comprende una porción configurada para determinar un punto de color basado en los datos de iluminación ambiental basados en video, en donde la porción configurada para combinar está configurada para utilizar los datos de iluminación ambiental basados en audio para ajustar la dinámica del punto de color.
  19. 19. Un dispositivo para controlar un elemento de iluminación ambiental, caracterizado porque comprende: una memoria; y un procesador acoplado operacionalmente a la memoria, en donde el procesador esta configurado para: analizar el contenido de video para producir datos de iluminación ambiental basados en video; analizar el contenido de audio para producir datos de iluminación ambiental basados en audio; y combinar los datos de iluminación ambiental basados en video y los datos de iluminación ambiental basados en- audio para producir datos de iluminación ambiental combinados.
  20. 20. El dispositivo de conformidad con la reivindicación 19, caracterizado porque el procesador está configurado para: analizar el contenido de video para producir un punto de color como los datos de iluminación ambiental basados en video . utilizar los datos de iluminación ambiental basados en audio para modular el punto de color.
  21. 21. El dispositivo de conformidad con la reivindicación 19, caracterizado porque el procesador está configurado para analizar por lo menos una de las porciones temporales y posicionales del contenido de audio para producir los datos de iluminación ambiental basados en audio.
MX2008012429A 2006-03-31 2007-03-27 Video y audio combinados con base en el control de iluminacion ambiental. MX2008012429A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US78846706P 2006-03-31 2006-03-31
US86664806P 2006-11-21 2006-11-21
PCT/IB2007/051075 WO2007113738A1 (en) 2006-03-31 2007-03-27 Combined video and audio based ambient lighting control

Publications (1)

Publication Number Publication Date
MX2008012429A true MX2008012429A (es) 2008-10-10

Family

ID=38255769

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2008012429A MX2008012429A (es) 2006-03-31 2007-03-27 Video y audio combinados con base en el control de iluminacion ambiental.

Country Status (8)

Country Link
US (1) US20100265414A1 (es)
EP (1) EP2005801A1 (es)
JP (1) JP2009531825A (es)
KR (1) KR20090006139A (es)
BR (1) BRPI0710211A2 (es)
MX (1) MX2008012429A (es)
RU (1) RU2460248C2 (es)
WO (1) WO2007113738A1 (es)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2315441A4 (en) * 2008-07-15 2014-07-16 Sharp Kk DATA TRANSMISSION DEVICE, DATA RECEIVING DEVICE, DATA TRANSMISSION METHOD, DATA RECEIVING METHOD AND METHOD FOR CONTROLLING THE AUDIOVISUAL ENVIRONMENT
CZ301933B6 (cs) * 2008-10-29 2010-08-04 Nušl@Jaroslav Zpusob rízení zejména svetelné techniky zvukovým signálem a zarízení k provádení tohoto zpusobu
JP2013518383A (ja) 2010-01-27 2013-05-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ照明システムの制御方法
US8666254B2 (en) 2011-04-26 2014-03-04 The Boeing Company System and method of wireless optical communication
US8878991B2 (en) 2011-12-07 2014-11-04 Comcast Cable Communications, Llc Dynamic ambient lighting
EP2605622B1 (en) * 2011-12-15 2020-04-22 Comcast Cable Communications, LLC Dynamic ambient lighting
US8576340B1 (en) 2012-10-17 2013-11-05 Sony Corporation Ambient light effects and chrominance control in video files
US8928812B2 (en) * 2012-10-17 2015-01-06 Sony Corporation Ambient light effects based on video via home automation
US8928811B2 (en) * 2012-10-17 2015-01-06 Sony Corporation Methods and systems for generating ambient light effects based on video content
US9245443B2 (en) 2013-02-21 2016-01-26 The Boeing Company Passenger services system for an aircraft
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9380443B2 (en) 2013-03-12 2016-06-28 Comcast Cable Communications, Llc Immersive positioning and paring
US20150312648A1 (en) * 2014-04-23 2015-10-29 Verizon Patent And Licensing Inc. Mobile device controlled dynamic room environment using a cast device
JP6708122B2 (ja) 2014-06-30 2020-06-10 日本電気株式会社 誘導処理装置及び誘導方法
GB2535135B (en) * 2014-11-20 2018-05-30 Ambx Uk Ltd Light Control
US9480131B1 (en) 2015-05-28 2016-10-25 Sony Corporation Configuration of ambient light using wireless connection
KR20170096822A (ko) 2016-02-17 2017-08-25 삼성전자주식회사 오디오 재생 장치 및 그의 동작 제어 방법
WO2018065294A1 (en) * 2016-10-03 2018-04-12 Philips Lighting Holding B.V. Lighting control
CN106804076B (zh) * 2017-02-28 2018-06-08 深圳市喜悦智慧实验室有限公司 一种智能家居的照明系统
US20180295317A1 (en) * 2017-04-11 2018-10-11 Motorola Mobility Llc Intelligent Dynamic Ambient Scene Construction
EP3448127A1 (en) * 2017-08-21 2019-02-27 TP Vision Holding B.V. Method for controlling light presentation of a light system during playback of a multimedia program
WO2019042986A1 (en) 2017-09-01 2019-03-07 Signify Holding B.V. REPRESENTING A DYNAMIC LIGHT SCENE BASED ON AUDIOVISUAL CONTENT
CN112335340B (zh) * 2018-06-15 2023-10-31 昕诺飞控股有限公司 用于基于照明场景来选择媒体内容的方法和控制器
US11012659B2 (en) 2018-08-07 2021-05-18 International Business Machines Corporation Intelligent illumination and sound control in an internet of things (IoT) computing environment
JP7080399B2 (ja) * 2018-11-01 2022-06-03 シグニファイ ホールディング ビー ヴィ ビデオ及びオーディオの重みに依存したビデオ及びオーディオ情報に基づく光効果の決定
WO2020144265A1 (en) * 2019-01-09 2020-07-16 Signify Holding B.V. Determining a light effect based on a degree of speech in media content
WO2020151993A1 (en) * 2019-01-21 2020-07-30 Signify Holding B.V. A controller for controlling a lighting device based on media content and a method thereof
US11317137B2 (en) * 2020-06-18 2022-04-26 Disney Enterprises, Inc. Supplementing entertainment content with ambient lighting
US11960576B2 (en) * 2021-07-20 2024-04-16 Inception Institute of Artificial Intelligence Ltd Activity recognition in dark video based on both audio and video content
WO2023046673A1 (en) 2021-09-24 2023-03-30 Signify Holding B.V. Conditionally adjusting light effect based on second audio channel content
US11695980B1 (en) * 2022-11-07 2023-07-04 Roku, Inc. Method and system for controlling lighting in a viewing area of a content-presentation device

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61135093A (ja) * 1984-12-05 1986-06-23 日本ビクター株式会社 音楽応動照明装置
SU1432801A1 (ru) * 1987-03-13 1988-10-23 Войсковая Часть 25840 Телевизионный цветосинтезатор
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US5461188A (en) * 1994-03-07 1995-10-24 Drago; Marcello S. Synthesized music, sound and light system
JP4176233B2 (ja) * 1998-04-13 2008-11-05 松下電器産業株式会社 照明制御方法及び照明装置
GB2354602A (en) * 1999-09-07 2001-03-28 Peter Stefan Jones Digital controlling system for electronic lighting devices
JP2001118689A (ja) * 1999-10-15 2001-04-27 Matsushita Electric Ind Co Ltd 照明制御方法
US6862022B2 (en) * 2001-07-20 2005-03-01 Hewlett-Packard Development Company, L.P. Method and system for automatically selecting a vertical refresh rate for a video display monitor
GB0211898D0 (en) * 2002-05-23 2002-07-03 Koninkl Philips Electronics Nv Controlling ambient light
WO2004006570A1 (en) * 2002-07-04 2004-01-15 Koninklijke Philips Electronics N.V. Method of and system for controlling an ambient light and lighting unit
CN1666506B (zh) * 2002-07-04 2011-06-22 皇家飞利浦电子股份有限公司 用于控制环境光的方法和系统以及照明单元
US6986598B2 (en) * 2003-05-05 2006-01-17 Yao-Wen Chu Backlight module for a double-sided LCD device
KR20060129313A (ko) * 2004-01-28 2006-12-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 자동 오디오 신호 동작 범위 조정
JP2008505384A (ja) * 2004-06-30 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ・コンテンツに由来し、知覚ルール及びユーザ嗜好によって影響される放送による周辺光発生
CN1703131B (zh) * 2004-12-24 2010-04-14 北京中星微电子有限公司 一种音乐控制发光灯组的亮度和颜色的方法
CA2548232A1 (en) * 2005-05-24 2006-11-24 Anton Sabeta A method & system for tracking the wearable life of an ophthalmic product
US20060267917A1 (en) * 2005-05-25 2006-11-30 Cisco Technology, Inc. System and method for managing an incoming communication
TWM291088U (en) * 2005-12-08 2006-05-21 Upec Electronics Corp Illuminating device

Also Published As

Publication number Publication date
KR20090006139A (ko) 2009-01-14
RU2008143243A (ru) 2010-05-10
RU2460248C2 (ru) 2012-08-27
US20100265414A1 (en) 2010-10-21
BRPI0710211A2 (pt) 2011-05-24
WO2007113738A1 (en) 2007-10-11
EP2005801A1 (en) 2008-12-24
JP2009531825A (ja) 2009-09-03

Similar Documents

Publication Publication Date Title
MX2008012429A (es) Video y audio combinados con base en el control de iluminacion ambiental.
US11678014B2 (en) Creative intent scalability via physiological monitoring
NL2004780C2 (nl) Visueel element werkwijze en systeem.
US20100177247A1 (en) Ambient lighting
RU2427986C2 (ru) Управление окружающим освещением на основе событий
JP4698609B2 (ja) 周囲光スクリプト・コマンドのコード化
JP4902000B2 (ja) コンテンツ再生装置、テレビジョン受像機、コンテンツ再生方法、コンテンツ再生プログラム、および記録媒体
Waltl et al. An end-to-end tool chain for Sensory Experience based on MPEG-V
US20170347427A1 (en) Light control
US9201497B2 (en) Systems, methods, and computer readable storage media for providing virtual media environments
CN101416562A (zh) 组合的基于视频和音频的环境照明控制
KR20100114482A (ko) 감각 효과를 위한 메타데이터 제공 방법 및 장치, 감각 효과를 위한 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 감각 재생 방법 및 장치
KR20100012013A (ko) 감각 재생 장치에 관계된 메타데이터를 이용한 멀티미디어 응용 시스템 및 방법
CN1871848A (zh) 对照明的自动显示自适应
CN104793575A (zh) 情境声光产生系统、情境声光产生方法及情境播放单元
KR20200144775A (ko) 디스플레이장치 및 그 제어방법
KR100881723B1 (ko) 미디어 실감 재현을 위한 디바이스 연동/제어 정보 생성장치 및 방법
KR101618586B1 (ko) 입력에 따라 전자 영상을 자동으로 선택하는 시스템 및 방법
US20220217435A1 (en) Supplementing Entertainment Content with Ambient Lighting
KR102460671B1 (ko) 실감 효과 적응 방법 및 이를 수행하는 적응 엔진 및 실감 장치
JP5562931B2 (ja) コンテンツ再生装置、テレビジョン受像機、コンテンツ再生方法、コンテンツ再生プログラム、および記録媒体
US8217768B2 (en) Video reproduction apparatus and method for providing haptic effects
JP2019522424A (ja) ハイ・ダイナミックレンジ用のゾーン・バックライト・メタデータを伝達する方法及び装置
CN116471437A (zh) 智能眼镜播放氛围的调整方法、装置、设备和存储介质

Legal Events

Date Code Title Description
FA Abandonment or withdrawal