RU2460248C2 - Комбинированное управление окружающим освещением на основе видеосодержимого и аудиосодержимого - Google Patents

Комбинированное управление окружающим освещением на основе видеосодержимого и аудиосодержимого Download PDF

Info

Publication number
RU2460248C2
RU2460248C2 RU2008143243/07A RU2008143243A RU2460248C2 RU 2460248 C2 RU2460248 C2 RU 2460248C2 RU 2008143243/07 A RU2008143243/07 A RU 2008143243/07A RU 2008143243 A RU2008143243 A RU 2008143243A RU 2460248 C2 RU2460248 C2 RU 2460248C2
Authority
RU
Russia
Prior art keywords
ambient lighting
audio
lighting data
video
data
Prior art date
Application number
RU2008143243/07A
Other languages
English (en)
Other versions
RU2008143243A (ru
Inventor
Эрик НЬИВЛАНДС (NL)
Эрик НЬИВЛАНДС
Original Assignee
Конинклейке Филипс Электроникс, Н.В.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Электроникс, Н.В. filed Critical Конинклейке Филипс Электроникс, Н.В.
Publication of RU2008143243A publication Critical patent/RU2008143243A/ru
Application granted granted Critical
Publication of RU2460248C2 publication Critical patent/RU2460248C2/ru

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Изобретение относится к системам управления источниками света, а более конкретно к управлению системой окружающего освещения. Техническим результатом является обеспечение системы окружающего освещения, которая управляется на основе комбинированных данных окружающего освещения, полученных путем анализа совместно видео- и аудиоданных. Результат достигается тем, что принимают основанные на видео данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе видеосодержимого, принимают основанные на аудио данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе аудиосодержимого, комбинируют принятые основанные на видео данные окружающего освещения и принятые основанные на аудио данные окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения и управляют характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения. 3 н. и 16 з.п. ф-лы, 2 ил.

Description

Данная заявка испрашивает приоритет предварительной патентной заявки США номер 60/788467, поданной 31 марта 2006 года.
Настоящая система относится к эффектам окружающего освещения, которые модулируются посредством характеристик потоков видео- и аудиосодержимого.
Koninklijke Philips Electronics N.V. (Philips) и другие компании раскрыли средство изменения окружающего или периферического освещения, чтобы улучшать видеосодержимое в типичных бытовых и коммерческих применениях. Окружающее освещение, модулируемое посредством видеосодержимого, которое предоставляется вместе с монитором или телевизором, как оказалось, уменьшает утомление зрителя и повышает реализм и глубину впечатлений. В настоящее время Philips имеет линейку телевизоров, в том числе плоскопанельных телевизоров, с окружающим освещением, где рамка вокруг телевизора включает в себя источники окружающего света, которые проецируют окружающий свет на заднюю стенку, которая поддерживает или находится рядом с телевизором. Дополнительно, источники света, отдельные от телевизора, также могут быть модулированы относительно видеосодержимого, чтобы сформировать окружающий свет, который может управляться аналогичным образом.
В случае одноцветного источника света модуляция источника света может быть только модуляцией яркости источника света. Источник света, выполненный с возможностью формирования многоцветного света, предоставляет возможность модулировать множество аспектов источника многоцветного света на основе воспроизводимого видеосодержимого, в том числе широкий диапазон выбираемых цветов на точку.
Задача настоящей системы состоит в том, чтобы преодолеть недостатки, присущие уровню техники, и/или обеспечить более глубокое пространственное погружение в эффект от окружающего освещения.
Настоящая система предусматривает способ, программу и устройство для определения данных окружающего освещения, чтобы управлять элементом окружающего освещения. Способ включает в себя обработку комбинированных данных окружающего освещения, при этом комбинированные данные окружающего освещения основаны на соответствующих частях видеосодержимого и соответствующих частях аудиосодержимого. Обработанные комбинированные данные окружающего освещения затем могут быть использованы для того, чтобы управлять элементом окружающего освещения. В одном варианте выполнения изобретения комбинированные данные окружающего освещения могут быть приняты в виде комбинированного сценария окружающего освещения или отдельных основанных на видеосодержимом и основанных на аудиосодержимом сценариев окружающего освещения.
Основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения могут быть комбинированы, чтобы сформировать комбинированные данные окружающего освещения. Комбинирование основанных на видеосодержимом и основанных на аудиосодержимом данных окружающего освещения может включать в себя модуляцию основанных на видеосодержимом данных окружающего освещения посредством основанных на аудиосодержимом данных окружающего освещения.
В одном варианте выполнения изобретения видеосодержимое и/или аудиосодержимое может быть проанализировано так, чтобы сформировать основанные на видеосодержимом и/или основанные на аудиосодержимом данные окружающего освещения. Анализ видеосодержимого может включать в себя анализ частей видеосодержимого с целью создания временных частей основанных на видеосодержимом данных окружающего освещения. В этом варианте выполнения изобретения временные части основанных на видеосодержимом данных окружающего освещения могут быть комбинированы с целью создания основанного на видеосодержимом сценария окружающего освещения как основанные на видеосодержимом данные окружающего освещения.
Аудиосодержимое может быть проанализировано с целью создания основанных на аудиосодержимом данных окружающего освещения. Анализ видеосодержимого может включать в себя анализ, по меньшей мере, одного из частоты, диапазона частот и амплитуды соответствующих частей аудиосодержимого. Анализ аудиосодержимого позволяет идентифицировать и использовать другие характеристики аудиосодержимого, в том числе тактов в минуту; тональности, такие как мажорная и минорная тональность, а также абсолютная тональность аудиосодержимого; интенсивность; и/или классификация, такая как классическая музыка, поп-музыка, дебаты, фильм. Дополнительно, могут быть проанализированы данные, которые являются отдельными от самого аудиосодержимого, но могут быть связаны с аудиоданными, к примеру метаданные, которые связаны с аудиоданными. Комбинирование основанных на видеосодержимом и основанных на аудиосодержимом данных окружающего освещения может включать в себя использование основанных на аудиосодержимом данных окружающего освещения для того, чтобы регулировать динамику цветовой точки, определенной с помощью основанных на видеосодержимом данных окружающего освещения.
Настоящая система будет более подробно описана, в качестве примера, со ссылкой на сопровождающие чертежи, на которых:
Фиг.1 изображает блок-схему в соответствии с вариантом выполнения настоящей системы; и
Фиг.2 изображает устройство в соответствии с вариантом выполнения настоящей системы.
Далее приводятся описания иллюстративных вариантов выполнения изобретения, которые в сочетании с сопровождающими чертежами демонстрируют вышеуказанные, а также дополнительные признаки и преимущества. В нижеследующем описании в целях пояснения, а не ограничения конкретные подробности, такие как конкретная архитектура, интерфейсы, методики и т.д., излагаются для иллюстрации. Тем не менее, специалистам в данной области техники должно быть очевидно, что другие варианты выполнения изобретения, которые выходят за рамки этих конкретных подробностей, должны также быть истолкованы как находящиеся в рамках объема изобретения, определенного прилагаемой формулой изобретения. Более того, для ясности подробные описания хорошо известных устройств, схем и способов опускаются, с тем чтобы не мешать описанию настоящей системы.
Следует определенно понимать, что чертежи включены для иллюстративных целей и не представляют объем настоящей системы.
Фиг.1 изображает блок-схему 100 в соответствии с вариантом выполнения настоящей системы. На этапе 110 процесс начинается. Затем на этапе 120 принимаются данные окружающего освещения, связанные с видеосодержимым, далее называемые основанными на видеосодержимом данными окружающего освещения. Основанные на видеосодержимом данные окружающего освещения могут быть приняты в форме сценария освещения, который сформирован внутри системы или вне ее, как описано в Международной патентной заявке серийный номер IB2006/053524 (номер дела поверенного 003663), поданной 27 сентября 2006 года, которая испрашивает приоритет предварительных патентных заявок США № 60/722903 и 60/826117, все из которых уступлены правообладателю настоящей заявки, и содержимое всех из которых полностью включено в настоящий документ путем ссылки. В одном варианте выполнения изобретения сценарий освещения формируется внешним образом относительно системы, например, посредством службы создания сценариев освещения, которая создает сценарий освещения, связанный с конкретным видеосодержимым. Сценарий освещения может быть извлечен из внешнего источника, доступного, например, посредством проводного или беспроводного подключения к Интернету. В этом варианте выполнения изобретения видеосодержимое или носитель, на котором хранится видеосодержимое, может включать в себя идентификатор содержимого, и/или идентификатор может быть выведен непосредственно из содержимого. Идентификатор может быть использован для того, чтобы извлекать сценарий освещения, который соответствует видеосодержимому. В другом варианте выполнения изобретения сценарий освещения может быть сохранен или предоставлен на том же носителе, что и аудиовизуальное содержимое. В этом варианте выполнения изобретения идентификатор может быть необязателен для извлечения соответствующего сценария освещения.
В другом варианте выполнения изобретения видеосодержимое может быть обработано так, чтобы сформировать основанные на видеосодержимом данные окружающего освещения, связанные с видеосодержимым, на этапе 130. Обработка в форме анализа видеосодержимого или его частей может быть выполнена непосредственно перед воспроизведением видеосодержимого либо может быть выполнена для сохраненного или доступного видеосодержимого. PCT патентная заявка WO 2004/006570, в полном объеме включенная в настоящий документ путем ссылки, раскрывает систему и устройство для управления эффектами окружающего освещения на основе цветовых характеристик содержимого, таких как оттенок, насыщенность, яркость, цвета, скорость смены сцен, распознаваемые символы, обнаруженная тональность и т.д. При работе система анализирует принимаемое содержимое и может использовать распределение содержимого, такое как средний цвет, по одному или более кадров видеосодержимого или использовать части видеосодержимого, которые размещаются рядом с границей одного или более кадров, чтобы сформировать основанные на видеосодержимом данные окружающего освещения, связанные с видеосодержимым. Временное усреднение может быть использовано для того, чтобы сглаживать временные переходы в основанных на видеосодержимом данных окружающего освещения, вызываемые посредством быстрого изменения анализируемого видеосодержимого.
Международная патентная заявка серийный номер IB2006/053524 также раскрывает систему анализа видеосодержимого для формирования основанных на видеосодержимом данных окружающего освещения, связанных с видеосодержимым. В данном варианте выполнения изобретения пикселы видеосодержимого анализируются с тем, чтобы идентифицировать пикселы, которые предоставляют когерентный цвет, тогда как пикселы некогерентного цвета отбрасываются. Пикселы когерентного цвета затем используются для того, чтобы формировать основанные на видеосодержимом данные окружающего освещения.
Предусмотрено множество других систем для определения основанных на видеосодержимом данных окружающего освещения, в том числе гистограммный анализ видеосодержимого, анализ цветовых полей видеосодержимого и т.д. Специалисты в данной области техники могут легко понять, что для формирования основанных на видеосодержимом данных окружающего освещения в соответствии с настоящей системой может быть применена любая из упомянутых систем.
Основанные на видеосодержимом данные окружающего освещения могут включать в себя данные для управления характеристиками окружающего освещения, такими как оттенок, насыщенность, яркость, цвет и т.д. одного или более элементов окружающего освещения. Например, в одном варианте выполнения изобретения в соответствии с настоящей системой данные основанного на видеосодержимом окружающего освещения определяют зависимые от времени цветовые точки одного или более элементов окружающего освещения, которые соответствуют видеосодержимому.
На этапе 140 настоящая система принимает данные окружающего освещения, связанные с аудиосодержимым, далее упоминаемые как основанные на аудиосодержимом данные окружающего освещения. Основанные на аудиосодержимом данные окружающего освещения, аналогично основанным на видеосодержимом данным окружающего освещения, могут приниматься в форме основанного на аудиосодержимом сценария окружающего освещения. В одном варианте выполнения изобретения основанный на аудиосодержимом сценарий освещения формируется внешним образом относительно системы, например посредством службы создания сценариев освещения, которая создает сценарий освещения, связанный с конкретным аудиосодержимым. Сценарий освещения может быть извлечен из внешнего источника, доступного, например, посредством проводного или беспроводного подключения к Интернету. В этом варианте выполнения изобретения аудиосодержимое или носитель, на котором хранится аудиосодержимое, может включать в себя идентификатор содержимого, и/или идентификатор может быть выделен непосредственно из содержимого. В другом варианте выполнения изобретения идентификатор, определенный из видеосодержимого, может быть использован для извлечения основанного на аудиосодержимом сценария освещения, поскольку аудиосодержимое в обычном варианте соответствует видеосодержимому аудиовизуального содержимого. В любом случае идентификатор, будь то основанный на аудиосодержимом или основанный на видеосодержимом, может быть использован для извлечения сценария освещения, который соответствует аудиосодержимому. В одном варианте выполнения изобретения основанный на аудиосодержимом сценарий освещения может быть доступен, например, из носителя, на котором хранится аудиовизуальное содержимое, без использования идентификатора.
В другом варианте выполнения изобретения аудиосодержимое может быть обработано для формирования основанных на аудиосодержимом данных окружающего освещения, связанных с аудиосодержимым, на этапе 150. Обработка в форме анализа аудиосодержимого или его частей может быть выполнена непосредственно перед воспроизведением аудиосодержимого либо может быть выполнена для сохраненного или доступного аудиосодержимого. Аудиоанализ с целью формирования основанных на аудиосодержимом данных окружающего освещения может включать в себя анализ частоты аудиосодержимого, диапазона частот аудиосодержимого, энергии аудиосодержимого, амплитуды энергии аудиосодержимого, такта аудиосодержимого, ритма аудиосодержимого и других систем для определения характеристик аудиосодержимого, которые могут быть с легкостью применены. В другом варианте выполнения изобретения может быть использован гистограммный анализ аудиосодержимого, например гистограммный анализ аудиосодержимого в частотной области. Для того чтобы сглаживать временные переходы в основанных на аудиосодержимом данных окружающего освещения, вызываемые посредством быстрого изменения анализируемого аудиосодержимого, может быть использовано временное усреднение. Анализ аудиосодержимого позволяет идентифицировать и использовать другие характеристики аудиосодержимого, в том числе число тактов в минуту; тональности, такие как мажорная и минорная тональность, а также абсолютная тональность аудиосодержимого; интенсивность; и/или классификация, такая как классическая музыка, поп-музыка, дебаты, фильм. Дополнительно могут быть проанализированы данные, которые являются отдельными от самого аудиосодержимого, но могут быть связаны с аудиоданными, к примеру метаданные, которые связаны с аудиосодержимым. Специалисты в данной области техники могут легко понять, что любые системы выделения характеристик аудиосодержимого могут быть применены для формирования основанных на аудиосодержимом данных окружающего освещения в соответствии с настоящей системой.
Основанные на аудиосодержимом данные окружающего освещения могут включать в себя данные для управления характеристиками окружающего освещения, такими как динамика (к примеру, яркость, насыщенность и т.д.) одного или более элементов окружающего освещения, а также для модулирования основанных на видеосодержимом характеристик окружающего освещения, описанных в настоящем документе. Основанные на аудиосодержимом данные окружающего освещения могут быть использованы для того, чтобы определять данные для управления характеристиками окружающего освещения, которые аналогичны и/или комплементарны определенным основанным на видеосодержимом данным окружающего освещения.
На этапе 160 основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения комбинируются для формирования комбинированных данных окружающего освещения. В типичном варианте видеосодержимое и аудиосодержимое синхронизируются в аудиовизуальном содержимом. По сути, основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения представляются как временные последовательности данных. Соответственно, временные части основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения могут быть комбинированы для формирования комбинированных данных окружающего освещения, которые также синхронизированы с аудиовизуальным содержимым, и могут быть воспроизведены как таковые на этапе 170. После воспроизведения процесс завершается на этапе 180.
В одном варианте выполнения изобретения в соответствии с настоящей системой основанные на видеосодержимом данные окружающего освещения могут быть использованы для определения цветовых характеристик данных окружающего освещения, таких как цветовые точки. Тогда для модулирования цветовых точек, к примеру, в виде регулирования динамики определенных из видеосодержимого цветовых точек, могут быть применены основанные на аудиосодержимом данные окружающего освещения.
Например, в аудиовизуальной последовательности, в которой основанные на видеосодержимом данные окружающего освещения определяют присвоение указанной характеристики данных окружающего освещения указанной цветовой точке в течение указанного отрезка времени, основанные на аудиосодержимом данные окружающего освещения в сочетании с основанными на видеосодержимом данными окружающего освещения могут регулировать цвет до более тусклого (к примеру, менее яркого) цвета на основании невысокого уровня энергии аудиосодержимого в течение соответствующей аудиовизуальной последовательности. Аналогично, в аудиовизуальной последовательности, в которой основанные на видеосодержимом данные окружающего освещения определяют присвоение характеристики окружающего освещения указанной цветовой точке, аудиосодержимое может регулировать цвет до более яркого цвета на основании высокого уровня энергии аудиосодержимого в течение соответствующей аудиовизуальной последовательности. Несомненно, что другие системы комбинирования основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения должны быть очевидными специалистам в данной области техники, и предполагается, что они будут истолкованы как находящиеся в рамках объема настоящей системы и прилагаемой формулы изобретения. Таким образом, комбинированные данные окружающего освещения могут быть использованы для того, чтобы управлять элементами окружающего освещения в ответ на представляемые соответствующие аудио- и видеосодержимое. В одном варианте выполнения изобретения в соответствии с настоящей системой пользователь может регулировать воздействие, которое каждое из аудио- и видеосодержимого имеет на комбинированные данные окружающего освещения. Например, пользователь может решить, что основанные на аудиосодержимом данные окружающего освещения оказывают меньшее или большее влияние на основанные на видеосодержимом данные окружающего освещения при определении комбинированных данных окружающего освещения.
В дополнительном варианте выполнения изобретения аудиосодержимое и видеосодержимое могут представлять собой раздельное содержимое, не скомпонованное предварительно в виде аудиовизуального содержимого. Например, изображение или видеопоследовательность может иметь аудиосодержимое, предназначенное для воспроизведения в течение отображения изображения или видеопоследовательности. В соответствии с настоящей системой основанные на видеосодержимом данные окружающего освещения могут быть модулированы посредством основанных на аудиосодержимом данных окружающего освещения аналогично тому, как предусмотрено выше для аудиовизуального содержимого. В дополнительном варианте выполнения изобретения для воспроизведения вместе с видеосодержимым может быть предусмотрено несколько частей аудиосодержимого. В соответствии с настоящей системой для определения основанных на аудиосодержимом данных окружающего освещения может быть использована одна и/или другая из упомянутых частей аудиосодержимого.
Хотя Фиг.1 показывает прием основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения по отдельности друг от друга, очевидно, что нет необходимости принимать упомянутые данные по отдельности. Например, может быть сформирован такой принимаемый сценарий окружающего освещения, который определяется на основе как аудио-, так и визуальных характеристик аудиовизуального содержимого. Дополнительные этапы 130 и 150 могут быть предусмотрены практически одновременно, так что комбинированные данные окружающего освещения формируются непосредственно без необходимости формировать основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения, которые затем комбинируются. Специалистам в данной области техники должны быть явно очевидными и другие варианты, и подразумевается, что такие варианты включены в объем настоящей системы.
В варианте выполнения в соответствии с настоящей системой при комбинировании основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения основанные на аудиосодержимом данные окружающего освещения могут быть использованы для определения основанных на аудиосодержимом характеристик окружающего освещения, как описано для основанных на видеосодержимом данных окружающего освещения, с последующим модулированием посредством основанных на видеосодержимом данных окружающего освещения. Например, в одном варианте выполнения изобретения характеристики основанных на аудиосодержимом данных окружающего освещения могут быть сопоставлены с характеристиками окружающего освещения. Таким образом, характеристика аудиосодержимого, такая как указанное число тактов в минуту аудиоданных, может быть сопоставлена с указанным цветом окружающего освещения. Например, определенный цвет окружающего освещения может быть сопоставлен с диапазоном тактов в минуту. Разумеется, другие характеристики аудиосодержимого и окружающего освещения могут быть просто сопоставлены аналогичным образом.
В еще одном варианте выполнения изобретения основанные на видеосодержимом характеристики окружающего освещения могут быть модулированы так, что формируется основанный на аудиосодержимом шаблон с помощью цветов, определенных из основанных на видеосодержимом характеристик окружающего освещения, аналогично представлению с помощью волюметра, как могут легко понять специалисты в данной области техники. Например, в пиксельной системе окружающего освещения отдельные части пиксельной системы окружающего освещения могут быть модулированы посредством основанных на аудиосодержимом данных окружающего освещения. В представлении с помощью волюметра аудиомодуляция упомянутого представления может быть выполнена в направлении от нижней части к верхней в системе окружающего освещения, или наоборот (к примеру, сверху вниз). В качестве дополнения, продвижение может быть слева направо или от центральной части системы окружающего освещения к периферии.
Как можно дополнительно понять из настоящей заявки, поскольку основанные на аудиосодержимом данные окружающего освещения в обычном варианте могут различаться для различных каналов аудиоданных, включая левые данные, правые данные, центральные данные, задние левые данные, задние правые данные и т.д., каждая из этих позиционных частей аудиоданных или их фрагменты легко могут быть использованы в сочетании с основанными на видеосодержимом данными и характеристиками окружающего освещения. Например, часть основанных на видеосодержимом характеристик окружающего освещения, предназначенных для представления на левой стороне дисплея, может быть комбинирована с левым каналом основанных на аудиосодержимом данных окружающего освещения, тогда как часть основанных на видеосодержимом характеристик окружающего освещения, предназначенных для представления на правой стороне дисплея, может быть комбинирована с правым каналом основанных на аудиосодержимом данных окружающего освещения. Могут быть легко применены другие комбинации частей основанных на видеосодержимом данных окружающего освещения и частей основанных на аудиосодержимом данных окружающего освещения.
Фиг.2 изображает устройство 200 в соответствии с вариантом выполнения настоящей системы. Устройство имеет процессор 210, функционально соединенный с запоминающим устройством 220, устройство 230 представления видеосодержимого (к примеру, дисплей), устройство 280 представления аудиосодержимого (к примеру, динамики), элементы 250, 260 окружающего освещения, ввод/вывод (I/O) 240 и устройство 270 пользовательского ввода. Запоминающее устройство 220 может быть любым типом устройства для хранения данных приложений, а также других данных, таких как данные окружающего освещения, аудиоданные, видеоданные, данные сопоставления и т.д. Данные приложений и другие данные принимаются процессором 210 для конфигурирования процессора 210, чтобы выполнять этапы процесса в соответствии с настоящей системой. Этапы процесса включают в себя управление, по меньшей мере, одним из дисплея 230 для воспроизведения содержимого, и управление одним или более из элементов 250, 260 окружающего освещения для отображения эффектов окружающего освещения в соответствии с настоящей системой. Устройство 270 пользовательского ввода может включать в себя клавиатуру, мышь или другие устройства, включая сенсорные дисплеи, которые могут быть автономными или быть частью системы, такой как персональный компьютер, карманный персональный компьютер, и устройство отображения, такое как телевизор, для обмена данными с процессором посредством любого типа соединения, такого как проводное или беспроводное соединение. Очевидно, что процессор 210, запоминающее устройство 220, дисплей 230, элементы 250, 260 окружающего освещения и/или устройство 270 пользовательского ввода все или частично могут быть частью телевизионной платформы, такой как отдельный телевизор, либо могут быть отдельными устройствами.
Способы настоящей системы особенно подходят для выполнения посредством компьютерного программного обеспечения, причем это компьютерное программное обеспечение предпочтительно содержит модули, соответствующие отдельным этапам способов. Это программное обеспечение, разумеется, может быть осуществлено в машиночитаемом носителе, таком как интегральная микросхема, периферийное устройство или запоминающее устройство, такое как запоминающее устройство 220 или другое запоминающее устройство, соединенное с процессором 210.
Машиночитаемый носитель и/или запоминающее устройство 220 может быть любым носителем записи (к примеру, RAM, ROM, съемное запоминающее устройство, CD-ROM, жесткие диски, DVD, гибкие диски или карты памяти) либо может быть средой передачи (к примеру, сетью, содержащей оптоволокно, сетью Интернет, кабелями или беспроводным каналом, использующим множественный доступ с временным разделением каналов, множественный доступ с кодовым разделением каналов, или другим радиочастотным каналом). Любой известный или разрабатываемый носитель, который может предоставлять информацию, подходящую для использования с компьютерной системой, может быть использован в качестве машиночитаемого носителя и/или запоминающего устройства 220.
Также могут быть использованы дополнительные запоминающие устройства. Машиночитаемый носитель, запоминающее устройство 220 и/или любые другие запоминающие устройства могут быть долговременными, кратковременными или комбинацией долговременных и кратковременных запоминающих устройств. Эти запоминающие устройства обеспечивают процессору 210 возможность осуществлять способы, этапы процесса и функции, раскрытые в настоящей заявке. Запоминающие устройства могут быть распределенными или локальными, и процессор 210, в котором могут быть предусмотрены дополнительные процессоры, также может быть распределенным и, к примеру, располагаться в составе элементов окружающего освещения, либо может быть одиночным. Запоминающие устройства могут быть реализованы как электрическое, магнитное или оптическое запоминающее устройство либо комбинация этих и других типов устройств хранения. Кроме того, термин "запоминающее устройство" должен рассматриваться в достаточно широком смысле, чтобы включать в себя любую информацию, которую можно считывать или записывать в какой-либо адрес в адресуемом пространстве, к которому может осуществлять доступ процессор. При таком определении информация в сети по-прежнему находится в рамках запоминающего устройства 220, например, поскольку процессор 210 может извлекать информацию из сети для работы в соответствии с настоящей системой.
Процессор 210 выполнен с возможностью предоставления сигналов управления и/или выполнения операций в соответствии с входными сигналами из устройства 270 пользовательского ввода и приведения в исполнение команд, сохраненных в запоминающем устройстве 220. Процессор 210 может быть специализированной или общей интегральной микросхемой(ами). Дополнительно, процессор 210 может быть специализированным процессором для работы в соответствии с настоящей системой или может быть процессором общего назначения, в котором только одна из множества функций служит для работы в соответствии с настоящей системой. Процессор 210 может работать с использованием программной части, нескольких программных сегментов или может быть аппаратным устройством, использующим специализированную или универсальную интегральную микросхему.
Ввод/вывод 240 может быть использован для передачи идентификатора содержимого, для приема одного или более сценариев освещения и/или для других операций, как описано выше.
Разумеется, следует принимать во внимание, что любой из вышеприведенных вариантов выполнения изобретения или процессов может быть комбинирован с одним или более другими вариантами выполнения изобретения или процессами или может быть осуществлен отдельно в соответствии с настоящей системой.
Наконец, вышеприведенное описание служит лишь для целей иллюстрации настоящей системы и не должно быть истолковано как ограничивающее прилагаемую формулу изобретения каким-либо конкретным вариантом выполнения изобретения или группой вариантов выполнения изобретения. Таким образом, хотя настоящая система описана со ссылкой на примерные варианты выполнения изобретения, также следует понимать, что специалистами в данной области техники может быть обнаружено множество модификаций и альтернативных вариантов выполнения изобретения, не выходящих за рамки предполагаемых авторами и понимаемых в широком смысле сущности и объема настоящей системы, изложенных в нижеследующей формуле изобретения. Соответственно, описание и чертежи должны рассматриваться в иллюстративном смысле и не предназначены для того, чтобы ограничивать объем прилагаемой формулы изобретения.
При толковании прилагаемой формулы изобретения следует понимать, что:
a) слово "содержащий" не исключает наличия других элементов или этапов, не перечисленных в данном пункте формулы изобретения;
b) слово "a" или "an" перед элементом не исключает наличия множества таких элементов;
c) любые номера ссылочных позиций в формуле изобретения не ограничивают ее объем;
d) несколько "средств" могут быть представлены в виде одного и того же элемента или аппаратно или программно реализованной структуры либо функции;
e) любые из раскрытых элементов могут состоять из аппаратных частей (к примеру, включающих в себя дискретные и интегрированные электронные схемы), программных частей (к примеру, вычислительного программирования) и любого сочетания упомянутых частей;
f) аппаратные части могут состоять из аналоговых или из цифровых частей, либо из сочетания упомянутых частей;
g) любое из раскрытых устройств или их частей могут быть комбинированы вместе или разделены на дополнительные части, если иное не указано конкретно; и
h) ни одна конкретная последовательность операций или этапов не должна считаться обязательной, если иное не указано явно.

Claims (19)

1. Способ управления характеристиками окружающего освещения элемента окружающего освещения для отображения эффектов окружающего освещения, причем характеристики окружающего освещения включают в себя по меньшей мере одно из оттенка, насыщенности, яркости и цвета, содержащий этапы, на которых:
принимают основанные на видео данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе видеосодержимого;
принимают основанные на аудио данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе аудиосодержимого;
комбинируют принятые основанные на видео данные окружающего освещения и принятые основанные на аудио данные окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения,
управляют характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения.
2. Способ по п.1, в котором комбинированные данные окружающего освещения имеют форму комбинированного сценария окружающего освещения.
3. Способ по п.1, дополнительно содержащий этап, на котором посредством модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения, регулируют указанную цветовую точку в течение указанного отрезка времени в основанных на видео данных окружающего освещения, чтобы сделать ее более яркой, на основе высокой энергии аудио, определенной основанными на аудио данными окружающего освещения, или менее яркой на основе низкой энергии аудио, определенной основанными на аудио данными окружающего освещения.
4. Способ по п.1, содержащий этап, на котором анализируют видеосодержимое для формирования основанных на видео данных окружающего освещения.
5. Способ по п.4, в котором этап анализа видеосодержимого содержит этап, на котором определяют множество цветовых точек в качестве основанных на видео данных окружающего освещения.
6. Способ по п.1, содержащий этап, на котором анализируют аудиосодержимое для формирования основанных на аудио данных окружающего освещения.
7. Способ по п.6, в котором этап анализа аудиосодержимого содержит этап, на котором анализируют по меньшей мере одно из частоты, диапазона частот и амплитуды соответствующих частей аудиосодержимого.
8. Способ по п.6, в котором этап анализа аудиосодержимого содержит этап, на котором анализируют временные части аудиосодержимого для формирования временных частей основанных на
аудио данных окружающего освещения.
9. Способ по п.6, в котором этап анализа аудиосодержимого содержит этап, на котором анализируют позиционные части аудиосодержимого для формирования позиционных частей основанных на аудио данных окружающего освещения.
10. Способ по п.1, в котором этап комбинирования содержит этапы, на которых:
определяют цветовую точку на основе принятых основанных на видео данных окружающего освещения; и
используют основанные на аудио данные окружающего освещения для регулирования динамики цветовой точки.
11. Машиночитаемый носитель, содержащий осуществленное на нем приложение, конфигурированное для управления характеристиками окружающего освещения элемента окружающего освещения для отображения эффектов окружающего освещения, причем характеристики окружающего освещения включают в себя по меньшей мере одно из оттенка, насыщенности, яркости и цвета, причем приложение содержит:
модуль, конфигурированный для приема основанных на видео данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе видеосодержимого;
модуль, конфигурированный для приема основанных на аудио данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе аудиосодержимого;
модуль, конфигурированный для комбинирования принятых основанных на видео данных окружающего освещения и принятых основанных на аудио данных окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения,
модуль, конфигурированный для управления характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения.
12. Машиночитаемый носитель по п.11, в котором приложение содержит модуль, конфигурированный для анализа видеосодержимого для формирования основанных на видео данных окружающего освещения, причем модуль, конфигурированный для анализа видеосодержимого, конфигурирован для определения цветовой точки в качестве основанных на видео данных окружающего освещения.
13. Машиночитаемый носитель по п.11, в котором приложение содержит модуль, конфигурированный для анализа аудиосодержимого для формирования основанных на аудио данных окружающего освещения, причем модуль, конфигурированный для анализа аудиосодержимого, конфигурирован для анализа частей аудиосодержимого для создания частей основанных на аудио данных окружающего освещения в качестве основанных на аудио данных окружающего освещения.
14. Машиночитаемый носитель по п.13, в котором части основанных на аудио данных окружающего освещения являются разделенными на части соответственно по меньшей мере одному из позиционного и временного разделения.
15. Машиночитаемый носитель по п.13, в котором модуль приложения, конфигурированный для анализа аудиосодержимого, конфигурирован для анализа по меньшей мере одного из частоты, диапазона частот и амплитуды соответствующих частей аудиосодержимого.
16. Машиночитаемый носитель по п.11, в котором приложение содержит модуль, конфигурированный для определения цветовой точки на основе основанных на видео данных окружающего освещения, при этом модуль, конфигурированный для комбинирования, конфигурирован для использования основанных на аудио данных окружающего освещения для регулирования динамики цветовой точки.
17. Устройство управления элементом окружающего освещения, при этом устройство содержит:
запоминающее устройство (220) и
процессор (210), функционально соединенный с запоминающим устройством (220), при этом процессор (210) конфигурирован для:
приема основанных на видео данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе видеосодержимого;
приема основанных на аудио данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе аудиосодержимого; и
комбинирования принятых основанных на видео данных окружающего освещения и принятых основанных на аудио данных окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения,
управления характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения.
18. Устройство по п.17, в котором процессор (210) конфигурирован для:
анализа видеосодержимого для формирования цветовой точки в качестве основанных на видео данных окружающего освещения и
использования основанных на аудио данных окружающего освещения для модулирования цветовой точки.
19. Устройство по п.17, в котором процессор (210) конфигурирован для анализа по меньшей мере одной из временных и позиционных частей аудиосодержимого для формирования основанных на аудио данных окружающего освещения.
RU2008143243/07A 2006-03-31 2007-03-27 Комбинированное управление окружающим освещением на основе видеосодержимого и аудиосодержимого RU2460248C2 (ru)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US78846706P 2006-03-31 2006-03-31
US60/788,467 2006-03-31
US86664806P 2006-11-21 2006-11-21
US60/866,648 2006-11-21

Publications (2)

Publication Number Publication Date
RU2008143243A RU2008143243A (ru) 2010-05-10
RU2460248C2 true RU2460248C2 (ru) 2012-08-27

Family

ID=38255769

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008143243/07A RU2460248C2 (ru) 2006-03-31 2007-03-27 Комбинированное управление окружающим освещением на основе видеосодержимого и аудиосодержимого

Country Status (8)

Country Link
US (1) US20100265414A1 (ru)
EP (1) EP2005801A1 (ru)
JP (1) JP2009531825A (ru)
KR (1) KR20090006139A (ru)
BR (1) BRPI0710211A2 (ru)
MX (1) MX2008012429A (ru)
RU (1) RU2460248C2 (ru)
WO (1) WO2007113738A1 (ru)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102090058A (zh) * 2008-07-15 2011-06-08 夏普株式会社 数据发送装置、数据接收装置、数据发送方法、数据接收方法及视听环境控制方法
CZ301933B6 (cs) * 2008-10-29 2010-08-04 Nušl@Jaroslav Zpusob rízení zejména svetelné techniky zvukovým signálem a zarízení k provádení tohoto zpusobu
JP2013518383A (ja) 2010-01-27 2013-05-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ照明システムの制御方法
US8666254B2 (en) 2011-04-26 2014-03-04 The Boeing Company System and method of wireless optical communication
US20130147395A1 (en) 2011-12-07 2013-06-13 Comcast Cable Communications, Llc Dynamic Ambient Lighting
EP2605622B1 (en) * 2011-12-15 2020-04-22 Comcast Cable Communications, LLC Dynamic ambient lighting
US8576340B1 (en) 2012-10-17 2013-11-05 Sony Corporation Ambient light effects and chrominance control in video files
US8928811B2 (en) 2012-10-17 2015-01-06 Sony Corporation Methods and systems for generating ambient light effects based on video content
US8928812B2 (en) * 2012-10-17 2015-01-06 Sony Corporation Ambient light effects based on video via home automation
US9245443B2 (en) 2013-02-21 2016-01-26 The Boeing Company Passenger services system for an aircraft
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9380443B2 (en) 2013-03-12 2016-06-28 Comcast Cable Communications, Llc Immersive positioning and paring
US20150312648A1 (en) * 2014-04-23 2015-10-29 Verizon Patent And Licensing Inc. Mobile device controlled dynamic room environment using a cast device
GB2535135B (en) * 2014-11-20 2018-05-30 Ambx Uk Ltd Light Control
US9480131B1 (en) * 2015-05-28 2016-10-25 Sony Corporation Configuration of ambient light using wireless connection
KR20170096822A (ko) 2016-02-17 2017-08-25 삼성전자주식회사 오디오 재생 장치 및 그의 동작 제어 방법
CN109792828B (zh) * 2016-10-03 2021-08-27 昕诺飞控股有限公司 照明控制
CN106804076B (zh) * 2017-02-28 2018-06-08 深圳市喜悦智慧实验室有限公司 一种智能家居的照明系统
US20180295317A1 (en) * 2017-04-11 2018-10-11 Motorola Mobility Llc Intelligent Dynamic Ambient Scene Construction
EP3448127A1 (en) * 2017-08-21 2019-02-27 TP Vision Holding B.V. Method for controlling light presentation of a light system during playback of a multimedia program
WO2019042986A1 (en) 2017-09-01 2019-03-07 Signify Holding B.V. REPRESENTING A DYNAMIC LIGHT SCENE BASED ON AUDIOVISUAL CONTENT
JP6921345B1 (ja) * 2018-06-15 2021-08-18 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 照明シーンに基づいてメディアコンテンツを選択するための方法及びコントローラ
US11012659B2 (en) 2018-08-07 2021-05-18 International Business Machines Corporation Intelligent illumination and sound control in an internet of things (IoT) computing environment
EP3874911B1 (en) 2018-11-01 2022-06-29 Signify Holding B.V. Determining light effects based on video and audio information in dependence on video and audio weights
US20220053618A1 (en) * 2019-01-09 2022-02-17 Signify Holding B.V. Determining a light effect based on a degree of speech in media content
WO2020151993A1 (en) * 2019-01-21 2020-07-30 Signify Holding B.V. A controller for controlling a lighting device based on media content and a method thereof
US11317137B2 (en) * 2020-06-18 2022-04-26 Disney Enterprises, Inc. Supplementing entertainment content with ambient lighting
US11960576B2 (en) * 2021-07-20 2024-04-16 Inception Institute of Artificial Intelligence Ltd Activity recognition in dark video based on both audio and video content
WO2023046673A1 (en) 2021-09-24 2023-03-30 Signify Holding B.V. Conditionally adjusting light effect based on second audio channel content
US11695980B1 (en) * 2022-11-07 2023-07-04 Roku, Inc. Method and system for controlling lighting in a viewing area of a content-presentation device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU250690A1 (ru) *
SU1432801A1 (ru) * 1987-03-13 1988-10-23 Войсковая Часть 25840 Телевизионный цветосинтезатор
WO2003101098A1 (en) * 2002-05-23 2003-12-04 Koninklijke Philips Electronics N.V. Controlling ambient light
CN1703131A (zh) * 2004-12-24 2005-11-30 北京中星微电子有限公司 一种音乐控制发光灯组的亮度和颜色的方法
WO2006003624A1 (en) * 2004-06-30 2006-01-12 Koninklijke Philips Electronics, N.V. Ambient lighting derived from video content and with broadcast influenced by perceptual rules and user preferences

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61135093A (ja) * 1984-12-05 1986-06-23 日本ビクター株式会社 音楽応動照明装置
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US5461188A (en) * 1994-03-07 1995-10-24 Drago; Marcello S. Synthesized music, sound and light system
JP4176233B2 (ja) * 1998-04-13 2008-11-05 松下電器産業株式会社 照明制御方法及び照明装置
GB2354602A (en) * 1999-09-07 2001-03-28 Peter Stefan Jones Digital controlling system for electronic lighting devices
JP2001118689A (ja) * 1999-10-15 2001-04-27 Matsushita Electric Ind Co Ltd 照明制御方法
US6862022B2 (en) * 2001-07-20 2005-03-01 Hewlett-Packard Development Company, L.P. Method and system for automatically selecting a vertical refresh rate for a video display monitor
DE60323984D1 (de) * 2002-07-04 2008-11-20 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur steuerung von umgebungslicht und lichteinheit
BR0305349A (pt) * 2002-07-04 2004-10-05 Koninkl Philips Electronics Nv Método e sistema para controlar uma luz ambiente, e, unidade de iluminação
US6986598B2 (en) * 2003-05-05 2006-01-17 Yao-Wen Chu Backlight module for a double-sided LCD device
JP2007520137A (ja) * 2004-01-28 2007-07-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声信号のダイナミックレンジ自動調整
US7500750B2 (en) * 2005-05-24 2009-03-10 Anton Sabeta Method and system for tracking the wearable life of an ophthalmic product
US20060267917A1 (en) * 2005-05-25 2006-11-30 Cisco Technology, Inc. System and method for managing an incoming communication
TWM291088U (en) * 2005-12-08 2006-05-21 Upec Electronics Corp Illuminating device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU250690A1 (ru) *
SU1432801A1 (ru) * 1987-03-13 1988-10-23 Войсковая Часть 25840 Телевизионный цветосинтезатор
WO2003101098A1 (en) * 2002-05-23 2003-12-04 Koninklijke Philips Electronics N.V. Controlling ambient light
WO2006003624A1 (en) * 2004-06-30 2006-01-12 Koninklijke Philips Electronics, N.V. Ambient lighting derived from video content and with broadcast influenced by perceptual rules and user preferences
CN1703131A (zh) * 2004-12-24 2005-11-30 北京中星微电子有限公司 一种音乐控制发光灯组的亮度和颜色的方法

Also Published As

Publication number Publication date
MX2008012429A (es) 2008-10-10
EP2005801A1 (en) 2008-12-24
US20100265414A1 (en) 2010-10-21
WO2007113738A1 (en) 2007-10-11
KR20090006139A (ko) 2009-01-14
BRPI0710211A2 (pt) 2011-05-24
RU2008143243A (ru) 2010-05-10
JP2009531825A (ja) 2009-09-03

Similar Documents

Publication Publication Date Title
RU2460248C2 (ru) Комбинированное управление окружающим освещением на основе видеосодержимого и аудиосодержимого
CN101416562A (zh) 组合的基于视频和音频的环境照明控制
US20100177247A1 (en) Ambient lighting
JP4902000B2 (ja) コンテンツ再生装置、テレビジョン受像機、コンテンツ再生方法、コンテンツ再生プログラム、および記録媒体
JP5660658B2 (ja) 画像捕獲表示システム、ビデオ画像内の関心領域を用いてシステム同期型輝度制御を実行する方法、およびメタデータの使用
RU2427986C2 (ru) Управление окружающим освещением на основе событий
CN103180891B (zh) 显示器管理服务器
JP2006222934A (ja) 信号の集中処理を使用する統合マルチメディア信号処理システム
US11678014B2 (en) Creative intent scalability via physiological monitoring
CN113556604B (zh) 音效调节方法、装置、计算机设备和存储介质
CN1871848A (zh) 对照明的自动显示自适应
WO2020089150A1 (en) Selecting a method for extracting a color for a light effect from video content
KR101579229B1 (ko) 영상 출력 장치 및 그 제어 방법
WO2007072339A2 (en) Active ambient light module
CN112913331A (zh) 根据视频和音频权重而基于视频和音频信息来确定光效果
CN101385027A (zh) 一种元数据产生方法及装置
JP2011510391A (ja) 色の抽出
JPWO2009118890A1 (ja) 表示装置及び映像最適化方法
JP2013218153A (ja) 照明制御装置、制御システムおよび照明制御方法
CN117062282A (zh) 灯光控制方法、装置、设备、存储介质及车辆
US20190099666A1 (en) Toy Interactive Method and Device
WO2008142616A1 (en) Method and unit for control of ambient lighting
US20070028285A1 (en) Using common-sense knowledge to characterize multimedia content
JP2019522424A (ja) ハイ・ダイナミックレンジ用のゾーン・バックライト・メタデータを伝達する方法及び装置
KR20200004210A (ko) 디스플레이장치 및 그 제어방법과 기록매체

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20130328