RU2008143242A - Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого - Google Patents

Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого Download PDF

Info

Publication number
RU2008143242A
RU2008143242A RU2008143242/09A RU2008143242A RU2008143242A RU 2008143242 A RU2008143242 A RU 2008143242A RU 2008143242/09 A RU2008143242/09 A RU 2008143242/09A RU 2008143242 A RU2008143242 A RU 2008143242A RU 2008143242 A RU2008143242 A RU 2008143242A
Authority
RU
Russia
Prior art keywords
elements
reproducing
primary
content signal
processor
Prior art date
Application number
RU2008143242/09A
Other languages
English (en)
Other versions
RU2454023C2 (ru
Inventor
Барт Герард Бернард БАРЕНБУРГ (NL)
Барт Герард Бернард БАРЕНБУРГ
Лео Ян ВЕЛТХОВЕН (NL)
Лео Ян ВЕЛТХОВЕН
Марк Йозеф Виллем МЕРТЕНС (NL)
Марк Йозеф Виллем МЕРТЕНС
Михил Адриансзон КЛОМПЕНХАУВЕР (NL)
Михил Адриансзон КЛОМПЕНХАУВЕР
БРЮЭЙН Фредерик Ян ДЕ (NL)
БРЮЭЙН Фредерик Ян ДЕ
Original Assignee
Конинклейке Филипс Электроникс Н.В. (Nl)
Конинклейке Филипс Электроникс Н.В.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Электроникс Н.В. (Nl), Конинклейке Филипс Электроникс Н.В. filed Critical Конинклейке Филипс Электроникс Н.В. (Nl)
Publication of RU2008143242A publication Critical patent/RU2008143242A/ru
Application granted granted Critical
Publication of RU2454023C2 publication Critical patent/RU2454023C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

1. Способ воспроизведения содержимого изображения, содержащий этапы, на которых ! анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого для определения вторичных элементов, относящихся к первичным элементам текущей части сигнала содержимого; ! воспроизводят текущую часть сигнала содержимого на первичном устройстве воспроизведения; и ! воспроизводят вторичные элементы, относящиеся к первичным элементам текущей части сигнала содержимого на вторичном устройстве воспроизведения одновременно с воспроизведением текущей части сигнала содержимого. ! 2. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого. ! 3. Способ по п.1, в котором этап, на котором анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого выполняют с более низким разрешением, чем сигнал содержимого. ! 4. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с изменяющимся разрешением, причем эти изменения определяют на основе, по меньшей мере, одного из: пространственного или временного положения воспроизводимых вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения. ! 5. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с разрешением, определяемым на основании пол�

Claims (66)

1. Способ воспроизведения содержимого изображения, содержащий этапы, на которых
анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого для определения вторичных элементов, относящихся к первичным элементам текущей части сигнала содержимого;
воспроизводят текущую часть сигнала содержимого на первичном устройстве воспроизведения; и
воспроизводят вторичные элементы, относящиеся к первичным элементам текущей части сигнала содержимого на вторичном устройстве воспроизведения одновременно с воспроизведением текущей части сигнала содержимого.
2. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого.
3. Способ по п.1, в котором этап, на котором анализируют, по меньшей мере, одну из предшествующей и последующей по времени частей сигнала содержимого выполняют с более низким разрешением, чем сигнал содержимого.
4. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с изменяющимся разрешением, причем эти изменения определяют на основе, по меньшей мере, одного из: пространственного или временного положения воспроизводимых вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
5. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с разрешением, определяемым на основании положения воспроизведенных вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
6. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы с разрешением, определяемым на основании положения во времени воспроизведенных вторичных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
7. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором вырабатывают вспомогательные данные, относящиеся к определенным вторичным элементам, и связывают вспомогательные данные с сигналом содержимого, и в котором этап, на котором воспроизводят вторичные элементы выполняют с использованием вспомогательных данных.
8. Способ по п.7, в котором вспомогательные данные описаны в структуре стандарта вспомогательных данных, для данных изображения в сигнале содержимого.
9. Способ по п.8, в котором вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX), или информацию дополнительного улучшения (SEI).
10. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы как элементы окружающего освещения.
11. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы как элементы периферийного изображения.
12. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основании положения вторичного устройства воспроизведения по отношению к первичному устройству воспроизведения.
13. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основании положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
14. Способ по п.1, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основании вспомогательных данных, связанных с содержимым изображения.
15. Способ по п.14, в котором вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX), или информацию дополнительного улучшения (SEI).
16. Способ по п.14, в котором этап, на котором анализируют, содержит этап, на котором определяют вторичные элементы на основе положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
17. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, содержит этап, на котором воспроизводят вторичные элементы для одного из множества вторичных устройств воспроизведения, расположенного на одной стороне от первичного устройства воспроизведения, и для другого одного из множества вторичных устройств воспроизведения, расположенного на другой стороне от первичного устройства воспроизведения.
18. Способ по п.17, в котором этап, на котором анализируют, содержит этап, на котором анализируют каждую из предшествующей и последующей во времени частей сигнала содержимого для определения вторичных элементов.
19. Способ по п.1, в котором этап, на котором воспроизводят вторичные элементы, воспроизводят вторичные элементы с более низкой частотой смены кадров, чем воспроизводимый сигнал содержимого.
20. Способ по п.1, в котором вторичные элементы связаны с текущей частью сигнала содержимого посредством, по меньшей мере, одного из: отношений движения и геометрических отношений.
21. Способ по п.20, в котором, по меньшей мере, одна подобласть, показываемая в конкретный момент времени на первичном устройстве воспроизведения, отслеживается средством анализа движений для определения, по меньшей мере, одного элемента, воспроизводимого на вторичном устройстве воспроизведения.
22. Способ по п.21, в котором анализ движений выполняют на основе продолжения движения в содержимом изображения, воспроизведенном для первичного устройства воспроизведения.
23. Способ по п.21, в котором анализ движений является проекцией движений, распознанных из текущей части сигнала содержимого на геометрическое местоположение вторичного устройства воспроизведения.
24. Способ по п.1, в котором геометрическое местоположение включает в себя, по меньшей мере, одно из: положение вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения, и отношение размеров содержимого, воспроизводимого на первичном и вторичных устройствах воспроизведения.
25. Приложение, реализованное на машиночитаемом носителе, выполненном с возможностью воспроизведения содержимого изображения, причем приложение содержит
часть программы, выполненную с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей сигнала содержимого для определения элементов, которые являются, по меньшей мере, одними из элементов, пространственно или во времени связанных с текущей частью сигнала содержимого;
часть программы, выполненную с возможностью воспроизведения текущей части сигнала содержимого на первичном устройстве воспроизведения; и
часть программы, выполненную с возможностью воспроизведения элементов, связанных с текущей частью сигнала содержимого на вторичном устройстве воспроизведения одновременно с воспроизведением текущей части сигнала содержимого.
26. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого.
27. Приложение по п.25, в котором часть программы, выполненная с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей сигнала содержимого, выполнена с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей с более низким разрешением, чем воспроизводимая текущая часть сигнала содержимого.
28. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с изменяющимся разрешением, и в котором это изменение определяют на основе положения воспроизведенных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
29. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с разрешением, определяемом на основании положения воспроизведенных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
30. Приложение по п.29, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с разрешением, определяемом на основании положения во времени воспроизведенных элементов по отношению к сигналу содержимого, воспроизводимому на первичном устройстве воспроизведения.
31. Приложение по п.25, в котором часть программы, выполненная с возможностью анализа, выполнена с возможностью выработки вспомогательных данных, относящихся к определенным элементам, и связывания вспомогательных данных с сигналом содержимого, и в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью использования вспомогательных данных.
32. Приложение по п.31, в котором вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX) или информацию дополнительного улучшения (SEI).
33. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов как элементов окружающего освещения.
34. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов как элементов периферийного изображения.
35. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании положения вторичного устройства воспроизведения по отношению к первичному устройству воспроизведения.
36. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
37. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании вспомогательных данных, связанных с упомянутым содержимым.
38. Приложение по п.37, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании вспомогательных данных, которые являются или данными восприятия окружающей среды (AMBX) или информацией дополнительного улучшения (SEI).
39. Приложение по п.37, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов на основании положения каждого из множества вторичных устройств воспроизведения по отношению к первичному устройству воспроизведения.
40. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов для одного из множества вторичных устройств воспроизведения, расположенного на одной стороне от первичного устройства воспроизведения, и для другого одного из множества вторичных устройств воспроизведения, расположенного на другой стороне от первичного устройства воспроизведения.
41. Приложение по п.40, в котором часть программы, выполненная с возможностью анализа, выполнена с возможностью анализа каждой из предшествующей и последующей во времени частей сигнала содержимого для определения упомянутых элементов.
42. Приложение по п.25, в котором часть программы, выполненная с возможностью воспроизведения элементов, выполнена с возможностью воспроизведения элементов с более низкой частотой смены кадров, чем воспроизводимый сигнал содержимого.
43. Процессор (510) для воспроизведения содержимого изображения на каждом из первичного и вторичного устройства воспроизведения, причем процессор (510) содержит соединение, выполненное с возможностью подключения во включенном состоянии к каждому из первичного и вторичного устройств (530, 540) воспроизведения, при этом процессор выполнен с возможностью
анализа, по меньшей мере, одной из предшествующей и последующей по времени частей сигнала содержимого для определения элементов, позиционно относящихся к текущей части сигнала содержимого;
предоставления текущей части сигнала содержимого для воспроизведения на первичном устройстве (530) воспроизведения; и
предоставления упомянутых элементов, позиционно относящихся к текущей части сигнала содержимого, для воспроизведения на вторичном устройстве (540) воспроизведения одновременно с воспроизведением текущей части сигнала содержимого.
44. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов, по меньшей мере, с одним из следующего: с более низким разрешением или с более низкой частотой смены кадров, чем предоставленная текущая часть сигнала содержимого.
45. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью анализа, по меньшей мере, одной из предшествующей и последующей во времени частей с более низким разрешением, чем сигнала содержимого.
46. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов с изменяющимся разрешением, причем это изменение определяется на основании положения предоставленных элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
47. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов с разрешением, определяемым на основании положения воспроизводимых элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
48. Процессор (510) по п.47, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов с разрешением, определяемым на основании положения во времени предоставленных элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
49. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов, используя вспомогательные данные, связанные с сигналом содержимого и относящиеся к определенным элементам.
50. Процессор (510) по п.49, причем вспомогательные данные содержат одно из: или данные восприятия окружающей среды (AMBX), или информацию дополнительного улучшения (SEI).
51. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов, по меньшей мере, одного из следующего: как элементов окружающего освещения или элементов периферийного изображения.
52. Процессор (510) по п.51, содержащий вторичное устройство (540) воспроизведения, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов как элементов окружающего освещения, и при этом вторичное устройство отображения содержит, по меньшей мере, одно из следующего: матрицу светоизлучающих диодов или пико-проектор.
53. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании положения вторичного устройства (540) воспроизведения по отношению к первичному устройству (530) воспроизведения.
54. Процессор (510) по п.43, содержащий вторичное устройство (540) воспроизведения, причем вторичное устройство воспроизведения содержит множество вторичных устройств (540) воспроизведения, и при этом процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании положения каждого из множества вторичных устройств (540) воспроизведения по отношению к первичному устройству (530) воспроизведения.
55. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании вспомогательных данных, являющихся одним из: или данными восприятия окружающей среды (AMBX) или информацией дополнительного улучшения (SEI), связанными с содержимым.
56. Процессор (510) по п.55, содержащий вторичное устройство (540) воспроизведения, причем вторичное устройство воспроизведения содержит множество вторичных устройств (540) воспроизведения, и при этом процессор (510) выполнен с возможностью предоставления упомянутых элементов на основании положения каждого из вторичных устройств (540) воспроизведения по отношению к первичному устройству (530) воспроизведения.
57. Процессор (510) по п.43, содержащий множество вторичных устройств (540) воспроизведения, причем процессор (510) выполнен с возможностью воспроизведения элементов для одного из множества вторичных устройств (540) воспроизведения, расположенного с одной стороны первичного устройства (530) воспроизведения, и для другого одного из множества вторичных устройств (540) воспроизведения, расположенного с другой стороны первичного устройства (530) воспроизведения.
58. Процессор (510) по п.43, причем процессор (510) выполнен с возможностью определения упомянутых элементов на основании, по меньшей мере, одного из: пространственного положения или положения во времени предоставляемых элементов по отношению к сигналу содержимого, предоставленному для воспроизведения на первичном устройстве (530) воспроизведения.
59. Вспомогательный сигнал изображения, встроенный в поток передачи, позволяющий воспроизведение вторичного изображения, относящегося к первичному изображению, причем вспомогательный сигнал изображения предназначен для описания элементов, подходящих для продолжения с первичного устройства воспроизведения на вторичное устройство воспроизведения, при этом вспомогательный сигнал изображения включает в себя профиль позиционирования, позволяющий помещать упомянутый элемент на вторичном устройстве воспроизведения во множестве моментов времени.
60. Вспомогательный сигнал изображения по п.60, причем вспомогательный сигнал изображения идентифицирует упомянутый элемент как один из объектов: или объект переднего плана, или фоновый объект.
61. Вспомогательный сигнал изображения по п.60, в котором профиль позиционирования включают в себя параметрическую функцию положения для пограничных пикселей упомянутого элемента.
62. Вспомогательный сигнал изображения по п.62, в котором параметрическая функция положения включает в себя описание ограничивающего контура для упомянутого элемента.
63. Вспомогательный сигнал изображения по п.60, причем вспомогательный сигнал изображения включает в себя профиль изменений, который идентифицирует, по меньшей мере, один из: цвет или изменение яркости для элемента, когда данный элемент переходит с первичного устройства воспроизведения на вторичное устройство воспроизведения.
64. Вспомогательный сигнал изображения по п.64, в котором профиль изменений включают в себя, по меньшей мере, один из: или цвет элемента или структурные характеристики, предназначенные для обеспечения точной сегментации упомянутого элемента.
65. Вспомогательный сигнал изображения по п.64, в котором профиль изменений включают в себя данные преобразования, предназначенные для обеспечения, по меньшей мере, одного из: пространственно-временного перспективного преобразования, преобразования резкости, или детального изменения упомянутого элемента, когда упомянутый элемент переходит с первичного устройства воспроизведения на вторичное устройство воспроизведения.
66. Способ выработки вспомогательных данных для воспроизведения элементов на вторичном устройстве воспроизведения около первичного устройства воспроизведения, содержащий этапы, на которых
анализируют набор изображений;
извлекают области этих изображений;
определяют информацию последующего положения для этих областей для последующих моментов времени для воспроизведения в пространстве изображения за пределами пространства изображения первичного воспроизведения;
кодируют информацию последующего положения во вспомогательных данных, связанных с упомянутым набором изображений.
RU2008143242/07A 2006-03-31 2007-03-29 Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого RU2454023C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US78847606P 2006-03-31 2006-03-31
US60/788,476 2006-03-31

Publications (2)

Publication Number Publication Date
RU2008143242A true RU2008143242A (ru) 2010-05-10
RU2454023C2 RU2454023C2 (ru) 2012-06-20

Family

ID=38426552

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008143242/07A RU2454023C2 (ru) 2006-03-31 2007-03-29 Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого

Country Status (10)

Country Link
US (1) US8599313B2 (ru)
EP (1) EP2005732A1 (ru)
JP (1) JP5107338B2 (ru)
KR (1) KR101465459B1 (ru)
CN (1) CN101438579B (ru)
BR (1) BRPI0709260A2 (ru)
MX (1) MX2008012473A (ru)
RU (1) RU2454023C2 (ru)
TW (1) TW200746818A (ru)
WO (1) WO2007113754A1 (ru)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010516069A (ja) * 2006-12-21 2010-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 光放射を表示するシステム、方法、コンピュータ読み取り可能な媒体、及びユーザ・インタフェース
CN101587586B (zh) * 2008-05-20 2013-07-24 株式会社理光 一种图像处理装置及图像处理方法
JP4813517B2 (ja) * 2008-05-29 2011-11-09 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
DE102008026517A1 (de) * 2008-06-03 2009-12-10 Zumtobel Lighting Gmbh Beleuchtungs- und Anzeigevorrichtung
TWI395512B (zh) * 2008-08-08 2013-05-01 Remote controller for light emitting diode module
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
EP2371125A1 (en) * 2008-11-28 2011-10-05 Koninklijke Philips Electronics N.V. A display system, control unit, method, and computer program product for providing ambient light with 3d sensation
JP2011086437A (ja) * 2009-10-14 2011-04-28 Nintendo Co Ltd 画像表示システム、照明システム、情報処理装置、および制御プログラム
JP5622372B2 (ja) * 2009-09-10 2014-11-12 任天堂株式会社 画像表示システムおよび照明装置
EP2514275B1 (en) * 2009-12-17 2015-04-22 Koninklijke Philips N.V. Ambience cinema lighting system
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US9754629B2 (en) 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
EP2543181B1 (en) 2010-03-03 2015-10-21 Koninklijke Philips N.V. Apparatuses and methods for defining color regimes
US8982151B2 (en) * 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
TWI533286B (zh) * 2010-09-06 2016-05-11 元太科技工業股份有限公司 平面顯示裝置
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
KR20120134412A (ko) * 2011-06-02 2012-12-12 삼성전자주식회사 디스플레이 장치, 디스플레이 시스템 및 그 영상 표시 방법
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
EP2626852B1 (en) * 2012-02-08 2019-04-24 Samsung Electronics Co., Ltd. Display apparatus
US8804321B2 (en) 2012-05-25 2014-08-12 Steelcase, Inc. Work and videoconference assembly
KR101305249B1 (ko) * 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 다면 상영 시스템
EP2731055A1 (en) 2012-10-04 2014-05-14 Thomson Licensing Method and apparatus for ambient lighting color determination
US9930082B2 (en) 2012-11-20 2018-03-27 Nvidia Corporation Method and system for network driven automatic adaptive rendering impedance
US10616086B2 (en) * 2012-12-27 2020-04-07 Navidia Corporation Network adaptive latency reduction through frame rate control
JP6104411B2 (ja) * 2013-02-21 2017-03-29 ドルビー ラボラトリーズ ライセンシング コーポレイション オーバーレイグラフィクス合成のためのアピアランスマッピングのシステムおよび装置
US10055866B2 (en) 2013-02-21 2018-08-21 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9819604B2 (en) 2013-07-31 2017-11-14 Nvidia Corporation Real time network adaptive low latency transport stream muxing of audio/video streams for miracast
JP6322288B2 (ja) * 2014-01-29 2018-05-09 インテル・コーポレーション コンピューティングデバイス、セカンダリディスプレイデバイスでデータを表示する、コンピュータ生成の方法、プログラム、及び、機械可読記録媒体
JP5965434B2 (ja) * 2014-06-17 2016-08-03 任天堂株式会社 画像表示システム、照明システム、情報処理装置、および制御プログラム
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
US9373054B2 (en) 2014-09-02 2016-06-21 Kodak Alaris Inc. Method for selecting frames from video sequences based on incremental improvement
DE102014016643A1 (de) 2014-11-11 2016-05-12 Novomatic Ag Anzeigevorrichtung und Verfahren zum Betreiben einer solchen Anzeigevorrichtung
KR102281162B1 (ko) 2014-11-20 2021-07-23 삼성전자주식회사 영상 처리 장치 및 방법
US9544419B2 (en) 2014-12-24 2017-01-10 Intel Corporation Methods and systems for configuring a mobile device based on an orientation-based usage context
US9826277B2 (en) * 2015-01-23 2017-11-21 TCL Research America Inc. Method and system for collaborative and scalable information presentation
US10089532B2 (en) 2015-02-23 2018-10-02 Kodak Alaris Inc. Method for output creation based on video content characteristics
WO2016157996A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び画像表示システム
RU2718118C2 (ru) * 2015-06-12 2020-03-30 Сони Корпорейшн Устройство для обработки информации и способ обработки информации
EP3139369A1 (en) * 2015-09-02 2017-03-08 TP Vision Holding B.V. Printed circuit board for controlling projectors and electronic device
CN105657494B (zh) * 2015-12-31 2018-12-25 北京小鸟看看科技有限公司 一种虚拟影院及其实现方法
WO2017182365A1 (en) * 2016-04-22 2017-10-26 Philips Lighting Holding B.V. Controlling a lighting system
CN109478314B (zh) * 2016-06-14 2023-07-25 雷蛇(亚太)私人有限公司 图像处理装置、控制图像处理装置的方法及计算机可读介质
KR102267397B1 (ko) * 2016-10-25 2021-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
JP2018105659A (ja) * 2016-12-23 2018-07-05 国立研究開発法人理化学研究所 識別装置、識別システム、学習装置、学習方法、識別プログラム、学習プログラム、記録媒体、及び集積回路
US10080051B1 (en) * 2017-10-25 2018-09-18 TCL Research America Inc. Method and system for immersive information presentation
EP4283528A3 (en) 2018-01-04 2024-02-14 Samsung Electronics Co., Ltd. Video playback device and control method thereof
KR102594652B1 (ko) 2018-12-07 2023-10-27 삼성전자 주식회사 전자 장치의 시각 효과 제공 방법 및 이를 사용하는 전자 장치
WO2020122920A1 (en) * 2018-12-13 2020-06-18 Hewlett-Packard Development Company, L.P. Customizable onscreen display reference points
KR102429408B1 (ko) 2019-09-26 2022-08-05 구글 엘엘씨 레인지 익스텐더 장치
CN110730338A (zh) * 2019-10-23 2020-01-24 国网黑龙江省电力有限公司信息通信公司 一种电视背景墙投影装置
US11023729B1 (en) 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
FR3111724B1 (fr) * 2020-06-18 2022-11-04 Cgr Cinemas Méthodes pour la production d’effets d’immersion visuelle pour un contenu audiovisuel
US12086301B2 (en) 2022-06-01 2024-09-10 Sphere Entertainment Group, Llc System for multi-user collaboration within a virtual reality environment

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4176233B2 (ja) * 1998-04-13 2008-11-05 松下電器産業株式会社 照明制御方法及び照明装置
US6611297B1 (en) * 1998-04-13 2003-08-26 Matsushita Electric Industrial Co., Ltd. Illumination control method and illumination device
JP2001118689A (ja) * 1999-10-15 2001-04-27 Matsushita Electric Ind Co Ltd 照明制御方法
US6872553B2 (en) * 1999-10-20 2005-03-29 Degussa Ag Nucleotide sequences which code for the pck gene
JP4399087B2 (ja) * 2000-05-31 2010-01-13 パナソニック株式会社 照明システム、映像表示デバイスおよび照明制御方法
WO2003017649A1 (en) 2001-08-20 2003-02-27 Koninklijke Philips Electronics N.V. Image size extension
US6940558B2 (en) * 2001-12-06 2005-09-06 Koninklijke Philips Electronics N.V. Streaming content associated with a portion of a TV screen to a companion device
GB0211898D0 (en) * 2002-05-23 2002-07-03 Koninkl Philips Electronics Nv Controlling ambient light
AU2003244976A1 (en) * 2002-07-04 2004-01-23 Koninklijke Philips Electronics N.V. Method of and system for controlling an ambient light and lighting unit
US20060062424A1 (en) * 2002-07-04 2006-03-23 Diederiks Elmo M A Method of and system for controlling an ambient light and lighting unit
US20060109283A1 (en) * 2003-02-04 2006-05-25 Shipman Samuel E Temporal-context-based video browsing interface for PVR-enabled television systems
JP2005020512A (ja) * 2003-06-27 2005-01-20 Pioneer Electronic Corp 映像信号処理装置
JP2005057410A (ja) * 2003-08-01 2005-03-03 Alpine Electronics Inc 映像出力装置および方法
US20050036067A1 (en) * 2003-08-05 2005-02-17 Ryal Kim Annon Variable perspective view of video images
JP2008510329A (ja) * 2004-06-30 2008-04-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオディスプレイユニットを光源として用いる周辺照明用の受動ディフューザフレームシステム
JP4727342B2 (ja) 2004-09-15 2011-07-20 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP4587871B2 (ja) * 2005-05-11 2010-11-24 シャープ株式会社 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体

Also Published As

Publication number Publication date
TW200746818A (en) 2007-12-16
BRPI0709260A2 (pt) 2011-06-28
RU2454023C2 (ru) 2012-06-20
KR20080111515A (ko) 2008-12-23
CN101438579B (zh) 2012-05-30
JP2009542039A (ja) 2009-11-26
CN101438579A (zh) 2009-05-20
JP5107338B2 (ja) 2012-12-26
MX2008012473A (es) 2008-10-10
WO2007113754A1 (en) 2007-10-11
US20100201878A1 (en) 2010-08-12
US8599313B2 (en) 2013-12-03
KR101465459B1 (ko) 2014-12-10
EP2005732A1 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
RU2008143242A (ru) Адаптивное воспроизведение телевизионного содержимого, основанное на дополнительных кадрах содержимого
CN111491148B (zh) 显示方法
RU2609760C2 (ru) Устройства и способы усовершенствованного кодирования изображений
JP5660658B2 (ja) 画像捕獲表示システム、ビデオ画像内の関心領域を用いてシステム同期型輝度制御を実行する方法、およびメタデータの使用
RU2468401C2 (ru) Окружающее освещение
US8421819B2 (en) Pillarboxing correction
CN111447425A (zh) 显示方法和显示装置
US20130301918A1 (en) System, platform, application and method for automated video foreground and/or background replacement
US20200302659A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20230368489A1 (en) Enhancing image data for different types of displays
US10290110B2 (en) Video overlay modification for enhanced readability
US20160019705A1 (en) Image processing apparatus, image processing method, and storage medium
CN108462878B (zh) 基于关键帧和指示符运动模型的教学视频压缩算法
KR20070122409A (ko) 비디오 콘텐츠 검출기
US20190228744A1 (en) Image output apparatus, image output method, and program
CN112183235A (zh) 针对运动场所进行视频采集的自动控制方法
KR20150040559A (ko) 관심영역 기반의 화질개선 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
Narwaria et al. High dynamic range visual quality of experience measurement: Challenges and perspectives
WO2020101300A1 (ko) 영상 처리 장치 및 그 동작방법
CN105208286A (zh) 一种模拟慢速快门的拍摄方法及装置
WO2019111921A1 (ja) 撮像装置、電子機器および彩度抑制プログラム
JP2014175733A (ja) 画像再生装置および画像再生プログラム
EP4416918A1 (en) Context-dependent color-mapping of image and video data
JP2006319507A (ja) コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体
Woo et al. Enhancing Viewer Experience: Combining TV and Projector Technologies for a New Era of Entertainment

Legal Events

Date Code Title Description
PC41 Official registration of the transfer of exclusive right

Effective date: 20150218

MM4A The patent is invalid due to non-payment of fees

Effective date: 20190330