RU2646367C2 - Определение будущего участка представляемой в данный момент медийной программы - Google Patents

Определение будущего участка представляемой в данный момент медийной программы Download PDF

Info

Publication number
RU2646367C2
RU2646367C2 RU2014144369A RU2014144369A RU2646367C2 RU 2646367 C2 RU2646367 C2 RU 2646367C2 RU 2014144369 A RU2014144369 A RU 2014144369A RU 2014144369 A RU2014144369 A RU 2014144369A RU 2646367 C2 RU2646367 C2 RU 2646367C2
Authority
RU
Russia
Prior art keywords
media
media program
user
during
program
Prior art date
Application number
RU2014144369A
Other languages
English (en)
Other versions
RU2014144369A (ru
Inventor
Майкл Дж. КОНРАД
Джеффри Дж. ХАЛТЕН
Кайл Дж. КРАМ
Умаймах А. МЕНДХРО
Даррен Б. РЕМИНГТОН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2014144369A publication Critical patent/RU2014144369A/ru
Application granted granted Critical
Publication of RU2646367C2 publication Critical patent/RU2646367C2/ru

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q90/00Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/458Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Graphics (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stored Programmes (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Изобретение относится к средствам осуществления вещания медийной программы. Технический результат заключается в расширении арсенала технических средств адаптивного изменения порядка следования медийной программы вещания. Предложен способ представления медийной программы, этапы которого предусматривают: прием первого участка медийной программы и медийной реакции на первый участок медийной программы, которая считывается с данных датчиков, пассивно регистрируемых во время первого участка медийной программы; определяют, что медийная реакция на первый участок медийной программы согласуется с контекстом для первого участка медийной программы; определяют предысторию увлеченности пользователя и увлеченность во время первого участка медийной программы, будущий рекламный материал, причем будущий рекламный материал выбирается из набора рекламных материалов на основе подобия первому участку медийной программы; и осуществляют отображение будущего рекламного материала во время более позднего участка медийной программы и в ходе того же самого представления медийной программы. 3 н. и 17 з.п. ф-лы, 16 ил.

Description

Предпосылки изобретения
[0001] В настоящее время, рекламодатели и поставщики медийных материалов часто тестируют рекламные материалы и другие медийные программы, прежде чем выпустить программу на большой экран. Например, поставщик медийных материалов может показывать малым аудиториям ситуационную комедию (ситком), после чего аудитория обеспечивает обратную связь в виде результатов анкетирования или информационных журналов ручного слежения. Однако эти анкеты и журналы часто бывают неточными. Например, аудитория может не вспомнить веселую шутку, прозвучавшую на третьей минуте двадцатичетырехминутной программы. И даже если результаты обладают достаточной точностью, размер аудитории обычно мал, что не позволяет надежно указывать, как будет принята программа после выпуска на большой экран.
[0002] Поставщики медийных материалов также могут тестировать программы посредством агрессивного биометрического тестирования аудитории в ходе представления программы в управляемой среде. Это тестирование может быть более точным, но размер аудитории часто бывает еще меньше, чем при тестировании с помощью анкет и журналов. И даже это тестирование может быть весьма неточным, отчасти в силу управляемой среды, в которой происходит тестирование - человек меньше склонен смеяться, находясь в звуковой комнате, пристегнутым к электрическим устройствам тестирования, чем расслабляясь у себя дома.
[0003] Кроме того, в любом из этих случаев, задержка по времени при изменении программы может быть существенной. Запись новой программы или изменение текущей программы может занять дни или недели, и даже когда все готово, измененную программу снова может потребоваться тестировать, в результате чего, выпуск программы дополнительно откладывается.
Сущность изобретения
[0004] В этом документе описаны методики и устройства для определения будущего участка представляемой в данный момент медийной программы. Методики и устройства могут принимать текущие медийные реакции одного человека или многих людей на представляемую в данный момент медийную программу и определять более поздние участки для представления в медийной программе на основании медийных реакций. В некоторых вариантах осуществления, например, программа может представляться в прямом эфире, реакции могут приниматься в ходе представления в прямом эфире, и изменения в программу могут вноситься оперативно (“на лету”) и в реальном времени на основании этих реакций. Кроме того, изменения могут быть общими или адаптированными к группе или конкретному человеку.
[0005] Это краткое изложение сущности изобретения предназначено для представления в упрощенной форме принципа определения будущего участка представляемой в данный момент медийной программы, который дополнительно описан ниже в подробном описании. Это краткое изложение сущности изобретения не призвано выявлять существенные признаки заявленного изобретения, а также не предназначена для использования при определении объема заявленного изобретения.
Краткое описание чертежей
[0006] Варианты осуществления методик и устройств для определения будущего участка представляемой в данный момент медийной программы описаны со ссылкой на следующие чертежи. Для обозначения аналогичных признаков и компонентов в чертежах используются одинаковые ссылочные позиции:
фиг. 1 демонстрирует иллюстративную среду, в которой можно реализовать методики определения будущего участка представляемой в данный момент медийной программы, а также другие методики.
Фиг. 2 - иллюстративное вычислительное устройство, локальное по отношению к аудитории, показанной на фиг. 1.
Фиг. 3 - пример удаленного вычислительного устройства, которое является удаленным по отношению к аудитории, показанной на фиг. 1.
Фиг. 4 демонстрирует иллюстративные способы определения медийных реакций на основе данных пассивного датчика.
Фиг. 5 демонстрирует временную диаграмму медийных реакций, причем медийными реакциями являются уровни интереса для одного пользователя и для сорока периодов времени в ходе представления медийной программы.
Фиг. 6 демонстрирует иллюстративные способы построения истории реакций.
Фиг. 7 демонстрирует иллюстративные способы представления рекламы на основании текущей медийной реакции, в том числе, путем определения того, какой рекламный материал из множественных потенциальных рекламных материалов представлять.
Фиг. 8 демонстрирует текущие медийные реакции на медийную программу на протяжении участка программы в ходе представления программы.
Фиг. 9 демонстрирует иллюстративные способы представления рекламы на основании текущей медийной реакции, в том числе, на основании предложений цены от рекламодателей.
Фиг. 10 демонстрирует модуль рекламы, показанный на фиг. 2 и 3, передающий информацию через сеть связи, показанную на фиг. 3, множественным рекламодателям.
Фиг. 11 демонстрирует способы представления рекламы на основании текущей медийной реакции, в том числе, непосредственно следующей за сценой, которая вызвала текущую медийную реакцию.
Фиг. 12 демонстрирует способы определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании текущей медийной реакции пользователя, определенной на основании данных датчика, пассивно регистрируемых в ходе представления медийной программы пользователю.
Фиг. 13 демонстрирует удаленное устройство, показанное на фиг. 3, в котором демографическая характеристика, участок истории реакций, текущая медийная реакция и информация о медийной программе принимается от вычислительного устройства, показанного на фиг. 2 и/или 3.
Фиг. 14 демонстрирует способы определения будущего участка представляемой в данный момент медийной программы, в том числе, когда будущий участок является ответом на запрашиваемую в явном виде медийную реакцию.
Фиг. 15 демонстрирует способы определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании медийных реакций множественных пользователей.
Фиг. 16 демонстрирует иллюстративное устройство, в котором можно реализовать методики определения будущего участка представляемой в данный момент медийной программы, а также другие методики.
Подробное описание
Обзор
[0007] В этом документе описаны методики и устройства для определения будущего участка представляемой в данный момент медийной программы. Эти методики и устройства позволяют изменять или определять участки медийной программы в ходе представления этой программы.
[0008] Рассмотрим, например, программу ситуационной комедии, представляемую многим тысячам зрителей. Предположим, что поставщик медийных материалов этой ситуационной комедии заранее подготовил множественные участки для представления в определенных местах ситуационной комедии - три разные сцены на девятнадцатой минуте и четыре разные финальные сцены в конце программы. Предложенные методики могут определять, на основании медийных реакций в ходе представления, какую из трех сцен представлять на девятнадцатой минуте, и какую из четырех разных сцен представлять в конце. Определение сцен, подлежащих представлению, может базироваться на многих медийных реакциях на предыдущую сцену, например, от тысяч зрителей, или базироваться на реакциях человека или демографической группы. Таким образом, методики могут изменять программу для каждого или адаптировать программу к группе или конкретному человеку. Таким образом, методики могут представлять сцену, имеющую физическую комедию, мужчинам в возрасте 18-34 лет на девятнадцатой минуте на основании реакции этой группы на предыдущую сцену, имеющую физическую комедию, представлять сцену, связанную с развитием персонажа, женщинам в возрасте 35-44 лет на основании реакции этой группы на предыдущую сцену, посвященную персонажу, и показывать всем аудиториям одну из четырех возможных концовок на основании различных реакций от всех групп, смотрящих в данный момент программу.
[0009] Это всего лишь один пример того, как можно осуществлять методики и/или устройства для определения будущего участка представляемой в данный момент медийной программы. Методики и/или устройства именуются здесь, по отдельности или совместно, “методиками” в соответствии с контекстом. Далее в этом документе будет рассмотрена иллюстративная среда, в которой можно реализовать методики, и затем различные иллюстративные способы, которые могут, но не обязаны, работать совместно с методиками. Некоторые из этих различных способов включают в себя способы регистрации реакций на медийные материалы, построения истории реакций для пользователя и представления рекламных материалов на основании текущих реакций. После этих различных способов, этот документ обращается к иллюстративным способам определения будущего участка представляемой в данный момент медийной программы.
Иллюстративная среда
[0010] На фиг. 1 показана иллюстративная среда 100 для приема данных датчика и определения медийных реакций на основании этих данных датчика. Эти медийные реакции можно использовать для определения будущего участка представляемой в данный момент медийной программы, а также для других целей. Методики могут использовать только эти медийные реакции или также другую информацию, например, демографические характеристики, истории реакций и информацию о медийной программе или ее участке.
[0011] Среда 100 включает в себя устройство 102 представления медийных материалов, устройство 104 мониторинга аудитории, модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса и пользовательский интерфейс 112.
[0012] Устройство 102 представления медийных материалов представляет медийную программу аудитории 114, состоящей из одного или более пользователей 116. Медийная программа может включать в себя, по отдельности или совместно, телешоу, кинофильм, музыкальную видеозапись, видеоклип, рекламу, блог, фотографию, веб-страницу, электронную книгу, электронный журнал, компьютерную игру, песню, твит или другие аудио и/или видео медийные материалы. Аудитория 114 может включать в себя одного или более пользователей 116, которые находятся в положениях, допускающих потребление медийной программы, представляемой устройством 102 представления медийных материалов и измерение устройством 104 мониторинга аудитории, по отдельности или в одной аудитории 114. В аудитории 114 показаны три пользователя: пользователь 116-1, пользователь 116-2 и пользователь 116-3.
[0013] Устройство 104 мониторинга аудитории способно осуществлять мониторинг аудитории 114 и сообщать данные датчика для аудитории 114 модулю 106 состояния и/или модулю 108 интереса (передача данных 118 датчика изображена стрелкой). Данные мониторинга могут регистрироваться пассивно, активно и/или в ответ на явный запрос.
[0014] Пассивно регистрируемые данные являются пассивными, поскольку не требуют активного участия пользователей в измерении этих пользователей. Активно регистрируемые данные включают в себя данные, записанные пользователями в аудитории, например, в виде рукописных журналов, и данные, регистрируемые от пользователей с помощью биометрических датчиков, носимых пользователями в аудитории. Данные датчика, регистрируемые в ответ на явный запрос, могут регистрироваться активно или пассивно. Одним примером является рекламный материал, который запрашивает, в ходе представления рекламного материала, чтобы пользователь поднял руку, если он хочет, получить купон на бесплатный образец продукта, высылаемый пользователю по почте. В таком случае, пользователь выражает реакцию, поднимая руку, хотя это можно регистрировать пассивно, не требуя от пользователя активного участия в измерении реакции. Методики регистрируют эту поднятую руку различными способами, изложенными ниже.
[0015] Данные датчика могут включать в себя данные, регистрируемые с использованием излучаемого света или других сигналов, отправляемых устройством 104 мониторинга аудитории, например, с помощью инфракрасного датчика, освещающего излучаемым инфракрасным светом пользователей или пространство аудитории (например, скамьи, стены и т.д.) и регистрирующего свет, который возвращается. Примеры данных датчика, измеряющих пользователя, и способов, которыми его можно измерять, более подробно описаны ниже.
[0016] Устройство 104 мониторинга аудитории может обрабатывать или не обрабатывать данные датчика до их предоставления модулю 106 состояния и/или модулю 108 интереса. Таким образом, данные датчика могут представлять собой или включать в себя первичные данные или обработанные данные, например: кадры RGB (красный, зеленый, синий); инфракрасные кадры данных; данные глубины; частоту сердечных сокращений; частоту дыхания; ориентацию или перемещение головы пользователя (например, координаты в трех измерениях, x, y, z, и три угла, тангажа, наклона и рысканья); ориентацию, перемещение или заграждение лица (например, глаз, носа и рта); ориентацию, перемещение или заграждение скелета; аудиосигнал, который может включать в себя информацию, указывающую ориентацию, достаточную для определения, от какого пользователя исходит аудиосигнал или непосредственно указывающую, какой пользователь говорил, или какие слова были произнесены, при наличии; тепловые показания, достаточные для определения или указания присутствия и положения одного из пользователей 116; и расстояние от устройства 104 мониторинга аудитории или устройства 102 представления медийных материалов. В ряде случаев устройство 104 мониторинга аудитории включает в себя инфракрасные датчики (веб-камеры, кинект-камеры), стереомикрофоны или направленные аудиомикрофоны, и тепловое считывающее устройство (помимо инфракрасных датчиков), хотя, дополнительно или альтернативно, можно использовать другие устройства регистрации.
[0017] Модуль 106 состояния принимает данные датчика и определяет, на основании данных датчика, состояния 120 пользователей 116 в аудитории 114 (указанные стрелкой). Пользователь может пребывать в состоянии, когда он: грустит, говорит, выражает недовольство, испуган, улыбается, хмурится, спокоен, удивлен, сердит, смеется, кричит, аплодирует, машет руками, выражает одобрение, отводит взгляд, глядит прямо, откидывается в кресле, подается вперед, спит или ушел, и пр.
[0018] Состояние разговора может представлять собой общее состояние, указывающее, что пользователь говорит, хотя оно также может включать в себя подкатегории на основании содержания речи, например, разговор о медийной программе (разговор по делу) или разговор, не связанный с медийной программой (разговор не по делу). Модуль 106 состояния может определять категорию разговора посредством распознавания речи.
[0019] Модуль 106 состояния может, дополнительно или альтернативно, определять, на основании данных датчика, количество пользователей, идентификатор пользователя и/или демографические данные (указанные позицией 122), или увлеченность (указанную позицией 124) в ходе представления. Идентификатор указывает уникальные идентификационные дынные одного из пользователей 116 в аудитории 114, например, Сьюзен Браун. Демографические данные характеризуют одного из пользователей 116, например, ростом 5 футов, 4 дюйма, ребенок младшего возраста, и мужского пола или женского пола. Увлеченность указывает, с какой вероятностью пользователь уделит внимание медийной программе, например на основании присутствия или ориентации головы этого пользователя. Увлеченность, в ряде случаев, может определяться модулем 106 состояния с помощью данных датчика более низкого разрешения или менее обработанными по сравнению с теми, которые используются для определения состояний. Даже в таком случае, увлеченность может быть полезна при измерении аудитории, либо самого по себе, либо для определения интереса пользователя с использованием модуль 108 интереса.
[0020] Модуль 108 интереса определяет, на основании данных 118 датчика и/или увлеченности или состояния пользователя (увлеченность/состояние указаны стрелкой 126) и информации о медийной программе (тип медийных материалов указан стрелкой 128), уровень 130 интереса этого пользователя (указанный стрелкой) к медийной программе. Модуль 108 интереса может определять, например, что множественные состояния смеха для медийной программы, которую следует воспринимать как серьезную драму, указывают низкий уровень интереса, и, напротив, что множественные состояния смеха для медийной программы, которую следует воспринимать как комедию, указывают высокий уровень интереса.
[0021] Как показано на фиг. 1, модуль 106 состояния и/или модуль 108 интереса обеспечивают демографическую характеристику/идентификатор 122, а также одну или более из следующих медийных реакций: увлеченность 124, состояние 120 и уровень 130 интереса, которые все указаны стрелками на фиг. 1. На основании одной или более из этих медийных реакций, модуль 106 состояния и/или модуль 108 интереса также может обеспечивать другой тип медийной реакции, тип общих медийных реакций на медийную программу, например, рейтинг (например, демонстрацию большого пальца или три звезды). В ряде случаев, однако, медийные реакции принимаются, и общие медийные реакции определяются альтернативно модулем 110 интерфейса.
[0022] Модуль 106 состояния и модуль 108 интереса могут быть локальными по отношению к аудитории 114, и, таким образом, устройству 102 представления медийных материалов и устройству 104 мониторинга аудитории, хотя это не требуется. На фиг. 2 показан иллюстративный вариант осуществления, где модуль 106 состояния и модуль 108 интереса локальны по отношению к аудитории 114. В ряде случаев, однако, модуль 106 состояния и/или модуль 108 интереса удалены от аудитории 114, что изображено на фиг. 3.
[0023] Модуль 110 интерфейса принимает медийные реакции и демографическую/идентификационную информацию и определяет или принимает некоторое указание, к какой медийной программе или ее участку относятся реакции. Модуль 110 интерфейса представляет, или предписывает представлять, медийную реакцию 132 на медийную программу через пользовательский интерфейс 112, хотя это не требуется. Эта медийная реакция может быть любой из вышеупомянутых реакций, некоторые из которых представлены на временной диаграмме, посредством аватара, указывающего реакцию, или видео- или аудиозаписи пользователя, сделанной в ходе реакции, один/одна или более из которых эффективно демонстрирует реакцию пользователя в ходе соответствующей медийной программы.
[0024] Модуль 110 интерфейса может быть локальным по отношению к аудитории 114, например в случаях, когда один пользователь просматривает свои собственные медийные реакции или медийные реакции члена семьи. Во многих случаях, однако, модуль 110 интерфейса принимает медийные реакции из удаленного источника.
[0025] Заметим, что данные 118 датчика могут включать в себя контекст, в котором пользователь реагирует на медийные материалы или текущий контекст для пользователя, для которого запрашиваются рейтинги или рекомендации для медийных материалов. Таким образом, устройство 104 мониторинга аудитории может обнаружить присутствие второго человека в комнате или иным образом в физической близости к первому человеку, что может быть контекстом для первого человека. Контексты также можно определять другими способами, описанными ниже со ссылкой на фиг. 2.
[0026] На фиг. 2 показано иллюстративное вычислительное устройство 202, локальное по отношению к аудитории 114. Вычислительное устройство 202 включает в себя устройство 102 представления медийных материалов, устройство 104 мониторинга аудитории, один или более процессоров 204 и компьютерно-считываемые носители данных (“CRM”) 206 или имеет доступ к ним.
[0027] CRM 206 включает в себя операционную систему 208, модуль 106 состояния, модуль 108 интереса, медийную(ые) программу(ы) 210, каждая из которых может включать в себя информацию 212 о программе или быть связана с ней, и участки 214, модуль 110 интерфейса, пользовательский интерфейс 112, модуль 216 истории, историю 218 реакций, модуль 220 рекламы, который может включать в себя множественные рекламные материалы 222, и модуль 224 участка.
[0028] Каждая из медийных программ 210 может иметь, включать в себя или быть связанной с информацией 212 о программе и участками 214. Информация 212 о программе может указывать название, заголовок, эпизод, автора или артиста, тип программы и другую информацию, в том числе, относящуюся к различным участкам в каждой медийной программе 210. Таким образом, информация 212 о программе может указывать, что одна из медийных программ 210 является музыкальной видеозаписью, включает в себя хоровой участок, который повторяется четыре раза, включает в себя четыре стихотворных участка, включает в себя участки на основании каждого визуального представления на протяжении песни, например, соло, подпевку, название музыкальной видеозаписи, имя композитора, год создания, разрешение и форматирование данных и т.д.
[0029] Участки 214 одной из медийных программ 210 составляют программу или, потенциально, могут использоваться для составления программы. Эти участки могут представлять конкретные временные диапазоны в медийной программе, хотя, альтернативно, они могут располагаться в программе на основании завершения предыдущего участка (даже если время завершения этого участка не обязательно установлено заранее). Примерами участков могут служить 15-секундные фрагменты, песня, воспроизводимая в радиоподобной программе, или сцена из кинофильма. Эти участки 214 могут располагаться и/или устанавливаться в конкретном порядке, и в этом случае один или более из участков 214 может заменяться модулем 224 участка в ответ на медийные реакции. Эти участки 214, альтернативно, могут быть заранее подготовлены, но без заранее заданного порядка. Таким образом, медийная программа, например, 30-секундный рекламный материал, может иметь ранее заданный первый десятисекундный участок, но иметь, например, пять альтернативных вторых участков по десять секунд, и пятнадцать альтернативных третьих участков по десять секунд. В таком случае, какой участок воспроизводится от одиннадцати до двадцати секунд, может определяться на основании медийной реакции человека на первый десятисекундный участок. Затем, на основании реакций одного или обоих из пользователей (или многих пользователей) на первый участок и второй, определяется воспроизведение третьего участка от двадцати одной до тридцати секунд.
[0030] Модуль 224 участка, как отчасти отмечено выше, принимает текущую медийную реакцию или реакции пользователя, группы пользователей или многих пользователей на участок одной из медийных программ 210. Эти медийные реакции могут включать в себя одно или более из увлеченностей 124, состояний 120 и уровней 130 интереса. На основании этих медийных реакций, модуль 224 участка может определять будущий участок представляемой в данный момент медийной программы, подлежащий представлению. Заметим, что это определение может осуществляться в реальном времени в ходе представления медийной программы, что позволяет еще эффективнее определять будущие участки коротких рекламных материалов на основании текущих реакций на более ранние участки того же представления рекламы. Эти будущие участки могут быть ранее сохранены локально или удаленно. Будущий участок, подлежащий представлению, может приниматься из локального хранилища или из удаленного источника, например одновременно, посредством потоковой передачи более поздних участков представляемой в данный момент медийной программы из удаленного источника. Как показано на фиг. 2 и 3, медийная программа 210, участки 214 и модуль 224 участка могут быть локальными или удаленными по отношению к вычислительному устройству 202 и, таким образом, пользователю или пользователям, имеющему(им) медийные реакции (например, пользователю 116-1 аудитории 114, показанной на фиг. 1).
[0031] Модуль 216 истории включает в себя историю 218 реакций или имеет доступ к ней. Модуль 216 истории может строить и обновлять историю 218 реакций на основании текущих реакций со стороны пользователя (или других, как отмечено ниже) на медийные программы. В ряде случаев модуль 216 истории определяет различные контексты для пользователя, хотя это может альтернативно определяться и приниматься от других элементов. Таким образом, в ряде случаев модуль 216 истории определяет время, место действия, погоду в месте действия и т.д., в ходе реакции пользователя на медийную программу или запроса рейтингов или рекомендаций для медийной программы. Модуль 216 истории может определять рейтинги и/или рекомендации для медийных материалов на основании текущего контекста для пользователя и истории 218 реакций. История 218 реакций, как отмечено здесь в другом месте, может использоваться совместно с медийными реакциями для определения будущих участков медийной программы для представления.
[0032] Модуль 220 рекламы принимает текущую медийную реакцию пользователя, например, одно или более из увлеченностей 124, состояний 120 или уровней 130 интереса. На основании этой текущей медийной реакции, модуль 220 рекламы может определять рекламный материал из множественных рекламных материалов 222 для представления пользователю. Модуль 220 рекламы может, дополнительно или альтернативно, предоставлять текущую медийную реакцию рекламодателям, принимать от рекламодателей предложения цены за право представлять рекламу, и затем предписывать представление рекламы пользователю. Этот рекламный материал может предварительно сохраняться как один из рекламных материалов 222 или приниматься одновременно, например, посредством потоковой передачи рекламы из удаленного источника в ответ на прилагаемое предложение цены, являющееся наивысшим предложением цены или другой структурой расценок, указывающей, что рекламный материал подлежит представлению. Заметим, что в любом из этих случаев, модуль 220 рекламы может быть локальным или удаленным по отношению к вычислительному устройству 202 и, таким образом, пользователю (например, пользователю 116-1 аудитории 114, показанной на фиг. 1).
[0033] Заметим, что в этом проиллюстрированном примере, элементы, в том числе, устройство 102 представления медийных материалов, устройство 104 мониторинга аудитории, модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса, модуль 216 истории, модуль 220 рекламы и модуль 224 участка, включены в единое вычислительное устройство, например, настольный компьютер, имеющий дисплей, обращенную вперед камеру, микрофоны, аудиовыход и пр. Однако все эти элементы могут существовать отдельно друг от друга или быть объединены друг с другом, образуя одно или несколько вычислительных устройств или иным образом. Как будет частично описано ниже, устройство 102 представления медийных материалов может быть объединено с устройством 104 мониторинга аудитории, но отделено от модуля 106 состояния, модуля 108 интереса, модуля 110 интерфейса, модуля 216 истории, модуля 220 рекламы или модуля 224 участка. Кроме того, все эти модули могут действовать на отдельных устройствах или объединяться в одном устройстве.
[0034] Как показано на фиг. 2, каждое вычислительное(ые) устройство(а) 202 может представлять собой одно или комбинацию из различных устройств, проиллюстрированных здесь шестью примерами: портативным компьютером 202-1, планшетным компьютером 202-2, смартфоном 202-3, телевизионной приставкой 202-4, настольным компьютером 202-5 и игровой системой 202-6, хотя также можно использовать другие вычислительные устройства и системы, например, телевизоры с вычислительными возможностями, нетбуки и сотовые телефоны. Заметим, что три из этих вычислительных устройств 202 включают в себя устройство 102 представления медийных материалов и устройство 104 мониторинга аудитории (портативный компьютер 202-1, планшетный компьютер 202-2, смартфон 202-3). Одно устройство не включает в себя, но осуществляет связь с устройством 102 представления медийных материалов и устройством 104 мониторинга аудитории (настольным компьютером 202-5). Два других не включают в себя устройство 102 представления медийных материалов и могут включать или не включать в себя устройство 104 мониторинга аудитории, например, в случаях, когда устройство 104 мониторинга аудитории включено в устройство 102 представления медийных материалов (телевизионную приставку 202-4 и игровую систему 202-6).
[0035] На фиг. 3 показан пример удаленного вычислительного устройства 302, удаленного по отношению к аудитории 114. Фиг. 3 также демонстрирует сеть 304 связи, через которую удаленное вычислительное устройство 302 осуществляет связь с устройством 104 мониторинга аудитории (не показано, но реализовано в вычислительном устройстве 202 или осуществляет связь с ним), модуль 110 интерфейса, модуль 216 истории (включающий в себя или не включающий в себя историю 218 реакций), модуль 220 рекламы (включающий в себя или не включающий в себя рекламные материалы 222) и модуль 224 участка, исходя из того, что эти элементы находятся в вычислительном устройстве 202, как показано на фиг. 2. Сеть 304 связи может представлять собой интернет, локальную сеть, глобальную сеть, беспроводную сеть, USB-концентратор, шину компьютера, другую сеть мобильной связи или их комбинацию.
[0036] Удаленное вычислительное устройство 302 включает в себя один или более процессоров 306 и удаленные компьютерно-считываемые носители данных (“удаленный CRM”) 308. Удаленный CRM 308 включает в себя модуль 106 состояния, модуль 108 интереса, медийную(ые) программу(ы) 210, каждая из которых может включать в себя информацию 212 о программе или быть связана с ней и/или участки 214, модуль 216 истории, историю 218 реакций, модуль 220 рекламы, рекламные материалы 222 и модуль 224 участка.
[0037] Заметим, что в этом проиллюстрированном примере, устройство 102 представления медийных материалов и устройство 104 мониторинга аудитории физически отделены от модуля 106 состояния и модуля 108 интереса, причем первые два локальны по отношению к аудитории, смотрящей медийную программу, и вторые два действуют удаленно. Таким образом, данные датчика передаются от устройства 104 мониторинга аудитории на один или оба из модуля 106 состояния и модуля 108 интереса, которые могут сообщаться между собой локально (фиг. 2) или удаленно (фиг. 3). Кроме того, будучи определены модулем 106 состояния и/или модулем 108 интереса, различные медийные реакции и другая информация могут передаваться на те же самые или другие вычислительные устройства 202 для приема модулем 110 интерфейса, модулем 216 истории, модулем 220 рекламы и/или модулем 224 участка. Таким образом, в ряде случаев первое из вычислительных устройств 202 может измерять данные датчика, передавать эти данные датчика на удаленное устройство 302, после чего удаленное устройство 302 передает медийные реакции на другое из вычислительных устройств 202, полностью через сеть 304.
[0038] Эти и другие возможности, а также способы действия и взаимодействия элементов, показанных на фиг. 1-3, более подробно изложены ниже. Эти элементы могут дополнительно делиться, объединяться и т.д. Среда 100, показанная на фиг. 1, и подробнее иллюстрации, приведенные на фиг. 2 и 3 демонстрируют некоторые из многих возможных сред, способных применять описанные методики.
Иллюстративные способы
Определение медийных реакций на основании данных пассивного датчика
[0039] На фиг. 4 показан способ 400 определения медийных реакций на основании данных пассивного датчика. Эти и другие описанные здесь способы показаны как наборы блоков, которые указывают осуществляемые операции, но не обязательно ограничиваются показанным порядком осуществления операций соответствующими блоками. В разделах нижеследующего описания могут быть рассмотрены среда 100, показанная на фиг. 1, и элементы, подробно показанные на фиг. 2-3, которые изображены только в порядке примера. Методики не ограничиваются операциями одного элемента или множественных элементов действующих на одном устройстве.
[0040] Блок 402 регистрирует или принимает данные датчика для аудитории или пользователя, причем данные датчика пассивно регистрируются в ходе представления медийной программы аудитории или пользователю. Эти данные датчика могут включать в себя контекст аудитории или пользователя, или контекст может приниматься отдельно.
[0041] Рассмотрим, например, случай, когда аудитория включает в себя трех пользователей 116, а именно, пользователей 116-1, 116-2 и 116-3, показанных на фиг. 1. Предположим, что устройством 102 представления медийных материалов является ЖК дисплей, снабженный громкоговорителями, посредством которого визуализируется медийная программа, и что дисплей осуществляет связь с телевизионной приставкой 202-4, показанной на фиг. 2. При этом устройство 104 мониторинга аудитории включает в себя обращенный вперед инфракрасный датчик высокого разрешения, датчик, основанный на цветовом формате "красный-зеленый-синий", и два микрофона, способные регистрировать звук и местоположение (например, направленная решетка), и это устройство объединено с телевизионной приставкой 202-4 или устройством 102 представления медийных материалов. Предположим также, что представляемая медийная программа 210 является мультфильм категории PG под названием Incredible Family, который передается в потоковом режиме из удаленного источника и через телевизионную приставку 202-4. Телевизионная приставка 202-4 представляет Incredible Family с шестью рекламными материалами, размещенными следующим образом: один в начале кинофильма, три в тройном блоке, и два в двойном блоке.
[0042] Данные датчика принимаются для всех трех пользователей 116 в аудитории 114; для этого примера рассмотрим первого пользователя 116-1. При этом предположим, что, в ходе представления Incredible Family, устройство 104 мониторинга аудитории измеряет, и затем обеспечивает на блоке 402, в различные моменты времени для пользователя 116-1 следующее:
Момент времени 1, ориентация головы 3 градуса, отсутствие или низкая амплитуда аудиосигнала.
Момент времени 2, ориентация головы 24 градуса, отсутствие аудиосигнала.
Момент времени 3, скелетное движение (руки), аудиосигнал высокой амплитуды.
Момент времени 4, скелетное движение (руки и туловище), аудиосигнал высокой амплитуды.
Момент времени 5, движение головы, изменение лицевых признаков (20%), аудиосигнал средней амплитуды.
Момент времени 6, подробные данные ориентации лица, отсутствие аудиосигнала.
Момент времени 7, скелетная ориентация (отсутствующая), отсутствие аудиосигнала.
Момент времени 8, ориентация лица, частота дыхания.
[0043] Блок 404 определяет, на основании данных датчика, состояние пользователя в ходе представления медийной программы. В ряде случаев блок 404 определяет вероятность для состояния или множественные вероятности для множественных состояний, соответственно. Например, блок 404 может достаточно достоверно определять состояние, но не с полной определенностью (например, с вероятностью 40%, что пользователь смеется). Блок 404 может, дополнительно или альтернативно, определять, что множественные состояния возможны на основании данных датчика, например, грустное или спокойное состояние, и вероятности для каждого из них (например, грустное состояние 65%, спокойное состояние 35%).
[0044] Блок 404 может, дополнительно или альтернативно, определять демографическую характеристику, идентификатор и/или увлеченность. Кроме того, способ 400 может пропускать блок 404 и переходить сразу к блоку 406, как описано ниже.
[0045] В данном примере, модуль 106 состояния принимает вышеперечисленные данные датчика и определяет следующие соответствующие состояния для пользователя 116-1:
Момент времени 1: глядит прямо.
Момент времени 2: отводит взгляд.
Момент времени 3: аплодирует.
Момент времени 4: выражает одобрение.
Момент времени 5: смеется.
Момент времени 6: улыбается.
Момент времени 7: ушел.
Момент времени 8: спит.
[0046] В момент времени 1 модуль 106 состояния определяет, на основании данных датчика, указывающих отклонение головы пользователя 116-1 на 3 градуса от направления взгляда прямо на ЖК дисплей и правило указывающее, что состояние прямого взгляда применяется для отклонений менее чем на 20 градусов (исключительно в порядке примера), что пользователь 116-1 находится в состоянии прямого взгляда на медийную программу. Аналогично, в момент времени 2, модуль 106 состояния определяет, что пользователь 116-1 отводит взгляд, поскольку отклонение превышает 20 градусов.
[0047] В момент времени 3, модуль 106 состояния определяет, на основании данных датчика, указывающих, что пользователь 116-1 совершает скелетное движение руками, и на основании высокой амплитуды аудиосигнала, что пользователь 116-1 аплодирует. Модуль 106 состояния может отличать аплодисменты от других состояний, например, выражения одобрения, на основании типа движения рук (для краткости не указанного выше). Аналогично, в момент времени 4, модуль 106 состояния определяет, что пользователь 116-1 выражает одобрение, на основании движения рук и аудиосигнала высокой амплитуды, приписываемого пользователю 116-1.
[0048] В момент времени 5, модуль 106 состояния определяет, на основании данных датчика, указывающих, что пользователь 116-1 имеет движение головы, изменения лицевых признаков на 20% и аудиосигнал средней амплитуды, что пользователь 116-1 смеется. Различные данные датчика можно использовать для того, чтобы отличать другие состояния, например, крик, на основании того, что аудиосигнал имеет среднюю амплитуду, а не высокую амплитуду, и изменений лицевых признаков, например, открывания рта и подъема обеих бровей.
[0049] На момент времени 6, устройство 104 мониторинга аудитории обрабатывает первичные данные датчика для обеспечения обработанных данных датчика, и в этом случае осуществляет обработку распознавания лиц для обеспечения подробных данных ориентации лица. В отсутствие аудиосигнала, модуль 106 состояния определяет, что подробные данные ориентации лица (в данном случае, приподнятые уголки губ, степень закрытия глаз веками), что пользователь 116-1 улыбается.
[0050] В момент времени 7, модуль 106 состояния определяет, на основании данных датчика, указывающих, что пользователь 116-1 совершает скелетное движение, перемещаясь от устройства 104 мониторинга аудитории, что пользователь 116-1 ушел. Данные датчика также могут указывать это напрямую, например, в случаях, когда устройство 104 мониторинга аудитории не регистрирует присутствие пользователя 116-1, больше не принимая ни показаний скелета или головы ни тепловой сигнатуры.
[0051] В момент времени 8, модуль 106 состояния определяет, на основании данных датчика, указывающих, что ориентация лица пользователя 116-1 не изменялась в течение определенного периода (например, глаза пользователя не моргали) и устойчивой, низкой частоты дыхания, что пользователь 116-1 спит.
[0052] Эти восемь показаний датчиков являются упрощенными примерами, приведенными в целях объяснения. Данные датчика могут включать в себя обширные данные, как отмечено здесь в другом месте. Кроме того, могут приниматься данные датчика, измеряющие аудиторию каждую долю секунды, тем самым, обеспечивая подробные данные для десятков, сотен и тысяч периодов в ходе представления медийной программы, из которых можно определять состояния или другие медийные реакции.
[0053] Возвращаясь к способу 400, блок 404 может определять демографическую характеристику, идентификационные данные и увлеченность, помимо состояния пользователя. Модуль 106 состояния может определять или принимать данные датчика, из которых следует определять демографическую характеристику и идентификационные данные, или принимать, от устройства 104 мониторинга аудитории, демографическую характеристику или идентификационные данные. Опять же, согласно данному примеру, данные датчика для пользователя 116-1 могут указывать, что пользователем 116-1 является Джон Браун, что пользователем 116-2 является Лидия Браун, и что пользователем 116-3 является Сьюзен Браун. Или данные датчика могут указывать, что пользователем 116-1 является, например, мужчина ростом шесть футов, четыре дюйма (на основании скелетной ориентации). Данные датчика могут приниматься с информацией, указывающей участки данных датчика, приписываемые по отдельности каждому пользователю в аудитории, или включать в себя ее. В этом настоящем примере, однако, предполагается, что устройство 104 мониторинга аудитории обеспечивает три набора данных датчика, причем каждый набор указывает идентификатор пользователя совместно с данными датчика.
[0054] Кроме того, на блоке 404, методики могут определять увлеченность аудитории или пользователя в аудитории. Как упомянуто, это определение может быть менее точным, чем определение состояний пользователя, но, тем не менее, полезно. Предположим, для вышеприведенного примера, что данные датчика принимаются для пользователя 116-2 (Лидии Браун) и что эти данные датчика включают в себя только ориентацию головы и скелета:
Момент времени 1, ориентация головы 0 градусов, скелетная ориентация верхней части торса впереди нижней части торса.
Момент времени 2, ориентация головы 2 градуса, скелетная ориентация верхней части торса впереди нижней части торса.
Момент времени 3, ориентация головы 5 градусов, скелетная ориентация верхней части торса приблизительно вровень с нижней частью торса.
Момент времени 4, ориентация головы 2 градуса, скелетная ориентация верхней части торса позади нижней части торса.
Момент времени 5, ориентация головы 16 градусов, скелетная ориентация верхней части торса позади нижней части торса.
Момент времени 6, ориентация головы 37 градусов, скелетная ориентация верхней части торса позади нижней части торса.
Момент времени 7, ориентация головы 5 градусов, скелетная ориентация верхней части торса впереди нижней части торса.
Момент времени 8, ориентация головы 1 градус, скелетная ориентация верхней части торса впереди нижней части торса.
[0055] Модуль 106 состояния принимает эти данные датчика и определяет следующие соответствующие показатели увлеченности для Лидии Браун:
Момент времени 1: увлеченность высокая.
Момент времени 2: увлеченность высокая.
Момент времени 3: увлеченность выше средней.
Момент времени 4: увлеченность средняя.
Момент времени 5: увлеченность ниже средней.
Момент времени 6: увлеченность низкая.
Момент времени 7: увлеченность высокая.
Момент времени 8: увлеченность высокая.
[0056] В моменты времени 1, 2, 7 и 8, модуль 106 состояния определяет, на основании данных датчика, указывающих отклонение головы пользователя 116-2 5 градусов или менее от направления взгляда прямо на ЖК дисплей и скелетную ориентацию верхней части торса впереди нижней части торса (указывающую, что Лидия подалась вперед к представлению медийных материалов), что Лидия сильно увлечена Incredible Family в эти моменты времени.
[0057] В момент времени 3, модуль 106 состояния определяет, что уровень увлеченности Лидии упал, поскольку Лидия уже не подается вперед. В момент времени 4, модуль 106 состояния определяет, что увлеченность Лидии дополнительно упала до среднего уровня, на основании того, что Лидия откидывается назад, даже хотя все еще смотрит почти прямо на Incredible Family.
[0058] В моменты времени 5 и 6, модуль 106 состояния определяет, что увлеченность Лидии ослабевает, падая до уровня ниже среднего и затем до низкого, на основании того, что Лидия по-прежнему откидывается назад и смотрин немного в сторону (16 градусов) и затем значительно в сторону (37 градусов), соответственно. Заметим, что в момент времени 7 Лидия быстро возвращается к высокой увлеченности, в чем, конечно, заинтересованы авторы медийных материалов, и это говорит о том, что содержание возбуждает или иным образом захватывает ее.
[0059] Способ 400 может переходить от блока 402 сразу к блоку 406, или от блока 404 к блоку 406 или блоку 408. При переходе к блоку 406 от блока 404, методики определяют уровень интереса на основании типа представляемых медийных материалов и увлеченности или состояния пользователя. При переходе к блоку 406 от блока 402, методики определяют уровень интереса на основании типа представляемых медийных материалов и данных датчика пользователя, без необходимости первоначального или независимого определения увлеченности или состояния пользователя.
[0060] Опять же, согласно вышеприведенным примерам для пользователей 116-1 и 116-2, предположим, что блок 406 принимает состояния, определенные модулем 106 состояния на блоке 404 для пользователя 116-1 (Джона Брауна). На основании состояний для Джона Брауна и информации о медийной программе, модуль 108 интереса определяет уровень интереса, либо в целом, либо в зависимости от времени, для Incredible Family. При этом предположим, что Incredible Family является одновременно приключенческой и комедийной программой, причем участки кинофильма помечены как имеющие один из этих типов медийных материалов. Для простоты, предположим, что моменты времени 1 и 2 помечены как комедия, моменты времени 3 и 4 помечены как приключение, моменты времени 5 и 6 помечены как комедия, и что моменты времени 7 и 8 помечены как приключение. Пересматривая состояния, определенные модулем 106 состояния, снова рассмотрим следующее:
Момент времени 1: глядит прямо.
Момент времени 2: отводит взгляд.
Момент времени 3: аплодирует.
Момент времени 4: выражает одобрение.
Момент времени 5: смеется.
Момент времени 6: улыбается.
Момент времени 7: ушел.
Момент времени 8: спит.
[0061] На основании этих состояний, модуль 106 состояния определяет на момент времени 1, что в момент времени 1 Джон Браун проявляет интерес к контенту ниже среднего - если бы это был тип приключения или драмы, модуль 106 состояния мог бы определить, что Джон Браун, напротив, сильно заинтересован. Однако, в данном случае, поскольку контент является комедийным и, таким образом, призван вызывать смех или аналогичное состояние, модуль 108 интереса определяет, что Джон Браун в момент времени 1 проявляет интерес ниже среднего. Аналогично, на момент времени 2, модуль 108 интереса определяет, что Джон Браун в момент времени 2 проявляет низкий интерес, поскольку находится в состоянии, когда он не только не смеется или не улыбается, но и отводит взгляд.
[0062] В моменты времени 3 и 4, модуль 108 интереса определяет, на основании приключенческого типа для этих моментов времени и состояний аплодисментов и выражения одобрения, что Джон Браун имеет высокий уровень интереса. В момент времени 6, на основании комедийного типа и улыбки Джона Брауна, что он имеет средний интерес в этот момент времени.
[0063] В моменты времени 7 и 8, модуль 108 интереса определяет, что Джон Браун имеет очень низкий интерес. При этом тип медийных материалов является приключенческим, хотя в этом случае модуль 108 интереса определил бы уровень интереса Джона Брауна как очень низкий для большинства типов контента.
[0064] Как легко заметить, рекламодателям, поставщикам медийных материалов и авторам медийных материалов выгодно знать увлеченность или уровень интереса пользователя. Предположим в данном случае, что уровень интереса обеспечивается в зависимости от времени для Incredible Family, совместно с демографической информацией о Джоне Брауне. На основании этой информации от многочисленных демографически аналогичных пользователей, автор медийных материалов может сделать вывод, что взрослые мужчины проявляют интерес к части приключенческого контента, но большинство комедийных участков им не интересно, по крайней мере, для этой демографической группы.
[0065] Рассмотрим, в порядке более конкретного примера, фиг. 5, где показана временная диаграмма 500, имеющая уровни 502 интереса для сорока периодов 504 времени на протяжении участка медийной программы. Предположим в данном случае, что медийной программой является кинофильм, который включает в себя другие медийные программы - рекламные материалы - в периоды времени с 18 по 30. Модуль 108 интереса определяет, как показано, что пользователь начинает со среднего уровня интереса, и затем переходит между средним и выше среднего, высоким и очень высоким уровнями интереса к периоду времени 18. В ходе представления первого рекламного материала, который охватывает периоды времени с 18 по 22, модуль 108 интереса определяет, что пользователь имеет средний низкий уровень интереса. Однако для периодов времени с 23 по 28, модуль 108 интереса определяет, что пользователь имеет очень низкий уровень интереса (поскольку он отводит взгляд и разговаривает или, например, покидает комнату). Однако для последнего рекламного материала, который охватывает период времени с 28 по 32, модуль 108 интереса определяет, что пользователь имеет средний уровень интереса для периодов времени с 29 по 32 - большинства рекламных материалов.
[0066] Это может быть ценной информацией - пользователь остается на первый рекламный материал, уходит в течение среднего рекламного материала и начале последнего рекламного материала и возвращается, со средним интересом, в течение большей части последнего рекламного материала. Следует обратить внимание на отличие в разрешении и точности интереса с некоторыми традиционными подходами, которые, вероятно, не обеспечивают информации о том, сколько людей, смотревших кинофильм, действительно смотрели рекламные материалы, какие из них, и с какой степенью интереса. Если этот пример является общей тенденцией для зрительской публики, цены на рекламные материалы в середине блока будут снижаться, и цены на другие рекламные материалы также будут корректироваться. Или же, рекламодатели и поставщики медийных материалов могут прийти к выводу о необходимости воспроизводить более короткие блоки рекламы, имеющие, например, только два рекламных материалов. Уровни 502 интереса также обеспечивают ценную информацию об участках самого кинофильма, например, на основании очень высокого уровня интереса в период времени 7 (например, особенно захватывающей сцены кинофильма) и спада интереса в периоды времени 35-38.
[0067] Заметим, что, в ряде случаев, уровни увлеченности, хотя и полезны, могут быть менее полезными или точными, чем состояния и уровни интереса. Например, модуль 106 состояния может определять, исходя только из уровней увлеченности, что пользователь не увлечен, если лицо пользователя заграждено (блокировано) и, таким образом, не смотрит на медийную программу. Если лицо пользователя заблокировано руками этого пользователя (скелетная ориентация), и аудиосигнал указывает аудиосигнал высокой громкости, модуль 106 состояния, при определении состояний, может определить, что пользователь кричит. Состояние крика указывает, наряду с контентом, относящимся к жанру ужасов или триллера, очень высокий уровень интереса. Это всего лишь один пример, демонстрирующий, что уровень интереса может заметно отличаться от уровня увлеченности.
[0068] Как упомянуто выше, способ 400 может переходить от блока 402 сразу к блоку 406. В таком случае, модуль 108 интереса, самостоятельно или совместно с модулем 106 состояния, определяет уровень интереса на основании типа медийных материалов (в том числе, множественных типов медийных материалов для разных участков медийной программы) и данных датчика. В порядке примера, модуль 108 интереса может определять, что для данных датчика для Джона Брауна в момент времени 4, которые указывают скелетное движение (рук и туловища) и аудиосигнал высокой амплитуды, и типов комедии, спорта, конфликтного ток-шоу, приключенческой видеоигры, твита или ужасов, что Джон Браун имеет высокий уровень интереса в момент времени 4. Напротив, модуль 108 интереса может определять, что для тех же самых данных датчика в момент времени 4 для драмы, мелодрамы или классической музыки, что Джон Браун имеет низкий уровень интереса в момент времени 4. Это можно осуществлять на основании данных датчика без первоначального определения уровня увлеченности или состояния, хотя это также может осуществляться.
[0069] Блок 408, после выполнения блока 404 или 406, обеспечивает демографическую характеристику, идентификационные данные, увлеченность, состояние и/или уровень интереса. Модуль 106 состояния или модуль 108 интереса может предоставлять эту информацию различным элементам, например, модулю 110 интерфейса, модулю 216 истории, модулю 220 рекламы и/или модулю 224 участка, а также другим.
[0070] Предоставление этой информации рекламодателю после представления рекламы, в которой определяется медийная реакция, позволяет рекламодателю эффективно измерять ценность его рекламных материалов, демонстрируемой в ходе представления медийной программы. Предоставление этой информации автору медийных материалов позволяет автору медийных материалов эффективно оценивать потенциальную ценность аналогичной медийной программы или ее участка. Например, автор медийных материалов, до выпуска медийной программы в свет, может определять участки медийной программы, которые не пользуются хорошим приемом, и, таким образом, изменяет медийную программу для ее улучшения.
[0071] Предоставление этой информации ранжирующей элементы позволяет ранжирующей элементы автоматически ранжировать медийную программу для пользователя. Прочие элементы, например контроллер воспроизведения медийных материалов, может использовать информацию для улучшения контроля и представления медийных материалов. Локальный контроллер может приостанавливать воспроизведение медийной программы, например, когда все пользователи в аудитории уходят из комнаты.
[0072] Предоставление медийных реакций модулю 216 истории может эффективно позволять модулю 216 истории строить и обновлять историю 218 реакций. Модуль 216 истории может строить историю 218 реакций на основании контекста или контекстов, где принимается каждый набор медийных реакций на медийную программу, или медийные реакции могут, полностью или частично, включать контекст в медийные реакции. Таким образом, контекст для медийной реакции, где пользователь смотрит телешоу в среду вечером после работы, можно изменить с учетом того, что пользователь может быть уставшим после работы.
[0073] Как упомянуто здесь, методики могут определять многочисленные состояния для пользователя в ходе большинства медийных программ, даже для 15-секундных рекламных материалов или видеофрагментов. В таком случае блок 404 повторяется, например, с односекундными периодами.
[0074] Кроме того, модуль 106 состояния может определять не только множественные состояния для пользователя в течение времени, но и разнообразные состояния в конкретный момент времени. Пользователь может, например, как смеяться, так и отводить взгляд, причем оба эти состояния можно определять и обеспечивать или использовать для определения уровня интереса пользователя.
[0075] Кроме того, модуль 106 состояния и/или модуль 108 интереса может определять увлеченность, состояния и/или уровни интереса на основании исторических данных, помимо данных датчика или типа медийных материалов. В одном случае исторические данные датчика пользователя используются для нормализации увлеченности, состояний или уровней интереса пользователя (например, динамически для текущей медийной реакции). Если, например, Сьюзен Браун смотрит медийную программу и данные датчика для нее принимаются, методики могут нормализоваться или иным образом обучаться, как лучше всего определять увлеченность, состояния и уровни интереса для нее, на основании ее исторических данных датчика. Если исторические данные датчика Сьюзен Браун указывают, что она не является особенно экспрессивным или вокальным пользователем, методики могут корректировать эту историю. Таким образом, аудиосигнала более низкой амплитуды может быть достаточно для определения, что Сьюзен Браун смеялась, по сравнению с аудиосигналом более высокой амплитуды, обычно используемым для определения, что пользователь смеялся.
[0076] В другом случае, исторические увлеченность, состояния или уровни интереса пользователя, для которого принимаются данные датчика, сравниваются с историческими увлеченностью, состояниями или уровнями интереса для других людей. Таким образом, более низкий уровень интереса можно определять для Лидии Браун на основании данных, указывающих, что она проявляет большой интерес почти к каждой медийной программе, которую она смотрит, по сравнению с уровнями интереса других людей (либо вообще, либо для той же медийной программы). В любом из этих случаев методики обучаются в зависимости от времени, что позволяет им нормализовать увлеченность, состояния и/или уровни интереса.
Способы построения истории реакций
[0077] Как упомянуто выше, методики могут определять увлеченность, состояние и/или уровень интереса пользователя для различных медийных программ. Кроме того, эти методики могут делать это с использованием данных пассивного или активного датчика. На основании этих медийных реакций, методики могут строить историю реакций для пользователя. Эту историю реакций можно использовать различными способами, изложенными здесь в другом месте.
[0078] На фиг. 6 показан способ 600 построения истории реакций на основании реакций пользователя на медийные программы. Блок 602 принимает наборы реакций пользователя, причем наборы реакций регистрируются в ходе представления множественных соответствующих медийных программ, и информацию о соответствующих медийных программах. На фиг. 5 изображен пример набора реакций на медийную программу, которые показаны в виде меры уровня интереса с течением времени, когда программа представлялась пользователю.
[0079] Информация о соответствующих медийных программах может включать в себя, например, название медийного материала (например, "Офис", эпизод 104) и его тип (например, песня, телешоу или рекламный материал), а также другую изложенную здесь информацию.
[0080] Помимо медийных реакций и соответствующих им медийных программ, блок 602 может принимать контекст для пользователя, в течение которого медийная программа представлялась вышеупомянутым образом.
[0081] Кроме того, блок 602 может принимать медийные реакции от других пользователей, с помощью которых можно построить историю реакций. Таким образом, модуль 216 истории может определять, на основании медийных реакций пользователя (либо частично, либо после построения первоначальной или предварительной истории реакций для пользователя), других пользователей, реакции которых аналогичны реакциям пользователя. Модуль 216 истории может определять других людей, реакции которых аналогичны реакциям пользователя, и использовать эти реакции других людей на программы, которые пользователь еще не видел или не слышал, для уточнения истории реакций для пользователя.
[0082] Блок 604 строит историю реакций для пользователя на основании наборов реакций для пользователя и информации о соответствующих медийных программах. Как упомянуто, блок 604 также может строить историю реакций пользователя с использованием историй реакций, контекстов, и т.д. других людей. Эту историю реакций можно использовать в другом месте здесь для определения программ, которые, вероятно, понравятся пользователю, рекламных материалов, которые, вероятно, будут эффективны при демонстрации пользователю, и в других указанных здесь целях.
Способы представления рекламных материалов на основании текущей медийной реакции
[0083] Как упомянуто выше, методики могут определять текущую медийную реакцию пользователя, например, увлеченность, состояние и/или уровень интереса. Нижеследующие способы позволяют использовать текущую медийную реакцию для определения рекламного материала, подлежащего представлению.
[0084] На фиг. 7 показан способ 700 представления рекламы на основании текущей медийной реакции, в том числе, путем определения, какой рекламный материал из множественных потенциальных рекламных материалов представлять.
[0085] Блок 702 принимает текущую медийную реакцию пользователя на медийную программу, причем медийная программа представляется в данный момент пользователю. Текущая медийная реакция может представлять собой реакцию того или иного вида на различные медийные материалы, например, смех в ответ на сцену комедии, одобрительные возгласы в ответ на спортивный успех в спортивной игре, показываемой в прямом эфире, танец в ответ на песню или музыкальную видеозапись, когда зритель проникается сюжетом драмы, внимательный просмотр рекламного ролика для кинофильма или разговор с другим человеком в комнате, также смотрящим, например, новостную программу. Медийная программа это программа, которая в данный момент представляется пользователю, например пользователю 116-1, показанному на фиг. 1, а не историческая медийная реакция, хотя могут использоваться история реакций или другие текущие медийные реакции, порожденные ранее в ходе той же медийной программы, помимо новейшей, текущей медийной реакции.
[0086] В порядке примера, рассмотрим фиг. 8, которая демонстрирует текущие медийные реакции на комедийную программу ("Офис", эпизод 104) на протяжении участка программы в ходе представления программы, показанные на временной диаграмме 800 состояний. Здесь показаны 23 медийные реакции 802, причем медийные реакции являются состояниями, принятыми модулем 220 рекламы от модуля 106 состояния, для пользователя по имени Амелия Понд. Для визуальной краткости, на временной диаграмме 800 состояний показано только четыре состояния, в которых пользователь смеется (обозначенное “
Figure 00000001
”), улыбается (обозначенное “
Figure 00000002
”), заинтересован (обозначенное “
Figure 00000003
”), и ушел (обозначенное “X”).
[0087] Блок 704 определяет, на основании текущей медийной реакции на медийную программу, определенный рекламный материал из множественных потенциальных рекламных материалов. Блок 704 может определять, какой рекламный материал и когда показывать, на основании текущей медийной реакции, а также другой информации, например, истории реакций для пользователя (например, истории 218 реакций, показанной на фиг. 2, для Амелии Понд), контекста для текущей медийной реакции (например, находится ли Амелия Понд на солнце или только что возвратилась домой из школы), демографической характеристики пользователя (например, Амелия Понд является 16-летней девушкой, говорящей по-английски и проживающей в Сиэтле, Вашингтон, США), типа медийной программы (например, комедии) или медийной реакции другого пользователя, также принадлежащего аудитории (например, брат Амелии Понд, Кельвин Понд, реагировал определенным образом). Блок 704 может определять, какой рекламный материал показывать сразу после текущей медийной реакции, например, на последнюю сцену, показанную в программе, до показа рекламы, хотя, вместо этого, блок 704 также может использовать текущие медийные реакции, которые непосредственно не предшествовали рекламе, или использовать множественные текущие медийные реакции, например последние шесть медийных реакций, и т.д.
[0088] Согласно данному варианту осуществления, предположим, что текущей медийной реакцией является реакция 804, показанная на фиг. 8, в которой Амелия Понд смеется над текущей сценой шоу "Офис". Предположим также, что в конце сцены, которая заканчивается в 15 секунд, начинается первый рекламный блок 806. Этот первый рекламный блок 806 имеет длительность одну минуту и запланирован так, чтобы включать в себя два 30-секундных рекламных материала, один для рекламного материала №1808, и другой для рекламного материала №2810.
[0089] Предположим также для этого случая, что первый рекламодатель ранее приобрел право на рекламу №1808, и для этой рекламной паузы ранее обеспечил три разных потенциальных рекламных материала, один из которых будет воспроизводиться на основании текущей медийной реакции. Таким образом, модуль 220 рекламы сначала устанавливает, что в рекламных материалах 222, показанных на фиг. 2 или 3, существует три потенциальных рекламных материала, и каждый из них является подходящим. В данном случае рекламодатель заранее знает, что речь идет о программе "Офис", и конкретно об эпизоде 104. Предположим, что эта программа идет впервые, и, таким образом, другие медийные реакции других пользователей не были записаны для всей программы. Однако на основании информации о программе в целом, один рекламный материал указывается как подходящий для воспроизведения, если текущей медийной реакцией является смех или улыбка, одна, если реакцией является уход, и другая для всех остальных состояний. Предположим, что рекламодатель является крупным производителем автомобилей, и что первый рекламный материал (для смеющихся или улыбающихся) посвящен приятному, быстрому спортивному автомобилю, что второй, поскольку он будет воспроизводиться, если пользователь ушел из комнаты, является повторяющимся и сфокусированным на слуховом восприятии, начинается с достоинств производителя (например, автомобили Desoto быстры, автомобили Desoto приятны, автомобили Desoto являются выгодным приобретением) в надежде, что пользователь находится на расстоянии, где можно услышать рекламу, и третий посвящен популярному и практичному семейному автомобилю.
[0090] Заметим, что это относительно простой случай, использующий текущую медийную реакцию и отчасти основанный на типе программы или общей информации о программе. Альтернативно, рекламодатель может обеспечивать 20 рекламных материалов для многих текущих медийных реакций, а также демографической характеристики пользователя и истории реакций пользователя. Таким образом, модуль 220 рекламы может определять, что пять из 20 рекламных материалов потенциально подходят для пользователя мужского пола в возрасте от 34 до 50, и, таким образом, не включают в себя различные автомобили, продаваемые производителем, которые, в целом, не являются хорошими продавцами для мужчин этой возрастной группы. Модуль 220 рекламы также может определять, что две из пяти больше подходят, на основании истории реакций пользователя, указывающей, что он положительно отреагировал на шоу о рыбной ловле и шоу об автогонках и, таким образом, показывающей грузовики и внедорожники. Наконец, модуль 220 рекламы может определять, какую из этих двух представлять, на основании текущей медийной реакции пользователя, указывающей, что пользователь сильно увлечен программой, и, таким образом, показ рекламы грузовиков, которая вдается в детали о грузовиках, исходя из того, что пользователь достаточно внимателен, чтобы оценить эту детальную, а не менее детализированную, более стилистическую рекламу.
[0091] Блок 706 предписывает представление определенного рекламного материала в течение периода текущего представления, когда осуществляется представление медийной программы или сразу по завершении представления медийной программы. Блок 706 может предписывать представление определенного рекламного материала путем представления рекламы или путем указания представляющей элементы, например, устройству 102 представления медийных материалов, показанному на фиг. 2, что определенный рекламный материал подлежит представлению. Период текущего представления это промежуток времени, достаточный для представления медийной программы, но может включать в себя промежуток времени, достаточный для представления ранее определенного количества рекламных материалов или промежуток времени для представления рекламных материалов.
[0092] Заканчивая рассмотрение текущего варианта осуществления, касающегося Амелии Понд, вернемся к фиг. 8. В данном случае, модуль 220 рекламы, который предписывает устройству 102 представления медийных материалов, показанному на фиг. 2, представлять первый рекламный материал приятного, быстрого спортивного автомобиля на основании текущей медийной реакции Амелии, которой является смех.
[0093] Модуль 220 рекламы может основывать свое определение на медийных реакциях, отличных от самой недавней медийной реакции, являются ли эти реакции текущими реакциями на медийную программу, или периоде текущего представления медийной программы или других программ, например, тех, на которых базируется история реакций пользователя. Текущими медийными реакциями также могут быть те, которые принимаются для реакций в течение периода текущего представления, но не для программы. Таким образом, реакция пользователя на предыдущий рекламный материал, показанный в блоках рекламы в период текущего представления, также можно использовать для определения, какой рекламный материал представлять.
[0094] Способ 700 может повторяться, что позволяет выбирать рекламный материал №2810, по меньшей мере, отчасти на основании “состояния заинтересованности”, показанного в реакции 812 на рекламу. Таким образом, способ 700 может повторяться для различных рекламных материалов и текущих реакций в течение периода текущего представления, будь то реакции на программу или на рекламу.
[0095] Показаны также другие реакции на рекламу, вторая реакция 814 на рекламу, третья реакция 816 на рекламу для рекламного материала №3818 второго рекламного блока 820, и четвертая реакция на рекламу 822 для рекламного материала № 4 824. Заметим, что третий рекламный материал, определенный подлежащим представлению модулем 220 рекламы, базируется отчасти на состоянии 826 ухода, и что третий рекламный материал, определенный подлежащим представлению, базируется на том, что пользователь смеется над третьим рекламным материалом. Это всего лишь некоторые из многих примеров, когда текущие медийные реакции могут использоваться методиками определения рекламного материала, подлежащего представлению.
[0096] В необязательном порядке, методики могут определять расценки на рекламу на основании текущей медийной реакции на медийную программу. Таким образом, рекламный материал может стоить меньше, если пользователь в данный момент ушел, или больше, если пользователь в данный момент смеется или иным образом увлечен. Таким образом, методики способны устанавливать цены на рекламные материалы на основании медийных реакций, в том числе, независимо от предложенной рекламодателем цены на представление рекламы. В таком случае, методики могут представлять рекламные материалы на основании того, какой рекламодатель согласен или согласился с ценой, в отличие от структуры наивысшего предложения цены, или некоторой комбинации предложений цены и определенных расценок. Одним примером комбинации предложений цены и определенных расценок является цена открытия, установленная методиками на основании медийных реакций, и затем предложения цены от рекламодателей, предлагающих цены на основании цены открытия.
[0097] Также, в необязательном порядке, методики дают возможность пользователям в явном виде взаимодействовать с рекламным материалом. Рекламный материал может включать в себя явный запрос на запрашиваемую медийную реакцию, например для облегчения предложения. Таким образом, подробный рекламный материал грузовиков может включать в себя текст или аудиосигнал, предлагающий пользователю поднять руку, если он желает, чтобы подробный каталог продукции был отправлен на электронную почту или домашний адрес пользователя, или рекламный материал цепочки доставки пиццы магазинов может просить пользователя поддержать одобрительными возгласами 50%-ую скидку на доставку пиццы на дом для доставки во время прямой трансляции футбольного матча. Если пользователь поднимает руку, методики передают это состояние соответствующему рекламодателю, который затем может отправить обратно номер телефона для отображения в рекламе для локального хранилища пользователя совместно с кодом на 50%-ую скидку на пиццу.
[0098] На фиг. 9 показан способ 900 представления рекламы на основании текущей медийной реакции, в том числе, на основании предложений цены от рекламодателей.
[0099] Блок 902 обеспечивает рекламодателям текущую медийную реакцию пользователя на медийную программу, представляемую в данный момент пользователю. Блок 902 может обеспечивать текущую медийную реакцию как принятую или определенную различными вышеописанными способами, например, с помощью модуля 106 состояния, модуля 108 интереса и/или модуля 220 рекламы. Блок 902 также может обеспечивать другую информацию, например, историю реакций или ее участки для пользователя, демографическую информацию о пользователе, контекст, в котором медийная программа представляется пользователю, или информацию о медийной программе.
[00100] Рассмотрим, например, фиг. 10, которая иллюстрирует модуль 220 рекламы, предоставляющий, через сеть 304 связи, демографическую характеристику 1002, часть истории 1004 реакций, текущую медийную реакцию 1006 и информацию 1008 о медийной программе рекламодателям 1010 (которые, как показано, включают в себя первого, второго и третьего рекламодателей 1010-1, 1010-2 и 1010-3, соответственно).
[00101] При этом предполагается, что демографическая характеристика 1002 указывает, что пользователем является 33-летняя замужняя женщина, имеющая одного ребенка. Предположим также, что часть истории 1004 реакций указывает идентификационные данные пользователя, а именно Мелоди Понд, и то, что она отдает предпочтение научно-фантастическим программам, Олимпийским играм, и предыдущие положительные реакции на рекламные материалы для трейлеров кинофильмов, распродаж обуви и триатлона. Предположим в данном случае, что текущая медийная реакция 1006 указывает разочарование (грустное состояние), и что информация 1008 о медийной программе указывает, что программа представляет собой соревнование по плаванию, в последнем отрезке которой, текущей медийной реакцией на который было грустное состояние, было показано, что Майкл Фелпс уступил в международном соревновании по плаванию австралийскому пловцу Йену Торпу.
[00102] Блок 904 принимает предложения цены от рекламодателей, предложения цены на право осуществлять представление соответствующего рекламного материала пользователю в течение периода текущего представления, когда осуществляется представление медийной программы. Это может быть право представлять рекламу немедленно, например, сразу после окончания сцены или отрезка для текущей медийной реакции и до начала другого рекламного материала. Альтернативно, это может быть право на более поздний участок периода текущего представления, например, второй рекламный материал после сцены или, например, рекламный материал в блоке на пять минут позже.
[00103] Рассмотрим вышеприведенный пример, где пользователь пребывает в грустном состоянии непосредственно перед показом рекламы. Некоторые рекламодатели не очень заинтересованы в представлении рекламных материалов пользователю, находящемуся в этом состоянии, и поэтому предложение цены на право показа их рекламного материала ниже, тогда как другие предполагают, что их рекламные материалы более эффективно действуют на людей, находящихся в грустном состоянии. Кроме того, рекламодатели, вероятно, учитывают и устанавливают ценность, также на основании демографической характеристики пользователя, истории реакций и просматриваемой им программы. Например, рекламодатель, продающий страхование жизни или инвестиционные планы, с большей вероятностью предложат высокую цену за право показа непосредственно после грустного состояния и для человека, имеющего малолетних детей, чем рекламодатель, продающий продукты для чистки ковров.
[00104] В этом примере предполагается, что все три рекламодателя 1010 предлагают цены за право показа рекламных материалов и включают, с каждым предложением цены, информацию, достаточную для предписания модулю 220 рекламы представлять рекламу, например, в виде указателя рекламного материала из рекламных материалов 222 или универсального идентификатора ресурса, откуда следует извлечь рекламный материал.
[00105] Блок 906 предписывает представлять пользователю один из рекламных материалов, связанных с одним из предложений цены в течение периода текущего представления, когда осуществляется представление медийной программы. Блок 906 может по своему выбору показывать рекламный материал в ответ на определение, какое предложение цены является наивысшим, хотя наивысшее предложение цены не является обязательным. В заключение примера, модуль 220 рекламы предписывает представлять пользователю рекламный материал, связанный с наивысшим предложением цены.
[00106] Помимо вышеизложенных способов, методики могут обеспечивать количество дополнительных пользователей, присутствующих в ходе представления медийной программы, включающего в себя, в ряде случаев, их текущую медийную реакцию и т.д., тем самым, вероятно увеличивая размер предложений цены.
[00107] Кроме того, модуль 220 рекламы может принимать медийную реакция на показанный рекламный материал и, на основании реакции, снижать или повышать стоимость рекламного материала относительно предложения цены, сделанного для этого рекламного материала.
[00108] Способы 900 могут повторяться, полностью или частично, для более поздних рекламных материалов, в том числе, на основании текущих медийных реакций на предыдущие рекламные материалы, аналогично описанному в примерах способа 700.
[00109] На фиг. 11 показан способ 1100 представления рекламы на основании текущей медийной реакции, в том числе, непосредственно следующей за сценой, которая вызвала текущую медийную реакцию.
[00110] Блок 1102 определяет, на основании текущей медийной реакции на сцену медийной программы, представляемой пользователю, типа медийной программы и истории реакций, связанной с пользователем, определенный рекламный материал из множественных потенциальных рекламных материалов. Способы, которыми это может осуществляться, изложены выше. Заметим, что рекламодатель может делать предложение цены или предоплату на основании своего рекламного материала, представляемого после реакции определенного типа, например, пять центов за каждое размещение рекламы сразу после реакции смеха. Кроме того, если рекламные материалы не размещаются для каждого пользователя, но, напротив, размещаются целиком или по группам (например, для населения определенной географической области), предложения цены или предоплата могут, напротив, взвешиваться на основании доли положительных реакций и т.д.
[00111] Блок 1104 предписывает представление определенного рекламного материала сразу по завершении представления сцены медийной программы.
Способы определения будущего участка представляемой в данный момент медийной программы
[00112] Как упомянуто выше, методики могут определять текущую медийную реакцию пользователя, например, увлеченность, состояние и/или уровень интереса. Нижеследующие способы позволяют использовать текущую медийную реакцию для определения будущего участка для представления в ходе представляемой в данный момент медийной программы.
[00113] На фиг. 12 показан способ 1200 определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании текущей медийной реакции пользователя, определенной на основании данных датчика, пассивно регистрируемых в ходе представления медийной программы пользователю.
[00114] Блок 1202 принимает, в ходе представления медийной программы пользователю, текущую медийную реакцию пользователя на участок медийной программы, причем медийная реакция определяется на основании данных датчика, пассивно регистрируемых в ходе представления.
[00115] Как подробно описано здесь в другом месте, текущая медийная реакция может представлять собой реакцию того или иного вида на различные медийные материалы, например, смех в ответ на сцену комедии, одобрительные возгласы в ответ на спортивный успех в спортивной игре, показываемой в прямом эфире, танец в ответ на песню или музыкальную видеозапись, когда зритель проникается сюжетом драмы, внимательный просмотр рекламного ролика для кинофильма или разговор с другим человеком в комнате, также смотрящим, например, новостную программу. Медийная программа это программа, которая в данный момент представляется пользователю, например пользователю 116-1, показанному на фиг. 1, а не ранее представленная медийная программа, и, таким образом, реакция является исторической медийной реакцией. История реакций на основании исторических медийных реакций может использоваться совместно с текущей медийной реакцией, однако для определения будущих участков. Также, могут использоваться другие текущие медийные реакции, порожденные ранее в ходе той же медийной программы, дополнительно или альтернативно наиболее текущей медийной реакции.
[00116] Медийная реакция является текущей, поскольку принимается в ходе текущего представления медийной программы, но не обязана приниматься немедленно или мгновенно, или даже наиболее текущей медийной реакцией на медийную программу. Таким образом, текущая медийная реакция на четвертый участок медийной программы может приниматься в ходе шестого участка и использоваться для определения пятнадцатого участка, подлежащего представлению в медийной программе.
[00117] В порядке примера рассмотрим фиг. 13, которая иллюстрирует удаленное устройство 302, в котором реализован модуль 224 участка, принимающий демографическую характеристику 1302, участок истории 1304 реакций, текущую медийную реакцию 1306 и информацию о медийной программе 1308 от вычислительного устройства 202, показанного на фиг. 2. Модуль 224 участка принимает эти данные через сеть 304 связи и, в ответ, предписывает вычислительному устройству 202 представлять пользователю конкретный будущий участок медийной программы, связанный с этими данными.
[00118] Также в порядке примера, рассмотрим фиг. 8, которая демонстрирует текущие медийные реакции на комедийную программу ("Офис", эпизод 104) на протяжении участка программы в ходе представления программы, показанные на временной диаграмме 800 состояний. Хотя на фиг. 8 показано 23 медийных реакций 802 для 23 участков, для этого примера рассмотрим медийные реакции 828, 830 и 832, которые представляют состояния улыбки на 14-ом, 15-ом и 16-ом участках. Предположим в данном случае, что существует три текущие медийные реакции (причем медийная реакция 832 является наиболее текущей), и что участки с 17-го по 23-й еще не представлены. Предположим также, что демографическая характеристика 1302 указывает, что человек, смотрящий "Офис", это 23-летняя женщина, что участок истории 1304 реакций указывает, что человеку обычно не нравятся комедии, но нравятся научно-фантастические фильмы и драмы, что текущие медийные реакции 1306 включают в себя три вышеупомянутые состояния улыбки, и информация о медийной программе 1308 указывает, что программой является "Офис", эпизод 104, и что текущие медийные реакции являются реакциями на 14-й, 15-й и 16-й участки.
[00119] Блок 1204 определяет, на основании медийной реакции и участка, будущий участок медийной программы для представления пользователю, причем будущий участок медийной программы, наступает в медийной программе позднее, чем участок. Делая это определение, модуль 224 участка может принимать достаточно информации или может использовать эту информацию для получения дополнительной информации. Таким образом, предположим, что информация о медийной программе 1308 указывает три участка, и что модуль 224 участка определяет, что эти участки относятся к сцене, где в шоу участвует персонаж Пэм, но иначе не являющейся шуткой или не призванной быть комедийной. На основании реакции человека (улыбки) и предмета этих участков (развитие персонажа Пэм) модуль 224 участка может выбирать между различными возможными сценами, например, для показа в конце программы. Модуль 224 участка может основывать это определение также на другой информации, как упомянуто на фиг. 13. Таким образом, модуль 224 участка может определять, что 23-летней женщине, которой, в общем, не нравятся комедии, но которая улыбается на протяжении сцены с Пэм, получит большее удовольствие от другой сцены развития персонажа, чем от сцены, содержащей физический юмор, где персонаж по имени Дуайт выпадает из бумажного грузовика. В данном случае участки 214 включают в себя два возможных будущих участка, подлежащих показу в конце "Офис", здесь, на 23-ем участке, один о персонаже, выпадающем из грузовика, и один о Пэм.
[00120] Блок 1206 предписывает представлять будущий участок медийной программы пользователю в ходе текущего представления медийной программы. Модуль 224 участка может действовать локально или удаленно и может указывать или обеспечивать участок для представления. Таким образом, модуль 224 участка может предписывать представление будущего участка, передавая участок контента или указание 1310 на него через сеть 304 связи на вычислительное устройство 202. Модуль 224 участка, приняв указание, может делать выбор из различных ранее сохраненных участков, хранящихся локально по отношению к вычислительному устройству 202 (или к которому оно может осуществлять доступ), на основании указания.
[00121] В заключение рассмотрения данного примера, предположим, что удаленное устройство 302, показанное на фиг. 13, осуществляет потоковую передачу медийной программы через телевизионную приставку 202-4 и таким образом, на 23-ем участке, осуществляет потоковую передачу сцены о Пэм, а не сцены о Дуайте.
[00122] Хотя вышеприведенный пример способа 1200 относится к одиночному пользователю, можно использовать также медийные реакции других пользователей, в том числе, других людей, физически локальных по отношению к пользователю (например, другого зрителя, находящегося в одной комнате с 23-летней женщиной). Кроме того, можно использовать медийные реакции других пользователей, которые не смотрят то же, что пользователь, например, других членов той же демографической группы (например, женщин в возрасте 18-34) или аудитории в целом (например, всех зрителей, медийные реакции которых принимаются при первом показе в восточном часовом поясе США и Канады).
[00123] Заметим, что медийные реакции этого пользователя и других пользователей могут приниматься и использоваться в реальном времени для определения будущих участков представляемой в данный момент медийной программы. Таким образом, программу можно адаптировать к людям оперативно и в реальном времени, тем самым, повышая качество программы. В этом примере медийная программа адаптируется на основании ранее подготовленных участков, хотя это не требуется. Программа, вещаемая в прямом эфире, также может изменяться в реальном времени, например, в прямом эфире, в ночном комедийном шоу можно выбирать осуществление шутки на основании хороших реакций на предыдущую шутку, ранее представленную в программе.
[00124] На фиг. 14 показан способ 1400 определения будущего участка представляемой в данный момент медийной программы, в том числе, когда будущий участок является ответом на запрашиваемую в явном виде медийную реакцию.
[00125] Блок 1402 представляет или предписывает представление, в ходе представления медийной программы, явного запроса на запрашиваемую медийную реакцию, причем явный запрос является частью медийной программы и указывает ответ на запрашиваемую медийную реакцию, причем запрашиваемая медийная реакция является физическим изменением по отношению к пользователю. Медийная реакция может быть одной или более из описанных, например, подъемом руки, выражением одобрения, улыбкой и т.д.
[00126] Кроме того, явный запрос может представляться как часть и внутри медийной программы. Таким образом, рекламный материал может иметь встроенный в участок рекламы текст или голос диктора, просящий пользователя поднять руку, чтобы устроить пробную поездку на автомобиле; или на реалити-шоу, идущем в прямом эфире или записанном, ведущий может просить аудиторию выразить одобрение или неодобрение персонажу, чтобы решить, какой персонаж останется на шоу; или кинофильм в жанре триллер может иметь персонажа в кинофильме, который спрашивает пользователя, нужно ли бежать, прятаться или драться с плохим парнем.
[00127] Альтернативно, явный запрос может представляться, но не как часть или внутри медийной программы, например, в виде всплывающего окна отображаемого поверх медийной программы.
[00128] Сам по себе ответ может быть аналогичен, как упомянуто выше для рекламных материалов, например, предложению купона или информации о продукте или услуге и пр., в медийной программе как рекламного, так и нерекламного характера.
[00129] Ответ может, дополнительно или альтернативно, включать в себя представление разных участков медийных материалов позже в программе. Реалити-шоу может в явном виде запрашивать медийные реакции для представления дополнительной информации о персонаже или ситуации, например, “Помашите, пожалуйста, одной рукой, если хотите увидеть больше о приключениях Джинджер, помогающей бездомным, помашите, пожалуйста, обеими руками, если хотите увидеть больше о поездке Барта в магазин велосипедов, или издайте одобрительные возгласы, если хотите увидеть больше о драке Сьюзи с Джинджер за Барта.” В этом примере, ответ имеет три части (или можно предполагать три ответа), по одному ответу или подответу для каждой медийной реакции, в данном случае, приключения Джинджер, поездки Барта или драки Сьюзи.
[00130] Блок 1404 принимает запрашиваемую медийную реакцию, регистрируемую в ходе представления, и соответствующий явный запрос, причем запрашиваемая медийная реакция определяется на основании данных датчика, пассивно регистрируемых в ходе представления и согласующихся с представлением явного запроса. Методики могут принимать запрашиваемую медийную реакцию от другого элемента или определять медийную реакцию на основании данных датчика, пассивно или иным образом. В одном варианте осуществления, блок 1404 осуществляется модулем 106 состояния. Модуль 106 состояния определяет, на основании данных датчика, пассивно регистрируемых в ходе представления медийной программы, во время или сразу после представления явного запроса, и измеряя физическое изменение в отношении пользователя, запрашиваемую медийную реакцию.
[00131] Блок 1406, в ответ на прием запрашиваемой медийной реакции, осуществляет ответ. В необязательном порядке или дополнительно, способ 1400 может, до осуществления потенциального ответа на блоке 1406, определять на блоке 1408, что запрашиваемые медийные реакции других пользователей также принимаются, и основывать потенциальный ответ на этих запрашиваемых медийных реакциях других пользователей.
[00132] В таком случае, модуль 224 участка может, до осуществления ответа, определять, что другие запрашиваемые медийные реакции других пользователей в ходе других представлений медийной программы также принимаются. Таким образом, модуль 224 участка может основывать ответ на медийных реакциях других пользователей, например, представлять драку Сьюзи на основании медийной реакции пользователя и другого пользователя, запрашивающего показ этого участка. Медийная реакция других пользователей может быть для всех пользователей, пользователей одной и той же демографической группы, друзей пользователя (находящихся в одной комнате с пользователем и смотрящим то же, что и он, или нет), или семьи пользователя (например, тех, кто также находится в комнате и отвечает на явный запрос).
[00133] Также в необязательном порядке или дополнительно, способ 1400 может переходить к блоку 1410. Блок 1410 запрашивает другую запрашиваемую медийную реакцию для другого ответа, подлежащего осуществлению для других пользователей, связанных с пользователем. Это можно представлять как дополнительный явный запрос, например, запрос, чтобы пользователь поднял руку для отправки купона также друзьям пользователя.
[00134] Запрос может предусматривать удаленный просмотр как пользователем, так и его или ее друзьями. Таким образом, пользователь может по своему выбору смотреть драку Сьюзи, но, после формирования медийной реакции, модуль 224 участка представляет второй запрос, спрашивающий, хочет ли пользователь, вместо этого, смотреть то, что друг пользователя Лидия ранее или одновременно запрашивал для просмотра, а именно, приключение Джинджер, или то, что запрашивали для просмотра большинство ее друзей, например, пять или восемь друзей пользователя выбрали смотреть больше о поездке Барта.
[00135] Блок 1412, в ответ на прием второй запрашиваемой медийной реакции, предписывает представлять ответ также другим пользователям. Модуль 224 участка может делать это непосредственно, действуя удаленно, или может осуществлять связь с удаленного элемента, чтобы предписывать этому элементу представлять ответ другим пользователям. В заключение настоящего примера, предположим, что пользователь выбирает просмотр того, что предпочла смотреть Лидия, ее лучший друг, а именно, приключение Джинджер, чтобы завтра в школе обсудить его с Лидией. Заметим, что пользователь также знает, что большинство других его друзей предпочли смотреть поездку Барта, и, таким образом, она сможет спросить у них, понравилась ли она им. Пользователь может, если ее друзья скажут, что поездка Барта им очень понравилась, повторно посмотреть программу и выбрать, вместо приключения Джинджер, поездку Барта.
[00136] На фиг. 15 показан способ 1500 определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании медийных реакций множественных пользователей.
[00137] Блок 1502 принимает, от множественных устройств представления медийных материалов, на удаленном элементе, и в ходе представления медийной программы множественным пользователям через множественные устройства представления медийных материалов, медийные реакции пользователей, медийные реакции на основании данных датчика, пассивно регистрируемых на множественных устройствах представления медийных материалов и в ходе участка медийной программы. Медийная программа может одновременно представляться в прямом эфире, или разделяться на множественных пользователей. Как показано на фиг. 13, текущая медийная реакция 1306 может приниматься сама по себе или совместно с другой информацией, как упомянуто выше, например, демографической характеристикой 1302, участком истории 1304 реакций и информацией о медийной программе 1308, хотя в этом случае от множественных вычислительных устройств 202.
[00138] Блок 1504 определяет, на основании медийных реакций и участка, будущий участок медийной программы для представления пользователям, причем будущий участок медийной программы, наступает в медийной программе позднее, чем участок. Как показано на фиг. 13, эта медийная программа может храниться удаленно, например, как медийная программа 210, показанная на фиг. 3 и 13, или локально, например, как показано на фиг. 2. Также, как упомянуто здесь, в определении можно также использовать другую информацию.
[00139] Медийная программа может быть одной из многих вышеупомянутых программ, например, рекламным материалом. В таком случае, модуль 224 участков и/или модуль 220 рекламы может определять будущий участок на основании вероятности того, что он будет более успешным, чем один или более других ранее подготовленных участков из набора выбираемых участков (например, участков 214, показанных на фиг. 13). Таким образом, группа пользователей, демонстрирующая слабую реакцию на первый участок, где приведены подробные сведения о риэлторской компании, может использоваться для определения для представления третьего участка, который проще или более стильный вместо того, чтобы продолжать детализацию риэлторской компании. Многочисленные другие примеры изложены выше.
[00140] Блок 1506 предписывает представлять будущий участок медийной программы пользователям на множественных устройствах представления медийных материалов в ходе представления медийной программы. Блок 1506 может делать это различными способами, подробно изложенными выше, например, в реальном времени и в потоковом режиме от удаленного устройства 302 множественным пользователям через множественные вычислительные устройства 202.
[00141] В некоторых вариантах осуществления, медийные реакции множественных пользователей можно использовать для определения, каким образом создавать будущие программы или каким образом представлять ранее подготовленные будущие программы. Рассмотрим случай, когда поставщик медийных материалов имеет десять временных слотов для приключенческого телесериала. Предположим, что первые три программы могут иметь некоторые внутренние участки, которые можно изменять на основании методик, но что для следующих семи временных слотов (например, недель в сезоне) подготовлено 11 эпизодов. Телевизионные сезоны часто структурируются таким образом, что полный сезон подготавливается заранее, что затрудняет осуществление больших внутрисезонных изменений. Поставщик медийных материалов, к моменту, когда эпизоды сезона подготовлены, может быть способен подготавливать дополнительные полные программы. Таким образом, поставщик медийных материалов может определять, на основании медийных реакций от множественных пользователей на протяжении первых трех эпизодов и на множественные участки этих эпизодов, что конкретный персонаж очень интересен аудитории. Таким образом, эпизоды, посвященные этому персонажу, можно показывать вместо других.
[00142] Также или дополнительно, некоторые ранее подготовленные эпизоды могут иметь множественные наборы сцен, которые можно представлять, что позволяет адаптировать эпизод к аудитории (в целом или к различным группам) на основании этих медийных реакций. Таким образом медийные реакции можно использовать для определения будущих участков медийной программы, даже когда изменения происходят не в реальном времени.
[00143] В предыдущем рассмотрении описаны способы, относящиеся к определению будущего участка представляемой в данный момент медийной программы, а также к другим способам и методикам. Аспекты этих способов можно реализовать аппаратными средствами (например, в виде неизменяемой логической схемы), программно-аппаратными средствами, программными средствами, ручной обработкой или любой их комбинацией. Программная реализация представляет собой программный код, который осуществляет указанные задания при выполнении компьютерным процессором. Иллюстративные способы можно описать в общем контексте компьютерноисполняемых инструкций, которые могут включать в себя программное обеспечение, приложения, процедуры, программы, объекты, компоненты, структуры данных, процедуры, модули, функции и пр. Программный код может храниться в одном или более компьютерно-считываемых запоминающих устройств, локальных и/или удаленных по отношению к компьютерному процессору. Способы также могут осуществляться на практике в режиме распределенных вычислений множественными вычислительными устройствами. Кроме того, описанные здесь признаки являются независимыми от платформы и допускают реализацию на различных вычислительных платформах, имеющих разные процессоры.
[00144] Эти методики можно реализовать на одной или более из элементов, показанных на фиг. 1-3, 10, 13 и 16 (устройство 1600 описано ниже), которые можно дополнительно делить, объединять и т.д. Таким образом, эти фигуры демонстрируют некоторые из многих возможных систем или устройств, способных применять описанные методики. Элементы, показанные на этих фигурах, в целом представляют программное обеспечение, программно-аппаратное обеспечение (firmware), аппаратное обеспечение, целые устройства или сети или их комбинацию. В случае программной реализации, например, элементы (например, модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса, модуль 216 истории, модуль 220 рекламы и модуль 224 участка) представляют программный код, который осуществляет указанные задания при выполнении на процессоре (например, процессоре(ах) 204 и/или 306). Программный код может храниться в одном или более компьютерно-считываемых запоминающих устройств, например, CRM 206 и/или удаленном CRM 308 или на компьютерно-считываемых носителях 1614 данных, показанных на фиг. 16.
Иллюстративное устройство
[00145] Фиг. 16 демонстрирует различные компоненты иллюстративного устройства 1600, которое можно реализовать в виде любого типа клиента, сервера и/или вычислительного устройства описанного со ссылкой на предыдущие фиг. 1-15, для реализации методик определения будущего участка представляемой в данный момент медийной программы. В вариантах осуществления, устройство 1600 можно реализовать как одно или комбинацию проводных и/или беспроводных устройств, как разновидность мобильного вычислительного устройства, подключаемого к телевизору (например, телевизионной приставки, цифрового видеомагнитофона (DVR) и т.д.), устройства бытового назначения, компьютерного устройства, серверного устройства, портативного компьютерного устройства, пользовательского устройства, устройства связи, устройства обработки и/или визуализации видеозаписи, электробытового устройства, электронного устройства, однокристальной системы (SoC), и/или другого типа устройства или ее участка. Устройство 1600 также может быть связано с пользователем (например, человеком) и/или элементом, который оперирует устройством таким образом, что устройство описывает логические устройства, которые включают в себя пользователей, программное обеспечение, программно-аппаратное обеспечение и/или комбинацию устройств.
[00146] Устройство 1600 включает в себя устройства 1602 связи, которые обеспечивают проводную и/или беспроводную передачу аппаратных данных 1604 (например, принятых данных, принимаемых данных, данных запланированных для широковещания, пакетов данных и т.д.). Аппаратные данные 1604 или другой контент устройства могут включать в себя настройки конфигурации устройства, медиаконтент, хранящийся на устройстве (например, медийные программы 210), и/или информация, связанная с пользователем устройства. Медиаконтент, хранящийся на устройстве 1600, может включать в себя любой тип аудиосигнала, видеосигнала и/или данных изображения. Устройство 1600 включает в себя один или более входов 1606 данных, через которые могут приниматься любой тип данных, медиаконтент и/или вводы, например человеческая речь, вводы по выбору пользователя, сообщения, музыка, телевизионный медиаконтент, медийные реакции, записанный видеоконтент и аудиосигнал, видеосигнал и/или данных изображения любого другого типа, принятый от любого источника контента и/или данных.
[00147] Устройство 1600 также включает в себя интерфейсы 1608 связи, которые можно реализовать в виде любого одного или более из последовательного и/или параллельного интерфейса, беспроводного интерфейса, сетевого интерфейса любого типа, модема и в виде интерфейса связи любого другого типа. Интерфейсы 1608 связи обеспечивают соединение и/или линии связи между устройством 1600 и сетью связи, по которым другие электронные, вычислительные устройства и устройства связи обмениваются данными с устройством 1600.
[00148] Устройство 1600 включает в себя один или более процессоров 1610 (например, любой из микропроцессоров, контроллеров и пр.), которые обрабатывают различные компьютерноисполняемые инструкции для управления работой устройства 1600 и для осуществления методик определения будущего участка представляемой в данный момент медийной программы и других описанных здесь способов. Альтернативно или дополнительно, устройство 1600 можно реализовать в виде любого одного или комбинации аппаратного обеспечения, программно-аппаратного обеспечения или неизменяемой логической схемы, которая реализована совместно со схемами обработки и управления, которые в целом обозначены позицией 1612. Хотя это не показано, устройство 1600 может включать в себя системную шину или систему переноса данных, которая соединяет между собой различные компоненты в устройстве. Системная шина может включать в себя любую одну или комбинацию разных шинных структур, например, шину памяти или контроллер памяти, периферийную шину, универсальную последовательную шину и/или процессор или локальную шину, которая использует любую из различных шинных архитектур.
[00149] Устройство 1600 также включает в себя компьютерно-считываемые носители 1614 данных, например, одно или более запоминающих устройств, которые обеспечивают постоянное и/или нетранзиторное хранение данных (т.е., в отличие от простой передачи сигнала), примеры которых включают в себя оперативную память (ОЗУ), энергонезависимую память (например, любую одну или более из постоянной памяти (ПЗУ), флэш-памяти, СППЗУ, ЭСППЗУ и т.д.) и дисковое запоминающее устройство. Дисковое запоминающее устройство можно реализовать в виде магнитного или оптического запоминающего устройства любого типа, например, жесткого диска, записываемого и/или перезаписываемого компакт-диска (CD), цифрового универсального диска (DVD) любого типа и пр. Устройство 1600 также может включать в себя запоминающее устройство 1616 большой емкости.
[00150] Компьютерно-считываемые носители 1614 данных обеспечивает механизмы хранения данных для хранения аппаратных данных 1604, а также различных аппаратных приложений 1618 и любых других типов информации и/или данных, связанных с аспектами работы устройства 1600. Например, операционная система 1620 может поддерживаться как компьютерное приложение с компьютерно-считываемыми носителями 1614 данных, выполняемое на процессорах 1610. Аппаратные приложения 1618 могут включать в себя диспетчер устройств, например, управляющее приложение того или иного рода, прикладную программу, модуль обработки сигнала и управления, код, внутренне присущий конкретному устройству, уровень аппаратных абстракций для конкретного устройства и т.д.
[00151] Аппаратные приложения 1618 также включают в себя любые системные компоненты, машины или модули для реализации методик определения будущего участка представляемой в данный момент медийной программы. В этом примере, аппаратные приложения 1618 может включать в себя модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса, модуль 216 истории, модуль 220 рекламы, и/или модуль 224 участка.
Заключение
[00152] Хотя варианты осуществления методик и устройств для определения будущего участка представляемой в данный момент медийной программы были описаны применительно к признакам и/или способам, следует понимать, что объем, определяемый нижеследующей формулой изобретения, не обязан ограничиваться описанными конкретными признаками или способами. Напротив, конкретные признаки и способы раскрыты как иллюстративные реализации для определения будущего участка представляемой в данный момент медийной программы.

Claims (49)

1. Способ представления медийной программы, реализуемый вычислительным устройством, при этом способ содержит этапы, на которых:
посредством вычислительного устройства принимают в ходе представления первого участка медийной программы медийную реакцию на первый участок медийной программы, причем медийная реакция определяется на основе данных с датчиков, пассивно регистрируемых во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе того, что медийная реакция на первый участок медийной программы согласуется с контекстом для первого участка медийной программы, состояние увлеченности пользователя во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе истории реакций пользователя и в ответ на определение того, что пользователь пребывает в состоянии увлеченности во время первого участка медийной программы, будущий рекламный материал, каковой будущий рекламный материал:
имеет место во время более позднего участка медийной программы,
в ходе того же самого представления медийной программы и
выбирается из набора рекламных материалов на основе подобия первому участку медийной программы; и
посредством вычислительного устройства предписывают представлять будущий рекламный материал во время упомянутого более позднего участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
2. Способ по п.1, в котором медийная программа включает в себя прежде запланированный рекламный материал, при этом при упомянутом предписании будущий рекламный материал предназначен для того, чтобы заменять этот прежде запланированный рекламный материал будущим рекламным материалом.
3. Способ по п.1, в котором медийная реакция принимается от устройства представления медийных материалов, на котором представляется медийная программа, и упомянутое предписание представления будущего рекламного материала выполняется вычислительным устройством через сеть связи.
4. Способ по п.1, в котором упомянутое определение будущего рекламного материала дополнительно основывается на медийной реакции другого пользователя, демографической информации или информации о медийной программе.
5. Способ по п.1, дополнительно содержащий этап, на котором принимают другую медийную реакцию, каковая другая медийная реакция определяется на основе других данных с датчиков, регистрируемых на протяжении первого участка медийной программы и связанных с пользователем, отличающимся от пользователя, связанного с вышеупомянутой медийной реакцией, причем этот другой пользователь физически локален по отношению к упомянутому пользователю, при этом упомянутое определение будущего рекламного материала дополнительно основывается на упомянутой другой медийной реакции.
6. Способ по п.1, в котором медийная реакция принимается от элемента, являющегося локальным по отношению к устройству представления медийных материалов, на котором представляется медийная программа, и упомянутый набор рекламных материалов заблаговременно сохранен локально по отношению к устройству представления медийных материалов и связан с временным диапазоном в медийной программе, в котором должен представляться будущий рекламный материал.
7. Способ по п.1, в котором первым участком медийной программы является рекламный материал, и при упомянутом определении будущего рекламного материала будущий рекламный материал определяют на основе будущего рекламного материала, определяемого как более вероятно успешный, чем один или более других ранее подготовленных рекламных материалов из упомянутого набора рекламных материалов.
8. Способ по п.1, в котором контекст для медийной программы включает в себя время суток, в которое представляется первый участок медийной программы, или тип медийного материала, представляемого во время этого участка.
9. Способ по п.1, дополнительно содержащий этапы, на которых:
определяют на основе состояния увлеченности пользователя во время первого участка медийной программы будущий участок медийной программы, каковой будущий участок медийной программы имеет место во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы; и
предписывают представлять будущий участок медийной программы во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
10. Аппаратура для представления медийной программы, содержащая:
один или более компьютерных процессоров и
один или более машиночитаемых носителей, на которых хранятся инструкции, которыми, в ответ на их исполнение одним или более компьютерными процессорами, выполняются операции, содержащие:
прием в ходе представления первого участка медийной программы медийной реакции на первый участок медийной программы, причем медийная реакция определяется на основе данных с датчиков, пассивно регистрируемых во время первого участка медийной программы;
определение, на основе того, что медийная реакция на первый участок медийной программы согласуется с контекстом для первого участка медийной программы, состояния увлеченности пользователя во время первого участка медийной программы;
определение на основе истории реакций пользователя и в ответ на определение того, что пользователь пребывает в состоянии увлеченности во время первого участка медийной программы, будущего рекламного материала, каковой будущий рекламный материал:
должен иметь место во время более позднего участка медийной программы,
в ходе того же самого представления медийной программы и
выбирается из набора рекламных материалов на основе подобия первому участку медийной программы; и
предписание представлять будущий рекламный материал во время упомянутого более позднего участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
11. Аппаратура по п.10, при этом медийная программа включает в себя прежде запланированный рекламный материал, при этом при упомянутом предписании будущий рекламный материал предназначен для того, чтобы заменять этот прежде запланированный рекламный материал будущим рекламным материалом.
12. Аппаратура по п.10, при этом медийная реакция принимается от устройства представления медийных материалов, на котором представляется медийная программа, и упомянутое предписание представления будущего рекламного материала выполняется упомянутой аппаратурой, причем упомянутая аппаратура является удаленной по отношению к устройству представления медийных материалов.
13. Аппаратура по п.10, в которой упомянутое определение будущего рекламного материала дополнительно основывается на медийной реакции другого пользователя, демографической информации или информации о медийной программе.
14. Аппаратура по п.10, в которой операции дополнительно содержат прием другой медийной реакции, каковая другая медийная реакция определяется на основе других данных с датчиков, регистрируемых на протяжении первого участка медийной программы и связанных с пользователем, отличающимся от пользователя, связанного с вышеупомянутой медийной реакцией, причем этот другой пользователь физически локален по отношению к упомянутому пользователю, при этом упомянутое определение будущего рекламного материала дополнительно основывается на упомянутой другой медийной реакции.
15. Аппаратура по п.10, в которой операции дополнительно содержат представление посредством упомянутой аппаратуры медийной программы и прием от пользователя посредством упомянутой аппаратуры медийной реакции, при этом при упомянутом определении будущего рекламного материала будущий рекламный материал определяется из упомянутого набора рекламных материалов, который заблаговременно сохранен на упомянутых одном или более машиночитаемых носителях, каковой набор рекламных материалов связан с временным диапазоном в медийной программе, в котором должен представляться будущий рекламный материал.
16. Аппаратура по п.10, при этом первым участком медийной программы является рекламный материал, и при упомянутом определении будущего рекламного материала будущий рекламный материал определяется на основе будущего рекламного материала, определяемого как более вероятно успешный, чем один или более других ранее подготовленных рекламных материалов из упомянутого набора рекламных материалов.
17. Аппаратура по п.10, в которой операции дополнительно содержат:
определение на основе состояния увлеченности пользователя во время первого участка медийной программы будущего участка медийной программы, каковой будущий участок медийной программы имеет место во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы; и
предписание представлять будущий участок медийной программы во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
18. Способ представления медийной программы, реализуемый вычислительным устройством, при этом способ содержит этапы, на которых:
посредством вычислительного устройства принимают в ходе представления первого участка медийной программы медийную реакцию на первый участок медийной программы, причем медийная реакция определяется на основе данных с датчиков, пассивно регистрируемых во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе того, что медийная реакция на первый участок медийной программы не согласуется с контекстом для первого участка медийной программы, состояние неувлеченности пользователя во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе истории реакций пользователя и в ответ на определение того, что пользователь пребывает в состоянии неувлеченности во время первого участка медийной программы, будущий рекламный материал, каковой будущий рекламный материал:
имеет место во время более позднего участка медийной программы,
в ходе того же самого представления медийной программы и
выбирается из набора рекламных материалов на основе несхожести с первым участком медийной программы; и
посредством вычислительного устройства предписывают представлять будущий рекламный материал во время упомянутого более позднего участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
19. Способ по п.18, в котором контекст для медийной программы включает в себя время суток, в которое представляется первый участок медийной программы, или тип медийного материала, представляемого во время этого участка.
20. Способ по п.19, дополнительно содержащий этапы, на которых:
определяют на основе состояния неувлеченности пользователя во время первого участка медийной программы будущий участок медийной программы, каковой будущий участок медийной программы имеет место во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы; и
предписывают представлять будущий участок медийной программы во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
RU2014144369A 2012-05-04 2013-05-04 Определение будущего участка представляемой в данный момент медийной программы RU2646367C2 (ru)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CA2775700 2012-05-04
CA2775700A CA2775700C (en) 2012-05-04 2012-05-04 Determining a future portion of a currently presented media program
US13/482,867 US8959541B2 (en) 2012-05-04 2012-05-29 Determining a future portion of a currently presented media program
US13/482,867 2012-05-29
PCT/US2013/039591 WO2013166474A2 (en) 2012-05-04 2013-05-04 Determining a future portion of a currently presented media program

Publications (2)

Publication Number Publication Date
RU2014144369A RU2014144369A (ru) 2016-06-27
RU2646367C2 true RU2646367C2 (ru) 2018-03-02

Family

ID=46491919

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014144369A RU2646367C2 (ru) 2012-05-04 2013-05-04 Определение будущего участка представляемой в данный момент медийной программы

Country Status (11)

Country Link
US (2) US8959541B2 (ru)
EP (1) EP2845163A4 (ru)
JP (1) JP6291481B2 (ru)
KR (1) KR102068376B1 (ru)
AU (1) AU2013256054B2 (ru)
BR (1) BR112014026648A8 (ru)
CA (1) CA2775700C (ru)
MX (1) MX345058B (ru)
RU (1) RU2646367C2 (ru)
TW (1) TW201407516A (ru)
WO (1) WO2013166474A2 (ru)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US10116972B2 (en) * 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US8595781B2 (en) 2009-05-29 2013-11-26 Cognitive Media Networks, Inc. Methods for identifying video segments and displaying contextual targeted content on a connected television
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US9055309B2 (en) 2009-05-29 2015-06-09 Cognitive Networks, Inc. Systems and methods for identifying video segments for displaying contextually relevant content
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20130243270A1 (en) * 2012-03-16 2013-09-19 Gila Kamhi System and method for dynamic adaption of media based on implicit user input and behavior
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
CN104412607A (zh) * 2012-07-06 2015-03-11 Nec显示器解决方案株式会社 显示设备以及用于显示设备的控制方法
US9998789B1 (en) * 2012-07-27 2018-06-12 Dp Technologies, Inc. Audience interaction system
US10203839B2 (en) * 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US8769557B1 (en) * 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9344773B2 (en) * 2013-02-05 2016-05-17 Microsoft Technology Licensing, Llc Providing recommendations based upon environmental sensing
US11553228B2 (en) * 2013-03-06 2023-01-10 Arthur J. Zito, Jr. Multi-media presentation system
US20140325540A1 (en) * 2013-04-29 2014-10-30 Microsoft Corporation Media synchronized advertising overlay
US10297287B2 (en) 2013-10-21 2019-05-21 Thuuz, Inc. Dynamic media recording
US20150113551A1 (en) * 2013-10-23 2015-04-23 Samsung Electronics Co., Ltd. Computing system with content delivery mechanism and method of operation thereof
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9361005B2 (en) * 2013-12-27 2016-06-07 Rovi Guides, Inc. Methods and systems for selecting modes based on the level of engagement of a user
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9578358B1 (en) 2014-04-22 2017-02-21 Google Inc. Systems and methods that match search queries to television subtitles
CN104035982B (zh) * 2014-05-28 2017-10-20 小米科技有限责任公司 多媒体资源推荐方法及装置
US20160005013A1 (en) * 2014-07-03 2016-01-07 Syncbak, Inc. Real-time regional media syndication and delivery system
US9788062B2 (en) * 2014-08-29 2017-10-10 Sling Media Inc. Systems and processes for delivering digital video content based upon excitement data
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11863848B1 (en) 2014-10-09 2024-01-02 Stats Llc User interface for interaction with customized highlight shows
US10433030B2 (en) 2014-10-09 2019-10-01 Thuuz, Inc. Generating a customized highlight sequence depicting multiple events
US10419830B2 (en) 2014-10-09 2019-09-17 Thuuz, Inc. Generating a customized highlight sequence depicting an event
US10536758B2 (en) 2014-10-09 2020-01-14 Thuuz, Inc. Customized generation of highlight show with narrative component
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US9729915B2 (en) * 2014-10-31 2017-08-08 Paypal, Inc. Detecting user devices to determine state of watched show
JP2016110631A (ja) * 2014-12-02 2016-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. 状態推定装置、状態推定方法およびプログラム
EP3228117A4 (en) * 2014-12-04 2018-06-13 Cynny Inc. Systems and methods to present content
EP3251370A1 (en) 2015-01-30 2017-12-06 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US10904617B1 (en) * 2015-02-19 2021-01-26 Amazon Technologies, Inc. Synchronizing a client device with media content for scene-specific notifications
MX2017013128A (es) 2015-04-17 2018-01-26 Inscape Data Inc Sistemas y metodos para reducir densidad de los datos en grandes conjuntos de datos.
US9883241B2 (en) * 2015-05-17 2018-01-30 Surewaves Mediatech Private Limited System and method for automatic content recognition and audience measurement for television channels and advertisements
MX2018000567A (es) 2015-07-16 2018-04-24 Inscape Data Inc Deteccion de segmentos de medios comunes.
CN108351879B (zh) 2015-07-16 2022-02-18 构造数据有限责任公司 用于提高识别媒体段的效率的划分搜索索引的系统和方法
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
CN105491427B (zh) * 2015-11-24 2019-01-29 深圳创维-Rgb电子有限公司 一种智能电视的控制系统及其实现方法
US10142702B2 (en) * 2015-11-30 2018-11-27 International Business Machines Corporation System and method for dynamic advertisements driven by real-time user reaction based AB testing and consequent video branching
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11540009B2 (en) 2016-01-06 2022-12-27 Tvision Insights, Inc. Systems and methods for assessing viewer engagement
EP3400661A4 (en) 2016-01-06 2019-04-24 TVision Insights, Inc. SYSTEMS AND METHODS FOR EVALUATING A SPECTATOR COMMITMENT
US11012719B2 (en) * 2016-03-08 2021-05-18 DISH Technologies L.L.C. Apparatus, systems and methods for control of sporting event presentation based on viewer engagement
US10187694B2 (en) 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US10979472B2 (en) * 2016-09-29 2021-04-13 International Business Machines Corporation Dynamically altering presentations to maintain or increase viewer attention
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
TWI618040B (zh) * 2017-01-13 2018-03-11 Intelligent advertising vehicle with image recognition and its operation process
JP6269874B1 (ja) 2017-03-03 2018-01-31 ソニー株式会社 交換レンズ、撮像装置、およびカメラシステム
US10560508B2 (en) * 2017-03-15 2020-02-11 International Business Machines Corporation Personalized video playback
US11770574B2 (en) * 2017-04-20 2023-09-26 Tvision Insights, Inc. Methods and apparatus for multi-television measurements
US10904615B2 (en) * 2017-09-07 2021-01-26 International Business Machines Corporation Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed
JP7096470B2 (ja) * 2017-10-19 2022-07-06 株式会社電通 顧客情報管理サーバ及びプログラム
US10636449B2 (en) * 2017-11-06 2020-04-28 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
US10542314B2 (en) 2018-03-20 2020-01-21 At&T Mobility Ii Llc Media content delivery with customization
US11594028B2 (en) 2018-05-18 2023-02-28 Stats Llc Video processing for enabling sports highlights generation
US11507619B2 (en) 2018-05-21 2022-11-22 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US10965985B2 (en) 2018-05-21 2021-03-30 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11025985B2 (en) 2018-06-05 2021-06-01 Stats Llc Audio processing for detecting occurrences of crowd noise in sporting event television programming
US11264048B1 (en) 2018-06-05 2022-03-01 Stats Llc Audio processing for detecting occurrences of loud sound characterized by brief audio bursts
CN108737872A (zh) * 2018-06-08 2018-11-02 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
US10942979B2 (en) * 2018-08-29 2021-03-09 International Business Machines Corporation Collaborative creation of content snippets
US10812855B2 (en) * 2018-09-05 2020-10-20 International Business Machines Corporation Dynamic modification of media content in an internet of things (IoT) computing environment
KR20200054439A (ko) 2018-11-10 2020-05-20 송난나 나무를 알아가는 보드게임
US11574458B2 (en) * 2019-01-02 2023-02-07 International Business Machines Corporation Automated survey results generation from an image
US11064255B2 (en) * 2019-01-30 2021-07-13 Oohms Ny Llc System and method of tablet-based distribution of digital media content
US20200288204A1 (en) * 2019-03-05 2020-09-10 Adobe Inc. Generating and providing personalized digital content in real time based on live user context
US11190840B2 (en) * 2019-07-23 2021-11-30 Rovi Guides, Inc. Systems and methods for applying behavioral-based parental controls for media assets
US11019395B2 (en) * 2019-08-27 2021-05-25 Facebook, Inc. Automatic digital representations of events
WO2021061449A1 (en) 2019-09-27 2021-04-01 Qsinx Management Llc Content generation based on audience engagement
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11645578B2 (en) * 2019-11-18 2023-05-09 International Business Machines Corporation Interactive content mobility and open world movie production
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
JP7374056B2 (ja) * 2020-08-27 2023-11-06 グローブライド株式会社 魚釣用リール
US11503090B2 (en) 2020-11-30 2022-11-15 At&T Intellectual Property I, L.P. Remote audience feedback mechanism
CN114827702B (zh) * 2021-01-22 2023-06-30 腾讯科技(深圳)有限公司 视频推送方法、视频播放方法、装置、设备以及介质
US11425460B1 (en) 2021-01-29 2022-08-23 Rovi Guides, Inc. Selective streaming based on dynamic parental rating of content
US20220377413A1 (en) * 2021-05-21 2022-11-24 Rovi Guides, Inc. Methods and systems for personalized content based on captured gestures
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
JP7349231B1 (ja) 2022-09-14 2023-09-22 株式会社ビデオリサーチ ストリーム視聴解析システム、ストリーム視聴解析方法およびプログラム
JP7280454B1 (ja) * 2023-02-27 2023-05-23 株式会社トランザクション・メディア・ネットワークス 情報訴求程度情報推定システム、情報訴求程度情報推定装置の制御方法及び情報訴求程度情報推定装置の制御プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2138923C1 (ru) * 1992-12-09 1999-09-27 Дискавери Коммьюникейшнз, Инк. Устройство для системы распределения телевизионных программ и способ распределения телевизионных программ в системе распределения телевизионных программ
US20030093784A1 (en) * 2001-11-13 2003-05-15 Koninklijke Philips Electronics N.V. Affective television monitoring and control
US20050223237A1 (en) * 2004-04-01 2005-10-06 Antonio Barletta Emotion controlled system for processing multimedia data
US20090037945A1 (en) * 2007-07-31 2009-02-05 Hewlett-Packard Development Company, L.P. Multimedia presentation apparatus, method of selecting multimedia content, and computer program product
US20090195392A1 (en) * 2008-01-31 2009-08-06 Gary Zalewski Laugh detector and system and method for tracking an emotional response to a media presentation
US20100070987A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
RU2417113C2 (ru) * 2005-12-27 2011-04-27 Мэссив Инкорпорейтед Представление потокового видео, например, в среде видеоигр или мобильных устройств
US20120079521A1 (en) * 2010-09-23 2012-03-29 Garg Sharad K Incentivizing advertisement viewing and validating associated purchase

Family Cites Families (606)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US7831204B1 (en) 1981-11-03 2010-11-09 Personalized Media Communications, Llc Signal processing apparatus and methods
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
US4931865A (en) 1988-08-24 1990-06-05 Sebastiano Scarampi Apparatus and methods for monitoring television viewers
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ru) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5175641A (en) 1991-04-05 1992-12-29 International Business Machines Corporation Dual-mode laser diode transmitter
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5694162A (en) * 1993-10-15 1997-12-02 Automated Business Companies, Inc. Method for automatically changing broadcast programs based on audience response
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
JPH0863326A (ja) 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
TW399014B (en) 1994-08-31 2000-07-21 Nike Inc Laminated resilient flexible barrier membranes
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
JP3270264B2 (ja) 1994-10-19 2002-04-02 富士写真フイルム株式会社 放射線像変換パネルおよびその製造法
CA2202614A1 (en) 1994-10-25 1996-05-02 Taligent, Inc. Object-oriented system for servicing windows
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
DE19516664C1 (de) 1995-05-05 1996-08-29 Siemens Ag Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
DE69635891T2 (de) 1995-06-22 2006-12-14 3Dv Systems Ltd. Verbesserte optische kamera zur entfernungsmessung
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US7895076B2 (en) 1995-06-30 2011-02-22 Sony Computer Entertainment Inc. Advertisement insertion, profiling, impression, and feedback
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
JPH0981309A (ja) 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
EP0958002A4 (en) 1996-05-08 2001-03-28 Real Vision Corp REAL-TIME SIMULATION USING POSITION DETECTION
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
AU3954997A (en) 1996-08-14 1998-03-06 Nurakhmed Nurislamovich Latypov Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US20020120925A1 (en) 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US5904484A (en) 1996-12-23 1999-05-18 Burns; Dave Interactive motion training device and method
DE69826544T2 (de) 1997-03-05 2005-10-06 Matsushita Electric Industrial Co., Ltd., Kadoma Bildverarbeitungsgerät
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6750848B1 (en) 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP1017973A1 (en) 1997-09-24 2000-07-12 3DV Systems Ltd. Acoustical imaging system
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6411744B1 (en) 1997-10-15 2002-06-25 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
EP0919906B1 (en) 1997-11-27 2005-05-25 Matsushita Electric Industrial Co., Ltd. Control method
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6469714B2 (en) 1998-01-26 2002-10-22 International Business Machines Corporation Infocenter user interface for applets and components
EP1059970A2 (en) 1998-03-03 2000-12-20 Arena, Inc, System and method for tracking and assessing movement skills in multidimensional space
US7196720B2 (en) 1998-03-06 2007-03-27 Intel Corporation Method and apparatus for powering on an electronic device with a video camera that detects motion
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
JP3484085B2 (ja) * 1998-05-22 2004-01-06 株式会社リコー 放送型配信方法,その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体,およびコンテンツサーバ
US6181472B1 (en) 1998-06-10 2001-01-30 Robotic Vision Systems, Inc. Method and system for imaging an object with a plurality of optical beams
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7146627B1 (en) * 1998-06-12 2006-12-05 Metabyte Networks, Inc. Method and apparatus for delivery of targeted video programming
US6141010A (en) 1998-07-17 2000-10-31 B. E. Technology, Llc Computer interface method and apparatus with targeted advertising
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US7684570B2 (en) 1998-11-17 2010-03-23 Aamp Of America Vehicle remote control interface for controlling multiple electronic devices
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7134130B1 (en) 1998-12-15 2006-11-07 Gateway Inc. Apparatus and method for user-based control of television content
DE69840608D1 (de) 1998-12-16 2009-04-09 3Dv Systems Ltd Selbsttastende photoempfindliche oberfläche
US6466232B1 (en) 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6226388B1 (en) 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6377296B1 (en) 1999-01-28 2002-04-23 International Business Machines Corporation Virtual map system and method for tracking objects
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
DE69942663D1 (de) 1999-04-13 2010-09-23 Sony Deutschland Gmbh Zusammenfügen von Sprachschnittstellen zur gleichzeitigen Benützung von Vorrichtungen und Anwendungen
US6591236B2 (en) 1999-04-13 2003-07-08 International Business Machines Corporation Method and system for determining available and alternative speech commands
US20030141360A1 (en) 1999-04-22 2003-07-31 De Leo Stephen L. System and method for providing information and services to and from an automated teller machine
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US20070143715A1 (en) 1999-05-25 2007-06-21 Silverbrook Research Pty Ltd Method of providing information via printed substrate and gesture recognition
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6291816B1 (en) 1999-06-08 2001-09-18 Robotic Vision Systems, Inc. System and method for measuring object features with coordinated two and three dimensional imaging
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US6514081B1 (en) 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
DE69922706T2 (de) 1999-09-08 2005-12-08 3Dv Systems Ltd. 3d- bilderzeugungssystem
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7779439B2 (en) 2001-04-23 2010-08-17 Starz Entertainment, Llc Program guide environment
CA2387079C (en) 1999-10-19 2011-10-18 Sony Electronics Inc. Natural language interface control system
US6622119B1 (en) 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US6690618B2 (en) 2001-04-03 2004-02-10 Canesta, Inc. Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device
US7050177B2 (en) 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US20030021032A1 (en) 2001-06-22 2003-01-30 Cyrus Bamji Method and system to display a virtual input device
US20030132950A1 (en) 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
DE19960180B4 (de) 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
AU2248501A (en) 1999-12-17 2001-06-25 Promo Vu Interactive promotional information communicating system
US7028001B1 (en) 1999-12-27 2006-04-11 Motorola, Inc. System and method for measuring web page advertisement impressions
TW482987B (en) 2000-01-03 2002-04-11 Amova Company Automatic media editing system
US7146329B2 (en) 2000-01-13 2006-12-05 Erinmedia, Llc Privacy compliant multiple dataset correlation and content delivery system and methods
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
WO2001063916A1 (en) 2000-02-25 2001-08-30 Interval Research Corporation Method and system for selecting advertisements
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
GB0005727D0 (en) 2000-03-10 2000-05-03 Koninkl Philips Electronics Nv Television
WO2001069799A2 (en) 2000-03-16 2001-09-20 Creator Ltd. Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems
AU2001242320A1 (en) 2000-03-30 2001-10-15 Ideogramic Aps Method for gesture based modeling
US6778171B1 (en) 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6856827B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US20020108000A1 (en) 2000-05-04 2002-08-08 Marco Iori User recognition system for automatically controlling accesse, apparatuses and the like equipment
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
AU6262501A (en) 2000-05-29 2001-12-11 Vkb Inc. Virtual data entry device and method for input of alphanumeric and other data
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6873710B1 (en) 2000-06-27 2005-03-29 Koninklijke Philips Electronics N.V. Method and apparatus for tuning content of information presented to an audience
US7042442B1 (en) 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20090234718A1 (en) 2000-09-05 2009-09-17 Novell, Inc. Predictive service systems using emotion detection
JP4432246B2 (ja) 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20030036944A1 (en) 2000-10-11 2003-02-20 Lesandrini Jay William Extensible business method with advertisement research as an example
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
WO2002043391A1 (en) 2000-11-22 2002-05-30 Koninklijke Philips Electronics N.V. Method and apparatus for generating recommendations based on current mood of user
US20020072952A1 (en) 2000-12-07 2002-06-13 International Business Machines Corporation Visual and audible consumer reaction collection
DE60129591T2 (de) 2000-12-15 2008-04-17 E.I. Du Pont De Nemours And Co., Wilmington Aufnahmeelement zur einstellung des brennpunktes eines bilderzeugungslasers
ATE321422T1 (de) 2001-01-09 2006-04-15 Metabyte Networks Inc System, verfahren und software für die bereitstellung einer gezielten werbung durch benutzerprofildatenstruktur basierend auf benutzerpräferenzen
JP2002259720A (ja) 2001-03-02 2002-09-13 Internatl Business Mach Corp <Ibm> コンテンツ要約システム、映像要約システム、ユーザ端末、要約映像生成方法、要約映像受信方法、およびプログラム
JP3850671B2 (ja) * 2001-03-05 2006-11-29 シャープ株式会社 コンテンツ配信システムおよびそれに用いるサーバーおよびそれに用いるクライアント端末およびコンテンツ配信方法およびその方法をコンピュータに実行させるためのプログラムを記録した記録媒体
JP4371597B2 (ja) 2001-03-15 2009-11-25 シャープ株式会社 情報再生装置
US20020144259A1 (en) 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7313621B2 (en) 2001-05-15 2007-12-25 Sony Corporation Personalized interface with adaptive content presentation
US20020174445A1 (en) 2001-05-17 2002-11-21 Koninklijke Philips Electronics N.V. Video playback device with real-time on-line viewer feedback capability and method of operation
US7246329B1 (en) 2001-05-18 2007-07-17 Autodesk, Inc. Multiple menus for use with a graphical user interface
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US6594616B2 (en) 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US6795972B2 (en) 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US20030007018A1 (en) 2001-07-09 2003-01-09 Giovanni Seni Handwriting user interface for personal digital assistants and the like
US6868383B1 (en) 2001-07-12 2005-03-15 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
GB2379017A (en) 2001-07-27 2003-02-26 Hewlett Packard Co Method and apparatus for monitoring crowds
WO2003015056A2 (en) 2001-08-09 2003-02-20 Visual Interaction Gmbh Automated behavioral and cognitive profiling for training and marketing segmentation
FI115419B (fi) 2001-08-20 2005-04-29 Helsingin Kauppakorkeakoulu Informaatiopalveluiden käyttäjäkohtainen personointi
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US20030066071A1 (en) 2001-10-03 2003-04-03 Koninklijke Philips Electronics N.V. Program recommendation method and system utilizing a viewing history of commercials
US8079045B2 (en) 2001-10-17 2011-12-13 Keen Personal Media, Inc. Personal video recorder and method for inserting a stored advertisement into a displayed broadcast stream
US20030079226A1 (en) 2001-10-19 2003-04-24 Barrett Peter T. Video segment targeting using remotely issued instructions and localized state and behavior information
EP1306735A1 (en) 2001-10-25 2003-05-02 ABB Installationen AG Control of a meeting room
US20030081834A1 (en) 2001-10-31 2003-05-01 Vasanth Philomin Intelligent TV room
WO2003054683A2 (en) 2001-12-07 2003-07-03 Canesta Inc. User interface for electronic devices
JP2005512249A (ja) 2001-12-13 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メディアシステム上のメディアコンテンツの推薦
US20030112467A1 (en) 2001-12-17 2003-06-19 Mccollum Tim Apparatus and method for multimedia navigation
US6585521B1 (en) 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US6730913B2 (en) 2002-02-21 2004-05-04 Ford Global Technologies, Llc Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture
US7516447B2 (en) 2002-02-22 2009-04-07 Bea Systems, Inc. Methods and apparatus for building, customizing and using software abstractions of external entities
WO2003073359A2 (en) 2002-02-26 2003-09-04 Canesta, Inc. Method and apparatus for recognizing objects
JP3715584B2 (ja) 2002-03-28 2005-11-09 富士通株式会社 機器制御装置および機器制御方法
GB0207732D0 (en) 2002-04-03 2002-05-15 Ttpcomm Ltd Wireless communication terminals
US7203909B1 (en) 2002-04-04 2007-04-10 Microsoft Corporation System and methods for constructing personalized context-sensitive portal pages or views by analyzing patterns of users' information access activities
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
JP2005526971A (ja) 2002-04-19 2005-09-08 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. 車両安全装置
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US20040001616A1 (en) 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
US20040006477A1 (en) 2002-07-05 2004-01-08 Craner Michael L. Voice-controllable communication gateway for controlling multiple electronic and information appliances
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US8019121B2 (en) 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7058902B2 (en) 2002-07-30 2006-06-06 Microsoft Corporation Enhanced on-object context menus
US20090143141A1 (en) 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
WO2004017102A2 (en) 2002-08-16 2004-02-26 Brown University Research Foundation Scanning magnetic microscope having improved magnetic sensor
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
JP2004110453A (ja) 2002-09-19 2004-04-08 Sony Corp 携帯端末装置
AU2003275134A1 (en) 2002-09-19 2004-04-08 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
US7002560B2 (en) 2002-10-04 2006-02-21 Human Interface Technologies Inc. Method of combining data entry of handwritten symbols with displayed character data
EP1408443B1 (en) 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
US20040113933A1 (en) 2002-10-08 2004-06-17 Northrop Grumman Corporation Split and merge behavior analysis and understanding using Hidden Markov Models
US20030126593A1 (en) 2002-11-04 2003-07-03 Mault James R. Interactive physiological monitoring system
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US20060221081A1 (en) 2003-01-17 2006-10-05 Cohen Irun R Reactive animation
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7435941B2 (en) 2003-03-14 2008-10-14 Inphase Technologies, Inc. Methods for measuring optical characteristics by differential diffractive scanning
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US7290218B2 (en) 2003-04-03 2007-10-30 At&T Bls Intellectual Property, Inc. Method of providing a user interface for a digital cross-connect system
US7681149B2 (en) 2003-05-21 2010-03-16 Nokia Corporation User interface display for set-top box device
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
WO2005113099A2 (en) 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
WO2004111687A2 (en) 2003-06-12 2004-12-23 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7409639B2 (en) 2003-06-19 2008-08-05 Accenture Global Services Gmbh Intelligent collaborative media
JP4359755B2 (ja) * 2003-07-31 2009-11-04 ソニー株式会社 コンテンツ再生方法、コンテンツ再生装置、コンテンツ配信方法およびコンテンツ配信装置
US7214932B2 (en) 2003-08-20 2007-05-08 Xyratex Technology Limited Resonator method and system for distinguishing characteristics of surface features or contaminants
US7170605B2 (en) 2003-08-25 2007-01-30 Evan Francis Cromwell Active sensor and method for optical illumination and detection
EP1665778A2 (en) 2003-08-26 2006-06-07 Redshift Systems Corporation Infrared camera system
KR100493902B1 (ko) 2003-08-28 2005-06-10 삼성전자주식회사 콘텐츠 추천방법 및 시스템
JP2005084770A (ja) * 2003-09-05 2005-03-31 Sony Corp コンテンツ提供システムおよび方法、提供装置および方法、再生装置および方法、並びにプログラム
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
JP2005108108A (ja) 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7155305B2 (en) 2003-11-04 2006-12-26 Universal Electronics Inc. System and methods for home appliance identification and control in a networked environment
US7136709B2 (en) 2003-11-04 2006-11-14 Universal Electronics Inc. Home appliance control system and methods in a networked environment
US8196168B1 (en) 2003-12-10 2012-06-05 Time Warner, Inc. Method and apparatus for exchanging preferences for replaying a program on a personal video recorder
GB2410359A (en) 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005218025A (ja) 2004-02-02 2005-08-11 Matsushita Electric Ind Co Ltd 視聴中断位置記憶装置、再生装置、及び記録装置
EP1723596A1 (en) 2004-02-27 2006-11-22 Accenture Global Services GmbH System for individualized customer interaction
US7706616B2 (en) 2004-02-27 2010-04-27 International Business Machines Corporation System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout
US8949899B2 (en) 2005-03-04 2015-02-03 Sharp Laboratories Of America, Inc. Collaborative recommendation system
US7600119B2 (en) 2004-03-04 2009-10-06 Nec Corporation Data update system, data update method, data update program, and robot system
US20050215319A1 (en) 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7301527B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Feedback based user interface for motion controlled handheld devices
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US7600201B2 (en) 2004-04-07 2009-10-06 Sony Corporation Methods and apparatuses for viewing choices and making selections
JP4092697B2 (ja) 2004-04-07 2008-05-28 ソニー株式会社 情報処理装置および方法、プログラム並びに記録媒体
KR20060131981A (ko) 2004-04-15 2006-12-20 코닌클리케 필립스 일렉트로닉스 엔.브이. 사용자에 대해 특정 감정적 영향을 갖는 콘텐츠 항목을생성하는 방법
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7681141B2 (en) 2004-05-11 2010-03-16 Sony Computer Entertainment America Inc. Fast scrolling in a graphical user interface
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8050782B2 (en) 2004-05-20 2011-11-01 Abb Research Ltd. Method and system to retrieve and display technical data for an industrial device
US20060031264A1 (en) 2004-05-20 2006-02-09 Bea Systems, Inc. Synchronization protocol for occasionally-connected application server
US20050289582A1 (en) 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
JP2007073059A (ja) * 2004-07-07 2007-03-22 Defacto:Kk 広告システム、及び、広告結果記録方法
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
JP2006060626A (ja) * 2004-08-23 2006-03-02 Matsushita Electric Ind Co Ltd コマーシャル処理装置、およびコマーシャル視聴履歴管理システム
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
WO2006025137A1 (ja) 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
JP2006068315A (ja) 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US20060064481A1 (en) 2004-09-17 2006-03-23 Anthony Baron Methods for service monitoring and control
WO2006038779A1 (en) 2004-10-01 2006-04-13 Samsung Electronics Co., Ltd. Device and method for displaying event in wireless terminal
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
US7212665B2 (en) 2004-11-05 2007-05-01 Honda Motor Co. Human pose estimation with data driven belief propagation
US7346944B2 (en) 2004-11-05 2008-03-25 Mark Shaw Mattress monitoring system
US7814518B2 (en) 2004-11-23 2010-10-12 Palo Alto Research Center Incorporated Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content
US7870589B2 (en) 2004-11-23 2011-01-11 Palo Alto Research Center Incorporated Method for providing commentary audio and additional or replacement video content
US7217020B2 (en) 2004-11-24 2007-05-15 General Motors Corporation Headlamp assembly with integrated infrared illuminator
US20060123360A1 (en) 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7216053B2 (en) 2004-12-30 2007-05-08 Nokia Corporation Low power motion detector
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
KR100703693B1 (ko) 2005-01-13 2007-04-05 삼성전자주식회사 얼굴 인식 시스템 및 방법
JP3862027B2 (ja) 2005-01-25 2006-12-27 船井電機株式会社 放送信号受信システム
US20060184800A1 (en) 2005-02-16 2006-08-17 Outland Research, Llc Method and apparatus for using age and/or gender recognition techniques to customize a user interface
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
GB2423808B (en) 2005-03-04 2010-02-17 Ford Global Tech Llc Motor vehicle control system for controlling one or more vehicle devices
US20060218573A1 (en) 2005-03-04 2006-09-28 Stexar Corp. Television program highlight tagging
KR100688743B1 (ko) 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
US7643056B2 (en) 2005-03-14 2010-01-05 Aptina Imaging Corporation Motion detecting camera system
US7877703B1 (en) 2005-03-14 2011-01-25 Seven Networks, Inc. Intelligent rendering of information in a limited display environment
WO2006099597A2 (en) 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US8147248B2 (en) 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US20070214471A1 (en) 2005-03-23 2007-09-13 Outland Research, L.L.C. System, method and computer program product for providing collective interactive television experiences
US7487461B2 (en) 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
US7389591B2 (en) 2005-05-17 2008-06-24 Gesturetek, Inc. Orientation-sensitive signal output
US20060262116A1 (en) 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
US20060280055A1 (en) 2005-06-08 2006-12-14 Miller Rodney D Laser power control and device status monitoring for video/graphic applications
US7646960B2 (en) 2005-06-09 2010-01-12 International Business Machines Corporation Determining chapters based on presentation of a program
US20070033607A1 (en) 2005-08-08 2007-02-08 Bryan David A Presence and proximity responsive program display
TWI412392B (zh) 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
TW200713060A (en) 2005-09-30 2007-04-01 Primax Electronics Ltd Adaptive input method for touch screen
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7519201B2 (en) 2005-10-28 2009-04-14 Honda Motor Co., Ltd. Detecting humans via their pose
GB2431717A (en) 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US20070143787A1 (en) * 2005-12-19 2007-06-21 Cankaya Hakki C System and method for providing context-aware local advertising in IPTV systems
US20070140532A1 (en) 2005-12-20 2007-06-21 Goffin Glen P Method and apparatus for providing user profiling based on facial recognition
US20070150281A1 (en) 2005-12-22 2007-06-28 Hoff Todd M Method and system for utilizing emotion to search content
US20070150916A1 (en) 2005-12-28 2007-06-28 James Begole Using sensors to provide feedback on the access of digital content
US20070214292A1 (en) 2006-02-24 2007-09-13 Gillian Hayes System and method for archiving of continuous capture buffers
WO2007096893A2 (en) 2006-02-27 2007-08-30 Prime Sense Ltd. Range mapping using speckle decorrelation
US8321889B2 (en) 2006-03-08 2012-11-27 Kamfu Wong Method and system for personalized and localized TV ad delivery
US20070219430A1 (en) 2006-03-17 2007-09-20 Moore Barrett H Electricity Providing Privately Provisioned Subscription-Based Survival Supply Unit Method And Apparatus
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US8491159B2 (en) 2006-03-28 2013-07-23 Wireless Environment, Llc Wireless emergency lighting system
US8362713B2 (en) 2006-03-28 2013-01-29 Wireless Environment, Llc Wireless lighting devices and grid-shifting applications
US7568116B2 (en) 2006-04-14 2009-07-28 Clever Innovations, Inc. Automated display device
DE102006021414A1 (de) 2006-05-05 2007-11-08 Claudia Eisert Flexibles orthetisches Bekleidungsstück
EP2016562A4 (en) 2006-05-07 2010-01-06 Sony Computer Entertainment Inc METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME
US20070271580A1 (en) 2006-05-16 2007-11-22 Bellsouth Intellectual Property Corporation Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics
AU2007254220B2 (en) 2006-05-18 2012-03-29 The Nielsen Company (Us), Llc Methods and apparatus for cooperator installed meters
US7721207B2 (en) 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US7640304B1 (en) 2006-06-14 2009-12-29 Yes International Ag System and method for detecting and measuring emotional indicia
WO2007149341A2 (en) 2006-06-14 2007-12-27 Agent Science Technologies, Inc. System to associate a demographic to a user of an electronic system
JP2009543407A (ja) 2006-06-27 2009-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ テレビジョン番組への広告の挿入
CN101490762B (zh) 2006-07-12 2011-04-13 皇家飞利浦电子股份有限公司 用于播放音频-视频内容的设备和方法
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
TW200806029A (en) 2006-07-14 2008-01-16 Asustek Comp Inc Display system and control method thereof
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US20080027984A1 (en) 2006-07-31 2008-01-31 Motorola, Inc. Method and system for multi-dimensional action capture
US8775237B2 (en) 2006-08-02 2014-07-08 Opinionlab, Inc. System and method for measuring and reporting user reactions to advertisements on a web page
US20080052026A1 (en) 2006-08-23 2008-02-28 Qurio Holdings, Inc. Configuring a content capture device for one or more service providers
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
EP2063767A4 (en) 2006-09-05 2014-05-21 Innerscope Res Inc METHOD AND SYSTEM FOR DETERMINING THE RESPONSE OF A PUBLIC TO A SENSORY STIMULUS
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
WO2008032329A2 (en) 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
US8645973B2 (en) 2006-09-22 2014-02-04 Oracle International Corporation Mobile applications
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8287372B2 (en) 2006-09-28 2012-10-16 Mattel, Inc. Interactive toy and display system
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7806329B2 (en) 2006-10-17 2010-10-05 Google Inc. Targeted video advertising
KR100828371B1 (ko) 2006-10-27 2008-05-08 삼성전자주식회사 컨텐츠의 메타 데이터 생성 방법 및 장치
EP1919216A1 (en) 2006-10-30 2008-05-07 British Telecommunications Public Limited Company Personalised media presentation
US8102422B1 (en) 2006-11-22 2012-01-24 Amdocs Software Systems Limited System, method and computer program product for presenting an option to receive advertisement content
US20080124690A1 (en) 2006-11-28 2008-05-29 Attune Interactive, Inc. Training system using an interactive prompt character
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
CN101202994B (zh) 2006-12-14 2012-10-24 北京三星通信技术研究有限公司 辅助用户健身的方法和装置
KR100720335B1 (ko) 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
KR20080058740A (ko) 2006-12-22 2008-06-26 삼성전자주식회사 디지털 방송 수신 장치 및 시간 동기화 방법
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US9311528B2 (en) 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US20080163283A1 (en) 2007-01-03 2008-07-03 Angelito Perez Tan Broadband video with synchronized highlight signals
US7770136B2 (en) 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US20090070798A1 (en) 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US20080234023A1 (en) 2007-03-23 2008-09-25 Ajmal Mullahkhel Light game
CN101632053A (zh) 2007-04-03 2010-01-20 深圳Tcl新技术有限公司 根据运动探测进行系统功耗模式切换的系统和方法
US8390649B2 (en) 2007-04-30 2013-03-05 Hewlett-Packard Development Company, L.P. Electronic device input control system and method
US20090217315A1 (en) 2008-02-26 2009-08-27 Cognovision Solutions Inc. Method and system for audience measurement and targeting media
WO2008144575A2 (en) 2007-05-18 2008-11-27 Optiscan Biomedical Corporation Fluid injection and safety system
US20080310707A1 (en) 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
US8078787B2 (en) 2007-06-22 2011-12-13 Apple Inc. Communication between a host device and an accessory via an intermediate device
US8817061B2 (en) 2007-07-02 2014-08-26 Cisco Technology, Inc. Recognition of human gestures by a mobile phone
KR20090002809A (ko) 2007-07-04 2009-01-09 삼성전자주식회사 어플리케이션에서 생성된 데이터를 hdmi cec에 따라송수신하는 방법
EP2017707B1 (en) 2007-07-06 2017-04-12 Dassault Systèmes Widget of graphical user interface and method for navigating amongst related objects
US7865916B2 (en) 2007-07-20 2011-01-04 James Beser Audience determination for monetizing displayable content
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8081302B2 (en) 2007-08-17 2011-12-20 Princeton Satellite Systems, Inc. Multimode optical sensor
US8156118B2 (en) 2007-08-20 2012-04-10 Samsung Electronics Co., Ltd. Method and system for generating playlists for content items
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US8132187B2 (en) 2007-08-31 2012-03-06 Microsoft Corporation Driver installer usable in plural environments
US10091345B2 (en) 2007-09-04 2018-10-02 Apple Inc. Media out interface
KR101182286B1 (ko) 2007-09-19 2012-09-14 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
US7899777B2 (en) 2007-09-27 2011-03-01 Rockwell Automation Technologies, Inc. Web-based visualization mash-ups for industrial automation
EP2042969A1 (en) 2007-09-28 2009-04-01 Alcatel Lucent Method for determining user reaction with specific content of a displayed page.
US8522289B2 (en) 2007-09-28 2013-08-27 Yahoo! Inc. Distributed automatic recording of live event
US8151292B2 (en) 2007-10-02 2012-04-03 Emsense Corporation System for remote access to media, and reaction and survey data from viewers of the media
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US8776102B2 (en) 2007-10-09 2014-07-08 At&T Intellectual Property I, Lp System and method for evaluating audience reaction to a data stream
US20090106645A1 (en) 2007-10-17 2009-04-23 Thinkingcraft, Inc. Adaptive response/interpretive expression, communication distribution, and intelligent determination system and method
US8171035B2 (en) 2007-10-22 2012-05-01 Samsung Electronics Co., Ltd. Situation-aware recommendation using correlation
US8001108B2 (en) 2007-10-24 2011-08-16 The Invention Science Fund I, Llc Returning a new content based on a person's reaction to at least two instances of previously displayed content
US9292092B2 (en) 2007-10-30 2016-03-22 Hewlett-Packard Development Company, L.P. Interactive display system with collaborative gesture detection
US8094891B2 (en) 2007-11-01 2012-01-10 Sony Ericsson Mobile Communications Ab Generating music playlist based on facial expression
JP5844044B2 (ja) 2007-11-21 2016-01-13 クアルコム,インコーポレイテッド デバイスアクセス制御
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8471868B1 (en) 2007-11-28 2013-06-25 Sprint Communications Company L.P. Projector and ultrasonic gesture-controlled communicator
WO2009073634A1 (en) 2007-11-30 2009-06-11 Emsense Corporation Correlating media instance information with physiological responses from participating subjects
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US20090157472A1 (en) 2007-12-14 2009-06-18 Kimberly-Clark Worldwide, Inc. Personalized Retail Information Delivery Systems and Methods
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
WO2009086088A1 (en) 2007-12-21 2009-07-09 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8588816B2 (en) 2007-12-21 2013-11-19 Qualcomm Incorporated Systems and methods for targeted advertising on wireless devices based on device location and current user interests
TW200928892A (en) 2007-12-28 2009-07-01 Wistron Corp Electronic apparatus and operation method thereof
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8090030B2 (en) 2008-01-04 2012-01-03 Silicon Image, Inc. Method, apparatus and system for generating and facilitating mobile high-definition multimedia interface
US8646017B2 (en) 2008-01-14 2014-02-04 At&T Intellectual Property I, L.P. Method and apparatus for providing collaborative viewing of a media stream
US8166421B2 (en) 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8059111B2 (en) 2008-01-21 2011-11-15 Sony Computer Entertainment America Llc Data transfer using hand-held device
US7904530B2 (en) 2008-01-29 2011-03-08 Palo Alto Research Center Incorporated Method and apparatus for automatically incorporating hypothetical context information into recommendation queries
WO2009099296A2 (en) 2008-02-05 2009-08-13 Lg Electronics Inc. Virtual optical input device for providing various types of interfaces and method of controlling the same
JP2009186630A (ja) * 2008-02-05 2009-08-20 Nec Corp 広告配信装置
JP5259212B2 (ja) * 2008-02-26 2013-08-07 Kddi株式会社 音楽連動型広告配信方法、装置およびシステム
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
KR101365776B1 (ko) 2008-04-08 2014-02-20 엘지디스플레이 주식회사 멀티 터치 시스템 및 그 구동 방법
EP2108328B2 (de) 2008-04-09 2020-08-26 Brainlab AG Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
GB2459707B (en) 2008-05-01 2010-08-11 Sony Computer Entertainment Inc Media recorder, audio visual entertainment system and method
WO2009143294A2 (en) 2008-05-20 2009-11-26 Citrix Systems, Inc. Methods and systems for using external display devices with a mobile computing device
US7979590B2 (en) 2008-05-27 2011-07-12 Eyran Lida Multiple sink configuration supporting HDMI-CEC
US8477139B2 (en) 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
JP2009302751A (ja) 2008-06-11 2009-12-24 Sharp Corp 要約再生装置、要約再生方法、要約再生プログラム、および記録媒体
US9130684B2 (en) 2008-06-23 2015-09-08 Echostar Technologies L.L.C. Systems and methods for conserving energy in an entertainment system
JP2010016623A (ja) 2008-07-03 2010-01-21 Hitachi Ltd コンテンツ視聴システム
CN201247590Y (zh) 2008-08-01 2009-05-27 鸿富锦精密工业(深圳)有限公司 可自动切换显示模式的电子相框
US9269090B2 (en) 2008-08-18 2016-02-23 Nokia Technologies Oy Method, apparatus and computer program product for providing indications regarding recommended content
US8925001B2 (en) 2008-09-12 2014-12-30 At&T Intellectual Property I, L.P. Media stream generation based on a category of user expression
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
US8516561B2 (en) 2008-09-29 2013-08-20 At&T Intellectual Property I, L.P. Methods and apparatus for determining user authorization from motion of a gesture-based control unit
JP2010086356A (ja) 2008-09-30 2010-04-15 Nec Corp 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム
US20100086204A1 (en) 2008-10-03 2010-04-08 Sony Ericsson Mobile Communications Ab System and method for capturing an emotional characteristic of a user
US8544046B2 (en) 2008-10-09 2013-09-24 Packetvideo Corporation System and method for controlling media rendering in a network using a mobile device
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US9399167B2 (en) 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
US20100107184A1 (en) 2008-10-23 2010-04-29 Peter Rae Shintani TV with eye detection
US8040237B2 (en) 2008-10-29 2011-10-18 The Nielsen Company (Us), Llc Methods and apparatus to detect carrying of a portable audience measurement device
US9374617B2 (en) 2008-10-30 2016-06-21 Taboola.Com Ltd System and method for the presentation of alternative content to viewers video content
US8752087B2 (en) 2008-11-07 2014-06-10 At&T Intellectual Property I, L.P. System and method for dynamically constructing personalized contextual video programs
JP5489197B2 (ja) 2008-11-10 2014-05-14 九州日本電気ソフトウェア株式会社 電子広告装置・方法及びプログラム
JP5224360B2 (ja) * 2008-11-10 2013-07-03 日本電気株式会社 電子広告装置、電子広告方法及びプログラム
US20100138797A1 (en) 2008-12-01 2010-06-03 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
KR101531363B1 (ko) 2008-12-10 2015-07-06 삼성전자주식회사 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
US20100153984A1 (en) 2008-12-12 2010-06-17 Microsoft Corporation User Feedback Based Highlights of Recorded Programs
US20100161424A1 (en) 2008-12-22 2010-06-24 Nortel Networks Limited Targeted advertising system and method
JP4775671B2 (ja) 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8856829B2 (en) 2008-12-29 2014-10-07 Ngc Network Us, Llc Interactive display highlight systems, methods, and computer program products
US20100169157A1 (en) 2008-12-30 2010-07-01 Nokia Corporation Methods, apparatuses, and computer program products for providing targeted advertising
US20100169842A1 (en) 2008-12-31 2010-07-01 Microsoft Corporation Control Function Gestures
US20100191631A1 (en) 2009-01-29 2010-07-29 Adrian Weidmann Quantitative media valuation method, system and computer program
TW201032087A (en) 2009-02-19 2010-09-01 Asustek Comp Inc Command control system and method thereof
CN101833286A (zh) 2009-03-13 2010-09-15 王俊锋 一种智能家居控制器
US20100248832A1 (en) 2009-03-30 2010-09-30 Microsoft Corporation Control of video game via microphone
US9172482B2 (en) 2009-03-31 2015-10-27 At&T Intellectual Property I, L.P. Content recommendations based on personal preferences
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
CN101546248B (zh) 2009-05-05 2014-04-09 阿里巴巴集团控股有限公司 一种级联式选择菜单的呈现方法及装置
KR101567603B1 (ko) 2009-05-07 2015-11-20 엘지전자 주식회사 멀티 음성 시스템의 동작 제어 장치 및 방법
JP5299866B2 (ja) 2009-05-19 2013-09-25 日立コンシューマエレクトロニクス株式会社 映像表示装置
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8255955B1 (en) 2009-06-16 2012-08-28 Tivo Inc. Dynamic item highlighting system
US9594431B2 (en) 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
US20100332842A1 (en) 2009-06-30 2010-12-30 Yahoo! Inc. Determining a mood of a user based on biometric characteristic(s) of the user in an online system
US9445036B2 (en) 2009-06-30 2016-09-13 Rovi Guides, Inc. Methods and systems for content scheduling across multiple devices
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US20110016102A1 (en) 2009-07-20 2011-01-20 Louis Hawthorne System and method for identifying and providing user-specific psychoactive content
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP5397081B2 (ja) 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
US8326002B2 (en) 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US7873849B2 (en) 2009-09-02 2011-01-18 Apple Inc. Motion sensor data processing using various power management modes
WO2011030357A1 (en) 2009-09-08 2011-03-17 Telecom Italia S.P.A. Method for exploring a catalog of digital information contents
US8275834B2 (en) 2009-09-14 2012-09-25 Applied Research Associates, Inc. Multi-modal, geo-tempo communications systems
US8875167B2 (en) 2009-09-21 2014-10-28 Mobitv, Inc. Implicit mechanism for determining user response to media
US20110084983A1 (en) 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
US20110077719A1 (en) 2009-09-30 2011-03-31 Broadcom Corporation Electromagnetic power bio-medical unit
KR20110045565A (ko) * 2009-10-27 2011-05-04 한국전자통신연구원 광고 서비스 제공 방법
KR101647722B1 (ko) 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8627230B2 (en) 2009-11-24 2014-01-07 International Business Machines Corporation Intelligent command prediction
CN105141871A (zh) 2009-12-04 2015-12-09 Tivo有限公司 多功能多媒体设备
US20110145040A1 (en) 2009-12-16 2011-06-16 Microsoft Corporation Content recommendation
KR20110076458A (ko) 2009-12-29 2011-07-06 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US8719776B2 (en) 2009-12-30 2014-05-06 Foneclay, Inc. System for creation and distribution of software applications usable on multiple mobile device platforms
US10356465B2 (en) 2010-01-06 2019-07-16 Sony Corporation Video system demonstration
US20110173589A1 (en) 2010-01-13 2011-07-14 Microsoft Corporation Cross-Browser Interactivity Testing
CN101777250B (zh) 2010-01-25 2012-01-25 中国科学技术大学 家用电器的通用遥控装置及方法
JP5609160B2 (ja) 2010-02-26 2014-10-22 ソニー株式会社 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体
US20110216059A1 (en) 2010-03-03 2011-09-08 Raytheon Company Systems and methods for generating real-time three-dimensional graphics in an area of interest
US9124651B2 (en) 2010-03-30 2015-09-01 Microsoft Technology Licensing, Llc Controlling media consumption privacy settings
US20110242305A1 (en) 2010-04-01 2011-10-06 Peterson Harry W Immersive Multimedia Terminal
JP5521727B2 (ja) 2010-04-19 2014-06-18 ソニー株式会社 画像処理システム、画像処理装置、画像処理方法及びプログラム
US20110263946A1 (en) 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US20110264531A1 (en) 2010-04-26 2011-10-27 Yahoo! Inc. Watching a user's online world
US9503786B2 (en) * 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US8966447B2 (en) 2010-06-21 2015-02-24 Apple Inc. Capturing and displaying state of automated user-level testing of a graphical user interface application
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US20110316845A1 (en) 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US20110320741A1 (en) 2010-06-28 2011-12-29 Nokia Corporation Method and apparatus providing for direct controlled access to a dynamic user profile
US8423912B2 (en) 2010-06-29 2013-04-16 Pourang Irani Selectable parent and submenu object display method with varied activation area shape
US9009339B2 (en) 2010-06-29 2015-04-14 Echostar Technologies L.L.C. Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content
US20120005632A1 (en) 2010-06-30 2012-01-05 Broyles Iii Paul J Execute a command
US8453176B2 (en) 2010-08-20 2013-05-28 Avaya Inc. OCAP/STB ACAP/satellite-receiver audience response/consumer application
US8499245B1 (en) 2010-08-24 2013-07-30 Amazon Technologies, Inc. Multi-source profiling for adaptive device operation
US9247205B2 (en) 2010-08-31 2016-01-26 Fujitsu Limited System and method for editing recorded videoconference data
US8949871B2 (en) 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
US20120084812A1 (en) 2010-10-04 2012-04-05 Mark Thompson System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20120109726A1 (en) 2010-10-30 2012-05-03 Verizon Patent And Licensing, Inc. Methods and Systems for Trigger-Based Updating of an Index File Associated with a Captured Media Content Instance
US9348417B2 (en) 2010-11-01 2016-05-24 Microsoft Technology Licensing, Llc Multimodal input system
US20120117015A1 (en) 2010-11-05 2012-05-10 Nokia Corporation Method and apparatus for providing rule-based recommendations
US8631473B2 (en) 2011-07-06 2014-01-14 Symphony Advanced Media Social content monitoring platform apparatuses and systems
JP4945675B2 (ja) 2010-11-12 2012-06-06 株式会社東芝 音響信号処理装置、テレビジョン装置及びプログラム
US8640021B2 (en) 2010-11-12 2014-01-28 Microsoft Corporation Audience-based presentation and customization of content
US20120174039A1 (en) 2011-01-05 2012-07-05 United Video Properties, Inc. Systems and methods for navigating through content in an interactive media guidance application
US20120209715A1 (en) 2011-02-11 2012-08-16 Microsoft Corporation Interaction with networked screen content via motion sensing device in retail setting
US20110145041A1 (en) 2011-02-15 2011-06-16 InnovatioNet System for communication between users and global media-communication network
EP2681921A2 (en) 2011-02-28 2014-01-08 Telefonaktiebolaget LM Ericsson (PUBL) Electronically communicating media recommendations responsive to preferences for an electronic terminal
US20120226981A1 (en) 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
KR20160084502A (ko) 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9088823B1 (en) 2011-04-29 2015-07-21 Amazon Technologies, Inc. Customized insertions into digital items
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US9026476B2 (en) 2011-05-09 2015-05-05 Anurag Bist System and method for personalized media rating and related emotional profile analytics
US20120304059A1 (en) 2011-05-24 2012-11-29 Microsoft Corporation Interactive Build Instructions
US20120304206A1 (en) 2011-05-26 2012-11-29 Verizon Patent And Licensing, Inc. Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9077458B2 (en) * 2011-06-17 2015-07-07 Microsoft Technology Licensing, Llc Selection of advertisements via viewer feedback
US20120324491A1 (en) 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
US20120330836A1 (en) 2011-06-24 2012-12-27 American Express Travel Related Services Company, Inc. Systems and methods for gesture-based interaction with computer systems
US9026948B2 (en) 2011-06-29 2015-05-05 Microsoft Technology Licensing, Llc Multi-faceted relationship hubs
US8368723B1 (en) 2011-07-14 2013-02-05 Google Inc. User input combination of touch and user position
WO2013019307A1 (en) 2011-08-04 2013-02-07 Thomson Licensing Content recommendation method and apparatus
US9933935B2 (en) 2011-08-26 2018-04-03 Apple Inc. Device, method, and graphical user interface for editing videos
US8959082B2 (en) 2011-10-31 2015-02-17 Elwha Llc Context-sensitive query enrichment
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US20130145385A1 (en) 2011-12-02 2013-06-06 Microsoft Corporation Context-based ratings and recommendations for media
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8943526B2 (en) 2011-12-02 2015-01-27 Microsoft Corporation Estimating engagement of consumers of presented content
US9100685B2 (en) * 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20130159555A1 (en) 2011-12-20 2013-06-20 Microsoft Corporation Input commands
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US20130268955A1 (en) 2012-04-06 2013-10-10 Microsoft Corporation Highlighting or augmenting a media program
US20130283162A1 (en) * 2012-04-23 2013-10-24 Sony Mobile Communications Ab System and method for dynamic content modification based on user reactions
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
CA2775814C (en) 2012-05-04 2013-09-03 Microsoft Corporation Advertisement presentation based on a current media reaction
JP6064544B2 (ja) 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
US9996974B2 (en) 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
US20150262412A1 (en) 2014-03-17 2015-09-17 Qualcomm Incorporated Augmented reality lighting with dynamic geometry
US9959675B2 (en) 2014-06-09 2018-05-01 Microsoft Technology Licensing, Llc Layout design using locally satisfiable proposals

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2138923C1 (ru) * 1992-12-09 1999-09-27 Дискавери Коммьюникейшнз, Инк. Устройство для системы распределения телевизионных программ и способ распределения телевизионных программ в системе распределения телевизионных программ
US20030093784A1 (en) * 2001-11-13 2003-05-15 Koninklijke Philips Electronics N.V. Affective television monitoring and control
US20050223237A1 (en) * 2004-04-01 2005-10-06 Antonio Barletta Emotion controlled system for processing multimedia data
RU2417113C2 (ru) * 2005-12-27 2011-04-27 Мэссив Инкорпорейтед Представление потокового видео, например, в среде видеоигр или мобильных устройств
US20090037945A1 (en) * 2007-07-31 2009-02-05 Hewlett-Packard Development Company, L.P. Multimedia presentation apparatus, method of selecting multimedia content, and computer program product
US20090195392A1 (en) * 2008-01-31 2009-08-06 Gary Zalewski Laugh detector and system and method for tracking an emotional response to a media presentation
US20100070987A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
US20120079521A1 (en) * 2010-09-23 2012-03-29 Garg Sharad K Incentivizing advertisement viewing and validating associated purchase

Also Published As

Publication number Publication date
CA2775700A1 (en) 2012-07-09
MX2014013427A (es) 2014-12-08
US20150128161A1 (en) 2015-05-07
MX345058B (es) 2017-01-16
WO2013166474A2 (en) 2013-11-07
AU2013256054B2 (en) 2019-01-31
US8959541B2 (en) 2015-02-17
JP6291481B2 (ja) 2018-03-14
KR20150013237A (ko) 2015-02-04
US20130298146A1 (en) 2013-11-07
EP2845163A2 (en) 2015-03-11
RU2014144369A (ru) 2016-06-27
TW201407516A (zh) 2014-02-16
WO2013166474A3 (en) 2014-10-23
US9788032B2 (en) 2017-10-10
EP2845163A4 (en) 2015-06-10
KR102068376B1 (ko) 2020-01-20
BR112014026648A2 (pt) 2017-06-27
CA2775700C (en) 2013-07-23
BR112014026648A8 (pt) 2021-05-25
JP2015521413A (ja) 2015-07-27
AU2013256054A1 (en) 2014-11-13

Similar Documents

Publication Publication Date Title
RU2646367C2 (ru) Определение будущего участка представляемой в данный момент медийной программы
CA2775814C (en) Advertisement presentation based on a current media reaction
US9154837B2 (en) User interface presenting an animated avatar performing a media reaction
US10798438B2 (en) Determining audience state or interest using passive sensor data
US20130268955A1 (en) Highlighting or augmenting a media program
US8898687B2 (en) Controlling a media program based on a media reaction
CN105339969B (zh) 链接的广告
US20140337868A1 (en) Audience-aware advertising
US20090313324A1 (en) Interactive viewing of media content
CN102346898A (zh) 自动定制广告生成系统
US20140325540A1 (en) Media synchronized advertising overlay
CN103383597A (zh) 确定当前呈现的媒体节目的未来部分
Kempeneers et al. What is the impact of sounds on the main key performance indicators of advertisement video?