RU2646367C2 - Определение будущего участка представляемой в данный момент медийной программы - Google Patents
Определение будущего участка представляемой в данный момент медийной программы Download PDFInfo
- Publication number
- RU2646367C2 RU2646367C2 RU2014144369A RU2014144369A RU2646367C2 RU 2646367 C2 RU2646367 C2 RU 2646367C2 RU 2014144369 A RU2014144369 A RU 2014144369A RU 2014144369 A RU2014144369 A RU 2014144369A RU 2646367 C2 RU2646367 C2 RU 2646367C2
- Authority
- RU
- Russia
- Prior art keywords
- media
- media program
- user
- during
- program
- Prior art date
Links
- 238000006243 chemical reaction Methods 0.000 claims abstract description 247
- 239000000463 material Substances 0.000 claims abstract description 167
- 238000000034 method Methods 0.000 claims abstract description 116
- 230000004044 response Effects 0.000 claims description 68
- 230000001737 promoting effect Effects 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 15
- 206010049976 Impatience Diseases 0.000 claims 1
- 230000003044 adaptive effect Effects 0.000 abstract 1
- 230000000694 effects Effects 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 238000012806 monitoring device Methods 0.000 description 25
- 230000005236 sound signal Effects 0.000 description 20
- 241001673526 Lydia Species 0.000 description 16
- 210000003128 head Anatomy 0.000 description 16
- 238000012360 testing method Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 241000234314 Zingiber Species 0.000 description 6
- 235000006886 Zingiber officinale Nutrition 0.000 description 6
- 235000008397 ginger Nutrition 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 235000013550 pizza Nutrition 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 239000012769 display material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000036387 respiratory rate Effects 0.000 description 2
- 230000007958 sleep Effects 0.000 description 2
- 230000009182 swimming Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- WVQBLGZPHOPPFO-LBPRGKRZSA-N (S)-metolachlor Chemical compound CCC1=CC=CC(C)=C1N([C@@H](C)COC)C(=O)CCl WVQBLGZPHOPPFO-LBPRGKRZSA-N 0.000 description 1
- 208000034723 Amelia Diseases 0.000 description 1
- 244000241257 Cucumis melo Species 0.000 description 1
- 235000015510 Cucumis melo subsp melo Nutrition 0.000 description 1
- 208000006586 Ectromelia Diseases 0.000 description 1
- 206010024503 Limb reduction defect Diseases 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/252—Processing of multiple end-users' preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q90/00—Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2668—Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/458—Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4667—Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6582—Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Marketing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Neurosurgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Computer Graphics (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Stored Programmes (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Изобретение относится к средствам осуществления вещания медийной программы. Технический результат заключается в расширении арсенала технических средств адаптивного изменения порядка следования медийной программы вещания. Предложен способ представления медийной программы, этапы которого предусматривают: прием первого участка медийной программы и медийной реакции на первый участок медийной программы, которая считывается с данных датчиков, пассивно регистрируемых во время первого участка медийной программы; определяют, что медийная реакция на первый участок медийной программы согласуется с контекстом для первого участка медийной программы; определяют предысторию увлеченности пользователя и увлеченность во время первого участка медийной программы, будущий рекламный материал, причем будущий рекламный материал выбирается из набора рекламных материалов на основе подобия первому участку медийной программы; и осуществляют отображение будущего рекламного материала во время более позднего участка медийной программы и в ходе того же самого представления медийной программы. 3 н. и 17 з.п. ф-лы, 16 ил.
Description
Предпосылки изобретения
[0001] В настоящее время, рекламодатели и поставщики медийных материалов часто тестируют рекламные материалы и другие медийные программы, прежде чем выпустить программу на большой экран. Например, поставщик медийных материалов может показывать малым аудиториям ситуационную комедию (ситком), после чего аудитория обеспечивает обратную связь в виде результатов анкетирования или информационных журналов ручного слежения. Однако эти анкеты и журналы часто бывают неточными. Например, аудитория может не вспомнить веселую шутку, прозвучавшую на третьей минуте двадцатичетырехминутной программы. И даже если результаты обладают достаточной точностью, размер аудитории обычно мал, что не позволяет надежно указывать, как будет принята программа после выпуска на большой экран.
[0002] Поставщики медийных материалов также могут тестировать программы посредством агрессивного биометрического тестирования аудитории в ходе представления программы в управляемой среде. Это тестирование может быть более точным, но размер аудитории часто бывает еще меньше, чем при тестировании с помощью анкет и журналов. И даже это тестирование может быть весьма неточным, отчасти в силу управляемой среды, в которой происходит тестирование - человек меньше склонен смеяться, находясь в звуковой комнате, пристегнутым к электрическим устройствам тестирования, чем расслабляясь у себя дома.
[0003] Кроме того, в любом из этих случаев, задержка по времени при изменении программы может быть существенной. Запись новой программы или изменение текущей программы может занять дни или недели, и даже когда все готово, измененную программу снова может потребоваться тестировать, в результате чего, выпуск программы дополнительно откладывается.
Сущность изобретения
[0004] В этом документе описаны методики и устройства для определения будущего участка представляемой в данный момент медийной программы. Методики и устройства могут принимать текущие медийные реакции одного человека или многих людей на представляемую в данный момент медийную программу и определять более поздние участки для представления в медийной программе на основании медийных реакций. В некоторых вариантах осуществления, например, программа может представляться в прямом эфире, реакции могут приниматься в ходе представления в прямом эфире, и изменения в программу могут вноситься оперативно (“на лету”) и в реальном времени на основании этих реакций. Кроме того, изменения могут быть общими или адаптированными к группе или конкретному человеку.
[0005] Это краткое изложение сущности изобретения предназначено для представления в упрощенной форме принципа определения будущего участка представляемой в данный момент медийной программы, который дополнительно описан ниже в подробном описании. Это краткое изложение сущности изобретения не призвано выявлять существенные признаки заявленного изобретения, а также не предназначена для использования при определении объема заявленного изобретения.
Краткое описание чертежей
[0006] Варианты осуществления методик и устройств для определения будущего участка представляемой в данный момент медийной программы описаны со ссылкой на следующие чертежи. Для обозначения аналогичных признаков и компонентов в чертежах используются одинаковые ссылочные позиции:
фиг. 1 демонстрирует иллюстративную среду, в которой можно реализовать методики определения будущего участка представляемой в данный момент медийной программы, а также другие методики.
Фиг. 2 - иллюстративное вычислительное устройство, локальное по отношению к аудитории, показанной на фиг. 1.
Фиг. 3 - пример удаленного вычислительного устройства, которое является удаленным по отношению к аудитории, показанной на фиг. 1.
Фиг. 4 демонстрирует иллюстративные способы определения медийных реакций на основе данных пассивного датчика.
Фиг. 5 демонстрирует временную диаграмму медийных реакций, причем медийными реакциями являются уровни интереса для одного пользователя и для сорока периодов времени в ходе представления медийной программы.
Фиг. 6 демонстрирует иллюстративные способы построения истории реакций.
Фиг. 7 демонстрирует иллюстративные способы представления рекламы на основании текущей медийной реакции, в том числе, путем определения того, какой рекламный материал из множественных потенциальных рекламных материалов представлять.
Фиг. 8 демонстрирует текущие медийные реакции на медийную программу на протяжении участка программы в ходе представления программы.
Фиг. 9 демонстрирует иллюстративные способы представления рекламы на основании текущей медийной реакции, в том числе, на основании предложений цены от рекламодателей.
Фиг. 10 демонстрирует модуль рекламы, показанный на фиг. 2 и 3, передающий информацию через сеть связи, показанную на фиг. 3, множественным рекламодателям.
Фиг. 11 демонстрирует способы представления рекламы на основании текущей медийной реакции, в том числе, непосредственно следующей за сценой, которая вызвала текущую медийную реакцию.
Фиг. 12 демонстрирует способы определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании текущей медийной реакции пользователя, определенной на основании данных датчика, пассивно регистрируемых в ходе представления медийной программы пользователю.
Фиг. 13 демонстрирует удаленное устройство, показанное на фиг. 3, в котором демографическая характеристика, участок истории реакций, текущая медийная реакция и информация о медийной программе принимается от вычислительного устройства, показанного на фиг. 2 и/или 3.
Фиг. 14 демонстрирует способы определения будущего участка представляемой в данный момент медийной программы, в том числе, когда будущий участок является ответом на запрашиваемую в явном виде медийную реакцию.
Фиг. 15 демонстрирует способы определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании медийных реакций множественных пользователей.
Фиг. 16 демонстрирует иллюстративное устройство, в котором можно реализовать методики определения будущего участка представляемой в данный момент медийной программы, а также другие методики.
Подробное описание
Обзор
[0007] В этом документе описаны методики и устройства для определения будущего участка представляемой в данный момент медийной программы. Эти методики и устройства позволяют изменять или определять участки медийной программы в ходе представления этой программы.
[0008] Рассмотрим, например, программу ситуационной комедии, представляемую многим тысячам зрителей. Предположим, что поставщик медийных материалов этой ситуационной комедии заранее подготовил множественные участки для представления в определенных местах ситуационной комедии - три разные сцены на девятнадцатой минуте и четыре разные финальные сцены в конце программы. Предложенные методики могут определять, на основании медийных реакций в ходе представления, какую из трех сцен представлять на девятнадцатой минуте, и какую из четырех разных сцен представлять в конце. Определение сцен, подлежащих представлению, может базироваться на многих медийных реакциях на предыдущую сцену, например, от тысяч зрителей, или базироваться на реакциях человека или демографической группы. Таким образом, методики могут изменять программу для каждого или адаптировать программу к группе или конкретному человеку. Таким образом, методики могут представлять сцену, имеющую физическую комедию, мужчинам в возрасте 18-34 лет на девятнадцатой минуте на основании реакции этой группы на предыдущую сцену, имеющую физическую комедию, представлять сцену, связанную с развитием персонажа, женщинам в возрасте 35-44 лет на основании реакции этой группы на предыдущую сцену, посвященную персонажу, и показывать всем аудиториям одну из четырех возможных концовок на основании различных реакций от всех групп, смотрящих в данный момент программу.
[0009] Это всего лишь один пример того, как можно осуществлять методики и/или устройства для определения будущего участка представляемой в данный момент медийной программы. Методики и/или устройства именуются здесь, по отдельности или совместно, “методиками” в соответствии с контекстом. Далее в этом документе будет рассмотрена иллюстративная среда, в которой можно реализовать методики, и затем различные иллюстративные способы, которые могут, но не обязаны, работать совместно с методиками. Некоторые из этих различных способов включают в себя способы регистрации реакций на медийные материалы, построения истории реакций для пользователя и представления рекламных материалов на основании текущих реакций. После этих различных способов, этот документ обращается к иллюстративным способам определения будущего участка представляемой в данный момент медийной программы.
Иллюстративная среда
[0010] На фиг. 1 показана иллюстративная среда 100 для приема данных датчика и определения медийных реакций на основании этих данных датчика. Эти медийные реакции можно использовать для определения будущего участка представляемой в данный момент медийной программы, а также для других целей. Методики могут использовать только эти медийные реакции или также другую информацию, например, демографические характеристики, истории реакций и информацию о медийной программе или ее участке.
[0011] Среда 100 включает в себя устройство 102 представления медийных материалов, устройство 104 мониторинга аудитории, модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса и пользовательский интерфейс 112.
[0012] Устройство 102 представления медийных материалов представляет медийную программу аудитории 114, состоящей из одного или более пользователей 116. Медийная программа может включать в себя, по отдельности или совместно, телешоу, кинофильм, музыкальную видеозапись, видеоклип, рекламу, блог, фотографию, веб-страницу, электронную книгу, электронный журнал, компьютерную игру, песню, твит или другие аудио и/или видео медийные материалы. Аудитория 114 может включать в себя одного или более пользователей 116, которые находятся в положениях, допускающих потребление медийной программы, представляемой устройством 102 представления медийных материалов и измерение устройством 104 мониторинга аудитории, по отдельности или в одной аудитории 114. В аудитории 114 показаны три пользователя: пользователь 116-1, пользователь 116-2 и пользователь 116-3.
[0013] Устройство 104 мониторинга аудитории способно осуществлять мониторинг аудитории 114 и сообщать данные датчика для аудитории 114 модулю 106 состояния и/или модулю 108 интереса (передача данных 118 датчика изображена стрелкой). Данные мониторинга могут регистрироваться пассивно, активно и/или в ответ на явный запрос.
[0014] Пассивно регистрируемые данные являются пассивными, поскольку не требуют активного участия пользователей в измерении этих пользователей. Активно регистрируемые данные включают в себя данные, записанные пользователями в аудитории, например, в виде рукописных журналов, и данные, регистрируемые от пользователей с помощью биометрических датчиков, носимых пользователями в аудитории. Данные датчика, регистрируемые в ответ на явный запрос, могут регистрироваться активно или пассивно. Одним примером является рекламный материал, который запрашивает, в ходе представления рекламного материала, чтобы пользователь поднял руку, если он хочет, получить купон на бесплатный образец продукта, высылаемый пользователю по почте. В таком случае, пользователь выражает реакцию, поднимая руку, хотя это можно регистрировать пассивно, не требуя от пользователя активного участия в измерении реакции. Методики регистрируют эту поднятую руку различными способами, изложенными ниже.
[0015] Данные датчика могут включать в себя данные, регистрируемые с использованием излучаемого света или других сигналов, отправляемых устройством 104 мониторинга аудитории, например, с помощью инфракрасного датчика, освещающего излучаемым инфракрасным светом пользователей или пространство аудитории (например, скамьи, стены и т.д.) и регистрирующего свет, который возвращается. Примеры данных датчика, измеряющих пользователя, и способов, которыми его можно измерять, более подробно описаны ниже.
[0016] Устройство 104 мониторинга аудитории может обрабатывать или не обрабатывать данные датчика до их предоставления модулю 106 состояния и/или модулю 108 интереса. Таким образом, данные датчика могут представлять собой или включать в себя первичные данные или обработанные данные, например: кадры RGB (красный, зеленый, синий); инфракрасные кадры данных; данные глубины; частоту сердечных сокращений; частоту дыхания; ориентацию или перемещение головы пользователя (например, координаты в трех измерениях, x, y, z, и три угла, тангажа, наклона и рысканья); ориентацию, перемещение или заграждение лица (например, глаз, носа и рта); ориентацию, перемещение или заграждение скелета; аудиосигнал, который может включать в себя информацию, указывающую ориентацию, достаточную для определения, от какого пользователя исходит аудиосигнал или непосредственно указывающую, какой пользователь говорил, или какие слова были произнесены, при наличии; тепловые показания, достаточные для определения или указания присутствия и положения одного из пользователей 116; и расстояние от устройства 104 мониторинга аудитории или устройства 102 представления медийных материалов. В ряде случаев устройство 104 мониторинга аудитории включает в себя инфракрасные датчики (веб-камеры, кинект-камеры), стереомикрофоны или направленные аудиомикрофоны, и тепловое считывающее устройство (помимо инфракрасных датчиков), хотя, дополнительно или альтернативно, можно использовать другие устройства регистрации.
[0017] Модуль 106 состояния принимает данные датчика и определяет, на основании данных датчика, состояния 120 пользователей 116 в аудитории 114 (указанные стрелкой). Пользователь может пребывать в состоянии, когда он: грустит, говорит, выражает недовольство, испуган, улыбается, хмурится, спокоен, удивлен, сердит, смеется, кричит, аплодирует, машет руками, выражает одобрение, отводит взгляд, глядит прямо, откидывается в кресле, подается вперед, спит или ушел, и пр.
[0018] Состояние разговора может представлять собой общее состояние, указывающее, что пользователь говорит, хотя оно также может включать в себя подкатегории на основании содержания речи, например, разговор о медийной программе (разговор по делу) или разговор, не связанный с медийной программой (разговор не по делу). Модуль 106 состояния может определять категорию разговора посредством распознавания речи.
[0019] Модуль 106 состояния может, дополнительно или альтернативно, определять, на основании данных датчика, количество пользователей, идентификатор пользователя и/или демографические данные (указанные позицией 122), или увлеченность (указанную позицией 124) в ходе представления. Идентификатор указывает уникальные идентификационные дынные одного из пользователей 116 в аудитории 114, например, Сьюзен Браун. Демографические данные характеризуют одного из пользователей 116, например, ростом 5 футов, 4 дюйма, ребенок младшего возраста, и мужского пола или женского пола. Увлеченность указывает, с какой вероятностью пользователь уделит внимание медийной программе, например на основании присутствия или ориентации головы этого пользователя. Увлеченность, в ряде случаев, может определяться модулем 106 состояния с помощью данных датчика более низкого разрешения или менее обработанными по сравнению с теми, которые используются для определения состояний. Даже в таком случае, увлеченность может быть полезна при измерении аудитории, либо самого по себе, либо для определения интереса пользователя с использованием модуль 108 интереса.
[0020] Модуль 108 интереса определяет, на основании данных 118 датчика и/или увлеченности или состояния пользователя (увлеченность/состояние указаны стрелкой 126) и информации о медийной программе (тип медийных материалов указан стрелкой 128), уровень 130 интереса этого пользователя (указанный стрелкой) к медийной программе. Модуль 108 интереса может определять, например, что множественные состояния смеха для медийной программы, которую следует воспринимать как серьезную драму, указывают низкий уровень интереса, и, напротив, что множественные состояния смеха для медийной программы, которую следует воспринимать как комедию, указывают высокий уровень интереса.
[0021] Как показано на фиг. 1, модуль 106 состояния и/или модуль 108 интереса обеспечивают демографическую характеристику/идентификатор 122, а также одну или более из следующих медийных реакций: увлеченность 124, состояние 120 и уровень 130 интереса, которые все указаны стрелками на фиг. 1. На основании одной или более из этих медийных реакций, модуль 106 состояния и/или модуль 108 интереса также может обеспечивать другой тип медийной реакции, тип общих медийных реакций на медийную программу, например, рейтинг (например, демонстрацию большого пальца или три звезды). В ряде случаев, однако, медийные реакции принимаются, и общие медийные реакции определяются альтернативно модулем 110 интерфейса.
[0022] Модуль 106 состояния и модуль 108 интереса могут быть локальными по отношению к аудитории 114, и, таким образом, устройству 102 представления медийных материалов и устройству 104 мониторинга аудитории, хотя это не требуется. На фиг. 2 показан иллюстративный вариант осуществления, где модуль 106 состояния и модуль 108 интереса локальны по отношению к аудитории 114. В ряде случаев, однако, модуль 106 состояния и/или модуль 108 интереса удалены от аудитории 114, что изображено на фиг. 3.
[0023] Модуль 110 интерфейса принимает медийные реакции и демографическую/идентификационную информацию и определяет или принимает некоторое указание, к какой медийной программе или ее участку относятся реакции. Модуль 110 интерфейса представляет, или предписывает представлять, медийную реакцию 132 на медийную программу через пользовательский интерфейс 112, хотя это не требуется. Эта медийная реакция может быть любой из вышеупомянутых реакций, некоторые из которых представлены на временной диаграмме, посредством аватара, указывающего реакцию, или видео- или аудиозаписи пользователя, сделанной в ходе реакции, один/одна или более из которых эффективно демонстрирует реакцию пользователя в ходе соответствующей медийной программы.
[0024] Модуль 110 интерфейса может быть локальным по отношению к аудитории 114, например в случаях, когда один пользователь просматривает свои собственные медийные реакции или медийные реакции члена семьи. Во многих случаях, однако, модуль 110 интерфейса принимает медийные реакции из удаленного источника.
[0025] Заметим, что данные 118 датчика могут включать в себя контекст, в котором пользователь реагирует на медийные материалы или текущий контекст для пользователя, для которого запрашиваются рейтинги или рекомендации для медийных материалов. Таким образом, устройство 104 мониторинга аудитории может обнаружить присутствие второго человека в комнате или иным образом в физической близости к первому человеку, что может быть контекстом для первого человека. Контексты также можно определять другими способами, описанными ниже со ссылкой на фиг. 2.
[0026] На фиг. 2 показано иллюстративное вычислительное устройство 202, локальное по отношению к аудитории 114. Вычислительное устройство 202 включает в себя устройство 102 представления медийных материалов, устройство 104 мониторинга аудитории, один или более процессоров 204 и компьютерно-считываемые носители данных (“CRM”) 206 или имеет доступ к ним.
[0027] CRM 206 включает в себя операционную систему 208, модуль 106 состояния, модуль 108 интереса, медийную(ые) программу(ы) 210, каждая из которых может включать в себя информацию 212 о программе или быть связана с ней, и участки 214, модуль 110 интерфейса, пользовательский интерфейс 112, модуль 216 истории, историю 218 реакций, модуль 220 рекламы, который может включать в себя множественные рекламные материалы 222, и модуль 224 участка.
[0028] Каждая из медийных программ 210 может иметь, включать в себя или быть связанной с информацией 212 о программе и участками 214. Информация 212 о программе может указывать название, заголовок, эпизод, автора или артиста, тип программы и другую информацию, в том числе, относящуюся к различным участкам в каждой медийной программе 210. Таким образом, информация 212 о программе может указывать, что одна из медийных программ 210 является музыкальной видеозаписью, включает в себя хоровой участок, который повторяется четыре раза, включает в себя четыре стихотворных участка, включает в себя участки на основании каждого визуального представления на протяжении песни, например, соло, подпевку, название музыкальной видеозаписи, имя композитора, год создания, разрешение и форматирование данных и т.д.
[0029] Участки 214 одной из медийных программ 210 составляют программу или, потенциально, могут использоваться для составления программы. Эти участки могут представлять конкретные временные диапазоны в медийной программе, хотя, альтернативно, они могут располагаться в программе на основании завершения предыдущего участка (даже если время завершения этого участка не обязательно установлено заранее). Примерами участков могут служить 15-секундные фрагменты, песня, воспроизводимая в радиоподобной программе, или сцена из кинофильма. Эти участки 214 могут располагаться и/или устанавливаться в конкретном порядке, и в этом случае один или более из участков 214 может заменяться модулем 224 участка в ответ на медийные реакции. Эти участки 214, альтернативно, могут быть заранее подготовлены, но без заранее заданного порядка. Таким образом, медийная программа, например, 30-секундный рекламный материал, может иметь ранее заданный первый десятисекундный участок, но иметь, например, пять альтернативных вторых участков по десять секунд, и пятнадцать альтернативных третьих участков по десять секунд. В таком случае, какой участок воспроизводится от одиннадцати до двадцати секунд, может определяться на основании медийной реакции человека на первый десятисекундный участок. Затем, на основании реакций одного или обоих из пользователей (или многих пользователей) на первый участок и второй, определяется воспроизведение третьего участка от двадцати одной до тридцати секунд.
[0030] Модуль 224 участка, как отчасти отмечено выше, принимает текущую медийную реакцию или реакции пользователя, группы пользователей или многих пользователей на участок одной из медийных программ 210. Эти медийные реакции могут включать в себя одно или более из увлеченностей 124, состояний 120 и уровней 130 интереса. На основании этих медийных реакций, модуль 224 участка может определять будущий участок представляемой в данный момент медийной программы, подлежащий представлению. Заметим, что это определение может осуществляться в реальном времени в ходе представления медийной программы, что позволяет еще эффективнее определять будущие участки коротких рекламных материалов на основании текущих реакций на более ранние участки того же представления рекламы. Эти будущие участки могут быть ранее сохранены локально или удаленно. Будущий участок, подлежащий представлению, может приниматься из локального хранилища или из удаленного источника, например одновременно, посредством потоковой передачи более поздних участков представляемой в данный момент медийной программы из удаленного источника. Как показано на фиг. 2 и 3, медийная программа 210, участки 214 и модуль 224 участка могут быть локальными или удаленными по отношению к вычислительному устройству 202 и, таким образом, пользователю или пользователям, имеющему(им) медийные реакции (например, пользователю 116-1 аудитории 114, показанной на фиг. 1).
[0031] Модуль 216 истории включает в себя историю 218 реакций или имеет доступ к ней. Модуль 216 истории может строить и обновлять историю 218 реакций на основании текущих реакций со стороны пользователя (или других, как отмечено ниже) на медийные программы. В ряде случаев модуль 216 истории определяет различные контексты для пользователя, хотя это может альтернативно определяться и приниматься от других элементов. Таким образом, в ряде случаев модуль 216 истории определяет время, место действия, погоду в месте действия и т.д., в ходе реакции пользователя на медийную программу или запроса рейтингов или рекомендаций для медийной программы. Модуль 216 истории может определять рейтинги и/или рекомендации для медийных материалов на основании текущего контекста для пользователя и истории 218 реакций. История 218 реакций, как отмечено здесь в другом месте, может использоваться совместно с медийными реакциями для определения будущих участков медийной программы для представления.
[0032] Модуль 220 рекламы принимает текущую медийную реакцию пользователя, например, одно или более из увлеченностей 124, состояний 120 или уровней 130 интереса. На основании этой текущей медийной реакции, модуль 220 рекламы может определять рекламный материал из множественных рекламных материалов 222 для представления пользователю. Модуль 220 рекламы может, дополнительно или альтернативно, предоставлять текущую медийную реакцию рекламодателям, принимать от рекламодателей предложения цены за право представлять рекламу, и затем предписывать представление рекламы пользователю. Этот рекламный материал может предварительно сохраняться как один из рекламных материалов 222 или приниматься одновременно, например, посредством потоковой передачи рекламы из удаленного источника в ответ на прилагаемое предложение цены, являющееся наивысшим предложением цены или другой структурой расценок, указывающей, что рекламный материал подлежит представлению. Заметим, что в любом из этих случаев, модуль 220 рекламы может быть локальным или удаленным по отношению к вычислительному устройству 202 и, таким образом, пользователю (например, пользователю 116-1 аудитории 114, показанной на фиг. 1).
[0033] Заметим, что в этом проиллюстрированном примере, элементы, в том числе, устройство 102 представления медийных материалов, устройство 104 мониторинга аудитории, модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса, модуль 216 истории, модуль 220 рекламы и модуль 224 участка, включены в единое вычислительное устройство, например, настольный компьютер, имеющий дисплей, обращенную вперед камеру, микрофоны, аудиовыход и пр. Однако все эти элементы могут существовать отдельно друг от друга или быть объединены друг с другом, образуя одно или несколько вычислительных устройств или иным образом. Как будет частично описано ниже, устройство 102 представления медийных материалов может быть объединено с устройством 104 мониторинга аудитории, но отделено от модуля 106 состояния, модуля 108 интереса, модуля 110 интерфейса, модуля 216 истории, модуля 220 рекламы или модуля 224 участка. Кроме того, все эти модули могут действовать на отдельных устройствах или объединяться в одном устройстве.
[0034] Как показано на фиг. 2, каждое вычислительное(ые) устройство(а) 202 может представлять собой одно или комбинацию из различных устройств, проиллюстрированных здесь шестью примерами: портативным компьютером 202-1, планшетным компьютером 202-2, смартфоном 202-3, телевизионной приставкой 202-4, настольным компьютером 202-5 и игровой системой 202-6, хотя также можно использовать другие вычислительные устройства и системы, например, телевизоры с вычислительными возможностями, нетбуки и сотовые телефоны. Заметим, что три из этих вычислительных устройств 202 включают в себя устройство 102 представления медийных материалов и устройство 104 мониторинга аудитории (портативный компьютер 202-1, планшетный компьютер 202-2, смартфон 202-3). Одно устройство не включает в себя, но осуществляет связь с устройством 102 представления медийных материалов и устройством 104 мониторинга аудитории (настольным компьютером 202-5). Два других не включают в себя устройство 102 представления медийных материалов и могут включать или не включать в себя устройство 104 мониторинга аудитории, например, в случаях, когда устройство 104 мониторинга аудитории включено в устройство 102 представления медийных материалов (телевизионную приставку 202-4 и игровую систему 202-6).
[0035] На фиг. 3 показан пример удаленного вычислительного устройства 302, удаленного по отношению к аудитории 114. Фиг. 3 также демонстрирует сеть 304 связи, через которую удаленное вычислительное устройство 302 осуществляет связь с устройством 104 мониторинга аудитории (не показано, но реализовано в вычислительном устройстве 202 или осуществляет связь с ним), модуль 110 интерфейса, модуль 216 истории (включающий в себя или не включающий в себя историю 218 реакций), модуль 220 рекламы (включающий в себя или не включающий в себя рекламные материалы 222) и модуль 224 участка, исходя из того, что эти элементы находятся в вычислительном устройстве 202, как показано на фиг. 2. Сеть 304 связи может представлять собой интернет, локальную сеть, глобальную сеть, беспроводную сеть, USB-концентратор, шину компьютера, другую сеть мобильной связи или их комбинацию.
[0036] Удаленное вычислительное устройство 302 включает в себя один или более процессоров 306 и удаленные компьютерно-считываемые носители данных (“удаленный CRM”) 308. Удаленный CRM 308 включает в себя модуль 106 состояния, модуль 108 интереса, медийную(ые) программу(ы) 210, каждая из которых может включать в себя информацию 212 о программе или быть связана с ней и/или участки 214, модуль 216 истории, историю 218 реакций, модуль 220 рекламы, рекламные материалы 222 и модуль 224 участка.
[0037] Заметим, что в этом проиллюстрированном примере, устройство 102 представления медийных материалов и устройство 104 мониторинга аудитории физически отделены от модуля 106 состояния и модуля 108 интереса, причем первые два локальны по отношению к аудитории, смотрящей медийную программу, и вторые два действуют удаленно. Таким образом, данные датчика передаются от устройства 104 мониторинга аудитории на один или оба из модуля 106 состояния и модуля 108 интереса, которые могут сообщаться между собой локально (фиг. 2) или удаленно (фиг. 3). Кроме того, будучи определены модулем 106 состояния и/или модулем 108 интереса, различные медийные реакции и другая информация могут передаваться на те же самые или другие вычислительные устройства 202 для приема модулем 110 интерфейса, модулем 216 истории, модулем 220 рекламы и/или модулем 224 участка. Таким образом, в ряде случаев первое из вычислительных устройств 202 может измерять данные датчика, передавать эти данные датчика на удаленное устройство 302, после чего удаленное устройство 302 передает медийные реакции на другое из вычислительных устройств 202, полностью через сеть 304.
[0038] Эти и другие возможности, а также способы действия и взаимодействия элементов, показанных на фиг. 1-3, более подробно изложены ниже. Эти элементы могут дополнительно делиться, объединяться и т.д. Среда 100, показанная на фиг. 1, и подробнее иллюстрации, приведенные на фиг. 2 и 3 демонстрируют некоторые из многих возможных сред, способных применять описанные методики.
Иллюстративные способы
Определение медийных реакций на основании данных пассивного датчика
[0039] На фиг. 4 показан способ 400 определения медийных реакций на основании данных пассивного датчика. Эти и другие описанные здесь способы показаны как наборы блоков, которые указывают осуществляемые операции, но не обязательно ограничиваются показанным порядком осуществления операций соответствующими блоками. В разделах нижеследующего описания могут быть рассмотрены среда 100, показанная на фиг. 1, и элементы, подробно показанные на фиг. 2-3, которые изображены только в порядке примера. Методики не ограничиваются операциями одного элемента или множественных элементов действующих на одном устройстве.
[0040] Блок 402 регистрирует или принимает данные датчика для аудитории или пользователя, причем данные датчика пассивно регистрируются в ходе представления медийной программы аудитории или пользователю. Эти данные датчика могут включать в себя контекст аудитории или пользователя, или контекст может приниматься отдельно.
[0041] Рассмотрим, например, случай, когда аудитория включает в себя трех пользователей 116, а именно, пользователей 116-1, 116-2 и 116-3, показанных на фиг. 1. Предположим, что устройством 102 представления медийных материалов является ЖК дисплей, снабженный громкоговорителями, посредством которого визуализируется медийная программа, и что дисплей осуществляет связь с телевизионной приставкой 202-4, показанной на фиг. 2. При этом устройство 104 мониторинга аудитории включает в себя обращенный вперед инфракрасный датчик высокого разрешения, датчик, основанный на цветовом формате "красный-зеленый-синий", и два микрофона, способные регистрировать звук и местоположение (например, направленная решетка), и это устройство объединено с телевизионной приставкой 202-4 или устройством 102 представления медийных материалов. Предположим также, что представляемая медийная программа 210 является мультфильм категории PG под названием Incredible Family, который передается в потоковом режиме из удаленного источника и через телевизионную приставку 202-4. Телевизионная приставка 202-4 представляет Incredible Family с шестью рекламными материалами, размещенными следующим образом: один в начале кинофильма, три в тройном блоке, и два в двойном блоке.
[0042] Данные датчика принимаются для всех трех пользователей 116 в аудитории 114; для этого примера рассмотрим первого пользователя 116-1. При этом предположим, что, в ходе представления Incredible Family, устройство 104 мониторинга аудитории измеряет, и затем обеспечивает на блоке 402, в различные моменты времени для пользователя 116-1 следующее:
Момент времени 1, ориентация головы 3 градуса, отсутствие или низкая амплитуда аудиосигнала.
Момент времени 2, ориентация головы 24 градуса, отсутствие аудиосигнала.
Момент времени 3, скелетное движение (руки), аудиосигнал высокой амплитуды.
Момент времени 4, скелетное движение (руки и туловище), аудиосигнал высокой амплитуды.
Момент времени 5, движение головы, изменение лицевых признаков (20%), аудиосигнал средней амплитуды.
Момент времени 6, подробные данные ориентации лица, отсутствие аудиосигнала.
Момент времени 7, скелетная ориентация (отсутствующая), отсутствие аудиосигнала.
Момент времени 8, ориентация лица, частота дыхания.
[0043] Блок 404 определяет, на основании данных датчика, состояние пользователя в ходе представления медийной программы. В ряде случаев блок 404 определяет вероятность для состояния или множественные вероятности для множественных состояний, соответственно. Например, блок 404 может достаточно достоверно определять состояние, но не с полной определенностью (например, с вероятностью 40%, что пользователь смеется). Блок 404 может, дополнительно или альтернативно, определять, что множественные состояния возможны на основании данных датчика, например, грустное или спокойное состояние, и вероятности для каждого из них (например, грустное состояние 65%, спокойное состояние 35%).
[0044] Блок 404 может, дополнительно или альтернативно, определять демографическую характеристику, идентификатор и/или увлеченность. Кроме того, способ 400 может пропускать блок 404 и переходить сразу к блоку 406, как описано ниже.
[0045] В данном примере, модуль 106 состояния принимает вышеперечисленные данные датчика и определяет следующие соответствующие состояния для пользователя 116-1:
Момент времени 1: глядит прямо.
Момент времени 2: отводит взгляд.
Момент времени 3: аплодирует.
Момент времени 4: выражает одобрение.
Момент времени 5: смеется.
Момент времени 6: улыбается.
Момент времени 7: ушел.
Момент времени 8: спит.
[0046] В момент времени 1 модуль 106 состояния определяет, на основании данных датчика, указывающих отклонение головы пользователя 116-1 на 3 градуса от направления взгляда прямо на ЖК дисплей и правило указывающее, что состояние прямого взгляда применяется для отклонений менее чем на 20 градусов (исключительно в порядке примера), что пользователь 116-1 находится в состоянии прямого взгляда на медийную программу. Аналогично, в момент времени 2, модуль 106 состояния определяет, что пользователь 116-1 отводит взгляд, поскольку отклонение превышает 20 градусов.
[0047] В момент времени 3, модуль 106 состояния определяет, на основании данных датчика, указывающих, что пользователь 116-1 совершает скелетное движение руками, и на основании высокой амплитуды аудиосигнала, что пользователь 116-1 аплодирует. Модуль 106 состояния может отличать аплодисменты от других состояний, например, выражения одобрения, на основании типа движения рук (для краткости не указанного выше). Аналогично, в момент времени 4, модуль 106 состояния определяет, что пользователь 116-1 выражает одобрение, на основании движения рук и аудиосигнала высокой амплитуды, приписываемого пользователю 116-1.
[0048] В момент времени 5, модуль 106 состояния определяет, на основании данных датчика, указывающих, что пользователь 116-1 имеет движение головы, изменения лицевых признаков на 20% и аудиосигнал средней амплитуды, что пользователь 116-1 смеется. Различные данные датчика можно использовать для того, чтобы отличать другие состояния, например, крик, на основании того, что аудиосигнал имеет среднюю амплитуду, а не высокую амплитуду, и изменений лицевых признаков, например, открывания рта и подъема обеих бровей.
[0049] На момент времени 6, устройство 104 мониторинга аудитории обрабатывает первичные данные датчика для обеспечения обработанных данных датчика, и в этом случае осуществляет обработку распознавания лиц для обеспечения подробных данных ориентации лица. В отсутствие аудиосигнала, модуль 106 состояния определяет, что подробные данные ориентации лица (в данном случае, приподнятые уголки губ, степень закрытия глаз веками), что пользователь 116-1 улыбается.
[0050] В момент времени 7, модуль 106 состояния определяет, на основании данных датчика, указывающих, что пользователь 116-1 совершает скелетное движение, перемещаясь от устройства 104 мониторинга аудитории, что пользователь 116-1 ушел. Данные датчика также могут указывать это напрямую, например, в случаях, когда устройство 104 мониторинга аудитории не регистрирует присутствие пользователя 116-1, больше не принимая ни показаний скелета или головы ни тепловой сигнатуры.
[0051] В момент времени 8, модуль 106 состояния определяет, на основании данных датчика, указывающих, что ориентация лица пользователя 116-1 не изменялась в течение определенного периода (например, глаза пользователя не моргали) и устойчивой, низкой частоты дыхания, что пользователь 116-1 спит.
[0052] Эти восемь показаний датчиков являются упрощенными примерами, приведенными в целях объяснения. Данные датчика могут включать в себя обширные данные, как отмечено здесь в другом месте. Кроме того, могут приниматься данные датчика, измеряющие аудиторию каждую долю секунды, тем самым, обеспечивая подробные данные для десятков, сотен и тысяч периодов в ходе представления медийной программы, из которых можно определять состояния или другие медийные реакции.
[0053] Возвращаясь к способу 400, блок 404 может определять демографическую характеристику, идентификационные данные и увлеченность, помимо состояния пользователя. Модуль 106 состояния может определять или принимать данные датчика, из которых следует определять демографическую характеристику и идентификационные данные, или принимать, от устройства 104 мониторинга аудитории, демографическую характеристику или идентификационные данные. Опять же, согласно данному примеру, данные датчика для пользователя 116-1 могут указывать, что пользователем 116-1 является Джон Браун, что пользователем 116-2 является Лидия Браун, и что пользователем 116-3 является Сьюзен Браун. Или данные датчика могут указывать, что пользователем 116-1 является, например, мужчина ростом шесть футов, четыре дюйма (на основании скелетной ориентации). Данные датчика могут приниматься с информацией, указывающей участки данных датчика, приписываемые по отдельности каждому пользователю в аудитории, или включать в себя ее. В этом настоящем примере, однако, предполагается, что устройство 104 мониторинга аудитории обеспечивает три набора данных датчика, причем каждый набор указывает идентификатор пользователя совместно с данными датчика.
[0054] Кроме того, на блоке 404, методики могут определять увлеченность аудитории или пользователя в аудитории. Как упомянуто, это определение может быть менее точным, чем определение состояний пользователя, но, тем не менее, полезно. Предположим, для вышеприведенного примера, что данные датчика принимаются для пользователя 116-2 (Лидии Браун) и что эти данные датчика включают в себя только ориентацию головы и скелета:
Момент времени 1, ориентация головы 0 градусов, скелетная ориентация верхней части торса впереди нижней части торса.
Момент времени 2, ориентация головы 2 градуса, скелетная ориентация верхней части торса впереди нижней части торса.
Момент времени 3, ориентация головы 5 градусов, скелетная ориентация верхней части торса приблизительно вровень с нижней частью торса.
Момент времени 4, ориентация головы 2 градуса, скелетная ориентация верхней части торса позади нижней части торса.
Момент времени 5, ориентация головы 16 градусов, скелетная ориентация верхней части торса позади нижней части торса.
Момент времени 6, ориентация головы 37 градусов, скелетная ориентация верхней части торса позади нижней части торса.
Момент времени 7, ориентация головы 5 градусов, скелетная ориентация верхней части торса впереди нижней части торса.
Момент времени 8, ориентация головы 1 градус, скелетная ориентация верхней части торса впереди нижней части торса.
[0055] Модуль 106 состояния принимает эти данные датчика и определяет следующие соответствующие показатели увлеченности для Лидии Браун:
Момент времени 1: увлеченность высокая.
Момент времени 2: увлеченность высокая.
Момент времени 3: увлеченность выше средней.
Момент времени 4: увлеченность средняя.
Момент времени 5: увлеченность ниже средней.
Момент времени 6: увлеченность низкая.
Момент времени 7: увлеченность высокая.
Момент времени 8: увлеченность высокая.
[0056] В моменты времени 1, 2, 7 и 8, модуль 106 состояния определяет, на основании данных датчика, указывающих отклонение головы пользователя 116-2 5 градусов или менее от направления взгляда прямо на ЖК дисплей и скелетную ориентацию верхней части торса впереди нижней части торса (указывающую, что Лидия подалась вперед к представлению медийных материалов), что Лидия сильно увлечена Incredible Family в эти моменты времени.
[0057] В момент времени 3, модуль 106 состояния определяет, что уровень увлеченности Лидии упал, поскольку Лидия уже не подается вперед. В момент времени 4, модуль 106 состояния определяет, что увлеченность Лидии дополнительно упала до среднего уровня, на основании того, что Лидия откидывается назад, даже хотя все еще смотрит почти прямо на Incredible Family.
[0058] В моменты времени 5 и 6, модуль 106 состояния определяет, что увлеченность Лидии ослабевает, падая до уровня ниже среднего и затем до низкого, на основании того, что Лидия по-прежнему откидывается назад и смотрин немного в сторону (16 градусов) и затем значительно в сторону (37 градусов), соответственно. Заметим, что в момент времени 7 Лидия быстро возвращается к высокой увлеченности, в чем, конечно, заинтересованы авторы медийных материалов, и это говорит о том, что содержание возбуждает или иным образом захватывает ее.
[0059] Способ 400 может переходить от блока 402 сразу к блоку 406, или от блока 404 к блоку 406 или блоку 408. При переходе к блоку 406 от блока 404, методики определяют уровень интереса на основании типа представляемых медийных материалов и увлеченности или состояния пользователя. При переходе к блоку 406 от блока 402, методики определяют уровень интереса на основании типа представляемых медийных материалов и данных датчика пользователя, без необходимости первоначального или независимого определения увлеченности или состояния пользователя.
[0060] Опять же, согласно вышеприведенным примерам для пользователей 116-1 и 116-2, предположим, что блок 406 принимает состояния, определенные модулем 106 состояния на блоке 404 для пользователя 116-1 (Джона Брауна). На основании состояний для Джона Брауна и информации о медийной программе, модуль 108 интереса определяет уровень интереса, либо в целом, либо в зависимости от времени, для Incredible Family. При этом предположим, что Incredible Family является одновременно приключенческой и комедийной программой, причем участки кинофильма помечены как имеющие один из этих типов медийных материалов. Для простоты, предположим, что моменты времени 1 и 2 помечены как комедия, моменты времени 3 и 4 помечены как приключение, моменты времени 5 и 6 помечены как комедия, и что моменты времени 7 и 8 помечены как приключение. Пересматривая состояния, определенные модулем 106 состояния, снова рассмотрим следующее:
Момент времени 1: глядит прямо.
Момент времени 2: отводит взгляд.
Момент времени 3: аплодирует.
Момент времени 4: выражает одобрение.
Момент времени 5: смеется.
Момент времени 6: улыбается.
Момент времени 7: ушел.
Момент времени 8: спит.
[0061] На основании этих состояний, модуль 106 состояния определяет на момент времени 1, что в момент времени 1 Джон Браун проявляет интерес к контенту ниже среднего - если бы это был тип приключения или драмы, модуль 106 состояния мог бы определить, что Джон Браун, напротив, сильно заинтересован. Однако, в данном случае, поскольку контент является комедийным и, таким образом, призван вызывать смех или аналогичное состояние, модуль 108 интереса определяет, что Джон Браун в момент времени 1 проявляет интерес ниже среднего. Аналогично, на момент времени 2, модуль 108 интереса определяет, что Джон Браун в момент времени 2 проявляет низкий интерес, поскольку находится в состоянии, когда он не только не смеется или не улыбается, но и отводит взгляд.
[0062] В моменты времени 3 и 4, модуль 108 интереса определяет, на основании приключенческого типа для этих моментов времени и состояний аплодисментов и выражения одобрения, что Джон Браун имеет высокий уровень интереса. В момент времени 6, на основании комедийного типа и улыбки Джона Брауна, что он имеет средний интерес в этот момент времени.
[0063] В моменты времени 7 и 8, модуль 108 интереса определяет, что Джон Браун имеет очень низкий интерес. При этом тип медийных материалов является приключенческим, хотя в этом случае модуль 108 интереса определил бы уровень интереса Джона Брауна как очень низкий для большинства типов контента.
[0064] Как легко заметить, рекламодателям, поставщикам медийных материалов и авторам медийных материалов выгодно знать увлеченность или уровень интереса пользователя. Предположим в данном случае, что уровень интереса обеспечивается в зависимости от времени для Incredible Family, совместно с демографической информацией о Джоне Брауне. На основании этой информации от многочисленных демографически аналогичных пользователей, автор медийных материалов может сделать вывод, что взрослые мужчины проявляют интерес к части приключенческого контента, но большинство комедийных участков им не интересно, по крайней мере, для этой демографической группы.
[0065] Рассмотрим, в порядке более конкретного примера, фиг. 5, где показана временная диаграмма 500, имеющая уровни 502 интереса для сорока периодов 504 времени на протяжении участка медийной программы. Предположим в данном случае, что медийной программой является кинофильм, который включает в себя другие медийные программы - рекламные материалы - в периоды времени с 18 по 30. Модуль 108 интереса определяет, как показано, что пользователь начинает со среднего уровня интереса, и затем переходит между средним и выше среднего, высоким и очень высоким уровнями интереса к периоду времени 18. В ходе представления первого рекламного материала, который охватывает периоды времени с 18 по 22, модуль 108 интереса определяет, что пользователь имеет средний низкий уровень интереса. Однако для периодов времени с 23 по 28, модуль 108 интереса определяет, что пользователь имеет очень низкий уровень интереса (поскольку он отводит взгляд и разговаривает или, например, покидает комнату). Однако для последнего рекламного материала, который охватывает период времени с 28 по 32, модуль 108 интереса определяет, что пользователь имеет средний уровень интереса для периодов времени с 29 по 32 - большинства рекламных материалов.
[0066] Это может быть ценной информацией - пользователь остается на первый рекламный материал, уходит в течение среднего рекламного материала и начале последнего рекламного материала и возвращается, со средним интересом, в течение большей части последнего рекламного материала. Следует обратить внимание на отличие в разрешении и точности интереса с некоторыми традиционными подходами, которые, вероятно, не обеспечивают информации о том, сколько людей, смотревших кинофильм, действительно смотрели рекламные материалы, какие из них, и с какой степенью интереса. Если этот пример является общей тенденцией для зрительской публики, цены на рекламные материалы в середине блока будут снижаться, и цены на другие рекламные материалы также будут корректироваться. Или же, рекламодатели и поставщики медийных материалов могут прийти к выводу о необходимости воспроизводить более короткие блоки рекламы, имеющие, например, только два рекламных материалов. Уровни 502 интереса также обеспечивают ценную информацию об участках самого кинофильма, например, на основании очень высокого уровня интереса в период времени 7 (например, особенно захватывающей сцены кинофильма) и спада интереса в периоды времени 35-38.
[0067] Заметим, что, в ряде случаев, уровни увлеченности, хотя и полезны, могут быть менее полезными или точными, чем состояния и уровни интереса. Например, модуль 106 состояния может определять, исходя только из уровней увлеченности, что пользователь не увлечен, если лицо пользователя заграждено (блокировано) и, таким образом, не смотрит на медийную программу. Если лицо пользователя заблокировано руками этого пользователя (скелетная ориентация), и аудиосигнал указывает аудиосигнал высокой громкости, модуль 106 состояния, при определении состояний, может определить, что пользователь кричит. Состояние крика указывает, наряду с контентом, относящимся к жанру ужасов или триллера, очень высокий уровень интереса. Это всего лишь один пример, демонстрирующий, что уровень интереса может заметно отличаться от уровня увлеченности.
[0068] Как упомянуто выше, способ 400 может переходить от блока 402 сразу к блоку 406. В таком случае, модуль 108 интереса, самостоятельно или совместно с модулем 106 состояния, определяет уровень интереса на основании типа медийных материалов (в том числе, множественных типов медийных материалов для разных участков медийной программы) и данных датчика. В порядке примера, модуль 108 интереса может определять, что для данных датчика для Джона Брауна в момент времени 4, которые указывают скелетное движение (рук и туловища) и аудиосигнал высокой амплитуды, и типов комедии, спорта, конфликтного ток-шоу, приключенческой видеоигры, твита или ужасов, что Джон Браун имеет высокий уровень интереса в момент времени 4. Напротив, модуль 108 интереса может определять, что для тех же самых данных датчика в момент времени 4 для драмы, мелодрамы или классической музыки, что Джон Браун имеет низкий уровень интереса в момент времени 4. Это можно осуществлять на основании данных датчика без первоначального определения уровня увлеченности или состояния, хотя это также может осуществляться.
[0069] Блок 408, после выполнения блока 404 или 406, обеспечивает демографическую характеристику, идентификационные данные, увлеченность, состояние и/или уровень интереса. Модуль 106 состояния или модуль 108 интереса может предоставлять эту информацию различным элементам, например, модулю 110 интерфейса, модулю 216 истории, модулю 220 рекламы и/или модулю 224 участка, а также другим.
[0070] Предоставление этой информации рекламодателю после представления рекламы, в которой определяется медийная реакция, позволяет рекламодателю эффективно измерять ценность его рекламных материалов, демонстрируемой в ходе представления медийной программы. Предоставление этой информации автору медийных материалов позволяет автору медийных материалов эффективно оценивать потенциальную ценность аналогичной медийной программы или ее участка. Например, автор медийных материалов, до выпуска медийной программы в свет, может определять участки медийной программы, которые не пользуются хорошим приемом, и, таким образом, изменяет медийную программу для ее улучшения.
[0071] Предоставление этой информации ранжирующей элементы позволяет ранжирующей элементы автоматически ранжировать медийную программу для пользователя. Прочие элементы, например контроллер воспроизведения медийных материалов, может использовать информацию для улучшения контроля и представления медийных материалов. Локальный контроллер может приостанавливать воспроизведение медийной программы, например, когда все пользователи в аудитории уходят из комнаты.
[0072] Предоставление медийных реакций модулю 216 истории может эффективно позволять модулю 216 истории строить и обновлять историю 218 реакций. Модуль 216 истории может строить историю 218 реакций на основании контекста или контекстов, где принимается каждый набор медийных реакций на медийную программу, или медийные реакции могут, полностью или частично, включать контекст в медийные реакции. Таким образом, контекст для медийной реакции, где пользователь смотрит телешоу в среду вечером после работы, можно изменить с учетом того, что пользователь может быть уставшим после работы.
[0073] Как упомянуто здесь, методики могут определять многочисленные состояния для пользователя в ходе большинства медийных программ, даже для 15-секундных рекламных материалов или видеофрагментов. В таком случае блок 404 повторяется, например, с односекундными периодами.
[0074] Кроме того, модуль 106 состояния может определять не только множественные состояния для пользователя в течение времени, но и разнообразные состояния в конкретный момент времени. Пользователь может, например, как смеяться, так и отводить взгляд, причем оба эти состояния можно определять и обеспечивать или использовать для определения уровня интереса пользователя.
[0075] Кроме того, модуль 106 состояния и/или модуль 108 интереса может определять увлеченность, состояния и/или уровни интереса на основании исторических данных, помимо данных датчика или типа медийных материалов. В одном случае исторические данные датчика пользователя используются для нормализации увлеченности, состояний или уровней интереса пользователя (например, динамически для текущей медийной реакции). Если, например, Сьюзен Браун смотрит медийную программу и данные датчика для нее принимаются, методики могут нормализоваться или иным образом обучаться, как лучше всего определять увлеченность, состояния и уровни интереса для нее, на основании ее исторических данных датчика. Если исторические данные датчика Сьюзен Браун указывают, что она не является особенно экспрессивным или вокальным пользователем, методики могут корректировать эту историю. Таким образом, аудиосигнала более низкой амплитуды может быть достаточно для определения, что Сьюзен Браун смеялась, по сравнению с аудиосигналом более высокой амплитуды, обычно используемым для определения, что пользователь смеялся.
[0076] В другом случае, исторические увлеченность, состояния или уровни интереса пользователя, для которого принимаются данные датчика, сравниваются с историческими увлеченностью, состояниями или уровнями интереса для других людей. Таким образом, более низкий уровень интереса можно определять для Лидии Браун на основании данных, указывающих, что она проявляет большой интерес почти к каждой медийной программе, которую она смотрит, по сравнению с уровнями интереса других людей (либо вообще, либо для той же медийной программы). В любом из этих случаев методики обучаются в зависимости от времени, что позволяет им нормализовать увлеченность, состояния и/или уровни интереса.
Способы построения истории реакций
[0077] Как упомянуто выше, методики могут определять увлеченность, состояние и/или уровень интереса пользователя для различных медийных программ. Кроме того, эти методики могут делать это с использованием данных пассивного или активного датчика. На основании этих медийных реакций, методики могут строить историю реакций для пользователя. Эту историю реакций можно использовать различными способами, изложенными здесь в другом месте.
[0078] На фиг. 6 показан способ 600 построения истории реакций на основании реакций пользователя на медийные программы. Блок 602 принимает наборы реакций пользователя, причем наборы реакций регистрируются в ходе представления множественных соответствующих медийных программ, и информацию о соответствующих медийных программах. На фиг. 5 изображен пример набора реакций на медийную программу, которые показаны в виде меры уровня интереса с течением времени, когда программа представлялась пользователю.
[0079] Информация о соответствующих медийных программах может включать в себя, например, название медийного материала (например, "Офис", эпизод 104) и его тип (например, песня, телешоу или рекламный материал), а также другую изложенную здесь информацию.
[0080] Помимо медийных реакций и соответствующих им медийных программ, блок 602 может принимать контекст для пользователя, в течение которого медийная программа представлялась вышеупомянутым образом.
[0081] Кроме того, блок 602 может принимать медийные реакции от других пользователей, с помощью которых можно построить историю реакций. Таким образом, модуль 216 истории может определять, на основании медийных реакций пользователя (либо частично, либо после построения первоначальной или предварительной истории реакций для пользователя), других пользователей, реакции которых аналогичны реакциям пользователя. Модуль 216 истории может определять других людей, реакции которых аналогичны реакциям пользователя, и использовать эти реакции других людей на программы, которые пользователь еще не видел или не слышал, для уточнения истории реакций для пользователя.
[0082] Блок 604 строит историю реакций для пользователя на основании наборов реакций для пользователя и информации о соответствующих медийных программах. Как упомянуто, блок 604 также может строить историю реакций пользователя с использованием историй реакций, контекстов, и т.д. других людей. Эту историю реакций можно использовать в другом месте здесь для определения программ, которые, вероятно, понравятся пользователю, рекламных материалов, которые, вероятно, будут эффективны при демонстрации пользователю, и в других указанных здесь целях.
Способы представления рекламных материалов на основании текущей медийной реакции
[0083] Как упомянуто выше, методики могут определять текущую медийную реакцию пользователя, например, увлеченность, состояние и/или уровень интереса. Нижеследующие способы позволяют использовать текущую медийную реакцию для определения рекламного материала, подлежащего представлению.
[0084] На фиг. 7 показан способ 700 представления рекламы на основании текущей медийной реакции, в том числе, путем определения, какой рекламный материал из множественных потенциальных рекламных материалов представлять.
[0085] Блок 702 принимает текущую медийную реакцию пользователя на медийную программу, причем медийная программа представляется в данный момент пользователю. Текущая медийная реакция может представлять собой реакцию того или иного вида на различные медийные материалы, например, смех в ответ на сцену комедии, одобрительные возгласы в ответ на спортивный успех в спортивной игре, показываемой в прямом эфире, танец в ответ на песню или музыкальную видеозапись, когда зритель проникается сюжетом драмы, внимательный просмотр рекламного ролика для кинофильма или разговор с другим человеком в комнате, также смотрящим, например, новостную программу. Медийная программа это программа, которая в данный момент представляется пользователю, например пользователю 116-1, показанному на фиг. 1, а не историческая медийная реакция, хотя могут использоваться история реакций или другие текущие медийные реакции, порожденные ранее в ходе той же медийной программы, помимо новейшей, текущей медийной реакции.
[0086] В порядке примера, рассмотрим фиг. 8, которая демонстрирует текущие медийные реакции на комедийную программу ("Офис", эпизод 104) на протяжении участка программы в ходе представления программы, показанные на временной диаграмме 800 состояний. Здесь показаны 23 медийные реакции 802, причем медийные реакции являются состояниями, принятыми модулем 220 рекламы от модуля 106 состояния, для пользователя по имени Амелия Понд. Для визуальной краткости, на временной диаграмме 800 состояний показано только четыре состояния, в которых пользователь смеется (обозначенное “”), улыбается (обозначенное “”), заинтересован (обозначенное “”), и ушел (обозначенное “X”).
[0087] Блок 704 определяет, на основании текущей медийной реакции на медийную программу, определенный рекламный материал из множественных потенциальных рекламных материалов. Блок 704 может определять, какой рекламный материал и когда показывать, на основании текущей медийной реакции, а также другой информации, например, истории реакций для пользователя (например, истории 218 реакций, показанной на фиг. 2, для Амелии Понд), контекста для текущей медийной реакции (например, находится ли Амелия Понд на солнце или только что возвратилась домой из школы), демографической характеристики пользователя (например, Амелия Понд является 16-летней девушкой, говорящей по-английски и проживающей в Сиэтле, Вашингтон, США), типа медийной программы (например, комедии) или медийной реакции другого пользователя, также принадлежащего аудитории (например, брат Амелии Понд, Кельвин Понд, реагировал определенным образом). Блок 704 может определять, какой рекламный материал показывать сразу после текущей медийной реакции, например, на последнюю сцену, показанную в программе, до показа рекламы, хотя, вместо этого, блок 704 также может использовать текущие медийные реакции, которые непосредственно не предшествовали рекламе, или использовать множественные текущие медийные реакции, например последние шесть медийных реакций, и т.д.
[0088] Согласно данному варианту осуществления, предположим, что текущей медийной реакцией является реакция 804, показанная на фиг. 8, в которой Амелия Понд смеется над текущей сценой шоу "Офис". Предположим также, что в конце сцены, которая заканчивается в 15 секунд, начинается первый рекламный блок 806. Этот первый рекламный блок 806 имеет длительность одну минуту и запланирован так, чтобы включать в себя два 30-секундных рекламных материала, один для рекламного материала №1808, и другой для рекламного материала №2810.
[0089] Предположим также для этого случая, что первый рекламодатель ранее приобрел право на рекламу №1808, и для этой рекламной паузы ранее обеспечил три разных потенциальных рекламных материала, один из которых будет воспроизводиться на основании текущей медийной реакции. Таким образом, модуль 220 рекламы сначала устанавливает, что в рекламных материалах 222, показанных на фиг. 2 или 3, существует три потенциальных рекламных материала, и каждый из них является подходящим. В данном случае рекламодатель заранее знает, что речь идет о программе "Офис", и конкретно об эпизоде 104. Предположим, что эта программа идет впервые, и, таким образом, другие медийные реакции других пользователей не были записаны для всей программы. Однако на основании информации о программе в целом, один рекламный материал указывается как подходящий для воспроизведения, если текущей медийной реакцией является смех или улыбка, одна, если реакцией является уход, и другая для всех остальных состояний. Предположим, что рекламодатель является крупным производителем автомобилей, и что первый рекламный материал (для смеющихся или улыбающихся) посвящен приятному, быстрому спортивному автомобилю, что второй, поскольку он будет воспроизводиться, если пользователь ушел из комнаты, является повторяющимся и сфокусированным на слуховом восприятии, начинается с достоинств производителя (например, автомобили Desoto быстры, автомобили Desoto приятны, автомобили Desoto являются выгодным приобретением) в надежде, что пользователь находится на расстоянии, где можно услышать рекламу, и третий посвящен популярному и практичному семейному автомобилю.
[0090] Заметим, что это относительно простой случай, использующий текущую медийную реакцию и отчасти основанный на типе программы или общей информации о программе. Альтернативно, рекламодатель может обеспечивать 20 рекламных материалов для многих текущих медийных реакций, а также демографической характеристики пользователя и истории реакций пользователя. Таким образом, модуль 220 рекламы может определять, что пять из 20 рекламных материалов потенциально подходят для пользователя мужского пола в возрасте от 34 до 50, и, таким образом, не включают в себя различные автомобили, продаваемые производителем, которые, в целом, не являются хорошими продавцами для мужчин этой возрастной группы. Модуль 220 рекламы также может определять, что две из пяти больше подходят, на основании истории реакций пользователя, указывающей, что он положительно отреагировал на шоу о рыбной ловле и шоу об автогонках и, таким образом, показывающей грузовики и внедорожники. Наконец, модуль 220 рекламы может определять, какую из этих двух представлять, на основании текущей медийной реакции пользователя, указывающей, что пользователь сильно увлечен программой, и, таким образом, показ рекламы грузовиков, которая вдается в детали о грузовиках, исходя из того, что пользователь достаточно внимателен, чтобы оценить эту детальную, а не менее детализированную, более стилистическую рекламу.
[0091] Блок 706 предписывает представление определенного рекламного материала в течение периода текущего представления, когда осуществляется представление медийной программы или сразу по завершении представления медийной программы. Блок 706 может предписывать представление определенного рекламного материала путем представления рекламы или путем указания представляющей элементы, например, устройству 102 представления медийных материалов, показанному на фиг. 2, что определенный рекламный материал подлежит представлению. Период текущего представления это промежуток времени, достаточный для представления медийной программы, но может включать в себя промежуток времени, достаточный для представления ранее определенного количества рекламных материалов или промежуток времени для представления рекламных материалов.
[0092] Заканчивая рассмотрение текущего варианта осуществления, касающегося Амелии Понд, вернемся к фиг. 8. В данном случае, модуль 220 рекламы, который предписывает устройству 102 представления медийных материалов, показанному на фиг. 2, представлять первый рекламный материал приятного, быстрого спортивного автомобиля на основании текущей медийной реакции Амелии, которой является смех.
[0093] Модуль 220 рекламы может основывать свое определение на медийных реакциях, отличных от самой недавней медийной реакции, являются ли эти реакции текущими реакциями на медийную программу, или периоде текущего представления медийной программы или других программ, например, тех, на которых базируется история реакций пользователя. Текущими медийными реакциями также могут быть те, которые принимаются для реакций в течение периода текущего представления, но не для программы. Таким образом, реакция пользователя на предыдущий рекламный материал, показанный в блоках рекламы в период текущего представления, также можно использовать для определения, какой рекламный материал представлять.
[0094] Способ 700 может повторяться, что позволяет выбирать рекламный материал №2810, по меньшей мере, отчасти на основании “состояния заинтересованности”, показанного в реакции 812 на рекламу. Таким образом, способ 700 может повторяться для различных рекламных материалов и текущих реакций в течение периода текущего представления, будь то реакции на программу или на рекламу.
[0095] Показаны также другие реакции на рекламу, вторая реакция 814 на рекламу, третья реакция 816 на рекламу для рекламного материала №3818 второго рекламного блока 820, и четвертая реакция на рекламу 822 для рекламного материала № 4 824. Заметим, что третий рекламный материал, определенный подлежащим представлению модулем 220 рекламы, базируется отчасти на состоянии 826 ухода, и что третий рекламный материал, определенный подлежащим представлению, базируется на том, что пользователь смеется над третьим рекламным материалом. Это всего лишь некоторые из многих примеров, когда текущие медийные реакции могут использоваться методиками определения рекламного материала, подлежащего представлению.
[0096] В необязательном порядке, методики могут определять расценки на рекламу на основании текущей медийной реакции на медийную программу. Таким образом, рекламный материал может стоить меньше, если пользователь в данный момент ушел, или больше, если пользователь в данный момент смеется или иным образом увлечен. Таким образом, методики способны устанавливать цены на рекламные материалы на основании медийных реакций, в том числе, независимо от предложенной рекламодателем цены на представление рекламы. В таком случае, методики могут представлять рекламные материалы на основании того, какой рекламодатель согласен или согласился с ценой, в отличие от структуры наивысшего предложения цены, или некоторой комбинации предложений цены и определенных расценок. Одним примером комбинации предложений цены и определенных расценок является цена открытия, установленная методиками на основании медийных реакций, и затем предложения цены от рекламодателей, предлагающих цены на основании цены открытия.
[0097] Также, в необязательном порядке, методики дают возможность пользователям в явном виде взаимодействовать с рекламным материалом. Рекламный материал может включать в себя явный запрос на запрашиваемую медийную реакцию, например для облегчения предложения. Таким образом, подробный рекламный материал грузовиков может включать в себя текст или аудиосигнал, предлагающий пользователю поднять руку, если он желает, чтобы подробный каталог продукции был отправлен на электронную почту или домашний адрес пользователя, или рекламный материал цепочки доставки пиццы магазинов может просить пользователя поддержать одобрительными возгласами 50%-ую скидку на доставку пиццы на дом для доставки во время прямой трансляции футбольного матча. Если пользователь поднимает руку, методики передают это состояние соответствующему рекламодателю, который затем может отправить обратно номер телефона для отображения в рекламе для локального хранилища пользователя совместно с кодом на 50%-ую скидку на пиццу.
[0098] На фиг. 9 показан способ 900 представления рекламы на основании текущей медийной реакции, в том числе, на основании предложений цены от рекламодателей.
[0099] Блок 902 обеспечивает рекламодателям текущую медийную реакцию пользователя на медийную программу, представляемую в данный момент пользователю. Блок 902 может обеспечивать текущую медийную реакцию как принятую или определенную различными вышеописанными способами, например, с помощью модуля 106 состояния, модуля 108 интереса и/или модуля 220 рекламы. Блок 902 также может обеспечивать другую информацию, например, историю реакций или ее участки для пользователя, демографическую информацию о пользователе, контекст, в котором медийная программа представляется пользователю, или информацию о медийной программе.
[00100] Рассмотрим, например, фиг. 10, которая иллюстрирует модуль 220 рекламы, предоставляющий, через сеть 304 связи, демографическую характеристику 1002, часть истории 1004 реакций, текущую медийную реакцию 1006 и информацию 1008 о медийной программе рекламодателям 1010 (которые, как показано, включают в себя первого, второго и третьего рекламодателей 1010-1, 1010-2 и 1010-3, соответственно).
[00101] При этом предполагается, что демографическая характеристика 1002 указывает, что пользователем является 33-летняя замужняя женщина, имеющая одного ребенка. Предположим также, что часть истории 1004 реакций указывает идентификационные данные пользователя, а именно Мелоди Понд, и то, что она отдает предпочтение научно-фантастическим программам, Олимпийским играм, и предыдущие положительные реакции на рекламные материалы для трейлеров кинофильмов, распродаж обуви и триатлона. Предположим в данном случае, что текущая медийная реакция 1006 указывает разочарование (грустное состояние), и что информация 1008 о медийной программе указывает, что программа представляет собой соревнование по плаванию, в последнем отрезке которой, текущей медийной реакцией на который было грустное состояние, было показано, что Майкл Фелпс уступил в международном соревновании по плаванию австралийскому пловцу Йену Торпу.
[00102] Блок 904 принимает предложения цены от рекламодателей, предложения цены на право осуществлять представление соответствующего рекламного материала пользователю в течение периода текущего представления, когда осуществляется представление медийной программы. Это может быть право представлять рекламу немедленно, например, сразу после окончания сцены или отрезка для текущей медийной реакции и до начала другого рекламного материала. Альтернативно, это может быть право на более поздний участок периода текущего представления, например, второй рекламный материал после сцены или, например, рекламный материал в блоке на пять минут позже.
[00103] Рассмотрим вышеприведенный пример, где пользователь пребывает в грустном состоянии непосредственно перед показом рекламы. Некоторые рекламодатели не очень заинтересованы в представлении рекламных материалов пользователю, находящемуся в этом состоянии, и поэтому предложение цены на право показа их рекламного материала ниже, тогда как другие предполагают, что их рекламные материалы более эффективно действуют на людей, находящихся в грустном состоянии. Кроме того, рекламодатели, вероятно, учитывают и устанавливают ценность, также на основании демографической характеристики пользователя, истории реакций и просматриваемой им программы. Например, рекламодатель, продающий страхование жизни или инвестиционные планы, с большей вероятностью предложат высокую цену за право показа непосредственно после грустного состояния и для человека, имеющего малолетних детей, чем рекламодатель, продающий продукты для чистки ковров.
[00104] В этом примере предполагается, что все три рекламодателя 1010 предлагают цены за право показа рекламных материалов и включают, с каждым предложением цены, информацию, достаточную для предписания модулю 220 рекламы представлять рекламу, например, в виде указателя рекламного материала из рекламных материалов 222 или универсального идентификатора ресурса, откуда следует извлечь рекламный материал.
[00105] Блок 906 предписывает представлять пользователю один из рекламных материалов, связанных с одним из предложений цены в течение периода текущего представления, когда осуществляется представление медийной программы. Блок 906 может по своему выбору показывать рекламный материал в ответ на определение, какое предложение цены является наивысшим, хотя наивысшее предложение цены не является обязательным. В заключение примера, модуль 220 рекламы предписывает представлять пользователю рекламный материал, связанный с наивысшим предложением цены.
[00106] Помимо вышеизложенных способов, методики могут обеспечивать количество дополнительных пользователей, присутствующих в ходе представления медийной программы, включающего в себя, в ряде случаев, их текущую медийную реакцию и т.д., тем самым, вероятно увеличивая размер предложений цены.
[00107] Кроме того, модуль 220 рекламы может принимать медийную реакция на показанный рекламный материал и, на основании реакции, снижать или повышать стоимость рекламного материала относительно предложения цены, сделанного для этого рекламного материала.
[00108] Способы 900 могут повторяться, полностью или частично, для более поздних рекламных материалов, в том числе, на основании текущих медийных реакций на предыдущие рекламные материалы, аналогично описанному в примерах способа 700.
[00109] На фиг. 11 показан способ 1100 представления рекламы на основании текущей медийной реакции, в том числе, непосредственно следующей за сценой, которая вызвала текущую медийную реакцию.
[00110] Блок 1102 определяет, на основании текущей медийной реакции на сцену медийной программы, представляемой пользователю, типа медийной программы и истории реакций, связанной с пользователем, определенный рекламный материал из множественных потенциальных рекламных материалов. Способы, которыми это может осуществляться, изложены выше. Заметим, что рекламодатель может делать предложение цены или предоплату на основании своего рекламного материала, представляемого после реакции определенного типа, например, пять центов за каждое размещение рекламы сразу после реакции смеха. Кроме того, если рекламные материалы не размещаются для каждого пользователя, но, напротив, размещаются целиком или по группам (например, для населения определенной географической области), предложения цены или предоплата могут, напротив, взвешиваться на основании доли положительных реакций и т.д.
[00111] Блок 1104 предписывает представление определенного рекламного материала сразу по завершении представления сцены медийной программы.
Способы определения будущего участка представляемой в данный момент медийной программы
[00112] Как упомянуто выше, методики могут определять текущую медийную реакцию пользователя, например, увлеченность, состояние и/или уровень интереса. Нижеследующие способы позволяют использовать текущую медийную реакцию для определения будущего участка для представления в ходе представляемой в данный момент медийной программы.
[00113] На фиг. 12 показан способ 1200 определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании текущей медийной реакции пользователя, определенной на основании данных датчика, пассивно регистрируемых в ходе представления медийной программы пользователю.
[00114] Блок 1202 принимает, в ходе представления медийной программы пользователю, текущую медийную реакцию пользователя на участок медийной программы, причем медийная реакция определяется на основании данных датчика, пассивно регистрируемых в ходе представления.
[00115] Как подробно описано здесь в другом месте, текущая медийная реакция может представлять собой реакцию того или иного вида на различные медийные материалы, например, смех в ответ на сцену комедии, одобрительные возгласы в ответ на спортивный успех в спортивной игре, показываемой в прямом эфире, танец в ответ на песню или музыкальную видеозапись, когда зритель проникается сюжетом драмы, внимательный просмотр рекламного ролика для кинофильма или разговор с другим человеком в комнате, также смотрящим, например, новостную программу. Медийная программа это программа, которая в данный момент представляется пользователю, например пользователю 116-1, показанному на фиг. 1, а не ранее представленная медийная программа, и, таким образом, реакция является исторической медийной реакцией. История реакций на основании исторических медийных реакций может использоваться совместно с текущей медийной реакцией, однако для определения будущих участков. Также, могут использоваться другие текущие медийные реакции, порожденные ранее в ходе той же медийной программы, дополнительно или альтернативно наиболее текущей медийной реакции.
[00116] Медийная реакция является текущей, поскольку принимается в ходе текущего представления медийной программы, но не обязана приниматься немедленно или мгновенно, или даже наиболее текущей медийной реакцией на медийную программу. Таким образом, текущая медийная реакция на четвертый участок медийной программы может приниматься в ходе шестого участка и использоваться для определения пятнадцатого участка, подлежащего представлению в медийной программе.
[00117] В порядке примера рассмотрим фиг. 13, которая иллюстрирует удаленное устройство 302, в котором реализован модуль 224 участка, принимающий демографическую характеристику 1302, участок истории 1304 реакций, текущую медийную реакцию 1306 и информацию о медийной программе 1308 от вычислительного устройства 202, показанного на фиг. 2. Модуль 224 участка принимает эти данные через сеть 304 связи и, в ответ, предписывает вычислительному устройству 202 представлять пользователю конкретный будущий участок медийной программы, связанный с этими данными.
[00118] Также в порядке примера, рассмотрим фиг. 8, которая демонстрирует текущие медийные реакции на комедийную программу ("Офис", эпизод 104) на протяжении участка программы в ходе представления программы, показанные на временной диаграмме 800 состояний. Хотя на фиг. 8 показано 23 медийных реакций 802 для 23 участков, для этого примера рассмотрим медийные реакции 828, 830 и 832, которые представляют состояния улыбки на 14-ом, 15-ом и 16-ом участках. Предположим в данном случае, что существует три текущие медийные реакции (причем медийная реакция 832 является наиболее текущей), и что участки с 17-го по 23-й еще не представлены. Предположим также, что демографическая характеристика 1302 указывает, что человек, смотрящий "Офис", это 23-летняя женщина, что участок истории 1304 реакций указывает, что человеку обычно не нравятся комедии, но нравятся научно-фантастические фильмы и драмы, что текущие медийные реакции 1306 включают в себя три вышеупомянутые состояния улыбки, и информация о медийной программе 1308 указывает, что программой является "Офис", эпизод 104, и что текущие медийные реакции являются реакциями на 14-й, 15-й и 16-й участки.
[00119] Блок 1204 определяет, на основании медийной реакции и участка, будущий участок медийной программы для представления пользователю, причем будущий участок медийной программы, наступает в медийной программе позднее, чем участок. Делая это определение, модуль 224 участка может принимать достаточно информации или может использовать эту информацию для получения дополнительной информации. Таким образом, предположим, что информация о медийной программе 1308 указывает три участка, и что модуль 224 участка определяет, что эти участки относятся к сцене, где в шоу участвует персонаж Пэм, но иначе не являющейся шуткой или не призванной быть комедийной. На основании реакции человека (улыбки) и предмета этих участков (развитие персонажа Пэм) модуль 224 участка может выбирать между различными возможными сценами, например, для показа в конце программы. Модуль 224 участка может основывать это определение также на другой информации, как упомянуто на фиг. 13. Таким образом, модуль 224 участка может определять, что 23-летней женщине, которой, в общем, не нравятся комедии, но которая улыбается на протяжении сцены с Пэм, получит большее удовольствие от другой сцены развития персонажа, чем от сцены, содержащей физический юмор, где персонаж по имени Дуайт выпадает из бумажного грузовика. В данном случае участки 214 включают в себя два возможных будущих участка, подлежащих показу в конце "Офис", здесь, на 23-ем участке, один о персонаже, выпадающем из грузовика, и один о Пэм.
[00120] Блок 1206 предписывает представлять будущий участок медийной программы пользователю в ходе текущего представления медийной программы. Модуль 224 участка может действовать локально или удаленно и может указывать или обеспечивать участок для представления. Таким образом, модуль 224 участка может предписывать представление будущего участка, передавая участок контента или указание 1310 на него через сеть 304 связи на вычислительное устройство 202. Модуль 224 участка, приняв указание, может делать выбор из различных ранее сохраненных участков, хранящихся локально по отношению к вычислительному устройству 202 (или к которому оно может осуществлять доступ), на основании указания.
[00121] В заключение рассмотрения данного примера, предположим, что удаленное устройство 302, показанное на фиг. 13, осуществляет потоковую передачу медийной программы через телевизионную приставку 202-4 и таким образом, на 23-ем участке, осуществляет потоковую передачу сцены о Пэм, а не сцены о Дуайте.
[00122] Хотя вышеприведенный пример способа 1200 относится к одиночному пользователю, можно использовать также медийные реакции других пользователей, в том числе, других людей, физически локальных по отношению к пользователю (например, другого зрителя, находящегося в одной комнате с 23-летней женщиной). Кроме того, можно использовать медийные реакции других пользователей, которые не смотрят то же, что пользователь, например, других членов той же демографической группы (например, женщин в возрасте 18-34) или аудитории в целом (например, всех зрителей, медийные реакции которых принимаются при первом показе в восточном часовом поясе США и Канады).
[00123] Заметим, что медийные реакции этого пользователя и других пользователей могут приниматься и использоваться в реальном времени для определения будущих участков представляемой в данный момент медийной программы. Таким образом, программу можно адаптировать к людям оперативно и в реальном времени, тем самым, повышая качество программы. В этом примере медийная программа адаптируется на основании ранее подготовленных участков, хотя это не требуется. Программа, вещаемая в прямом эфире, также может изменяться в реальном времени, например, в прямом эфире, в ночном комедийном шоу можно выбирать осуществление шутки на основании хороших реакций на предыдущую шутку, ранее представленную в программе.
[00124] На фиг. 14 показан способ 1400 определения будущего участка представляемой в данный момент медийной программы, в том числе, когда будущий участок является ответом на запрашиваемую в явном виде медийную реакцию.
[00125] Блок 1402 представляет или предписывает представление, в ходе представления медийной программы, явного запроса на запрашиваемую медийную реакцию, причем явный запрос является частью медийной программы и указывает ответ на запрашиваемую медийную реакцию, причем запрашиваемая медийная реакция является физическим изменением по отношению к пользователю. Медийная реакция может быть одной или более из описанных, например, подъемом руки, выражением одобрения, улыбкой и т.д.
[00126] Кроме того, явный запрос может представляться как часть и внутри медийной программы. Таким образом, рекламный материал может иметь встроенный в участок рекламы текст или голос диктора, просящий пользователя поднять руку, чтобы устроить пробную поездку на автомобиле; или на реалити-шоу, идущем в прямом эфире или записанном, ведущий может просить аудиторию выразить одобрение или неодобрение персонажу, чтобы решить, какой персонаж останется на шоу; или кинофильм в жанре триллер может иметь персонажа в кинофильме, который спрашивает пользователя, нужно ли бежать, прятаться или драться с плохим парнем.
[00127] Альтернативно, явный запрос может представляться, но не как часть или внутри медийной программы, например, в виде всплывающего окна отображаемого поверх медийной программы.
[00128] Сам по себе ответ может быть аналогичен, как упомянуто выше для рекламных материалов, например, предложению купона или информации о продукте или услуге и пр., в медийной программе как рекламного, так и нерекламного характера.
[00129] Ответ может, дополнительно или альтернативно, включать в себя представление разных участков медийных материалов позже в программе. Реалити-шоу может в явном виде запрашивать медийные реакции для представления дополнительной информации о персонаже или ситуации, например, “Помашите, пожалуйста, одной рукой, если хотите увидеть больше о приключениях Джинджер, помогающей бездомным, помашите, пожалуйста, обеими руками, если хотите увидеть больше о поездке Барта в магазин велосипедов, или издайте одобрительные возгласы, если хотите увидеть больше о драке Сьюзи с Джинджер за Барта.” В этом примере, ответ имеет три части (или можно предполагать три ответа), по одному ответу или подответу для каждой медийной реакции, в данном случае, приключения Джинджер, поездки Барта или драки Сьюзи.
[00130] Блок 1404 принимает запрашиваемую медийную реакцию, регистрируемую в ходе представления, и соответствующий явный запрос, причем запрашиваемая медийная реакция определяется на основании данных датчика, пассивно регистрируемых в ходе представления и согласующихся с представлением явного запроса. Методики могут принимать запрашиваемую медийную реакцию от другого элемента или определять медийную реакцию на основании данных датчика, пассивно или иным образом. В одном варианте осуществления, блок 1404 осуществляется модулем 106 состояния. Модуль 106 состояния определяет, на основании данных датчика, пассивно регистрируемых в ходе представления медийной программы, во время или сразу после представления явного запроса, и измеряя физическое изменение в отношении пользователя, запрашиваемую медийную реакцию.
[00131] Блок 1406, в ответ на прием запрашиваемой медийной реакции, осуществляет ответ. В необязательном порядке или дополнительно, способ 1400 может, до осуществления потенциального ответа на блоке 1406, определять на блоке 1408, что запрашиваемые медийные реакции других пользователей также принимаются, и основывать потенциальный ответ на этих запрашиваемых медийных реакциях других пользователей.
[00132] В таком случае, модуль 224 участка может, до осуществления ответа, определять, что другие запрашиваемые медийные реакции других пользователей в ходе других представлений медийной программы также принимаются. Таким образом, модуль 224 участка может основывать ответ на медийных реакциях других пользователей, например, представлять драку Сьюзи на основании медийной реакции пользователя и другого пользователя, запрашивающего показ этого участка. Медийная реакция других пользователей может быть для всех пользователей, пользователей одной и той же демографической группы, друзей пользователя (находящихся в одной комнате с пользователем и смотрящим то же, что и он, или нет), или семьи пользователя (например, тех, кто также находится в комнате и отвечает на явный запрос).
[00133] Также в необязательном порядке или дополнительно, способ 1400 может переходить к блоку 1410. Блок 1410 запрашивает другую запрашиваемую медийную реакцию для другого ответа, подлежащего осуществлению для других пользователей, связанных с пользователем. Это можно представлять как дополнительный явный запрос, например, запрос, чтобы пользователь поднял руку для отправки купона также друзьям пользователя.
[00134] Запрос может предусматривать удаленный просмотр как пользователем, так и его или ее друзьями. Таким образом, пользователь может по своему выбору смотреть драку Сьюзи, но, после формирования медийной реакции, модуль 224 участка представляет второй запрос, спрашивающий, хочет ли пользователь, вместо этого, смотреть то, что друг пользователя Лидия ранее или одновременно запрашивал для просмотра, а именно, приключение Джинджер, или то, что запрашивали для просмотра большинство ее друзей, например, пять или восемь друзей пользователя выбрали смотреть больше о поездке Барта.
[00135] Блок 1412, в ответ на прием второй запрашиваемой медийной реакции, предписывает представлять ответ также другим пользователям. Модуль 224 участка может делать это непосредственно, действуя удаленно, или может осуществлять связь с удаленного элемента, чтобы предписывать этому элементу представлять ответ другим пользователям. В заключение настоящего примера, предположим, что пользователь выбирает просмотр того, что предпочла смотреть Лидия, ее лучший друг, а именно, приключение Джинджер, чтобы завтра в школе обсудить его с Лидией. Заметим, что пользователь также знает, что большинство других его друзей предпочли смотреть поездку Барта, и, таким образом, она сможет спросить у них, понравилась ли она им. Пользователь может, если ее друзья скажут, что поездка Барта им очень понравилась, повторно посмотреть программу и выбрать, вместо приключения Джинджер, поездку Барта.
[00136] На фиг. 15 показан способ 1500 определения будущего участка представляемой в данный момент медийной программы, в том числе, на основании медийных реакций множественных пользователей.
[00137] Блок 1502 принимает, от множественных устройств представления медийных материалов, на удаленном элементе, и в ходе представления медийной программы множественным пользователям через множественные устройства представления медийных материалов, медийные реакции пользователей, медийные реакции на основании данных датчика, пассивно регистрируемых на множественных устройствах представления медийных материалов и в ходе участка медийной программы. Медийная программа может одновременно представляться в прямом эфире, или разделяться на множественных пользователей. Как показано на фиг. 13, текущая медийная реакция 1306 может приниматься сама по себе или совместно с другой информацией, как упомянуто выше, например, демографической характеристикой 1302, участком истории 1304 реакций и информацией о медийной программе 1308, хотя в этом случае от множественных вычислительных устройств 202.
[00138] Блок 1504 определяет, на основании медийных реакций и участка, будущий участок медийной программы для представления пользователям, причем будущий участок медийной программы, наступает в медийной программе позднее, чем участок. Как показано на фиг. 13, эта медийная программа может храниться удаленно, например, как медийная программа 210, показанная на фиг. 3 и 13, или локально, например, как показано на фиг. 2. Также, как упомянуто здесь, в определении можно также использовать другую информацию.
[00139] Медийная программа может быть одной из многих вышеупомянутых программ, например, рекламным материалом. В таком случае, модуль 224 участков и/или модуль 220 рекламы может определять будущий участок на основании вероятности того, что он будет более успешным, чем один или более других ранее подготовленных участков из набора выбираемых участков (например, участков 214, показанных на фиг. 13). Таким образом, группа пользователей, демонстрирующая слабую реакцию на первый участок, где приведены подробные сведения о риэлторской компании, может использоваться для определения для представления третьего участка, который проще или более стильный вместо того, чтобы продолжать детализацию риэлторской компании. Многочисленные другие примеры изложены выше.
[00140] Блок 1506 предписывает представлять будущий участок медийной программы пользователям на множественных устройствах представления медийных материалов в ходе представления медийной программы. Блок 1506 может делать это различными способами, подробно изложенными выше, например, в реальном времени и в потоковом режиме от удаленного устройства 302 множественным пользователям через множественные вычислительные устройства 202.
[00141] В некоторых вариантах осуществления, медийные реакции множественных пользователей можно использовать для определения, каким образом создавать будущие программы или каким образом представлять ранее подготовленные будущие программы. Рассмотрим случай, когда поставщик медийных материалов имеет десять временных слотов для приключенческого телесериала. Предположим, что первые три программы могут иметь некоторые внутренние участки, которые можно изменять на основании методик, но что для следующих семи временных слотов (например, недель в сезоне) подготовлено 11 эпизодов. Телевизионные сезоны часто структурируются таким образом, что полный сезон подготавливается заранее, что затрудняет осуществление больших внутрисезонных изменений. Поставщик медийных материалов, к моменту, когда эпизоды сезона подготовлены, может быть способен подготавливать дополнительные полные программы. Таким образом, поставщик медийных материалов может определять, на основании медийных реакций от множественных пользователей на протяжении первых трех эпизодов и на множественные участки этих эпизодов, что конкретный персонаж очень интересен аудитории. Таким образом, эпизоды, посвященные этому персонажу, можно показывать вместо других.
[00142] Также или дополнительно, некоторые ранее подготовленные эпизоды могут иметь множественные наборы сцен, которые можно представлять, что позволяет адаптировать эпизод к аудитории (в целом или к различным группам) на основании этих медийных реакций. Таким образом медийные реакции можно использовать для определения будущих участков медийной программы, даже когда изменения происходят не в реальном времени.
[00143] В предыдущем рассмотрении описаны способы, относящиеся к определению будущего участка представляемой в данный момент медийной программы, а также к другим способам и методикам. Аспекты этих способов можно реализовать аппаратными средствами (например, в виде неизменяемой логической схемы), программно-аппаратными средствами, программными средствами, ручной обработкой или любой их комбинацией. Программная реализация представляет собой программный код, который осуществляет указанные задания при выполнении компьютерным процессором. Иллюстративные способы можно описать в общем контексте компьютерноисполняемых инструкций, которые могут включать в себя программное обеспечение, приложения, процедуры, программы, объекты, компоненты, структуры данных, процедуры, модули, функции и пр. Программный код может храниться в одном или более компьютерно-считываемых запоминающих устройств, локальных и/или удаленных по отношению к компьютерному процессору. Способы также могут осуществляться на практике в режиме распределенных вычислений множественными вычислительными устройствами. Кроме того, описанные здесь признаки являются независимыми от платформы и допускают реализацию на различных вычислительных платформах, имеющих разные процессоры.
[00144] Эти методики можно реализовать на одной или более из элементов, показанных на фиг. 1-3, 10, 13 и 16 (устройство 1600 описано ниже), которые можно дополнительно делить, объединять и т.д. Таким образом, эти фигуры демонстрируют некоторые из многих возможных систем или устройств, способных применять описанные методики. Элементы, показанные на этих фигурах, в целом представляют программное обеспечение, программно-аппаратное обеспечение (firmware), аппаратное обеспечение, целые устройства или сети или их комбинацию. В случае программной реализации, например, элементы (например, модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса, модуль 216 истории, модуль 220 рекламы и модуль 224 участка) представляют программный код, который осуществляет указанные задания при выполнении на процессоре (например, процессоре(ах) 204 и/или 306). Программный код может храниться в одном или более компьютерно-считываемых запоминающих устройств, например, CRM 206 и/или удаленном CRM 308 или на компьютерно-считываемых носителях 1614 данных, показанных на фиг. 16.
Иллюстративное устройство
[00145] Фиг. 16 демонстрирует различные компоненты иллюстративного устройства 1600, которое можно реализовать в виде любого типа клиента, сервера и/или вычислительного устройства описанного со ссылкой на предыдущие фиг. 1-15, для реализации методик определения будущего участка представляемой в данный момент медийной программы. В вариантах осуществления, устройство 1600 можно реализовать как одно или комбинацию проводных и/или беспроводных устройств, как разновидность мобильного вычислительного устройства, подключаемого к телевизору (например, телевизионной приставки, цифрового видеомагнитофона (DVR) и т.д.), устройства бытового назначения, компьютерного устройства, серверного устройства, портативного компьютерного устройства, пользовательского устройства, устройства связи, устройства обработки и/или визуализации видеозаписи, электробытового устройства, электронного устройства, однокристальной системы (SoC), и/или другого типа устройства или ее участка. Устройство 1600 также может быть связано с пользователем (например, человеком) и/или элементом, который оперирует устройством таким образом, что устройство описывает логические устройства, которые включают в себя пользователей, программное обеспечение, программно-аппаратное обеспечение и/или комбинацию устройств.
[00146] Устройство 1600 включает в себя устройства 1602 связи, которые обеспечивают проводную и/или беспроводную передачу аппаратных данных 1604 (например, принятых данных, принимаемых данных, данных запланированных для широковещания, пакетов данных и т.д.). Аппаратные данные 1604 или другой контент устройства могут включать в себя настройки конфигурации устройства, медиаконтент, хранящийся на устройстве (например, медийные программы 210), и/или информация, связанная с пользователем устройства. Медиаконтент, хранящийся на устройстве 1600, может включать в себя любой тип аудиосигнала, видеосигнала и/или данных изображения. Устройство 1600 включает в себя один или более входов 1606 данных, через которые могут приниматься любой тип данных, медиаконтент и/или вводы, например человеческая речь, вводы по выбору пользователя, сообщения, музыка, телевизионный медиаконтент, медийные реакции, записанный видеоконтент и аудиосигнал, видеосигнал и/или данных изображения любого другого типа, принятый от любого источника контента и/или данных.
[00147] Устройство 1600 также включает в себя интерфейсы 1608 связи, которые можно реализовать в виде любого одного или более из последовательного и/или параллельного интерфейса, беспроводного интерфейса, сетевого интерфейса любого типа, модема и в виде интерфейса связи любого другого типа. Интерфейсы 1608 связи обеспечивают соединение и/или линии связи между устройством 1600 и сетью связи, по которым другие электронные, вычислительные устройства и устройства связи обмениваются данными с устройством 1600.
[00148] Устройство 1600 включает в себя один или более процессоров 1610 (например, любой из микропроцессоров, контроллеров и пр.), которые обрабатывают различные компьютерноисполняемые инструкции для управления работой устройства 1600 и для осуществления методик определения будущего участка представляемой в данный момент медийной программы и других описанных здесь способов. Альтернативно или дополнительно, устройство 1600 можно реализовать в виде любого одного или комбинации аппаратного обеспечения, программно-аппаратного обеспечения или неизменяемой логической схемы, которая реализована совместно со схемами обработки и управления, которые в целом обозначены позицией 1612. Хотя это не показано, устройство 1600 может включать в себя системную шину или систему переноса данных, которая соединяет между собой различные компоненты в устройстве. Системная шина может включать в себя любую одну или комбинацию разных шинных структур, например, шину памяти или контроллер памяти, периферийную шину, универсальную последовательную шину и/или процессор или локальную шину, которая использует любую из различных шинных архитектур.
[00149] Устройство 1600 также включает в себя компьютерно-считываемые носители 1614 данных, например, одно или более запоминающих устройств, которые обеспечивают постоянное и/или нетранзиторное хранение данных (т.е., в отличие от простой передачи сигнала), примеры которых включают в себя оперативную память (ОЗУ), энергонезависимую память (например, любую одну или более из постоянной памяти (ПЗУ), флэш-памяти, СППЗУ, ЭСППЗУ и т.д.) и дисковое запоминающее устройство. Дисковое запоминающее устройство можно реализовать в виде магнитного или оптического запоминающего устройства любого типа, например, жесткого диска, записываемого и/или перезаписываемого компакт-диска (CD), цифрового универсального диска (DVD) любого типа и пр. Устройство 1600 также может включать в себя запоминающее устройство 1616 большой емкости.
[00150] Компьютерно-считываемые носители 1614 данных обеспечивает механизмы хранения данных для хранения аппаратных данных 1604, а также различных аппаратных приложений 1618 и любых других типов информации и/или данных, связанных с аспектами работы устройства 1600. Например, операционная система 1620 может поддерживаться как компьютерное приложение с компьютерно-считываемыми носителями 1614 данных, выполняемое на процессорах 1610. Аппаратные приложения 1618 могут включать в себя диспетчер устройств, например, управляющее приложение того или иного рода, прикладную программу, модуль обработки сигнала и управления, код, внутренне присущий конкретному устройству, уровень аппаратных абстракций для конкретного устройства и т.д.
[00151] Аппаратные приложения 1618 также включают в себя любые системные компоненты, машины или модули для реализации методик определения будущего участка представляемой в данный момент медийной программы. В этом примере, аппаратные приложения 1618 может включать в себя модуль 106 состояния, модуль 108 интереса, модуль 110 интерфейса, модуль 216 истории, модуль 220 рекламы, и/или модуль 224 участка.
Заключение
[00152] Хотя варианты осуществления методик и устройств для определения будущего участка представляемой в данный момент медийной программы были описаны применительно к признакам и/или способам, следует понимать, что объем, определяемый нижеследующей формулой изобретения, не обязан ограничиваться описанными конкретными признаками или способами. Напротив, конкретные признаки и способы раскрыты как иллюстративные реализации для определения будущего участка представляемой в данный момент медийной программы.
Claims (49)
1. Способ представления медийной программы, реализуемый вычислительным устройством, при этом способ содержит этапы, на которых:
посредством вычислительного устройства принимают в ходе представления первого участка медийной программы медийную реакцию на первый участок медийной программы, причем медийная реакция определяется на основе данных с датчиков, пассивно регистрируемых во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе того, что медийная реакция на первый участок медийной программы согласуется с контекстом для первого участка медийной программы, состояние увлеченности пользователя во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе истории реакций пользователя и в ответ на определение того, что пользователь пребывает в состоянии увлеченности во время первого участка медийной программы, будущий рекламный материал, каковой будущий рекламный материал:
имеет место во время более позднего участка медийной программы,
в ходе того же самого представления медийной программы и
выбирается из набора рекламных материалов на основе подобия первому участку медийной программы; и
посредством вычислительного устройства предписывают представлять будущий рекламный материал во время упомянутого более позднего участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
2. Способ по п.1, в котором медийная программа включает в себя прежде запланированный рекламный материал, при этом при упомянутом предписании будущий рекламный материал предназначен для того, чтобы заменять этот прежде запланированный рекламный материал будущим рекламным материалом.
3. Способ по п.1, в котором медийная реакция принимается от устройства представления медийных материалов, на котором представляется медийная программа, и упомянутое предписание представления будущего рекламного материала выполняется вычислительным устройством через сеть связи.
4. Способ по п.1, в котором упомянутое определение будущего рекламного материала дополнительно основывается на медийной реакции другого пользователя, демографической информации или информации о медийной программе.
5. Способ по п.1, дополнительно содержащий этап, на котором принимают другую медийную реакцию, каковая другая медийная реакция определяется на основе других данных с датчиков, регистрируемых на протяжении первого участка медийной программы и связанных с пользователем, отличающимся от пользователя, связанного с вышеупомянутой медийной реакцией, причем этот другой пользователь физически локален по отношению к упомянутому пользователю, при этом упомянутое определение будущего рекламного материала дополнительно основывается на упомянутой другой медийной реакции.
6. Способ по п.1, в котором медийная реакция принимается от элемента, являющегося локальным по отношению к устройству представления медийных материалов, на котором представляется медийная программа, и упомянутый набор рекламных материалов заблаговременно сохранен локально по отношению к устройству представления медийных материалов и связан с временным диапазоном в медийной программе, в котором должен представляться будущий рекламный материал.
7. Способ по п.1, в котором первым участком медийной программы является рекламный материал, и при упомянутом определении будущего рекламного материала будущий рекламный материал определяют на основе будущего рекламного материала, определяемого как более вероятно успешный, чем один или более других ранее подготовленных рекламных материалов из упомянутого набора рекламных материалов.
8. Способ по п.1, в котором контекст для медийной программы включает в себя время суток, в которое представляется первый участок медийной программы, или тип медийного материала, представляемого во время этого участка.
9. Способ по п.1, дополнительно содержащий этапы, на которых:
определяют на основе состояния увлеченности пользователя во время первого участка медийной программы будущий участок медийной программы, каковой будущий участок медийной программы имеет место во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы; и
предписывают представлять будущий участок медийной программы во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
10. Аппаратура для представления медийной программы, содержащая:
один или более компьютерных процессоров и
один или более машиночитаемых носителей, на которых хранятся инструкции, которыми, в ответ на их исполнение одним или более компьютерными процессорами, выполняются операции, содержащие:
прием в ходе представления первого участка медийной программы медийной реакции на первый участок медийной программы, причем медийная реакция определяется на основе данных с датчиков, пассивно регистрируемых во время первого участка медийной программы;
определение, на основе того, что медийная реакция на первый участок медийной программы согласуется с контекстом для первого участка медийной программы, состояния увлеченности пользователя во время первого участка медийной программы;
определение на основе истории реакций пользователя и в ответ на определение того, что пользователь пребывает в состоянии увлеченности во время первого участка медийной программы, будущего рекламного материала, каковой будущий рекламный материал:
должен иметь место во время более позднего участка медийной программы,
в ходе того же самого представления медийной программы и
выбирается из набора рекламных материалов на основе подобия первому участку медийной программы; и
предписание представлять будущий рекламный материал во время упомянутого более позднего участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
11. Аппаратура по п.10, при этом медийная программа включает в себя прежде запланированный рекламный материал, при этом при упомянутом предписании будущий рекламный материал предназначен для того, чтобы заменять этот прежде запланированный рекламный материал будущим рекламным материалом.
12. Аппаратура по п.10, при этом медийная реакция принимается от устройства представления медийных материалов, на котором представляется медийная программа, и упомянутое предписание представления будущего рекламного материала выполняется упомянутой аппаратурой, причем упомянутая аппаратура является удаленной по отношению к устройству представления медийных материалов.
13. Аппаратура по п.10, в которой упомянутое определение будущего рекламного материала дополнительно основывается на медийной реакции другого пользователя, демографической информации или информации о медийной программе.
14. Аппаратура по п.10, в которой операции дополнительно содержат прием другой медийной реакции, каковая другая медийная реакция определяется на основе других данных с датчиков, регистрируемых на протяжении первого участка медийной программы и связанных с пользователем, отличающимся от пользователя, связанного с вышеупомянутой медийной реакцией, причем этот другой пользователь физически локален по отношению к упомянутому пользователю, при этом упомянутое определение будущего рекламного материала дополнительно основывается на упомянутой другой медийной реакции.
15. Аппаратура по п.10, в которой операции дополнительно содержат представление посредством упомянутой аппаратуры медийной программы и прием от пользователя посредством упомянутой аппаратуры медийной реакции, при этом при упомянутом определении будущего рекламного материала будущий рекламный материал определяется из упомянутого набора рекламных материалов, который заблаговременно сохранен на упомянутых одном или более машиночитаемых носителях, каковой набор рекламных материалов связан с временным диапазоном в медийной программе, в котором должен представляться будущий рекламный материал.
16. Аппаратура по п.10, при этом первым участком медийной программы является рекламный материал, и при упомянутом определении будущего рекламного материала будущий рекламный материал определяется на основе будущего рекламного материала, определяемого как более вероятно успешный, чем один или более других ранее подготовленных рекламных материалов из упомянутого набора рекламных материалов.
17. Аппаратура по п.10, в которой операции дополнительно содержат:
определение на основе состояния увлеченности пользователя во время первого участка медийной программы будущего участка медийной программы, каковой будущий участок медийной программы имеет место во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы; и
предписание представлять будущий участок медийной программы во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
18. Способ представления медийной программы, реализуемый вычислительным устройством, при этом способ содержит этапы, на которых:
посредством вычислительного устройства принимают в ходе представления первого участка медийной программы медийную реакцию на первый участок медийной программы, причем медийная реакция определяется на основе данных с датчиков, пассивно регистрируемых во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе того, что медийная реакция на первый участок медийной программы не согласуется с контекстом для первого участка медийной программы, состояние неувлеченности пользователя во время первого участка медийной программы;
посредством вычислительного устройства определяют на основе истории реакций пользователя и в ответ на определение того, что пользователь пребывает в состоянии неувлеченности во время первого участка медийной программы, будущий рекламный материал, каковой будущий рекламный материал:
имеет место во время более позднего участка медийной программы,
в ходе того же самого представления медийной программы и
выбирается из набора рекламных материалов на основе несхожести с первым участком медийной программы; и
посредством вычислительного устройства предписывают представлять будущий рекламный материал во время упомянутого более позднего участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
19. Способ по п.18, в котором контекст для медийной программы включает в себя время суток, в которое представляется первый участок медийной программы, или тип медийного материала, представляемого во время этого участка.
20. Способ по п.19, дополнительно содержащий этапы, на которых:
определяют на основе состояния неувлеченности пользователя во время первого участка медийной программы будущий участок медийной программы, каковой будущий участок медийной программы имеет место во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы; и
предписывают представлять будущий участок медийной программы во время второго участка медийной программы и в ходе упомянутого того же самого представления медийной программы.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CA2775700 | 2012-05-04 | ||
CA2775700A CA2775700C (en) | 2012-05-04 | 2012-05-04 | Determining a future portion of a currently presented media program |
US13/482,867 US8959541B2 (en) | 2012-05-04 | 2012-05-29 | Determining a future portion of a currently presented media program |
US13/482,867 | 2012-05-29 | ||
PCT/US2013/039591 WO2013166474A2 (en) | 2012-05-04 | 2013-05-04 | Determining a future portion of a currently presented media program |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2014144369A RU2014144369A (ru) | 2016-06-27 |
RU2646367C2 true RU2646367C2 (ru) | 2018-03-02 |
Family
ID=46491919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2014144369A RU2646367C2 (ru) | 2012-05-04 | 2013-05-04 | Определение будущего участка представляемой в данный момент медийной программы |
Country Status (11)
Country | Link |
---|---|
US (2) | US8959541B2 (ru) |
EP (1) | EP2845163A4 (ru) |
JP (1) | JP6291481B2 (ru) |
KR (1) | KR102068376B1 (ru) |
AU (1) | AU2013256054B2 (ru) |
BR (1) | BR112014026648A8 (ru) |
CA (1) | CA2775700C (ru) |
MX (1) | MX345058B (ru) |
RU (1) | RU2646367C2 (ru) |
TW (1) | TW201407516A (ru) |
WO (1) | WO2013166474A2 (ru) |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9190110B2 (en) | 2009-05-12 | 2015-11-17 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
US9449090B2 (en) | 2009-05-29 | 2016-09-20 | Vizio Inscape Technologies, Llc | Systems and methods for addressing a media database using distance associative hashing |
US10116972B2 (en) * | 2009-05-29 | 2018-10-30 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US8595781B2 (en) | 2009-05-29 | 2013-11-26 | Cognitive Media Networks, Inc. | Methods for identifying video segments and displaying contextual targeted content on a connected television |
US10949458B2 (en) | 2009-05-29 | 2021-03-16 | Inscape Data, Inc. | System and method for improving work load management in ACR television monitoring system |
US9055309B2 (en) | 2009-05-29 | 2015-06-09 | Cognitive Networks, Inc. | Systems and methods for identifying video segments for displaying contextually relevant content |
US11232458B2 (en) | 2010-02-17 | 2022-01-25 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US20130243270A1 (en) * | 2012-03-16 | 2013-09-19 | Gila Kamhi | System and method for dynamic adaption of media based on implicit user input and behavior |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
CN104412607A (zh) * | 2012-07-06 | 2015-03-11 | Nec显示器解决方案株式会社 | 显示设备以及用于显示设备的控制方法 |
US9998789B1 (en) * | 2012-07-27 | 2018-06-12 | Dp Technologies, Inc. | Audience interaction system |
US10203839B2 (en) * | 2012-12-27 | 2019-02-12 | Avaya Inc. | Three-dimensional generalized space |
US8769557B1 (en) * | 2012-12-27 | 2014-07-01 | The Nielsen Company (Us), Llc | Methods and apparatus to determine engagement levels of audience members |
US9344773B2 (en) * | 2013-02-05 | 2016-05-17 | Microsoft Technology Licensing, Llc | Providing recommendations based upon environmental sensing |
US11553228B2 (en) * | 2013-03-06 | 2023-01-10 | Arthur J. Zito, Jr. | Multi-media presentation system |
US20140325540A1 (en) * | 2013-04-29 | 2014-10-30 | Microsoft Corporation | Media synchronized advertising overlay |
US10297287B2 (en) | 2013-10-21 | 2019-05-21 | Thuuz, Inc. | Dynamic media recording |
US20150113551A1 (en) * | 2013-10-23 | 2015-04-23 | Samsung Electronics Co., Ltd. | Computing system with content delivery mechanism and method of operation thereof |
US9955192B2 (en) | 2013-12-23 | 2018-04-24 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US9361005B2 (en) * | 2013-12-27 | 2016-06-07 | Rovi Guides, Inc. | Methods and systems for selecting modes based on the level of engagement of a user |
US9653115B2 (en) | 2014-04-10 | 2017-05-16 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
US9578358B1 (en) | 2014-04-22 | 2017-02-21 | Google Inc. | Systems and methods that match search queries to television subtitles |
CN104035982B (zh) * | 2014-05-28 | 2017-10-20 | 小米科技有限责任公司 | 多媒体资源推荐方法及装置 |
US20160005013A1 (en) * | 2014-07-03 | 2016-01-07 | Syncbak, Inc. | Real-time regional media syndication and delivery system |
US9788062B2 (en) * | 2014-08-29 | 2017-10-10 | Sling Media Inc. | Systems and processes for delivering digital video content based upon excitement data |
US9792957B2 (en) | 2014-10-08 | 2017-10-17 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
US11863848B1 (en) | 2014-10-09 | 2024-01-02 | Stats Llc | User interface for interaction with customized highlight shows |
US10433030B2 (en) | 2014-10-09 | 2019-10-01 | Thuuz, Inc. | Generating a customized highlight sequence depicting multiple events |
US10419830B2 (en) | 2014-10-09 | 2019-09-17 | Thuuz, Inc. | Generating a customized highlight sequence depicting an event |
US10536758B2 (en) | 2014-10-09 | 2020-01-14 | Thuuz, Inc. | Customized generation of highlight show with narrative component |
US11412276B2 (en) | 2014-10-10 | 2022-08-09 | JBF Interlude 2009 LTD | Systems and methods for parallel track transitions |
US9729915B2 (en) * | 2014-10-31 | 2017-08-08 | Paypal, Inc. | Detecting user devices to determine state of watched show |
JP2016110631A (ja) * | 2014-12-02 | 2016-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 状態推定装置、状態推定方法およびプログラム |
EP3228117A4 (en) * | 2014-12-04 | 2018-06-13 | Cynny Inc. | Systems and methods to present content |
EP3251370A1 (en) | 2015-01-30 | 2017-12-06 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US10904617B1 (en) * | 2015-02-19 | 2021-01-26 | Amazon Technologies, Inc. | Synchronizing a client device with media content for scene-specific notifications |
MX2017013128A (es) | 2015-04-17 | 2018-01-26 | Inscape Data Inc | Sistemas y metodos para reducir densidad de los datos en grandes conjuntos de datos. |
US9883241B2 (en) * | 2015-05-17 | 2018-01-30 | Surewaves Mediatech Private Limited | System and method for automatic content recognition and audience measurement for television channels and advertisements |
MX2018000567A (es) | 2015-07-16 | 2018-04-24 | Inscape Data Inc | Deteccion de segmentos de medios comunes. |
CN108351879B (zh) | 2015-07-16 | 2022-02-18 | 构造数据有限责任公司 | 用于提高识别媒体段的效率的划分搜索索引的系统和方法 |
US10080062B2 (en) | 2015-07-16 | 2018-09-18 | Inscape Data, Inc. | Optimizing media fingerprint retention to improve system resource utilization |
US10460765B2 (en) | 2015-08-26 | 2019-10-29 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
CN105491427B (zh) * | 2015-11-24 | 2019-01-29 | 深圳创维-Rgb电子有限公司 | 一种智能电视的控制系统及其实现方法 |
US10142702B2 (en) * | 2015-11-30 | 2018-11-27 | International Business Machines Corporation | System and method for dynamic advertisements driven by real-time user reaction based AB testing and consequent video branching |
US11164548B2 (en) | 2015-12-22 | 2021-11-02 | JBF Interlude 2009 LTD | Intelligent buffering of large-scale video |
US11128853B2 (en) | 2015-12-22 | 2021-09-21 | JBF Interlude 2009 LTD | Seamless transitions in large-scale video |
US11540009B2 (en) | 2016-01-06 | 2022-12-27 | Tvision Insights, Inc. | Systems and methods for assessing viewer engagement |
EP3400661A4 (en) | 2016-01-06 | 2019-04-24 | TVision Insights, Inc. | SYSTEMS AND METHODS FOR EVALUATING A SPECTATOR COMMITMENT |
US11012719B2 (en) * | 2016-03-08 | 2021-05-18 | DISH Technologies L.L.C. | Apparatus, systems and methods for control of sporting event presentation based on viewer engagement |
US10187694B2 (en) | 2016-04-07 | 2019-01-22 | At&T Intellectual Property I, L.P. | Method and apparatus for enhancing audience engagement via a communication network |
US11856271B2 (en) | 2016-04-12 | 2023-12-26 | JBF Interlude 2009 LTD | Symbiotic interactive video |
US10979472B2 (en) * | 2016-09-29 | 2021-04-13 | International Business Machines Corporation | Dynamically altering presentations to maintain or increase viewer attention |
US11050809B2 (en) | 2016-12-30 | 2021-06-29 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
TWI618040B (zh) * | 2017-01-13 | 2018-03-11 | Intelligent advertising vehicle with image recognition and its operation process | |
JP6269874B1 (ja) | 2017-03-03 | 2018-01-31 | ソニー株式会社 | 交換レンズ、撮像装置、およびカメラシステム |
US10560508B2 (en) * | 2017-03-15 | 2020-02-11 | International Business Machines Corporation | Personalized video playback |
US11770574B2 (en) * | 2017-04-20 | 2023-09-26 | Tvision Insights, Inc. | Methods and apparatus for multi-television measurements |
US10904615B2 (en) * | 2017-09-07 | 2021-01-26 | International Business Machines Corporation | Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed |
JP7096470B2 (ja) * | 2017-10-19 | 2022-07-06 | 株式会社電通 | 顧客情報管理サーバ及びプログラム |
US10636449B2 (en) * | 2017-11-06 | 2020-04-28 | International Business Machines Corporation | Dynamic generation of videos based on emotion and sentiment recognition |
JP6463826B1 (ja) * | 2017-11-27 | 2019-02-06 | 株式会社ドワンゴ | 動画配信サーバ、動画配信方法及び動画配信プログラム |
US10257578B1 (en) | 2018-01-05 | 2019-04-09 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
US20190253751A1 (en) * | 2018-02-13 | 2019-08-15 | Perfect Corp. | Systems and Methods for Providing Product Information During a Live Broadcast |
US10542314B2 (en) | 2018-03-20 | 2020-01-21 | At&T Mobility Ii Llc | Media content delivery with customization |
US11594028B2 (en) | 2018-05-18 | 2023-02-28 | Stats Llc | Video processing for enabling sports highlights generation |
US11507619B2 (en) | 2018-05-21 | 2022-11-22 | Hisense Visual Technology Co., Ltd. | Display apparatus with intelligent user interface |
US10965985B2 (en) | 2018-05-21 | 2021-03-30 | Hisense Visual Technology Co., Ltd. | Display apparatus with intelligent user interface |
US11601721B2 (en) * | 2018-06-04 | 2023-03-07 | JBF Interlude 2009 LTD | Interactive video dynamic adaptation and user profiling |
US11025985B2 (en) | 2018-06-05 | 2021-06-01 | Stats Llc | Audio processing for detecting occurrences of crowd noise in sporting event television programming |
US11264048B1 (en) | 2018-06-05 | 2022-03-01 | Stats Llc | Audio processing for detecting occurrences of loud sound characterized by brief audio bursts |
CN108737872A (zh) * | 2018-06-08 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
US10942979B2 (en) * | 2018-08-29 | 2021-03-09 | International Business Machines Corporation | Collaborative creation of content snippets |
US10812855B2 (en) * | 2018-09-05 | 2020-10-20 | International Business Machines Corporation | Dynamic modification of media content in an internet of things (IoT) computing environment |
KR20200054439A (ko) | 2018-11-10 | 2020-05-20 | 송난나 | 나무를 알아가는 보드게임 |
US11574458B2 (en) * | 2019-01-02 | 2023-02-07 | International Business Machines Corporation | Automated survey results generation from an image |
US11064255B2 (en) * | 2019-01-30 | 2021-07-13 | Oohms Ny Llc | System and method of tablet-based distribution of digital media content |
US20200288204A1 (en) * | 2019-03-05 | 2020-09-10 | Adobe Inc. | Generating and providing personalized digital content in real time based on live user context |
US11190840B2 (en) * | 2019-07-23 | 2021-11-30 | Rovi Guides, Inc. | Systems and methods for applying behavioral-based parental controls for media assets |
US11019395B2 (en) * | 2019-08-27 | 2021-05-25 | Facebook, Inc. | Automatic digital representations of events |
WO2021061449A1 (en) | 2019-09-27 | 2021-04-01 | Qsinx Management Llc | Content generation based on audience engagement |
US11490047B2 (en) | 2019-10-02 | 2022-11-01 | JBF Interlude 2009 LTD | Systems and methods for dynamically adjusting video aspect ratios |
US11645578B2 (en) * | 2019-11-18 | 2023-05-09 | International Business Machines Corporation | Interactive content mobility and open world movie production |
US11245961B2 (en) | 2020-02-18 | 2022-02-08 | JBF Interlude 2009 LTD | System and methods for detecting anomalous activities for interactive videos |
JP7374056B2 (ja) * | 2020-08-27 | 2023-11-06 | グローブライド株式会社 | 魚釣用リール |
US11503090B2 (en) | 2020-11-30 | 2022-11-15 | At&T Intellectual Property I, L.P. | Remote audience feedback mechanism |
CN114827702B (zh) * | 2021-01-22 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 视频推送方法、视频播放方法、装置、设备以及介质 |
US11425460B1 (en) | 2021-01-29 | 2022-08-23 | Rovi Guides, Inc. | Selective streaming based on dynamic parental rating of content |
US20220377413A1 (en) * | 2021-05-21 | 2022-11-24 | Rovi Guides, Inc. | Methods and systems for personalized content based on captured gestures |
US11882337B2 (en) | 2021-05-28 | 2024-01-23 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
US11934477B2 (en) | 2021-09-24 | 2024-03-19 | JBF Interlude 2009 LTD | Video player integration within websites |
JP7349231B1 (ja) | 2022-09-14 | 2023-09-22 | 株式会社ビデオリサーチ | ストリーム視聴解析システム、ストリーム視聴解析方法およびプログラム |
JP7280454B1 (ja) * | 2023-02-27 | 2023-05-23 | 株式会社トランザクション・メディア・ネットワークス | 情報訴求程度情報推定システム、情報訴求程度情報推定装置の制御方法及び情報訴求程度情報推定装置の制御プログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2138923C1 (ru) * | 1992-12-09 | 1999-09-27 | Дискавери Коммьюникейшнз, Инк. | Устройство для системы распределения телевизионных программ и способ распределения телевизионных программ в системе распределения телевизионных программ |
US20030093784A1 (en) * | 2001-11-13 | 2003-05-15 | Koninklijke Philips Electronics N.V. | Affective television monitoring and control |
US20050223237A1 (en) * | 2004-04-01 | 2005-10-06 | Antonio Barletta | Emotion controlled system for processing multimedia data |
US20090037945A1 (en) * | 2007-07-31 | 2009-02-05 | Hewlett-Packard Development Company, L.P. | Multimedia presentation apparatus, method of selecting multimedia content, and computer program product |
US20090195392A1 (en) * | 2008-01-31 | 2009-08-06 | Gary Zalewski | Laugh detector and system and method for tracking an emotional response to a media presentation |
US20100070987A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Mining viewer responses to multimedia content |
RU2417113C2 (ru) * | 2005-12-27 | 2011-04-27 | Мэссив Инкорпорейтед | Представление потокового видео, например, в среде видеоигр или мобильных устройств |
US20120079521A1 (en) * | 2010-09-23 | 2012-03-29 | Garg Sharad K | Incentivizing advertisement viewing and validating associated purchase |
Family Cites Families (606)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4288078A (en) | 1979-11-20 | 1981-09-08 | Lugo Julio I | Game apparatus |
US7831204B1 (en) | 1981-11-03 | 2010-11-09 | Personalized Media Communications, Llc | Signal processing apparatus and methods |
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
US4931865A (en) | 1988-08-24 | 1990-06-05 | Sebastiano Scarampi | Apparatus and methods for monitoring television viewers |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (ru) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5175641A (en) | 1991-04-05 | 1992-12-29 | International Business Machines Corporation | Dual-mode laser diode transmitter |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
JPH06508788A (ja) | 1991-12-03 | 1994-10-06 | フレンチ スポーテク コーポレイション | 対話型ビデオ式検査および訓練システム |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5694162A (en) * | 1993-10-15 | 1997-12-02 | Automated Business Companies, Inc. | Method for automatically changing broadcast programs based on audience response |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5528263A (en) | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
JPH0863326A (ja) | 1994-08-22 | 1996-03-08 | Hitachi Ltd | 画像処理装置及び方法 |
TW399014B (en) | 1994-08-31 | 2000-07-21 | Nike Inc | Laminated resilient flexible barrier membranes |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
WO1996009579A1 (en) | 1994-09-22 | 1996-03-28 | Izak Van Cruyningen | Popup menus with directional gestures |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
JP3270264B2 (ja) | 1994-10-19 | 2002-04-02 | 富士写真フイルム株式会社 | 放射線像変換パネルおよびその製造法 |
CA2202614A1 (en) | 1994-10-25 | 1996-05-02 | Taligent, Inc. | Object-oriented system for servicing windows |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
DE19516664C1 (de) | 1995-05-05 | 1996-08-29 | Siemens Ag | Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
WO1996041304A1 (en) | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
DE69635891T2 (de) | 1995-06-22 | 2006-12-14 | 3Dv Systems Ltd. | Verbesserte optische kamera zur entfernungsmessung |
IL114278A (en) | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US7895076B2 (en) | 1995-06-30 | 2011-02-22 | Sony Computer Entertainment Inc. | Advertisement insertion, profiling, impression, and feedback |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
JPH0981309A (ja) | 1995-09-13 | 1997-03-28 | Toshiba Corp | 入力装置 |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
US6115482A (en) | 1996-02-13 | 2000-09-05 | Ascent Technology, Inc. | Voice-output reading system with gesture-based navigation |
EP0958002A4 (en) | 1996-05-08 | 2001-03-28 | Real Vision Corp | REAL-TIME SIMULATION USING POSITION DETECTION |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
AU3954997A (en) | 1996-08-14 | 1998-03-06 | Nurakhmed Nurislamovich Latypov | Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
US20020120925A1 (en) | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
EP0849697B1 (en) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US5904484A (en) | 1996-12-23 | 1999-05-18 | Burns; Dave | Interactive motion training device and method |
DE69826544T2 (de) | 1997-03-05 | 2005-10-06 | Matsushita Electric Industrial Co., Ltd., Kadoma | Bildverarbeitungsgerät |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
US6075895A (en) | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6750848B1 (en) | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP1017973A1 (en) | 1997-09-24 | 2000-07-12 | 3DV Systems Ltd. | Acoustical imaging system |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
US6411744B1 (en) | 1997-10-15 | 2002-06-25 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6384819B1 (en) | 1997-10-15 | 2002-05-07 | Electric Planet, Inc. | System and method for generating an animatable character |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
EP0919906B1 (en) | 1997-11-27 | 2005-05-25 | Matsushita Electric Industrial Co., Ltd. | Control method |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6469714B2 (en) | 1998-01-26 | 2002-10-22 | International Business Machines Corporation | Infocenter user interface for applets and components |
EP1059970A2 (en) | 1998-03-03 | 2000-12-20 | Arena, Inc, | System and method for tracking and assessing movement skills in multidimensional space |
US7196720B2 (en) | 1998-03-06 | 2007-03-27 | Intel Corporation | Method and apparatus for powering on an electronic device with a video camera that detects motion |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6421453B1 (en) | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
JP3484085B2 (ja) * | 1998-05-22 | 2004-01-06 | 株式会社リコー | 放送型配信方法,その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体,およびコンテンツサーバ |
US6181472B1 (en) | 1998-06-10 | 2001-01-30 | Robotic Vision Systems, Inc. | Method and system for imaging an object with a plurality of optical beams |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US7146627B1 (en) * | 1998-06-12 | 2006-12-05 | Metabyte Networks, Inc. | Method and apparatus for delivery of targeted video programming |
US6141010A (en) | 1998-07-17 | 2000-10-31 | B. E. Technology, Llc | Computer interface method and apparatus with targeted advertising |
US6552722B1 (en) | 1998-07-17 | 2003-04-22 | Sensable Technologies, Inc. | Systems and methods for sculpting virtual objects in a haptic virtual reality environment |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
EP0991011B1 (en) | 1998-09-28 | 2007-07-25 | Matsushita Electric Industrial Co., Ltd. | Method and device for segmenting hand gestures |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US7684570B2 (en) | 1998-11-17 | 2010-03-23 | Aamp Of America | Vehicle remote control interface for controlling multiple electronic devices |
AU1930700A (en) | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6222465B1 (en) | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US7134130B1 (en) | 1998-12-15 | 2006-11-07 | Gateway Inc. | Apparatus and method for user-based control of television content |
DE69840608D1 (de) | 1998-12-16 | 2009-04-09 | 3Dv Systems Ltd | Selbsttastende photoempfindliche oberfläche |
US6466232B1 (en) | 1998-12-18 | 2002-10-15 | Tangis Corporation | Method and system for controlling presentation of information to a user based on the user's condition |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6226388B1 (en) | 1999-01-05 | 2001-05-01 | Sharp Labs Of America, Inc. | Method and apparatus for object tracking for automatic controls in video devices |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US6377296B1 (en) | 1999-01-28 | 2002-04-23 | International Business Machines Corporation | Virtual map system and method for tracking objects |
US7120880B1 (en) | 1999-02-25 | 2006-10-10 | International Business Machines Corporation | Method and system for real-time determination of a subject's interest level to media content |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
DE69942663D1 (de) | 1999-04-13 | 2010-09-23 | Sony Deutschland Gmbh | Zusammenfügen von Sprachschnittstellen zur gleichzeitigen Benützung von Vorrichtungen und Anwendungen |
US6591236B2 (en) | 1999-04-13 | 2003-07-08 | International Business Machines Corporation | Method and system for determining available and alternative speech commands |
US20030141360A1 (en) | 1999-04-22 | 2003-07-31 | De Leo Stephen L. | System and method for providing information and services to and from an automated teller machine |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US7015950B1 (en) | 1999-05-11 | 2006-03-21 | Pryor Timothy R | Picture taking method and apparatus |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US20070143715A1 (en) | 1999-05-25 | 2007-06-21 | Silverbrook Research Pty Ltd | Method of providing information via printed substrate and gesture recognition |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6291816B1 (en) | 1999-06-08 | 2001-09-18 | Robotic Vision Systems, Inc. | System and method for measuring object features with coordinated two and three dimensional imaging |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US6514081B1 (en) | 1999-08-06 | 2003-02-04 | Jeffrey L. Mengoli | Method and apparatus for automating motion analysis |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
DE69922706T2 (de) | 1999-09-08 | 2005-12-08 | 3Dv Systems Ltd. | 3d- bilderzeugungssystem |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US7779439B2 (en) | 2001-04-23 | 2010-08-17 | Starz Entertainment, Llc | Program guide environment |
CA2387079C (en) | 1999-10-19 | 2011-10-18 | Sony Electronics Inc. | Natural language interface control system |
US6622119B1 (en) | 1999-10-30 | 2003-09-16 | International Business Machines Corporation | Adaptive command predictor and method for a natural language dialog system |
US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US6690618B2 (en) | 2001-04-03 | 2004-02-10 | Canesta, Inc. | Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device |
US7050177B2 (en) | 2002-05-22 | 2006-05-23 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US20030021032A1 (en) | 2001-06-22 | 2003-01-30 | Cyrus Bamji | Method and system to display a virtual input device |
US20030132950A1 (en) | 2001-11-27 | 2003-07-17 | Fahri Surucu | Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains |
DE19960180B4 (de) | 1999-12-14 | 2006-03-09 | Rheinmetall W & M Gmbh | Verfahren zur Herstellung eines Sprenggeschosses |
AU2248501A (en) | 1999-12-17 | 2001-06-25 | Promo Vu | Interactive promotional information communicating system |
US7028001B1 (en) | 1999-12-27 | 2006-04-11 | Motorola, Inc. | System and method for measuring web page advertisement impressions |
TW482987B (en) | 2000-01-03 | 2002-04-11 | Amova Company | Automatic media editing system |
US7146329B2 (en) | 2000-01-13 | 2006-12-05 | Erinmedia, Llc | Privacy compliant multiple dataset correlation and content delivery system and methods |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
WO2001063916A1 (en) | 2000-02-25 | 2001-08-30 | Interval Research Corporation | Method and system for selecting advertisements |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
GB0005727D0 (en) | 2000-03-10 | 2000-05-03 | Koninkl Philips Electronics Nv | Television |
WO2001069799A2 (en) | 2000-03-16 | 2001-09-20 | Creator Ltd. | Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems |
AU2001242320A1 (en) | 2000-03-30 | 2001-10-15 | Ideogramic Aps | Method for gesture based modeling |
US6778171B1 (en) | 2000-04-05 | 2004-08-17 | Eagle New Media Investments, Llc | Real world/virtual world correlation system using 3D graphics pipeline |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6856827B2 (en) | 2000-04-28 | 2005-02-15 | Ge Medical Systems Global Technology Company, Llc | Fluoroscopic tracking and visualization system |
US20020108000A1 (en) | 2000-05-04 | 2002-08-08 | Marco Iori | User recognition system for automatically controlling accesse, apparatuses and the like equipment |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
AU6262501A (en) | 2000-05-29 | 2001-12-11 | Vkb Inc. | Virtual data entry device and method for input of alphanumeric and other data |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6873710B1 (en) | 2000-06-27 | 2005-03-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for tuning content of information presented to an audience |
US7042442B1 (en) | 2000-06-27 | 2006-05-09 | International Business Machines Corporation | Virtual invisible keyboard |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US20090234718A1 (en) | 2000-09-05 | 2009-09-17 | Novell, Inc. | Predictive service systems using emotion detection |
JP4432246B2 (ja) | 2000-09-29 | 2010-03-17 | ソニー株式会社 | 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体 |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
JP3725460B2 (ja) | 2000-10-06 | 2005-12-14 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
US20030036944A1 (en) | 2000-10-11 | 2003-02-20 | Lesandrini Jay William | Extensible business method with advertisement research as an example |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
WO2002043391A1 (en) | 2000-11-22 | 2002-05-30 | Koninklijke Philips Electronics N.V. | Method and apparatus for generating recommendations based on current mood of user |
US20020072952A1 (en) | 2000-12-07 | 2002-06-13 | International Business Machines Corporation | Visual and audible consumer reaction collection |
DE60129591T2 (de) | 2000-12-15 | 2008-04-17 | E.I. Du Pont De Nemours And Co., Wilmington | Aufnahmeelement zur einstellung des brennpunktes eines bilderzeugungslasers |
ATE321422T1 (de) | 2001-01-09 | 2006-04-15 | Metabyte Networks Inc | System, verfahren und software für die bereitstellung einer gezielten werbung durch benutzerprofildatenstruktur basierend auf benutzerpräferenzen |
JP2002259720A (ja) | 2001-03-02 | 2002-09-13 | Internatl Business Mach Corp <Ibm> | コンテンツ要約システム、映像要約システム、ユーザ端末、要約映像生成方法、要約映像受信方法、およびプログラム |
JP3850671B2 (ja) * | 2001-03-05 | 2006-11-29 | シャープ株式会社 | コンテンツ配信システムおよびそれに用いるサーバーおよびそれに用いるクライアント端末およびコンテンツ配信方法およびその方法をコンピュータに実行させるためのプログラムを記録した記録媒体 |
JP4371597B2 (ja) | 2001-03-15 | 2009-11-25 | シャープ株式会社 | 情報再生装置 |
US20020144259A1 (en) | 2001-03-29 | 2002-10-03 | Philips Electronics North America Corp. | Method and apparatus for controlling a media player based on user activity |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US7313621B2 (en) | 2001-05-15 | 2007-12-25 | Sony Corporation | Personalized interface with adaptive content presentation |
US20020174445A1 (en) | 2001-05-17 | 2002-11-21 | Koninklijke Philips Electronics N.V. | Video playback device with real-time on-line viewer feedback capability and method of operation |
US7246329B1 (en) | 2001-05-18 | 2007-07-17 | Autodesk, Inc. | Multiple menus for use with a graphical user interface |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US6594616B2 (en) | 2001-06-18 | 2003-07-15 | Microsoft Corporation | System and method for providing a mobile input device |
US6795972B2 (en) | 2001-06-29 | 2004-09-21 | Scientific-Atlanta, Inc. | Subscriber television system user interface with a virtual reality media space |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US20030007018A1 (en) | 2001-07-09 | 2003-01-09 | Giovanni Seni | Handwriting user interface for personal digital assistants and the like |
US6868383B1 (en) | 2001-07-12 | 2005-03-15 | At&T Corp. | Systems and methods for extracting meaning from multimodal inputs using finite-state devices |
GB2379017A (en) | 2001-07-27 | 2003-02-26 | Hewlett Packard Co | Method and apparatus for monitoring crowds |
WO2003015056A2 (en) | 2001-08-09 | 2003-02-20 | Visual Interaction Gmbh | Automated behavioral and cognitive profiling for training and marketing segmentation |
FI115419B (fi) | 2001-08-20 | 2005-04-29 | Helsingin Kauppakorkeakoulu | Informaatiopalveluiden käyttäjäkohtainen personointi |
US7007236B2 (en) | 2001-09-14 | 2006-02-28 | Accenture Global Services Gmbh | Lab window collaboration |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
US20030066071A1 (en) | 2001-10-03 | 2003-04-03 | Koninklijke Philips Electronics N.V. | Program recommendation method and system utilizing a viewing history of commercials |
US8079045B2 (en) | 2001-10-17 | 2011-12-13 | Keen Personal Media, Inc. | Personal video recorder and method for inserting a stored advertisement into a displayed broadcast stream |
US20030079226A1 (en) | 2001-10-19 | 2003-04-24 | Barrett Peter T. | Video segment targeting using remotely issued instructions and localized state and behavior information |
EP1306735A1 (en) | 2001-10-25 | 2003-05-02 | ABB Installationen AG | Control of a meeting room |
US20030081834A1 (en) | 2001-10-31 | 2003-05-01 | Vasanth Philomin | Intelligent TV room |
WO2003054683A2 (en) | 2001-12-07 | 2003-07-03 | Canesta Inc. | User interface for electronic devices |
JP2005512249A (ja) | 2001-12-13 | 2005-04-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | メディアシステム上のメディアコンテンツの推薦 |
US20030112467A1 (en) | 2001-12-17 | 2003-06-19 | Mccollum Tim | Apparatus and method for multimedia navigation |
US6585521B1 (en) | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US6730913B2 (en) | 2002-02-21 | 2004-05-04 | Ford Global Technologies, Llc | Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture |
US7516447B2 (en) | 2002-02-22 | 2009-04-07 | Bea Systems, Inc. | Methods and apparatus for building, customizing and using software abstractions of external entities |
WO2003073359A2 (en) | 2002-02-26 | 2003-09-04 | Canesta, Inc. | Method and apparatus for recognizing objects |
JP3715584B2 (ja) | 2002-03-28 | 2005-11-09 | 富士通株式会社 | 機器制御装置および機器制御方法 |
GB0207732D0 (en) | 2002-04-03 | 2002-05-15 | Ttpcomm Ltd | Wireless communication terminals |
US7203909B1 (en) | 2002-04-04 | 2007-04-10 | Microsoft Corporation | System and methods for constructing personalized context-sensitive portal pages or views by analyzing patterns of users' information access activities |
US7310431B2 (en) | 2002-04-10 | 2007-12-18 | Canesta, Inc. | Optical methods for remotely measuring objects |
JP2005526971A (ja) | 2002-04-19 | 2005-09-08 | アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. | 車両安全装置 |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US20040001616A1 (en) | 2002-06-27 | 2004-01-01 | Srinivas Gutta | Measurement of content ratings through vision and speech recognition |
US20040006477A1 (en) | 2002-07-05 | 2004-01-08 | Craner Michael L. | Voice-controllable communication gateway for controlling multiple electronic and information appliances |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7627139B2 (en) | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US8019121B2 (en) | 2002-07-27 | 2011-09-13 | Sony Computer Entertainment Inc. | Method and system for processing intensity from input devices for interfacing with a computer program |
US7058902B2 (en) | 2002-07-30 | 2006-06-06 | Microsoft Corporation | Enhanced on-object context menus |
US20090143141A1 (en) | 2002-08-06 | 2009-06-04 | Igt | Intelligent Multiplayer Gaming System With Multi-Touch Display |
WO2004017102A2 (en) | 2002-08-16 | 2004-02-26 | Brown University Research Foundation | Scanning magnetic microscope having improved magnetic sensor |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
JP2004110453A (ja) | 2002-09-19 | 2004-04-08 | Sony Corp | 携帯端末装置 |
AU2003275134A1 (en) | 2002-09-19 | 2004-04-08 | The Penn State Research Foundation | Prosody based audio/visual co-analysis for co-verbal gesture recognition |
US7002560B2 (en) | 2002-10-04 | 2006-02-21 | Human Interface Technologies Inc. | Method of combining data entry of handwritten symbols with displayed character data |
EP1408443B1 (en) | 2002-10-07 | 2006-10-18 | Sony France S.A. | Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition |
US20040113933A1 (en) | 2002-10-08 | 2004-06-17 | Northrop Grumman Corporation | Split and merge behavior analysis and understanding using Hidden Markov Models |
US20030126593A1 (en) | 2002-11-04 | 2003-07-03 | Mault James R. | Interactive physiological monitoring system |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US20060221081A1 (en) | 2003-01-17 | 2006-10-05 | Cohen Irun R | Reactive animation |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US7435941B2 (en) | 2003-03-14 | 2008-10-14 | Inphase Technologies, Inc. | Methods for measuring optical characteristics by differential diffractive scanning |
US7762665B2 (en) | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
EP1477924B1 (en) | 2003-03-31 | 2007-05-02 | HONDA MOTOR CO., Ltd. | Gesture recognition apparatus, method and program |
US7290218B2 (en) | 2003-04-03 | 2007-10-30 | At&T Bls Intellectual Property, Inc. | Method of providing a user interface for a digital cross-connect system |
US7681149B2 (en) | 2003-05-21 | 2010-03-16 | Nokia Corporation | User interface display for set-top box device |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
WO2005113099A2 (en) | 2003-05-30 | 2005-12-01 | America Online, Inc. | Personalizing content |
WO2004111687A2 (en) | 2003-06-12 | 2004-12-23 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7409639B2 (en) | 2003-06-19 | 2008-08-05 | Accenture Global Services Gmbh | Intelligent collaborative media |
JP4359755B2 (ja) * | 2003-07-31 | 2009-11-04 | ソニー株式会社 | コンテンツ再生方法、コンテンツ再生装置、コンテンツ配信方法およびコンテンツ配信装置 |
US7214932B2 (en) | 2003-08-20 | 2007-05-08 | Xyratex Technology Limited | Resonator method and system for distinguishing characteristics of surface features or contaminants |
US7170605B2 (en) | 2003-08-25 | 2007-01-30 | Evan Francis Cromwell | Active sensor and method for optical illumination and detection |
EP1665778A2 (en) | 2003-08-26 | 2006-06-07 | Redshift Systems Corporation | Infrared camera system |
KR100493902B1 (ko) | 2003-08-28 | 2005-06-10 | 삼성전자주식회사 | 콘텐츠 추천방법 및 시스템 |
JP2005084770A (ja) * | 2003-09-05 | 2005-03-31 | Sony Corp | コンテンツ提供システムおよび方法、提供装置および方法、再生装置および方法、並びにプログラム |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
JP2005108108A (ja) | 2003-10-01 | 2005-04-21 | Canon Inc | 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置 |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
US7155305B2 (en) | 2003-11-04 | 2006-12-26 | Universal Electronics Inc. | System and methods for home appliance identification and control in a networked environment |
US7136709B2 (en) | 2003-11-04 | 2006-11-14 | Universal Electronics Inc. | Home appliance control system and methods in a networked environment |
US8196168B1 (en) | 2003-12-10 | 2012-06-05 | Time Warner, Inc. | Method and apparatus for exchanging preferences for replaying a program on a personal video recorder |
GB2410359A (en) | 2004-01-23 | 2005-07-27 | Sony Uk Ltd | Display |
JP3847753B2 (ja) | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
JP2005218025A (ja) | 2004-02-02 | 2005-08-11 | Matsushita Electric Ind Co Ltd | 視聴中断位置記憶装置、再生装置、及び記録装置 |
EP1723596A1 (en) | 2004-02-27 | 2006-11-22 | Accenture Global Services GmbH | System for individualized customer interaction |
US7706616B2 (en) | 2004-02-27 | 2010-04-27 | International Business Machines Corporation | System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout |
US8949899B2 (en) | 2005-03-04 | 2015-02-03 | Sharp Laboratories Of America, Inc. | Collaborative recommendation system |
US7600119B2 (en) | 2004-03-04 | 2009-10-06 | Nec Corporation | Data update system, data update method, data update program, and robot system |
US20050215319A1 (en) | 2004-03-23 | 2005-09-29 | Harmonix Music Systems, Inc. | Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment |
US7301529B2 (en) | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Context dependent gesture response |
US7301527B2 (en) | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Feedback based user interface for motion controlled handheld devices |
US7173604B2 (en) | 2004-03-23 | 2007-02-06 | Fujitsu Limited | Gesture identification of controlled devices |
US7600201B2 (en) | 2004-04-07 | 2009-10-06 | Sony Corporation | Methods and apparatuses for viewing choices and making selections |
JP4092697B2 (ja) | 2004-04-07 | 2008-05-28 | ソニー株式会社 | 情報処理装置および方法、プログラム並びに記録媒体 |
KR20060131981A (ko) | 2004-04-15 | 2006-12-20 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 사용자에 대해 특정 감정적 영향을 갖는 콘텐츠 항목을생성하는 방법 |
WO2005104010A2 (en) | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
US7681141B2 (en) | 2004-05-11 | 2010-03-16 | Sony Computer Entertainment America Inc. | Fast scrolling in a graphical user interface |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US8050782B2 (en) | 2004-05-20 | 2011-11-01 | Abb Research Ltd. | Method and system to retrieve and display technical data for an industrial device |
US20060031264A1 (en) | 2004-05-20 | 2006-02-09 | Bea Systems, Inc. | Synchronization protocol for occasionally-connected application server |
US20050289582A1 (en) | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
JP2007073059A (ja) * | 2004-07-07 | 2007-03-22 | Defacto:Kk | 広告システム、及び、広告結果記録方法 |
US20060020904A1 (en) | 2004-07-09 | 2006-01-26 | Antti Aaltonen | Stripe user interface |
US7178111B2 (en) | 2004-08-03 | 2007-02-13 | Microsoft Corporation | Multi-planar three-dimensional user interface |
US7728821B2 (en) | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
JP2006060626A (ja) * | 2004-08-23 | 2006-03-02 | Matsushita Electric Ind Co Ltd | コマーシャル処理装置、およびコマーシャル視聴履歴管理システム |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
WO2006025137A1 (ja) | 2004-09-01 | 2006-03-09 | Sony Computer Entertainment Inc. | 画像処理装置、ゲーム装置および画像処理方法 |
JP2006068315A (ja) | 2004-09-02 | 2006-03-16 | Sega Corp | ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US7761814B2 (en) | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
US20060064481A1 (en) | 2004-09-17 | 2006-03-23 | Anthony Baron | Methods for service monitoring and control |
WO2006038779A1 (en) | 2004-10-01 | 2006-04-13 | Samsung Electronics Co., Ltd. | Device and method for displaying event in wireless terminal |
EP1645944B1 (en) | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
US7212665B2 (en) | 2004-11-05 | 2007-05-01 | Honda Motor Co. | Human pose estimation with data driven belief propagation |
US7346944B2 (en) | 2004-11-05 | 2008-03-25 | Mark Shaw | Mattress monitoring system |
US7814518B2 (en) | 2004-11-23 | 2010-10-12 | Palo Alto Research Center Incorporated | Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content |
US7870589B2 (en) | 2004-11-23 | 2011-01-11 | Palo Alto Research Center Incorporated | Method for providing commentary audio and additional or replacement video content |
US7217020B2 (en) | 2004-11-24 | 2007-05-15 | General Motors Corporation | Headlamp assembly with integrated infrared illuminator |
US20060123360A1 (en) | 2004-12-03 | 2006-06-08 | Picsel Research Limited | User interfaces for data processing devices and systems |
JP4449723B2 (ja) | 2004-12-08 | 2010-04-14 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
US7216053B2 (en) | 2004-12-30 | 2007-05-08 | Nokia Corporation | Low power motion detector |
US7853041B2 (en) | 2005-01-07 | 2010-12-14 | Gesturetek, Inc. | Detecting and tracking objects in images |
CN101198964A (zh) | 2005-01-07 | 2008-06-11 | 格斯图尔泰克股份有限公司 | 使用红外图案照射创建对象的三维图像 |
EP1849123A2 (en) | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
KR100703693B1 (ko) | 2005-01-13 | 2007-04-05 | 삼성전자주식회사 | 얼굴 인식 시스템 및 방법 |
JP3862027B2 (ja) | 2005-01-25 | 2006-12-27 | 船井電機株式会社 | 放送信号受信システム |
US20060184800A1 (en) | 2005-02-16 | 2006-08-17 | Outland Research, Llc | Method and apparatus for using age and/or gender recognition techniques to customize a user interface |
JP5631535B2 (ja) | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
GB2423808B (en) | 2005-03-04 | 2010-02-17 | Ford Global Tech Llc | Motor vehicle control system for controlling one or more vehicle devices |
US20060218573A1 (en) | 2005-03-04 | 2006-09-28 | Stexar Corp. | Television program highlight tagging |
KR100688743B1 (ko) | 2005-03-11 | 2007-03-02 | 삼성전기주식회사 | 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법 |
US7643056B2 (en) | 2005-03-14 | 2010-01-05 | Aptina Imaging Corporation | Motion detecting camera system |
US7877703B1 (en) | 2005-03-14 | 2011-01-25 | Seven Networks, Inc. | Intelligent rendering of information in a limited display environment |
WO2006099597A2 (en) | 2005-03-17 | 2006-09-21 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
US8147248B2 (en) | 2005-03-21 | 2012-04-03 | Microsoft Corporation | Gesture training |
US20070214471A1 (en) | 2005-03-23 | 2007-09-13 | Outland Research, L.L.C. | System, method and computer program product for providing collective interactive television experiences |
US7487461B2 (en) | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
US7389591B2 (en) | 2005-05-17 | 2008-06-24 | Gesturetek, Inc. | Orientation-sensitive signal output |
US20060262116A1 (en) | 2005-05-19 | 2006-11-23 | Hillcrest Laboratories, Inc. | Global navigation objects in user interfaces |
US20060280055A1 (en) | 2005-06-08 | 2006-12-14 | Miller Rodney D | Laser power control and device status monitoring for video/graphic applications |
US7646960B2 (en) | 2005-06-09 | 2010-01-12 | International Business Machines Corporation | Determining chapters based on presentation of a program |
US20070033607A1 (en) | 2005-08-08 | 2007-02-08 | Bryan David A | Presence and proximity responsive program display |
TWI412392B (zh) | 2005-08-12 | 2013-10-21 | Koninkl Philips Electronics Nv | 互動式娛樂系統及其操作方法 |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
TW200713060A (en) | 2005-09-30 | 2007-04-01 | Primax Electronics Ltd | Adaptive input method for touch screen |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
US7519201B2 (en) | 2005-10-28 | 2009-04-14 | Honda Motor Co., Ltd. | Detecting humans via their pose |
GB2431717A (en) | 2005-10-31 | 2007-05-02 | Sony Uk Ltd | Scene analysis |
US20070143787A1 (en) * | 2005-12-19 | 2007-06-21 | Cankaya Hakki C | System and method for providing context-aware local advertising in IPTV systems |
US20070140532A1 (en) | 2005-12-20 | 2007-06-21 | Goffin Glen P | Method and apparatus for providing user profiling based on facial recognition |
US20070150281A1 (en) | 2005-12-22 | 2007-06-28 | Hoff Todd M | Method and system for utilizing emotion to search content |
US20070150916A1 (en) | 2005-12-28 | 2007-06-28 | James Begole | Using sensors to provide feedback on the access of digital content |
US20070214292A1 (en) | 2006-02-24 | 2007-09-13 | Gillian Hayes | System and method for archiving of continuous capture buffers |
WO2007096893A2 (en) | 2006-02-27 | 2007-08-30 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
US8321889B2 (en) | 2006-03-08 | 2012-11-27 | Kamfu Wong | Method and system for personalized and localized TV ad delivery |
US20070219430A1 (en) | 2006-03-17 | 2007-09-20 | Moore Barrett H | Electricity Providing Privately Provisioned Subscription-Based Survival Supply Unit Method And Apparatus |
DE102006037156A1 (de) | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
US8491159B2 (en) | 2006-03-28 | 2013-07-23 | Wireless Environment, Llc | Wireless emergency lighting system |
US8362713B2 (en) | 2006-03-28 | 2013-01-29 | Wireless Environment, Llc | Wireless lighting devices and grid-shifting applications |
US7568116B2 (en) | 2006-04-14 | 2009-07-28 | Clever Innovations, Inc. | Automated display device |
DE102006021414A1 (de) | 2006-05-05 | 2007-11-08 | Claudia Eisert | Flexibles orthetisches Bekleidungsstück |
EP2016562A4 (en) | 2006-05-07 | 2010-01-06 | Sony Computer Entertainment Inc | METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME |
US20070271580A1 (en) | 2006-05-16 | 2007-11-22 | Bellsouth Intellectual Property Corporation | Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics |
AU2007254220B2 (en) | 2006-05-18 | 2012-03-29 | The Nielsen Company (Us), Llc | Methods and apparatus for cooperator installed meters |
US7721207B2 (en) | 2006-05-31 | 2010-05-18 | Sony Ericsson Mobile Communications Ab | Camera based control |
US7640304B1 (en) | 2006-06-14 | 2009-12-29 | Yes International Ag | System and method for detecting and measuring emotional indicia |
WO2007149341A2 (en) | 2006-06-14 | 2007-12-27 | Agent Science Technologies, Inc. | System to associate a demographic to a user of an electronic system |
JP2009543407A (ja) | 2006-06-27 | 2009-12-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テレビジョン番組への広告の挿入 |
CN101490762B (zh) | 2006-07-12 | 2011-04-13 | 皇家飞利浦电子股份有限公司 | 用于播放音频-视频内容的设备和方法 |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
TW200806029A (en) | 2006-07-14 | 2008-01-16 | Asustek Comp Inc | Display system and control method thereof |
US20080018591A1 (en) | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
US20080027984A1 (en) | 2006-07-31 | 2008-01-31 | Motorola, Inc. | Method and system for multi-dimensional action capture |
US8775237B2 (en) | 2006-08-02 | 2014-07-08 | Opinionlab, Inc. | System and method for measuring and reporting user reactions to advertisements on a web page |
US20080052026A1 (en) | 2006-08-23 | 2008-02-28 | Qurio Holdings, Inc. | Configuring a content capture device for one or more service providers |
US9514436B2 (en) | 2006-09-05 | 2016-12-06 | The Nielsen Company (Us), Llc | Method and system for predicting audience viewing behavior |
EP2063767A4 (en) | 2006-09-05 | 2014-05-21 | Innerscope Res Inc | METHOD AND SYSTEM FOR DETERMINING THE RESPONSE OF A PUBLIC TO A SENSORY STIMULUS |
US7725547B2 (en) | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US8395658B2 (en) | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
WO2008032329A2 (en) | 2006-09-13 | 2008-03-20 | Alon Atsmon | Providing content responsive to multimedia signals |
US8645973B2 (en) | 2006-09-22 | 2014-02-04 | Oracle International Corporation | Mobile applications |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
US8287372B2 (en) | 2006-09-28 | 2012-10-16 | Mattel, Inc. | Interactive toy and display system |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US7806329B2 (en) | 2006-10-17 | 2010-10-05 | Google Inc. | Targeted video advertising |
KR100828371B1 (ko) | 2006-10-27 | 2008-05-08 | 삼성전자주식회사 | 컨텐츠의 메타 데이터 생성 방법 및 장치 |
EP1919216A1 (en) | 2006-10-30 | 2008-05-07 | British Telecommunications Public Limited Company | Personalised media presentation |
US8102422B1 (en) | 2006-11-22 | 2012-01-24 | Amdocs Software Systems Limited | System, method and computer program product for presenting an option to receive advertisement content |
US20080124690A1 (en) | 2006-11-28 | 2008-05-29 | Attune Interactive, Inc. | Training system using an interactive prompt character |
US20080134102A1 (en) | 2006-12-05 | 2008-06-05 | Sony Ericsson Mobile Communications Ab | Method and system for detecting movement of an object |
CN101202994B (zh) | 2006-12-14 | 2012-10-24 | 北京三星通信技术研究有限公司 | 辅助用户健身的方法和装置 |
KR100720335B1 (ko) | 2006-12-20 | 2007-05-23 | 최경순 | 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법 |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
KR20080058740A (ko) | 2006-12-22 | 2008-06-26 | 삼성전자주식회사 | 디지털 방송 수신 장치 및 시간 동기화 방법 |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
US9311528B2 (en) | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
US20080163283A1 (en) | 2007-01-03 | 2008-07-03 | Angelito Perez Tan | Broadband video with synchronized highlight signals |
US7770136B2 (en) | 2007-01-24 | 2010-08-03 | Microsoft Corporation | Gesture recognition interactive feedback |
GB0703974D0 (en) | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
US20090070798A1 (en) | 2007-03-02 | 2009-03-12 | Lee Hans C | System and Method for Detecting Viewer Attention to Media Delivery Devices |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US20080234023A1 (en) | 2007-03-23 | 2008-09-25 | Ajmal Mullahkhel | Light game |
CN101632053A (zh) | 2007-04-03 | 2010-01-20 | 深圳Tcl新技术有限公司 | 根据运动探测进行系统功耗模式切换的系统和方法 |
US8390649B2 (en) | 2007-04-30 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | Electronic device input control system and method |
US20090217315A1 (en) | 2008-02-26 | 2009-08-27 | Cognovision Solutions Inc. | Method and system for audience measurement and targeting media |
WO2008144575A2 (en) | 2007-05-18 | 2008-11-27 | Optiscan Biomedical Corporation | Fluid injection and safety system |
US20080310707A1 (en) | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Virtual reality enhancement using real world data |
US8078787B2 (en) | 2007-06-22 | 2011-12-13 | Apple Inc. | Communication between a host device and an accessory via an intermediate device |
US8817061B2 (en) | 2007-07-02 | 2014-08-26 | Cisco Technology, Inc. | Recognition of human gestures by a mobile phone |
KR20090002809A (ko) | 2007-07-04 | 2009-01-09 | 삼성전자주식회사 | 어플리케이션에서 생성된 데이터를 hdmi cec에 따라송수신하는 방법 |
EP2017707B1 (en) | 2007-07-06 | 2017-04-12 | Dassault Systèmes | Widget of graphical user interface and method for navigating amongst related objects |
US7865916B2 (en) | 2007-07-20 | 2011-01-04 | James Beser | Audience determination for monetizing displayable content |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
US8081302B2 (en) | 2007-08-17 | 2011-12-20 | Princeton Satellite Systems, Inc. | Multimode optical sensor |
US8156118B2 (en) | 2007-08-20 | 2012-04-10 | Samsung Electronics Co., Ltd. | Method and system for generating playlists for content items |
US9261979B2 (en) | 2007-08-20 | 2016-02-16 | Qualcomm Incorporated | Gesture-based mobile interaction |
US8132187B2 (en) | 2007-08-31 | 2012-03-06 | Microsoft Corporation | Driver installer usable in plural environments |
US10091345B2 (en) | 2007-09-04 | 2018-10-02 | Apple Inc. | Media out interface |
KR101182286B1 (ko) | 2007-09-19 | 2012-09-14 | 삼성전자주식회사 | 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법 |
US7899777B2 (en) | 2007-09-27 | 2011-03-01 | Rockwell Automation Technologies, Inc. | Web-based visualization mash-ups for industrial automation |
EP2042969A1 (en) | 2007-09-28 | 2009-04-01 | Alcatel Lucent | Method for determining user reaction with specific content of a displayed page. |
US8522289B2 (en) | 2007-09-28 | 2013-08-27 | Yahoo! Inc. | Distributed automatic recording of live event |
US8151292B2 (en) | 2007-10-02 | 2012-04-03 | Emsense Corporation | System for remote access to media, and reaction and survey data from viewers of the media |
US7970176B2 (en) | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
US8776102B2 (en) | 2007-10-09 | 2014-07-08 | At&T Intellectual Property I, Lp | System and method for evaluating audience reaction to a data stream |
US20090106645A1 (en) | 2007-10-17 | 2009-04-23 | Thinkingcraft, Inc. | Adaptive response/interpretive expression, communication distribution, and intelligent determination system and method |
US8171035B2 (en) | 2007-10-22 | 2012-05-01 | Samsung Electronics Co., Ltd. | Situation-aware recommendation using correlation |
US8001108B2 (en) | 2007-10-24 | 2011-08-16 | The Invention Science Fund I, Llc | Returning a new content based on a person's reaction to at least two instances of previously displayed content |
US9292092B2 (en) | 2007-10-30 | 2016-03-22 | Hewlett-Packard Development Company, L.P. | Interactive display system with collaborative gesture detection |
US8094891B2 (en) | 2007-11-01 | 2012-01-10 | Sony Ericsson Mobile Communications Ab | Generating music playlist based on facial expression |
JP5844044B2 (ja) | 2007-11-21 | 2016-01-13 | クアルコム,インコーポレイテッド | デバイスアクセス制御 |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
US8471868B1 (en) | 2007-11-28 | 2013-06-25 | Sprint Communications Company L.P. | Projector and ultrasonic gesture-controlled communicator |
WO2009073634A1 (en) | 2007-11-30 | 2009-06-11 | Emsense Corporation | Correlating media instance information with physiological responses from participating subjects |
GB2455316B (en) | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
US20090157472A1 (en) | 2007-12-14 | 2009-06-18 | Kimberly-Clark Worldwide, Inc. | Personalized Retail Information Delivery Systems and Methods |
US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
WO2009086088A1 (en) | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US8588816B2 (en) | 2007-12-21 | 2013-11-19 | Qualcomm Incorporated | Systems and methods for targeted advertising on wireless devices based on device location and current user interests |
TW200928892A (en) | 2007-12-28 | 2009-07-01 | Wistron Corp | Electronic apparatus and operation method thereof |
US8149210B2 (en) | 2007-12-31 | 2012-04-03 | Microsoft International Holdings B.V. | Pointing device and method |
US8090030B2 (en) | 2008-01-04 | 2012-01-03 | Silicon Image, Inc. | Method, apparatus and system for generating and facilitating mobile high-definition multimedia interface |
US8646017B2 (en) | 2008-01-14 | 2014-02-04 | At&T Intellectual Property I, L.P. | Method and apparatus for providing collaborative viewing of a media stream |
US8166421B2 (en) | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8059111B2 (en) | 2008-01-21 | 2011-11-15 | Sony Computer Entertainment America Llc | Data transfer using hand-held device |
US7904530B2 (en) | 2008-01-29 | 2011-03-08 | Palo Alto Research Center Incorporated | Method and apparatus for automatically incorporating hypothetical context information into recommendation queries |
WO2009099296A2 (en) | 2008-02-05 | 2009-08-13 | Lg Electronics Inc. | Virtual optical input device for providing various types of interfaces and method of controlling the same |
JP2009186630A (ja) * | 2008-02-05 | 2009-08-20 | Nec Corp | 広告配信装置 |
JP5259212B2 (ja) * | 2008-02-26 | 2013-08-07 | Kddi株式会社 | 音楽連動型広告配信方法、装置およびシステム |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
KR101365776B1 (ko) | 2008-04-08 | 2014-02-20 | 엘지디스플레이 주식회사 | 멀티 터치 시스템 및 그 구동 방법 |
EP2108328B2 (de) | 2008-04-09 | 2020-08-26 | Brainlab AG | Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
GB2459707B (en) | 2008-05-01 | 2010-08-11 | Sony Computer Entertainment Inc | Media recorder, audio visual entertainment system and method |
WO2009143294A2 (en) | 2008-05-20 | 2009-11-26 | Citrix Systems, Inc. | Methods and systems for using external display devices with a mobile computing device |
US7979590B2 (en) | 2008-05-27 | 2011-07-12 | Eyran Lida | Multiple sink configuration supporting HDMI-CEC |
US8477139B2 (en) | 2008-06-09 | 2013-07-02 | Apple Inc. | Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects |
JP2009302751A (ja) | 2008-06-11 | 2009-12-24 | Sharp Corp | 要約再生装置、要約再生方法、要約再生プログラム、および記録媒体 |
US9130684B2 (en) | 2008-06-23 | 2015-09-08 | Echostar Technologies L.L.C. | Systems and methods for conserving energy in an entertainment system |
JP2010016623A (ja) | 2008-07-03 | 2010-01-21 | Hitachi Ltd | コンテンツ視聴システム |
CN201247590Y (zh) | 2008-08-01 | 2009-05-27 | 鸿富锦精密工业(深圳)有限公司 | 可自动切换显示模式的电子相框 |
US9269090B2 (en) | 2008-08-18 | 2016-02-23 | Nokia Technologies Oy | Method, apparatus and computer program product for providing indications regarding recommended content |
US8925001B2 (en) | 2008-09-12 | 2014-12-30 | At&T Intellectual Property I, L.P. | Media stream generation based on a category of user expression |
US20100070913A1 (en) | 2008-09-15 | 2010-03-18 | Apple Inc. | Selecting an item of content in a graphical user interface for a portable computing device |
US8769427B2 (en) | 2008-09-19 | 2014-07-01 | Google Inc. | Quick gesture input |
US8516561B2 (en) | 2008-09-29 | 2013-08-20 | At&T Intellectual Property I, L.P. | Methods and apparatus for determining user authorization from motion of a gesture-based control unit |
JP2010086356A (ja) | 2008-09-30 | 2010-04-15 | Nec Corp | 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム |
US20100086204A1 (en) | 2008-10-03 | 2010-04-08 | Sony Ericsson Mobile Communications Ab | System and method for capturing an emotional characteristic of a user |
US8544046B2 (en) | 2008-10-09 | 2013-09-24 | Packetvideo Corporation | System and method for controlling media rendering in a network using a mobile device |
KR20100041006A (ko) | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
US9399167B2 (en) | 2008-10-14 | 2016-07-26 | Microsoft Technology Licensing, Llc | Virtual space mapping of a variable activity region |
US20100107184A1 (en) | 2008-10-23 | 2010-04-29 | Peter Rae Shintani | TV with eye detection |
US8040237B2 (en) | 2008-10-29 | 2011-10-18 | The Nielsen Company (Us), Llc | Methods and apparatus to detect carrying of a portable audience measurement device |
US9374617B2 (en) | 2008-10-30 | 2016-06-21 | Taboola.Com Ltd | System and method for the presentation of alternative content to viewers video content |
US8752087B2 (en) | 2008-11-07 | 2014-06-10 | At&T Intellectual Property I, L.P. | System and method for dynamically constructing personalized contextual video programs |
JP5489197B2 (ja) | 2008-11-10 | 2014-05-14 | 九州日本電気ソフトウェア株式会社 | 電子広告装置・方法及びプログラム |
JP5224360B2 (ja) * | 2008-11-10 | 2013-07-03 | 日本電気株式会社 | 電子広告装置、電子広告方法及びプログラム |
US20100138797A1 (en) | 2008-12-01 | 2010-06-03 | Sony Ericsson Mobile Communications Ab | Portable electronic device with split vision content sharing control and method |
KR101531363B1 (ko) | 2008-12-10 | 2015-07-06 | 삼성전자주식회사 | 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법 |
US20100153984A1 (en) | 2008-12-12 | 2010-06-17 | Microsoft Corporation | User Feedback Based Highlights of Recorded Programs |
US20100161424A1 (en) | 2008-12-22 | 2010-06-24 | Nortel Networks Limited | Targeted advertising system and method |
JP4775671B2 (ja) | 2008-12-26 | 2011-09-21 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US8856829B2 (en) | 2008-12-29 | 2014-10-07 | Ngc Network Us, Llc | Interactive display highlight systems, methods, and computer program products |
US20100169157A1 (en) | 2008-12-30 | 2010-07-01 | Nokia Corporation | Methods, apparatuses, and computer program products for providing targeted advertising |
US20100169842A1 (en) | 2008-12-31 | 2010-07-01 | Microsoft Corporation | Control Function Gestures |
US20100191631A1 (en) | 2009-01-29 | 2010-07-29 | Adrian Weidmann | Quantitative media valuation method, system and computer program |
TW201032087A (en) | 2009-02-19 | 2010-09-01 | Asustek Comp Inc | Command control system and method thereof |
CN101833286A (zh) | 2009-03-13 | 2010-09-15 | 王俊锋 | 一种智能家居控制器 |
US20100248832A1 (en) | 2009-03-30 | 2010-09-30 | Microsoft Corporation | Control of video game via microphone |
US9172482B2 (en) | 2009-03-31 | 2015-10-27 | At&T Intellectual Property I, L.P. | Content recommendations based on personal preferences |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
CN101546248B (zh) | 2009-05-05 | 2014-04-09 | 阿里巴巴集团控股有限公司 | 一种级联式选择菜单的呈现方法及装置 |
KR101567603B1 (ko) | 2009-05-07 | 2015-11-20 | 엘지전자 주식회사 | 멀티 음성 시스템의 동작 제어 장치 및 방법 |
JP5299866B2 (ja) | 2009-05-19 | 2013-09-25 | 日立コンシューマエレクトロニクス株式会社 | 映像表示装置 |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8255955B1 (en) | 2009-06-16 | 2012-08-28 | Tivo Inc. | Dynamic item highlighting system |
US9594431B2 (en) | 2009-06-19 | 2017-03-14 | Hewlett-Packard Development Company, L.P. | Qualified command |
US20100332842A1 (en) | 2009-06-30 | 2010-12-30 | Yahoo! Inc. | Determining a mood of a user based on biometric characteristic(s) of the user in an online system |
US9445036B2 (en) | 2009-06-30 | 2016-09-13 | Rovi Guides, Inc. | Methods and systems for content scheduling across multiple devices |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US20110016102A1 (en) | 2009-07-20 | 2011-01-20 | Louis Hawthorne | System and method for identifying and providing user-specific psychoactive content |
US8428368B2 (en) | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
JP5397081B2 (ja) | 2009-08-12 | 2014-01-22 | 富士通モバイルコミュニケーションズ株式会社 | 携帯端末 |
US8326002B2 (en) | 2009-08-13 | 2012-12-04 | Sensory Logic, Inc. | Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions |
US7873849B2 (en) | 2009-09-02 | 2011-01-18 | Apple Inc. | Motion sensor data processing using various power management modes |
WO2011030357A1 (en) | 2009-09-08 | 2011-03-17 | Telecom Italia S.P.A. | Method for exploring a catalog of digital information contents |
US8275834B2 (en) | 2009-09-14 | 2012-09-25 | Applied Research Associates, Inc. | Multi-modal, geo-tempo communications systems |
US8875167B2 (en) | 2009-09-21 | 2014-10-28 | Mobitv, Inc. | Implicit mechanism for determining user response to media |
US20110084983A1 (en) | 2009-09-29 | 2011-04-14 | Wavelength & Resonance LLC | Systems and Methods for Interaction With a Virtual Environment |
US20110077719A1 (en) | 2009-09-30 | 2011-03-31 | Broadcom Corporation | Electromagnetic power bio-medical unit |
KR20110045565A (ko) * | 2009-10-27 | 2011-05-04 | 한국전자통신연구원 | 광고 서비스 제공 방법 |
KR101647722B1 (ko) | 2009-11-13 | 2016-08-23 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
US8627230B2 (en) | 2009-11-24 | 2014-01-07 | International Business Machines Corporation | Intelligent command prediction |
CN105141871A (zh) | 2009-12-04 | 2015-12-09 | Tivo有限公司 | 多功能多媒体设备 |
US20110145040A1 (en) | 2009-12-16 | 2011-06-16 | Microsoft Corporation | Content recommendation |
KR20110076458A (ko) | 2009-12-29 | 2011-07-06 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어방법 |
US8719776B2 (en) | 2009-12-30 | 2014-05-06 | Foneclay, Inc. | System for creation and distribution of software applications usable on multiple mobile device platforms |
US10356465B2 (en) | 2010-01-06 | 2019-07-16 | Sony Corporation | Video system demonstration |
US20110173589A1 (en) | 2010-01-13 | 2011-07-14 | Microsoft Corporation | Cross-Browser Interactivity Testing |
CN101777250B (zh) | 2010-01-25 | 2012-01-25 | 中国科学技术大学 | 家用电器的通用遥控装置及方法 |
JP5609160B2 (ja) | 2010-02-26 | 2014-10-22 | ソニー株式会社 | 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体 |
US20110216059A1 (en) | 2010-03-03 | 2011-09-08 | Raytheon Company | Systems and methods for generating real-time three-dimensional graphics in an area of interest |
US9124651B2 (en) | 2010-03-30 | 2015-09-01 | Microsoft Technology Licensing, Llc | Controlling media consumption privacy settings |
US20110242305A1 (en) | 2010-04-01 | 2011-10-06 | Peterson Harry W | Immersive Multimedia Terminal |
JP5521727B2 (ja) | 2010-04-19 | 2014-06-18 | ソニー株式会社 | 画像処理システム、画像処理装置、画像処理方法及びプログラム |
US20110263946A1 (en) | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
US20110264531A1 (en) | 2010-04-26 | 2011-10-27 | Yahoo! Inc. | Watching a user's online world |
US9503786B2 (en) * | 2010-06-07 | 2016-11-22 | Affectiva, Inc. | Video recommendation using affect |
US8966447B2 (en) | 2010-06-21 | 2015-02-24 | Apple Inc. | Capturing and displaying state of automated user-level testing of a graphical user interface application |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US20110316845A1 (en) | 2010-06-25 | 2011-12-29 | Palo Alto Research Center Incorporated | Spatial association between virtual and augmented reality |
US20110320741A1 (en) | 2010-06-28 | 2011-12-29 | Nokia Corporation | Method and apparatus providing for direct controlled access to a dynamic user profile |
US8423912B2 (en) | 2010-06-29 | 2013-04-16 | Pourang Irani | Selectable parent and submenu object display method with varied activation area shape |
US9009339B2 (en) | 2010-06-29 | 2015-04-14 | Echostar Technologies L.L.C. | Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content |
US20120005632A1 (en) | 2010-06-30 | 2012-01-05 | Broyles Iii Paul J | Execute a command |
US8453176B2 (en) | 2010-08-20 | 2013-05-28 | Avaya Inc. | OCAP/STB ACAP/satellite-receiver audience response/consumer application |
US8499245B1 (en) | 2010-08-24 | 2013-07-30 | Amazon Technologies, Inc. | Multi-source profiling for adaptive device operation |
US9247205B2 (en) | 2010-08-31 | 2016-01-26 | Fujitsu Limited | System and method for editing recorded videoconference data |
US8949871B2 (en) | 2010-09-08 | 2015-02-03 | Opentv, Inc. | Smart media selection based on viewer user presence |
US20120084812A1 (en) | 2010-10-04 | 2012-04-05 | Mark Thompson | System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content |
US9348141B2 (en) | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
US20120109726A1 (en) | 2010-10-30 | 2012-05-03 | Verizon Patent And Licensing, Inc. | Methods and Systems for Trigger-Based Updating of an Index File Associated with a Captured Media Content Instance |
US9348417B2 (en) | 2010-11-01 | 2016-05-24 | Microsoft Technology Licensing, Llc | Multimodal input system |
US20120117015A1 (en) | 2010-11-05 | 2012-05-10 | Nokia Corporation | Method and apparatus for providing rule-based recommendations |
US8631473B2 (en) | 2011-07-06 | 2014-01-14 | Symphony Advanced Media | Social content monitoring platform apparatuses and systems |
JP4945675B2 (ja) | 2010-11-12 | 2012-06-06 | 株式会社東芝 | 音響信号処理装置、テレビジョン装置及びプログラム |
US8640021B2 (en) | 2010-11-12 | 2014-01-28 | Microsoft Corporation | Audience-based presentation and customization of content |
US20120174039A1 (en) | 2011-01-05 | 2012-07-05 | United Video Properties, Inc. | Systems and methods for navigating through content in an interactive media guidance application |
US20120209715A1 (en) | 2011-02-11 | 2012-08-16 | Microsoft Corporation | Interaction with networked screen content via motion sensing device in retail setting |
US20110145041A1 (en) | 2011-02-15 | 2011-06-16 | InnovatioNet | System for communication between users and global media-communication network |
EP2681921A2 (en) | 2011-02-28 | 2014-01-08 | Telefonaktiebolaget LM Ericsson (PUBL) | Electronically communicating media recommendations responsive to preferences for an electronic terminal |
US20120226981A1 (en) | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Controlling electronic devices in a multimedia system through a natural user interface |
KR20160084502A (ko) | 2011-03-29 | 2016-07-13 | 퀄컴 인코포레이티드 | 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들 |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US9088823B1 (en) | 2011-04-29 | 2015-07-21 | Amazon Technologies, Inc. | Customized insertions into digital items |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US9026476B2 (en) | 2011-05-09 | 2015-05-05 | Anurag Bist | System and method for personalized media rating and related emotional profile analytics |
US20120304059A1 (en) | 2011-05-24 | 2012-11-29 | Microsoft Corporation | Interactive Build Instructions |
US20120304206A1 (en) | 2011-05-26 | 2012-11-29 | Verizon Patent And Licensing, Inc. | Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9077458B2 (en) * | 2011-06-17 | 2015-07-07 | Microsoft Technology Licensing, Llc | Selection of advertisements via viewer feedback |
US20120324491A1 (en) | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
US20120330836A1 (en) | 2011-06-24 | 2012-12-27 | American Express Travel Related Services Company, Inc. | Systems and methods for gesture-based interaction with computer systems |
US9026948B2 (en) | 2011-06-29 | 2015-05-05 | Microsoft Technology Licensing, Llc | Multi-faceted relationship hubs |
US8368723B1 (en) | 2011-07-14 | 2013-02-05 | Google Inc. | User input combination of touch and user position |
WO2013019307A1 (en) | 2011-08-04 | 2013-02-07 | Thomson Licensing | Content recommendation method and apparatus |
US9933935B2 (en) | 2011-08-26 | 2018-04-03 | Apple Inc. | Device, method, and graphical user interface for editing videos |
US8959082B2 (en) | 2011-10-31 | 2015-02-17 | Elwha Llc | Context-sensitive query enrichment |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US20130145385A1 (en) | 2011-12-02 | 2013-06-06 | Microsoft Corporation | Context-based ratings and recommendations for media |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US8943526B2 (en) | 2011-12-02 | 2015-01-27 | Microsoft Corporation | Estimating engagement of consumers of presented content |
US9100685B2 (en) * | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US20130159555A1 (en) | 2011-12-20 | 2013-06-20 | Microsoft Corporation | Input commands |
US20130198690A1 (en) | 2012-02-01 | 2013-08-01 | Microsoft Corporation | Visual indication of graphical user interface relationship |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US20130268955A1 (en) | 2012-04-06 | 2013-10-10 | Microsoft Corporation | Highlighting or augmenting a media program |
US20130283162A1 (en) * | 2012-04-23 | 2013-10-24 | Sony Mobile Communications Ab | System and method for dynamic content modification based on user reactions |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
CA2775814C (en) | 2012-05-04 | 2013-09-03 | Microsoft Corporation | Advertisement presentation based on a current media reaction |
JP6064544B2 (ja) | 2012-11-27 | 2017-01-25 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び端末装置 |
US9996974B2 (en) | 2013-08-30 | 2018-06-12 | Qualcomm Incorporated | Method and apparatus for representing a physical scene |
US20150262412A1 (en) | 2014-03-17 | 2015-09-17 | Qualcomm Incorporated | Augmented reality lighting with dynamic geometry |
US9959675B2 (en) | 2014-06-09 | 2018-05-01 | Microsoft Technology Licensing, Llc | Layout design using locally satisfiable proposals |
-
2012
- 2012-05-04 CA CA2775700A patent/CA2775700C/en active Active
- 2012-05-29 US US13/482,867 patent/US8959541B2/en active Active
-
2013
- 2013-04-26 TW TW102115081A patent/TW201407516A/zh unknown
- 2013-05-04 WO PCT/US2013/039591 patent/WO2013166474A2/en active Application Filing
- 2013-05-04 KR KR1020147034014A patent/KR102068376B1/ko active IP Right Grant
- 2013-05-04 MX MX2014013427A patent/MX345058B/es active IP Right Grant
- 2013-05-04 BR BR112014026648A patent/BR112014026648A8/pt not_active Application Discontinuation
- 2013-05-04 RU RU2014144369A patent/RU2646367C2/ru active
- 2013-05-04 EP EP13724078.4A patent/EP2845163A4/en not_active Withdrawn
- 2013-05-04 AU AU2013256054A patent/AU2013256054B2/en active Active
- 2013-05-04 JP JP2015510501A patent/JP6291481B2/ja active Active
-
2015
- 2015-01-13 US US14/596,074 patent/US9788032B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2138923C1 (ru) * | 1992-12-09 | 1999-09-27 | Дискавери Коммьюникейшнз, Инк. | Устройство для системы распределения телевизионных программ и способ распределения телевизионных программ в системе распределения телевизионных программ |
US20030093784A1 (en) * | 2001-11-13 | 2003-05-15 | Koninklijke Philips Electronics N.V. | Affective television monitoring and control |
US20050223237A1 (en) * | 2004-04-01 | 2005-10-06 | Antonio Barletta | Emotion controlled system for processing multimedia data |
RU2417113C2 (ru) * | 2005-12-27 | 2011-04-27 | Мэссив Инкорпорейтед | Представление потокового видео, например, в среде видеоигр или мобильных устройств |
US20090037945A1 (en) * | 2007-07-31 | 2009-02-05 | Hewlett-Packard Development Company, L.P. | Multimedia presentation apparatus, method of selecting multimedia content, and computer program product |
US20090195392A1 (en) * | 2008-01-31 | 2009-08-06 | Gary Zalewski | Laugh detector and system and method for tracking an emotional response to a media presentation |
US20100070987A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Mining viewer responses to multimedia content |
US20120079521A1 (en) * | 2010-09-23 | 2012-03-29 | Garg Sharad K | Incentivizing advertisement viewing and validating associated purchase |
Also Published As
Publication number | Publication date |
---|---|
CA2775700A1 (en) | 2012-07-09 |
MX2014013427A (es) | 2014-12-08 |
US20150128161A1 (en) | 2015-05-07 |
MX345058B (es) | 2017-01-16 |
WO2013166474A2 (en) | 2013-11-07 |
AU2013256054B2 (en) | 2019-01-31 |
US8959541B2 (en) | 2015-02-17 |
JP6291481B2 (ja) | 2018-03-14 |
KR20150013237A (ko) | 2015-02-04 |
US20130298146A1 (en) | 2013-11-07 |
EP2845163A2 (en) | 2015-03-11 |
RU2014144369A (ru) | 2016-06-27 |
TW201407516A (zh) | 2014-02-16 |
WO2013166474A3 (en) | 2014-10-23 |
US9788032B2 (en) | 2017-10-10 |
EP2845163A4 (en) | 2015-06-10 |
KR102068376B1 (ko) | 2020-01-20 |
BR112014026648A2 (pt) | 2017-06-27 |
CA2775700C (en) | 2013-07-23 |
BR112014026648A8 (pt) | 2021-05-25 |
JP2015521413A (ja) | 2015-07-27 |
AU2013256054A1 (en) | 2014-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2646367C2 (ru) | Определение будущего участка представляемой в данный момент медийной программы | |
CA2775814C (en) | Advertisement presentation based on a current media reaction | |
US9154837B2 (en) | User interface presenting an animated avatar performing a media reaction | |
US10798438B2 (en) | Determining audience state or interest using passive sensor data | |
US20130268955A1 (en) | Highlighting or augmenting a media program | |
US8898687B2 (en) | Controlling a media program based on a media reaction | |
CN105339969B (zh) | 链接的广告 | |
US20140337868A1 (en) | Audience-aware advertising | |
US20090313324A1 (en) | Interactive viewing of media content | |
CN102346898A (zh) | 自动定制广告生成系统 | |
US20140325540A1 (en) | Media synchronized advertising overlay | |
CN103383597A (zh) | 确定当前呈现的媒体节目的未来部分 | |
Kempeneers et al. | What is the impact of sounds on the main key performance indicators of advertisement video? |