KR102068376B1 - 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정 - Google Patents
현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정 Download PDFInfo
- Publication number
- KR102068376B1 KR102068376B1 KR1020147034014A KR20147034014A KR102068376B1 KR 102068376 B1 KR102068376 B1 KR 102068376B1 KR 1020147034014 A KR1020147034014 A KR 1020147034014A KR 20147034014 A KR20147034014 A KR 20147034014A KR 102068376 B1 KR102068376 B1 KR 102068376B1
- Authority
- KR
- South Korea
- Prior art keywords
- media
- media program
- user
- response
- during
- Prior art date
Links
- 230000004044 response Effects 0.000 claims abstract description 270
- 238000000034 method Methods 0.000 claims abstract description 101
- 238000006243 chemical reaction Methods 0.000 claims description 43
- 238000004891 communication Methods 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 abstract description 23
- 241001673526 Lydia Species 0.000 description 17
- 210000003128 head Anatomy 0.000 description 16
- 230000008859 change Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 244000269722 Thea sinensis Species 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 235000013550 pizza Nutrition 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000036387 respiratory rate Effects 0.000 description 3
- 206010039740 Screaming Diseases 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 235000012432 gingerbread Nutrition 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 208000034723 Amelia Diseases 0.000 description 1
- 241001342895 Chorus Species 0.000 description 1
- 208000006586 Ectromelia Diseases 0.000 description 1
- 206010024503 Limb reduction defect Diseases 0.000 description 1
- 244000273928 Zingiber officinale Species 0.000 description 1
- 235000006886 Zingiber officinale Nutrition 0.000 description 1
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000008397 ginger Nutrition 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/252—Processing of multiple end-users' preferences to derive collaborative data
-
- G06Q50/40—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q90/00—Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2668—Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/458—Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4667—Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6582—Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
Abstract
본 문서는 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치를 기술한다. 기술 및 장치는 현재 프리젠팅되는 미디어 프로그램에 대한 한 명 또는 많은 사람의 현재 미디어 반응을 수신하고 미디어 반응에 기초하여 미디어 프로그램에 존재할 뒷부분을 결정할 수 있다. 어떤 실시예에서, 예를 들어, 프로그램은 라이브로 프리젠팅될 수 있고, 반응은 라이브 프리젠팅 동안 수신될 수 있고, 이들 반응에 기초하여 프로그램이 그때 그때 및 실시간으로 변경된다. 또한, 변경은 그룹 또는 특정한 사람에게 일반적이거나 맞추어질 수 있다.
Description
현재, 광고주 및 미디어 제공자는 일반적으로 프로그램을 출시하기 전에 광고 및 다른 미디어 프로그램을 종종 테스트한다. 예를 들어, 미디어 제공자는 작은 규모의 청중에게 시트콤(situation comedy)을 보여주고, 청중은 그 후 조사 결과 또는 손 추적(hand-tracked) 정보 로그를 통해 피드백을 제공할 수 있다. 그러나, 이들 조사 및 로그는 종종 부정확하다. 청중은 예를 들어 24분 프로그램 중 3분에서 웃기는 농담을 기억하지 않을 수 있다. 그리고, 결과가 약간의 정밀도를 갖는 경우에도, 청중의 규모는 일반적으로 작고, 이는 프로그램이 일반적으로 출시(release)될 때 어떻게 받아들여질지를 신뢰성있게 나타낼 수 없다.
미디어 제공자는 또한 제어된 환경에서 프로그램을 프리젠팅하는 동안 청중의 침습적인 생체 측정 테스트(invasive biometric testing)를 통해 프로그램을 테스트할 수 있다. 이 테스트는 더 정확할 수 있지만 청중 규모는 심지어 조사 및 로그 테스트보다 작다. 그리고, 심지어 이 테스트는 테스트가 발생하는 제어된 환경에 부분적으로 기인하여 매우 부정확할 수 있는데, 사람은 자신의 집에서 휴식을 취할 때 보다 전기 테스트 장치에 고정된 사운드 룸에 있을 때 웃을 가능성이 작다.
또한, 이들 경우 중 어느 경우에도, 프로그램을 바꾸는데 있어서의 시간 지연이 상당할 수 있다. 새로운 프로그램을 레코딩하거나 현재 프로그램을 변경하는데 수일 또는 수주일이 걸릴 수 있고, 이것이 완료된 경우에도, 변경된 프로그램이 다시 테스트되어, 프로그램의 출시(release)를 더 지연시킬 수 있다.
본 문서는 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치를 기술한다. 기술 및 장치는 현재 프리젠팅되는 미디어 프로그램에 대한 한 명 이상의 사람의 현재 미디어 반응을 수신하고 미디어 반응에 기초하여 미디어 프로그램에서 프리젠팅할 뒷부분(later portions)을 결정할 수 있다. 어떤 실시예에서, 예를 들어, 프로그램은 라이브로 프리젠팅될 수 있고, 반응은 라이브 프리젠팅 동안 수신될 수 있고, 이들 반응에 기초하여 프로그램이 그때 그때(on the fly) 및 실시간으로 변경된다. 또한, 변경은 일반적이거나, 그룹 또는 특정한 사람에게 맞추어질 수 있다.
이 개요는 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하는 간략화된 개념을 도입하기 위하여 제공되며, 이는 이하의 상세한 설명에서 더 기재된다. 이 개요는 특허 청구되는 대상의 필수적인 특징을 식별하는 것으로 의도되지 않고 특허 청구되는 대상의 범위를 결정하는데 사용되는 것으로 의도되지 않는다.
현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치의 실시예를 다음의 도면을 참조하여 설명한다. 도면에 걸쳐 동일한 번호는 동일한 특징 및 컴포넌트(component)를 참조하는데 사용된다.
도 1은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 뿐만 아니라 다른 기술이 구현될 수 있는 예시적인 환경을 나타내는 도면.
도 2는 도 1의 청중에 국부적인 예시적인 컴퓨팅 장치를 나타내는 도면.
도 3은 도 1의 청중으로부터 원격인 예시적인 원격 컴퓨팅 장치를 나타내는 도면.
도 4는 수동적 센서 데이터에 기초하여 미디어 반응을 결정하는 예시적인 방법을 나타내는 도면.
도 5는 미디어 프로그램을 프리젠팅하는 동안 한 명의 사용자 및 40개의 기간들 동안의 관심 레벨인 미디어 반응의 시간 기반 그래프.
도 6은 반응 이력을 형성하는 예시적인 방법을 나타내는 도면.
도 7은 복수의 잠재적인 광고 중 어느 광고가 프리젠팅될지를 결정하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 예시적인 방법을 나타내는 도면.
도 8은 프로그렘이 프리젠팅됨에 따라 프로그램의 부분에 걸쳐 미디어 프로그램에 대한 현재 미디어 반응을 나타내는 도면.
도 9는 광고주로부터의 입찰(bids)에 기초하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 예시적인 방법을 나타내는 도면.
도 10은 도 3의 통신 네트워크를 통해 복수의 광고주에게 정보를 전달하는 도 2 및 3의 광고 모듈을 나타내는 도면.
도 11은 현재 미디어 반응이 일어난 장면을 즉시 따르는 것을 포함하는 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법을 나타내는 도면.
도 12는 미디어 프로그램을 사용자에게 프리젠팅하는 동안 수동적으로 감지된 센서 데이터에 기초하여 결정된 사용자의 현재 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 13은 인구 통계, 반응 이력의 일부, 현재 미디어 반응 및 미디어 프로그램에 대한 정보가 도 2 및/또는 3의 컴퓨팅 장치로부터 수신되는 도 3의 원격 장치를 나타내는 도면.
도 14는 미래 부분이 명시적으로 요청된 미디어 반응에 대한 응답인 경우를 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 15는 복수의 사용자의 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 16은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 뿐만 아니라 다른 기술이 구현될 수 있는 예시적인 장치를 나타내는 도면.
도 1은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 뿐만 아니라 다른 기술이 구현될 수 있는 예시적인 환경을 나타내는 도면.
도 2는 도 1의 청중에 국부적인 예시적인 컴퓨팅 장치를 나타내는 도면.
도 3은 도 1의 청중으로부터 원격인 예시적인 원격 컴퓨팅 장치를 나타내는 도면.
도 4는 수동적 센서 데이터에 기초하여 미디어 반응을 결정하는 예시적인 방법을 나타내는 도면.
도 5는 미디어 프로그램을 프리젠팅하는 동안 한 명의 사용자 및 40개의 기간들 동안의 관심 레벨인 미디어 반응의 시간 기반 그래프.
도 6은 반응 이력을 형성하는 예시적인 방법을 나타내는 도면.
도 7은 복수의 잠재적인 광고 중 어느 광고가 프리젠팅될지를 결정하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 예시적인 방법을 나타내는 도면.
도 8은 프로그렘이 프리젠팅됨에 따라 프로그램의 부분에 걸쳐 미디어 프로그램에 대한 현재 미디어 반응을 나타내는 도면.
도 9는 광고주로부터의 입찰(bids)에 기초하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 예시적인 방법을 나타내는 도면.
도 10은 도 3의 통신 네트워크를 통해 복수의 광고주에게 정보를 전달하는 도 2 및 3의 광고 모듈을 나타내는 도면.
도 11은 현재 미디어 반응이 일어난 장면을 즉시 따르는 것을 포함하는 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법을 나타내는 도면.
도 12는 미디어 프로그램을 사용자에게 프리젠팅하는 동안 수동적으로 감지된 센서 데이터에 기초하여 결정된 사용자의 현재 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 13은 인구 통계, 반응 이력의 일부, 현재 미디어 반응 및 미디어 프로그램에 대한 정보가 도 2 및/또는 3의 컴퓨팅 장치로부터 수신되는 도 3의 원격 장치를 나타내는 도면.
도 14는 미래 부분이 명시적으로 요청된 미디어 반응에 대한 응답인 경우를 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 15는 복수의 사용자의 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 16은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 뿐만 아니라 다른 기술이 구현될 수 있는 예시적인 장치를 나타내는 도면.
개요
본 문서는 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치를 기술한다. 이들 기술 및 장치는 그 프로그램을 프리젠팅하는 동안 미디어 프로그램의 부분에 대한 변경(alternation) 또는 그 결정을 가능하게 한다.
예를 들어, 수천명의 많은 시청자에게 시트콤 프로그램이 프리젠팅되는 것을 고려한다. 이 시트콤의 미디어 제공자가 시트콤 내의 특정 포인트(point)들에서 프리젠팅될 복수의 부분, 즉, 19분에서 3개의 상이한 장면 및 프로그램의 끝에서는 4개의 상이한 엔딩 장면을 미리 준비한 것으로 가정한다. 본 기술은 프리젠팅하는 동안 미디어 반응에 기초하여 3개의 장면 중 어느 것이 19분에서 프리젠팅될지, 4개의 상이한 장면 중 어느 것이 끝에서 프리젠팅될지를 결정할 수 있다. 어떤 장면이 프리젠팅될지는 수천의 시청자로부터 등의 이전 장면에 대한 많은 미디어 반응 또는 사람 또는 인구학적 그룹의 반응에 기초할 수 있다. 이렇게 함으로써, 본 기술은 모든 사람에 대한 프로그램을 변경하거나 프로그램을 그룹 또는 특정 사람에 맞출 수 있다. 따라서, 본 기술은 신체 코미디(physical comedy)를 갖는 이전의 장면에 대한 18 내지 34세의 남자 그룹의 반응에 기초하여 19분에서 이 그룹의 남자에게 신체 코미디를 갖는 장면을 프리젠팅하고, 캐릭터에 대한 이전 장면에 대한 35 내지 44세의 여자 그룹의 반응에 기초하여 이 그룹의 여자에게 캐릭터 개발(character development)을 나타내는 장면을 프리젠팅하고, 현재 프로그램을 보고 있는 모든 그룹으로부터의 다양한 반응에 기초하여 4개의 가능한 엔딩 중의 하나를 모든 청중에게 보여줄 수 있다.
이것은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및/또는 장치가 어떻게 수행될 수 있는지의 일 예이다. 기술 및/또는 장치는 콘텍스트(context)에 의해 허용되는 "기술"과 개별적으로 또는 함께 참조된다. 이 문서는 기술이 구현될 수 있는 예시적인 환경 및, 요구되지 않지만, 기술과 함께 동작할 수 있는 다양한 예시적인 방법에 의지한다. 이들 다양한 방법 중의 일부는 미디어에 대한 반응을 감지하고, 사용자에 대한 반응 이력을 형성하고 현재 반응에 기초하여 광고를 프리젠팅하는 방법을 포함한다. 이들 다양한 방법 후에, 본 문서는 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 예시적인 방법에 의지한다.
예시적인 환경
도 1은 센서 데이터를 수신하고 이 센서 데이터에 기초하여 미디어 반응을 결정하는 예시적인 환경(100)을 나타낸다. 이들 미디어 반응은 현재 프리젠팅된 미디어 프로그램의 미래 부분 뿐만 아니라 다른 사용을 결정하는데 사용될 수 있다. 본 기술은 이들 미디어 반응을 단독으로 사용하거나 인구 통계, 반응 이력 및 미디어 프로그램 또는 그 부분에 대한 정보 등의 다른 정보와 결합하여 사용할 수 있다.
환경(100)은 미디어 프리젠팅 장치(102), 청중 감지 장치(104), 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110) 및 사용자 인터페이스(112)를 포함한다.
미디어 프리젠팅 장치(102)는 한 명 이상의 사용자(116)를 갖는 청중(114)에게 미디어 프로그램을 프리젠팅한다. 미디어 프로그램은 텔레비전 쇼, 영화, 뮤직 비디오, 비디오 클립, 광고, 블로그, 사진, 웹 페이지, 이북(e-book), 이-매거진(e-magazine), 컴퓨터 게임, 노래, 트윗(tweet), 또는 다른 오디오 및/또는 비디오 미디어를 단독 또는 조합하여 포함할 수 있다. 청중(114)은 하나의 청중(114) 내이든 별도이든 청중 감지 장치(104)에 의한 측정 및 미디어 프리젠팅 장치(102)에 의해 프리젠팅된 미디어 프로그램의 소비가 가능한 위치에 있는 한 명 이상의 사용자(116)를 포함할 수 있다. 청중(114)에는, 3명의 사용자, 즉, 사용자(116-1), 사용자(116-2) 및 사용자(116-3)가 도시된다.
청중 감지 장치(104)는 청중(114)을 감지하고 청중(114)에 대한 센서 데이터를 상태 모듈(106) 및/또는 관심 모듈(108)에 제공할 수 있다(도시된 센서 데이터(118)는 화살표로 제공된다). 감지된 데이터는 수동적, 능동적 및/또는 명시적 요청에 응답하여 감지될 수 있다.
수동적으로 감지된 데이터는 사용자의 측정에 있어서 사용자의 능동적인 참여를 요구하지 않음으로써 수동적이다. 능동적으로 감지된 데이터는 손으로 쓴 로그를 갖는 등의 청중 내의 사용자에 의해 기록된 데이터 및 청중 내의 사용자가 착용한 생체 인식 센서를 통해 사용자로부터 감지된 데이터를 포함한다. 명시적 요청에 응답하여 감지된 센서 데이터는 능동적으로 또는 수동적으로 감지될 수 있다. 일 예는 광고 동안 사용자가 메일로 사용자에게 전송될 제품의 무료 샘플을 위한 쿠폰을 원하면, 사용자가 자신의 손을 들것을 요청하는 광고이다. 이 경우, 사용자가 손을 드는 반응을 표현할 것이나, 이것은 사용자가 반응의 측정에 능동적으로 참여하는 것을 요구하지 않음으로써 수동적으로 감지될 수 있다. 본 기술은 아래 설명된 다양한 방식으로 들어 올린 손을 감지한다.
센서 데이터는 사용자 또는 청중 공간(예를 들어, 긴의자, 벽 등)에서 방출 적외광을 바운스하고 복귀 광을 감지하는 적외선 센서 등의 청중 감지 장치(104)에 의해 전송된 방출광 또는 다른 신호를 이용하여 감지된 데이터를 포함할 수 있다. 사용자를 측정하는 센서 데이터 및 측정될 수 있는 방법의 예는 이하에서 상세히 설명한다.
청중 감지 장치(104)는 상태 모듈(106) 및/또는 관심 모듈(108)에 센서 데이터를 제공하기 전에 처리하거나 처리하지 않을 수 있다. 따라서, 센서 데이터는 RGB(red, green, blue) 프레임; 적외선 데이터 프레임; 깊이 데이터; 심박동수; 호흡수; 사용자의 머리 배향(orientation) 또는 이동(예를 들어, 3차원 좌표(x, y, z) 및 3개의 각, 피치(pitch), 틸트(tilt) 및 흔들림(yaw)); 얼굴(예를 들어, 눈, 코 및 입) 배향, 이동 또는 폐쇄(occlusion); 골격 배향, 이동 또는 폐쇄; 만약에 있다면, 어떤 사용자 또는 어떤 단어를 말했는지를 직접 나타내거나 어떤 사용자로부터 오디오가 발신했는지를 결정하기에 충분한 배향을 나타내는 정보를 포함할 수 있는 오디오; 사용자(116) 중 한 명의 존재 및 위치를 결정하거나 표시하기에 충분한 열 판독치(thermal readings); 및 청중 감지 장치(104) 또는 미디어 프리젠팅 장치(102)로부터의 거리 등의 원 데이터(raw data) 또는 처리된 데이터이거나 이것들을 포함할 수 있다. 어떤 경우, 오디오 감지 장치(104)는 (적외선 센서에 더하여) 적외선 센서(웹캠, 키넥트(Kinect) 카메라), 스테레오 마이크로폰 또는 지향된(directed) 오디오 마이크로폰 및 열 판독기(thermal reader)를 포함하지만, 다른 감지 장치가 또한 사용되거나 대신 사용될 수 있다.
상태 모듈(106)은 센서 데이터를 수신하고 센서 데이터에 기초하여 (화살표로 표시된) 청중(114) 내의 사용자(116)의 상태(120)를 결정한다. 상태는 예를 들어 슬픔, 대화, 혐오감, 두려움, 스마일링, 노려봄, 차분함, 놀람, 화남, 웃음, 비명, 박수, 흔들기(waving), 환호, 얼굴 돌리기(looking away), 앞을 보기(looking toward), 멀리 기대기(leaning away), 앞으로 기대기(leaning toward), 잠, 또는 떠남(departed) 등 어느 것이든 포함한다.
대화 상태는 미디어 프로그램에 관한 대화(관련된 대화) 또는 미디어 프로그램과 관련되지 않은 대화(관련되지 않은 대화) 등의 스피치(speech)의 내용에 기초한 서브카테고리를 포함할 수 있지만 사용자가 말하는 것을 나타내는 일반적인 상태일 수 있다. 상태 모듈(106)은 스피치 인식을 통해 어떤 대화 카테고리인지를 결정할 수 있다.
상태 모듈(106)은 또한 또는 대신에 센서 데이터에 기초하여 사용자의 수, 사용자의 아이덴티티 및/또는 인구학적 데이터(122로 도시됨), 또는 프리젠팅 동안의 참여도(engagement)(124로 도시됨)를 결정할 수 있다. 아이덴티티는 수잔 브라운 등의 청중(114) 내의 사용자(116) 중의 한 명에 대한 고유 아이덴티티를 표시한다. 인구학적 데이터는 5피트 4인치 키, 유아 및 남자 또는 여자 등의 사용자(116) 중의 한 명을 분류한다. 참여도는 사용자의 존재 또는 머리 배향에 기초하여 사용자가 미디어 프로그램에 집중할 가능성이 있는지 여부를 표시한다. 어떤 경우, 참여도는 상태를 결정하는데 사용되는 것과 비교되는 더 낮은 해상도 또는 덜 처리된 센서 데이터로 상태 모듈(106)에 의해 결정될 수 있다. 그렇기는 하지만, 참여도는, 관심 모듈(108)을 이용하여 사용자의 관심을 결정하든 스스로 결정하든 간에, 청중의 측정에 유용할 수 있다.
관심 모듈(108)은 센서 데이터(118) 및/또는 사용자의 참여도 또는 상태(참여도/상태(126)로 화살표로 표시) 및 미디어 프로그램에 대한 정보(미디어 타입(128)에서 화살표로 표시)에 기초하여 미디어 프로그램에 대한 사용자의 관심 레벨(130)(화살표로 표시)을 결정한다. 관심 모듈(108)은 예를 들어 심각한 드라마로 의도된 미디어 프로그램에 대한 복수의 웃음 상태가 낮은 관심 레벨을 나타내고 역으로 코미디로 의도된 미디어 프로그램에 대한 복수의 웃음 상태는 높은 관심 레벨을 나타내는 것으로 결정할 수 있다.
도 1에 도시된 바와 같이, 상태 모듈(106) 및/또는 관심 모듈(108)은 도 1에서 화살표로 표시된 다음의 미디어 반응, 즉, 참여도(124), 상태(120) 또는 관심 레벨(130) 중의 하나 이상 뿐만 아니라 인구 통계/아이덴티티(122)를 제공한다. 이들 미디어 반응 중의 하나 이상에 기초하여, 상태 모듈(106) 및/또는 관심 모듈(108)은 또한 시청률(예를 들어, 좋아요(thumbs up) 또는 별 3개) 등의 미디어 프로그램에 대한 전체 미디어 반응이라는 다른 타입의 미디어 반응을 제공할 수 있다. 그러나, 어떤 경우, 미디어 반응이 수신되고 대신에 전체 미디어 반응이 인터페이스 모듈(110)에 의해 결정될 수 있다.
상태 모듈(106) 및 관심 모듈(108)은, 요구되지 않더라도, 청중(114) 및, 따라서, 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)에 국부적일 수 있다. 상태 모듈(106) 및 관심 모듈(108)이 청중(114)에 국부적인 예시적인 실시예가 도 2에 도시된다. 그러나, 어떤 경우, 상태 모듈(106) 및/또는 관심 모듈(108)은 청중(114)로부터 멀고, 이는 도 3에 도시된다.
인터페이스 모듈(110)은 미디어 반응 및 인구통계/아이덴티티 정보를 수신하고 반응이 어떤 미디어 프로그램 또는 그 부분에 관련되는지에 대한 어떤 표시를 결정하거나 수신한다. 인터페이스 모듈(110)은, 요구되지 않을지라도, 사용자 인터페이스(112)를 통해 미디어 반응(132)을 미디어 프로그램에 프리젠팅하거나 프리젠팅되도록 한다. 이 미디어 반응은 상술한 반응 중의 임의의 것일 수 있고, 그 일부는 반응을 나타내는 아바타 또는 반응 동안 레코딩된 사용자의 비디오 또는 오디오를 통해 시간 기반 그래프로 프리젠팅되고, 이들 중의 하나 이상은 연관된 미디어 프로그램 동안 사용자의 반응이 어떤지에 대하여 효과적이다.
한 사용자가 자신의 미디어 반응 또는 가족 구성원의 반응을 보고 있는 경우 등에서, 인터페이스 모듈(110)은 청중(114)에 국부적(local) 수 있다. 그러나, 많은 경우, 인터페이스 모듈(110)은 원격 소스로부터 미디어 반응을 수신한다.
센서 데이터(118)는 사용자가 미디어에 반응하는 콘텍스트(context) 또는 미디어에 대한 시청률 또는 추천이 요청되는 사용자에 대한 현재 콘텍스트를 포함할 수 있다. 따라서, 청중 감지 장치(104)는, 제2 사람이 방에 있거나 제1 사람에 물리적으로 가깝다는 것을 감지할 수 있고, 이는 제1 사람에 대한 콘텍스트일 수 있다. 콘텍스트는 또한 이하의 도 2에 기재된 다른 방식으로 결정될 수 있다.
도 2는 청중(114)에 국부적인 예시적인 컴퓨팅 장치(202)를 나타낸다. 컴퓨팅 장치(202)는 미디어 프리젠팅 장치(102), 청중 감지 장치(104) 또는 하나 이상의 프로세서(204) 및 컴퓨터 판독가능 저장 매체(computer-readable storage media; CRM)(206)로의 액세스를 포함하거나 갖는다.
CRM(206)은 운영 체제(208), 상태 모듈(106), 관심 모듈(108), 각각 연관된 프로그램 정보(212) 및 부분(214)을 포함하거나 가질 수 있는 미디어 프로그램(들)(210), 인터페이스 모듈(110), 사용자 인터페이스(112), 이력 모듈(216), 반응 이력(218), 복수의 광고(222)를 포함할 수 있는 광고 모듈(220) 및 부분 모듈(224)을 포함한다.
미디어 프로그램(210)의 각각은 프로그램 정보(212) 및 부분(214)을 갖거나 포함하거나 그와 연관될 수 있다. 프로그램 정보(212)는 이름, 타이틀, 에피소드, 작가 또는 아티스트, 프로그램 타입 및 각 미디어 프로그램(210) 내의 다양한 부분에 관련된 것을 포함하는 다른 정보를 표시할 수 있다. 따라서, 프로그램 정보(212)는 미디어 프로그램(210) 중의 하나가 음악 비디오이고, 4번 반복된 코러스 부분을 포함하고, 4절 부분을 포함하고, 아티스트 노래하기, 백보컬 댄스, 음악 비디오의 이름, 아티스트, 생산 년도, 해상도 및 포맷팅 데이터 등의 노래 동안 각각의 시각적 프리젠팅에 기초한 부분을 포함하는 것을 나타낼 수 있다.
미디어 프로그램(210) 중의 하나의 부분(214)은 프로그램을 만들거나 프로그램을 만드는데 잠재적으로 사용될 수 있다. 이들 부분은 이전 부분 엔딩에 기초하여 프로그램에 위치할 수 있을지라도 (그 부분 엔딩이 반드시 미리 설정되지 않는 시간일지라도) 미디어 프로그램 내의 특정 시간 범위를 나타낼 수 있다. 예시적인 부분은 15초 길이 부분, 라디오 같은 프로그램에서 재생되는 노래 또는 영화의 한 장면일 수 있다. 이들 부분(214)은 특정 순서로 배치 및/또는 설정될 수 있고, 이 경우, 부분(214)의 하나 이상은 미디어 반응에 응답하여 부분 모듈(224)에 의해 대체될 수 있다. 대신 이들 부분(214)은 미리 설정된 순서 없이 미리 준비될 수 있다. 따라서, 30초 광고 등의 미디어 프로그램은 이전에 설정된 제1 10초 부분을 갖고, 예를 들어 10초의 5개의 다른 제2 부분 및 10초의 15개의 다른 제3 부분을 가질 수 있다. 이러한 경우, 11초로부터 20초까지 어떤 부분이 플레이되는지는 제1 10초 부분에 대한 사람의 미디어 반응에 기초할 수 있다. 따라서, 제1 부분 및 제2 부분에 대한 사용자(또는 많은 사람)의 반응에 기초하여 21초부터 30초까지 재생되는 제3 부분이 결정될 수 있다.
위에서 부분적으로 기재된 바와 같이, 부분 모듈(224)은 미디어 프로그램(210) 중의 하나의 일부에 대한 사용자, 사용자 그룹 또는 많은 사용자의 현재 미디어 반응 또는 반응들을 수신한다. 이들 미디어 반응은 참여도(124), 상태(120) 및 관심 레벨(130) 중의 하나 이상을 포함할 수 있다. 이들 미디어 반응으로, 부분 모듈(224)은 현재 프리젠팅되는 미디어 프로그램의 프리젠팅할 미래 부분을 결정할 수 있다. 이 결정은 미디어 프로그램의 프리젠팅 동안 실시간으로 수행되어 광고의 동일 프리젠팅의 초기 부분에 대한 현재의 반응에 기초하여 짧은 광고의 미래 부분을 결정하기에 훨씬 효과적일 수 있음에 주의해야 한다. 이들 미래 부분은 미리 국부적으로 또는 원격으로 저장될 수 있다. 프리젠팅될 미래 부분은 원격 소스로부터 현재 프리젠팅된 미디어 프로그램의 뒷부분을 스트리밍함으로써 동시에 로컬 스토어 또는 원격 소스로부터 수신될 수 있다. 도 2 및 3에 도시된 바와 같이, 미디어 프로그램(210), 부분(214) 및 부분 모듈(224)은 컴퓨팅 장치(202) 및 미디어 반응을 갖는 사용자 또는 사용자들(예를 들어, 도 1의 청중(114)의 사용자(116-1))에 국부적이거나 원격일 수 있다.
이력 모듈(216)은 반응 이력(218)에 대한 액세스를 포함하거나 갖는다. 이력 모듈(216)은 미디어 프로그램에 대한 사용자(또는 후술하는 바와 같이 다른 사람들)에 의한 진행중인 반응에 기초하여 반응 이력(218)을 형성하고 업데이트할 수 있다. 어떤 경우, 이력 모듈(216)은 사용자에 대한 다양한 콘텍스트를 결정하지만, 이는 대신 다른 엔티티로부터 결정되고 수신될 수 있다. 따라서, 어떤 경우, 이력 모듈(216)은 미디어 프로그램에 대한 사용자의 반응 또는 미디어 프로그램에 대한 시청률 또는 추천에 대한 요청 동안 시간, 장소(locale), 장소의 날씨 등을 결정한다. 이력 모듈(216)은 사용자 및 반응 이력(218)에 대한 현재 콘텍스트에 기초하여 미디어에 대한 시청률 및/또는 추천을 결정할 수 있다. 다른 곳에 기재된 바와 같이, 반응 이력(218)은 미디어 반응과 함께 사용되어 프리젠팅될 미디어 프로그램의 미래 부분을 결정할 수 있다.
광고 모듈(220)은 참여도(124), 상태(120) 또는 관심 레벨(130) 중의 하나 이상 등의 사용자의 현재 미디어 반응을 수신한다. 이 현재 미디어 반응으로, 광고 모듈(220)은 사용자에게 프리젠팅될 복수의 광고(222) 중의 하나의 광고를 결정할 수 있다. 광고 모듈(220)은 또한 또는 대신에 광고주에게 현재 미디어 반응을 제공하고, 광고를 프리젠팅할 권한에 대하여 광고주로부터 입찰을 수신하고, 광고가 사용자에게 프리젠팅되도록 할 수 있다. 이 광고는 광고(222) 중의 하나로서 미리 저장되거나 광고가 프리젠팅되어야 하는 것을 나타내는, 다른 가격 결정 구조 또는 가장 높은 입찰인 수반되는 입찰에 응답하여 원격 소스로부터 광고를 스트리밍함으로써 동시에 수신될 수 있다. 이들 경우 중 어느 경우에도, 광고 모듈(220)은 컴퓨팅 장치(202) 및 사용자(예를 들어, 도 1의 청중(114)의 사용자(116-1)에 국부적이거나 원격일 수 있다.
이 예에서, 미디어 프리젠팅 장치(102), 청중 감지 장치(104), 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및 부분 모듈(224)를 포함하는 엔티티는 디스플레이, 전방 대면 카메라, 마이크로폰, 오디오 출력 등을 갖는 데스크탑 컴퓨터 등의 단일 컴퓨팅 장치 내에 포함된다. 그러나, 이들 엔티티의 각각은 하나 또는 복수의 컴퓨팅 장치에서 서로 떨어져 있거나 통합될 수 있다. 이하에서 부분적으로 설명하는 바와 같이, 미디어 프리젠팅 장치(102)는 청중 감지 장치(104)와는 통합되지만 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 또는 부분 모듈(224)로부터 떨어져 있을 수 있다. 또한, 이들 모듈의 각각은 개별 장치 상에서 동작하거나 한 장치에서 결합될 수 있다.
도 2에 도시된 바와 같이, 컴퓨팅 장치(들)(202)는 여기에서 6개의 예, 즉 랩탑 컴퓨터(202-1), 태블릿 컴퓨터(202-2), 스마트폰(202-3), 셋탑박스(202-4), 데스크탑(202-5) 및 게임 시스템(202-6)으로 도시된 다양한 장치 중의 하나 또는 그 조합일 수 있지만, 컴퓨팅 능력을 갖는 텔레비전, 넷북 및 셀룰러 폰 등의 다른 컴퓨팅 장치 및 시스템이 또한 사용될 수 있다. 이들 컴퓨팅 장치(202) 중의 3개는 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)를 포함하는 것에 주의해야 한다(랩탑 컴퓨터(202-1), 태블릿 컴퓨터(202-2), 스마트폰(202-3)). 하나의 장치는 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)를 배제하지만 그와 통신한다(데스크탑(202-5)). 2개의 다른 장치는 미디어 프리젠팅 장치(102)를 배제하고 청중 감지 장치(104)가 미디어 프리젠팅 장치(102) 내에 포함되는 경우에서처럼 청중 감지 장치(104)를 포함하거나 포함하지 않을 수 있다(셋탑 박스(202-4) 및 게임 시스템(202-6)).
도 3은 청중(114)에 멀리 떨어진 예시적인 원격 컴퓨팅 장치(302)를 나타낸다. 도 3은 또한 원격 컴퓨팅 장치(302)가 청중 감지 장치(104)(도시되지 않지만, 컴퓨팅 장치(202) 내에서 구현되거나 그와 통신한다), 인터페이스 모듈(110), 이력 모듈(216)(반응 이력(218)을 포함하거나 배제), 광고 모듈(220)(광고(222)를 포함하거나 배제) 및 부분 모듈(224)과 통신하는데 사용되는 통신 네트워크(304)를 나타내고, 이들 엔티티는 도 2에 도시된 바와 같이 컴퓨팅 장치(202) 내에 있는 것으로 가정한다. 통신 네트워크(304)는 인터넷, 로컬 에어리어 네트워크, 와이드 에어리어 네트워크, 무선 네트워크, USB 허브, 컴퓨터 버스, 다른 모바일 통신 네트워크 또는 그 조합일 수 있다.
원격 컴퓨팅 장치(302)는 하나 이상의 프로세서(306) 및 원격 컴퓨터 판독가능 저장 미디어(원격 CRM)(308)를 포함한다. 원격 CRM(308)은 상태 모듈(106), 관심 모듈(108), 연관된 프로그램 정보(212) 및/또는 부분(214)을 각각 포함하거나 갖는 미디어 프로그램(들)(210), 이력 모듈(216), 반응 이력(218), 광고 모듈(220), 광고(222) 및 부분 모듈(224)을 포함한다.
도시된 예에서, 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)는 물리적으로 상태 모듈(106) 및 관심 모듈(108)로부터 물리적으로 떨어져 있고, 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)는 미디어 프로그램을 보는 청중에 국부적이고, 상태 모듈(106) 및 관심 모듈(108)은 원격으로 동작한다. 따라서, 센서 데이터는 가국부적으로(도 2) 또는 원격으로(도 3) 통신할 수 있는 청중 감지 장치(104)로부터 상태 모듈(106) 또는 관심 모듈(108) 중의 하나 또는 둘다로 전달된다. 또한, 상태 모듈(106) 및/또는 관심 모듈(108)에 의한 결정 후에, 다양한 미디어 반응 및 다른 정보가 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및/또는 부분 모듈(224)에 의한 수신을 위해 동일 또는 다른 컴퓨팅 장치(202)로 전달될 수 있다. 따라서, 어떤 경우, 컴퓨팅 장치(202) 중의 첫번째 컴퓨팅 장치는 센서 데이터를 측정하고 그 센서 데이터를 원격 장치(302)에 전달할 수 있고, 그 후, 원격 장치(302)는 모두 네트워크(304)를 통해 다른 컴퓨팅 장치(202)로 미디어 반응을 전달한다.
도 1 내지 3의 엔티티가 동작하고 상호작용하는 방법 뿐만 아니라 이들 및 다른 능력은 이하에서 더 상세히 기재된다. 이들 엔티티는 더 분할, 결합될 수 있다. 도 1의 환경(100) 및 도 2 및 3의 상세 설명은 기재된 기술을 채용할 수 있는 많은 가능한 환경 중의 일부를 나타낸다.
예시적인 방법
수동적 센서 데이터에 기초한 미디어 반응 결정
도 4는 수동적 센서 데이터에 기초하여 미디어 반응을 결정하는 방법(400)을 나타낸다. 여기에 기재된 이들 및 다른 방법은 수행되는 단계를 특정하는 블록의 세트로서 도시되고 각각의 블록에 의해 단계를 수행하기 위하여 도시된 순서로 반드시 제한되는 것은 아니다. 다음의 설명의 일부에서, 도 1의 환경(100) 및 도 2 내지 3의 엔티티를 참조하지만, 이러한 참조는 단지 예이다. 기술은 하나의 장치 상에서 동작하는 하나의 엔티티 또는 복수의 엔티티에 의한 수행으로 제한되지 않는다.
블록(402)은 청중 또는 사용자에 대한 센서 데이터를 감지 또는 수신하고, 센서 데이터는 청중 또는 사용자에게 미디어 프로그램을 프리젠팅하는 동안 수동적으로 감지된다. 이 센서 데이터는 청중 또는 사용자의 콘텍스트를 포함하거나 콘텍스트가 개별적으로 수신될 수 있다.
예를 들어, 청중이 도 1의 3명의 사용자(116), 사용자(116-1, 116-2, 116-3)를 포함하는 경우를 고려한다. 미디어 프리젠팅 장치(102)는 스피커를 갖는 LCD 디스플레이이고, 이를 통해, 미디어 프로그램이 렌더링되고, 디스플레이는 도 2의 셋탑 박스(202-4)와 통신하는 것으로 가정한다. 여기서, 청중 감지 장치(104)는 전방 대면(forward-facing) 고해상도 적외선 센서, RGB 센서, 및 셋탑 박스(202-4) 또는 미디어 프리젠팅 장치(102)와 통합되어 사운드 및 위치(예를 들어, 방향 어레이)를 감지할 수 있는 2개의 마이크로폰이다. 프리젠팅되는 미디어 프로그램(210)은 원격 소스로부터 셋탑 박스(202-4)를 통해 스트리밍되는 믿을 수 없는 가족(Incredible Family)이라는 PG 등급 애니메이션 영화인 것으로 가정한다. 셋탑 박스(202-4)는 영화의 시작시 1개, 3개 광고 블록 내의 3개, 2개의 광고 블록 내의 2개 등의 6개의 광고를 갖는 믿을 수 없는 가족을 프리젠팅한다.
청중(114) 내의 모든 3명 사용자(116)에 대한 센서 데이터가 수신되고, 이 예에서, 제1 사용자(116-1)를 고려한다. 믿을 수 없는 가족을 시청하는 동안, 블록(402)에서 청중 감지 장치(104)가 사용자(116-1)에 대한 다양한 시간 동안 다음의 것들을 측정하고 제공하는 것으로 가정한다.
시간 1, 머리 배향 3도, 낮은 진폭 오디오 및 오디오 없음
시간 2, 머리 배향 24도, 오디오 없음
시간 3, 골격 이동(팔), 고진폭 오디오
시간 4, 골격 이동(팔 및 바디), 고진폭 오디오
시간 5, 머리 이동, 얼굴 특징 변화(20%), 중간 진폭 오디오
시간 6, 세부적인 얼굴 배향 데이터, 오디오 없음
시간 7, 골격 배향(분실), 오디오 없음
시간 8, 얼굴 배향, 호흡수
블록(404)은 미디어 프로그램 동안 센서 데이터에 기초하여 사용자의 상태를 결정한다. 어떤 경우, 블록(404)은 상태에 대한 확률 또는 복수 상태에 대한 복수의 확률을 각각 결정한다. 예를 들어, 블록(404)은 상태가 정확할 것 같지만 전체 확실성보다 작은 것으로 결정할 수 있다(예를 들어, 사용자가 웃을 40% 기회). 블록(404)은 또한 또는 대신 슬픈 또는 차분한 상태 등의 센서 데이터에 기초하여 복수의 상태가 가능하다는 것 및 각각에 대한 확률(예를 들어, 슬픈 상태 65%, 차분한 상태 35%)을 결정할 수 있다.
블록(404)은 또한 또는 대신에 인구통계, 아이덴티티 및/또는 참여도를 결정할 수 있다. 또한, 방법(400)은 이하에서 설명하는 바와 같이 블록(404)을 스킵하고 블록(406)으로 직접 진행할 수 있다.
진행중인 예에서, 상태 모듈(106)은 상기 열거된 센서 데이터를 수신하고 사용자(116-1)에 대한 다음의 대응하는 상태를 결정한다:
시간 1: 전방 보기(Looking toward)
시간 2: 멀리 보기(Looking away)
시간 3: 박수
시간 4: 환호
시간 5: 웃음
시간 6: 스마일링
시간 7: 떠남
시간 8: 잠
시간 1에서, 상태 모듈(106)은, LCD 디스플레이를 직접 보는 것으로부터 사용자(116-1)의 머리가 3도 벗어나는 것을 나타내는 센서 데이터 및 (단지 예로서) 20도 미만의 편차에 대하여 전방 보기 상태를 적용하는 것을 나타내는 규칙에 기초하여 사용자(116-1)의 상태가 미디어 프로그램을 보는 것으로 결정한다. 마찬가지로, 시간 2에서, 상태 모듈(106)은 20도 보다 큰 편차 때문에 사용자(116-1)가 멀리 바라보는 것으로 결정한다.
시간 3에서, 상태 모듈(106)은 사용자(116-1)가 자신의 팔을 골격 운동하고 고진폭 오디오에 기초하여 사용자(116-1)가 박수치는 것으로 결정한다. 상태 모듈(106)은 팔 운동(간략화를 위해 상기에 표시되지 않음)의 타입에 기초하여 박수 및 환호 등의 다른 상태를 구별할 수 있다. 마찬가지로, 시간 4에서, 상태 모듈(106)은 사용자(116-1)에 기인하는 팔 운동 및 고진폭 오디오 때문에 사용자(116-1)가 환호하는 것으로 결정한다.
시간 5에서, 상태 모듈(106)은 사용자(116-1)가 머리 운동을 한다는 센서 데이터, 20%의 얼굴 특징 변화 및 중간 진폭 오디오에 기초하여 사용자(116-1)가 웃는 것으로 결정한다. 다양한 센서 데이터는 입을 열거나 양 눈썹의 상승 등의 얼굴 특징 변화 및 고진폭보다는 중간 진폭인 오디오에 기초하여 비명 등의 상이한 상태를 구별하는데 사용될 수 있다.
시간 6에서, 청중 감지 장치(104)는 원(raw) 센서 데이터를 처리하여, 처리된 센서 데이터를 제공하고, 이 경우, 얼굴 인식 처리하여 세부적인 얼굴 배향 데이터를 제공한다. 오디오가 없는 것과 결합하여, 상태 모듈(106)은 세부 얼굴 배향(입술 꼬리가 올리가거나 눈을 덮은 눈꺼풀의 양)에 기초하여 사용자(116-1)가 스마일링하고 있는 것으로 결정한다.
시간 7에서, 상태 모듈(106)은 사용자(116-1)가 청중 감지 장치(104)로부터 멀리 이동하는 골격 운동을 표시하는 센서 데이터에 기초하여 사용자(116-1)가 떠난 것으로 결정한다. 센서 데이터는, 청중 감지 장치(104)가 골격 또는 머리 판독치가 없는 것을 통해 또는 더이상 수신되지 않는 열 시그너처(thermal signature)를 통해 사용자(116-1)의 존재를 감지하지 않는 경우 등처럼 이를 직접 표시할 수 있다.
시간 8에서, 상태 모듈(106)은 사용자(116-1)의 얼굴 배향이 특정 기간 동안 변하지 않는다(예를 들어, 사용자의 눈이 깜빡이지 않음)는 것을 나타내는 센서 데이터, 변함없이 느린 호흡수에 기초하여 사용자(116-1)가 자고 있는 것으로 결정한다.
이들 8개의 센서 판독치는 설명의 목적으로 간략화된 예이다. 센서 데이터는 다른 곳에 기재된 바와 같이 대규모 데이터를 포함할 수 있다. 또한, 몇 분의 1초 마다 청중을 측정하는 센서 데이터가 수신되어 미디어 프로그램을 프리젠팅하는 동안 수십, 수백 및 수천 기간 동안 세부 데이터를 제공하여, 이로부터 상태 또는 다른 미디어 반응이 결정될 수 있다.
방법(400)으로 되돌아가서, 블록(404)은 사용자의 상태에 더하여, 인구통계, 아이덴티티 및 참여도를 결정할 수 있다. 상태 모듈(106)은 인구통계 및 아이덴티티를 결정하는 센서 데이터를 결정 또는 수신하거나 청중 감지 장치(104)로부터 인구통계 또는 아이덴티티를 수신할 수 있다. 진행중인 예를 계속하여, 사용자(116-1)에 대한 센서 데이터는 사용자(116-1)가 존 브라운(John Brown)이고, 사용자(116-2)가 리디아 브라운(Lydia Brown)이고 사용자(116-3)가 수잔 브라운(Susan Brown)이라는 것을 나타낼 수 있다. 또는, 센서 데이터는 예를 들어 (골격 배향에 기초하여) 사용자(116-1)가 6피트 4인치 키를 갖고 남자라는 것을 나타낼 수 있다. 청중 내의 각 사용자에 개별적으로 기인하는 센서 데이터의 일부를 표시하는 정보를 갖거나 포함하는 센서 데이터가 수신될 수 있다. 그러나, 이 예세서, 청중 감지 장치(104)는 3개의 센서 데이터 세트를 제공하고, 각각의 세트는 센서 데이터와 함께 사용자의 아이덴티티를 표시한다.
블록(404)에서, 기술은 청중 또는 청중 내의 사용자의 참여도를 결정할 수 있다. 주목되는 바와 같이, 이 결정은 사용자의 상태보다 덜 개선될 수 있지만 그럼에도 불구하고 유용하다. 상기 예에 대하여, 사용자(116-2)(리디아 브라운)에 대한 센서 데이터가 수신되고 이 센서 데이터가 머리 및 골격 배향만을 포함하는 것으로 가정한다.
시간 1, 머리 배향 0도, 하부 몸통의 앞에 있는 상부 몸통의 골격 배향
시간 2, 머리 배향 2도, 하부 몸통의 앞에 있는 상부 몸통의 골격 배향
시간 3, 머리 배향 5도, 하부 몸통과 대략 일치하는 상부 몸통의 골격 배향
시간 4, 머리 배향 2도, 하부 몸통보다 뒤에 있는 상부 몸통의 골격 배향
시간 5, 머리 배향 16도, 하부 몸통보다 뒤에 있는 상부 몸통의 골격 배향
시간 6, 머리 배향 37도, 하부 몸통보다 뒤에 있는 상부 몸통의 골격 배향
시간 7, 머리 배향 5도, 하부 몸통보다 앞에 있는 상부 몸통의 골격 배향
시간 8, 머리 배향 1도, 하부 몸통보다 앞에 있는 상부 몸통의 골격 배향
상태 모듈(106)은 이 센서 데이터를 수신하고 리디아 브라운에 대한 다음의 해당 참여도를 결정한다.
시간 1: 참여도 하이
시간 2: 참여도 하이
시간 3: 참여도 중간 하이
시간 4: 참여도 중간
시간 5: 참여도 중간 로우
시간 6: 참여도 로우
시간 7: 참여도 하이
시간 8: 참여도 하이
시간 1, 2, 7 및 8에서, 상태 모듈(106)은 LCD 디스플레이를 직접 보는 사용자(116-2)의 머리의 5도 미만의 편차를 표시하는 데이터 센서 및 (미디어 프리젠팅을 향하여 리디아가 기대고 있다는 것을 나타내는) 하부 몸통의 앞에 있는 상부 몸통의 골격 배향에 기초하여, 리디아가 이들 시간에 믿을 수 없는 가족에 크게 관여(engage)하고 있는 것으로 결정한다.
시간 3에서, 상태 모듈(106)은 리디아가 더이상 앞으로 기대지 않음에 따라 리디아의 참여도 레벨이 떨어지는 것으로 결정한다. 시간(4)에서, 상태 모듈(106)은, 리디아가 뒤로 기대는 것에 기초하여, 리디아가 여전히 믿을 수 없는 가족을 보고 있음에도, 리디아의 미디어에 대한 참여도가 더 떨어진 것으로 결정한다.
시간 5 및 6에서, 상태 모듈(106)은, 리디아가 여전히 뒤로 기대고 살짝 멀리 바라보고(16도) 및 그 후 상당히 멀리 떨어져 바라보는(37도)에 기초하여, 각각 리디아의 참여도가 중간 로우(Medium-Low) 및 로우로 떨어진 것으로 결정한다. 시간 7에서, 리디아가 내용이 흥미진진하거나 매혹적인 것을 표시함에 따라 하이 참여도로 신속히 복귀하여, 미디어 생성자는 이에 관심을 가질 가능성이 있다는 것에 주의해야 한다.
방법(400)은 블록(402)으로부터 블록(406)으로 또는 블록(404)으로부터 또는 블록(404)로부터 블록(406) 또는 블록(408)으로 직접 진행할 수 있다. 블록(406)으로부터 블록(404)으로 진행하면, 기술은 프리젠팅되는 미디어의 타입 및 사용자의 참여도 또는 상태에 기초하여 관심 레벨을 결정한다. 블록(402)으로부터 블록(406)으로 진행하면, 기술은, 반드시 사용자의 참여도 또는 상태를 먼저 또는 독립적으로 결정하지 않고, 프리젠팅되는 미디어 타입 및 사용자의 센서 데이터에 기초하여 관심 레벨을 결정한다.
사용자(116-1 및 116-2)에 대한 상기 예를 계속하여, 블록(406)은 블록(404)에서 사용자(116-1)(존 브라운)에 대한 상태 모듈(106)에 의해 결정된 상태를 수신하는 것으로 가정한다. 존 브라운에 대한 상태 및 미디어 프로그램에 대한 정보에 기초하여, 관심 모듈(108)은 전체 또는 시간에 걸쳐 믿을 수 없는 가족에 대한 관심 레벨을 결정한다. 믿을 수 없는 가족은 어드벤처 및 코미디 프로그램인 것으로 가정하고, 영화의 일부는 이들 미디어 타입 중의 하나를 갖는 것으로 마크(mark)된다. 단순화해서, 시간 1 및 2는 코미디로 마크되고, 시간 3 및 4는 어드벤처로 마크되고, 시간 5 및 6은 코미디로 마크되고, 시간 7 및 8은 어드벤처로 마크되는 것으로 가정한다. 상태 모듈(106)에 의해 결정된 상태를 다시 논의하여 다음을 다시 고려한다:
시간 1: 전방 보기
시간 2: 멀리 보기
시간 3: 박수
시간 4: 환호
시간 5: 웃음
시간 6: 스마일링
시간 7: 떠남
시간 8: 잠
이들 상태에 기초하여, 상태 모듈(106)은, 시간 1에 대하여 존 브라운이 시간 1에서 콘텐츠에 중간 로우 관심을 갖는 것으로 결정하고, 콘텐츠가 어드벤처 또는 드라마 타입이면, 상태 모듈(106)은 존 브라운이 높은 관심을 갖는 것으로 결정할 수 있다. 그러나, 콘텐츠가 코미디이고 따라서 웃음 또는 스마일 상태를 이끌어내도록 의도됨에 따라, 관심 모듈(108)은 존 브라운이 시간 1에서 중간 로우 관심을 갖는 것으로 결정한다. 마찬가지로, 시간 2에 대하여, 관심 모듈(108)은, 존 브라운의 상태가 웃거나 스마일링하지 않고 멀리 바라보기 때문에 존 브라운이 시간 2에서 낮은 관심을 갖는 것으로 결정한다.
시간 3 및 4에서, 관심 모듈(108)은 이들 시간에 대한 어드벤처 타입 및 박수 및 환호 상태에 기초하여 존 브라운이 높은 관심 레벨을 갖는 것으로 결정한다. 시간 6에서, 코미디 타입 및 존 브라운 스마일링에 기초하여 존 브라운이 이 시간에 중간 관심을 갖는 것으로 결정한다.
시간 7 및 8에서, 관심 모듈(108)은 존 브라운이 매우 낮은 관심을 갖는 것으로 결정한다. 여기서, 미디어 타입은 어드벤처이지만, 이 경우, 관심 모듈(108)이 대부분의 콘텐츠 타입에 대하여 존 브라운의 관심 레벨이 매우 낮은 것으로 결정할 수 있다.
쉽게 알 수 있는 바와 같이, 광고주, 미디어 제공자 및 미디어 생성자가 사용자의 참여도 또는 관심 레벨을 앎으로써 이득을 얻을 수 있다. 여기서, 존 브라운에 대한 인구통계 정보와 함께 믿을 수 없는 가족에 대한 관심 레벨이 시간에 따라 제공되는 것으로 가정한다. 수많은 인구통계학적 유사한 사용자로부터의 이 정보로, 미디어 생성자는 적어도 이 인구통계학적 그룹에 대하여 남자 성인이 어드벤처 콘텐츠의 일부에 관심을 갖지만 코미디 부분의 대부분에 관심이 없다는 것을 학습할 수 있다.
더 세부적인 예로서, 미디어 프로그램의 일부에 걸쳐 40 기간(504)에 대한 관심 레벨(502)을 갖는 시간 기반 그래프(500)를 나타내는 도 5를 고려한다. 여기서, 미디어 프로그램이 기간(18 내지 30)에 다른 미디어 프로그램, 즉, 광고를 포함하는 영화인 것으로 가정한다. 관심 모듈(108)은 도시된 바와 같이 사용자가 중간 관심 레벨로 시작하고 기간(18)까지 중간 및 중간 하이, 하이 및 매우 하이 관심 레벨 사이에서 바운스(bounce)하는 것으로 결정한다. 기간(18 내지 22)을 커버(cover)하는 제1 광고 동안, 관심 모듈(108)은 사용자가 중간 로우 관심 레벨을 갖는 것으로 결정한다. 그러나, 기간(23 내지 28) 동안, 관심 모듈(108)은 (예를 들어, 사용자가 멀리 보고 대화를 하거나 방을 떠나기 때문에) 사용자가 매우 로우 관심 레벨을 갖는 것으로 결정한다. 그러나, 기간(28 내지 32)을 커버하는 마지막 광고 동안, 관심 모듈(108)은 기간(29 내지 32) 동안, 광고의 대부분 동안, 사용자가 중간 관심 레벨을 갖는 것으로 결정한다.
이것은, 사용자가 제1 광고 동안 가만히 있고(stay), 중간 광고 및 마지막 광고의 초기 동안 떠나고, 마지막 공고의 대부분 동안 중간 관심으로 복귀한다는 귀중한 정보일 수 있다. 관심의 분해(resolution) 및 정확도를 영화를 본 사람들 중 얼마나 많은 사람이 광고를 실제로 볼지에 대한 정보 및 관심량을 제공하지 않는 어떤 종래의 접근법과 비교한다. 이 예가 시청자의 공통 경향이면, 블록의 중간의 광고에 대한 가격은 내려가고 다른 광고 가격도 조절될 수 있다. 또는, 광고주 및 미디어 제공자가 예를 들어 단 2개의 광고를 갖는 더 짧은 광고 블록을 재생할 것을 학습할 수 있다. 관심 레벨(502)은 또한 기간(7)에서의 매우 높은 관심 레벨 및 기간(35 내지 38)에서의 줄어드는 관심을 통해 영화의 부분에 대한 귀중한 정보를 제공한다.
어떤 경우, 유용하기는 하지만, 참여도 레벨은 상태 및 관심 레벨보다 덜 유용하거나 덜 정확할 수 있다는 것에 주의해야 한다. 예를 들어, 상태 모듈(106)은, 참여도 레벨에 대하여, 사용자의 얼굴이 폐쇄(차단)되어 미디어 프로그램을 쳐다보지 않으면 사용자가 관여하지 않는 것으로 결정할 수 있다. 사용자의 얼굴이 사용자의 손(골격 배향)에 의해 차단되고 오디오가 높은 볼륨 오디오를 표시하면, 상태를 결정할 때, 상태 모듈(106)은 사용자가 비명지르는 것으로 결정할 수 있다. 비명 상태는, 콘텐츠가 호러 또는 서스펜스인 것과 함께, 관심 레벨이 매우 높은 것을 나타낸다. 이것은 관심 레벨이 참여도 레벨과 현저히 다를 수 있는 일 예이다.
상술한 바와 같이, 방법(400)은 블록(402)으로부터 블록(406)으로 직접 진행할 수 있다. 이러한 경우, 관심 모듈(108)은 단독으로 또는 상태 모듈(106)과 함께 (미디어 프로그램의 상이한 부분에 대한 복수의 미디어 타입을 포함하는) 미디어 타입 및 센서 데이터에 기초하여 관심 레벨을 결정한다. 예로서, 관심 모듈(108)은 골격 운동(팔 및 바디) 및 높은 진폭 오디오를 나타내는 시간 4에서의 존 브라운에 대한 센서 데이터, 코미디, 운동 경기, 분쟁 토대 토크 쇼, 어드벤처 기반 비디오 게임, 트윗 또는 호러 타입에 대하여, 존 브라운이 시간 4에서 높은 관심 레벨을 갖는 것으로 결정할 수 있다. 역으로, 관심 모듈(108)은 드라마, 멜로 드라마 또는 클래식 음악에 대한 시간 4에서의 동일 센서 데이터에 대하여 존 브라운이 시간 4에서 낮은 관심 렙레을 갖는 것으로 결정할 수 있다. 이것은 참여도 레벨 또는 상태를 먼저 결정하지 않고 센서 데이터에 기초하여 수행될 수 있지만, 참여도 레벨 또는 상태 결정도 수행될 수 있다.
블록(408)은 블록(404 또는 406) 후에, 인구통계, 아이덴티티, 참여도, 상태, 및/또는 관심 레벨을 제공한다. 상태 모듈(106) 또는 관심 모듈(108)은 이 정보를 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및/또는 부분 모듈(224) 등의 다양한 엔티티 또는 다른 엔티티에 제공할 수 있다.
미디어 반응이 결정되는 광고의 프리젠팅 후에 이 정보를 광고주에게 제공하는 것은 광고주가 미디어 프로그램 동안 표시되는 자신의 광고의 가치를 측정하도록 하는데 효과적일 수 있다. 이 정보를 미디어 생성자에게 제공하는 것은 미디어 생성자가 유사한 미디어 프로그램 또는 그 부분의 잠재적 가치를 평가하도록 하는데 효과적일 수 있다. 예를 들어, 대중에게 미디어 프로그램을 출시하기 전에 미디어 생성자는 수신되지 않은 미디어 프로그램의 부분을 결정하고 따라서 미디어 프로그램을 변경하여 개선할 수 있다.
이 정보를 레이팅(rating) 엔티티에 제공하는 것은 레이팅 엔티티가 사용자에 대하여 미디어 프로그램을 자동으로 레이팅하도록 하는데 효과적일 수 있다. 미디어 제어기 등의 여전히 다른 엔티티는 정보를 이용하여 미디어 제어 및 프리젠팅을 개선할 수 있다. 로컬 제어기는 예를 들어 청중 내의 모든 사용자가 방을 떠나는 것에 응답하여 미디어 프로그램을 중지할 수 있다.
미디어 반응을 이력 모듈(216)에 제공하는 것은 이력 모듈(216)이 반응 이력(218)을 형성하고 업데이트하는데 효과적일 수 있다. 이력 모듈(216)은 미디어 프로그램에 대한 각 미디어 반응 세트가 수신되는 콘텍스트 또는 콘텍스트들에 기초하여 반응 이력(218)을 형성할 수 있거나, 콘텍스트 내의 미디어 반응들은 전체적으로 또는 부분적으로 미디어 반응의 요소로서 포함될 수 있다. 따라서, 작업후 수요일 밤에 사용자가 텔리비전 쇼를 보는 미디어 반응에 대한 콘텍스트는 사용자가 작업에 의해 피곤할 수 있다는 것을 반영하도록 변경될 수 있다.
여기서 주목되는 바와 같이, 기술은 15초 광고 또는 비디오 토막 마다 대부분의 미디어 프로그램 동안 사용자에 대한 수많은 상태를 결정할 수 있다. 이러한 경우, 블록(404)은 1초 기간에 반복된다.
또한, 상태 모듈(106)은 시간에 따른 사용자에 대한 복수 상태 뿐만 아니라 특정 시간에서의 다양한 상이한 상태를 결정할 수 있다. 사용자는 예를 들어 웃거나 멀리 바라볼 수 있고, 이들은 사용자의 관심 레벨을 결정하는데 사용되거나 결정되고 제공될 수 있는 상태일 수 있다.
상태 모듈(106) 및 관심 모듈(108) 중의 어느 하나 또는 그 둘다는 센서 데이터 또는 미디어 타입에 더하여 이력 데이터에 기초하여 참여도, 상태 및/또는 관심 레벨을 결정할 수 있다. 하나의 경우, 사용자의 이력 센서 데이터가 (예를 들어, 현재 미디어 반응에 대하여 동적으로) 사용자의 참여도, 상태 또는 관심 레벨을 정규화하는데 사용된다. 예를 들어, 수잔 브라운이 미디어 프로그램을 보고 있고 그녀에 대한 센서 데이터가 수신되면, 기술은 그녀의 이력 센서 데이터에 기초하여 그녀에 대한 참여도, 상태 및 관심 레벨을 가장 잘 결정하는 방법을 정규화하거나 학습할 수 있다. 수잔 브라운의 이력 센서 데이터가 그녀가 특히 표현력이 있는(expressive) 사용자 또는 보컬(vocal) 사용자가 아니라는 것을 나타내면, 기술은 이 이력에 대하여 조절할 수 있다. 따라서, 낮은 진폭 오디오는 사용자가 웃었다고 결정하는데 일반적으로 사용되는 더 높은 진폭 오디오와 비교하여 수잔 브라운이 웃었다고 결정하기에 충분할 수 있다.
다른 경우에, 센서 데이터가 수신된 사용자의 이력 참여도, 상태 또는 관심 레벨은 다른 사람의 이력 참여도, 상태 또는 관심 레벨과 비교된다. 따라서, 리디아 브라운에 대한 더 낮은 관심 레벨은 (일반적으로 또는 동일 미디어 프로그램에 대하여) 다른 사람의 관심 레벨과 비교하여 그녀가 본 거의 모든 미디오 프로그램에 대한 높은 관심을 나타내는 것을 표시하는 데이터에 기초하여 결정될 수 있다. 이들의 어떤 경우에도, 기술은 시간에 따라 학습하고, 따라서, 참여도, 상태 및/또는 관심 레벨을 정규화(normalize)할 수 있다.
반응 이력을 형성하는 방법
상술한 바와 같이, 기술은 다양한 미디어 프로그램에 대한 사용자의 참여도, 상태 및/또는 관심 레벨을 결정할 수 있다. 또한, 이들 기술은 수동적 또는 능동적 센서 데이터를 이용하여 그렇게 할 수 있다. 이들 미디어 반응으로, 기술은 사용자에 대한 반응 이력을 형성할 수 있다. 이 반응 이력은 다른 곳에 기재된 바와 같이 다양한 방식으로 사용될 수 있다.
도 6은 미디어 프로그램에 대한 사용자의 반응에 기초하여 반응 이력을 형성하는 방법(600)을 나타낸다. 블록(602)은 사용자의 반응 세트, 복수의 미디어 프로그램을 프리젠팅하는 동안 감지되는 반응 세트 및 각각의 미디어 프로그램에 관한 정보를 수신한다. 미디어 프로그램에 대한 반응의 예시적인 세트가 도 5에 도시되고, 도시된 것은 프로그램이 사용자에게 프리젠팅된 시간 동안의 관심 레벨의 측정치이다.
각각의 미디어 프로그램에 관한 정보는 예를 들어 미디어 이름(예를 들어, 더 오피스(The Office, 에피소드 104) 및 그 타입(예를 들어, 노래, 텔레비전 쇼, 또는 광고) 뿐만 아니라 여기에 기재된 다른 정보를 포함할 수 있다.
미디어 반응 및 그 각각의 미디어 프로그램에 더하여, 블록(602)은 상술한 바와 같이 미디어 프로그램이 프리젠팅되는 동안 사용자에 대한 콘텍스트를 수신할 수 있다.
블록(602)은 다른 사용자로부터 미디어 반응을 수신할 수 있고, 이것으로 반응 이력을 형성한다. 따라서, 이력 모듈(216)은 (사용자에 대한 초기 또는 예비 반응 이력을 형성한 후 또는 부분적으로) 사용자의 미디어 반응에 기초하여 사용자와 유사한 반응을 갖는 다른 사용자를 결정할 수 있다. 이력 모듈(216)은 사용자의 반응과 유사한 반응을 갖는 다른 사람을 결정하고 사용자가 아직 보지 않았거나 듣지 않은 프로그램에 대한 다른 사람의 반응을 이용하여 사용자에 대한 반응 이력을 개선할 수 있다.
블록(604)은 사용자에 대한 반응의 세트 및 각각의 미디어 프로그램에 대한 정보에 기초하여 사용자에 대한 반응 이력을 형성한다. 기재된 바와 같이, 블록(604)은 또한 다른 사람의 반응 이력, 콘텍스트 등을 이용하여 사용자의 반응 이력을 형성할 수 있다. 이 반응 이력은 사용자가 즐길 것 같은 프로그램, 사용자에게 보여지면 효과적일 것 같은 광고를 결정하기 위하여 및 여기에 기재된 다른 목적으로 사용될 수 있다.
현재 미디어 반응에 기초해서 광고를 프리젠팅하기 위한 방법
상술한 바와 같이, 기술은 참여도, 상태 및/또는 관심 레벨 등의 사용자의 현재 미디어 반응을 결정할 수 있다. 다음의 방법은 프리젠팅할 광고를 결정하는데 현재 미디어 반응이 어떻게 이용될 수 있는지를 다룰 수 있다.
도 7은 복수의 잠재적인 광고 중의 어느 광고가 프리젠팅될지를 결정하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법(700)을 나타낸다.
블록(702)은 사용자에게 현재 프리젠팅된 미디어 프로그램에 대한 사용자의 현재 미디어 반응을 수신한다. 현재 미디어 반응은 예를 들면 코미디의 장면에 대한 웃음, 라이브 스포츠 게임의 스포츠 플레이에 대한 환호, 노래 또는 음악 비디오에 대한 댄싱, 드라마 동안의 산만해짐, 영화에 대한 광고 방송을 골똘히(intently) 보는 것 또는 뉴스 프로그램을 보는 방에서 다른 사람과 대화하기 등의 다양한 매체에서의 다양한 종류일 수 있다. 미디어 프로그램은, 동일한 미디어 프로그램 동안 먼저 만들어진 반응 이력 또는 다른 현재 미디어 반응이 최신의 현재 미디어 반응에 더하여 사용될 수 있지만, 이력 미디어 반응보다 도 1의 사용자(116-1) 등의 사용자에게 현재 프리젠팅되는 것이다.
예로서, 도 8은 시간 기반 상태 그래프(800)에 도시된 프로그램이 프리젠팅됨에 따라 프로그램의 일부에 걸쳐 코미디 프로그램(더 오피스, 에피소드 104)에 대한 현재 미디어 반응을 나타내는 도 8을 고려한다. 여기서, 23개의 미디어 반응(802)이 도시되고, 미디어 반응은 상태 모듈(106)로부터 광고 모듈(220)에 의해 수신된 아멜리아 폰드(Amelia Pond)라는 이름을 가진 사용자에 대한 상태이다. 시각적 간략화를 위해, 시간 기반 그래프(800)는 단 4개의 상태, 즉, 웃음(), 스마일링(), 관심() 및 떠남("X")를 나타낸다.
블록(704)은 미디어 프로그램에 대한 현재 미디어 반응에 기초하여 복수의 잠재적 광고 중의 결정된 광고를 결정한다. 블록(704)은 현재 미디어 반응 뿐만 아니라 사용자에 대한 반응 이력(예를 들어, 아멜리아 폰드에 대한 도 2의 반응 이력(218)), 현재의 미디어 반응에 대한 콘텍스트(예를 들어, 아멜리아 폰드의 위치가 화창하거나 그녀가 학교에서 집으로 돌아감), 사용자의 인구통계(예를 들어, 아멜리아 폰드가 영어를 말하고 미국 워싱턴주 시애틀에 살고 있는 16살의 여성임), 미디어 프로그램의 타입(예를 들어, 코미디) 또는 청중 내의 다른 사용자의 미디어 반응(예를 들어, 아멜리아 폰드의 동생 캘빈 폰드가 특정 방식으로 반응하였음) 등의 다른 정보에 기초하여 어떤 광고가 언제 보여질지를 결정할 수 있다. 블록(704)은 광고를 보여주기 전에 프로그램 내에서 보여지는 마지막 장면에 대한 현재 미디어 반응 직후 어떤 광고를 보여줄지를 결정할 수 있지만, 대신, 블록(704)은 광고 직전에 없는 현재 미디어 반응을 사용하거나 마지막 6개의 미디어 반응 등의 복수의 현재 미디어 반응을 사용할 수 있다.
진행중인 실시예에 계속하여, 현재 미디어 반응은 아멜리아 폰드가 더 오피스의 현재 장면을 보고 웃고 있는 도 8의 반응(804)인 것으로 가정한다. 또한, 장면의 끝의 15초에서, 제1 광고 블록(806)이 시작되는 것으로 가정한다. 이 제1 광고 블록(806)은 1분 길이를 갖고 30초 광고 2개, 즉, 광고 번호 1(808) 및 다른 광고 번호 2(810)를 포함하도록 스케줄링된다.
이 경우, 제1 광고주는 광고 번호 1(808)에 대한 권한을 미리 구입했고 이 지점에 대하여 3개의 상이한 잠재적 광고가 미리 제공되었고, 그중의 하나는 현재 미디어 반응에 기초하여 플레이되는 것으로 가정한다. 따라서, 광고 모듈(220)은 먼저 도 2 또는 도 3의 광고(222)에 적합한 3개의 잠재적인 광고가 있는 것을 확인한다. 여기에서, 광고주는 프로그램이 더 오피스이고 에피소드 104라는 것을 미리 알고 있었다. 이 프로그램은 제1 시간 동안 보고 있고 따라서 다른 사용자의 다른 미디어 반응은 전체 프로그램에 대하여 기록되지 않은 것으로 가정한다. 그러나, 일반적으로 프로그램에 관한 정보에 기초하여, 적절하다면 현재 미디어 반응이 웃음 또는 스마일링이면 하나의 광고가 플레이하기에 적절한 것으로 표시되고, 하나는 반응이 떠남인 경우에 대한 것이고, 다른 하나는 다른 모든 상태에 대한 것이다. 광고주가 큰 자동차 제조자이고 (웃음 또는 스마일링에 대한) 제1 광고가 즐겁고(fun) 빠른 스포츠 카에 대한 것이고, 제2 광고는 사용자가 방을 떠났을때 플레이되기 때문에 사용자가 광고의 청취 거리 내에 있다는 희망을 가지고 제조자의 장점(예를 들어, 데소토(Desoto) 차는 빠르고, 드소토 차는 즐겁고, 드소토 차는 좋은 값어치를 지닌다)을 서술하면서 반복적이고 오디오 포커싱되고, 제3 광고는 인기있고 합리적인 가족용 자동차(family car)에 대한 것으로 가정한다.
이것은 부분적으로 프로그램에 대한 타입 또는 일반적인 정보에 기초하여 현재 미디어 반응을 이용하는 비교적 간단한 경우이다. 광고주는 대신 많은 현재 미디어 반응 뿐만 아니라 사용자에 관한 인구통계 및 사용자의 반응 이력에 20개의 광고를 제공할 수 있다. 따라서, 광고 모듈(220)은 사용자가 34 및 50세의 남자이고 이 나이 그룹의 남자에 대하여 일반적으로 양호한 판매자가 아닌 제조자에 의해 판매된 다양한 차를 배제하는 것에 기초하여 20개의 광고 중의 5개는 잠재적으로 적절한 것으로 결정할 수 있다. 광고 모듈(220)은 또한 사용자가 낚시 쇼(fishing show) 및 자동차 경주 쇼에 긍정적으로 반응한다는 것을 나타내고 트럭 및 스포츠 유틸리티 차량을 보여주는 사용자의 반응 이력에 기초하여 5개 중 2개가 더 적절한 것으로 결정할 수 있다. 마지막으로, 광고 모듈(220)은 사용자가 프로그램에 매우 관여한 것을 나타내고 사용자가 덜 상세하고 더 스타일리스트한 광고보다 오히려 이러한 세부사항을 인식하는것에 충분한 관심을 갖는다는 가정에서 트럭에 대한 세부사항으로 진행하는 트럭에 대한 광고를 보여주는 사용자의 현재 미디어 반응에 기초하여 이들 2개 중의 어느 것이 프리젠팅될지를 결정할 수 있다.
블록(706)은 미디어 프로그램이 프리젠팅된 현재 프리젠팅 기간 동안 또는 미디어 프로그램의 프리젠팅을 완료한 직후에 결정된 광고를 프리젠팅하도록 한다. 블록(706)은 광고를 프리젠팅함으로써 또는 결정된 광고가 프리젠팅되어야 한다는 것을 도 2의 미디어 프리젠팅 장치(102) 등의 프리젠팅 엔티티에 나타냄으로써 결정된 광고가 프리젠팅되도록 할 수 있다. 현재 프리젠팅 기간은 미디어 프로그램을 프리젠팅하기에 충분한 시간량이지만 미리 결정된 수의 광고를 프리젠팅하기에 충분한 시간량 또는 광고를 프리젠팅하는 시간량을 포함할 수 있다.
아멜리아 폰드에 관한 진행중인 실시예를 마치면서 도 8을 다시 고려한다. 여기서, 광고 모듈(220)은 도 2의 미디어 프리젠팅 장치(102)가 아멜리아의 현재 미디어 반응이 웃고 있다는 것에 기초하여 재미있고 신속한 스포츠 카에 대한 제1 광고를 프리젠팅하도록 하였다.
광고 모듈(220)은 자신의 결정을 가장 최근 미디어 반응 이외의 미디어 반응, 이들 반응이 미디어 프로그램에 관한 것이지 또는 예를 들면, 사용자 반응 이력이 기초하는 미디어 프로그램 또는 다른 프로그램에 대한 현재 프리젠팅 기간에 기초할 수 있다. 현재 미디어 반응은 또한 프로그램에 대한 것이 아니라 현재 프리젠팅 기간 동안의 반응에 대하여 수신된 것 일 수 있다. 따라서, 현재 프리젠팅 기간 내의 광고 블록에서 보여주는 이전 광고에 대한 사용자의 반응이 또한 어떤 광고가 프리젠팅되는지를 결정하는데 사용될 수 있다.
방법(700)은 반복될 수 있고, 광고 번호 2(810)는 적어도 부분적으로 광고 반응(812)에 보여지는 "관심 상태"에 기초하여 선택될 수 있다. 따라서, 방법(700)은, 반응이 프로그램에 대한 것이든 광고에 대한 것이든 간에, 현재 프리젠팅 기간 동안 다양한 광고 및 현재 반응에 대하여 반복될 수 있다.
다른 광고 반응, 즉, 제2 광고 반응(814), 제2 광고 블록(820)의 광고 번호 3(818)에 대한 제3 광고 반응(816) 및 광고 번호 4(824)에 대한 제4 광고 반응(822)이 도시된다. 광고 모듈(220)에 의해 프리젠팅될 것으로 결정된 제3 광고는 부분적으로 떠난 상태(826)에 기초하고 프리젠팅될 것으로 결정된 제3 광고는 제3 광고에서 사용자가 웃는 것에 기초할 수 있다. 이들은 현재 미디어 반응이 프리젠팅될 광고를 결정하기 위하여 기술에 의해 사용될 수 있는 몇가지 예일 뿐이다.
선택적으로, 기술은 미디어 프로그램에 대한 현재 미디어 반응에 기초하여 광고에 대한 가격을 결정할 수 있다. 따라서, 광고는 사용자가 현재 떠나는 경우 더 적은 비용이 들거나 사용자가 현재 웃거나 관여하는 경우 더 많은 비용이 들 수 있다. 그 후, 기술은 광고를 프리젠팅하기 위하여 광고의 입찰과 독립적으로 미디어 반응에 기초하여 광고에 대한 가격을 설정할 수 있다. 이러한 경우, 기술은 가장 높은 입찰 구조 또는 입찰 및 결정된 가격의 어떤 조합과 반대로 어떤 광고주가 가격에 동의하거나 동의했는지에 기초하여 광고를 프리젠팅할 수 있다. 입찰 및 결정된 가격의 조합의 일 예는 미디어 반응에 기초하여 기술에 의해 설정된 개방 가격이고, 광고주로부터의 입찰은 개방 가격에 기초하여 입찰한다.
선택적으로, 기술은 사용자가 광고와 명시적으로 상호작용하도록 할 수 있다. 광고는 예를 들어 요청된 미디어 반응에 대한 명시적인 요청을 포함하여 제안을 가능하게 할 수 있다. 따라서, 세부적인 트럭 광고는 사용자의 이메일 또는 집 주소로 전송될 세부적인 판매 책자에 대하여 사용자가 손을 들 것을 요청하는 텍스트 또는 오디오를 포함하거나 배달 피자 체인점에 대한 광고는 현재 플레이되고 있는 축구 게임 동안 배달될 가정 배달 피자를 1/2 오프하는 것에 대하여 사용자가 환호하도록 요청할 수 있다. 사용자가 자신의 손을 들면, 기술은 이 상태를 연관된 광고주에게 전달하고, 그 후, 피자의 1/2 오프에 대한 코드와 함께 사용자에게 가까운 지점(local store)에 대한 광고 내에 디스플레이될 전화 번호를 전송할 수 있다.
도 9는 광고주의 입찰에 기초하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법(900)을 나타낸다.
블록(902)은 사용자에게 현재 프리젠팅되는 미디어 프로그램에 대한 사용자의 현재 미디어 반응을 광고주에게 제공한다. 블록(902)은 상태 모듈(106), 관심 모듈(108) 및/또는 광고 모듈(220)에 상술한 다양한 방식으로 수신되거나 결정된 현재 미디어 반응을 제공할 수 있다. 블록(902)은 또한 사용자에 대한 반응 이력 또는 그 일부, 사용자에 대한 인구통계학적 정보, 사용자에게 미디어 프로그램이 프리젠팅되는 콘텍스트 또는 미디어 프로그램에 대한 정보 등의 다른 정보를 제공할 수 있다.
예를 들어, 통신 네트워크(304)를 통해 인구통계(1002), 반응 이력(1004)의 일부, 현재 미디어 반응(1006) 및 미디어 프로그램(1008)에 대한 정보를 광고주(1010)(제1, 제2 및 제3 광고주(1010-1, 1010-2 및 1010-3)를 포함하는 것으로 도시됨)에게 제공하는 광고 모듈(220)을 나타내는 도 10을 고려한다.
인구통계(1002)가 사용자가 한 명의 아이가 있는 결혼한 33살의 여자인 것을 나타내는 것으로 가정한다. 반응 이력(1004)의 일부가 사용자 아이덴티티, 즉, 멜로디 폰드(Melody Pond) 및 공상 과학 프로그램 "올림픽 게임"에 대한 그녀의 선호도 및 영화 예고편, 신발 판매 및 철인 3종 경기(triathlons)에 대한 광고에 대한 이전의 긍정적인 반응을 나타내는 것으로 가정한다. 여기서, 현재 미디어 반응(1006)은 실망(슬픈 상태)을 나타내고 미디어 프로그램(1008)에 대한 정보는, 프로그램이 현재 미디어 반응이 슬픈 상태라는 마지막 부분이 마이클 펠프스(Michael Phelps)가 국제 수영 대회에서 호주 수영선수 이안 소프(Ian Thorp)에게 2위를 하게 했다는 것을 나타내는 수영 대회임을 표시한다.
블록(904)은 광고주로부터 입찰을 수신하고, 입찰은 미디어 프로그램이 프리젠팅되는 현재 프리젠팅 기간 동안 사용자에게 각각의 광고를 프리젠팅할 권한에 관한 것이다. 이 권한은 현재 미디어 반응에 대한 장면 또는 부분이 완료된 후 및 다른 광고가 보여지기 전의 권한 등의 즉시로 광고를 프리젠팅하는 것에 대한 것일 수 있다. 이 권한은 대신 예를 들어 블록 내의 장면 또는 광고 후의 5분 동안 제2 광고 등의 현재 프리젠팅 기간의 뒷부분에 대한 것일 수 있다.
광고가 표시되기 전에 사용자가 슬픈 상태에 있는 상기 예를 고려한다. 어떤 광고주는 이 상태를 갖는 사용자에게 광고를 프리젠팅하는 것에 관심을 갖지 않고, 그래서, 이 광고를 보여줄 권한에 대하여 입찰이 낮지만, 다른 광고주는 슬픈 상태의 사람에게 더 효과적인 광고를 고려할 것이다. 또한, 광고주는 사용자의 인구통계, 반응 이력 및 어떤 프로그램을 보고있는지에 기초하여 값을 고려하고 할당한다. 생명 보험 또는 투자 계획을 판매하는 광고주는, 카펫 청소 제품을 판매하는 광고주보다, 예를 들어, 어린 자녀를 갖는 사용자에 대하여 슬픈 상태 후 직접 보여줄 권리에 대하여 높게 입찰할 가능성이 많다.
이 예에서, 3명의 광고주(1010) 모두가 광고를 보여줄 권리에 대하여 입찰하고 각각의 입찰로 광고(222) 중의 광고에 대한 표시기 또는 광고를 검색하는 유니버셜 리소스 로케이터와 함께 광고 모듈(220)이 광고를 프리젠팅하도록 하기에 충분한 정보를 포함하는 것으로 가정한다.
블록(906)은 미디어 프로그램이 프리젠팅되는 현재 프리젠팅 기간 동안 입찰 중의 하나와 연관된 광고 중의 하나가 사용자에게 프리젠팅되도록 한다. 블록(906)은 어떤 입찰이 가장 높은지를 결정하는 것에 응답하여 광고를 보여주도록 선택할 수 있지만, 가장 높은 입찰이 반드시 요구되는 것은 아니다. 이 예를 결론지으면서, 광고 모듈(220)은 가장 높은 입찰과 연관된 광고가 사용자에게 프리젠팅되도록 한다.
상술한 방법에 더하여, 기술은 어떤 경우 현재 미디어 반응 등을 포함하여 미디어 프로그램의 프리젠팅 동안 존재하는 추가의 사용자의 수를 제공함으로써, 입찰의 사이즈를 증가시킬 수 있다.
또한, 광고 모듈(220)은 보여지는 광고에 대한 미디어 반응을 수신하고 반응에 기초하여 광고에 대한 입찰에 대하여 광고에 대한 비용을 감소 또는 증가시킬 수 있다.
방법(900)은 방법(700)의 예에서 기재된 것과 유사하게 이전의 광고에 대한 현재 미디어 반응에 기초하는 것을 포함하여 나중의 광고에 대하여 전체적으로 또는 부분적으로 반복될 수 있다.
도 11은 현재 미디어 반응이 일어난 장면 직후를 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법(1100)을 나타낸다.
블록(1102)은 사용자에게 프리젠팅되는 미디어 프로그램의 장면에 대한 현재 미디어 반응에 기초하여 미디어 프로그램의 타입 및 사용자와 연관된 반응 이력, 및 복수의 잠재적인 반응 중의 결정된 광고를 결정한다. 이것이 수행될 수 있는 방법이 상술되었다. 광고주는 웃음 반응 직후 각 광고 배치에 대한 특정 타입의 광고 후에 프리젠팅되는 자신의 광고에 기초하여 5센트 등의 입찰 또는 선불할 수 있음에 주의해야 한다. 또한, 광고가 각 사용자에 대하여 배치되지 않고 대신 일반적으로 또는 그룹마다 (예를 들어 특정 지리적 영역 내의 사람들에게) 배치되면, 입찰 또는 선불은 대신 긍정적인 반응 등의 퍼센티지에 기초하여 가중될 수 있다.
블록(1104)은 미디어 프로그램의 장면의 프리젠팅 완료 직후 결정된 광고가 프리젠팅되도록 한다.
현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법
상술한 바와 같이, 기술은 참여도, 상태 및/또는 관심 레벨 등의 사용자의 현재 미디어 반응을 결정할 수 있다. 다음의 방법은 현재 프리젠팅된 미디어 프로그램 동안 프리젠팅할 미래 부분을 결정하는데 현재 미디어 반응이 어떻게 사용될 수 있는지를 어드레싱한다.
도 12는 미디어 프로그램을 사용자에게 프리젠팅하는 동안 수동적으로 감지된 센서 데이터에 기초하여 결정된 사용자의 현재 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법(1200)을 나타낸다.
블록(1202)은 사용자에게 미디어 프로그램을 프리젠팅하는 동안 미디어 프로그램의 일부에 대한 사용자의 현재 미디어 반응을 수신하고, 미디어 반응은 프리젠팅 동안 수동적으로 감지된 센서에 기초하여 결정된다.
다른 곳에서 상세히 설명하는 바와 같이, 현재 미디어 반응은 코미디의 장면에 대한 웃음, 라이브 스포츠 게임의 스포츠 플레이에 대한 환호, 노래 또는 음악 비디오에 맞춰 댄싱, 드라마 동안의 산만해짐, 영화에 대한 광고 방송을 골똘히 보는 것 또는 뉴스 프로그램을 보는 방에서 다른 사람과 대화하기 등의 다양한 매체에 반응하는 다양한 종류일 수 있다. 미디어 프로그램은 이전에 프리젠팅된 미디어 프로그램보다는 도 1의 사용자(116-1) 등의 사용자에게 현재 프리젠팅되는 것이고, 따라서, 반응은 역사적인 미디어 반응이다. 그러나, 현재 미디어 반응과 함께 역사적 미디어 반응에 기초한 반응 이력이 사용되어 미래 부분을 결정할 수 있다. 또한, 동일한 미디어 프로그램 동안 이전에 이루어진 다른 현재 미디어 반응이 또한 또는 가장 현재의 미디어 반응 대신에 사용될 수 있다.
미디어 반응은 미디어 프로그램의 현재 프리젠팅 동안 수신됨으로써 현재(current)이지만 즉시 또는 동시에 수신되지 않거나 심지어 미디어 프로그램에 대한 가장 최근의 미디어 반응이다. 따라서, 미디어 프로그램의 제4 부분에 대한 현재 미디어 반응은 제6 부분 동안 수신되어 미디어 프로그램에 프리젠팅될 제15 부분을 결정하는데 사용될 수 있다.
예로서, 도 13은 부분 모듈(224)이 구현되어, 도 2의 컴퓨팅 장치(202)로부터 인구통계(1302), 반응 이력(1304)의 일부, 현재 미디어 반응(1306) 및 미디어 프로그램(1308)에 대한 정보를 수신하는 원격 장치(302)를 나타내는 도 13을 고려한다. 부분 모듈(224)은 통신 네트워크(304)를 통해 이 데이터를 수신하고, 응답하여, 컴퓨팅 장치(202)가 이 데이터와 연관된 사용자에게 미디어 프로그램의 특정 미래 부분을 프리젠팅하게 한다.
또한, 예로서, 시간 기반 상태 그래프(800)에 도시된 프로그램이 프리젠팅됨에 따라 프로그램의 일부를 통해 코미디 프로그램(더 오피스, 에피소드 104)에 대한 현재 미디어 반응을 나타내는 도 8을 고려한다. 도 8에 23개의 미디어 반응(802)이 23개의 부분에 대하여 도시되지만, 이 예에서, 14번째, 15번째, 및 16번째 부분에서 스마일링 상태를 나타내는 미디어 반응(828, 830, 832)을 고려한다. 여기서, 이들은 3개의 현재 미디어 반응이고(미디어 반응(832)은 가장 최근임), 17번째 내지 23번째 부분은 아직 프리젠팅되지 않은 것으로 가정한다. 또한, 인구통계(1302)는 더 오피스를 본 사람이 23살 여자인 것을 나타내고, 반응 이력(1304)의 일부는 사람이 일반적으로 코미디를 싫어하지만 공상 과학 영화 및 드라마를 좋아하는 것을 나타내고, 현재 미디어 반응(1306)은 상술한 3개의 스마일링 상태를 포함하고, 미디어 프로그램(1308)에 대한 정보는 프로그램이 더 오피스, 에피소드 104인 것을 나타내고, 현재 미디어 반응은 14번째, 15번째 및 16번째 부분인 것을 나타내는 것으로 가정한다.
블록(1204)은 미디어 반응 및 부분에 기초하여 사용자에게 프리젠팅될 미디어 프로그램의 미래 부분을 결정하고, 미디어 프로그램의 미래 부분은 그 부분보다 미디어 프로그램에서 나중에 발생한다. 이 결정을 함에 있어서, 부분 모듈(224)은 충분한 정보를 수신하거나 그 정보를 이용하여 추가의 정보를 얻을 수 있다. 따라서, 미디어 프로그램(1308)에 대한 정보가 3개의 부분을 나타내고, 부분 모듈(224)이 이들 부분이 쇼 내의 팜(Pam) 캐릭터를 개발하지만 농담이 아니거나 코미디로 의도되지 않는 장면을 어드레싱하는 것으로 결정한다. 사람의 반응(스마일링) 및 이들 부분(팜의 캐릭터 개발)의 주제에 기초하여, 부분 모듈(224)은 예를 들어 프로그램의 끝에서 보여질 다양한 가능한 장면들 사이에서 결정할 수 있다. 부분 모듈(224)은 도 13에 도시된 바와 같이 다른 정보에 기초하여 결정할 수 있다. 부분 모듈(224)은, 일반적으로 코미디를 싫어하고 팜에 대한 장면에 걸쳐 웃는 23세 여자가 드와이트(Dwight)라는 이름을 가진 캐릭터가 종이 트럭에서 떨어지는 신체적 유머를 갖는 장면보다 다른 캐릭터 개발 장면을 즐길것이라고 결정할 수 있다. 여기서, 부분(214)은 23번째 부분에서 더 오피스의 끝에 보여줄 2개의 가능한 미래 부분을 포함하는데, 그 중 하나는 캐릭터가 트럭에서 추락하는 것에 관한 것이고 다른 하나는 팜에 관한 것이다.
블록(1206)은 미디어 프로그램의 현재 프리젠팅 동안 미디어 프로그램의 미래 부분이 사용자에게 프리젠팅되도록 한다. 부분 모듈(224)은 국부적이거나 원격으로 동작할 수 있고 프리젠팅될 부분을 표시하거나 제공할 수 있다. 따라서, 부분 모듈(224)은 통신 네트워크(304)를 통해 컴퓨팅 장치(202)에 콘텐츠 부분 또는 표시(1310)를 전달함으로써 미래 부분의 프리젠팅을 가능하게 할 수 있다. 부분 모듈(224)은, 표시를 수신하면, 컴퓨팅 장치(202)에 국부적으로 저장된(또는 액세스가능한) 이전에 저장된 다양한 부분으로부터 표시에 기초하여 선택할 수 있다.
진행중인 예를 결론지으면서, 도 13의 원격 장치(302)가 셋탑 박스(202-4)를 통해 미디어 프로그램을 스트리밍하고 있고, 따라서, 23번째 부분에서, 드와이트에 대한 장면보다 오히려 팜에 대한 장면을 스트리밍하는 것으로 가정한다.
방법(1200)에 대한 상기 예가 단일 사용자에 관한 것이지만, (예를 들어, 23세 여성 사용자와 함께 보는 동일한 방에서) 사용자에게 물리적으로 국부적인 다른 사람을 포함하여 다른 사용자들의 미디어 반응이 또한 사용될 수 있다. 또한, 동일한 인구통계학적 그룹(예를 들어 18 내지 34세의 여성) 또는 일반적으로 청중(예를 들어 미국 및 캐나다의 동부 표준시 블록에서 제1 쇼 동안 미디어 반응이 수신되는 모든 사람)의 다른 멤버 등의 사용자와 함께 시청하지 않는 다른 사용자의 미디어 반응이 사용될 수 있다.
이 사용자 및 다른 사용자들의 미디어 반응은 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하기 위하여 실시간으로 수신 및 사용되는 것에 주의해야 한다. 따라서, 프로그램은 사람들에게 그때 그때 실시간으로 맞추어져 프로그램의 품질을 개선할 수 있다. 이 예에서, 미디어 프로그램은 이전에 준비된 부분에 기초하여 맞추어지지만, 이것이 요구되는 것은 아니다. 프로그램에서 조기에 프리젠팅된 이전의 촌극의 양호한 반응에 기초하여 촌극을 수행하기 위하여 선택하는 라이브 심야 코미디 쇼 등의 라이브 프로그램은 실시간으로 변경될 수 있다.
도 14는 미래 부분이 명시적으로 요청된 미디어 반응에 대한 응답인 경우를 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법(1400)을 나타낸다.
블록(1402)은 미디어 프로그램 동안, 요청된 미디어 반응에 대한 명시적인 요청을 프리젠팅하거나 프리젠팅하도록 하고, 명시적 요청은 미디어 프로그램의 일부이고 요청된 미디어 반응에 대한 응답을 나타내고, 요청된 미디어 반응은 사용자에 대한 신체적 변화이다. 미디어 반응은 손을 들거나, 환호, 스마일링 등의 설명된 것 중의 하나 이상일 수 있다.
또한, 명시적인 요청은 미디어 프로그램의 일부로서 및 그 내에서 프리젠팅될 수 있다. 따라서, 광고는 광고 텍스트의 일부로 형성되거나 라이브이든 녹화이든 간에, 나레이터가 사용자에게 자동차의 테스트 운전을 준비(arrange)하기 위하여 손을 올릴 것을 요청하는 것 또는 리얼리티 쇼는 호스트가 어떤 캐릭터가 쇼에 남아 있는지를 결정하기 위하여 캐릭터에 대한 환호 또는 야유를 청중에게 요청하는 것을 포함하거나 또는 서스펜스 영화가 사용자가 달리거나 숨거나 나쁜 사람과 싸우도록 요청해야 하는 영화속의 캐릭터를 가질 수 있다.
대안으로, 명시적인 요청이 프리젠팅될 수 있지만 미디어 프로그램에 대하여 중첩된 팝업 윈도우로 미디어 프로그램의 일부로서 또는 그 내에 프리젠팅되지 않을 수 있다.
응답 자체는, 광고 또는 비광고 미디어 프로그램에서, 제품 또는 서비스 등에 대한 정보 또는 쿠폰에 대한 제안 등의 광고에 대한 상술한 것과 유사할 수 있다.
응답은 또한 또는 대신에 프로그램에서 미디어의 상이한 부분을 나중에 프리젠팅하는 것을 포함할 수 있다. 리얼리티 쇼는 "노숙자를 돕는 진저(Ginger) 어드벤처에 대하여 더 보기를 원하면 한 손을 흔들고, 당신이 자전거 가게로의 바트의 트립(Bart's Trip)에 관하여 더 보기를 원하면 양손을 흔들거나 바트에 대한 진저와의 수지의 싸움에 대하여 더 보기를 원하면 환호하라" 등의 캐릭터 또는 상황에 대하여 더 프리젠팅하도록 미디어 반응을 명시적으로 요청할 수 있다. 이 예에서, 응답은 3개의 부분을 갖고(또는 3개의 응답으로 고려될 수 있고), 각각의 미디어 반응에 대한 하나의 응답 또는 서브 응답(sub-response)은 여기서 진저의 어드벤처, 바트의 트립 또는 수지의 싸움이다.
블록(1404)은 프리젠팅하는 동안 감지되고 명시적 요청에 적합한 요청된 미디어 반응을 수신하고, 요청된 미디어 반응은 프리젠팅하는 동안 수동적으로 감지되고 명시적인 요청의 프리젠팅과 적합한 센서 데이터에 기초하여 결정된다. 기술은 다른 엔티티로부터 요청된 미디어 반응을 수신하거나 수동적으로 또는 다르게 센서 데이터에 기초하여 미디어 반응을 결정할 수 있다. 일 실시예에서, 블록(1404)은 상태 모듈(106)에 의해 수행된다. 상태 모듈(106)은 미디어 프로그램 동안, 명시적인 요청 프리젠팅시 또는 그 직후 수동적으로 감지된 센서 데이터 및 사용자에 대한 신체 변화 측정에 기초하여 요청된 미디어 반응을 결정한다.
블록(1406)은 요청된 미디어 반응의 수신에 응답하여 응답을 수행한다. 선택적으로 또는 추가적으로, 방법(400)은 블록(1406)에서 잠재적인 응답을 수행하기 전에, 블록(1408)에서 다른 사용자의 요청된 미디어 반응이 또한 수신되는 것을 결정하고 잠재적인 응답은 다른 사용자의 요청된 미디어 반응에 기초할 수 있다.
이러한 경우, 부분 모듈(224)은 응답을 수행하기 전에 미디어 프로그램의 다른 프리젠팅 동안 다른 사용자의 다른 요청된 미디어 반응이 수신되는 것을 결정할 수 있다. 따라서, 부분 모듈(24)은 사용자에 기초한 수지의 싸움의 프리젠팅 및 보여질 이 부분을 요청하는 다른 사용자의 미디어 반응 등의 다른 사용자의 미디어 반응에 기초하여 응답할 수 있다. 다른 사용자의 미디어 반응은 모든 사용자, 동일 인구통계 그룹의 사용자, 사용자의 친구(사용자와 함께 시청하는 방에 있든 없든), 사용자의 가족(예를 들어 명시적인 요청에 응답하는 방 내의 사람들)일 수 있다.
또한, 선택적으로 또는 추가적으로, 방법(1400)은 블록(1410)으로 진행한다. 블록(1410)은 사용자와 연관된 다른 사용자에 대하여 수행될 다른 응답에 대한 다른 요청된 미디어 반응을 요청한다. 이것은 사용자가 손을 올려 사용자의 친구에게 또한 쿠폰을 보내라는 요청 등의 후속 명시적 요청으로서 프리젠팅될 수 있다.
요청은 사용자 및 멀리서 시청하는 자신의 친구를 포함할 수 있다. 따라서, 사용자는 수지의 싸움을 시청할 것을 선택하지만, 미디어 반응 후, 부분 모듈(224)은 사용자의 친구 리디아가 시청하려고 이전 또는 동시에 요청한 것 또는 바트의 트립에 대하여 시청하려고 선택한 5명 또는 사용자의 8명의 친구들 등의 친구들의 대다수가 시청하려고 요청한 것을 시청하기를 원할지를 묻는 제2 요청을 프리젠팅한다.
블록(1412)은 요청된 제2 미디어 반응의 수신에 응답하여 다른 사용자에게 응답을 프리젠팅하도록 한다. 부분 모듈(224)은 원격으로 동작할 때 직접 그렇게 하거나 원격 엔티티와 통신하여 그 엔티티가 다른 사용자에게 응답을 프리젠팅하도록 할 수 있다. 본 예를 결론지으면서, 사용자가 자신의 가장 친한 친구 리디아가 시청하려고 선택한 것, 진저 어드벤처를 시청하려고 선택하여 그녀 또는 리디아가 내일 학교에서 그에 대하여 토론할 수 있는 것으로 가정한다. 사용자는 또한 자신의 다른 친구의 대부분이 바트 트립을 보려고 하는 것을 알고, 따라서, 사용자는 그것을 좋아하는지를 물을 것이다. 사용자의 친구가 바트 트립이 판타스틱하다고 말하면, 사용자는 프로그램을 다시 보고 대신 바트 트립을 시청할 것을 선택할 수 있다.
도 15는 복수의 사용자의 미디어 반응에 기초하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법(1500)을 나타낸다.
블록(1502)은 원격 엔티티에서 복수의 미디어 프리젠팅 장치로부터 복수의 미디어 프리젠팅 장치를 통해 복수의 장치에게 미디어 프로그램을 프리젠팅하는 동안 사용자의 미디어 반응을 수신하고, 미디어 장치는 미디어 프로그램의 부분 동안 복수의 미디어 프리젠팅 장치에서 수동적으로 감지된 센서 데이터에 기초한다. 미디어 프로그램은 복수의 사용자에게 라이브로, 동시에 또는 일관성 없이 프리젠팅될 수 있다. 도 13에 도시된 바와 같이, 현재 미디어 반응(1306)은 복수의 컴퓨팅 장치로부터 단독으로 또는 상술한 바와 같이 인구통계(1302), 반응 이력(1304)의 부분 및 미디어 프로그램(1308)에 대한 정보 등의 다른 정보와 함께 수신될 수 있다.
블록(1504)은 미디어 반응 및 부분에 기초하여 사용자에게 프리젠팅될 미디어 프로그램의 미래 부분을 결정하고, 미디어 프로그램의 미래 부분은 그 일부보다 미디어 프로그램 내에서 나중에 발생한다. 도 13에 도시된 바와 같이, 도 3 및 13의 미디어 프로그램(210) 등의 미디어 프로그램은 원격으로 저장되거나 도 2에 도시된 바와 같이 국부적으로 저장될 수 있다. 또한 여기에 기재된 바와 같이, 다른 정보가 결정에 또한 사용될 수 있다.
미디어 프로그램은 광고 등의 상기 많은 프로그램 중의 하나일 수 있다. 이 경우, 부분 모듈(224) 및/또는 광고 모듈(220)은 선택가능한 부분(예를 들어, 도 13의 부분(214))의 세트의 하나 이상의 이전에 준비된 다른 부분보다 성공적일 가능성이 더 있는 것에 기초하여 미래 부분을 결정할 수 있다. 따라서, 리얼티 컴패니(realty company)에 대한 세부사항을 열거한 제1 부분에 나쁜 반응을 나타내는 사용자의 그룹은 리얼티 컴패니를 계속 열거하는 것보다 더 간단하거나 더 스타일리쉬한 제3 부분을 프리젠팅하도록 결정하는데 사용될 수 있다. 수많은 다른 예가 위에 기재된다.
블록(1506)은 복수의 미디어 프리젠팅 장치에서 미디어 프로그램의 프리젠팅 동안 미디어 프로그램의 미래 부분이 사용자에게 프리젠팅되도록 한다. 블록(1506)은 실시간으로 상술한 다양한 방식으로 그렇게 할 수 있고 복수의 컴퓨팅 장치(202)를 통해 원격 장치(302)로부터 복수의 사용자로 스트리밍된다.
어떤 실시예에서, 복수의 사용자의 미디어 반응은 미래 프로그램을 생성하는 방법 또는 미리 준비된 미래 프로그램 중 어느 것이 프리젠팅될지를 결정하는데 사용될 수 있다. 미디어 제공자가 어드벤처 텔레비전 시리즈에 대한 10개의 타임슬롯을 갖는 것으로 간주한다. 처음 3개의 프로그램은 기술에 기초하여 변경될수 있지만 다음 7개의 타임슬롯 동안(예를 들어, 시즌 내의 몇 주) 11개의 에피소드가 준비된 몇 개의 내부 부분을 가질 수 있는 것으로 가정한다. 텔레비전 시즌은 종종 전체 시즌이 미리 준비되도록 구성되어, 시즌 내의 변화를 크게 수행할 수 없다. 미디어 제공자는, 시즌 에피소드가 준비되면, 추가의 전체 프로그램을 준비할 수 있다. 따라서, 미디어 제공자는 처음 3개의 에피소드 및 이들 에피소드의 복수의 부분에 대한 복수의 사용자로부터의 미디어 반응에 기초하여 특정 캐릭터가 청중에게 매우 관심있는 것으로 결정할 수 있다. 이렇게 함으로써, 다른 것 대신 그 캐릭터에 집중하는 애피소드가 보여질 수 있다.
또한 또는 추가적으로, 어떤 미리 준비된 에피소드는 프리젠팅될 수 있는 장면의 복수 세트를 가질 수 있고, 그래서 에피소드는 이들 미디어 반응에 기초하여 청중(일반적으로 또는 다양한 그룹)에게 맞추어질 수 있다. 이 방식으로, 변화가 실시간이 아니더라도, 미디어 반응은 미디어 프로그램의 미래 부분을 결정하는데 사용될 수 있다.
상기 설명은 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정에 관련된 방법 및 다른 방법 및 기술을 기술한다. 이들 방법의 형태는 하드웨어(예를 들어, 고정된 로직 회로), 펌웨어, 소프트웨어, 수동 프로세싱 또는 이것들의 임의의 조합으로 구현될 수 있다. 소프트웨어 구현은 컴퓨터 프로세서에 의해 실행될 때 특정된 태스크를 수행하는 프로그램 코드를 나타낸다. 예시적인 방법은 소프트웨어, 애플리케이션, 루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조, 절차, 모듈, 기능 등을 포함할 수 있는 컴퓨터 실행가능 명령어의 일반적인 콘텍스트로 기술될 수 있다. 프로그램 코드는 컴퓨터 프로세서에 국부적이고 그리고/또는 원격인 하나 이상의 컴퓨터 판독가능 메모리 장치에 저장될 수 있다. 방법은 또한 복수의 컴퓨팅 장치에 의해 분배 컴퓨팅 모드로 실행될 수 있다. 또한, 여기에 기재된 특징은 플랫폼 독립적이고, 다양한 프로세서를 갖는 다양한 컴퓨팅 플랫폼 상에서 구현될 수 있다.
이들 기술은 도 1-3, 10, 13 및 16에 도시된 엔티티 중의 하나 이상에서 구현될 수 있고(장치(1600)는 이하에 기재됨), 이들은 더 분할되거나 결합될 수 있다. 또한, 이들 도면은 기재된 기술을 채용할 수 있는 많은 가능한 시스템 또는 장치 중의 일부를 나타낼 수 있다. 이들 도면의 엔티티는 일반적으로 소프트웨어, 펌웨어, 전체 장치(whole device) 또는 네트워크 또는 그 조합을 나타낸다. 소프트웨어 구현의 경우, 예를 들어, 엔티티(예를 들어, 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및 부분 모듈(224))은 프로세서(예를 들어, 프로세서(들)(204 및/또는 306)) 상에서 실행될 때 특정된 태스크를 수행하는 프로그램 코드를 나타낸다. 프로그램 코드는 CRM(206) 및/또는 원격 CRM(308) 또는 도 16의 컴퓨터 판독가능 저장 매체(1614) 등의 하나 이상의 컴퓨터 판독가능 메모리 장치에 저장될 수 있다.
예시적인 장치
도 16은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술을 구현하기 위하여 도 1 내지 15를 참조하여 설명한 바와 같이 클라이언트, 서버 및/또는 컴퓨팅 장치의 임의의 타입으로 구현될 수 있는 예시적인 장치(1600)의 다양한 컴포넌트를 나타낸다. 실시예에서, 장치(1600)는 텔레비전 모바일 컴퓨팅 장치(예를 들어, 텔레비전 셋탑 박스, 디지털 비디오 레코더(DVR) 등), 소비자 장치, 컴퓨터 장치, 서버 장치, 포터블 컴퓨터 장치, 사용자 장치, 통신 장치, 비디오 프로세싱 및/또는 렌더링 장치, 어플라이언스 장치, 게임 장치, 전자 장치, SoC(system on chip) 및/또는 다른 타입의 장치 또는 그 일부의 형태로 유선 및/또는 무선 장치 중의 하나 또는 조합으로 구현될 수 있다. 장치(1600)는 또한 사용자(예를 들어, 사람) 및/또는 장치로서 동작하는 엔티티와 연관되어 장치는 사용자, 소프트웨어, 펌웨어 및/또는 장치의 조합을 포함하는 논리적 장치를 기술할 수 있다.
장치(1600)는 장치 데이터(1604)(예를 들어, 수신된 데이터, 수신되고 있는 데이터, 방송을 위해 스케줄링된 데이터, 데이터의 데이터 패킷 등)의 유선 및/또는 무선 통신을 가능하게 하는 통신 장치(1602)를 포함한다. 장치 데이터(1604) 또는 다른 장치 콘텐츠는 장치의 구성 설정, 장치에 저장된 미디어 콘텐츠(예를 들어, 미디어 프로그램(210)) 및/또는 장치의 사용자와 연관된 정보를 포함할 수 있다. 장치(1600)에 저장된 미디어 콘텐츠는 임의의 타입의 오디오, 비디오 및/또는 이미지 데이터를 포함할 수 있다. 장치(1600)는, 사람의 발언, 사용자 선택가능 입력, 메시지, 음악, 텔레비전 미디어 콘텐츠, 미디어 반응 레코딩된 비디오 콘텐츠 및 임의의 콘텐츠 및/또는 데이터 소스로부터 수신된 임의의 다른 타입의 오디오, 비디오 및/또는 이미지 데이터 등의 임의의 타입의 데이터, 미디어 콘텐츠 및/또는 입력이 수신될 수 있는 하나 이상의 데이터 입력(1606)을 포함할 수 있다.
장치(1600)는 또한 직렬 및/또는 병렬 인터페이스, 무선 인터페이스, 임의의 타입의 네트워크 인터페이스, 모뎀 및 임의의 다른 타입의 통신 인터페이스 중의 임의의 하나 이상으로서 구현될 수 있는 통신 인터페이스(1608)를 포함한다. 통신 인터페이스(1608)는 장치(1600) 및 다른 전자, 컴퓨팅 및 통신 장치가 장치(1600)와 데이터를 전달하는 통신 네트워크 사이에 접속 및/또는 통신 링크를 제공한다.
장치(1600)는 다양한 컴퓨터 실행가능 명령어를 프로세싱히여 장치(1600)의 동작을 제어하고 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 여기에 기재된 다른 방법을 가능하게 하는 하나 이상의 프로세서(1610)(예를 들어, 마이크로프로세서, 제어기 등 중의 어느 것)를 포함한다. 대안으로 또는 추가적으로, 장치(1600)는 하드웨어, 펌웨어 또는 1612에서 일반적으로 식별되는 프로세싱 및 제어 회로와 결합하여 구현되는 고정 로직 회로 중의 어느 하나 또는 조합으로 구현될 수 있다. 도시되지 않지만, 장치(1600)는 장치 내의 다양한 컴포넌트를 결합하는 시스템 버스 또는 데이터 전송 시스템을 포함할 수 있다. 시스템 버스는 메모리 버스 또는 메모리 제어기, 주변 버스, 유니버설 시리얼 버스 및/또는 다양한 버스 아키텍쳐 중의 어느 것을 이용하는 프로세서 또는 로컬 버스 등의 상이한 버스 구조 중의 어느 하나 또는 조합을 포함할 수 있다.
장치(1600)는 또한 (단순한 신호 전송과 대조적으로) 지속적 및/또는 비일시적 데이터 저장을 가능하게 하는 하나 이상의 메모리 장치 등의 컴퓨터 판독가능 저장 매체(1614)를 포함하고, 그 예는 랜덤 액세스 메모리(RAM), 비휘발성 메모리(예를 들어 리드 온리 메모리(ROM), 플래시 메모리, EPROM, EEPRO 등) 및 디스크 저장 장치를 포함한다. 디스크 저장 장치는 하드 디스크 드라이브, 기록가능 및/또는 재기입가능 컴팩트 디스크(CD), 임의의 타입의 DVD(digital versatile disc) 등의 임의의 타입의 자기 또는 광 저장 장치로서 구현될 수 있다. 장치(1600)는 또한 대용량 저장 장치(1616)를 포함할 수 있다.
컴퓨터 판독가능 저장 매체(1614)는 데이터 저장 매카니즘을 제공하여 장치 데이터(1604) 뿐만 아니라 다양한 장치 애플리케이션(1618) 및 장치(1600)의 동작 형태에 관련된 임의의 다른 타입의 정보 및/또는 데이터를 저장한다. 예를 들어, 운영 체제(1620)는 컴퓨터 판독가능 저장 매체(1614)와 함께 컴퓨터 애플리케이션으로서 유지되고 프로세서(1610) 상에서 실행될 수 있다. 장치 애플리케이션(1618)은 임의의 형태의 제어 애플리케이션, 소프트웨어 애플리케이션, 신호 프로세싱 및 제어 모듈, 특정 장치에 고유한 코드, 특정 장치에 대한 하드웨어 추상화층 등의 장치 매니저를 포함할 수 있다.
장치 애플리케이션(1618)은 또한 임의의 시스템 컴포넌트, 엔진 또는 모듈을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술을 구현한다. 이 예에서, 장치 애플리케이션(1618)은 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및/또는 부분 모듈(224)을 포함할 수 있다.
결론
현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치의 실시예를 특징 및/또는 방법에 특정한 언어로 설명하였지만, 첨부된 청구범위의 주제는 반드시 기재된 특정한 특징 또는 방법으로 제한되지 않는다. 오히려, 특정 특징 및 방법은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 예시적인 구현예로서 개시된다.
102: 미디어 프리젠팅 장치 104: 청중 감지 장치
106: 상태 모듈 108: 관심 모듈
110: 인터페이스 모듈 112: 사용자 인터페이스
118: 센서 데이터 120: 상태
122: 인구통계/아이덴티티 124: 참여도
128: 미디어 타입 130: 관심 레벨
132: 미디어 반응 202: 컴퓨팅 장치
204: 프로세서(들) 208: 운영 체제
210: 미디어 프로그램(들) 212: 정보
214: 부분(들) 216: 이력 모듈
218: 반응 이력 220: 광고 모듈
222: 광고 224: 부분 모듈
302: 원격 장치 306: 원격 프로세서(들)
308: 원격 CRM
106: 상태 모듈 108: 관심 모듈
110: 인터페이스 모듈 112: 사용자 인터페이스
118: 센서 데이터 120: 상태
122: 인구통계/아이덴티티 124: 참여도
128: 미디어 타입 130: 관심 레벨
132: 미디어 반응 202: 컴퓨팅 장치
204: 프로세서(들) 208: 운영 체제
210: 미디어 프로그램(들) 212: 정보
214: 부분(들) 216: 이력 모듈
218: 반응 이력 220: 광고 모듈
222: 광고 224: 부분 모듈
302: 원격 장치 306: 원격 프로세서(들)
308: 원격 CRM
Claims (20)
- 컴퓨팅 장치에 의해 구현되는 방법에 있어서,
상기 컴퓨팅 장치에 의해 그리고 미디어 프로그램의 제1 부분의 프리젠팅(presentation) 동안, 상기 미디어 프로그램의 상기 제1 부분에 대한 미디어 반응 - 상기 미디어 반응은 상기 미디어 프로그램의 상기 제1 부분 동안 수동적으로(passively) 감지된 센서 데이터에 기초하여 결정됨 - 을 수신하는 단계;
상기 컴퓨팅 장치에 의해, 그리고 상기 미디어 프로그램의 상기 제1 부분을 위한 콘텍스트(context)와 일치하는(congruent) 상기 미디어 프로그램의 상기 제1 부분에 대한 상기 미디어 반응에 기초해, 상기 미디어 프로그램의 상기 제1 부분 동안 사용자의 참여 상태(engaged state)를 결정하는 단계;
상기 컴퓨팅 장치에 의해, 상기 사용자의 반응 이력에 기초해, 그리고 상기 사용자가 상기 미디어 프로그램의 상기 제1 부분 동안 상기 참여 상태에 있다는 결정에 응답해서, 미래의 광고를 결정하는 단계; 및
상기 컴퓨팅 장치에 의해, 상기 미디어 프로그램의 뒷부분(later portion) 동안 그리고 상기 미디어 프로그램의 동일 프리젠팅 동안 상기 미래의 광고가 프리젠팅되게 하는 단계
를 포함하고,
상기 미래의 광고는,
상기 미디어 프로그램의 상기 뒷부분 동안 및 상기 미디어 프로그램의 상기 동일 프리젠팅 동안 발생하며,
상기 미디어 프로그램의 상기 제1 부분과의 유사성에 기초해 광고들의 세트로부터 선택되는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
상기 미디어 프로그램은 이전에 스케줄링된 광고를 포함하고, 상기 미래의 광고가 프리젠팅되게 하는 단계는 상기 이전에 스케줄링된 광고를 상기 미래의 광고로 대체하는 효과를 내는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
상기 미디어 반응을 수신하는 단계는, 상기 미디어 프로그램이 프리젠팅되는 미디어 프리젠팅 장치로부터 수신되는 것이고, 상기 미래의 광고가 프리젠팅되게 하는 단계는 통신 네트워크를 통해 상기 컴퓨팅 장치에 의해 수행되는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
상기 미래의 광고를 결정하는 단계는, 또 다른 사용자의 미디어 반응, 인구통계(demographic) 정보, 또는 상기 미디어 프로그램에 대한 정보에 또한 기초하는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
또 다른 미디어 반응을 수신하는 단계를 더 포함하고, 상기 또 다른 미디어 반응은, 상기 미디어 프로그램의 상기 제1 부분 동안 감지되고 처음 언급된 미디어 반응과 연관된 상기 사용자와는 상이한 사용자와 연관된 다른 센서 데이터에 기초하여 결정되며, 상기 상이한 사용자는 상기 사용자에 대해 물리적으로 국부적(local)이고, 상기 미래의 광고를 결정하는 단계는 상기 또 다른 미디어 반응에 또한 기초하는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
상기 미디어 반응은, 상기 미디어 프로그램이 프리젠팅되는 미디어 프리젠팅 장치에 국부적인 엔티티(entity)로부터 수신되고, 상기 광고들의 세트는 상기 미디어 프리젠팅 장치에 이전에 국부적으로 저장된 것이며, 상기 미래의 광고를 프리젠팅할, 상기 미디어 프로그램 내의 시간 범위와 연관되는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
상기 미디어 프로그램의 상기 제1 부분은 광고이고, 상기 미래의 광고를 결정하는 단계는, 상기 미래의 광고가, 상기 광고들의 세트 중의 하나 이상의 다른 이전에 준비된 광고보다 성공적일 가능성이 더 있다는 결정에 기초하여 상기 미래의 광고를 결정하는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
상기 미디어 반응을 위한 콘텍스트는, 상기 미디어 프로그램의 상기 제1 부분이 프리젠팅되는 하루 중 시간(a time of day), 또는 상기 제1 부분 동안 프리젠팅되고 있는 미디어의 타입을 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제1항에 있어서,
상기 방법은,
상기 미디어 프로그램의 상기 제1 부분 동안 상기 사용자의 참여 상태에 기초해, 상기 미디어 프로그램의 미래의 부분 - 상기 미디어 프로그램의 상기 미래의 부분은 상기 미디어 프로그램의 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 발생함 - 을 결정하는 단계; 및
상기 미디어 프로그램의 상기 미래의 부분이 상기 미디어 프로그램의 상기 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 프리젠팅되게 하는 단계
를 더 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 장치에 있어서,
하나 이상의 컴퓨터 프로세서; 및
상기 하나 이상의 컴퓨터 프로세서에 의한 실행에 응답해서 동작들을 수행하는 명령어들이 저장되어 있는 하나 이상의 컴퓨터 판독가능 저장 매체
를 포함하고,
상기 동작들은,
미디어 프로그램의 제1 부분의 프리젠팅 동안, 상기 미디어 프로그램의 상기 제1 부분에 대한 미디어 반응 - 상기 미디어 반응은 상기 미디어 프로그램의 상기 제1 부분 동안 수동적으로 감지된 센서 데이터에 기초하여 결정됨 - 을 수신하는 동작;
상기 미디어 프로그램의 상기 제1 부분을 위한 콘텍스트와 일치하는 상기 미디어 프로그램의 상기 제1 부분에 대한 상기 미디어 반응에 기초해, 상기 미디어 프로그램의 상기 제1 부분 동안 사용자의 참여 상태를 결정하는 동작;
상기 사용자의 반응 이력에 기초해, 그리고 상기 사용자가 상기 미디어 프로그램의 상기 제1 부분 동안 상기 참여 상태에 있는 것에 응답해서, 미래의 광고를 결정하는 동작; 및
상기 미디어 프로그램의 뒷부분 동안 그리고 상기 미디어 프로그램의 동일 프리젠팅 동안 상기 미래의 광고가 프리젠팅되게 하는 동작
을 포함하고,
상기 미래의 광고는,
상기 미디어 프로그램의 상기 뒷부분 동안 및 상기 미디어 프로그램의 상기 동일 프리젠팅 동안 발생하며,
상기 미디어 프로그램의 상기 제1 부분과의 유사성에 기초해 광고들의 세트로부터 선택되는 것인, 장치. - 제10항에 있어서,
상기 미디어 프로그램은 이전에 스케줄링된 광고를 포함하고, 상기 미래의 광고가 프리젠팅되게 하는 동작은 상기 이전에 스케줄링된 광고를 상기 미래의 광고로 대체하는 효과를 내는 것인, 장치. - 제10항에 있어서,
상기 미디어 반응을 수신하는 동작은, 상기 미디어 프로그램이 프리젠팅되는 미디어 프리젠팅 장치로부터 수신되는 것이고, 상기 미래의 광고가 프리젠팅되게 하는 동작은 상기 장치에 의해 수행되며, 상기 장치는 상기 미디어 프리젠팅 장치로부터 떨어져 있는 것인, 장치. - 제10항에 있어서,
상기 미래의 광고를 결정하는 동작은, 또 다른 사용자의 미디어 반응, 인구통계 정보, 또는 상기 미디어 프로그램에 대한 정보에 또한 기초하는 것인, 장치. - 제10항에 있어서,
상기 동작들은 또 다른 미디어 반응을 수신하는 동작을 더 포함하고, 상기 또 다른 미디어 반응은, 상기 미디어 프로그램의 상기 제1 부분 동안 감지되고 처음 언급된 미디어 반응과 연관된 상기 사용자와는 상이한 사용자와 연관된 다른 센서 데이터에 기초하여 결정되고, 상기 상이한 사용자는 상기 사용자에 대해 물리적으로 국부적이고, 상기 미래의 광고를 결정하는 동작은 상기 또 다른 미디어 반응에 또한 기초하는 것인, 장치. - 제10항에 있어서,
상기 동작들은, 상기 장치에 의해 상기 미디어 프로그램을 프리젠팅하는 동작과 상기 사용자로부터 상기 장치에 의해 상기 미디어 반응을 수신하는 동작을 더 포함하고, 상기 미래의 광고를 결정하는 동작은, 상기 하나 이상의 컴퓨터 판독가능 저장 매체 상에 이전에 저장된 광고들의 세트 중에서 상기 미래의 광고를 결정하며, 상기 광고들의 세트는 상기 미래의 광고를 프리젠팅할 상기 미디어 프로그램 내의 시간 범위와 연관되는 것인, 장치. - 제10항에 있어서,
상기 미디어 프로그램의 상기 제1 부분은 광고이고, 상기 미래의 광고를 결정하는 동작은, 상기 미래의 광고가, 상기 광고들의 세트 중의 하나 이상의 다른 이전에 준비된 광고보다 성공적일 가능성이 더 있다는 결정에 기초하여 상기 미래의 광고를 결정하는 것인, 장치. - 제10항에 있어서,
상기 동작들은,
상기 미디어 프로그램의 상기 제1 부분 동안 상기 사용자의 참여 상태에 기초해, 상기 미디어 프로그램의 미래의 부분 - 상기 미디어 프로그램의 상기 미래의 부분은 상기 미디어 프로그램의 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 발생함 - 을 결정하는 동작; 및
상기 미디어 프로그램의 상기 미래의 부분이 상기 미디어 프로그램의 상기 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 프리젠팅되게 하는 동작
을 더 포함하는 것인, 장치. - 컴퓨팅 장치에 의해 구현되는 방법에 있어서,
상기 컴퓨팅 장치에 의해 그리고 미디어 프로그램의 제1 부분의 프리젠팅 동안, 상기 미디어 프로그램의 상기 제1 부분에 대한 미디어 반응 - 상기 미디어 반응은 상기 미디어 프로그램의 상기 제1 부분 동안 수동적으로 감지된 센서 데이터에 기초하여 결정됨 - 을 수신하는 단계;
상기 컴퓨팅 장치에 의해, 그리고 상기 미디어 프로그램의 상기 제1 부분을 위한 콘텍스트와 일치하는 상기 미디어 프로그램의 상기 제1 부분에 대한 상기 미디어 반응에 기초해, 상기 미디어 프로그램의 상기 제1 부분 동안 사용자의 비참여 상태(disengaged state)를 결정하는 단계;
상기 컴퓨팅 장치에 의해, 상기 사용자의 반응 이력에 기초해, 그리고 상기 사용자가 상기 미디어 프로그램의 상기 제1 부분 동안 상기 비참여 상태에 있다는 결정에 응답해서, 미래의 광고를 결정하는 단계; 및
상기 컴퓨팅 장치에 의해, 상기 미디어 프로그램의 뒷부분 동안 그리고 상기 미디어 프로그램의 동일 프리젠팅 동안 상기 미래의 광고가 프리젠팅되게 하는 단계
를 포함하고,
상기 미래의 광고는,
상기 미디어 프로그램의 상기 뒷부분 동안 및 상기 미디어 프로그램의 상기 동일 프리젠팅 동안 발생하며,
상기 미디어 프로그램의 상기 제1 부분에 대한 비유사성(dissimilarity)에 기초해 광고들의 세트로부터 선택되는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제18항에 있어서,
상기 미디어 반응을 위한 콘텍스트는, 상기 미디어 프로그램의 상기 제1 부분이 프리젠팅되는 하루 중 시간, 또는 상기 제1 부분 동안 프리젠팅되고 있는 미디어의 타입을 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법. - 제18항에 있어서,
상기 방법은,
상기 미디어 프로그램의 상기 제1 부분 동안 상기 사용자의 상기 비참여 상태에 기초해, 상기 미디어 프로그램의 미래의 부분 - 상기 미디어 프로그램의 상기 미래의 부분은 상기 미디어 프로그램의 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 발생함 - 을 결정하는 단계; 및
상기 미디어 프로그램의 상기 미래의 부분이 상기 미디어 프로그램의 상기 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 프리젠팅되게 하는 단계
를 더 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CA2775700A CA2775700C (en) | 2012-05-04 | 2012-05-04 | Determining a future portion of a currently presented media program |
CA2775700 | 2012-05-04 | ||
US13/482,867 | 2012-05-29 | ||
US13/482,867 US8959541B2 (en) | 2012-05-04 | 2012-05-29 | Determining a future portion of a currently presented media program |
PCT/US2013/039591 WO2013166474A2 (en) | 2012-05-04 | 2013-05-04 | Determining a future portion of a currently presented media program |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150013237A KR20150013237A (ko) | 2015-02-04 |
KR102068376B1 true KR102068376B1 (ko) | 2020-01-20 |
Family
ID=46491919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147034014A KR102068376B1 (ko) | 2012-05-04 | 2013-05-04 | 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정 |
Country Status (11)
Country | Link |
---|---|
US (2) | US8959541B2 (ko) |
EP (1) | EP2845163A4 (ko) |
JP (1) | JP6291481B2 (ko) |
KR (1) | KR102068376B1 (ko) |
AU (1) | AU2013256054B2 (ko) |
BR (1) | BR112014026648A8 (ko) |
CA (1) | CA2775700C (ko) |
MX (1) | MX345058B (ko) |
RU (1) | RU2646367C2 (ko) |
TW (1) | TW201407516A (ko) |
WO (1) | WO2013166474A2 (ko) |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9190110B2 (en) | 2009-05-12 | 2015-11-17 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
US9055335B2 (en) | 2009-05-29 | 2015-06-09 | Cognitive Networks, Inc. | Systems and methods for addressing a media database using distance associative hashing |
US10116972B2 (en) * | 2009-05-29 | 2018-10-30 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US10949458B2 (en) | 2009-05-29 | 2021-03-16 | Inscape Data, Inc. | System and method for improving work load management in ACR television monitoring system |
US9449090B2 (en) | 2009-05-29 | 2016-09-20 | Vizio Inscape Technologies, Llc | Systems and methods for addressing a media database using distance associative hashing |
US8769584B2 (en) | 2009-05-29 | 2014-07-01 | TVI Interactive Systems, Inc. | Methods for displaying contextually targeted content on a connected television |
US11232458B2 (en) | 2010-02-17 | 2022-01-25 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US20130243270A1 (en) * | 2012-03-16 | 2013-09-19 | Gila Kamhi | System and method for dynamic adaption of media based on implicit user input and behavior |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
WO2014006757A1 (ja) * | 2012-07-06 | 2014-01-09 | Necディスプレイソリューションズ株式会社 | 表示装置、表示装置の制御方法 |
US9998789B1 (en) * | 2012-07-27 | 2018-06-12 | Dp Technologies, Inc. | Audience interaction system |
US10203839B2 (en) * | 2012-12-27 | 2019-02-12 | Avaya Inc. | Three-dimensional generalized space |
US8769557B1 (en) * | 2012-12-27 | 2014-07-01 | The Nielsen Company (Us), Llc | Methods and apparatus to determine engagement levels of audience members |
US9344773B2 (en) * | 2013-02-05 | 2016-05-17 | Microsoft Technology Licensing, Llc | Providing recommendations based upon environmental sensing |
WO2014138352A1 (en) * | 2013-03-06 | 2014-09-12 | Zito Arthur J Jr | Multi-media presentation system |
US20140325540A1 (en) * | 2013-04-29 | 2014-10-30 | Microsoft Corporation | Media synchronized advertising overlay |
US10297287B2 (en) | 2013-10-21 | 2019-05-21 | Thuuz, Inc. | Dynamic media recording |
US20150113551A1 (en) * | 2013-10-23 | 2015-04-23 | Samsung Electronics Co., Ltd. | Computing system with content delivery mechanism and method of operation thereof |
US9955192B2 (en) | 2013-12-23 | 2018-04-24 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US9361005B2 (en) * | 2013-12-27 | 2016-06-07 | Rovi Guides, Inc. | Methods and systems for selecting modes based on the level of engagement of a user |
US9653115B2 (en) | 2014-04-10 | 2017-05-16 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
US9578358B1 (en) | 2014-04-22 | 2017-02-21 | Google Inc. | Systems and methods that match search queries to television subtitles |
CN104035982B (zh) * | 2014-05-28 | 2017-10-20 | 小米科技有限责任公司 | 多媒体资源推荐方法及装置 |
US20160005013A1 (en) * | 2014-07-03 | 2016-01-07 | Syncbak, Inc. | Real-time regional media syndication and delivery system |
AU2015308623B2 (en) * | 2014-08-29 | 2018-04-19 | Stats Llc | Systems and processes for delivering digital video content based upon excitement data |
US9792957B2 (en) | 2014-10-08 | 2017-10-17 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
US11863848B1 (en) | 2014-10-09 | 2024-01-02 | Stats Llc | User interface for interaction with customized highlight shows |
US10536758B2 (en) | 2014-10-09 | 2020-01-14 | Thuuz, Inc. | Customized generation of highlight show with narrative component |
US10433030B2 (en) | 2014-10-09 | 2019-10-01 | Thuuz, Inc. | Generating a customized highlight sequence depicting multiple events |
US10419830B2 (en) | 2014-10-09 | 2019-09-17 | Thuuz, Inc. | Generating a customized highlight sequence depicting an event |
US11412276B2 (en) | 2014-10-10 | 2022-08-09 | JBF Interlude 2009 LTD | Systems and methods for parallel track transitions |
US9729915B2 (en) * | 2014-10-31 | 2017-08-08 | Paypal, Inc. | Detecting user devices to determine state of watched show |
JP2016110631A (ja) * | 2014-12-02 | 2016-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 状態推定装置、状態推定方法およびプログラム |
EP3228117A4 (en) * | 2014-12-04 | 2018-06-13 | Cynny Inc. | Systems and methods to present content |
BR112017016123A2 (pt) | 2015-01-30 | 2018-04-17 | Inscape Data Inc | servidor de correspondência para identificação de conteúdo de vídeo que é exibido por um sistema de televisão, método executado por computador, e produto de programa informático concretamente incorporado a um meio de armazenamento de leitura por máquina permanente de um dispositivo de informática |
US10904617B1 (en) * | 2015-02-19 | 2021-01-26 | Amazon Technologies, Inc. | Synchronizing a client device with media content for scene-specific notifications |
AU2016250276B2 (en) | 2015-04-17 | 2020-10-08 | Inscape Data, Inc. | Systems and methods for reducing data density in large datasets |
US9883241B2 (en) * | 2015-05-17 | 2018-01-30 | Surewaves Mediatech Private Limited | System and method for automatic content recognition and audience measurement for television channels and advertisements |
WO2017011798A1 (en) | 2015-07-16 | 2017-01-19 | Vizio Inscape Technologies, Llc | Detection of common media segments |
WO2017011768A1 (en) | 2015-07-16 | 2017-01-19 | Vizio Inscape Technologies, Llc | Systems and methods for partitioning search indexes for improved efficiency in identifying media segments |
US10080062B2 (en) | 2015-07-16 | 2018-09-18 | Inscape Data, Inc. | Optimizing media fingerprint retention to improve system resource utilization |
US10460765B2 (en) | 2015-08-26 | 2019-10-29 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
CN105491427B (zh) * | 2015-11-24 | 2019-01-29 | 深圳创维-Rgb电子有限公司 | 一种智能电视的控制系统及其实现方法 |
US10142702B2 (en) * | 2015-11-30 | 2018-11-27 | International Business Machines Corporation | System and method for dynamic advertisements driven by real-time user reaction based AB testing and consequent video branching |
US11164548B2 (en) | 2015-12-22 | 2021-11-02 | JBF Interlude 2009 LTD | Intelligent buffering of large-scale video |
US11128853B2 (en) | 2015-12-22 | 2021-09-21 | JBF Interlude 2009 LTD | Seamless transitions in large-scale video |
US11540009B2 (en) | 2016-01-06 | 2022-12-27 | Tvision Insights, Inc. | Systems and methods for assessing viewer engagement |
EP4080794A1 (en) | 2016-01-06 | 2022-10-26 | TVision Insights, Inc. | Systems and methods for assessing viewer engagement |
US11012719B2 (en) * | 2016-03-08 | 2021-05-18 | DISH Technologies L.L.C. | Apparatus, systems and methods for control of sporting event presentation based on viewer engagement |
US10187694B2 (en) | 2016-04-07 | 2019-01-22 | At&T Intellectual Property I, L.P. | Method and apparatus for enhancing audience engagement via a communication network |
US11856271B2 (en) | 2016-04-12 | 2023-12-26 | JBF Interlude 2009 LTD | Symbiotic interactive video |
US10979472B2 (en) * | 2016-09-29 | 2021-04-13 | International Business Machines Corporation | Dynamically altering presentations to maintain or increase viewer attention |
US11050809B2 (en) | 2016-12-30 | 2021-06-29 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
TWI618040B (zh) * | 2017-01-13 | 2018-03-11 | Intelligent advertising vehicle with image recognition and its operation process | |
JP6269874B1 (ja) | 2017-03-03 | 2018-01-31 | ソニー株式会社 | 交換レンズ、撮像装置、およびカメラシステム |
US10560508B2 (en) * | 2017-03-15 | 2020-02-11 | International Business Machines Corporation | Personalized video playback |
EP3613224A4 (en) * | 2017-04-20 | 2020-12-30 | TVision Insights, Inc. | METHOD AND DEVICE FOR MULTI-TELEVISION MEASUREMENTS |
US10904615B2 (en) * | 2017-09-07 | 2021-01-26 | International Business Machines Corporation | Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed |
JP7096470B2 (ja) * | 2017-10-19 | 2022-07-06 | 株式会社電通 | 顧客情報管理サーバ及びプログラム |
US10636449B2 (en) * | 2017-11-06 | 2020-04-28 | International Business Machines Corporation | Dynamic generation of videos based on emotion and sentiment recognition |
JP6463826B1 (ja) * | 2017-11-27 | 2019-02-06 | 株式会社ドワンゴ | 動画配信サーバ、動画配信方法及び動画配信プログラム |
US10257578B1 (en) | 2018-01-05 | 2019-04-09 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
US20190253751A1 (en) * | 2018-02-13 | 2019-08-15 | Perfect Corp. | Systems and Methods for Providing Product Information During a Live Broadcast |
US10542314B2 (en) | 2018-03-20 | 2020-01-21 | At&T Mobility Ii Llc | Media content delivery with customization |
US11373404B2 (en) | 2018-05-18 | 2022-06-28 | Stats Llc | Machine learning for recognizing and interpreting embedded information card content |
US11507619B2 (en) | 2018-05-21 | 2022-11-22 | Hisense Visual Technology Co., Ltd. | Display apparatus with intelligent user interface |
US10965985B2 (en) | 2018-05-21 | 2021-03-30 | Hisense Visual Technology Co., Ltd. | Display apparatus with intelligent user interface |
US11601721B2 (en) * | 2018-06-04 | 2023-03-07 | JBF Interlude 2009 LTD | Interactive video dynamic adaptation and user profiling |
US11264048B1 (en) | 2018-06-05 | 2022-03-01 | Stats Llc | Audio processing for detecting occurrences of loud sound characterized by brief audio bursts |
US11025985B2 (en) | 2018-06-05 | 2021-06-01 | Stats Llc | Audio processing for detecting occurrences of crowd noise in sporting event television programming |
CN108737872A (zh) * | 2018-06-08 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
US10942979B2 (en) * | 2018-08-29 | 2021-03-09 | International Business Machines Corporation | Collaborative creation of content snippets |
US10812855B2 (en) * | 2018-09-05 | 2020-10-20 | International Business Machines Corporation | Dynamic modification of media content in an internet of things (IoT) computing environment |
KR20200054439A (ko) | 2018-11-10 | 2020-05-20 | 송난나 | 나무를 알아가는 보드게임 |
US11574458B2 (en) * | 2019-01-02 | 2023-02-07 | International Business Machines Corporation | Automated survey results generation from an image |
US11064255B2 (en) * | 2019-01-30 | 2021-07-13 | Oohms Ny Llc | System and method of tablet-based distribution of digital media content |
US20200288204A1 (en) * | 2019-03-05 | 2020-09-10 | Adobe Inc. | Generating and providing personalized digital content in real time based on live user context |
US11190840B2 (en) * | 2019-07-23 | 2021-11-30 | Rovi Guides, Inc. | Systems and methods for applying behavioral-based parental controls for media assets |
US11019395B2 (en) * | 2019-08-27 | 2021-05-25 | Facebook, Inc. | Automatic digital representations of events |
EP3918451B1 (en) | 2019-09-27 | 2023-11-29 | Apple Inc. | Content generation based on audience engagement |
US11490047B2 (en) | 2019-10-02 | 2022-11-01 | JBF Interlude 2009 LTD | Systems and methods for dynamically adjusting video aspect ratios |
US11645578B2 (en) * | 2019-11-18 | 2023-05-09 | International Business Machines Corporation | Interactive content mobility and open world movie production |
US11245961B2 (en) | 2020-02-18 | 2022-02-08 | JBF Interlude 2009 LTD | System and methods for detecting anomalous activities for interactive videos |
JP7374056B2 (ja) * | 2020-08-27 | 2023-11-06 | グローブライド株式会社 | 魚釣用リール |
US11503090B2 (en) | 2020-11-30 | 2022-11-15 | At&T Intellectual Property I, L.P. | Remote audience feedback mechanism |
CN114827702B (zh) * | 2021-01-22 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 视频推送方法、视频播放方法、装置、设备以及介质 |
US11425460B1 (en) | 2021-01-29 | 2022-08-23 | Rovi Guides, Inc. | Selective streaming based on dynamic parental rating of content |
US20220377413A1 (en) * | 2021-05-21 | 2022-11-24 | Rovi Guides, Inc. | Methods and systems for personalized content based on captured gestures |
US11882337B2 (en) | 2021-05-28 | 2024-01-23 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
US11934477B2 (en) | 2021-09-24 | 2024-03-19 | JBF Interlude 2009 LTD | Video player integration within websites |
JP7349231B1 (ja) | 2022-09-14 | 2023-09-22 | 株式会社ビデオリサーチ | ストリーム視聴解析システム、ストリーム視聴解析方法およびプログラム |
JP7280454B1 (ja) | 2023-02-27 | 2023-05-23 | 株式会社トランザクション・メディア・ネットワークス | 情報訴求程度情報推定システム、情報訴求程度情報推定装置の制御方法及び情報訴求程度情報推定装置の制御プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007073059A (ja) | 2004-07-07 | 2007-03-22 | Defacto:Kk | 広告システム、及び、広告結果記録方法 |
US20070271580A1 (en) | 2006-05-16 | 2007-11-22 | Bellsouth Intellectual Property Corporation | Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics |
Family Cites Families (612)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4288078A (en) | 1979-11-20 | 1981-09-08 | Lugo Julio I | Game apparatus |
US7831204B1 (en) | 1981-11-03 | 2010-11-09 | Personalized Media Communications, Llc | Signal processing apparatus and methods |
US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
US4931865A (en) | 1988-08-24 | 1990-06-05 | Sebastiano Scarampi | Apparatus and methods for monitoring television viewers |
JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
JPH03103822U (ko) | 1990-02-13 | 1991-10-29 | ||
US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
US5175641A (en) | 1991-04-05 | 1992-12-29 | International Business Machines Corporation | Dual-mode laser diode transmitter |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
JPH06508788A (ja) | 1991-12-03 | 1994-10-06 | フレンチ スポーテク コーポレイション | 対話型ビデオ式検査および訓練システム |
US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
US5990927A (en) * | 1992-12-09 | 1999-11-23 | Discovery Communications, Inc. | Advanced set top terminal for cable television delivery systems |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
US5694162A (en) * | 1993-10-15 | 1997-12-02 | Automated Business Companies, Inc. | Method for automatically changing broadcast programs based on audience response |
US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
US5528263A (en) | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
JPH0844490A (ja) | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
JPH0863326A (ja) | 1994-08-22 | 1996-03-08 | Hitachi Ltd | 画像処理装置及び方法 |
TW345540B (en) | 1994-08-31 | 1998-11-21 | Nike Inc | Laminated resilient flexible barrier membranes (1) |
US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
WO1996009579A1 (en) | 1994-09-22 | 1996-03-28 | Izak Van Cruyningen | Popup menus with directional gestures |
US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
JP3270264B2 (ja) | 1994-10-19 | 2002-04-02 | 富士写真フイルム株式会社 | 放射線像変換パネルおよびその製造法 |
WO1996013026A1 (en) | 1994-10-25 | 1996-05-02 | Taligent, Inc. | Object-oriented system for servicing windows |
US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
DE19516664C1 (de) | 1995-05-05 | 1996-08-29 | Siemens Ag | Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
JP3481631B2 (ja) | 1995-06-07 | 2003-12-22 | ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 |
US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
US6057909A (en) | 1995-06-22 | 2000-05-02 | 3Dv Systems Ltd. | Optical ranging camera |
IL114278A (en) | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
US7895076B2 (en) | 1995-06-30 | 2011-02-22 | Sony Computer Entertainment Inc. | Advertisement insertion, profiling, impression, and feedback |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
JPH0981309A (ja) | 1995-09-13 | 1997-03-28 | Toshiba Corp | 入力装置 |
US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
WO1999044698A2 (en) | 1998-03-03 | 1999-09-10 | Arena, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
US6115482A (en) | 1996-02-13 | 2000-09-05 | Ascent Technology, Inc. | Voice-output reading system with gesture-based navigation |
WO1997041925A1 (en) | 1996-05-08 | 1997-11-13 | Real Vision Corporation | Real time simulation using position sensing |
US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
EP0959444A4 (en) | 1996-08-14 | 2005-12-07 | Nurakhmed Nurislamovic Latypov | METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS |
JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
US20020120925A1 (en) | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
EP0849697B1 (en) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US5904484A (en) | 1996-12-23 | 1999-05-18 | Burns; Dave | Interactive motion training device and method |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US5999766A (en) | 1997-03-05 | 1999-12-07 | Matsushita Electric Industrial Co., Ltd. | Image processing apparatus with user authorization mechanism |
US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
US6075895A (en) | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6750848B1 (en) | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
EP1017973A1 (en) | 1997-09-24 | 2000-07-12 | 3DV Systems Ltd. | Acoustical imaging system |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
AU9808298A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | A system and method for generating an animatable character |
AU1099899A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
DE69830295T2 (de) | 1997-11-27 | 2005-10-13 | Matsushita Electric Industrial Co., Ltd., Kadoma | Steuerungsverfahren |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6469714B2 (en) | 1998-01-26 | 2002-10-22 | International Business Machines Corporation | Infocenter user interface for applets and components |
US7196720B2 (en) | 1998-03-06 | 2007-03-27 | Intel Corporation | Method and apparatus for powering on an electronic device with a video camera that detects motion |
US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
US6421453B1 (en) | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
JP3484085B2 (ja) * | 1998-05-22 | 2004-01-06 | 株式会社リコー | 放送型配信方法,その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体,およびコンテンツサーバ |
US6181472B1 (en) | 1998-06-10 | 2001-01-30 | Robotic Vision Systems, Inc. | Method and system for imaging an object with a plurality of optical beams |
US7146627B1 (en) * | 1998-06-12 | 2006-12-05 | Metabyte Networks, Inc. | Method and apparatus for delivery of targeted video programming |
US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
US6141010A (en) | 1998-07-17 | 2000-10-31 | B. E. Technology, Llc | Computer interface method and apparatus with targeted advertising |
US6552722B1 (en) | 1998-07-17 | 2003-04-22 | Sensable Technologies, Inc. | Systems and methods for sculpting virtual objects in a haptic virtual reality environment |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
EP0991011B1 (en) | 1998-09-28 | 2007-07-25 | Matsushita Electric Industrial Co., Ltd. | Method and device for segmenting hand gestures |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US7684570B2 (en) | 1998-11-17 | 2010-03-23 | Aamp Of America | Vehicle remote control interface for controlling multiple electronic devices |
US6661918B1 (en) | 1998-12-04 | 2003-12-09 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6222465B1 (en) | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US7134130B1 (en) | 1998-12-15 | 2006-11-07 | Gateway Inc. | Apparatus and method for user-based control of television content |
WO2000036372A1 (en) | 1998-12-16 | 2000-06-22 | 3Dv Systems, Ltd. | Self gating photosurface |
US6466232B1 (en) | 1998-12-18 | 2002-10-15 | Tangis Corporation | Method and system for controlling presentation of information to a user based on the user's condition |
US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6226388B1 (en) | 1999-01-05 | 2001-05-01 | Sharp Labs Of America, Inc. | Method and apparatus for object tracking for automatic controls in video devices |
US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US6377296B1 (en) | 1999-01-28 | 2002-04-23 | International Business Machines Corporation | Virtual map system and method for tracking objects |
US7120880B1 (en) | 1999-02-25 | 2006-10-10 | International Business Machines Corporation | Method and system for real-time determination of a subject's interest level to media content |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
EP1045374B1 (en) | 1999-04-13 | 2010-08-11 | Sony Deutschland GmbH | Merging of speech interfaces for concurrent use of devices and applications |
US6591236B2 (en) | 1999-04-13 | 2003-07-08 | International Business Machines Corporation | Method and system for determining available and alternative speech commands |
US20030141360A1 (en) | 1999-04-22 | 2003-07-31 | De Leo Stephen L. | System and method for providing information and services to and from an automated teller machine |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US7015950B1 (en) | 1999-05-11 | 2006-03-21 | Pryor Timothy R | Picture taking method and apparatus |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US20070143715A1 (en) | 1999-05-25 | 2007-06-21 | Silverbrook Research Pty Ltd | Method of providing information via printed substrate and gesture recognition |
US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
US6291816B1 (en) | 1999-06-08 | 2001-09-18 | Robotic Vision Systems, Inc. | System and method for measuring object features with coordinated two and three dimensional imaging |
US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US6514081B1 (en) | 1999-08-06 | 2003-02-04 | Jeffrey L. Mengoli | Method and apparatus for automating motion analysis |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
ATE285079T1 (de) | 1999-09-08 | 2005-01-15 | 3Dv Systems Ltd | 3d- bilderzeugungssystem |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US7779439B2 (en) | 2001-04-23 | 2010-08-17 | Starz Entertainment, Llc | Program guide environment |
EP1222655A1 (en) | 1999-10-19 | 2002-07-17 | Sony Electronics Inc. | Natural language interface control system |
US6622119B1 (en) | 1999-10-30 | 2003-09-16 | International Business Machines Corporation | Adaptive command predictor and method for a natural language dialog system |
US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US20030132950A1 (en) | 2001-11-27 | 2003-07-17 | Fahri Surucu | Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains |
US6690618B2 (en) | 2001-04-03 | 2004-02-10 | Canesta, Inc. | Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device |
US7050177B2 (en) | 2002-05-22 | 2006-05-23 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
DE19960180B4 (de) | 1999-12-14 | 2006-03-09 | Rheinmetall W & M Gmbh | Verfahren zur Herstellung eines Sprenggeschosses |
WO2001045004A1 (en) | 1999-12-17 | 2001-06-21 | Promo Vu | Interactive promotional information communicating system |
US7028001B1 (en) | 1999-12-27 | 2006-04-11 | Motorola, Inc. | System and method for measuring web page advertisement impressions |
TW482985B (en) | 2000-01-03 | 2002-04-11 | Amova Company | Automatic media and advertising system |
US7146329B2 (en) | 2000-01-13 | 2006-12-05 | Erinmedia, Llc | Privacy compliant multiple dataset correlation and content delivery system and methods |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
AU2001249994A1 (en) | 2000-02-25 | 2001-09-03 | Interval Research Corporation | Method and system for selecting advertisements |
US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
GB0005727D0 (en) | 2000-03-10 | 2000-05-03 | Koninkl Philips Electronics Nv | Television |
WO2001069799A2 (en) | 2000-03-16 | 2001-09-20 | Creator Ltd. | Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems |
WO2001075568A1 (en) | 2000-03-30 | 2001-10-11 | Ideogramic Aps | Method for gesture based modeling |
US6778171B1 (en) | 2000-04-05 | 2004-08-17 | Eagle New Media Investments, Llc | Real world/virtual world correlation system using 3D graphics pipeline |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6856827B2 (en) | 2000-04-28 | 2005-02-15 | Ge Medical Systems Global Technology Company, Llc | Fluoroscopic tracking and visualization system |
AU6388001A (en) | 2000-05-04 | 2001-11-12 | Marco Iori | User recognition system for automatically controlling accesses, apparatuses and the like equipment |
US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
AU6262501A (en) | 2000-05-29 | 2001-12-11 | Vkb Inc. | Virtual data entry device and method for input of alphanumeric and other data |
US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US7042442B1 (en) | 2000-06-27 | 2006-05-09 | International Business Machines Corporation | Virtual invisible keyboard |
US6873710B1 (en) | 2000-06-27 | 2005-03-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for tuning content of information presented to an audience |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US20090234718A1 (en) | 2000-09-05 | 2009-09-17 | Novell, Inc. | Predictive service systems using emotion detection |
JP4432246B2 (ja) | 2000-09-29 | 2010-03-17 | ソニー株式会社 | 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体 |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
JP3725460B2 (ja) | 2000-10-06 | 2005-12-14 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
US20030036944A1 (en) | 2000-10-11 | 2003-02-20 | Lesandrini Jay William | Extensible business method with advertisement research as an example |
US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
EP1340375A1 (en) | 2000-11-22 | 2003-09-03 | Koninklijke Philips Electronics N.V. | Method and apparatus for generating recommendations based on current mood of user |
US20020072952A1 (en) | 2000-12-07 | 2002-06-13 | International Business Machines Corporation | Visual and audible consumer reaction collection |
US6881526B2 (en) | 2000-12-15 | 2005-04-19 | E. I. Du Pont De Nemours And Company | Receiver element for adjusting the focus of an imaging laser |
ATE321422T1 (de) | 2001-01-09 | 2006-04-15 | Metabyte Networks Inc | System, verfahren und software für die bereitstellung einer gezielten werbung durch benutzerprofildatenstruktur basierend auf benutzerpräferenzen |
JP2002259720A (ja) | 2001-03-02 | 2002-09-13 | Internatl Business Mach Corp <Ibm> | コンテンツ要約システム、映像要約システム、ユーザ端末、要約映像生成方法、要約映像受信方法、およびプログラム |
JP3850671B2 (ja) * | 2001-03-05 | 2006-11-29 | シャープ株式会社 | コンテンツ配信システムおよびそれに用いるサーバーおよびそれに用いるクライアント端末およびコンテンツ配信方法およびその方法をコンピュータに実行させるためのプログラムを記録した記録媒体 |
JP4371597B2 (ja) | 2001-03-15 | 2009-11-25 | シャープ株式会社 | 情報再生装置 |
US20020144259A1 (en) | 2001-03-29 | 2002-10-03 | Philips Electronics North America Corp. | Method and apparatus for controlling a media player based on user activity |
US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
US7313621B2 (en) | 2001-05-15 | 2007-12-25 | Sony Corporation | Personalized interface with adaptive content presentation |
US20020174445A1 (en) | 2001-05-17 | 2002-11-21 | Koninklijke Philips Electronics N.V. | Video playback device with real-time on-line viewer feedback capability and method of operation |
US7246329B1 (en) | 2001-05-18 | 2007-07-17 | Autodesk, Inc. | Multiple menus for use with a graphical user interface |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US6594616B2 (en) | 2001-06-18 | 2003-07-15 | Microsoft Corporation | System and method for providing a mobile input device |
WO2003001722A2 (en) | 2001-06-22 | 2003-01-03 | Canesta, Inc. | Method and system to display a virtual input device |
US6795972B2 (en) | 2001-06-29 | 2004-09-21 | Scientific-Atlanta, Inc. | Subscriber television system user interface with a virtual reality media space |
JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
US20030007018A1 (en) | 2001-07-09 | 2003-01-09 | Giovanni Seni | Handwriting user interface for personal digital assistants and the like |
US6868383B1 (en) | 2001-07-12 | 2005-03-15 | At&T Corp. | Systems and methods for extracting meaning from multimodal inputs using finite-state devices |
GB2379017A (en) | 2001-07-27 | 2003-02-26 | Hewlett Packard Co | Method and apparatus for monitoring crowds |
WO2003015056A2 (en) | 2001-08-09 | 2003-02-20 | Visual Interaction Gmbh | Automated behavioral and cognitive profiling for training and marketing segmentation |
FI115419B (fi) | 2001-08-20 | 2005-04-29 | Helsingin Kauppakorkeakoulu | Informaatiopalveluiden käyttäjäkohtainen personointi |
US7007236B2 (en) | 2001-09-14 | 2006-02-28 | Accenture Global Services Gmbh | Lab window collaboration |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
US20030066071A1 (en) | 2001-10-03 | 2003-04-03 | Koninklijke Philips Electronics N.V. | Program recommendation method and system utilizing a viewing history of commercials |
US8079045B2 (en) | 2001-10-17 | 2011-12-13 | Keen Personal Media, Inc. | Personal video recorder and method for inserting a stored advertisement into a displayed broadcast stream |
US20030079226A1 (en) | 2001-10-19 | 2003-04-24 | Barrett Peter T. | Video segment targeting using remotely issued instructions and localized state and behavior information |
EP1306735A1 (en) | 2001-10-25 | 2003-05-02 | ABB Installationen AG | Control of a meeting room |
US20030081834A1 (en) | 2001-10-31 | 2003-05-01 | Vasanth Philomin | Intelligent TV room |
US8561095B2 (en) | 2001-11-13 | 2013-10-15 | Koninklijke Philips N.V. | Affective television monitoring and control in response to physiological data |
WO2003054683A2 (en) | 2001-12-07 | 2003-07-03 | Canesta Inc. | User interface for electronic devices |
JP2005512249A (ja) | 2001-12-13 | 2005-04-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | メディアシステム上のメディアコンテンツの推薦 |
US20030112467A1 (en) | 2001-12-17 | 2003-06-19 | Mccollum Tim | Apparatus and method for multimedia navigation |
US6585521B1 (en) | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US6730913B2 (en) | 2002-02-21 | 2004-05-04 | Ford Global Technologies, Llc | Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture |
US7516447B2 (en) | 2002-02-22 | 2009-04-07 | Bea Systems, Inc. | Methods and apparatus for building, customizing and using software abstractions of external entities |
US20030169906A1 (en) | 2002-02-26 | 2003-09-11 | Gokturk Salih Burak | Method and apparatus for recognizing objects |
JP3715584B2 (ja) | 2002-03-28 | 2005-11-09 | 富士通株式会社 | 機器制御装置および機器制御方法 |
GB0207732D0 (en) | 2002-04-03 | 2002-05-15 | Ttpcomm Ltd | Wireless communication terminals |
US7203909B1 (en) | 2002-04-04 | 2007-04-10 | Microsoft Corporation | System and methods for constructing personalized context-sensitive portal pages or views by analyzing patterns of users' information access activities |
US7310431B2 (en) | 2002-04-10 | 2007-12-18 | Canesta, Inc. | Optical methods for remotely measuring objects |
DE50302813D1 (de) | 2002-04-19 | 2006-05-18 | Iee Sarl | Sicherheitsvorrichtung für ein fahrzeug |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US20040001616A1 (en) | 2002-06-27 | 2004-01-01 | Srinivas Gutta | Measurement of content ratings through vision and speech recognition |
US20040006477A1 (en) | 2002-07-05 | 2004-01-08 | Craner Michael L. | Voice-controllable communication gateway for controlling multiple electronic and information appliances |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US7627139B2 (en) | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US8019121B2 (en) | 2002-07-27 | 2011-09-13 | Sony Computer Entertainment Inc. | Method and system for processing intensity from input devices for interfacing with a computer program |
US7058902B2 (en) | 2002-07-30 | 2006-06-06 | Microsoft Corporation | Enhanced on-object context menus |
US20090143141A1 (en) | 2002-08-06 | 2009-06-04 | Igt | Intelligent Multiplayer Gaming System With Multi-Touch Display |
EP1535305A2 (en) | 2002-08-16 | 2005-06-01 | Brown University Research Foundation | Scanning magnetic microscope having improved magnetic sensor |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
JP2004110453A (ja) | 2002-09-19 | 2004-04-08 | Sony Corp | 携帯端末装置 |
WO2004027685A2 (en) | 2002-09-19 | 2004-04-01 | The Penn State Research Foundation | Prosody based audio/visual co-analysis for co-verbal gesture recognition |
US7002560B2 (en) | 2002-10-04 | 2006-02-21 | Human Interface Technologies Inc. | Method of combining data entry of handwritten symbols with displayed character data |
EP1408443B1 (en) | 2002-10-07 | 2006-10-18 | Sony France S.A. | Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition |
US20040113933A1 (en) | 2002-10-08 | 2004-06-17 | Northrop Grumman Corporation | Split and merge behavior analysis and understanding using Hidden Markov Models |
US20030126593A1 (en) | 2002-11-04 | 2003-07-03 | Mault James R. | Interactive physiological monitoring system |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US20060221081A1 (en) | 2003-01-17 | 2006-10-05 | Cohen Irun R | Reactive animation |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US7435941B2 (en) | 2003-03-14 | 2008-10-14 | Inphase Technologies, Inc. | Methods for measuring optical characteristics by differential diffractive scanning |
US7762665B2 (en) | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US7290218B2 (en) | 2003-04-03 | 2007-10-30 | At&T Bls Intellectual Property, Inc. | Method of providing a user interface for a digital cross-connect system |
US7681149B2 (en) | 2003-05-21 | 2010-03-16 | Nokia Corporation | User interface display for set-top box device |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7372977B2 (en) | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
WO2005113099A2 (en) | 2003-05-30 | 2005-12-01 | America Online, Inc. | Personalizing content |
EP1631937B1 (en) | 2003-06-12 | 2018-03-28 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7409639B2 (en) | 2003-06-19 | 2008-08-05 | Accenture Global Services Gmbh | Intelligent collaborative media |
JP4359755B2 (ja) * | 2003-07-31 | 2009-11-04 | ソニー株式会社 | コンテンツ再生方法、コンテンツ再生装置、コンテンツ配信方法およびコンテンツ配信装置 |
US7214932B2 (en) | 2003-08-20 | 2007-05-08 | Xyratex Technology Limited | Resonator method and system for distinguishing characteristics of surface features or contaminants |
US7170605B2 (en) | 2003-08-25 | 2007-01-30 | Evan Francis Cromwell | Active sensor and method for optical illumination and detection |
CA2536371A1 (en) | 2003-08-26 | 2005-03-10 | Redshift Systems Corporation | Infrared camera system |
KR100493902B1 (ko) | 2003-08-28 | 2005-06-10 | 삼성전자주식회사 | 콘텐츠 추천방법 및 시스템 |
JP2005084770A (ja) * | 2003-09-05 | 2005-03-31 | Sony Corp | コンテンツ提供システムおよび方法、提供装置および方法、再生装置および方法、並びにプログラム |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
JP2005108108A (ja) | 2003-10-01 | 2005-04-21 | Canon Inc | 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置 |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
US7155305B2 (en) | 2003-11-04 | 2006-12-26 | Universal Electronics Inc. | System and methods for home appliance identification and control in a networked environment |
US7136709B2 (en) | 2003-11-04 | 2006-11-14 | Universal Electronics Inc. | Home appliance control system and methods in a networked environment |
US8196168B1 (en) | 2003-12-10 | 2012-06-05 | Time Warner, Inc. | Method and apparatus for exchanging preferences for replaying a program on a personal video recorder |
GB2410359A (en) | 2004-01-23 | 2005-07-27 | Sony Uk Ltd | Display |
JP3847753B2 (ja) | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
JP2005218025A (ja) | 2004-02-02 | 2005-08-11 | Matsushita Electric Ind Co Ltd | 視聴中断位置記憶装置、再生装置、及び記録装置 |
WO2005086059A1 (en) | 2004-02-27 | 2005-09-15 | Accenture Global Services Gmbh | System for individualized customer interaction |
US7706616B2 (en) | 2004-02-27 | 2010-04-27 | International Business Machines Corporation | System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout |
US8949899B2 (en) | 2005-03-04 | 2015-02-03 | Sharp Laboratories Of America, Inc. | Collaborative recommendation system |
US7600119B2 (en) | 2004-03-04 | 2009-10-06 | Nec Corporation | Data update system, data update method, data update program, and robot system |
US7301527B2 (en) | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Feedback based user interface for motion controlled handheld devices |
US20050215319A1 (en) | 2004-03-23 | 2005-09-29 | Harmonix Music Systems, Inc. | Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment |
US7173604B2 (en) | 2004-03-23 | 2007-02-06 | Fujitsu Limited | Gesture identification of controlled devices |
US7301529B2 (en) | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Context dependent gesture response |
EP1582965A1 (en) | 2004-04-01 | 2005-10-05 | Sony Deutschland Gmbh | Emotion controlled system for processing multimedia data |
JP4092697B2 (ja) | 2004-04-07 | 2008-05-28 | ソニー株式会社 | 情報処理装置および方法、プログラム並びに記録媒体 |
US7600201B2 (en) | 2004-04-07 | 2009-10-06 | Sony Corporation | Methods and apparatuses for viewing choices and making selections |
CN1942970A (zh) | 2004-04-15 | 2007-04-04 | 皇家飞利浦电子股份有限公司 | 生成对用户具有特定情绪影响的内容项的方法 |
US7379563B2 (en) | 2004-04-15 | 2008-05-27 | Gesturetek, Inc. | Tracking bimanual movements |
US7681141B2 (en) | 2004-05-11 | 2010-03-16 | Sony Computer Entertainment America Inc. | Fast scrolling in a graphical user interface |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US8050782B2 (en) | 2004-05-20 | 2011-11-01 | Abb Research Ltd. | Method and system to retrieve and display technical data for an industrial device |
US20060031264A1 (en) | 2004-05-20 | 2006-02-09 | Bea Systems, Inc. | Synchronization protocol for occasionally-connected application server |
US20050289582A1 (en) | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
US20060020904A1 (en) | 2004-07-09 | 2006-01-26 | Antti Aaltonen | Stripe user interface |
US7178111B2 (en) | 2004-08-03 | 2007-02-13 | Microsoft Corporation | Multi-planar three-dimensional user interface |
US7728821B2 (en) | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
JP2006060626A (ja) * | 2004-08-23 | 2006-03-02 | Matsushita Electric Ind Co Ltd | コマーシャル処理装置、およびコマーシャル視聴履歴管理システム |
US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
WO2006025137A1 (ja) | 2004-09-01 | 2006-03-09 | Sony Computer Entertainment Inc. | 画像処理装置、ゲーム装置および画像処理方法 |
JP2006068315A (ja) | 2004-09-02 | 2006-03-16 | Sega Corp | ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US7761814B2 (en) | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
US20060064481A1 (en) | 2004-09-17 | 2006-03-23 | Anthony Baron | Methods for service monitoring and control |
EP1803228B1 (en) | 2004-10-01 | 2019-07-10 | Samsung Electronics Co., Ltd. | Device and method for displaying event in wireless terminal |
EP1645944B1 (en) | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
US7346944B2 (en) | 2004-11-05 | 2008-03-25 | Mark Shaw | Mattress monitoring system |
US7212665B2 (en) | 2004-11-05 | 2007-05-01 | Honda Motor Co. | Human pose estimation with data driven belief propagation |
US7814518B2 (en) | 2004-11-23 | 2010-10-12 | Palo Alto Research Center Incorporated | Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content |
US7870589B2 (en) | 2004-11-23 | 2011-01-11 | Palo Alto Research Center Incorporated | Method for providing commentary audio and additional or replacement video content |
US7217020B2 (en) | 2004-11-24 | 2007-05-15 | General Motors Corporation | Headlamp assembly with integrated infrared illuminator |
US20060123360A1 (en) | 2004-12-03 | 2006-06-08 | Picsel Research Limited | User interfaces for data processing devices and systems |
JP4449723B2 (ja) | 2004-12-08 | 2010-04-14 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
US7216053B2 (en) | 2004-12-30 | 2007-05-08 | Nokia Corporation | Low power motion detector |
WO2006074310A2 (en) | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
BRPI0606477A2 (pt) | 2005-01-07 | 2009-06-30 | Gesturetek Inc | sensor de inclinação baseado em fluxo ótico |
WO2006074289A2 (en) | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Detecting and tracking objects in images |
KR100703693B1 (ko) | 2005-01-13 | 2007-04-05 | 삼성전자주식회사 | 얼굴 인식 시스템 및 방법 |
JP3862027B2 (ja) | 2005-01-25 | 2006-12-27 | 船井電機株式会社 | 放送信号受信システム |
US20060184800A1 (en) | 2005-02-16 | 2006-08-17 | Outland Research, Llc | Method and apparatus for using age and/or gender recognition techniques to customize a user interface |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
CN101536494B (zh) | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制系统的系统和方法 |
GB2423808B (en) | 2005-03-04 | 2010-02-17 | Ford Global Tech Llc | Motor vehicle control system for controlling one or more vehicle devices |
US20060218573A1 (en) | 2005-03-04 | 2006-09-28 | Stexar Corp. | Television program highlight tagging |
KR100688743B1 (ko) | 2005-03-11 | 2007-03-02 | 삼성전기주식회사 | 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법 |
US7643056B2 (en) | 2005-03-14 | 2010-01-05 | Aptina Imaging Corporation | Motion detecting camera system |
US7877703B1 (en) | 2005-03-14 | 2011-01-25 | Seven Networks, Inc. | Intelligent rendering of information in a limited display environment |
JP4686595B2 (ja) | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
US8147248B2 (en) | 2005-03-21 | 2012-04-03 | Microsoft Corporation | Gesture training |
US20070214471A1 (en) | 2005-03-23 | 2007-09-13 | Outland Research, L.L.C. | System, method and computer program product for providing collective interactive television experiences |
US7487461B2 (en) | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
WO2006124935A2 (en) | 2005-05-17 | 2006-11-23 | Gesturetek, Inc. | Orientation-sensitive signal output |
WO2006125133A2 (en) | 2005-05-19 | 2006-11-23 | Hillcrest Laboratories, Inc. | Global navigation objects in user interfaces |
US20060280055A1 (en) | 2005-06-08 | 2006-12-14 | Miller Rodney D | Laser power control and device status monitoring for video/graphic applications |
US7646960B2 (en) | 2005-06-09 | 2010-01-12 | International Business Machines Corporation | Determining chapters based on presentation of a program |
US20070033607A1 (en) | 2005-08-08 | 2007-02-08 | Bryan David A | Presence and proximity responsive program display |
TWI412392B (zh) | 2005-08-12 | 2013-10-21 | Koninkl Philips Electronics Nv | 互動式娛樂系統及其操作方法 |
EP1752748B1 (en) | 2005-08-12 | 2008-10-29 | MESA Imaging AG | Highly sensitive, fast pixel for use in an image sensor |
US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
TW200713060A (en) | 2005-09-30 | 2007-04-01 | Primax Electronics Ltd | Adaptive input method for touch screen |
US7519201B2 (en) | 2005-10-28 | 2009-04-14 | Honda Motor Co., Ltd. | Detecting humans via their pose |
US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
GB2431717A (en) | 2005-10-31 | 2007-05-02 | Sony Uk Ltd | Scene analysis |
US20070143787A1 (en) * | 2005-12-19 | 2007-06-21 | Cankaya Hakki C | System and method for providing context-aware local advertising in IPTV systems |
US20070140532A1 (en) | 2005-12-20 | 2007-06-21 | Goffin Glen P | Method and apparatus for providing user profiling based on facial recognition |
US20070150281A1 (en) | 2005-12-22 | 2007-06-28 | Hoff Todd M | Method and system for utilizing emotion to search content |
US8556722B2 (en) * | 2005-12-27 | 2013-10-15 | Microsoft Corporation | Streaming media casts, such as in a video game or mobile device environment |
US20070150916A1 (en) | 2005-12-28 | 2007-06-28 | James Begole | Using sensors to provide feedback on the access of digital content |
US20070214292A1 (en) | 2006-02-24 | 2007-09-13 | Gillian Hayes | System and method for archiving of continuous capture buffers |
JP4917615B2 (ja) | 2006-02-27 | 2012-04-18 | プライム センス リミティド | スペックルの無相関を使用した距離マッピング(rangemapping) |
US8321889B2 (en) | 2006-03-08 | 2012-11-27 | Kamfu Wong | Method and system for personalized and localized TV ad delivery |
US20070219430A1 (en) | 2006-03-17 | 2007-09-20 | Moore Barrett H | Electricity Providing Privately Provisioned Subscription-Based Survival Supply Unit Method And Apparatus |
DE102006037156A1 (de) | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
US8491159B2 (en) | 2006-03-28 | 2013-07-23 | Wireless Environment, Llc | Wireless emergency lighting system |
US8362713B2 (en) | 2006-03-28 | 2013-01-29 | Wireless Environment, Llc | Wireless lighting devices and grid-shifting applications |
US7568116B2 (en) | 2006-04-14 | 2009-07-28 | Clever Innovations, Inc. | Automated display device |
DE102006021414A1 (de) | 2006-05-05 | 2007-11-08 | Claudia Eisert | Flexibles orthetisches Bekleidungsstück |
EP2194509A1 (en) | 2006-05-07 | 2010-06-09 | Sony Computer Entertainment Inc. | Method for providing affective characteristics to computer generated avatar during gameplay |
CN101536512A (zh) | 2006-05-18 | 2009-09-16 | 尼尔森(美国)有限公司 | 合作者安装测量仪的方法和设备 |
US7721207B2 (en) | 2006-05-31 | 2010-05-18 | Sony Ericsson Mobile Communications Ab | Camera based control |
US7640304B1 (en) | 2006-06-14 | 2009-12-29 | Yes International Ag | System and method for detecting and measuring emotional indicia |
US7818290B2 (en) | 2006-06-14 | 2010-10-19 | Identity Metrics, Inc. | System to associate a demographic to a user of an electronic system |
JP2009543407A (ja) | 2006-06-27 | 2009-12-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テレビジョン番組への広告の挿入 |
EP2044592A1 (en) | 2006-07-12 | 2009-04-08 | Koninklijke Philips Electronics N.V. | A device and a method for playing audio-video content |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
TW200806029A (en) | 2006-07-14 | 2008-01-16 | Asustek Comp Inc | Display system and control method thereof |
US20080018591A1 (en) | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
US20080027984A1 (en) | 2006-07-31 | 2008-01-31 | Motorola, Inc. | Method and system for multi-dimensional action capture |
US8775237B2 (en) | 2006-08-02 | 2014-07-08 | Opinionlab, Inc. | System and method for measuring and reporting user reactions to advertisements on a web page |
US20080052026A1 (en) | 2006-08-23 | 2008-02-28 | Qurio Holdings, Inc. | Configuring a content capture device for one or more service providers |
AU2007293092A1 (en) | 2006-09-05 | 2008-03-13 | Innerscope Research, Inc. | Method and system for determining audience response to a sensory stimulus |
US9514436B2 (en) | 2006-09-05 | 2016-12-06 | The Nielsen Company (Us), Llc | Method and system for predicting audience viewing behavior |
US7725547B2 (en) | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US8395658B2 (en) | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
WO2008032329A2 (en) | 2006-09-13 | 2008-03-20 | Alon Atsmon | Providing content responsive to multimedia signals |
US8645973B2 (en) | 2006-09-22 | 2014-02-04 | Oracle International Corporation | Mobile applications |
US8287372B2 (en) | 2006-09-28 | 2012-10-16 | Mattel, Inc. | Interactive toy and display system |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
US7806329B2 (en) | 2006-10-17 | 2010-10-05 | Google Inc. | Targeted video advertising |
KR100828371B1 (ko) | 2006-10-27 | 2008-05-08 | 삼성전자주식회사 | 컨텐츠의 메타 데이터 생성 방법 및 장치 |
EP1919216A1 (en) | 2006-10-30 | 2008-05-07 | British Telecommunications Public Limited Company | Personalised media presentation |
US8102422B1 (en) | 2006-11-22 | 2012-01-24 | Amdocs Software Systems Limited | System, method and computer program product for presenting an option to receive advertisement content |
WO2008067413A2 (en) | 2006-11-28 | 2008-06-05 | Attune Interactive, Inc. | Training system using an interactive prompt character |
US20080134102A1 (en) | 2006-12-05 | 2008-06-05 | Sony Ericsson Mobile Communications Ab | Method and system for detecting movement of an object |
CN101202994B (zh) | 2006-12-14 | 2012-10-24 | 北京三星通信技术研究有限公司 | 辅助用户健身的方法和装置 |
KR100720335B1 (ko) | 2006-12-20 | 2007-05-23 | 최경순 | 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법 |
US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
KR20080058740A (ko) | 2006-12-22 | 2008-06-26 | 삼성전자주식회사 | 디지털 방송 수신 장치 및 시간 동기화 방법 |
US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
US9311528B2 (en) | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
US20080163283A1 (en) | 2007-01-03 | 2008-07-03 | Angelito Perez Tan | Broadband video with synchronized highlight signals |
US7770136B2 (en) | 2007-01-24 | 2010-08-03 | Microsoft Corporation | Gesture recognition interactive feedback |
GB0703974D0 (en) | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
US20090070798A1 (en) | 2007-03-02 | 2009-03-12 | Lee Hans C | System and Method for Detecting Viewer Attention to Media Delivery Devices |
US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
US20080234023A1 (en) | 2007-03-23 | 2008-09-25 | Ajmal Mullahkhel | Light game |
US20100007801A1 (en) | 2007-04-03 | 2010-01-14 | TTE Technology, Inc | System and method for toggling between system power modes based on motion detection |
US8390649B2 (en) | 2007-04-30 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | Electronic device input control system and method |
US20090217315A1 (en) | 2008-02-26 | 2009-08-27 | Cognovision Solutions Inc. | Method and system for audience measurement and targeting media |
WO2008144575A2 (en) | 2007-05-18 | 2008-11-27 | Optiscan Biomedical Corporation | Fluid injection and safety system |
US20080310707A1 (en) | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Virtual reality enhancement using real world data |
US8078787B2 (en) | 2007-06-22 | 2011-12-13 | Apple Inc. | Communication between a host device and an accessory via an intermediate device |
US8817061B2 (en) | 2007-07-02 | 2014-08-26 | Cisco Technology, Inc. | Recognition of human gestures by a mobile phone |
KR20090002809A (ko) | 2007-07-04 | 2009-01-09 | 삼성전자주식회사 | 어플리케이션에서 생성된 데이터를 hdmi cec에 따라송수신하는 방법 |
EP2017707B1 (en) | 2007-07-06 | 2017-04-12 | Dassault Systèmes | Widget of graphical user interface and method for navigating amongst related objects |
US7865916B2 (en) | 2007-07-20 | 2011-01-04 | James Beser | Audience determination for monetizing displayable content |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US20090037945A1 (en) * | 2007-07-31 | 2009-02-05 | Hewlett-Packard Development Company, L.P. | Multimedia presentation apparatus, method of selecting multimedia content, and computer program product |
US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
US8081302B2 (en) | 2007-08-17 | 2011-12-20 | Princeton Satellite Systems, Inc. | Multimode optical sensor |
US8156118B2 (en) | 2007-08-20 | 2012-04-10 | Samsung Electronics Co., Ltd. | Method and system for generating playlists for content items |
US9261979B2 (en) | 2007-08-20 | 2016-02-16 | Qualcomm Incorporated | Gesture-based mobile interaction |
US8132187B2 (en) | 2007-08-31 | 2012-03-06 | Microsoft Corporation | Driver installer usable in plural environments |
US10091345B2 (en) | 2007-09-04 | 2018-10-02 | Apple Inc. | Media out interface |
KR101182286B1 (ko) | 2007-09-19 | 2012-09-14 | 삼성전자주식회사 | 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법 |
US7899777B2 (en) | 2007-09-27 | 2011-03-01 | Rockwell Automation Technologies, Inc. | Web-based visualization mash-ups for industrial automation |
EP2042969A1 (en) | 2007-09-28 | 2009-04-01 | Alcatel Lucent | Method for determining user reaction with specific content of a displayed page. |
US8522289B2 (en) | 2007-09-28 | 2013-08-27 | Yahoo! Inc. | Distributed automatic recording of live event |
US8151292B2 (en) | 2007-10-02 | 2012-04-03 | Emsense Corporation | System for remote access to media, and reaction and survey data from viewers of the media |
US7970176B2 (en) | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
US8776102B2 (en) | 2007-10-09 | 2014-07-08 | At&T Intellectual Property I, Lp | System and method for evaluating audience reaction to a data stream |
US20090106645A1 (en) | 2007-10-17 | 2009-04-23 | Thinkingcraft, Inc. | Adaptive response/interpretive expression, communication distribution, and intelligent determination system and method |
US8171035B2 (en) | 2007-10-22 | 2012-05-01 | Samsung Electronics Co., Ltd. | Situation-aware recommendation using correlation |
US8001108B2 (en) | 2007-10-24 | 2011-08-16 | The Invention Science Fund I, Llc | Returning a new content based on a person's reaction to at least two instances of previously displayed content |
CN101842810B (zh) | 2007-10-30 | 2012-09-26 | 惠普开发有限公司 | 具有协作姿态检测的交互式显示系统 |
US8094891B2 (en) | 2007-11-01 | 2012-01-10 | Sony Ericsson Mobile Communications Ab | Generating music playlist based on facial expression |
CN101925915B (zh) | 2007-11-21 | 2016-06-22 | 高通股份有限公司 | 设备访问控制 |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
US8471868B1 (en) | 2007-11-28 | 2013-06-25 | Sprint Communications Company L.P. | Projector and ultrasonic gesture-controlled communicator |
US20090150919A1 (en) | 2007-11-30 | 2009-06-11 | Lee Michael J | Correlating Media Instance Information With Physiological Responses From Participating Subjects |
GB2455316B (en) | 2007-12-04 | 2012-08-15 | Sony Corp | Image processing apparatus and method |
US20090157472A1 (en) | 2007-12-14 | 2009-06-18 | Kimberly-Clark Worldwide, Inc. | Personalized Retail Information Delivery Systems and Methods |
US9098766B2 (en) | 2007-12-21 | 2015-08-04 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US9165199B2 (en) | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US8588816B2 (en) | 2007-12-21 | 2013-11-19 | Qualcomm Incorporated | Systems and methods for targeted advertising on wireless devices based on device location and current user interests |
TW200928892A (en) | 2007-12-28 | 2009-07-01 | Wistron Corp | Electronic apparatus and operation method thereof |
US8149210B2 (en) | 2007-12-31 | 2012-04-03 | Microsoft International Holdings B.V. | Pointing device and method |
US8090030B2 (en) | 2008-01-04 | 2012-01-03 | Silicon Image, Inc. | Method, apparatus and system for generating and facilitating mobile high-definition multimedia interface |
US8646017B2 (en) | 2008-01-14 | 2014-02-04 | At&T Intellectual Property I, L.P. | Method and apparatus for providing collaborative viewing of a media stream |
US8166421B2 (en) | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8059111B2 (en) | 2008-01-21 | 2011-11-15 | Sony Computer Entertainment America Llc | Data transfer using hand-held device |
US7904530B2 (en) | 2008-01-29 | 2011-03-08 | Palo Alto Research Center Incorporated | Method and apparatus for automatically incorporating hypothetical context information into recommendation queries |
US7889073B2 (en) | 2008-01-31 | 2011-02-15 | Sony Computer Entertainment America Llc | Laugh detector and system and method for tracking an emotional response to a media presentation |
JP2009186630A (ja) * | 2008-02-05 | 2009-08-20 | Nec Corp | 広告配信装置 |
WO2009099296A2 (en) | 2008-02-05 | 2009-08-13 | Lg Electronics Inc. | Virtual optical input device for providing various types of interfaces and method of controlling the same |
JP5259212B2 (ja) * | 2008-02-26 | 2013-08-07 | Kddi株式会社 | 音楽連動型広告配信方法、装置およびシステム |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
KR101365776B1 (ko) | 2008-04-08 | 2014-02-20 | 엘지디스플레이 주식회사 | 멀티 터치 시스템 및 그 구동 방법 |
EP2108328B2 (de) | 2008-04-09 | 2020-08-26 | Brainlab AG | Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte |
CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
GB2459707B (en) | 2008-05-01 | 2010-08-11 | Sony Computer Entertainment Inc | Media recorder, audio visual entertainment system and method |
CN102027450B (zh) | 2008-05-20 | 2015-05-13 | 思杰系统有限公司 | 由移动计算装置使用外部显示装置的方法和系统 |
US7984197B2 (en) | 2008-05-27 | 2011-07-19 | Eyran Lida | Methods and devices for on the fly CEC modification |
US8477139B2 (en) | 2008-06-09 | 2013-07-02 | Apple Inc. | Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects |
JP2009302751A (ja) | 2008-06-11 | 2009-12-24 | Sharp Corp | 要約再生装置、要約再生方法、要約再生プログラム、および記録媒体 |
US9130684B2 (en) | 2008-06-23 | 2015-09-08 | Echostar Technologies L.L.C. | Systems and methods for conserving energy in an entertainment system |
JP2010016623A (ja) | 2008-07-03 | 2010-01-21 | Hitachi Ltd | コンテンツ視聴システム |
CN201247590Y (zh) | 2008-08-01 | 2009-05-27 | 鸿富锦精密工业(深圳)有限公司 | 可自动切换显示模式的电子相框 |
US9269090B2 (en) | 2008-08-18 | 2016-02-23 | Nokia Technologies Oy | Method, apparatus and computer program product for providing indications regarding recommended content |
US20100070987A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Mining viewer responses to multimedia content |
US8925001B2 (en) | 2008-09-12 | 2014-12-30 | At&T Intellectual Property I, L.P. | Media stream generation based on a category of user expression |
US20100070913A1 (en) | 2008-09-15 | 2010-03-18 | Apple Inc. | Selecting an item of content in a graphical user interface for a portable computing device |
US8769427B2 (en) | 2008-09-19 | 2014-07-01 | Google Inc. | Quick gesture input |
US8516561B2 (en) | 2008-09-29 | 2013-08-20 | At&T Intellectual Property I, L.P. | Methods and apparatus for determining user authorization from motion of a gesture-based control unit |
JP2010086356A (ja) | 2008-09-30 | 2010-04-15 | Nec Corp | 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム |
US20100086204A1 (en) | 2008-10-03 | 2010-04-08 | Sony Ericsson Mobile Communications Ab | System and method for capturing an emotional characteristic of a user |
US8544046B2 (en) | 2008-10-09 | 2013-09-24 | Packetvideo Corporation | System and method for controlling media rendering in a network using a mobile device |
KR20100041006A (ko) | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
US9399167B2 (en) | 2008-10-14 | 2016-07-26 | Microsoft Technology Licensing, Llc | Virtual space mapping of a variable activity region |
US20100107184A1 (en) | 2008-10-23 | 2010-04-29 | Peter Rae Shintani | TV with eye detection |
US8040237B2 (en) | 2008-10-29 | 2011-10-18 | The Nielsen Company (Us), Llc | Methods and apparatus to detect carrying of a portable audience measurement device |
US9374617B2 (en) | 2008-10-30 | 2016-06-21 | Taboola.Com Ltd | System and method for the presentation of alternative content to viewers video content |
US8752087B2 (en) | 2008-11-07 | 2014-06-10 | At&T Intellectual Property I, L.P. | System and method for dynamically constructing personalized contextual video programs |
JP5224360B2 (ja) * | 2008-11-10 | 2013-07-03 | 日本電気株式会社 | 電子広告装置、電子広告方法及びプログラム |
JP5489197B2 (ja) | 2008-11-10 | 2014-05-14 | 九州日本電気ソフトウェア株式会社 | 電子広告装置・方法及びプログラム |
US20100138797A1 (en) | 2008-12-01 | 2010-06-03 | Sony Ericsson Mobile Communications Ab | Portable electronic device with split vision content sharing control and method |
KR101531363B1 (ko) | 2008-12-10 | 2015-07-06 | 삼성전자주식회사 | 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법 |
US20100153984A1 (en) | 2008-12-12 | 2010-06-17 | Microsoft Corporation | User Feedback Based Highlights of Recorded Programs |
US20100161424A1 (en) | 2008-12-22 | 2010-06-24 | Nortel Networks Limited | Targeted advertising system and method |
JP4775671B2 (ja) | 2008-12-26 | 2011-09-21 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US8856829B2 (en) | 2008-12-29 | 2014-10-07 | Ngc Network Us, Llc | Interactive display highlight systems, methods, and computer program products |
US20100169157A1 (en) | 2008-12-30 | 2010-07-01 | Nokia Corporation | Methods, apparatuses, and computer program products for providing targeted advertising |
US20100169842A1 (en) | 2008-12-31 | 2010-07-01 | Microsoft Corporation | Control Function Gestures |
US20100191631A1 (en) | 2009-01-29 | 2010-07-29 | Adrian Weidmann | Quantitative media valuation method, system and computer program |
TW201032087A (en) | 2009-02-19 | 2010-09-01 | Asustek Comp Inc | Command control system and method thereof |
CN101833286A (zh) | 2009-03-13 | 2010-09-15 | 王俊锋 | 一种智能家居控制器 |
US20100248832A1 (en) | 2009-03-30 | 2010-09-30 | Microsoft Corporation | Control of video game via microphone |
US9172482B2 (en) | 2009-03-31 | 2015-10-27 | At&T Intellectual Property I, L.P. | Content recommendations based on personal preferences |
US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
CN101546248B (zh) | 2009-05-05 | 2014-04-09 | 阿里巴巴集团控股有限公司 | 一种级联式选择菜单的呈现方法及装置 |
KR101567603B1 (ko) | 2009-05-07 | 2015-11-20 | 엘지전자 주식회사 | 멀티 음성 시스템의 동작 제어 장치 및 방법 |
JP5299866B2 (ja) | 2009-05-19 | 2013-09-25 | 日立コンシューマエレクトロニクス株式会社 | 映像表示装置 |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8255955B1 (en) | 2009-06-16 | 2012-08-28 | Tivo Inc. | Dynamic item highlighting system |
US9594431B2 (en) | 2009-06-19 | 2017-03-14 | Hewlett-Packard Development Company, L.P. | Qualified command |
US9445036B2 (en) | 2009-06-30 | 2016-09-13 | Rovi Guides, Inc. | Methods and systems for content scheduling across multiple devices |
US20100332842A1 (en) | 2009-06-30 | 2010-12-30 | Yahoo! Inc. | Determining a mood of a user based on biometric characteristic(s) of the user in an online system |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US20110016102A1 (en) | 2009-07-20 | 2011-01-20 | Louis Hawthorne | System and method for identifying and providing user-specific psychoactive content |
US8428368B2 (en) | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
JP5397081B2 (ja) | 2009-08-12 | 2014-01-22 | 富士通モバイルコミュニケーションズ株式会社 | 携帯端末 |
US8326002B2 (en) | 2009-08-13 | 2012-12-04 | Sensory Logic, Inc. | Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions |
US7873849B2 (en) | 2009-09-02 | 2011-01-18 | Apple Inc. | Motion sensor data processing using various power management modes |
WO2011030357A1 (en) | 2009-09-08 | 2011-03-17 | Telecom Italia S.P.A. | Method for exploring a catalog of digital information contents |
US8275834B2 (en) | 2009-09-14 | 2012-09-25 | Applied Research Associates, Inc. | Multi-modal, geo-tempo communications systems |
US8875167B2 (en) | 2009-09-21 | 2014-10-28 | Mobitv, Inc. | Implicit mechanism for determining user response to media |
US20110084983A1 (en) | 2009-09-29 | 2011-04-14 | Wavelength & Resonance LLC | Systems and Methods for Interaction With a Virtual Environment |
US20110077718A1 (en) | 2009-09-30 | 2011-03-31 | Broadcom Corporation | Electromagnetic power booster for bio-medical units |
KR20110045565A (ko) * | 2009-10-27 | 2011-05-04 | 한국전자통신연구원 | 광고 서비스 제공 방법 |
KR101647722B1 (ko) | 2009-11-13 | 2016-08-23 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
US8627230B2 (en) | 2009-11-24 | 2014-01-07 | International Business Machines Corporation | Intelligent command prediction |
WO2011069035A1 (en) | 2009-12-04 | 2011-06-09 | Tivo Inc. | Multifunction multimedia device |
US20110145040A1 (en) | 2009-12-16 | 2011-06-16 | Microsoft Corporation | Content recommendation |
KR20110076458A (ko) | 2009-12-29 | 2011-07-06 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어방법 |
US8719776B2 (en) | 2009-12-30 | 2014-05-06 | Foneclay, Inc. | System for creation and distribution of software applications usable on multiple mobile device platforms |
US10356465B2 (en) | 2010-01-06 | 2019-07-16 | Sony Corporation | Video system demonstration |
US20110173589A1 (en) | 2010-01-13 | 2011-07-14 | Microsoft Corporation | Cross-Browser Interactivity Testing |
CN101777250B (zh) | 2010-01-25 | 2012-01-25 | 中国科学技术大学 | 家用电器的通用遥控装置及方法 |
JP5609160B2 (ja) | 2010-02-26 | 2014-10-22 | ソニー株式会社 | 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体 |
US20110216059A1 (en) | 2010-03-03 | 2011-09-08 | Raytheon Company | Systems and methods for generating real-time three-dimensional graphics in an area of interest |
US9124651B2 (en) | 2010-03-30 | 2015-09-01 | Microsoft Technology Licensing, Llc | Controlling media consumption privacy settings |
US20110242305A1 (en) | 2010-04-01 | 2011-10-06 | Peterson Harry W | Immersive Multimedia Terminal |
JP5521727B2 (ja) | 2010-04-19 | 2014-06-18 | ソニー株式会社 | 画像処理システム、画像処理装置、画像処理方法及びプログラム |
US20110263946A1 (en) | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
US20110264531A1 (en) | 2010-04-26 | 2011-10-27 | Yahoo! Inc. | Watching a user's online world |
US9503786B2 (en) * | 2010-06-07 | 2016-11-22 | Affectiva, Inc. | Video recommendation using affect |
US8966447B2 (en) | 2010-06-21 | 2015-02-24 | Apple Inc. | Capturing and displaying state of automated user-level testing of a graphical user interface application |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US20110316845A1 (en) | 2010-06-25 | 2011-12-29 | Palo Alto Research Center Incorporated | Spatial association between virtual and augmented reality |
US20110320741A1 (en) | 2010-06-28 | 2011-12-29 | Nokia Corporation | Method and apparatus providing for direct controlled access to a dynamic user profile |
US8423912B2 (en) | 2010-06-29 | 2013-04-16 | Pourang Irani | Selectable parent and submenu object display method with varied activation area shape |
US9009339B2 (en) | 2010-06-29 | 2015-04-14 | Echostar Technologies L.L.C. | Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content |
US20120005632A1 (en) | 2010-06-30 | 2012-01-05 | Broyles Iii Paul J | Execute a command |
US8453176B2 (en) | 2010-08-20 | 2013-05-28 | Avaya Inc. | OCAP/STB ACAP/satellite-receiver audience response/consumer application |
US8499245B1 (en) | 2010-08-24 | 2013-07-30 | Amazon Technologies, Inc. | Multi-source profiling for adaptive device operation |
US9247205B2 (en) | 2010-08-31 | 2016-01-26 | Fujitsu Limited | System and method for editing recorded videoconference data |
US8949871B2 (en) | 2010-09-08 | 2015-02-03 | Opentv, Inc. | Smart media selection based on viewer user presence |
US20120079521A1 (en) | 2010-09-23 | 2012-03-29 | Garg Sharad K | Incentivizing advertisement viewing and validating associated purchase |
US20120084812A1 (en) | 2010-10-04 | 2012-04-05 | Mark Thompson | System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content |
US9348141B2 (en) | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
US20120109726A1 (en) | 2010-10-30 | 2012-05-03 | Verizon Patent And Licensing, Inc. | Methods and Systems for Trigger-Based Updating of an Index File Associated with a Captured Media Content Instance |
US9348417B2 (en) | 2010-11-01 | 2016-05-24 | Microsoft Technology Licensing, Llc | Multimodal input system |
US20120117015A1 (en) | 2010-11-05 | 2012-05-10 | Nokia Corporation | Method and apparatus for providing rule-based recommendations |
US10034034B2 (en) | 2011-07-06 | 2018-07-24 | Symphony Advanced Media | Mobile remote media control platform methods |
JP4945675B2 (ja) | 2010-11-12 | 2012-06-06 | 株式会社東芝 | 音響信号処理装置、テレビジョン装置及びプログラム |
US8640021B2 (en) | 2010-11-12 | 2014-01-28 | Microsoft Corporation | Audience-based presentation and customization of content |
US20120174039A1 (en) | 2011-01-05 | 2012-07-05 | United Video Properties, Inc. | Systems and methods for navigating through content in an interactive media guidance application |
US20120209715A1 (en) | 2011-02-11 | 2012-08-16 | Microsoft Corporation | Interaction with networked screen content via motion sensing device in retail setting |
US20110145041A1 (en) | 2011-02-15 | 2011-06-16 | InnovatioNet | System for communication between users and global media-communication network |
WO2012117278A2 (en) | 2011-02-28 | 2012-09-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Electronically communicating media recommendations responsive to preferences for an electronic terminal |
US20120226981A1 (en) | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Controlling electronic devices in a multimedia system through a natural user interface |
EP3654147A1 (en) | 2011-03-29 | 2020-05-20 | QUALCOMM Incorporated | System for the rendering of shared digital interfaces relative to each user's point of view |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US9088823B1 (en) | 2011-04-29 | 2015-07-21 | Amazon Technologies, Inc. | Customized insertions into digital items |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US9026476B2 (en) | 2011-05-09 | 2015-05-05 | Anurag Bist | System and method for personalized media rating and related emotional profile analytics |
US20120304059A1 (en) | 2011-05-24 | 2012-11-29 | Microsoft Corporation | Interactive Build Instructions |
US20120304206A1 (en) | 2011-05-26 | 2012-11-29 | Verizon Patent And Licensing, Inc. | Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US20120324491A1 (en) | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
US9077458B2 (en) * | 2011-06-17 | 2015-07-07 | Microsoft Technology Licensing, Llc | Selection of advertisements via viewer feedback |
US8136724B1 (en) | 2011-06-24 | 2012-03-20 | American Express Travel Related Services Company, Inc. | Systems and methods for gesture-based interaction with computer systems |
US9026948B2 (en) | 2011-06-29 | 2015-05-05 | Microsoft Technology Licensing, Llc | Multi-faceted relationship hubs |
US8368723B1 (en) | 2011-07-14 | 2013-02-05 | Google Inc. | User input combination of touch and user position |
US9392308B2 (en) | 2011-08-04 | 2016-07-12 | Thomson Licensing | Content recommendation based on user location and available devices |
US9933935B2 (en) | 2011-08-26 | 2018-04-03 | Apple Inc. | Device, method, and graphical user interface for editing videos |
US9569439B2 (en) | 2011-10-31 | 2017-02-14 | Elwha Llc | Context-sensitive query enrichment |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US20130145385A1 (en) | 2011-12-02 | 2013-06-06 | Microsoft Corporation | Context-based ratings and recommendations for media |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US8943526B2 (en) | 2011-12-02 | 2015-01-27 | Microsoft Corporation | Estimating engagement of consumers of presented content |
US9100685B2 (en) * | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US20130159555A1 (en) | 2011-12-20 | 2013-06-20 | Microsoft Corporation | Input commands |
US20130198690A1 (en) | 2012-02-01 | 2013-08-01 | Microsoft Corporation | Visual indication of graphical user interface relationship |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US20130268955A1 (en) | 2012-04-06 | 2013-10-10 | Microsoft Corporation | Highlighting or augmenting a media program |
US20130283162A1 (en) * | 2012-04-23 | 2013-10-24 | Sony Mobile Communications Ab | System and method for dynamic content modification based on user reactions |
CA2775814C (en) | 2012-05-04 | 2013-09-03 | Microsoft Corporation | Advertisement presentation based on a current media reaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
JP6064544B2 (ja) | 2012-11-27 | 2017-01-25 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び端末装置 |
US9996974B2 (en) | 2013-08-30 | 2018-06-12 | Qualcomm Incorporated | Method and apparatus for representing a physical scene |
US20150262412A1 (en) | 2014-03-17 | 2015-09-17 | Qualcomm Incorporated | Augmented reality lighting with dynamic geometry |
US9959675B2 (en) | 2014-06-09 | 2018-05-01 | Microsoft Technology Licensing, Llc | Layout design using locally satisfiable proposals |
-
2012
- 2012-05-04 CA CA2775700A patent/CA2775700C/en active Active
- 2012-05-29 US US13/482,867 patent/US8959541B2/en active Active
-
2013
- 2013-04-26 TW TW102115081A patent/TW201407516A/zh unknown
- 2013-05-04 EP EP13724078.4A patent/EP2845163A4/en not_active Withdrawn
- 2013-05-04 AU AU2013256054A patent/AU2013256054B2/en active Active
- 2013-05-04 WO PCT/US2013/039591 patent/WO2013166474A2/en active Application Filing
- 2013-05-04 JP JP2015510501A patent/JP6291481B2/ja active Active
- 2013-05-04 MX MX2014013427A patent/MX345058B/es active IP Right Grant
- 2013-05-04 RU RU2014144369A patent/RU2646367C2/ru active
- 2013-05-04 BR BR112014026648A patent/BR112014026648A8/pt not_active Application Discontinuation
- 2013-05-04 KR KR1020147034014A patent/KR102068376B1/ko active IP Right Grant
-
2015
- 2015-01-13 US US14/596,074 patent/US9788032B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007073059A (ja) | 2004-07-07 | 2007-03-22 | Defacto:Kk | 広告システム、及び、広告結果記録方法 |
US20070271580A1 (en) | 2006-05-16 | 2007-11-22 | Bellsouth Intellectual Property Corporation | Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics |
Also Published As
Publication number | Publication date |
---|---|
EP2845163A2 (en) | 2015-03-11 |
US20150128161A1 (en) | 2015-05-07 |
MX2014013427A (es) | 2014-12-08 |
JP6291481B2 (ja) | 2018-03-14 |
JP2015521413A (ja) | 2015-07-27 |
US20130298146A1 (en) | 2013-11-07 |
CA2775700C (en) | 2013-07-23 |
RU2014144369A (ru) | 2016-06-27 |
US9788032B2 (en) | 2017-10-10 |
TW201407516A (zh) | 2014-02-16 |
BR112014026648A2 (pt) | 2017-06-27 |
BR112014026648A8 (pt) | 2021-05-25 |
AU2013256054B2 (en) | 2019-01-31 |
WO2013166474A2 (en) | 2013-11-07 |
KR20150013237A (ko) | 2015-02-04 |
AU2013256054A1 (en) | 2014-11-13 |
MX345058B (es) | 2017-01-16 |
WO2013166474A3 (en) | 2014-10-23 |
CA2775700A1 (en) | 2012-07-09 |
EP2845163A4 (en) | 2015-06-10 |
RU2646367C2 (ru) | 2018-03-02 |
US8959541B2 (en) | 2015-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102068376B1 (ko) | 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정 | |
US10798438B2 (en) | Determining audience state or interest using passive sensor data | |
US8635637B2 (en) | User interface presenting an animated avatar performing a media reaction | |
CA2775814C (en) | Advertisement presentation based on a current media reaction | |
TWI581128B (zh) | 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體 | |
US20130268955A1 (en) | Highlighting or augmenting a media program | |
US20140337868A1 (en) | Audience-aware advertising | |
US20140325540A1 (en) | Media synchronized advertising overlay | |
WO2014179515A2 (en) | Management of user media impressions | |
CN103383597B (zh) | 用于呈现媒体节目的方法 | |
CN103383764A (zh) | 基于当前媒体反应的广告呈现 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |