KR102068376B1 - 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정 - Google Patents

현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정 Download PDF

Info

Publication number
KR102068376B1
KR102068376B1 KR1020147034014A KR20147034014A KR102068376B1 KR 102068376 B1 KR102068376 B1 KR 102068376B1 KR 1020147034014 A KR1020147034014 A KR 1020147034014A KR 20147034014 A KR20147034014 A KR 20147034014A KR 102068376 B1 KR102068376 B1 KR 102068376B1
Authority
KR
South Korea
Prior art keywords
media
media program
user
response
during
Prior art date
Application number
KR1020147034014A
Other languages
English (en)
Other versions
KR20150013237A (ko
Inventor
마이클 제이 콘라드
제프리 제이 훌텐
카일 제이 크럼
우마이마 에이 멘드흐로
대런 비 레밍턴
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20150013237A publication Critical patent/KR20150013237A/ko
Application granted granted Critical
Publication of KR102068376B1 publication Critical patent/KR102068376B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • G06Q50/40
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q90/00Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/458Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Abstract

본 문서는 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치를 기술한다. 기술 및 장치는 현재 프리젠팅되는 미디어 프로그램에 대한 한 명 또는 많은 사람의 현재 미디어 반응을 수신하고 미디어 반응에 기초하여 미디어 프로그램에 존재할 뒷부분을 결정할 수 있다. 어떤 실시예에서, 예를 들어, 프로그램은 라이브로 프리젠팅될 수 있고, 반응은 라이브 프리젠팅 동안 수신될 수 있고, 이들 반응에 기초하여 프로그램이 그때 그때 및 실시간으로 변경된다. 또한, 변경은 그룹 또는 특정한 사람에게 일반적이거나 맞추어질 수 있다.

Description

현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정{DETERMINING A FUTURE PORTION OF A CURRENTLY PRESENTED MEDIA PROGRAM}
현재, 광고주 및 미디어 제공자는 일반적으로 프로그램을 출시하기 전에 광고 및 다른 미디어 프로그램을 종종 테스트한다. 예를 들어, 미디어 제공자는 작은 규모의 청중에게 시트콤(situation comedy)을 보여주고, 청중은 그 후 조사 결과 또는 손 추적(hand-tracked) 정보 로그를 통해 피드백을 제공할 수 있다. 그러나, 이들 조사 및 로그는 종종 부정확하다. 청중은 예를 들어 24분 프로그램 중 3분에서 웃기는 농담을 기억하지 않을 수 있다. 그리고, 결과가 약간의 정밀도를 갖는 경우에도, 청중의 규모는 일반적으로 작고, 이는 프로그램이 일반적으로 출시(release)될 때 어떻게 받아들여질지를 신뢰성있게 나타낼 수 없다.
미디어 제공자는 또한 제어된 환경에서 프로그램을 프리젠팅하는 동안 청중의 침습적인 생체 측정 테스트(invasive biometric testing)를 통해 프로그램을 테스트할 수 있다. 이 테스트는 더 정확할 수 있지만 청중 규모는 심지어 조사 및 로그 테스트보다 작다. 그리고, 심지어 이 테스트는 테스트가 발생하는 제어된 환경에 부분적으로 기인하여 매우 부정확할 수 있는데, 사람은 자신의 집에서 휴식을 취할 때 보다 전기 테스트 장치에 고정된 사운드 룸에 있을 때 웃을 가능성이 작다.
또한, 이들 경우 중 어느 경우에도, 프로그램을 바꾸는데 있어서의 시간 지연이 상당할 수 있다. 새로운 프로그램을 레코딩하거나 현재 프로그램을 변경하는데 수일 또는 수주일이 걸릴 수 있고, 이것이 완료된 경우에도, 변경된 프로그램이 다시 테스트되어, 프로그램의 출시(release)를 더 지연시킬 수 있다.
본 문서는 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치를 기술한다. 기술 및 장치는 현재 프리젠팅되는 미디어 프로그램에 대한 한 명 이상의 사람의 현재 미디어 반응을 수신하고 미디어 반응에 기초하여 미디어 프로그램에서 프리젠팅할 뒷부분(later portions)을 결정할 수 있다. 어떤 실시예에서, 예를 들어, 프로그램은 라이브로 프리젠팅될 수 있고, 반응은 라이브 프리젠팅 동안 수신될 수 있고, 이들 반응에 기초하여 프로그램이 그때 그때(on the fly) 및 실시간으로 변경된다. 또한, 변경은 일반적이거나, 그룹 또는 특정한 사람에게 맞추어질 수 있다.
이 개요는 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하는 간략화된 개념을 도입하기 위하여 제공되며, 이는 이하의 상세한 설명에서 더 기재된다. 이 개요는 특허 청구되는 대상의 필수적인 특징을 식별하는 것으로 의도되지 않고 특허 청구되는 대상의 범위를 결정하는데 사용되는 것으로 의도되지 않는다.
현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치의 실시예를 다음의 도면을 참조하여 설명한다. 도면에 걸쳐 동일한 번호는 동일한 특징 및 컴포넌트(component)를 참조하는데 사용된다.
도 1은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 뿐만 아니라 다른 기술이 구현될 수 있는 예시적인 환경을 나타내는 도면.
도 2는 도 1의 청중에 국부적인 예시적인 컴퓨팅 장치를 나타내는 도면.
도 3은 도 1의 청중으로부터 원격인 예시적인 원격 컴퓨팅 장치를 나타내는 도면.
도 4는 수동적 센서 데이터에 기초하여 미디어 반응을 결정하는 예시적인 방법을 나타내는 도면.
도 5는 미디어 프로그램을 프리젠팅하는 동안 한 명의 사용자 및 40개의 기간들 동안의 관심 레벨인 미디어 반응의 시간 기반 그래프.
도 6은 반응 이력을 형성하는 예시적인 방법을 나타내는 도면.
도 7은 복수의 잠재적인 광고 중 어느 광고가 프리젠팅될지를 결정하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 예시적인 방법을 나타내는 도면.
도 8은 프로그렘이 프리젠팅됨에 따라 프로그램의 부분에 걸쳐 미디어 프로그램에 대한 현재 미디어 반응을 나타내는 도면.
도 9는 광고주로부터의 입찰(bids)에 기초하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 예시적인 방법을 나타내는 도면.
도 10은 도 3의 통신 네트워크를 통해 복수의 광고주에게 정보를 전달하는 도 2 및 3의 광고 모듈을 나타내는 도면.
도 11은 현재 미디어 반응이 일어난 장면을 즉시 따르는 것을 포함하는 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법을 나타내는 도면.
도 12는 미디어 프로그램을 사용자에게 프리젠팅하는 동안 수동적으로 감지된 센서 데이터에 기초하여 결정된 사용자의 현재 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 13은 인구 통계, 반응 이력의 일부, 현재 미디어 반응 및 미디어 프로그램에 대한 정보가 도 2 및/또는 3의 컴퓨팅 장치로부터 수신되는 도 3의 원격 장치를 나타내는 도면.
도 14는 미래 부분이 명시적으로 요청된 미디어 반응에 대한 응답인 경우를 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 15는 복수의 사용자의 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법을 나타내는 도면.
도 16은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 뿐만 아니라 다른 기술이 구현될 수 있는 예시적인 장치를 나타내는 도면.
개요
본 문서는 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치를 기술한다. 이들 기술 및 장치는 그 프로그램을 프리젠팅하는 동안 미디어 프로그램의 부분에 대한 변경(alternation) 또는 그 결정을 가능하게 한다.
예를 들어, 수천명의 많은 시청자에게 시트콤 프로그램이 프리젠팅되는 것을 고려한다. 이 시트콤의 미디어 제공자가 시트콤 내의 특정 포인트(point)들에서 프리젠팅될 복수의 부분, 즉, 19분에서 3개의 상이한 장면 및 프로그램의 끝에서는 4개의 상이한 엔딩 장면을 미리 준비한 것으로 가정한다. 본 기술은 프리젠팅하는 동안 미디어 반응에 기초하여 3개의 장면 중 어느 것이 19분에서 프리젠팅될지, 4개의 상이한 장면 중 어느 것이 끝에서 프리젠팅될지를 결정할 수 있다. 어떤 장면이 프리젠팅될지는 수천의 시청자로부터 등의 이전 장면에 대한 많은 미디어 반응 또는 사람 또는 인구학적 그룹의 반응에 기초할 수 있다. 이렇게 함으로써, 본 기술은 모든 사람에 대한 프로그램을 변경하거나 프로그램을 그룹 또는 특정 사람에 맞출 수 있다. 따라서, 본 기술은 신체 코미디(physical comedy)를 갖는 이전의 장면에 대한 18 내지 34세의 남자 그룹의 반응에 기초하여 19분에서 이 그룹의 남자에게 신체 코미디를 갖는 장면을 프리젠팅하고, 캐릭터에 대한 이전 장면에 대한 35 내지 44세의 여자 그룹의 반응에 기초하여 이 그룹의 여자에게 캐릭터 개발(character development)을 나타내는 장면을 프리젠팅하고, 현재 프로그램을 보고 있는 모든 그룹으로부터의 다양한 반응에 기초하여 4개의 가능한 엔딩 중의 하나를 모든 청중에게 보여줄 수 있다.
이것은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및/또는 장치가 어떻게 수행될 수 있는지의 일 예이다. 기술 및/또는 장치는 콘텍스트(context)에 의해 허용되는 "기술"과 개별적으로 또는 함께 참조된다. 이 문서는 기술이 구현될 수 있는 예시적인 환경 및, 요구되지 않지만, 기술과 함께 동작할 수 있는 다양한 예시적인 방법에 의지한다. 이들 다양한 방법 중의 일부는 미디어에 대한 반응을 감지하고, 사용자에 대한 반응 이력을 형성하고 현재 반응에 기초하여 광고를 프리젠팅하는 방법을 포함한다. 이들 다양한 방법 후에, 본 문서는 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 예시적인 방법에 의지한다.
예시적인 환경
도 1은 센서 데이터를 수신하고 이 센서 데이터에 기초하여 미디어 반응을 결정하는 예시적인 환경(100)을 나타낸다. 이들 미디어 반응은 현재 프리젠팅된 미디어 프로그램의 미래 부분 뿐만 아니라 다른 사용을 결정하는데 사용될 수 있다. 본 기술은 이들 미디어 반응을 단독으로 사용하거나 인구 통계, 반응 이력 및 미디어 프로그램 또는 그 부분에 대한 정보 등의 다른 정보와 결합하여 사용할 수 있다.
환경(100)은 미디어 프리젠팅 장치(102), 청중 감지 장치(104), 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110) 및 사용자 인터페이스(112)를 포함한다.
미디어 프리젠팅 장치(102)는 한 명 이상의 사용자(116)를 갖는 청중(114)에게 미디어 프로그램을 프리젠팅한다. 미디어 프로그램은 텔레비전 쇼, 영화, 뮤직 비디오, 비디오 클립, 광고, 블로그, 사진, 웹 페이지, 이북(e-book), 이-매거진(e-magazine), 컴퓨터 게임, 노래, 트윗(tweet), 또는 다른 오디오 및/또는 비디오 미디어를 단독 또는 조합하여 포함할 수 있다. 청중(114)은 하나의 청중(114) 내이든 별도이든 청중 감지 장치(104)에 의한 측정 및 미디어 프리젠팅 장치(102)에 의해 프리젠팅된 미디어 프로그램의 소비가 가능한 위치에 있는 한 명 이상의 사용자(116)를 포함할 수 있다. 청중(114)에는, 3명의 사용자, 즉, 사용자(116-1), 사용자(116-2) 및 사용자(116-3)가 도시된다.
청중 감지 장치(104)는 청중(114)을 감지하고 청중(114)에 대한 센서 데이터를 상태 모듈(106) 및/또는 관심 모듈(108)에 제공할 수 있다(도시된 센서 데이터(118)는 화살표로 제공된다). 감지된 데이터는 수동적, 능동적 및/또는 명시적 요청에 응답하여 감지될 수 있다.
수동적으로 감지된 데이터는 사용자의 측정에 있어서 사용자의 능동적인 참여를 요구하지 않음으로써 수동적이다. 능동적으로 감지된 데이터는 손으로 쓴 로그를 갖는 등의 청중 내의 사용자에 의해 기록된 데이터 및 청중 내의 사용자가 착용한 생체 인식 센서를 통해 사용자로부터 감지된 데이터를 포함한다. 명시적 요청에 응답하여 감지된 센서 데이터는 능동적으로 또는 수동적으로 감지될 수 있다. 일 예는 광고 동안 사용자가 메일로 사용자에게 전송될 제품의 무료 샘플을 위한 쿠폰을 원하면, 사용자가 자신의 손을 들것을 요청하는 광고이다. 이 경우, 사용자가 손을 드는 반응을 표현할 것이나, 이것은 사용자가 반응의 측정에 능동적으로 참여하는 것을 요구하지 않음으로써 수동적으로 감지될 수 있다. 본 기술은 아래 설명된 다양한 방식으로 들어 올린 손을 감지한다.
센서 데이터는 사용자 또는 청중 공간(예를 들어, 긴의자, 벽 등)에서 방출 적외광을 바운스하고 복귀 광을 감지하는 적외선 센서 등의 청중 감지 장치(104)에 의해 전송된 방출광 또는 다른 신호를 이용하여 감지된 데이터를 포함할 수 있다. 사용자를 측정하는 센서 데이터 및 측정될 수 있는 방법의 예는 이하에서 상세히 설명한다.
청중 감지 장치(104)는 상태 모듈(106) 및/또는 관심 모듈(108)에 센서 데이터를 제공하기 전에 처리하거나 처리하지 않을 수 있다. 따라서, 센서 데이터는 RGB(red, green, blue) 프레임; 적외선 데이터 프레임; 깊이 데이터; 심박동수; 호흡수; 사용자의 머리 배향(orientation) 또는 이동(예를 들어, 3차원 좌표(x, y, z) 및 3개의 각, 피치(pitch), 틸트(tilt) 및 흔들림(yaw)); 얼굴(예를 들어, 눈, 코 및 입) 배향, 이동 또는 폐쇄(occlusion); 골격 배향, 이동 또는 폐쇄; 만약에 있다면, 어떤 사용자 또는 어떤 단어를 말했는지를 직접 나타내거나 어떤 사용자로부터 오디오가 발신했는지를 결정하기에 충분한 배향을 나타내는 정보를 포함할 수 있는 오디오; 사용자(116) 중 한 명의 존재 및 위치를 결정하거나 표시하기에 충분한 열 판독치(thermal readings); 및 청중 감지 장치(104) 또는 미디어 프리젠팅 장치(102)로부터의 거리 등의 원 데이터(raw data) 또는 처리된 데이터이거나 이것들을 포함할 수 있다. 어떤 경우, 오디오 감지 장치(104)는 (적외선 센서에 더하여) 적외선 센서(웹캠, 키넥트(Kinect) 카메라), 스테레오 마이크로폰 또는 지향된(directed) 오디오 마이크로폰 및 열 판독기(thermal reader)를 포함하지만, 다른 감지 장치가 또한 사용되거나 대신 사용될 수 있다.
상태 모듈(106)은 센서 데이터를 수신하고 센서 데이터에 기초하여 (화살표로 표시된) 청중(114) 내의 사용자(116)의 상태(120)를 결정한다. 상태는 예를 들어 슬픔, 대화, 혐오감, 두려움, 스마일링, 노려봄, 차분함, 놀람, 화남, 웃음, 비명, 박수, 흔들기(waving), 환호, 얼굴 돌리기(looking away), 앞을 보기(looking toward), 멀리 기대기(leaning away), 앞으로 기대기(leaning toward), 잠, 또는 떠남(departed) 등 어느 것이든 포함한다.
대화 상태는 미디어 프로그램에 관한 대화(관련된 대화) 또는 미디어 프로그램과 관련되지 않은 대화(관련되지 않은 대화) 등의 스피치(speech)의 내용에 기초한 서브카테고리를 포함할 수 있지만 사용자가 말하는 것을 나타내는 일반적인 상태일 수 있다. 상태 모듈(106)은 스피치 인식을 통해 어떤 대화 카테고리인지를 결정할 수 있다.
상태 모듈(106)은 또한 또는 대신에 센서 데이터에 기초하여 사용자의 수, 사용자의 아이덴티티 및/또는 인구학적 데이터(122로 도시됨), 또는 프리젠팅 동안의 참여도(engagement)(124로 도시됨)를 결정할 수 있다. 아이덴티티는 수잔 브라운 등의 청중(114) 내의 사용자(116) 중의 한 명에 대한 고유 아이덴티티를 표시한다. 인구학적 데이터는 5피트 4인치 키, 유아 및 남자 또는 여자 등의 사용자(116) 중의 한 명을 분류한다. 참여도는 사용자의 존재 또는 머리 배향에 기초하여 사용자가 미디어 프로그램에 집중할 가능성이 있는지 여부를 표시한다. 어떤 경우, 참여도는 상태를 결정하는데 사용되는 것과 비교되는 더 낮은 해상도 또는 덜 처리된 센서 데이터로 상태 모듈(106)에 의해 결정될 수 있다. 그렇기는 하지만, 참여도는, 관심 모듈(108)을 이용하여 사용자의 관심을 결정하든 스스로 결정하든 간에, 청중의 측정에 유용할 수 있다.
관심 모듈(108)은 센서 데이터(118) 및/또는 사용자의 참여도 또는 상태(참여도/상태(126)로 화살표로 표시) 및 미디어 프로그램에 대한 정보(미디어 타입(128)에서 화살표로 표시)에 기초하여 미디어 프로그램에 대한 사용자의 관심 레벨(130)(화살표로 표시)을 결정한다. 관심 모듈(108)은 예를 들어 심각한 드라마로 의도된 미디어 프로그램에 대한 복수의 웃음 상태가 낮은 관심 레벨을 나타내고 역으로 코미디로 의도된 미디어 프로그램에 대한 복수의 웃음 상태는 높은 관심 레벨을 나타내는 것으로 결정할 수 있다.
도 1에 도시된 바와 같이, 상태 모듈(106) 및/또는 관심 모듈(108)은 도 1에서 화살표로 표시된 다음의 미디어 반응, 즉, 참여도(124), 상태(120) 또는 관심 레벨(130) 중의 하나 이상 뿐만 아니라 인구 통계/아이덴티티(122)를 제공한다. 이들 미디어 반응 중의 하나 이상에 기초하여, 상태 모듈(106) 및/또는 관심 모듈(108)은 또한 시청률(예를 들어, 좋아요(thumbs up) 또는 별 3개) 등의 미디어 프로그램에 대한 전체 미디어 반응이라는 다른 타입의 미디어 반응을 제공할 수 있다. 그러나, 어떤 경우, 미디어 반응이 수신되고 대신에 전체 미디어 반응이 인터페이스 모듈(110)에 의해 결정될 수 있다.
상태 모듈(106) 및 관심 모듈(108)은, 요구되지 않더라도, 청중(114) 및, 따라서, 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)에 국부적일 수 있다. 상태 모듈(106) 및 관심 모듈(108)이 청중(114)에 국부적인 예시적인 실시예가 도 2에 도시된다. 그러나, 어떤 경우, 상태 모듈(106) 및/또는 관심 모듈(108)은 청중(114)로부터 멀고, 이는 도 3에 도시된다.
인터페이스 모듈(110)은 미디어 반응 및 인구통계/아이덴티티 정보를 수신하고 반응이 어떤 미디어 프로그램 또는 그 부분에 관련되는지에 대한 어떤 표시를 결정하거나 수신한다. 인터페이스 모듈(110)은, 요구되지 않을지라도, 사용자 인터페이스(112)를 통해 미디어 반응(132)을 미디어 프로그램에 프리젠팅하거나 프리젠팅되도록 한다. 이 미디어 반응은 상술한 반응 중의 임의의 것일 수 있고, 그 일부는 반응을 나타내는 아바타 또는 반응 동안 레코딩된 사용자의 비디오 또는 오디오를 통해 시간 기반 그래프로 프리젠팅되고, 이들 중의 하나 이상은 연관된 미디어 프로그램 동안 사용자의 반응이 어떤지에 대하여 효과적이다.
한 사용자가 자신의 미디어 반응 또는 가족 구성원의 반응을 보고 있는 경우 등에서, 인터페이스 모듈(110)은 청중(114)에 국부적(local) 수 있다. 그러나, 많은 경우, 인터페이스 모듈(110)은 원격 소스로부터 미디어 반응을 수신한다.
센서 데이터(118)는 사용자가 미디어에 반응하는 콘텍스트(context) 또는 미디어에 대한 시청률 또는 추천이 요청되는 사용자에 대한 현재 콘텍스트를 포함할 수 있다. 따라서, 청중 감지 장치(104)는, 제2 사람이 방에 있거나 제1 사람에 물리적으로 가깝다는 것을 감지할 수 있고, 이는 제1 사람에 대한 콘텍스트일 수 있다. 콘텍스트는 또한 이하의 도 2에 기재된 다른 방식으로 결정될 수 있다.
도 2는 청중(114)에 국부적인 예시적인 컴퓨팅 장치(202)를 나타낸다. 컴퓨팅 장치(202)는 미디어 프리젠팅 장치(102), 청중 감지 장치(104) 또는 하나 이상의 프로세서(204) 및 컴퓨터 판독가능 저장 매체(computer-readable storage media; CRM)(206)로의 액세스를 포함하거나 갖는다.
CRM(206)은 운영 체제(208), 상태 모듈(106), 관심 모듈(108), 각각 연관된 프로그램 정보(212) 및 부분(214)을 포함하거나 가질 수 있는 미디어 프로그램(들)(210), 인터페이스 모듈(110), 사용자 인터페이스(112), 이력 모듈(216), 반응 이력(218), 복수의 광고(222)를 포함할 수 있는 광고 모듈(220) 및 부분 모듈(224)을 포함한다.
미디어 프로그램(210)의 각각은 프로그램 정보(212) 및 부분(214)을 갖거나 포함하거나 그와 연관될 수 있다. 프로그램 정보(212)는 이름, 타이틀, 에피소드, 작가 또는 아티스트, 프로그램 타입 및 각 미디어 프로그램(210) 내의 다양한 부분에 관련된 것을 포함하는 다른 정보를 표시할 수 있다. 따라서, 프로그램 정보(212)는 미디어 프로그램(210) 중의 하나가 음악 비디오이고, 4번 반복된 코러스 부분을 포함하고, 4절 부분을 포함하고, 아티스트 노래하기, 백보컬 댄스, 음악 비디오의 이름, 아티스트, 생산 년도, 해상도 및 포맷팅 데이터 등의 노래 동안 각각의 시각적 프리젠팅에 기초한 부분을 포함하는 것을 나타낼 수 있다.
미디어 프로그램(210) 중의 하나의 부분(214)은 프로그램을 만들거나 프로그램을 만드는데 잠재적으로 사용될 수 있다. 이들 부분은 이전 부분 엔딩에 기초하여 프로그램에 위치할 수 있을지라도 (그 부분 엔딩이 반드시 미리 설정되지 않는 시간일지라도) 미디어 프로그램 내의 특정 시간 범위를 나타낼 수 있다. 예시적인 부분은 15초 길이 부분, 라디오 같은 프로그램에서 재생되는 노래 또는 영화의 한 장면일 수 있다. 이들 부분(214)은 특정 순서로 배치 및/또는 설정될 수 있고, 이 경우, 부분(214)의 하나 이상은 미디어 반응에 응답하여 부분 모듈(224)에 의해 대체될 수 있다. 대신 이들 부분(214)은 미리 설정된 순서 없이 미리 준비될 수 있다. 따라서, 30초 광고 등의 미디어 프로그램은 이전에 설정된 제1 10초 부분을 갖고, 예를 들어 10초의 5개의 다른 제2 부분 및 10초의 15개의 다른 제3 부분을 가질 수 있다. 이러한 경우, 11초로부터 20초까지 어떤 부분이 플레이되는지는 제1 10초 부분에 대한 사람의 미디어 반응에 기초할 수 있다. 따라서, 제1 부분 및 제2 부분에 대한 사용자(또는 많은 사람)의 반응에 기초하여 21초부터 30초까지 재생되는 제3 부분이 결정될 수 있다.
위에서 부분적으로 기재된 바와 같이, 부분 모듈(224)은 미디어 프로그램(210) 중의 하나의 일부에 대한 사용자, 사용자 그룹 또는 많은 사용자의 현재 미디어 반응 또는 반응들을 수신한다. 이들 미디어 반응은 참여도(124), 상태(120) 및 관심 레벨(130) 중의 하나 이상을 포함할 수 있다. 이들 미디어 반응으로, 부분 모듈(224)은 현재 프리젠팅되는 미디어 프로그램의 프리젠팅할 미래 부분을 결정할 수 있다. 이 결정은 미디어 프로그램의 프리젠팅 동안 실시간으로 수행되어 광고의 동일 프리젠팅의 초기 부분에 대한 현재의 반응에 기초하여 짧은 광고의 미래 부분을 결정하기에 훨씬 효과적일 수 있음에 주의해야 한다. 이들 미래 부분은 미리 국부적으로 또는 원격으로 저장될 수 있다. 프리젠팅될 미래 부분은 원격 소스로부터 현재 프리젠팅된 미디어 프로그램의 뒷부분을 스트리밍함으로써 동시에 로컬 스토어 또는 원격 소스로부터 수신될 수 있다. 도 2 및 3에 도시된 바와 같이, 미디어 프로그램(210), 부분(214) 및 부분 모듈(224)은 컴퓨팅 장치(202) 및 미디어 반응을 갖는 사용자 또는 사용자들(예를 들어, 도 1의 청중(114)의 사용자(116-1))에 국부적이거나 원격일 수 있다.
이력 모듈(216)은 반응 이력(218)에 대한 액세스를 포함하거나 갖는다. 이력 모듈(216)은 미디어 프로그램에 대한 사용자(또는 후술하는 바와 같이 다른 사람들)에 의한 진행중인 반응에 기초하여 반응 이력(218)을 형성하고 업데이트할 수 있다. 어떤 경우, 이력 모듈(216)은 사용자에 대한 다양한 콘텍스트를 결정하지만, 이는 대신 다른 엔티티로부터 결정되고 수신될 수 있다. 따라서, 어떤 경우, 이력 모듈(216)은 미디어 프로그램에 대한 사용자의 반응 또는 미디어 프로그램에 대한 시청률 또는 추천에 대한 요청 동안 시간, 장소(locale), 장소의 날씨 등을 결정한다. 이력 모듈(216)은 사용자 및 반응 이력(218)에 대한 현재 콘텍스트에 기초하여 미디어에 대한 시청률 및/또는 추천을 결정할 수 있다. 다른 곳에 기재된 바와 같이, 반응 이력(218)은 미디어 반응과 함께 사용되어 프리젠팅될 미디어 프로그램의 미래 부분을 결정할 수 있다.
광고 모듈(220)은 참여도(124), 상태(120) 또는 관심 레벨(130) 중의 하나 이상 등의 사용자의 현재 미디어 반응을 수신한다. 이 현재 미디어 반응으로, 광고 모듈(220)은 사용자에게 프리젠팅될 복수의 광고(222) 중의 하나의 광고를 결정할 수 있다. 광고 모듈(220)은 또한 또는 대신에 광고주에게 현재 미디어 반응을 제공하고, 광고를 프리젠팅할 권한에 대하여 광고주로부터 입찰을 수신하고, 광고가 사용자에게 프리젠팅되도록 할 수 있다. 이 광고는 광고(222) 중의 하나로서 미리 저장되거나 광고가 프리젠팅되어야 하는 것을 나타내는, 다른 가격 결정 구조 또는 가장 높은 입찰인 수반되는 입찰에 응답하여 원격 소스로부터 광고를 스트리밍함으로써 동시에 수신될 수 있다. 이들 경우 중 어느 경우에도, 광고 모듈(220)은 컴퓨팅 장치(202) 및 사용자(예를 들어, 도 1의 청중(114)의 사용자(116-1)에 국부적이거나 원격일 수 있다.
이 예에서, 미디어 프리젠팅 장치(102), 청중 감지 장치(104), 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및 부분 모듈(224)를 포함하는 엔티티는 디스플레이, 전방 대면 카메라, 마이크로폰, 오디오 출력 등을 갖는 데스크탑 컴퓨터 등의 단일 컴퓨팅 장치 내에 포함된다. 그러나, 이들 엔티티의 각각은 하나 또는 복수의 컴퓨팅 장치에서 서로 떨어져 있거나 통합될 수 있다. 이하에서 부분적으로 설명하는 바와 같이, 미디어 프리젠팅 장치(102)는 청중 감지 장치(104)와는 통합되지만 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 또는 부분 모듈(224)로부터 떨어져 있을 수 있다. 또한, 이들 모듈의 각각은 개별 장치 상에서 동작하거나 한 장치에서 결합될 수 있다.
도 2에 도시된 바와 같이, 컴퓨팅 장치(들)(202)는 여기에서 6개의 예, 즉 랩탑 컴퓨터(202-1), 태블릿 컴퓨터(202-2), 스마트폰(202-3), 셋탑박스(202-4), 데스크탑(202-5) 및 게임 시스템(202-6)으로 도시된 다양한 장치 중의 하나 또는 그 조합일 수 있지만, 컴퓨팅 능력을 갖는 텔레비전, 넷북 및 셀룰러 폰 등의 다른 컴퓨팅 장치 및 시스템이 또한 사용될 수 있다. 이들 컴퓨팅 장치(202) 중의 3개는 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)를 포함하는 것에 주의해야 한다(랩탑 컴퓨터(202-1), 태블릿 컴퓨터(202-2), 스마트폰(202-3)). 하나의 장치는 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)를 배제하지만 그와 통신한다(데스크탑(202-5)). 2개의 다른 장치는 미디어 프리젠팅 장치(102)를 배제하고 청중 감지 장치(104)가 미디어 프리젠팅 장치(102) 내에 포함되는 경우에서처럼 청중 감지 장치(104)를 포함하거나 포함하지 않을 수 있다(셋탑 박스(202-4) 및 게임 시스템(202-6)).
도 3은 청중(114)에 멀리 떨어진 예시적인 원격 컴퓨팅 장치(302)를 나타낸다. 도 3은 또한 원격 컴퓨팅 장치(302)가 청중 감지 장치(104)(도시되지 않지만, 컴퓨팅 장치(202) 내에서 구현되거나 그와 통신한다), 인터페이스 모듈(110), 이력 모듈(216)(반응 이력(218)을 포함하거나 배제), 광고 모듈(220)(광고(222)를 포함하거나 배제) 및 부분 모듈(224)과 통신하는데 사용되는 통신 네트워크(304)를 나타내고, 이들 엔티티는 도 2에 도시된 바와 같이 컴퓨팅 장치(202) 내에 있는 것으로 가정한다. 통신 네트워크(304)는 인터넷, 로컬 에어리어 네트워크, 와이드 에어리어 네트워크, 무선 네트워크, USB 허브, 컴퓨터 버스, 다른 모바일 통신 네트워크 또는 그 조합일 수 있다.
원격 컴퓨팅 장치(302)는 하나 이상의 프로세서(306) 및 원격 컴퓨터 판독가능 저장 미디어(원격 CRM)(308)를 포함한다. 원격 CRM(308)은 상태 모듈(106), 관심 모듈(108), 연관된 프로그램 정보(212) 및/또는 부분(214)을 각각 포함하거나 갖는 미디어 프로그램(들)(210), 이력 모듈(216), 반응 이력(218), 광고 모듈(220), 광고(222) 및 부분 모듈(224)을 포함한다.
도시된 예에서, 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)는 물리적으로 상태 모듈(106) 및 관심 모듈(108)로부터 물리적으로 떨어져 있고, 미디어 프리젠팅 장치(102) 및 청중 감지 장치(104)는 미디어 프로그램을 보는 청중에 국부적이고, 상태 모듈(106) 및 관심 모듈(108)은 원격으로 동작한다. 따라서, 센서 데이터는 가국부적으로(도 2) 또는 원격으로(도 3) 통신할 수 있는 청중 감지 장치(104)로부터 상태 모듈(106) 또는 관심 모듈(108) 중의 하나 또는 둘다로 전달된다. 또한, 상태 모듈(106) 및/또는 관심 모듈(108)에 의한 결정 후에, 다양한 미디어 반응 및 다른 정보가 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및/또는 부분 모듈(224)에 의한 수신을 위해 동일 또는 다른 컴퓨팅 장치(202)로 전달될 수 있다. 따라서, 어떤 경우, 컴퓨팅 장치(202) 중의 첫번째 컴퓨팅 장치는 센서 데이터를 측정하고 그 센서 데이터를 원격 장치(302)에 전달할 수 있고, 그 후, 원격 장치(302)는 모두 네트워크(304)를 통해 다른 컴퓨팅 장치(202)로 미디어 반응을 전달한다.
도 1 내지 3의 엔티티가 동작하고 상호작용하는 방법 뿐만 아니라 이들 및 다른 능력은 이하에서 더 상세히 기재된다. 이들 엔티티는 더 분할, 결합될 수 있다. 도 1의 환경(100) 및 도 2 및 3의 상세 설명은 기재된 기술을 채용할 수 있는 많은 가능한 환경 중의 일부를 나타낸다.
예시적인 방법
수동적 센서 데이터에 기초한 미디어 반응 결정
도 4는 수동적 센서 데이터에 기초하여 미디어 반응을 결정하는 방법(400)을 나타낸다. 여기에 기재된 이들 및 다른 방법은 수행되는 단계를 특정하는 블록의 세트로서 도시되고 각각의 블록에 의해 단계를 수행하기 위하여 도시된 순서로 반드시 제한되는 것은 아니다. 다음의 설명의 일부에서, 도 1의 환경(100) 및 도 2 내지 3의 엔티티를 참조하지만, 이러한 참조는 단지 예이다. 기술은 하나의 장치 상에서 동작하는 하나의 엔티티 또는 복수의 엔티티에 의한 수행으로 제한되지 않는다.
블록(402)은 청중 또는 사용자에 대한 센서 데이터를 감지 또는 수신하고, 센서 데이터는 청중 또는 사용자에게 미디어 프로그램을 프리젠팅하는 동안 수동적으로 감지된다. 이 센서 데이터는 청중 또는 사용자의 콘텍스트를 포함하거나 콘텍스트가 개별적으로 수신될 수 있다.
예를 들어, 청중이 도 1의 3명의 사용자(116), 사용자(116-1, 116-2, 116-3)를 포함하는 경우를 고려한다. 미디어 프리젠팅 장치(102)는 스피커를 갖는 LCD 디스플레이이고, 이를 통해, 미디어 프로그램이 렌더링되고, 디스플레이는 도 2의 셋탑 박스(202-4)와 통신하는 것으로 가정한다. 여기서, 청중 감지 장치(104)는 전방 대면(forward-facing) 고해상도 적외선 센서, RGB 센서, 및 셋탑 박스(202-4) 또는 미디어 프리젠팅 장치(102)와 통합되어 사운드 및 위치(예를 들어, 방향 어레이)를 감지할 수 있는 2개의 마이크로폰이다. 프리젠팅되는 미디어 프로그램(210)은 원격 소스로부터 셋탑 박스(202-4)를 통해 스트리밍되는 믿을 수 없는 가족(Incredible Family)이라는 PG 등급 애니메이션 영화인 것으로 가정한다. 셋탑 박스(202-4)는 영화의 시작시 1개, 3개 광고 블록 내의 3개, 2개의 광고 블록 내의 2개 등의 6개의 광고를 갖는 믿을 수 없는 가족을 프리젠팅한다.
청중(114) 내의 모든 3명 사용자(116)에 대한 센서 데이터가 수신되고, 이 예에서, 제1 사용자(116-1)를 고려한다. 믿을 수 없는 가족을 시청하는 동안, 블록(402)에서 청중 감지 장치(104)가 사용자(116-1)에 대한 다양한 시간 동안 다음의 것들을 측정하고 제공하는 것으로 가정한다.
시간 1, 머리 배향 3도, 낮은 진폭 오디오 및 오디오 없음
시간 2, 머리 배향 24도, 오디오 없음
시간 3, 골격 이동(팔), 고진폭 오디오
시간 4, 골격 이동(팔 및 바디), 고진폭 오디오
시간 5, 머리 이동, 얼굴 특징 변화(20%), 중간 진폭 오디오
시간 6, 세부적인 얼굴 배향 데이터, 오디오 없음
시간 7, 골격 배향(분실), 오디오 없음
시간 8, 얼굴 배향, 호흡수
블록(404)은 미디어 프로그램 동안 센서 데이터에 기초하여 사용자의 상태를 결정한다. 어떤 경우, 블록(404)은 상태에 대한 확률 또는 복수 상태에 대한 복수의 확률을 각각 결정한다. 예를 들어, 블록(404)은 상태가 정확할 것 같지만 전체 확실성보다 작은 것으로 결정할 수 있다(예를 들어, 사용자가 웃을 40% 기회). 블록(404)은 또한 또는 대신 슬픈 또는 차분한 상태 등의 센서 데이터에 기초하여 복수의 상태가 가능하다는 것 및 각각에 대한 확률(예를 들어, 슬픈 상태 65%, 차분한 상태 35%)을 결정할 수 있다.
블록(404)은 또한 또는 대신에 인구통계, 아이덴티티 및/또는 참여도를 결정할 수 있다. 또한, 방법(400)은 이하에서 설명하는 바와 같이 블록(404)을 스킵하고 블록(406)으로 직접 진행할 수 있다.
진행중인 예에서, 상태 모듈(106)은 상기 열거된 센서 데이터를 수신하고 사용자(116-1)에 대한 다음의 대응하는 상태를 결정한다:
시간 1: 전방 보기(Looking toward)
시간 2: 멀리 보기(Looking away)
시간 3: 박수
시간 4: 환호
시간 5: 웃음
시간 6: 스마일링
시간 7: 떠남
시간 8: 잠
시간 1에서, 상태 모듈(106)은, LCD 디스플레이를 직접 보는 것으로부터 사용자(116-1)의 머리가 3도 벗어나는 것을 나타내는 센서 데이터 및 (단지 예로서) 20도 미만의 편차에 대하여 전방 보기 상태를 적용하는 것을 나타내는 규칙에 기초하여 사용자(116-1)의 상태가 미디어 프로그램을 보는 것으로 결정한다. 마찬가지로, 시간 2에서, 상태 모듈(106)은 20도 보다 큰 편차 때문에 사용자(116-1)가 멀리 바라보는 것으로 결정한다.
시간 3에서, 상태 모듈(106)은 사용자(116-1)가 자신의 팔을 골격 운동하고 고진폭 오디오에 기초하여 사용자(116-1)가 박수치는 것으로 결정한다. 상태 모듈(106)은 팔 운동(간략화를 위해 상기에 표시되지 않음)의 타입에 기초하여 박수 및 환호 등의 다른 상태를 구별할 수 있다. 마찬가지로, 시간 4에서, 상태 모듈(106)은 사용자(116-1)에 기인하는 팔 운동 및 고진폭 오디오 때문에 사용자(116-1)가 환호하는 것으로 결정한다.
시간 5에서, 상태 모듈(106)은 사용자(116-1)가 머리 운동을 한다는 센서 데이터, 20%의 얼굴 특징 변화 및 중간 진폭 오디오에 기초하여 사용자(116-1)가 웃는 것으로 결정한다. 다양한 센서 데이터는 입을 열거나 양 눈썹의 상승 등의 얼굴 특징 변화 및 고진폭보다는 중간 진폭인 오디오에 기초하여 비명 등의 상이한 상태를 구별하는데 사용될 수 있다.
시간 6에서, 청중 감지 장치(104)는 원(raw) 센서 데이터를 처리하여, 처리된 센서 데이터를 제공하고, 이 경우, 얼굴 인식 처리하여 세부적인 얼굴 배향 데이터를 제공한다. 오디오가 없는 것과 결합하여, 상태 모듈(106)은 세부 얼굴 배향(입술 꼬리가 올리가거나 눈을 덮은 눈꺼풀의 양)에 기초하여 사용자(116-1)가 스마일링하고 있는 것으로 결정한다.
시간 7에서, 상태 모듈(106)은 사용자(116-1)가 청중 감지 장치(104)로부터 멀리 이동하는 골격 운동을 표시하는 센서 데이터에 기초하여 사용자(116-1)가 떠난 것으로 결정한다. 센서 데이터는, 청중 감지 장치(104)가 골격 또는 머리 판독치가 없는 것을 통해 또는 더이상 수신되지 않는 열 시그너처(thermal signature)를 통해 사용자(116-1)의 존재를 감지하지 않는 경우 등처럼 이를 직접 표시할 수 있다.
시간 8에서, 상태 모듈(106)은 사용자(116-1)의 얼굴 배향이 특정 기간 동안 변하지 않는다(예를 들어, 사용자의 눈이 깜빡이지 않음)는 것을 나타내는 센서 데이터, 변함없이 느린 호흡수에 기초하여 사용자(116-1)가 자고 있는 것으로 결정한다.
이들 8개의 센서 판독치는 설명의 목적으로 간략화된 예이다. 센서 데이터는 다른 곳에 기재된 바와 같이 대규모 데이터를 포함할 수 있다. 또한, 몇 분의 1초 마다 청중을 측정하는 센서 데이터가 수신되어 미디어 프로그램을 프리젠팅하는 동안 수십, 수백 및 수천 기간 동안 세부 데이터를 제공하여, 이로부터 상태 또는 다른 미디어 반응이 결정될 수 있다.
방법(400)으로 되돌아가서, 블록(404)은 사용자의 상태에 더하여, 인구통계, 아이덴티티 및 참여도를 결정할 수 있다. 상태 모듈(106)은 인구통계 및 아이덴티티를 결정하는 센서 데이터를 결정 또는 수신하거나 청중 감지 장치(104)로부터 인구통계 또는 아이덴티티를 수신할 수 있다. 진행중인 예를 계속하여, 사용자(116-1)에 대한 센서 데이터는 사용자(116-1)가 존 브라운(John Brown)이고, 사용자(116-2)가 리디아 브라운(Lydia Brown)이고 사용자(116-3)가 수잔 브라운(Susan Brown)이라는 것을 나타낼 수 있다. 또는, 센서 데이터는 예를 들어 (골격 배향에 기초하여) 사용자(116-1)가 6피트 4인치 키를 갖고 남자라는 것을 나타낼 수 있다. 청중 내의 각 사용자에 개별적으로 기인하는 센서 데이터의 일부를 표시하는 정보를 갖거나 포함하는 센서 데이터가 수신될 수 있다. 그러나, 이 예세서, 청중 감지 장치(104)는 3개의 센서 데이터 세트를 제공하고, 각각의 세트는 센서 데이터와 함께 사용자의 아이덴티티를 표시한다.
블록(404)에서, 기술은 청중 또는 청중 내의 사용자의 참여도를 결정할 수 있다. 주목되는 바와 같이, 이 결정은 사용자의 상태보다 덜 개선될 수 있지만 그럼에도 불구하고 유용하다. 상기 예에 대하여, 사용자(116-2)(리디아 브라운)에 대한 센서 데이터가 수신되고 이 센서 데이터가 머리 및 골격 배향만을 포함하는 것으로 가정한다.
시간 1, 머리 배향 0도, 하부 몸통의 앞에 있는 상부 몸통의 골격 배향
시간 2, 머리 배향 2도, 하부 몸통의 앞에 있는 상부 몸통의 골격 배향
시간 3, 머리 배향 5도, 하부 몸통과 대략 일치하는 상부 몸통의 골격 배향
시간 4, 머리 배향 2도, 하부 몸통보다 뒤에 있는 상부 몸통의 골격 배향
시간 5, 머리 배향 16도, 하부 몸통보다 뒤에 있는 상부 몸통의 골격 배향
시간 6, 머리 배향 37도, 하부 몸통보다 뒤에 있는 상부 몸통의 골격 배향
시간 7, 머리 배향 5도, 하부 몸통보다 앞에 있는 상부 몸통의 골격 배향
시간 8, 머리 배향 1도, 하부 몸통보다 앞에 있는 상부 몸통의 골격 배향
상태 모듈(106)은 이 센서 데이터를 수신하고 리디아 브라운에 대한 다음의 해당 참여도를 결정한다.
시간 1: 참여도 하이
시간 2: 참여도 하이
시간 3: 참여도 중간 하이
시간 4: 참여도 중간
시간 5: 참여도 중간 로우
시간 6: 참여도 로우
시간 7: 참여도 하이
시간 8: 참여도 하이
시간 1, 2, 7 및 8에서, 상태 모듈(106)은 LCD 디스플레이를 직접 보는 사용자(116-2)의 머리의 5도 미만의 편차를 표시하는 데이터 센서 및 (미디어 프리젠팅을 향하여 리디아가 기대고 있다는 것을 나타내는) 하부 몸통의 앞에 있는 상부 몸통의 골격 배향에 기초하여, 리디아가 이들 시간에 믿을 수 없는 가족에 크게 관여(engage)하고 있는 것으로 결정한다.
시간 3에서, 상태 모듈(106)은 리디아가 더이상 앞으로 기대지 않음에 따라 리디아의 참여도 레벨이 떨어지는 것으로 결정한다. 시간(4)에서, 상태 모듈(106)은, 리디아가 뒤로 기대는 것에 기초하여, 리디아가 여전히 믿을 수 없는 가족을 보고 있음에도, 리디아의 미디어에 대한 참여도가 더 떨어진 것으로 결정한다.
시간 5 및 6에서, 상태 모듈(106)은, 리디아가 여전히 뒤로 기대고 살짝 멀리 바라보고(16도) 및 그 후 상당히 멀리 떨어져 바라보는(37도)에 기초하여, 각각 리디아의 참여도가 중간 로우(Medium-Low) 및 로우로 떨어진 것으로 결정한다. 시간 7에서, 리디아가 내용이 흥미진진하거나 매혹적인 것을 표시함에 따라 하이 참여도로 신속히 복귀하여, 미디어 생성자는 이에 관심을 가질 가능성이 있다는 것에 주의해야 한다.
방법(400)은 블록(402)으로부터 블록(406)으로 또는 블록(404)으로부터 또는 블록(404)로부터 블록(406) 또는 블록(408)으로 직접 진행할 수 있다. 블록(406)으로부터 블록(404)으로 진행하면, 기술은 프리젠팅되는 미디어의 타입 및 사용자의 참여도 또는 상태에 기초하여 관심 레벨을 결정한다. 블록(402)으로부터 블록(406)으로 진행하면, 기술은, 반드시 사용자의 참여도 또는 상태를 먼저 또는 독립적으로 결정하지 않고, 프리젠팅되는 미디어 타입 및 사용자의 센서 데이터에 기초하여 관심 레벨을 결정한다.
사용자(116-1 및 116-2)에 대한 상기 예를 계속하여, 블록(406)은 블록(404)에서 사용자(116-1)(존 브라운)에 대한 상태 모듈(106)에 의해 결정된 상태를 수신하는 것으로 가정한다. 존 브라운에 대한 상태 및 미디어 프로그램에 대한 정보에 기초하여, 관심 모듈(108)은 전체 또는 시간에 걸쳐 믿을 수 없는 가족에 대한 관심 레벨을 결정한다. 믿을 수 없는 가족은 어드벤처 및 코미디 프로그램인 것으로 가정하고, 영화의 일부는 이들 미디어 타입 중의 하나를 갖는 것으로 마크(mark)된다. 단순화해서, 시간 1 및 2는 코미디로 마크되고, 시간 3 및 4는 어드벤처로 마크되고, 시간 5 및 6은 코미디로 마크되고, 시간 7 및 8은 어드벤처로 마크되는 것으로 가정한다. 상태 모듈(106)에 의해 결정된 상태를 다시 논의하여 다음을 다시 고려한다:
시간 1: 전방 보기
시간 2: 멀리 보기
시간 3: 박수
시간 4: 환호
시간 5: 웃음
시간 6: 스마일링
시간 7: 떠남
시간 8: 잠
이들 상태에 기초하여, 상태 모듈(106)은, 시간 1에 대하여 존 브라운이 시간 1에서 콘텐츠에 중간 로우 관심을 갖는 것으로 결정하고, 콘텐츠가 어드벤처 또는 드라마 타입이면, 상태 모듈(106)은 존 브라운이 높은 관심을 갖는 것으로 결정할 수 있다. 그러나, 콘텐츠가 코미디이고 따라서 웃음 또는 스마일 상태를 이끌어내도록 의도됨에 따라, 관심 모듈(108)은 존 브라운이 시간 1에서 중간 로우 관심을 갖는 것으로 결정한다. 마찬가지로, 시간 2에 대하여, 관심 모듈(108)은, 존 브라운의 상태가 웃거나 스마일링하지 않고 멀리 바라보기 때문에 존 브라운이 시간 2에서 낮은 관심을 갖는 것으로 결정한다.
시간 3 및 4에서, 관심 모듈(108)은 이들 시간에 대한 어드벤처 타입 및 박수 및 환호 상태에 기초하여 존 브라운이 높은 관심 레벨을 갖는 것으로 결정한다. 시간 6에서, 코미디 타입 및 존 브라운 스마일링에 기초하여 존 브라운이 이 시간에 중간 관심을 갖는 것으로 결정한다.
시간 7 및 8에서, 관심 모듈(108)은 존 브라운이 매우 낮은 관심을 갖는 것으로 결정한다. 여기서, 미디어 타입은 어드벤처이지만, 이 경우, 관심 모듈(108)이 대부분의 콘텐츠 타입에 대하여 존 브라운의 관심 레벨이 매우 낮은 것으로 결정할 수 있다.
쉽게 알 수 있는 바와 같이, 광고주, 미디어 제공자 및 미디어 생성자가 사용자의 참여도 또는 관심 레벨을 앎으로써 이득을 얻을 수 있다. 여기서, 존 브라운에 대한 인구통계 정보와 함께 믿을 수 없는 가족에 대한 관심 레벨이 시간에 따라 제공되는 것으로 가정한다. 수많은 인구통계학적 유사한 사용자로부터의 이 정보로, 미디어 생성자는 적어도 이 인구통계학적 그룹에 대하여 남자 성인이 어드벤처 콘텐츠의 일부에 관심을 갖지만 코미디 부분의 대부분에 관심이 없다는 것을 학습할 수 있다.
더 세부적인 예로서, 미디어 프로그램의 일부에 걸쳐 40 기간(504)에 대한 관심 레벨(502)을 갖는 시간 기반 그래프(500)를 나타내는 도 5를 고려한다. 여기서, 미디어 프로그램이 기간(18 내지 30)에 다른 미디어 프로그램, 즉, 광고를 포함하는 영화인 것으로 가정한다. 관심 모듈(108)은 도시된 바와 같이 사용자가 중간 관심 레벨로 시작하고 기간(18)까지 중간 및 중간 하이, 하이 및 매우 하이 관심 레벨 사이에서 바운스(bounce)하는 것으로 결정한다. 기간(18 내지 22)을 커버(cover)하는 제1 광고 동안, 관심 모듈(108)은 사용자가 중간 로우 관심 레벨을 갖는 것으로 결정한다. 그러나, 기간(23 내지 28) 동안, 관심 모듈(108)은 (예를 들어, 사용자가 멀리 보고 대화를 하거나 방을 떠나기 때문에) 사용자가 매우 로우 관심 레벨을 갖는 것으로 결정한다. 그러나, 기간(28 내지 32)을 커버하는 마지막 광고 동안, 관심 모듈(108)은 기간(29 내지 32) 동안, 광고의 대부분 동안, 사용자가 중간 관심 레벨을 갖는 것으로 결정한다.
이것은, 사용자가 제1 광고 동안 가만히 있고(stay), 중간 광고 및 마지막 광고의 초기 동안 떠나고, 마지막 공고의 대부분 동안 중간 관심으로 복귀한다는 귀중한 정보일 수 있다. 관심의 분해(resolution) 및 정확도를 영화를 본 사람들 중 얼마나 많은 사람이 광고를 실제로 볼지에 대한 정보 및 관심량을 제공하지 않는 어떤 종래의 접근법과 비교한다. 이 예가 시청자의 공통 경향이면, 블록의 중간의 광고에 대한 가격은 내려가고 다른 광고 가격도 조절될 수 있다. 또는, 광고주 및 미디어 제공자가 예를 들어 단 2개의 광고를 갖는 더 짧은 광고 블록을 재생할 것을 학습할 수 있다. 관심 레벨(502)은 또한 기간(7)에서의 매우 높은 관심 레벨 및 기간(35 내지 38)에서의 줄어드는 관심을 통해 영화의 부분에 대한 귀중한 정보를 제공한다.
어떤 경우, 유용하기는 하지만, 참여도 레벨은 상태 및 관심 레벨보다 덜 유용하거나 덜 정확할 수 있다는 것에 주의해야 한다. 예를 들어, 상태 모듈(106)은, 참여도 레벨에 대하여, 사용자의 얼굴이 폐쇄(차단)되어 미디어 프로그램을 쳐다보지 않으면 사용자가 관여하지 않는 것으로 결정할 수 있다. 사용자의 얼굴이 사용자의 손(골격 배향)에 의해 차단되고 오디오가 높은 볼륨 오디오를 표시하면, 상태를 결정할 때, 상태 모듈(106)은 사용자가 비명지르는 것으로 결정할 수 있다. 비명 상태는, 콘텐츠가 호러 또는 서스펜스인 것과 함께, 관심 레벨이 매우 높은 것을 나타낸다. 이것은 관심 레벨이 참여도 레벨과 현저히 다를 수 있는 일 예이다.
상술한 바와 같이, 방법(400)은 블록(402)으로부터 블록(406)으로 직접 진행할 수 있다. 이러한 경우, 관심 모듈(108)은 단독으로 또는 상태 모듈(106)과 함께 (미디어 프로그램의 상이한 부분에 대한 복수의 미디어 타입을 포함하는) 미디어 타입 및 센서 데이터에 기초하여 관심 레벨을 결정한다. 예로서, 관심 모듈(108)은 골격 운동(팔 및 바디) 및 높은 진폭 오디오를 나타내는 시간 4에서의 존 브라운에 대한 센서 데이터, 코미디, 운동 경기, 분쟁 토대 토크 쇼, 어드벤처 기반 비디오 게임, 트윗 또는 호러 타입에 대하여, 존 브라운이 시간 4에서 높은 관심 레벨을 갖는 것으로 결정할 수 있다. 역으로, 관심 모듈(108)은 드라마, 멜로 드라마 또는 클래식 음악에 대한 시간 4에서의 동일 센서 데이터에 대하여 존 브라운이 시간 4에서 낮은 관심 렙레을 갖는 것으로 결정할 수 있다. 이것은 참여도 레벨 또는 상태를 먼저 결정하지 않고 센서 데이터에 기초하여 수행될 수 있지만, 참여도 레벨 또는 상태 결정도 수행될 수 있다.
블록(408)은 블록(404 또는 406) 후에, 인구통계, 아이덴티티, 참여도, 상태, 및/또는 관심 레벨을 제공한다. 상태 모듈(106) 또는 관심 모듈(108)은 이 정보를 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및/또는 부분 모듈(224) 등의 다양한 엔티티 또는 다른 엔티티에 제공할 수 있다.
미디어 반응이 결정되는 광고의 프리젠팅 후에 이 정보를 광고주에게 제공하는 것은 광고주가 미디어 프로그램 동안 표시되는 자신의 광고의 가치를 측정하도록 하는데 효과적일 수 있다. 이 정보를 미디어 생성자에게 제공하는 것은 미디어 생성자가 유사한 미디어 프로그램 또는 그 부분의 잠재적 가치를 평가하도록 하는데 효과적일 수 있다. 예를 들어, 대중에게 미디어 프로그램을 출시하기 전에 미디어 생성자는 수신되지 않은 미디어 프로그램의 부분을 결정하고 따라서 미디어 프로그램을 변경하여 개선할 수 있다.
이 정보를 레이팅(rating) 엔티티에 제공하는 것은 레이팅 엔티티가 사용자에 대하여 미디어 프로그램을 자동으로 레이팅하도록 하는데 효과적일 수 있다. 미디어 제어기 등의 여전히 다른 엔티티는 정보를 이용하여 미디어 제어 및 프리젠팅을 개선할 수 있다. 로컬 제어기는 예를 들어 청중 내의 모든 사용자가 방을 떠나는 것에 응답하여 미디어 프로그램을 중지할 수 있다.
미디어 반응을 이력 모듈(216)에 제공하는 것은 이력 모듈(216)이 반응 이력(218)을 형성하고 업데이트하는데 효과적일 수 있다. 이력 모듈(216)은 미디어 프로그램에 대한 각 미디어 반응 세트가 수신되는 콘텍스트 또는 콘텍스트들에 기초하여 반응 이력(218)을 형성할 수 있거나, 콘텍스트 내의 미디어 반응들은 전체적으로 또는 부분적으로 미디어 반응의 요소로서 포함될 수 있다. 따라서, 작업후 수요일 밤에 사용자가 텔리비전 쇼를 보는 미디어 반응에 대한 콘텍스트는 사용자가 작업에 의해 피곤할 수 있다는 것을 반영하도록 변경될 수 있다.
여기서 주목되는 바와 같이, 기술은 15초 광고 또는 비디오 토막 마다 대부분의 미디어 프로그램 동안 사용자에 대한 수많은 상태를 결정할 수 있다. 이러한 경우, 블록(404)은 1초 기간에 반복된다.
또한, 상태 모듈(106)은 시간에 따른 사용자에 대한 복수 상태 뿐만 아니라 특정 시간에서의 다양한 상이한 상태를 결정할 수 있다. 사용자는 예를 들어 웃거나 멀리 바라볼 수 있고, 이들은 사용자의 관심 레벨을 결정하는데 사용되거나 결정되고 제공될 수 있는 상태일 수 있다.
상태 모듈(106) 및 관심 모듈(108) 중의 어느 하나 또는 그 둘다는 센서 데이터 또는 미디어 타입에 더하여 이력 데이터에 기초하여 참여도, 상태 및/또는 관심 레벨을 결정할 수 있다. 하나의 경우, 사용자의 이력 센서 데이터가 (예를 들어, 현재 미디어 반응에 대하여 동적으로) 사용자의 참여도, 상태 또는 관심 레벨을 정규화하는데 사용된다. 예를 들어, 수잔 브라운이 미디어 프로그램을 보고 있고 그녀에 대한 센서 데이터가 수신되면, 기술은 그녀의 이력 센서 데이터에 기초하여 그녀에 대한 참여도, 상태 및 관심 레벨을 가장 잘 결정하는 방법을 정규화하거나 학습할 수 있다. 수잔 브라운의 이력 센서 데이터가 그녀가 특히 표현력이 있는(expressive) 사용자 또는 보컬(vocal) 사용자가 아니라는 것을 나타내면, 기술은 이 이력에 대하여 조절할 수 있다. 따라서, 낮은 진폭 오디오는 사용자가 웃었다고 결정하는데 일반적으로 사용되는 더 높은 진폭 오디오와 비교하여 수잔 브라운이 웃었다고 결정하기에 충분할 수 있다.
다른 경우에, 센서 데이터가 수신된 사용자의 이력 참여도, 상태 또는 관심 레벨은 다른 사람의 이력 참여도, 상태 또는 관심 레벨과 비교된다. 따라서, 리디아 브라운에 대한 더 낮은 관심 레벨은 (일반적으로 또는 동일 미디어 프로그램에 대하여) 다른 사람의 관심 레벨과 비교하여 그녀가 본 거의 모든 미디오 프로그램에 대한 높은 관심을 나타내는 것을 표시하는 데이터에 기초하여 결정될 수 있다. 이들의 어떤 경우에도, 기술은 시간에 따라 학습하고, 따라서, 참여도, 상태 및/또는 관심 레벨을 정규화(normalize)할 수 있다.
반응 이력을 형성하는 방법
상술한 바와 같이, 기술은 다양한 미디어 프로그램에 대한 사용자의 참여도, 상태 및/또는 관심 레벨을 결정할 수 있다. 또한, 이들 기술은 수동적 또는 능동적 센서 데이터를 이용하여 그렇게 할 수 있다. 이들 미디어 반응으로, 기술은 사용자에 대한 반응 이력을 형성할 수 있다. 이 반응 이력은 다른 곳에 기재된 바와 같이 다양한 방식으로 사용될 수 있다.
도 6은 미디어 프로그램에 대한 사용자의 반응에 기초하여 반응 이력을 형성하는 방법(600)을 나타낸다. 블록(602)은 사용자의 반응 세트, 복수의 미디어 프로그램을 프리젠팅하는 동안 감지되는 반응 세트 및 각각의 미디어 프로그램에 관한 정보를 수신한다. 미디어 프로그램에 대한 반응의 예시적인 세트가 도 5에 도시되고, 도시된 것은 프로그램이 사용자에게 프리젠팅된 시간 동안의 관심 레벨의 측정치이다.
각각의 미디어 프로그램에 관한 정보는 예를 들어 미디어 이름(예를 들어, 더 오피스(The Office, 에피소드 104) 및 그 타입(예를 들어, 노래, 텔레비전 쇼, 또는 광고) 뿐만 아니라 여기에 기재된 다른 정보를 포함할 수 있다.
미디어 반응 및 그 각각의 미디어 프로그램에 더하여, 블록(602)은 상술한 바와 같이 미디어 프로그램이 프리젠팅되는 동안 사용자에 대한 콘텍스트를 수신할 수 있다.
블록(602)은 다른 사용자로부터 미디어 반응을 수신할 수 있고, 이것으로 반응 이력을 형성한다. 따라서, 이력 모듈(216)은 (사용자에 대한 초기 또는 예비 반응 이력을 형성한 후 또는 부분적으로) 사용자의 미디어 반응에 기초하여 사용자와 유사한 반응을 갖는 다른 사용자를 결정할 수 있다. 이력 모듈(216)은 사용자의 반응과 유사한 반응을 갖는 다른 사람을 결정하고 사용자가 아직 보지 않았거나 듣지 않은 프로그램에 대한 다른 사람의 반응을 이용하여 사용자에 대한 반응 이력을 개선할 수 있다.
블록(604)은 사용자에 대한 반응의 세트 및 각각의 미디어 프로그램에 대한 정보에 기초하여 사용자에 대한 반응 이력을 형성한다. 기재된 바와 같이, 블록(604)은 또한 다른 사람의 반응 이력, 콘텍스트 등을 이용하여 사용자의 반응 이력을 형성할 수 있다. 이 반응 이력은 사용자가 즐길 것 같은 프로그램, 사용자에게 보여지면 효과적일 것 같은 광고를 결정하기 위하여 및 여기에 기재된 다른 목적으로 사용될 수 있다.
현재 미디어 반응에 기초해서 광고를 프리젠팅하기 위한 방법
상술한 바와 같이, 기술은 참여도, 상태 및/또는 관심 레벨 등의 사용자의 현재 미디어 반응을 결정할 수 있다. 다음의 방법은 프리젠팅할 광고를 결정하는데 현재 미디어 반응이 어떻게 이용될 수 있는지를 다룰 수 있다.
도 7은 복수의 잠재적인 광고 중의 어느 광고가 프리젠팅될지를 결정하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법(700)을 나타낸다.
블록(702)은 사용자에게 현재 프리젠팅된 미디어 프로그램에 대한 사용자의 현재 미디어 반응을 수신한다. 현재 미디어 반응은 예를 들면 코미디의 장면에 대한 웃음, 라이브 스포츠 게임의 스포츠 플레이에 대한 환호, 노래 또는 음악 비디오에 대한 댄싱, 드라마 동안의 산만해짐, 영화에 대한 광고 방송을 골똘히(intently) 보는 것 또는 뉴스 프로그램을 보는 방에서 다른 사람과 대화하기 등의 다양한 매체에서의 다양한 종류일 수 있다. 미디어 프로그램은, 동일한 미디어 프로그램 동안 먼저 만들어진 반응 이력 또는 다른 현재 미디어 반응이 최신의 현재 미디어 반응에 더하여 사용될 수 있지만, 이력 미디어 반응보다 도 1의 사용자(116-1) 등의 사용자에게 현재 프리젠팅되는 것이다.
예로서, 도 8은 시간 기반 상태 그래프(800)에 도시된 프로그램이 프리젠팅됨에 따라 프로그램의 일부에 걸쳐 코미디 프로그램(더 오피스, 에피소드 104)에 대한 현재 미디어 반응을 나타내는 도 8을 고려한다. 여기서, 23개의 미디어 반응(802)이 도시되고, 미디어 반응은 상태 모듈(106)로부터 광고 모듈(220)에 의해 수신된 아멜리아 폰드(Amelia Pond)라는 이름을 가진 사용자에 대한 상태이다. 시각적 간략화를 위해, 시간 기반 그래프(800)는 단 4개의 상태, 즉, 웃음(
Figure 112014117665476-pct00001
), 스마일링(
Figure 112014117665476-pct00002
), 관심(
Figure 112014117665476-pct00003
) 및 떠남("X")를 나타낸다.
블록(704)은 미디어 프로그램에 대한 현재 미디어 반응에 기초하여 복수의 잠재적 광고 중의 결정된 광고를 결정한다. 블록(704)은 현재 미디어 반응 뿐만 아니라 사용자에 대한 반응 이력(예를 들어, 아멜리아 폰드에 대한 도 2의 반응 이력(218)), 현재의 미디어 반응에 대한 콘텍스트(예를 들어, 아멜리아 폰드의 위치가 화창하거나 그녀가 학교에서 집으로 돌아감), 사용자의 인구통계(예를 들어, 아멜리아 폰드가 영어를 말하고 미국 워싱턴주 시애틀에 살고 있는 16살의 여성임), 미디어 프로그램의 타입(예를 들어, 코미디) 또는 청중 내의 다른 사용자의 미디어 반응(예를 들어, 아멜리아 폰드의 동생 캘빈 폰드가 특정 방식으로 반응하였음) 등의 다른 정보에 기초하여 어떤 광고가 언제 보여질지를 결정할 수 있다. 블록(704)은 광고를 보여주기 전에 프로그램 내에서 보여지는 마지막 장면에 대한 현재 미디어 반응 직후 어떤 광고를 보여줄지를 결정할 수 있지만, 대신, 블록(704)은 광고 직전에 없는 현재 미디어 반응을 사용하거나 마지막 6개의 미디어 반응 등의 복수의 현재 미디어 반응을 사용할 수 있다.
진행중인 실시예에 계속하여, 현재 미디어 반응은 아멜리아 폰드가 더 오피스의 현재 장면을 보고 웃고 있는 도 8의 반응(804)인 것으로 가정한다. 또한, 장면의 끝의 15초에서, 제1 광고 블록(806)이 시작되는 것으로 가정한다. 이 제1 광고 블록(806)은 1분 길이를 갖고 30초 광고 2개, 즉, 광고 번호 1(808) 및 다른 광고 번호 2(810)를 포함하도록 스케줄링된다.
이 경우, 제1 광고주는 광고 번호 1(808)에 대한 권한을 미리 구입했고 이 지점에 대하여 3개의 상이한 잠재적 광고가 미리 제공되었고, 그중의 하나는 현재 미디어 반응에 기초하여 플레이되는 것으로 가정한다. 따라서, 광고 모듈(220)은 먼저 도 2 또는 도 3의 광고(222)에 적합한 3개의 잠재적인 광고가 있는 것을 확인한다. 여기에서, 광고주는 프로그램이 더 오피스이고 에피소드 104라는 것을 미리 알고 있었다. 이 프로그램은 제1 시간 동안 보고 있고 따라서 다른 사용자의 다른 미디어 반응은 전체 프로그램에 대하여 기록되지 않은 것으로 가정한다. 그러나, 일반적으로 프로그램에 관한 정보에 기초하여, 적절하다면 현재 미디어 반응이 웃음 또는 스마일링이면 하나의 광고가 플레이하기에 적절한 것으로 표시되고, 하나는 반응이 떠남인 경우에 대한 것이고, 다른 하나는 다른 모든 상태에 대한 것이다. 광고주가 큰 자동차 제조자이고 (웃음 또는 스마일링에 대한) 제1 광고가 즐겁고(fun) 빠른 스포츠 카에 대한 것이고, 제2 광고는 사용자가 방을 떠났을때 플레이되기 때문에 사용자가 광고의 청취 거리 내에 있다는 희망을 가지고 제조자의 장점(예를 들어, 데소토(Desoto) 차는 빠르고, 드소토 차는 즐겁고, 드소토 차는 좋은 값어치를 지닌다)을 서술하면서 반복적이고 오디오 포커싱되고, 제3 광고는 인기있고 합리적인 가족용 자동차(family car)에 대한 것으로 가정한다.
이것은 부분적으로 프로그램에 대한 타입 또는 일반적인 정보에 기초하여 현재 미디어 반응을 이용하는 비교적 간단한 경우이다. 광고주는 대신 많은 현재 미디어 반응 뿐만 아니라 사용자에 관한 인구통계 및 사용자의 반응 이력에 20개의 광고를 제공할 수 있다. 따라서, 광고 모듈(220)은 사용자가 34 및 50세의 남자이고 이 나이 그룹의 남자에 대하여 일반적으로 양호한 판매자가 아닌 제조자에 의해 판매된 다양한 차를 배제하는 것에 기초하여 20개의 광고 중의 5개는 잠재적으로 적절한 것으로 결정할 수 있다. 광고 모듈(220)은 또한 사용자가 낚시 쇼(fishing show) 및 자동차 경주 쇼에 긍정적으로 반응한다는 것을 나타내고 트럭 및 스포츠 유틸리티 차량을 보여주는 사용자의 반응 이력에 기초하여 5개 중 2개가 더 적절한 것으로 결정할 수 있다. 마지막으로, 광고 모듈(220)은 사용자가 프로그램에 매우 관여한 것을 나타내고 사용자가 덜 상세하고 더 스타일리스트한 광고보다 오히려 이러한 세부사항을 인식하는것에 충분한 관심을 갖는다는 가정에서 트럭에 대한 세부사항으로 진행하는 트럭에 대한 광고를 보여주는 사용자의 현재 미디어 반응에 기초하여 이들 2개 중의 어느 것이 프리젠팅될지를 결정할 수 있다.
블록(706)은 미디어 프로그램이 프리젠팅된 현재 프리젠팅 기간 동안 또는 미디어 프로그램의 프리젠팅을 완료한 직후에 결정된 광고를 프리젠팅하도록 한다. 블록(706)은 광고를 프리젠팅함으로써 또는 결정된 광고가 프리젠팅되어야 한다는 것을 도 2의 미디어 프리젠팅 장치(102) 등의 프리젠팅 엔티티에 나타냄으로써 결정된 광고가 프리젠팅되도록 할 수 있다. 현재 프리젠팅 기간은 미디어 프로그램을 프리젠팅하기에 충분한 시간량이지만 미리 결정된 수의 광고를 프리젠팅하기에 충분한 시간량 또는 광고를 프리젠팅하는 시간량을 포함할 수 있다.
아멜리아 폰드에 관한 진행중인 실시예를 마치면서 도 8을 다시 고려한다. 여기서, 광고 모듈(220)은 도 2의 미디어 프리젠팅 장치(102)가 아멜리아의 현재 미디어 반응이 웃고 있다는 것에 기초하여 재미있고 신속한 스포츠 카에 대한 제1 광고를 프리젠팅하도록 하였다.
광고 모듈(220)은 자신의 결정을 가장 최근 미디어 반응 이외의 미디어 반응, 이들 반응이 미디어 프로그램에 관한 것이지 또는 예를 들면, 사용자 반응 이력이 기초하는 미디어 프로그램 또는 다른 프로그램에 대한 현재 프리젠팅 기간에 기초할 수 있다. 현재 미디어 반응은 또한 프로그램에 대한 것이 아니라 현재 프리젠팅 기간 동안의 반응에 대하여 수신된 것 일 수 있다. 따라서, 현재 프리젠팅 기간 내의 광고 블록에서 보여주는 이전 광고에 대한 사용자의 반응이 또한 어떤 광고가 프리젠팅되는지를 결정하는데 사용될 수 있다.
방법(700)은 반복될 수 있고, 광고 번호 2(810)는 적어도 부분적으로 광고 반응(812)에 보여지는 "관심 상태"에 기초하여 선택될 수 있다. 따라서, 방법(700)은, 반응이 프로그램에 대한 것이든 광고에 대한 것이든 간에, 현재 프리젠팅 기간 동안 다양한 광고 및 현재 반응에 대하여 반복될 수 있다.
다른 광고 반응, 즉, 제2 광고 반응(814), 제2 광고 블록(820)의 광고 번호 3(818)에 대한 제3 광고 반응(816) 및 광고 번호 4(824)에 대한 제4 광고 반응(822)이 도시된다. 광고 모듈(220)에 의해 프리젠팅될 것으로 결정된 제3 광고는 부분적으로 떠난 상태(826)에 기초하고 프리젠팅될 것으로 결정된 제3 광고는 제3 광고에서 사용자가 웃는 것에 기초할 수 있다. 이들은 현재 미디어 반응이 프리젠팅될 광고를 결정하기 위하여 기술에 의해 사용될 수 있는 몇가지 예일 뿐이다.
선택적으로, 기술은 미디어 프로그램에 대한 현재 미디어 반응에 기초하여 광고에 대한 가격을 결정할 수 있다. 따라서, 광고는 사용자가 현재 떠나는 경우 더 적은 비용이 들거나 사용자가 현재 웃거나 관여하는 경우 더 많은 비용이 들 수 있다. 그 후, 기술은 광고를 프리젠팅하기 위하여 광고의 입찰과 독립적으로 미디어 반응에 기초하여 광고에 대한 가격을 설정할 수 있다. 이러한 경우, 기술은 가장 높은 입찰 구조 또는 입찰 및 결정된 가격의 어떤 조합과 반대로 어떤 광고주가 가격에 동의하거나 동의했는지에 기초하여 광고를 프리젠팅할 수 있다. 입찰 및 결정된 가격의 조합의 일 예는 미디어 반응에 기초하여 기술에 의해 설정된 개방 가격이고, 광고주로부터의 입찰은 개방 가격에 기초하여 입찰한다.
선택적으로, 기술은 사용자가 광고와 명시적으로 상호작용하도록 할 수 있다. 광고는 예를 들어 요청된 미디어 반응에 대한 명시적인 요청을 포함하여 제안을 가능하게 할 수 있다. 따라서, 세부적인 트럭 광고는 사용자의 이메일 또는 집 주소로 전송될 세부적인 판매 책자에 대하여 사용자가 손을 들 것을 요청하는 텍스트 또는 오디오를 포함하거나 배달 피자 체인점에 대한 광고는 현재 플레이되고 있는 축구 게임 동안 배달될 가정 배달 피자를 1/2 오프하는 것에 대하여 사용자가 환호하도록 요청할 수 있다. 사용자가 자신의 손을 들면, 기술은 이 상태를 연관된 광고주에게 전달하고, 그 후, 피자의 1/2 오프에 대한 코드와 함께 사용자에게 가까운 지점(local store)에 대한 광고 내에 디스플레이될 전화 번호를 전송할 수 있다.
도 9는 광고주의 입찰에 기초하는 것을 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법(900)을 나타낸다.
블록(902)은 사용자에게 현재 프리젠팅되는 미디어 프로그램에 대한 사용자의 현재 미디어 반응을 광고주에게 제공한다. 블록(902)은 상태 모듈(106), 관심 모듈(108) 및/또는 광고 모듈(220)에 상술한 다양한 방식으로 수신되거나 결정된 현재 미디어 반응을 제공할 수 있다. 블록(902)은 또한 사용자에 대한 반응 이력 또는 그 일부, 사용자에 대한 인구통계학적 정보, 사용자에게 미디어 프로그램이 프리젠팅되는 콘텍스트 또는 미디어 프로그램에 대한 정보 등의 다른 정보를 제공할 수 있다.
예를 들어, 통신 네트워크(304)를 통해 인구통계(1002), 반응 이력(1004)의 일부, 현재 미디어 반응(1006) 및 미디어 프로그램(1008)에 대한 정보를 광고주(1010)(제1, 제2 및 제3 광고주(1010-1, 1010-2 및 1010-3)를 포함하는 것으로 도시됨)에게 제공하는 광고 모듈(220)을 나타내는 도 10을 고려한다.
인구통계(1002)가 사용자가 한 명의 아이가 있는 결혼한 33살의 여자인 것을 나타내는 것으로 가정한다. 반응 이력(1004)의 일부가 사용자 아이덴티티, 즉, 멜로디 폰드(Melody Pond) 및 공상 과학 프로그램 "올림픽 게임"에 대한 그녀의 선호도 및 영화 예고편, 신발 판매 및 철인 3종 경기(triathlons)에 대한 광고에 대한 이전의 긍정적인 반응을 나타내는 것으로 가정한다. 여기서, 현재 미디어 반응(1006)은 실망(슬픈 상태)을 나타내고 미디어 프로그램(1008)에 대한 정보는, 프로그램이 현재 미디어 반응이 슬픈 상태라는 마지막 부분이 마이클 펠프스(Michael Phelps)가 국제 수영 대회에서 호주 수영선수 이안 소프(Ian Thorp)에게 2위를 하게 했다는 것을 나타내는 수영 대회임을 표시한다.
블록(904)은 광고주로부터 입찰을 수신하고, 입찰은 미디어 프로그램이 프리젠팅되는 현재 프리젠팅 기간 동안 사용자에게 각각의 광고를 프리젠팅할 권한에 관한 것이다. 이 권한은 현재 미디어 반응에 대한 장면 또는 부분이 완료된 후 및 다른 광고가 보여지기 전의 권한 등의 즉시로 광고를 프리젠팅하는 것에 대한 것일 수 있다. 이 권한은 대신 예를 들어 블록 내의 장면 또는 광고 후의 5분 동안 제2 광고 등의 현재 프리젠팅 기간의 뒷부분에 대한 것일 수 있다.
광고가 표시되기 전에 사용자가 슬픈 상태에 있는 상기 예를 고려한다. 어떤 광고주는 이 상태를 갖는 사용자에게 광고를 프리젠팅하는 것에 관심을 갖지 않고, 그래서, 이 광고를 보여줄 권한에 대하여 입찰이 낮지만, 다른 광고주는 슬픈 상태의 사람에게 더 효과적인 광고를 고려할 것이다. 또한, 광고주는 사용자의 인구통계, 반응 이력 및 어떤 프로그램을 보고있는지에 기초하여 값을 고려하고 할당한다. 생명 보험 또는 투자 계획을 판매하는 광고주는, 카펫 청소 제품을 판매하는 광고주보다, 예를 들어, 어린 자녀를 갖는 사용자에 대하여 슬픈 상태 후 직접 보여줄 권리에 대하여 높게 입찰할 가능성이 많다.
이 예에서, 3명의 광고주(1010) 모두가 광고를 보여줄 권리에 대하여 입찰하고 각각의 입찰로 광고(222) 중의 광고에 대한 표시기 또는 광고를 검색하는 유니버셜 리소스 로케이터와 함께 광고 모듈(220)이 광고를 프리젠팅하도록 하기에 충분한 정보를 포함하는 것으로 가정한다.
블록(906)은 미디어 프로그램이 프리젠팅되는 현재 프리젠팅 기간 동안 입찰 중의 하나와 연관된 광고 중의 하나가 사용자에게 프리젠팅되도록 한다. 블록(906)은 어떤 입찰이 가장 높은지를 결정하는 것에 응답하여 광고를 보여주도록 선택할 수 있지만, 가장 높은 입찰이 반드시 요구되는 것은 아니다. 이 예를 결론지으면서, 광고 모듈(220)은 가장 높은 입찰과 연관된 광고가 사용자에게 프리젠팅되도록 한다.
상술한 방법에 더하여, 기술은 어떤 경우 현재 미디어 반응 등을 포함하여 미디어 프로그램의 프리젠팅 동안 존재하는 추가의 사용자의 수를 제공함으로써, 입찰의 사이즈를 증가시킬 수 있다.
또한, 광고 모듈(220)은 보여지는 광고에 대한 미디어 반응을 수신하고 반응에 기초하여 광고에 대한 입찰에 대하여 광고에 대한 비용을 감소 또는 증가시킬 수 있다.
방법(900)은 방법(700)의 예에서 기재된 것과 유사하게 이전의 광고에 대한 현재 미디어 반응에 기초하는 것을 포함하여 나중의 광고에 대하여 전체적으로 또는 부분적으로 반복될 수 있다.
도 11은 현재 미디어 반응이 일어난 장면 직후를 포함하여 현재 미디어 반응에 기초하여 광고를 프리젠팅하는 방법(1100)을 나타낸다.
블록(1102)은 사용자에게 프리젠팅되는 미디어 프로그램의 장면에 대한 현재 미디어 반응에 기초하여 미디어 프로그램의 타입 및 사용자와 연관된 반응 이력, 및 복수의 잠재적인 반응 중의 결정된 광고를 결정한다. 이것이 수행될 수 있는 방법이 상술되었다. 광고주는 웃음 반응 직후 각 광고 배치에 대한 특정 타입의 광고 후에 프리젠팅되는 자신의 광고에 기초하여 5센트 등의 입찰 또는 선불할 수 있음에 주의해야 한다. 또한, 광고가 각 사용자에 대하여 배치되지 않고 대신 일반적으로 또는 그룹마다 (예를 들어 특정 지리적 영역 내의 사람들에게) 배치되면, 입찰 또는 선불은 대신 긍정적인 반응 등의 퍼센티지에 기초하여 가중될 수 있다.
블록(1104)은 미디어 프로그램의 장면의 프리젠팅 완료 직후 결정된 광고가 프리젠팅되도록 한다.
현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법
상술한 바와 같이, 기술은 참여도, 상태 및/또는 관심 레벨 등의 사용자의 현재 미디어 반응을 결정할 수 있다. 다음의 방법은 현재 프리젠팅된 미디어 프로그램 동안 프리젠팅할 미래 부분을 결정하는데 현재 미디어 반응이 어떻게 사용될 수 있는지를 어드레싱한다.
도 12는 미디어 프로그램을 사용자에게 프리젠팅하는 동안 수동적으로 감지된 센서 데이터에 기초하여 결정된 사용자의 현재 미디어 반응에 기초하는 것을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법(1200)을 나타낸다.
블록(1202)은 사용자에게 미디어 프로그램을 프리젠팅하는 동안 미디어 프로그램의 일부에 대한 사용자의 현재 미디어 반응을 수신하고, 미디어 반응은 프리젠팅 동안 수동적으로 감지된 센서에 기초하여 결정된다.
다른 곳에서 상세히 설명하는 바와 같이, 현재 미디어 반응은 코미디의 장면에 대한 웃음, 라이브 스포츠 게임의 스포츠 플레이에 대한 환호, 노래 또는 음악 비디오에 맞춰 댄싱, 드라마 동안의 산만해짐, 영화에 대한 광고 방송을 골똘히 보는 것 또는 뉴스 프로그램을 보는 방에서 다른 사람과 대화하기 등의 다양한 매체에 반응하는 다양한 종류일 수 있다. 미디어 프로그램은 이전에 프리젠팅된 미디어 프로그램보다는 도 1의 사용자(116-1) 등의 사용자에게 현재 프리젠팅되는 것이고, 따라서, 반응은 역사적인 미디어 반응이다. 그러나, 현재 미디어 반응과 함께 역사적 미디어 반응에 기초한 반응 이력이 사용되어 미래 부분을 결정할 수 있다. 또한, 동일한 미디어 프로그램 동안 이전에 이루어진 다른 현재 미디어 반응이 또한 또는 가장 현재의 미디어 반응 대신에 사용될 수 있다.
미디어 반응은 미디어 프로그램의 현재 프리젠팅 동안 수신됨으로써 현재(current)이지만 즉시 또는 동시에 수신되지 않거나 심지어 미디어 프로그램에 대한 가장 최근의 미디어 반응이다. 따라서, 미디어 프로그램의 제4 부분에 대한 현재 미디어 반응은 제6 부분 동안 수신되어 미디어 프로그램에 프리젠팅될 제15 부분을 결정하는데 사용될 수 있다.
예로서, 도 13은 부분 모듈(224)이 구현되어, 도 2의 컴퓨팅 장치(202)로부터 인구통계(1302), 반응 이력(1304)의 일부, 현재 미디어 반응(1306) 및 미디어 프로그램(1308)에 대한 정보를 수신하는 원격 장치(302)를 나타내는 도 13을 고려한다. 부분 모듈(224)은 통신 네트워크(304)를 통해 이 데이터를 수신하고, 응답하여, 컴퓨팅 장치(202)가 이 데이터와 연관된 사용자에게 미디어 프로그램의 특정 미래 부분을 프리젠팅하게 한다.
또한, 예로서, 시간 기반 상태 그래프(800)에 도시된 프로그램이 프리젠팅됨에 따라 프로그램의 일부를 통해 코미디 프로그램(더 오피스, 에피소드 104)에 대한 현재 미디어 반응을 나타내는 도 8을 고려한다. 도 8에 23개의 미디어 반응(802)이 23개의 부분에 대하여 도시되지만, 이 예에서, 14번째, 15번째, 및 16번째 부분에서 스마일링 상태를 나타내는 미디어 반응(828, 830, 832)을 고려한다. 여기서, 이들은 3개의 현재 미디어 반응이고(미디어 반응(832)은 가장 최근임), 17번째 내지 23번째 부분은 아직 프리젠팅되지 않은 것으로 가정한다. 또한, 인구통계(1302)는 더 오피스를 본 사람이 23살 여자인 것을 나타내고, 반응 이력(1304)의 일부는 사람이 일반적으로 코미디를 싫어하지만 공상 과학 영화 및 드라마를 좋아하는 것을 나타내고, 현재 미디어 반응(1306)은 상술한 3개의 스마일링 상태를 포함하고, 미디어 프로그램(1308)에 대한 정보는 프로그램이 더 오피스, 에피소드 104인 것을 나타내고, 현재 미디어 반응은 14번째, 15번째 및 16번째 부분인 것을 나타내는 것으로 가정한다.
블록(1204)은 미디어 반응 및 부분에 기초하여 사용자에게 프리젠팅될 미디어 프로그램의 미래 부분을 결정하고, 미디어 프로그램의 미래 부분은 그 부분보다 미디어 프로그램에서 나중에 발생한다. 이 결정을 함에 있어서, 부분 모듈(224)은 충분한 정보를 수신하거나 그 정보를 이용하여 추가의 정보를 얻을 수 있다. 따라서, 미디어 프로그램(1308)에 대한 정보가 3개의 부분을 나타내고, 부분 모듈(224)이 이들 부분이 쇼 내의 팜(Pam) 캐릭터를 개발하지만 농담이 아니거나 코미디로 의도되지 않는 장면을 어드레싱하는 것으로 결정한다. 사람의 반응(스마일링) 및 이들 부분(팜의 캐릭터 개발)의 주제에 기초하여, 부분 모듈(224)은 예를 들어 프로그램의 끝에서 보여질 다양한 가능한 장면들 사이에서 결정할 수 있다. 부분 모듈(224)은 도 13에 도시된 바와 같이 다른 정보에 기초하여 결정할 수 있다. 부분 모듈(224)은, 일반적으로 코미디를 싫어하고 팜에 대한 장면에 걸쳐 웃는 23세 여자가 드와이트(Dwight)라는 이름을 가진 캐릭터가 종이 트럭에서 떨어지는 신체적 유머를 갖는 장면보다 다른 캐릭터 개발 장면을 즐길것이라고 결정할 수 있다. 여기서, 부분(214)은 23번째 부분에서 더 오피스의 끝에 보여줄 2개의 가능한 미래 부분을 포함하는데, 그 중 하나는 캐릭터가 트럭에서 추락하는 것에 관한 것이고 다른 하나는 팜에 관한 것이다.
블록(1206)은 미디어 프로그램의 현재 프리젠팅 동안 미디어 프로그램의 미래 부분이 사용자에게 프리젠팅되도록 한다. 부분 모듈(224)은 국부적이거나 원격으로 동작할 수 있고 프리젠팅될 부분을 표시하거나 제공할 수 있다. 따라서, 부분 모듈(224)은 통신 네트워크(304)를 통해 컴퓨팅 장치(202)에 콘텐츠 부분 또는 표시(1310)를 전달함으로써 미래 부분의 프리젠팅을 가능하게 할 수 있다. 부분 모듈(224)은, 표시를 수신하면, 컴퓨팅 장치(202)에 국부적으로 저장된(또는 액세스가능한) 이전에 저장된 다양한 부분으로부터 표시에 기초하여 선택할 수 있다.
진행중인 예를 결론지으면서, 도 13의 원격 장치(302)가 셋탑 박스(202-4)를 통해 미디어 프로그램을 스트리밍하고 있고, 따라서, 23번째 부분에서, 드와이트에 대한 장면보다 오히려 팜에 대한 장면을 스트리밍하는 것으로 가정한다.
방법(1200)에 대한 상기 예가 단일 사용자에 관한 것이지만, (예를 들어, 23세 여성 사용자와 함께 보는 동일한 방에서) 사용자에게 물리적으로 국부적인 다른 사람을 포함하여 다른 사용자들의 미디어 반응이 또한 사용될 수 있다. 또한, 동일한 인구통계학적 그룹(예를 들어 18 내지 34세의 여성) 또는 일반적으로 청중(예를 들어 미국 및 캐나다의 동부 표준시 블록에서 제1 쇼 동안 미디어 반응이 수신되는 모든 사람)의 다른 멤버 등의 사용자와 함께 시청하지 않는 다른 사용자의 미디어 반응이 사용될 수 있다.
이 사용자 및 다른 사용자들의 미디어 반응은 현재 프리젠팅되는 미디어 프로그램의 미래 부분을 결정하기 위하여 실시간으로 수신 및 사용되는 것에 주의해야 한다. 따라서, 프로그램은 사람들에게 그때 그때 실시간으로 맞추어져 프로그램의 품질을 개선할 수 있다. 이 예에서, 미디어 프로그램은 이전에 준비된 부분에 기초하여 맞추어지지만, 이것이 요구되는 것은 아니다. 프로그램에서 조기에 프리젠팅된 이전의 촌극의 양호한 반응에 기초하여 촌극을 수행하기 위하여 선택하는 라이브 심야 코미디 쇼 등의 라이브 프로그램은 실시간으로 변경될 수 있다.
도 14는 미래 부분이 명시적으로 요청된 미디어 반응에 대한 응답인 경우를 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법(1400)을 나타낸다.
블록(1402)은 미디어 프로그램 동안, 요청된 미디어 반응에 대한 명시적인 요청을 프리젠팅하거나 프리젠팅하도록 하고, 명시적 요청은 미디어 프로그램의 일부이고 요청된 미디어 반응에 대한 응답을 나타내고, 요청된 미디어 반응은 사용자에 대한 신체적 변화이다. 미디어 반응은 손을 들거나, 환호, 스마일링 등의 설명된 것 중의 하나 이상일 수 있다.
또한, 명시적인 요청은 미디어 프로그램의 일부로서 및 그 내에서 프리젠팅될 수 있다. 따라서, 광고는 광고 텍스트의 일부로 형성되거나 라이브이든 녹화이든 간에, 나레이터가 사용자에게 자동차의 테스트 운전을 준비(arrange)하기 위하여 손을 올릴 것을 요청하는 것 또는 리얼리티 쇼는 호스트가 어떤 캐릭터가 쇼에 남아 있는지를 결정하기 위하여 캐릭터에 대한 환호 또는 야유를 청중에게 요청하는 것을 포함하거나 또는 서스펜스 영화가 사용자가 달리거나 숨거나 나쁜 사람과 싸우도록 요청해야 하는 영화속의 캐릭터를 가질 수 있다.
대안으로, 명시적인 요청이 프리젠팅될 수 있지만 미디어 프로그램에 대하여 중첩된 팝업 윈도우로 미디어 프로그램의 일부로서 또는 그 내에 프리젠팅되지 않을 수 있다.
응답 자체는, 광고 또는 비광고 미디어 프로그램에서, 제품 또는 서비스 등에 대한 정보 또는 쿠폰에 대한 제안 등의 광고에 대한 상술한 것과 유사할 수 있다.
응답은 또한 또는 대신에 프로그램에서 미디어의 상이한 부분을 나중에 프리젠팅하는 것을 포함할 수 있다. 리얼리티 쇼는 "노숙자를 돕는 진저(Ginger) 어드벤처에 대하여 더 보기를 원하면 한 손을 흔들고, 당신이 자전거 가게로의 바트의 트립(Bart's Trip)에 관하여 더 보기를 원하면 양손을 흔들거나 바트에 대한 진저와의 수지의 싸움에 대하여 더 보기를 원하면 환호하라" 등의 캐릭터 또는 상황에 대하여 더 프리젠팅하도록 미디어 반응을 명시적으로 요청할 수 있다. 이 예에서, 응답은 3개의 부분을 갖고(또는 3개의 응답으로 고려될 수 있고), 각각의 미디어 반응에 대한 하나의 응답 또는 서브 응답(sub-response)은 여기서 진저의 어드벤처, 바트의 트립 또는 수지의 싸움이다.
블록(1404)은 프리젠팅하는 동안 감지되고 명시적 요청에 적합한 요청된 미디어 반응을 수신하고, 요청된 미디어 반응은 프리젠팅하는 동안 수동적으로 감지되고 명시적인 요청의 프리젠팅과 적합한 센서 데이터에 기초하여 결정된다. 기술은 다른 엔티티로부터 요청된 미디어 반응을 수신하거나 수동적으로 또는 다르게 센서 데이터에 기초하여 미디어 반응을 결정할 수 있다. 일 실시예에서, 블록(1404)은 상태 모듈(106)에 의해 수행된다. 상태 모듈(106)은 미디어 프로그램 동안, 명시적인 요청 프리젠팅시 또는 그 직후 수동적으로 감지된 센서 데이터 및 사용자에 대한 신체 변화 측정에 기초하여 요청된 미디어 반응을 결정한다.
블록(1406)은 요청된 미디어 반응의 수신에 응답하여 응답을 수행한다. 선택적으로 또는 추가적으로, 방법(400)은 블록(1406)에서 잠재적인 응답을 수행하기 전에, 블록(1408)에서 다른 사용자의 요청된 미디어 반응이 또한 수신되는 것을 결정하고 잠재적인 응답은 다른 사용자의 요청된 미디어 반응에 기초할 수 있다.
이러한 경우, 부분 모듈(224)은 응답을 수행하기 전에 미디어 프로그램의 다른 프리젠팅 동안 다른 사용자의 다른 요청된 미디어 반응이 수신되는 것을 결정할 수 있다. 따라서, 부분 모듈(24)은 사용자에 기초한 수지의 싸움의 프리젠팅 및 보여질 이 부분을 요청하는 다른 사용자의 미디어 반응 등의 다른 사용자의 미디어 반응에 기초하여 응답할 수 있다. 다른 사용자의 미디어 반응은 모든 사용자, 동일 인구통계 그룹의 사용자, 사용자의 친구(사용자와 함께 시청하는 방에 있든 없든), 사용자의 가족(예를 들어 명시적인 요청에 응답하는 방 내의 사람들)일 수 있다.
또한, 선택적으로 또는 추가적으로, 방법(1400)은 블록(1410)으로 진행한다. 블록(1410)은 사용자와 연관된 다른 사용자에 대하여 수행될 다른 응답에 대한 다른 요청된 미디어 반응을 요청한다. 이것은 사용자가 손을 올려 사용자의 친구에게 또한 쿠폰을 보내라는 요청 등의 후속 명시적 요청으로서 프리젠팅될 수 있다.
요청은 사용자 및 멀리서 시청하는 자신의 친구를 포함할 수 있다. 따라서, 사용자는 수지의 싸움을 시청할 것을 선택하지만, 미디어 반응 후, 부분 모듈(224)은 사용자의 친구 리디아가 시청하려고 이전 또는 동시에 요청한 것 또는 바트의 트립에 대하여 시청하려고 선택한 5명 또는 사용자의 8명의 친구들 등의 친구들의 대다수가 시청하려고 요청한 것을 시청하기를 원할지를 묻는 제2 요청을 프리젠팅한다.
블록(1412)은 요청된 제2 미디어 반응의 수신에 응답하여 다른 사용자에게 응답을 프리젠팅하도록 한다. 부분 모듈(224)은 원격으로 동작할 때 직접 그렇게 하거나 원격 엔티티와 통신하여 그 엔티티가 다른 사용자에게 응답을 프리젠팅하도록 할 수 있다. 본 예를 결론지으면서, 사용자가 자신의 가장 친한 친구 리디아가 시청하려고 선택한 것, 진저 어드벤처를 시청하려고 선택하여 그녀 또는 리디아가 내일 학교에서 그에 대하여 토론할 수 있는 것으로 가정한다. 사용자는 또한 자신의 다른 친구의 대부분이 바트 트립을 보려고 하는 것을 알고, 따라서, 사용자는 그것을 좋아하는지를 물을 것이다. 사용자의 친구가 바트 트립이 판타스틱하다고 말하면, 사용자는 프로그램을 다시 보고 대신 바트 트립을 시청할 것을 선택할 수 있다.
도 15는 복수의 사용자의 미디어 반응에 기초하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 방법(1500)을 나타낸다.
블록(1502)은 원격 엔티티에서 복수의 미디어 프리젠팅 장치로부터 복수의 미디어 프리젠팅 장치를 통해 복수의 장치에게 미디어 프로그램을 프리젠팅하는 동안 사용자의 미디어 반응을 수신하고, 미디어 장치는 미디어 프로그램의 부분 동안 복수의 미디어 프리젠팅 장치에서 수동적으로 감지된 센서 데이터에 기초한다. 미디어 프로그램은 복수의 사용자에게 라이브로, 동시에 또는 일관성 없이 프리젠팅될 수 있다. 도 13에 도시된 바와 같이, 현재 미디어 반응(1306)은 복수의 컴퓨팅 장치로부터 단독으로 또는 상술한 바와 같이 인구통계(1302), 반응 이력(1304)의 부분 및 미디어 프로그램(1308)에 대한 정보 등의 다른 정보와 함께 수신될 수 있다.
블록(1504)은 미디어 반응 및 부분에 기초하여 사용자에게 프리젠팅될 미디어 프로그램의 미래 부분을 결정하고, 미디어 프로그램의 미래 부분은 그 일부보다 미디어 프로그램 내에서 나중에 발생한다. 도 13에 도시된 바와 같이, 도 3 및 13의 미디어 프로그램(210) 등의 미디어 프로그램은 원격으로 저장되거나 도 2에 도시된 바와 같이 국부적으로 저장될 수 있다. 또한 여기에 기재된 바와 같이, 다른 정보가 결정에 또한 사용될 수 있다.
미디어 프로그램은 광고 등의 상기 많은 프로그램 중의 하나일 수 있다. 이 경우, 부분 모듈(224) 및/또는 광고 모듈(220)은 선택가능한 부분(예를 들어, 도 13의 부분(214))의 세트의 하나 이상의 이전에 준비된 다른 부분보다 성공적일 가능성이 더 있는 것에 기초하여 미래 부분을 결정할 수 있다. 따라서, 리얼티 컴패니(realty company)에 대한 세부사항을 열거한 제1 부분에 나쁜 반응을 나타내는 사용자의 그룹은 리얼티 컴패니를 계속 열거하는 것보다 더 간단하거나 더 스타일리쉬한 제3 부분을 프리젠팅하도록 결정하는데 사용될 수 있다. 수많은 다른 예가 위에 기재된다.
블록(1506)은 복수의 미디어 프리젠팅 장치에서 미디어 프로그램의 프리젠팅 동안 미디어 프로그램의 미래 부분이 사용자에게 프리젠팅되도록 한다. 블록(1506)은 실시간으로 상술한 다양한 방식으로 그렇게 할 수 있고 복수의 컴퓨팅 장치(202)를 통해 원격 장치(302)로부터 복수의 사용자로 스트리밍된다.
어떤 실시예에서, 복수의 사용자의 미디어 반응은 미래 프로그램을 생성하는 방법 또는 미리 준비된 미래 프로그램 중 어느 것이 프리젠팅될지를 결정하는데 사용될 수 있다. 미디어 제공자가 어드벤처 텔레비전 시리즈에 대한 10개의 타임슬롯을 갖는 것으로 간주한다. 처음 3개의 프로그램은 기술에 기초하여 변경될수 있지만 다음 7개의 타임슬롯 동안(예를 들어, 시즌 내의 몇 주) 11개의 에피소드가 준비된 몇 개의 내부 부분을 가질 수 있는 것으로 가정한다. 텔레비전 시즌은 종종 전체 시즌이 미리 준비되도록 구성되어, 시즌 내의 변화를 크게 수행할 수 없다. 미디어 제공자는, 시즌 에피소드가 준비되면, 추가의 전체 프로그램을 준비할 수 있다. 따라서, 미디어 제공자는 처음 3개의 에피소드 및 이들 에피소드의 복수의 부분에 대한 복수의 사용자로부터의 미디어 반응에 기초하여 특정 캐릭터가 청중에게 매우 관심있는 것으로 결정할 수 있다. 이렇게 함으로써, 다른 것 대신 그 캐릭터에 집중하는 애피소드가 보여질 수 있다.
또한 또는 추가적으로, 어떤 미리 준비된 에피소드는 프리젠팅될 수 있는 장면의 복수 세트를 가질 수 있고, 그래서 에피소드는 이들 미디어 반응에 기초하여 청중(일반적으로 또는 다양한 그룹)에게 맞추어질 수 있다. 이 방식으로, 변화가 실시간이 아니더라도, 미디어 반응은 미디어 프로그램의 미래 부분을 결정하는데 사용될 수 있다.
상기 설명은 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정에 관련된 방법 및 다른 방법 및 기술을 기술한다. 이들 방법의 형태는 하드웨어(예를 들어, 고정된 로직 회로), 펌웨어, 소프트웨어, 수동 프로세싱 또는 이것들의 임의의 조합으로 구현될 수 있다. 소프트웨어 구현은 컴퓨터 프로세서에 의해 실행될 때 특정된 태스크를 수행하는 프로그램 코드를 나타낸다. 예시적인 방법은 소프트웨어, 애플리케이션, 루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조, 절차, 모듈, 기능 등을 포함할 수 있는 컴퓨터 실행가능 명령어의 일반적인 콘텍스트로 기술될 수 있다. 프로그램 코드는 컴퓨터 프로세서에 국부적이고 그리고/또는 원격인 하나 이상의 컴퓨터 판독가능 메모리 장치에 저장될 수 있다. 방법은 또한 복수의 컴퓨팅 장치에 의해 분배 컴퓨팅 모드로 실행될 수 있다. 또한, 여기에 기재된 특징은 플랫폼 독립적이고, 다양한 프로세서를 갖는 다양한 컴퓨팅 플랫폼 상에서 구현될 수 있다.
이들 기술은 도 1-3, 10, 13 및 16에 도시된 엔티티 중의 하나 이상에서 구현될 수 있고(장치(1600)는 이하에 기재됨), 이들은 더 분할되거나 결합될 수 있다. 또한, 이들 도면은 기재된 기술을 채용할 수 있는 많은 가능한 시스템 또는 장치 중의 일부를 나타낼 수 있다. 이들 도면의 엔티티는 일반적으로 소프트웨어, 펌웨어, 전체 장치(whole device) 또는 네트워크 또는 그 조합을 나타낸다. 소프트웨어 구현의 경우, 예를 들어, 엔티티(예를 들어, 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및 부분 모듈(224))은 프로세서(예를 들어, 프로세서(들)(204 및/또는 306)) 상에서 실행될 때 특정된 태스크를 수행하는 프로그램 코드를 나타낸다. 프로그램 코드는 CRM(206) 및/또는 원격 CRM(308) 또는 도 16의 컴퓨터 판독가능 저장 매체(1614) 등의 하나 이상의 컴퓨터 판독가능 메모리 장치에 저장될 수 있다.
예시적인 장치
도 16은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술을 구현하기 위하여 도 1 내지 15를 참조하여 설명한 바와 같이 클라이언트, 서버 및/또는 컴퓨팅 장치의 임의의 타입으로 구현될 수 있는 예시적인 장치(1600)의 다양한 컴포넌트를 나타낸다. 실시예에서, 장치(1600)는 텔레비전 모바일 컴퓨팅 장치(예를 들어, 텔레비전 셋탑 박스, 디지털 비디오 레코더(DVR) 등), 소비자 장치, 컴퓨터 장치, 서버 장치, 포터블 컴퓨터 장치, 사용자 장치, 통신 장치, 비디오 프로세싱 및/또는 렌더링 장치, 어플라이언스 장치, 게임 장치, 전자 장치, SoC(system on chip) 및/또는 다른 타입의 장치 또는 그 일부의 형태로 유선 및/또는 무선 장치 중의 하나 또는 조합으로 구현될 수 있다. 장치(1600)는 또한 사용자(예를 들어, 사람) 및/또는 장치로서 동작하는 엔티티와 연관되어 장치는 사용자, 소프트웨어, 펌웨어 및/또는 장치의 조합을 포함하는 논리적 장치를 기술할 수 있다.
장치(1600)는 장치 데이터(1604)(예를 들어, 수신된 데이터, 수신되고 있는 데이터, 방송을 위해 스케줄링된 데이터, 데이터의 데이터 패킷 등)의 유선 및/또는 무선 통신을 가능하게 하는 통신 장치(1602)를 포함한다. 장치 데이터(1604) 또는 다른 장치 콘텐츠는 장치의 구성 설정, 장치에 저장된 미디어 콘텐츠(예를 들어, 미디어 프로그램(210)) 및/또는 장치의 사용자와 연관된 정보를 포함할 수 있다. 장치(1600)에 저장된 미디어 콘텐츠는 임의의 타입의 오디오, 비디오 및/또는 이미지 데이터를 포함할 수 있다. 장치(1600)는, 사람의 발언, 사용자 선택가능 입력, 메시지, 음악, 텔레비전 미디어 콘텐츠, 미디어 반응 레코딩된 비디오 콘텐츠 및 임의의 콘텐츠 및/또는 데이터 소스로부터 수신된 임의의 다른 타입의 오디오, 비디오 및/또는 이미지 데이터 등의 임의의 타입의 데이터, 미디어 콘텐츠 및/또는 입력이 수신될 수 있는 하나 이상의 데이터 입력(1606)을 포함할 수 있다.
장치(1600)는 또한 직렬 및/또는 병렬 인터페이스, 무선 인터페이스, 임의의 타입의 네트워크 인터페이스, 모뎀 및 임의의 다른 타입의 통신 인터페이스 중의 임의의 하나 이상으로서 구현될 수 있는 통신 인터페이스(1608)를 포함한다. 통신 인터페이스(1608)는 장치(1600) 및 다른 전자, 컴퓨팅 및 통신 장치가 장치(1600)와 데이터를 전달하는 통신 네트워크 사이에 접속 및/또는 통신 링크를 제공한다.
장치(1600)는 다양한 컴퓨터 실행가능 명령어를 프로세싱히여 장치(1600)의 동작을 제어하고 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 여기에 기재된 다른 방법을 가능하게 하는 하나 이상의 프로세서(1610)(예를 들어, 마이크로프로세서, 제어기 등 중의 어느 것)를 포함한다. 대안으로 또는 추가적으로, 장치(1600)는 하드웨어, 펌웨어 또는 1612에서 일반적으로 식별되는 프로세싱 및 제어 회로와 결합하여 구현되는 고정 로직 회로 중의 어느 하나 또는 조합으로 구현될 수 있다. 도시되지 않지만, 장치(1600)는 장치 내의 다양한 컴포넌트를 결합하는 시스템 버스 또는 데이터 전송 시스템을 포함할 수 있다. 시스템 버스는 메모리 버스 또는 메모리 제어기, 주변 버스, 유니버설 시리얼 버스 및/또는 다양한 버스 아키텍쳐 중의 어느 것을 이용하는 프로세서 또는 로컬 버스 등의 상이한 버스 구조 중의 어느 하나 또는 조합을 포함할 수 있다.
장치(1600)는 또한 (단순한 신호 전송과 대조적으로) 지속적 및/또는 비일시적 데이터 저장을 가능하게 하는 하나 이상의 메모리 장치 등의 컴퓨터 판독가능 저장 매체(1614)를 포함하고, 그 예는 랜덤 액세스 메모리(RAM), 비휘발성 메모리(예를 들어 리드 온리 메모리(ROM), 플래시 메모리, EPROM, EEPRO 등) 및 디스크 저장 장치를 포함한다. 디스크 저장 장치는 하드 디스크 드라이브, 기록가능 및/또는 재기입가능 컴팩트 디스크(CD), 임의의 타입의 DVD(digital versatile disc) 등의 임의의 타입의 자기 또는 광 저장 장치로서 구현될 수 있다. 장치(1600)는 또한 대용량 저장 장치(1616)를 포함할 수 있다.
컴퓨터 판독가능 저장 매체(1614)는 데이터 저장 매카니즘을 제공하여 장치 데이터(1604) 뿐만 아니라 다양한 장치 애플리케이션(1618) 및 장치(1600)의 동작 형태에 관련된 임의의 다른 타입의 정보 및/또는 데이터를 저장한다. 예를 들어, 운영 체제(1620)는 컴퓨터 판독가능 저장 매체(1614)와 함께 컴퓨터 애플리케이션으로서 유지되고 프로세서(1610) 상에서 실행될 수 있다. 장치 애플리케이션(1618)은 임의의 형태의 제어 애플리케이션, 소프트웨어 애플리케이션, 신호 프로세싱 및 제어 모듈, 특정 장치에 고유한 코드, 특정 장치에 대한 하드웨어 추상화층 등의 장치 매니저를 포함할 수 있다.
장치 애플리케이션(1618)은 또한 임의의 시스템 컴포넌트, 엔진 또는 모듈을 포함하여 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술을 구현한다. 이 예에서, 장치 애플리케이션(1618)은 상태 모듈(106), 관심 모듈(108), 인터페이스 모듈(110), 이력 모듈(216), 광고 모듈(220) 및/또는 부분 모듈(224)을 포함할 수 있다.
결론
현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 기술 및 장치의 실시예를 특징 및/또는 방법에 특정한 언어로 설명하였지만, 첨부된 청구범위의 주제는 반드시 기재된 특정한 특징 또는 방법으로 제한되지 않는다. 오히려, 특정 특징 및 방법은 현재 프리젠팅된 미디어 프로그램의 미래 부분을 결정하는 예시적인 구현예로서 개시된다.
102: 미디어 프리젠팅 장치 104: 청중 감지 장치
106: 상태 모듈 108: 관심 모듈
110: 인터페이스 모듈 112: 사용자 인터페이스
118: 센서 데이터 120: 상태
122: 인구통계/아이덴티티 124: 참여도
128: 미디어 타입 130: 관심 레벨
132: 미디어 반응 202: 컴퓨팅 장치
204: 프로세서(들) 208: 운영 체제
210: 미디어 프로그램(들) 212: 정보
214: 부분(들) 216: 이력 모듈
218: 반응 이력 220: 광고 모듈
222: 광고 224: 부분 모듈
302: 원격 장치 306: 원격 프로세서(들)
308: 원격 CRM

Claims (20)

  1. 컴퓨팅 장치에 의해 구현되는 방법에 있어서,
    상기 컴퓨팅 장치에 의해 그리고 미디어 프로그램의 제1 부분의 프리젠팅(presentation) 동안, 상기 미디어 프로그램의 상기 제1 부분에 대한 미디어 반응 - 상기 미디어 반응은 상기 미디어 프로그램의 상기 제1 부분 동안 수동적으로(passively) 감지된 센서 데이터에 기초하여 결정됨 - 을 수신하는 단계;
    상기 컴퓨팅 장치에 의해, 그리고 상기 미디어 프로그램의 상기 제1 부분을 위한 콘텍스트(context)와 일치하는(congruent) 상기 미디어 프로그램의 상기 제1 부분에 대한 상기 미디어 반응에 기초해, 상기 미디어 프로그램의 상기 제1 부분 동안 사용자의 참여 상태(engaged state)를 결정하는 단계;
    상기 컴퓨팅 장치에 의해, 상기 사용자의 반응 이력에 기초해, 그리고 상기 사용자가 상기 미디어 프로그램의 상기 제1 부분 동안 상기 참여 상태에 있다는 결정에 응답해서, 미래의 광고를 결정하는 단계; 및
    상기 컴퓨팅 장치에 의해, 상기 미디어 프로그램의 뒷부분(later portion) 동안 그리고 상기 미디어 프로그램의 동일 프리젠팅 동안 상기 미래의 광고가 프리젠팅되게 하는 단계
    를 포함하고,
    상기 미래의 광고는,
    상기 미디어 프로그램의 상기 뒷부분 동안 및 상기 미디어 프로그램의 상기 동일 프리젠팅 동안 발생하며,
    상기 미디어 프로그램의 상기 제1 부분과의 유사성에 기초해 광고들의 세트로부터 선택되는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  2. 제1항에 있어서,
    상기 미디어 프로그램은 이전에 스케줄링된 광고를 포함하고, 상기 미래의 광고가 프리젠팅되게 하는 단계는 상기 이전에 스케줄링된 광고를 상기 미래의 광고로 대체하는 효과를 내는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  3. 제1항에 있어서,
    상기 미디어 반응을 수신하는 단계는, 상기 미디어 프로그램이 프리젠팅되는 미디어 프리젠팅 장치로부터 수신되는 것이고, 상기 미래의 광고가 프리젠팅되게 하는 단계는 통신 네트워크를 통해 상기 컴퓨팅 장치에 의해 수행되는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  4. 제1항에 있어서,
    상기 미래의 광고를 결정하는 단계는, 또 다른 사용자의 미디어 반응, 인구통계(demographic) 정보, 또는 상기 미디어 프로그램에 대한 정보에 또한 기초하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  5. 제1항에 있어서,
    또 다른 미디어 반응을 수신하는 단계를 더 포함하고, 상기 또 다른 미디어 반응은, 상기 미디어 프로그램의 상기 제1 부분 동안 감지되고 처음 언급된 미디어 반응과 연관된 상기 사용자와는 상이한 사용자와 연관된 다른 센서 데이터에 기초하여 결정되며, 상기 상이한 사용자는 상기 사용자에 대해 물리적으로 국부적(local)이고, 상기 미래의 광고를 결정하는 단계는 상기 또 다른 미디어 반응에 또한 기초하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  6. 제1항에 있어서,
    상기 미디어 반응은, 상기 미디어 프로그램이 프리젠팅되는 미디어 프리젠팅 장치에 국부적인 엔티티(entity)로부터 수신되고, 상기 광고들의 세트는 상기 미디어 프리젠팅 장치에 이전에 국부적으로 저장된 것이며, 상기 미래의 광고를 프리젠팅할, 상기 미디어 프로그램 내의 시간 범위와 연관되는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  7. 제1항에 있어서,
    상기 미디어 프로그램의 상기 제1 부분은 광고이고, 상기 미래의 광고를 결정하는 단계는, 상기 미래의 광고가, 상기 광고들의 세트 중의 하나 이상의 다른 이전에 준비된 광고보다 성공적일 가능성이 더 있다는 결정에 기초하여 상기 미래의 광고를 결정하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  8. 제1항에 있어서,
    상기 미디어 반응을 위한 콘텍스트는, 상기 미디어 프로그램의 상기 제1 부분이 프리젠팅되는 하루 중 시간(a time of day), 또는 상기 제1 부분 동안 프리젠팅되고 있는 미디어의 타입을 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  9. 제1항에 있어서,
    상기 방법은,
    상기 미디어 프로그램의 상기 제1 부분 동안 상기 사용자의 참여 상태에 기초해, 상기 미디어 프로그램의 미래의 부분 - 상기 미디어 프로그램의 상기 미래의 부분은 상기 미디어 프로그램의 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 발생함 - 을 결정하는 단계; 및
    상기 미디어 프로그램의 상기 미래의 부분이 상기 미디어 프로그램의 상기 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 프리젠팅되게 하는 단계
    를 더 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  10. 장치에 있어서,
    하나 이상의 컴퓨터 프로세서; 및
    상기 하나 이상의 컴퓨터 프로세서에 의한 실행에 응답해서 동작들을 수행하는 명령어들이 저장되어 있는 하나 이상의 컴퓨터 판독가능 저장 매체
    를 포함하고,
    상기 동작들은,
    미디어 프로그램의 제1 부분의 프리젠팅 동안, 상기 미디어 프로그램의 상기 제1 부분에 대한 미디어 반응 - 상기 미디어 반응은 상기 미디어 프로그램의 상기 제1 부분 동안 수동적으로 감지된 센서 데이터에 기초하여 결정됨 - 을 수신하는 동작;
    상기 미디어 프로그램의 상기 제1 부분을 위한 콘텍스트와 일치하는 상기 미디어 프로그램의 상기 제1 부분에 대한 상기 미디어 반응에 기초해, 상기 미디어 프로그램의 상기 제1 부분 동안 사용자의 참여 상태를 결정하는 동작;
    상기 사용자의 반응 이력에 기초해, 그리고 상기 사용자가 상기 미디어 프로그램의 상기 제1 부분 동안 상기 참여 상태에 있는 것에 응답해서, 미래의 광고를 결정하는 동작; 및
    상기 미디어 프로그램의 뒷부분 동안 그리고 상기 미디어 프로그램의 동일 프리젠팅 동안 상기 미래의 광고가 프리젠팅되게 하는 동작
    을 포함하고,
    상기 미래의 광고는,
    상기 미디어 프로그램의 상기 뒷부분 동안 및 상기 미디어 프로그램의 상기 동일 프리젠팅 동안 발생하며,
    상기 미디어 프로그램의 상기 제1 부분과의 유사성에 기초해 광고들의 세트로부터 선택되는 것인, 장치.
  11. 제10항에 있어서,
    상기 미디어 프로그램은 이전에 스케줄링된 광고를 포함하고, 상기 미래의 광고가 프리젠팅되게 하는 동작은 상기 이전에 스케줄링된 광고를 상기 미래의 광고로 대체하는 효과를 내는 것인, 장치.
  12. 제10항에 있어서,
    상기 미디어 반응을 수신하는 동작은, 상기 미디어 프로그램이 프리젠팅되는 미디어 프리젠팅 장치로부터 수신되는 것이고, 상기 미래의 광고가 프리젠팅되게 하는 동작은 상기 장치에 의해 수행되며, 상기 장치는 상기 미디어 프리젠팅 장치로부터 떨어져 있는 것인, 장치.
  13. 제10항에 있어서,
    상기 미래의 광고를 결정하는 동작은, 또 다른 사용자의 미디어 반응, 인구통계 정보, 또는 상기 미디어 프로그램에 대한 정보에 또한 기초하는 것인, 장치.
  14. 제10항에 있어서,
    상기 동작들은 또 다른 미디어 반응을 수신하는 동작을 더 포함하고, 상기 또 다른 미디어 반응은, 상기 미디어 프로그램의 상기 제1 부분 동안 감지되고 처음 언급된 미디어 반응과 연관된 상기 사용자와는 상이한 사용자와 연관된 다른 센서 데이터에 기초하여 결정되고, 상기 상이한 사용자는 상기 사용자에 대해 물리적으로 국부적이고, 상기 미래의 광고를 결정하는 동작은 상기 또 다른 미디어 반응에 또한 기초하는 것인, 장치.
  15. 제10항에 있어서,
    상기 동작들은, 상기 장치에 의해 상기 미디어 프로그램을 프리젠팅하는 동작과 상기 사용자로부터 상기 장치에 의해 상기 미디어 반응을 수신하는 동작을 더 포함하고, 상기 미래의 광고를 결정하는 동작은, 상기 하나 이상의 컴퓨터 판독가능 저장 매체 상에 이전에 저장된 광고들의 세트 중에서 상기 미래의 광고를 결정하며, 상기 광고들의 세트는 상기 미래의 광고를 프리젠팅할 상기 미디어 프로그램 내의 시간 범위와 연관되는 것인, 장치.
  16. 제10항에 있어서,
    상기 미디어 프로그램의 상기 제1 부분은 광고이고, 상기 미래의 광고를 결정하는 동작은, 상기 미래의 광고가, 상기 광고들의 세트 중의 하나 이상의 다른 이전에 준비된 광고보다 성공적일 가능성이 더 있다는 결정에 기초하여 상기 미래의 광고를 결정하는 것인, 장치.
  17. 제10항에 있어서,
    상기 동작들은,
    상기 미디어 프로그램의 상기 제1 부분 동안 상기 사용자의 참여 상태에 기초해, 상기 미디어 프로그램의 미래의 부분 - 상기 미디어 프로그램의 상기 미래의 부분은 상기 미디어 프로그램의 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 발생함 - 을 결정하는 동작; 및
    상기 미디어 프로그램의 상기 미래의 부분이 상기 미디어 프로그램의 상기 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 프리젠팅되게 하는 동작
    을 더 포함하는 것인, 장치.
  18. 컴퓨팅 장치에 의해 구현되는 방법에 있어서,
    상기 컴퓨팅 장치에 의해 그리고 미디어 프로그램의 제1 부분의 프리젠팅 동안, 상기 미디어 프로그램의 상기 제1 부분에 대한 미디어 반응 - 상기 미디어 반응은 상기 미디어 프로그램의 상기 제1 부분 동안 수동적으로 감지된 센서 데이터에 기초하여 결정됨 - 을 수신하는 단계;
    상기 컴퓨팅 장치에 의해, 그리고 상기 미디어 프로그램의 상기 제1 부분을 위한 콘텍스트와 일치하는 상기 미디어 프로그램의 상기 제1 부분에 대한 상기 미디어 반응에 기초해, 상기 미디어 프로그램의 상기 제1 부분 동안 사용자의 비참여 상태(disengaged state)를 결정하는 단계;
    상기 컴퓨팅 장치에 의해, 상기 사용자의 반응 이력에 기초해, 그리고 상기 사용자가 상기 미디어 프로그램의 상기 제1 부분 동안 상기 비참여 상태에 있다는 결정에 응답해서, 미래의 광고를 결정하는 단계; 및
    상기 컴퓨팅 장치에 의해, 상기 미디어 프로그램의 뒷부분 동안 그리고 상기 미디어 프로그램의 동일 프리젠팅 동안 상기 미래의 광고가 프리젠팅되게 하는 단계
    를 포함하고,
    상기 미래의 광고는,
    상기 미디어 프로그램의 상기 뒷부분 동안 및 상기 미디어 프로그램의 상기 동일 프리젠팅 동안 발생하며,
    상기 미디어 프로그램의 상기 제1 부분에 대한 비유사성(dissimilarity)에 기초해 광고들의 세트로부터 선택되는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  19. 제18항에 있어서,
    상기 미디어 반응을 위한 콘텍스트는, 상기 미디어 프로그램의 상기 제1 부분이 프리젠팅되는 하루 중 시간, 또는 상기 제1 부분 동안 프리젠팅되고 있는 미디어의 타입을 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
  20. 제18항에 있어서,
    상기 방법은,
    상기 미디어 프로그램의 상기 제1 부분 동안 상기 사용자의 상기 비참여 상태에 기초해, 상기 미디어 프로그램의 미래의 부분 - 상기 미디어 프로그램의 상기 미래의 부분은 상기 미디어 프로그램의 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 발생함 - 을 결정하는 단계; 및
    상기 미디어 프로그램의 상기 미래의 부분이 상기 미디어 프로그램의 상기 제2 부분 동안에 그리고 상기 미디어 프로그램의 상기 동일 프리젠팅 동안에 프리젠팅되게 하는 단계
    를 더 포함하는 것인, 컴퓨팅 장치에 의해 구현되는 방법.
KR1020147034014A 2012-05-04 2013-05-04 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정 KR102068376B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CA2775700A CA2775700C (en) 2012-05-04 2012-05-04 Determining a future portion of a currently presented media program
CA2775700 2012-05-04
US13/482,867 2012-05-29
US13/482,867 US8959541B2 (en) 2012-05-04 2012-05-29 Determining a future portion of a currently presented media program
PCT/US2013/039591 WO2013166474A2 (en) 2012-05-04 2013-05-04 Determining a future portion of a currently presented media program

Publications (2)

Publication Number Publication Date
KR20150013237A KR20150013237A (ko) 2015-02-04
KR102068376B1 true KR102068376B1 (ko) 2020-01-20

Family

ID=46491919

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147034014A KR102068376B1 (ko) 2012-05-04 2013-05-04 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정

Country Status (11)

Country Link
US (2) US8959541B2 (ko)
EP (1) EP2845163A4 (ko)
JP (1) JP6291481B2 (ko)
KR (1) KR102068376B1 (ko)
AU (1) AU2013256054B2 (ko)
BR (1) BR112014026648A8 (ko)
CA (1) CA2775700C (ko)
MX (1) MX345058B (ko)
RU (1) RU2646367C2 (ko)
TW (1) TW201407516A (ko)
WO (1) WO2013166474A2 (ko)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US9055335B2 (en) 2009-05-29 2015-06-09 Cognitive Networks, Inc. Systems and methods for addressing a media database using distance associative hashing
US10116972B2 (en) * 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US8769584B2 (en) 2009-05-29 2014-07-01 TVI Interactive Systems, Inc. Methods for displaying contextually targeted content on a connected television
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20130243270A1 (en) * 2012-03-16 2013-09-19 Gila Kamhi System and method for dynamic adaption of media based on implicit user input and behavior
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
WO2014006757A1 (ja) * 2012-07-06 2014-01-09 Necディスプレイソリューションズ株式会社 表示装置、表示装置の制御方法
US9998789B1 (en) * 2012-07-27 2018-06-12 Dp Technologies, Inc. Audience interaction system
US10203839B2 (en) * 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US8769557B1 (en) * 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9344773B2 (en) * 2013-02-05 2016-05-17 Microsoft Technology Licensing, Llc Providing recommendations based upon environmental sensing
WO2014138352A1 (en) * 2013-03-06 2014-09-12 Zito Arthur J Jr Multi-media presentation system
US20140325540A1 (en) * 2013-04-29 2014-10-30 Microsoft Corporation Media synchronized advertising overlay
US10297287B2 (en) 2013-10-21 2019-05-21 Thuuz, Inc. Dynamic media recording
US20150113551A1 (en) * 2013-10-23 2015-04-23 Samsung Electronics Co., Ltd. Computing system with content delivery mechanism and method of operation thereof
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9361005B2 (en) * 2013-12-27 2016-06-07 Rovi Guides, Inc. Methods and systems for selecting modes based on the level of engagement of a user
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9578358B1 (en) 2014-04-22 2017-02-21 Google Inc. Systems and methods that match search queries to television subtitles
CN104035982B (zh) * 2014-05-28 2017-10-20 小米科技有限责任公司 多媒体资源推荐方法及装置
US20160005013A1 (en) * 2014-07-03 2016-01-07 Syncbak, Inc. Real-time regional media syndication and delivery system
AU2015308623B2 (en) * 2014-08-29 2018-04-19 Stats Llc Systems and processes for delivering digital video content based upon excitement data
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11863848B1 (en) 2014-10-09 2024-01-02 Stats Llc User interface for interaction with customized highlight shows
US10536758B2 (en) 2014-10-09 2020-01-14 Thuuz, Inc. Customized generation of highlight show with narrative component
US10433030B2 (en) 2014-10-09 2019-10-01 Thuuz, Inc. Generating a customized highlight sequence depicting multiple events
US10419830B2 (en) 2014-10-09 2019-09-17 Thuuz, Inc. Generating a customized highlight sequence depicting an event
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US9729915B2 (en) * 2014-10-31 2017-08-08 Paypal, Inc. Detecting user devices to determine state of watched show
JP2016110631A (ja) * 2014-12-02 2016-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. 状態推定装置、状態推定方法およびプログラム
EP3228117A4 (en) * 2014-12-04 2018-06-13 Cynny Inc. Systems and methods to present content
BR112017016123A2 (pt) 2015-01-30 2018-04-17 Inscape Data Inc servidor de correspondência para identificação de conteúdo de vídeo que é exibido por um sistema de televisão, método executado por computador, e produto de programa informático concretamente incorporado a um meio de armazenamento de leitura por máquina permanente de um dispositivo de informática
US10904617B1 (en) * 2015-02-19 2021-01-26 Amazon Technologies, Inc. Synchronizing a client device with media content for scene-specific notifications
AU2016250276B2 (en) 2015-04-17 2020-10-08 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
US9883241B2 (en) * 2015-05-17 2018-01-30 Surewaves Mediatech Private Limited System and method for automatic content recognition and audience measurement for television channels and advertisements
WO2017011798A1 (en) 2015-07-16 2017-01-19 Vizio Inscape Technologies, Llc Detection of common media segments
WO2017011768A1 (en) 2015-07-16 2017-01-19 Vizio Inscape Technologies, Llc Systems and methods for partitioning search indexes for improved efficiency in identifying media segments
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
CN105491427B (zh) * 2015-11-24 2019-01-29 深圳创维-Rgb电子有限公司 一种智能电视的控制系统及其实现方法
US10142702B2 (en) * 2015-11-30 2018-11-27 International Business Machines Corporation System and method for dynamic advertisements driven by real-time user reaction based AB testing and consequent video branching
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11540009B2 (en) 2016-01-06 2022-12-27 Tvision Insights, Inc. Systems and methods for assessing viewer engagement
EP4080794A1 (en) 2016-01-06 2022-10-26 TVision Insights, Inc. Systems and methods for assessing viewer engagement
US11012719B2 (en) * 2016-03-08 2021-05-18 DISH Technologies L.L.C. Apparatus, systems and methods for control of sporting event presentation based on viewer engagement
US10187694B2 (en) 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US10979472B2 (en) * 2016-09-29 2021-04-13 International Business Machines Corporation Dynamically altering presentations to maintain or increase viewer attention
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
TWI618040B (zh) * 2017-01-13 2018-03-11 Intelligent advertising vehicle with image recognition and its operation process
JP6269874B1 (ja) 2017-03-03 2018-01-31 ソニー株式会社 交換レンズ、撮像装置、およびカメラシステム
US10560508B2 (en) * 2017-03-15 2020-02-11 International Business Machines Corporation Personalized video playback
EP3613224A4 (en) * 2017-04-20 2020-12-30 TVision Insights, Inc. METHOD AND DEVICE FOR MULTI-TELEVISION MEASUREMENTS
US10904615B2 (en) * 2017-09-07 2021-01-26 International Business Machines Corporation Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed
JP7096470B2 (ja) * 2017-10-19 2022-07-06 株式会社電通 顧客情報管理サーバ及びプログラム
US10636449B2 (en) * 2017-11-06 2020-04-28 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
US10542314B2 (en) 2018-03-20 2020-01-21 At&T Mobility Ii Llc Media content delivery with customization
US11373404B2 (en) 2018-05-18 2022-06-28 Stats Llc Machine learning for recognizing and interpreting embedded information card content
US11507619B2 (en) 2018-05-21 2022-11-22 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US10965985B2 (en) 2018-05-21 2021-03-30 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11264048B1 (en) 2018-06-05 2022-03-01 Stats Llc Audio processing for detecting occurrences of loud sound characterized by brief audio bursts
US11025985B2 (en) 2018-06-05 2021-06-01 Stats Llc Audio processing for detecting occurrences of crowd noise in sporting event television programming
CN108737872A (zh) * 2018-06-08 2018-11-02 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
US10942979B2 (en) * 2018-08-29 2021-03-09 International Business Machines Corporation Collaborative creation of content snippets
US10812855B2 (en) * 2018-09-05 2020-10-20 International Business Machines Corporation Dynamic modification of media content in an internet of things (IoT) computing environment
KR20200054439A (ko) 2018-11-10 2020-05-20 송난나 나무를 알아가는 보드게임
US11574458B2 (en) * 2019-01-02 2023-02-07 International Business Machines Corporation Automated survey results generation from an image
US11064255B2 (en) * 2019-01-30 2021-07-13 Oohms Ny Llc System and method of tablet-based distribution of digital media content
US20200288204A1 (en) * 2019-03-05 2020-09-10 Adobe Inc. Generating and providing personalized digital content in real time based on live user context
US11190840B2 (en) * 2019-07-23 2021-11-30 Rovi Guides, Inc. Systems and methods for applying behavioral-based parental controls for media assets
US11019395B2 (en) * 2019-08-27 2021-05-25 Facebook, Inc. Automatic digital representations of events
EP3918451B1 (en) 2019-09-27 2023-11-29 Apple Inc. Content generation based on audience engagement
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11645578B2 (en) * 2019-11-18 2023-05-09 International Business Machines Corporation Interactive content mobility and open world movie production
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
JP7374056B2 (ja) * 2020-08-27 2023-11-06 グローブライド株式会社 魚釣用リール
US11503090B2 (en) 2020-11-30 2022-11-15 At&T Intellectual Property I, L.P. Remote audience feedback mechanism
CN114827702B (zh) * 2021-01-22 2023-06-30 腾讯科技(深圳)有限公司 视频推送方法、视频播放方法、装置、设备以及介质
US11425460B1 (en) 2021-01-29 2022-08-23 Rovi Guides, Inc. Selective streaming based on dynamic parental rating of content
US20220377413A1 (en) * 2021-05-21 2022-11-24 Rovi Guides, Inc. Methods and systems for personalized content based on captured gestures
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
JP7349231B1 (ja) 2022-09-14 2023-09-22 株式会社ビデオリサーチ ストリーム視聴解析システム、ストリーム視聴解析方法およびプログラム
JP7280454B1 (ja) 2023-02-27 2023-05-23 株式会社トランザクション・メディア・ネットワークス 情報訴求程度情報推定システム、情報訴求程度情報推定装置の制御方法及び情報訴求程度情報推定装置の制御プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007073059A (ja) 2004-07-07 2007-03-22 Defacto:Kk 広告システム、及び、広告結果記録方法
US20070271580A1 (en) 2006-05-16 2007-11-22 Bellsouth Intellectual Property Corporation Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics

Family Cites Families (612)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US7831204B1 (en) 1981-11-03 2010-11-09 Personalized Media Communications, Llc Signal processing apparatus and methods
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
US4931865A (en) 1988-08-24 1990-06-05 Sebastiano Scarampi Apparatus and methods for monitoring television viewers
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ko) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5175641A (en) 1991-04-05 1992-12-29 International Business Machines Corporation Dual-mode laser diode transmitter
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5990927A (en) * 1992-12-09 1999-11-23 Discovery Communications, Inc. Advanced set top terminal for cable television delivery systems
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5694162A (en) * 1993-10-15 1997-12-02 Automated Business Companies, Inc. Method for automatically changing broadcast programs based on audience response
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
JPH0863326A (ja) 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
TW345540B (en) 1994-08-31 1998-11-21 Nike Inc Laminated resilient flexible barrier membranes (1)
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
JP3270264B2 (ja) 1994-10-19 2002-04-02 富士写真フイルム株式会社 放射線像変換パネルおよびその製造法
WO1996013026A1 (en) 1994-10-25 1996-05-02 Taligent, Inc. Object-oriented system for servicing windows
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
DE19516664C1 (de) 1995-05-05 1996-08-29 Siemens Ag Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US6057909A (en) 1995-06-22 2000-05-02 3Dv Systems Ltd. Optical ranging camera
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US7895076B2 (en) 1995-06-30 2011-02-22 Sony Computer Entertainment Inc. Advertisement insertion, profiling, impression, and feedback
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
JPH0981309A (ja) 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
WO1997041925A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US20020120925A1 (en) 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US5904484A (en) 1996-12-23 1999-05-18 Burns; Dave Interactive motion training device and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US5999766A (en) 1997-03-05 1999-12-07 Matsushita Electric Industrial Co., Ltd. Image processing apparatus with user authorization mechanism
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6750848B1 (en) 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP1017973A1 (en) 1997-09-24 2000-07-12 3DV Systems Ltd. Acoustical imaging system
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
DE69830295T2 (de) 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6469714B2 (en) 1998-01-26 2002-10-22 International Business Machines Corporation Infocenter user interface for applets and components
US7196720B2 (en) 1998-03-06 2007-03-27 Intel Corporation Method and apparatus for powering on an electronic device with a video camera that detects motion
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
JP3484085B2 (ja) * 1998-05-22 2004-01-06 株式会社リコー 放送型配信方法,その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体,およびコンテンツサーバ
US6181472B1 (en) 1998-06-10 2001-01-30 Robotic Vision Systems, Inc. Method and system for imaging an object with a plurality of optical beams
US7146627B1 (en) * 1998-06-12 2006-12-05 Metabyte Networks, Inc. Method and apparatus for delivery of targeted video programming
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6141010A (en) 1998-07-17 2000-10-31 B. E. Technology, Llc Computer interface method and apparatus with targeted advertising
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US7684570B2 (en) 1998-11-17 2010-03-23 Aamp Of America Vehicle remote control interface for controlling multiple electronic devices
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7134130B1 (en) 1998-12-15 2006-11-07 Gateway Inc. Apparatus and method for user-based control of television content
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6466232B1 (en) 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6226388B1 (en) 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6377296B1 (en) 1999-01-28 2002-04-23 International Business Machines Corporation Virtual map system and method for tracking objects
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
EP1045374B1 (en) 1999-04-13 2010-08-11 Sony Deutschland GmbH Merging of speech interfaces for concurrent use of devices and applications
US6591236B2 (en) 1999-04-13 2003-07-08 International Business Machines Corporation Method and system for determining available and alternative speech commands
US20030141360A1 (en) 1999-04-22 2003-07-31 De Leo Stephen L. System and method for providing information and services to and from an automated teller machine
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US20070143715A1 (en) 1999-05-25 2007-06-21 Silverbrook Research Pty Ltd Method of providing information via printed substrate and gesture recognition
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6291816B1 (en) 1999-06-08 2001-09-18 Robotic Vision Systems, Inc. System and method for measuring object features with coordinated two and three dimensional imaging
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US6514081B1 (en) 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
ATE285079T1 (de) 1999-09-08 2005-01-15 3Dv Systems Ltd 3d- bilderzeugungssystem
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7779439B2 (en) 2001-04-23 2010-08-17 Starz Entertainment, Llc Program guide environment
EP1222655A1 (en) 1999-10-19 2002-07-17 Sony Electronics Inc. Natural language interface control system
US6622119B1 (en) 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US20030132950A1 (en) 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US6690618B2 (en) 2001-04-03 2004-02-10 Canesta, Inc. Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device
US7050177B2 (en) 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
DE19960180B4 (de) 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
WO2001045004A1 (en) 1999-12-17 2001-06-21 Promo Vu Interactive promotional information communicating system
US7028001B1 (en) 1999-12-27 2006-04-11 Motorola, Inc. System and method for measuring web page advertisement impressions
TW482985B (en) 2000-01-03 2002-04-11 Amova Company Automatic media and advertising system
US7146329B2 (en) 2000-01-13 2006-12-05 Erinmedia, Llc Privacy compliant multiple dataset correlation and content delivery system and methods
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
AU2001249994A1 (en) 2000-02-25 2001-09-03 Interval Research Corporation Method and system for selecting advertisements
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
GB0005727D0 (en) 2000-03-10 2000-05-03 Koninkl Philips Electronics Nv Television
WO2001069799A2 (en) 2000-03-16 2001-09-20 Creator Ltd. Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems
WO2001075568A1 (en) 2000-03-30 2001-10-11 Ideogramic Aps Method for gesture based modeling
US6778171B1 (en) 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6856827B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
AU6388001A (en) 2000-05-04 2001-11-12 Marco Iori User recognition system for automatically controlling accesses, apparatuses and the like equipment
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
AU6262501A (en) 2000-05-29 2001-12-11 Vkb Inc. Virtual data entry device and method for input of alphanumeric and other data
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US7042442B1 (en) 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
US6873710B1 (en) 2000-06-27 2005-03-29 Koninklijke Philips Electronics N.V. Method and apparatus for tuning content of information presented to an audience
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20090234718A1 (en) 2000-09-05 2009-09-17 Novell, Inc. Predictive service systems using emotion detection
JP4432246B2 (ja) 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20030036944A1 (en) 2000-10-11 2003-02-20 Lesandrini Jay William Extensible business method with advertisement research as an example
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
EP1340375A1 (en) 2000-11-22 2003-09-03 Koninklijke Philips Electronics N.V. Method and apparatus for generating recommendations based on current mood of user
US20020072952A1 (en) 2000-12-07 2002-06-13 International Business Machines Corporation Visual and audible consumer reaction collection
US6881526B2 (en) 2000-12-15 2005-04-19 E. I. Du Pont De Nemours And Company Receiver element for adjusting the focus of an imaging laser
ATE321422T1 (de) 2001-01-09 2006-04-15 Metabyte Networks Inc System, verfahren und software für die bereitstellung einer gezielten werbung durch benutzerprofildatenstruktur basierend auf benutzerpräferenzen
JP2002259720A (ja) 2001-03-02 2002-09-13 Internatl Business Mach Corp <Ibm> コンテンツ要約システム、映像要約システム、ユーザ端末、要約映像生成方法、要約映像受信方法、およびプログラム
JP3850671B2 (ja) * 2001-03-05 2006-11-29 シャープ株式会社 コンテンツ配信システムおよびそれに用いるサーバーおよびそれに用いるクライアント端末およびコンテンツ配信方法およびその方法をコンピュータに実行させるためのプログラムを記録した記録媒体
JP4371597B2 (ja) 2001-03-15 2009-11-25 シャープ株式会社 情報再生装置
US20020144259A1 (en) 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7313621B2 (en) 2001-05-15 2007-12-25 Sony Corporation Personalized interface with adaptive content presentation
US20020174445A1 (en) 2001-05-17 2002-11-21 Koninklijke Philips Electronics N.V. Video playback device with real-time on-line viewer feedback capability and method of operation
US7246329B1 (en) 2001-05-18 2007-07-17 Autodesk, Inc. Multiple menus for use with a graphical user interface
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US6594616B2 (en) 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
WO2003001722A2 (en) 2001-06-22 2003-01-03 Canesta, Inc. Method and system to display a virtual input device
US6795972B2 (en) 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US20030007018A1 (en) 2001-07-09 2003-01-09 Giovanni Seni Handwriting user interface for personal digital assistants and the like
US6868383B1 (en) 2001-07-12 2005-03-15 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
GB2379017A (en) 2001-07-27 2003-02-26 Hewlett Packard Co Method and apparatus for monitoring crowds
WO2003015056A2 (en) 2001-08-09 2003-02-20 Visual Interaction Gmbh Automated behavioral and cognitive profiling for training and marketing segmentation
FI115419B (fi) 2001-08-20 2005-04-29 Helsingin Kauppakorkeakoulu Informaatiopalveluiden käyttäjäkohtainen personointi
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US20030066071A1 (en) 2001-10-03 2003-04-03 Koninklijke Philips Electronics N.V. Program recommendation method and system utilizing a viewing history of commercials
US8079045B2 (en) 2001-10-17 2011-12-13 Keen Personal Media, Inc. Personal video recorder and method for inserting a stored advertisement into a displayed broadcast stream
US20030079226A1 (en) 2001-10-19 2003-04-24 Barrett Peter T. Video segment targeting using remotely issued instructions and localized state and behavior information
EP1306735A1 (en) 2001-10-25 2003-05-02 ABB Installationen AG Control of a meeting room
US20030081834A1 (en) 2001-10-31 2003-05-01 Vasanth Philomin Intelligent TV room
US8561095B2 (en) 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
WO2003054683A2 (en) 2001-12-07 2003-07-03 Canesta Inc. User interface for electronic devices
JP2005512249A (ja) 2001-12-13 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メディアシステム上のメディアコンテンツの推薦
US20030112467A1 (en) 2001-12-17 2003-06-19 Mccollum Tim Apparatus and method for multimedia navigation
US6585521B1 (en) 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US6730913B2 (en) 2002-02-21 2004-05-04 Ford Global Technologies, Llc Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture
US7516447B2 (en) 2002-02-22 2009-04-07 Bea Systems, Inc. Methods and apparatus for building, customizing and using software abstractions of external entities
US20030169906A1 (en) 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
JP3715584B2 (ja) 2002-03-28 2005-11-09 富士通株式会社 機器制御装置および機器制御方法
GB0207732D0 (en) 2002-04-03 2002-05-15 Ttpcomm Ltd Wireless communication terminals
US7203909B1 (en) 2002-04-04 2007-04-10 Microsoft Corporation System and methods for constructing personalized context-sensitive portal pages or views by analyzing patterns of users' information access activities
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
DE50302813D1 (de) 2002-04-19 2006-05-18 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US20040001616A1 (en) 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
US20040006477A1 (en) 2002-07-05 2004-01-08 Craner Michael L. Voice-controllable communication gateway for controlling multiple electronic and information appliances
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US8019121B2 (en) 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7058902B2 (en) 2002-07-30 2006-06-06 Microsoft Corporation Enhanced on-object context menus
US20090143141A1 (en) 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
EP1535305A2 (en) 2002-08-16 2005-06-01 Brown University Research Foundation Scanning magnetic microscope having improved magnetic sensor
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
JP2004110453A (ja) 2002-09-19 2004-04-08 Sony Corp 携帯端末装置
WO2004027685A2 (en) 2002-09-19 2004-04-01 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
US7002560B2 (en) 2002-10-04 2006-02-21 Human Interface Technologies Inc. Method of combining data entry of handwritten symbols with displayed character data
EP1408443B1 (en) 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
US20040113933A1 (en) 2002-10-08 2004-06-17 Northrop Grumman Corporation Split and merge behavior analysis and understanding using Hidden Markov Models
US20030126593A1 (en) 2002-11-04 2003-07-03 Mault James R. Interactive physiological monitoring system
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US20060221081A1 (en) 2003-01-17 2006-10-05 Cohen Irun R Reactive animation
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7435941B2 (en) 2003-03-14 2008-10-14 Inphase Technologies, Inc. Methods for measuring optical characteristics by differential diffractive scanning
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US7290218B2 (en) 2003-04-03 2007-10-30 At&T Bls Intellectual Property, Inc. Method of providing a user interface for a digital cross-connect system
US7681149B2 (en) 2003-05-21 2010-03-16 Nokia Corporation User interface display for set-top box device
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
WO2005113099A2 (en) 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7409639B2 (en) 2003-06-19 2008-08-05 Accenture Global Services Gmbh Intelligent collaborative media
JP4359755B2 (ja) * 2003-07-31 2009-11-04 ソニー株式会社 コンテンツ再生方法、コンテンツ再生装置、コンテンツ配信方法およびコンテンツ配信装置
US7214932B2 (en) 2003-08-20 2007-05-08 Xyratex Technology Limited Resonator method and system for distinguishing characteristics of surface features or contaminants
US7170605B2 (en) 2003-08-25 2007-01-30 Evan Francis Cromwell Active sensor and method for optical illumination and detection
CA2536371A1 (en) 2003-08-26 2005-03-10 Redshift Systems Corporation Infrared camera system
KR100493902B1 (ko) 2003-08-28 2005-06-10 삼성전자주식회사 콘텐츠 추천방법 및 시스템
JP2005084770A (ja) * 2003-09-05 2005-03-31 Sony Corp コンテンツ提供システムおよび方法、提供装置および方法、再生装置および方法、並びにプログラム
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
JP2005108108A (ja) 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7155305B2 (en) 2003-11-04 2006-12-26 Universal Electronics Inc. System and methods for home appliance identification and control in a networked environment
US7136709B2 (en) 2003-11-04 2006-11-14 Universal Electronics Inc. Home appliance control system and methods in a networked environment
US8196168B1 (en) 2003-12-10 2012-06-05 Time Warner, Inc. Method and apparatus for exchanging preferences for replaying a program on a personal video recorder
GB2410359A (en) 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005218025A (ja) 2004-02-02 2005-08-11 Matsushita Electric Ind Co Ltd 視聴中断位置記憶装置、再生装置、及び記録装置
WO2005086059A1 (en) 2004-02-27 2005-09-15 Accenture Global Services Gmbh System for individualized customer interaction
US7706616B2 (en) 2004-02-27 2010-04-27 International Business Machines Corporation System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout
US8949899B2 (en) 2005-03-04 2015-02-03 Sharp Laboratories Of America, Inc. Collaborative recommendation system
US7600119B2 (en) 2004-03-04 2009-10-06 Nec Corporation Data update system, data update method, data update program, and robot system
US7301527B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Feedback based user interface for motion controlled handheld devices
US20050215319A1 (en) 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
EP1582965A1 (en) 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
JP4092697B2 (ja) 2004-04-07 2008-05-28 ソニー株式会社 情報処理装置および方法、プログラム並びに記録媒体
US7600201B2 (en) 2004-04-07 2009-10-06 Sony Corporation Methods and apparatuses for viewing choices and making selections
CN1942970A (zh) 2004-04-15 2007-04-04 皇家飞利浦电子股份有限公司 生成对用户具有特定情绪影响的内容项的方法
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7681141B2 (en) 2004-05-11 2010-03-16 Sony Computer Entertainment America Inc. Fast scrolling in a graphical user interface
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8050782B2 (en) 2004-05-20 2011-11-01 Abb Research Ltd. Method and system to retrieve and display technical data for an industrial device
US20060031264A1 (en) 2004-05-20 2006-02-09 Bea Systems, Inc. Synchronization protocol for occasionally-connected application server
US20050289582A1 (en) 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
JP2006060626A (ja) * 2004-08-23 2006-03-02 Matsushita Electric Ind Co Ltd コマーシャル処理装置、およびコマーシャル視聴履歴管理システム
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
WO2006025137A1 (ja) 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
JP2006068315A (ja) 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US20060064481A1 (en) 2004-09-17 2006-03-23 Anthony Baron Methods for service monitoring and control
EP1803228B1 (en) 2004-10-01 2019-07-10 Samsung Electronics Co., Ltd. Device and method for displaying event in wireless terminal
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
US7346944B2 (en) 2004-11-05 2008-03-25 Mark Shaw Mattress monitoring system
US7212665B2 (en) 2004-11-05 2007-05-01 Honda Motor Co. Human pose estimation with data driven belief propagation
US7814518B2 (en) 2004-11-23 2010-10-12 Palo Alto Research Center Incorporated Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content
US7870589B2 (en) 2004-11-23 2011-01-11 Palo Alto Research Center Incorporated Method for providing commentary audio and additional or replacement video content
US7217020B2 (en) 2004-11-24 2007-05-15 General Motors Corporation Headlamp assembly with integrated infrared illuminator
US20060123360A1 (en) 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7216053B2 (en) 2004-12-30 2007-05-08 Nokia Corporation Low power motion detector
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
BRPI0606477A2 (pt) 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
WO2006074289A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Detecting and tracking objects in images
KR100703693B1 (ko) 2005-01-13 2007-04-05 삼성전자주식회사 얼굴 인식 시스템 및 방법
JP3862027B2 (ja) 2005-01-25 2006-12-27 船井電機株式会社 放送信号受信システム
US20060184800A1 (en) 2005-02-16 2006-08-17 Outland Research, Llc Method and apparatus for using age and/or gender recognition techniques to customize a user interface
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
GB2423808B (en) 2005-03-04 2010-02-17 Ford Global Tech Llc Motor vehicle control system for controlling one or more vehicle devices
US20060218573A1 (en) 2005-03-04 2006-09-28 Stexar Corp. Television program highlight tagging
KR100688743B1 (ko) 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
US7643056B2 (en) 2005-03-14 2010-01-05 Aptina Imaging Corporation Motion detecting camera system
US7877703B1 (en) 2005-03-14 2011-01-25 Seven Networks, Inc. Intelligent rendering of information in a limited display environment
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US8147248B2 (en) 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US20070214471A1 (en) 2005-03-23 2007-09-13 Outland Research, L.L.C. System, method and computer program product for providing collective interactive television experiences
US7487461B2 (en) 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
WO2006124935A2 (en) 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
WO2006125133A2 (en) 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
US20060280055A1 (en) 2005-06-08 2006-12-14 Miller Rodney D Laser power control and device status monitoring for video/graphic applications
US7646960B2 (en) 2005-06-09 2010-01-12 International Business Machines Corporation Determining chapters based on presentation of a program
US20070033607A1 (en) 2005-08-08 2007-02-08 Bryan David A Presence and proximity responsive program display
TWI412392B (zh) 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
TW200713060A (en) 2005-09-30 2007-04-01 Primax Electronics Ltd Adaptive input method for touch screen
US7519201B2 (en) 2005-10-28 2009-04-14 Honda Motor Co., Ltd. Detecting humans via their pose
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
GB2431717A (en) 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US20070143787A1 (en) * 2005-12-19 2007-06-21 Cankaya Hakki C System and method for providing context-aware local advertising in IPTV systems
US20070140532A1 (en) 2005-12-20 2007-06-21 Goffin Glen P Method and apparatus for providing user profiling based on facial recognition
US20070150281A1 (en) 2005-12-22 2007-06-28 Hoff Todd M Method and system for utilizing emotion to search content
US8556722B2 (en) * 2005-12-27 2013-10-15 Microsoft Corporation Streaming media casts, such as in a video game or mobile device environment
US20070150916A1 (en) 2005-12-28 2007-06-28 James Begole Using sensors to provide feedback on the access of digital content
US20070214292A1 (en) 2006-02-24 2007-09-13 Gillian Hayes System and method for archiving of continuous capture buffers
JP4917615B2 (ja) 2006-02-27 2012-04-18 プライム センス リミティド スペックルの無相関を使用した距離マッピング(rangemapping)
US8321889B2 (en) 2006-03-08 2012-11-27 Kamfu Wong Method and system for personalized and localized TV ad delivery
US20070219430A1 (en) 2006-03-17 2007-09-20 Moore Barrett H Electricity Providing Privately Provisioned Subscription-Based Survival Supply Unit Method And Apparatus
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US8491159B2 (en) 2006-03-28 2013-07-23 Wireless Environment, Llc Wireless emergency lighting system
US8362713B2 (en) 2006-03-28 2013-01-29 Wireless Environment, Llc Wireless lighting devices and grid-shifting applications
US7568116B2 (en) 2006-04-14 2009-07-28 Clever Innovations, Inc. Automated display device
DE102006021414A1 (de) 2006-05-05 2007-11-08 Claudia Eisert Flexibles orthetisches Bekleidungsstück
EP2194509A1 (en) 2006-05-07 2010-06-09 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
CN101536512A (zh) 2006-05-18 2009-09-16 尼尔森(美国)有限公司 合作者安装测量仪的方法和设备
US7721207B2 (en) 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US7640304B1 (en) 2006-06-14 2009-12-29 Yes International Ag System and method for detecting and measuring emotional indicia
US7818290B2 (en) 2006-06-14 2010-10-19 Identity Metrics, Inc. System to associate a demographic to a user of an electronic system
JP2009543407A (ja) 2006-06-27 2009-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ テレビジョン番組への広告の挿入
EP2044592A1 (en) 2006-07-12 2009-04-08 Koninklijke Philips Electronics N.V. A device and a method for playing audio-video content
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
TW200806029A (en) 2006-07-14 2008-01-16 Asustek Comp Inc Display system and control method thereof
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US20080027984A1 (en) 2006-07-31 2008-01-31 Motorola, Inc. Method and system for multi-dimensional action capture
US8775237B2 (en) 2006-08-02 2014-07-08 Opinionlab, Inc. System and method for measuring and reporting user reactions to advertisements on a web page
US20080052026A1 (en) 2006-08-23 2008-02-28 Qurio Holdings, Inc. Configuring a content capture device for one or more service providers
AU2007293092A1 (en) 2006-09-05 2008-03-13 Innerscope Research, Inc. Method and system for determining audience response to a sensory stimulus
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
WO2008032329A2 (en) 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
US8645973B2 (en) 2006-09-22 2014-02-04 Oracle International Corporation Mobile applications
US8287372B2 (en) 2006-09-28 2012-10-16 Mattel, Inc. Interactive toy and display system
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7806329B2 (en) 2006-10-17 2010-10-05 Google Inc. Targeted video advertising
KR100828371B1 (ko) 2006-10-27 2008-05-08 삼성전자주식회사 컨텐츠의 메타 데이터 생성 방법 및 장치
EP1919216A1 (en) 2006-10-30 2008-05-07 British Telecommunications Public Limited Company Personalised media presentation
US8102422B1 (en) 2006-11-22 2012-01-24 Amdocs Software Systems Limited System, method and computer program product for presenting an option to receive advertisement content
WO2008067413A2 (en) 2006-11-28 2008-06-05 Attune Interactive, Inc. Training system using an interactive prompt character
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
CN101202994B (zh) 2006-12-14 2012-10-24 北京三星通信技术研究有限公司 辅助用户健身的方法和装置
KR100720335B1 (ko) 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
KR20080058740A (ko) 2006-12-22 2008-06-26 삼성전자주식회사 디지털 방송 수신 장치 및 시간 동기화 방법
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US9311528B2 (en) 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US20080163283A1 (en) 2007-01-03 2008-07-03 Angelito Perez Tan Broadband video with synchronized highlight signals
US7770136B2 (en) 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US20090070798A1 (en) 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US20080234023A1 (en) 2007-03-23 2008-09-25 Ajmal Mullahkhel Light game
US20100007801A1 (en) 2007-04-03 2010-01-14 TTE Technology, Inc System and method for toggling between system power modes based on motion detection
US8390649B2 (en) 2007-04-30 2013-03-05 Hewlett-Packard Development Company, L.P. Electronic device input control system and method
US20090217315A1 (en) 2008-02-26 2009-08-27 Cognovision Solutions Inc. Method and system for audience measurement and targeting media
WO2008144575A2 (en) 2007-05-18 2008-11-27 Optiscan Biomedical Corporation Fluid injection and safety system
US20080310707A1 (en) 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
US8078787B2 (en) 2007-06-22 2011-12-13 Apple Inc. Communication between a host device and an accessory via an intermediate device
US8817061B2 (en) 2007-07-02 2014-08-26 Cisco Technology, Inc. Recognition of human gestures by a mobile phone
KR20090002809A (ko) 2007-07-04 2009-01-09 삼성전자주식회사 어플리케이션에서 생성된 데이터를 hdmi cec에 따라송수신하는 방법
EP2017707B1 (en) 2007-07-06 2017-04-12 Dassault Systèmes Widget of graphical user interface and method for navigating amongst related objects
US7865916B2 (en) 2007-07-20 2011-01-04 James Beser Audience determination for monetizing displayable content
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20090037945A1 (en) * 2007-07-31 2009-02-05 Hewlett-Packard Development Company, L.P. Multimedia presentation apparatus, method of selecting multimedia content, and computer program product
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8081302B2 (en) 2007-08-17 2011-12-20 Princeton Satellite Systems, Inc. Multimode optical sensor
US8156118B2 (en) 2007-08-20 2012-04-10 Samsung Electronics Co., Ltd. Method and system for generating playlists for content items
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US8132187B2 (en) 2007-08-31 2012-03-06 Microsoft Corporation Driver installer usable in plural environments
US10091345B2 (en) 2007-09-04 2018-10-02 Apple Inc. Media out interface
KR101182286B1 (ko) 2007-09-19 2012-09-14 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
US7899777B2 (en) 2007-09-27 2011-03-01 Rockwell Automation Technologies, Inc. Web-based visualization mash-ups for industrial automation
EP2042969A1 (en) 2007-09-28 2009-04-01 Alcatel Lucent Method for determining user reaction with specific content of a displayed page.
US8522289B2 (en) 2007-09-28 2013-08-27 Yahoo! Inc. Distributed automatic recording of live event
US8151292B2 (en) 2007-10-02 2012-04-03 Emsense Corporation System for remote access to media, and reaction and survey data from viewers of the media
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US8776102B2 (en) 2007-10-09 2014-07-08 At&T Intellectual Property I, Lp System and method for evaluating audience reaction to a data stream
US20090106645A1 (en) 2007-10-17 2009-04-23 Thinkingcraft, Inc. Adaptive response/interpretive expression, communication distribution, and intelligent determination system and method
US8171035B2 (en) 2007-10-22 2012-05-01 Samsung Electronics Co., Ltd. Situation-aware recommendation using correlation
US8001108B2 (en) 2007-10-24 2011-08-16 The Invention Science Fund I, Llc Returning a new content based on a person's reaction to at least two instances of previously displayed content
CN101842810B (zh) 2007-10-30 2012-09-26 惠普开发有限公司 具有协作姿态检测的交互式显示系统
US8094891B2 (en) 2007-11-01 2012-01-10 Sony Ericsson Mobile Communications Ab Generating music playlist based on facial expression
CN101925915B (zh) 2007-11-21 2016-06-22 高通股份有限公司 设备访问控制
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8471868B1 (en) 2007-11-28 2013-06-25 Sprint Communications Company L.P. Projector and ultrasonic gesture-controlled communicator
US20090150919A1 (en) 2007-11-30 2009-06-11 Lee Michael J Correlating Media Instance Information With Physiological Responses From Participating Subjects
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US20090157472A1 (en) 2007-12-14 2009-06-18 Kimberly-Clark Worldwide, Inc. Personalized Retail Information Delivery Systems and Methods
US9098766B2 (en) 2007-12-21 2015-08-04 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8588816B2 (en) 2007-12-21 2013-11-19 Qualcomm Incorporated Systems and methods for targeted advertising on wireless devices based on device location and current user interests
TW200928892A (en) 2007-12-28 2009-07-01 Wistron Corp Electronic apparatus and operation method thereof
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8090030B2 (en) 2008-01-04 2012-01-03 Silicon Image, Inc. Method, apparatus and system for generating and facilitating mobile high-definition multimedia interface
US8646017B2 (en) 2008-01-14 2014-02-04 At&T Intellectual Property I, L.P. Method and apparatus for providing collaborative viewing of a media stream
US8166421B2 (en) 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8059111B2 (en) 2008-01-21 2011-11-15 Sony Computer Entertainment America Llc Data transfer using hand-held device
US7904530B2 (en) 2008-01-29 2011-03-08 Palo Alto Research Center Incorporated Method and apparatus for automatically incorporating hypothetical context information into recommendation queries
US7889073B2 (en) 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
JP2009186630A (ja) * 2008-02-05 2009-08-20 Nec Corp 広告配信装置
WO2009099296A2 (en) 2008-02-05 2009-08-13 Lg Electronics Inc. Virtual optical input device for providing various types of interfaces and method of controlling the same
JP5259212B2 (ja) * 2008-02-26 2013-08-07 Kddi株式会社 音楽連動型広告配信方法、装置およびシステム
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
KR101365776B1 (ko) 2008-04-08 2014-02-20 엘지디스플레이 주식회사 멀티 터치 시스템 및 그 구동 방법
EP2108328B2 (de) 2008-04-09 2020-08-26 Brainlab AG Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
GB2459707B (en) 2008-05-01 2010-08-11 Sony Computer Entertainment Inc Media recorder, audio visual entertainment system and method
CN102027450B (zh) 2008-05-20 2015-05-13 思杰系统有限公司 由移动计算装置使用外部显示装置的方法和系统
US7984197B2 (en) 2008-05-27 2011-07-19 Eyran Lida Methods and devices for on the fly CEC modification
US8477139B2 (en) 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
JP2009302751A (ja) 2008-06-11 2009-12-24 Sharp Corp 要約再生装置、要約再生方法、要約再生プログラム、および記録媒体
US9130684B2 (en) 2008-06-23 2015-09-08 Echostar Technologies L.L.C. Systems and methods for conserving energy in an entertainment system
JP2010016623A (ja) 2008-07-03 2010-01-21 Hitachi Ltd コンテンツ視聴システム
CN201247590Y (zh) 2008-08-01 2009-05-27 鸿富锦精密工业(深圳)有限公司 可自动切换显示模式的电子相框
US9269090B2 (en) 2008-08-18 2016-02-23 Nokia Technologies Oy Method, apparatus and computer program product for providing indications regarding recommended content
US20100070987A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
US8925001B2 (en) 2008-09-12 2014-12-30 At&T Intellectual Property I, L.P. Media stream generation based on a category of user expression
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
US8516561B2 (en) 2008-09-29 2013-08-20 At&T Intellectual Property I, L.P. Methods and apparatus for determining user authorization from motion of a gesture-based control unit
JP2010086356A (ja) 2008-09-30 2010-04-15 Nec Corp 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム
US20100086204A1 (en) 2008-10-03 2010-04-08 Sony Ericsson Mobile Communications Ab System and method for capturing an emotional characteristic of a user
US8544046B2 (en) 2008-10-09 2013-09-24 Packetvideo Corporation System and method for controlling media rendering in a network using a mobile device
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US9399167B2 (en) 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
US20100107184A1 (en) 2008-10-23 2010-04-29 Peter Rae Shintani TV with eye detection
US8040237B2 (en) 2008-10-29 2011-10-18 The Nielsen Company (Us), Llc Methods and apparatus to detect carrying of a portable audience measurement device
US9374617B2 (en) 2008-10-30 2016-06-21 Taboola.Com Ltd System and method for the presentation of alternative content to viewers video content
US8752087B2 (en) 2008-11-07 2014-06-10 At&T Intellectual Property I, L.P. System and method for dynamically constructing personalized contextual video programs
JP5224360B2 (ja) * 2008-11-10 2013-07-03 日本電気株式会社 電子広告装置、電子広告方法及びプログラム
JP5489197B2 (ja) 2008-11-10 2014-05-14 九州日本電気ソフトウェア株式会社 電子広告装置・方法及びプログラム
US20100138797A1 (en) 2008-12-01 2010-06-03 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
KR101531363B1 (ko) 2008-12-10 2015-07-06 삼성전자주식회사 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
US20100153984A1 (en) 2008-12-12 2010-06-17 Microsoft Corporation User Feedback Based Highlights of Recorded Programs
US20100161424A1 (en) 2008-12-22 2010-06-24 Nortel Networks Limited Targeted advertising system and method
JP4775671B2 (ja) 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8856829B2 (en) 2008-12-29 2014-10-07 Ngc Network Us, Llc Interactive display highlight systems, methods, and computer program products
US20100169157A1 (en) 2008-12-30 2010-07-01 Nokia Corporation Methods, apparatuses, and computer program products for providing targeted advertising
US20100169842A1 (en) 2008-12-31 2010-07-01 Microsoft Corporation Control Function Gestures
US20100191631A1 (en) 2009-01-29 2010-07-29 Adrian Weidmann Quantitative media valuation method, system and computer program
TW201032087A (en) 2009-02-19 2010-09-01 Asustek Comp Inc Command control system and method thereof
CN101833286A (zh) 2009-03-13 2010-09-15 王俊锋 一种智能家居控制器
US20100248832A1 (en) 2009-03-30 2010-09-30 Microsoft Corporation Control of video game via microphone
US9172482B2 (en) 2009-03-31 2015-10-27 At&T Intellectual Property I, L.P. Content recommendations based on personal preferences
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
CN101546248B (zh) 2009-05-05 2014-04-09 阿里巴巴集团控股有限公司 一种级联式选择菜单的呈现方法及装置
KR101567603B1 (ko) 2009-05-07 2015-11-20 엘지전자 주식회사 멀티 음성 시스템의 동작 제어 장치 및 방법
JP5299866B2 (ja) 2009-05-19 2013-09-25 日立コンシューマエレクトロニクス株式会社 映像表示装置
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8255955B1 (en) 2009-06-16 2012-08-28 Tivo Inc. Dynamic item highlighting system
US9594431B2 (en) 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
US9445036B2 (en) 2009-06-30 2016-09-13 Rovi Guides, Inc. Methods and systems for content scheduling across multiple devices
US20100332842A1 (en) 2009-06-30 2010-12-30 Yahoo! Inc. Determining a mood of a user based on biometric characteristic(s) of the user in an online system
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US20110016102A1 (en) 2009-07-20 2011-01-20 Louis Hawthorne System and method for identifying and providing user-specific psychoactive content
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP5397081B2 (ja) 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
US8326002B2 (en) 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US7873849B2 (en) 2009-09-02 2011-01-18 Apple Inc. Motion sensor data processing using various power management modes
WO2011030357A1 (en) 2009-09-08 2011-03-17 Telecom Italia S.P.A. Method for exploring a catalog of digital information contents
US8275834B2 (en) 2009-09-14 2012-09-25 Applied Research Associates, Inc. Multi-modal, geo-tempo communications systems
US8875167B2 (en) 2009-09-21 2014-10-28 Mobitv, Inc. Implicit mechanism for determining user response to media
US20110084983A1 (en) 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
US20110077718A1 (en) 2009-09-30 2011-03-31 Broadcom Corporation Electromagnetic power booster for bio-medical units
KR20110045565A (ko) * 2009-10-27 2011-05-04 한국전자통신연구원 광고 서비스 제공 방법
KR101647722B1 (ko) 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8627230B2 (en) 2009-11-24 2014-01-07 International Business Machines Corporation Intelligent command prediction
WO2011069035A1 (en) 2009-12-04 2011-06-09 Tivo Inc. Multifunction multimedia device
US20110145040A1 (en) 2009-12-16 2011-06-16 Microsoft Corporation Content recommendation
KR20110076458A (ko) 2009-12-29 2011-07-06 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US8719776B2 (en) 2009-12-30 2014-05-06 Foneclay, Inc. System for creation and distribution of software applications usable on multiple mobile device platforms
US10356465B2 (en) 2010-01-06 2019-07-16 Sony Corporation Video system demonstration
US20110173589A1 (en) 2010-01-13 2011-07-14 Microsoft Corporation Cross-Browser Interactivity Testing
CN101777250B (zh) 2010-01-25 2012-01-25 中国科学技术大学 家用电器的通用遥控装置及方法
JP5609160B2 (ja) 2010-02-26 2014-10-22 ソニー株式会社 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体
US20110216059A1 (en) 2010-03-03 2011-09-08 Raytheon Company Systems and methods for generating real-time three-dimensional graphics in an area of interest
US9124651B2 (en) 2010-03-30 2015-09-01 Microsoft Technology Licensing, Llc Controlling media consumption privacy settings
US20110242305A1 (en) 2010-04-01 2011-10-06 Peterson Harry W Immersive Multimedia Terminal
JP5521727B2 (ja) 2010-04-19 2014-06-18 ソニー株式会社 画像処理システム、画像処理装置、画像処理方法及びプログラム
US20110263946A1 (en) 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US20110264531A1 (en) 2010-04-26 2011-10-27 Yahoo! Inc. Watching a user's online world
US9503786B2 (en) * 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US8966447B2 (en) 2010-06-21 2015-02-24 Apple Inc. Capturing and displaying state of automated user-level testing of a graphical user interface application
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US20110316845A1 (en) 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US20110320741A1 (en) 2010-06-28 2011-12-29 Nokia Corporation Method and apparatus providing for direct controlled access to a dynamic user profile
US8423912B2 (en) 2010-06-29 2013-04-16 Pourang Irani Selectable parent and submenu object display method with varied activation area shape
US9009339B2 (en) 2010-06-29 2015-04-14 Echostar Technologies L.L.C. Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content
US20120005632A1 (en) 2010-06-30 2012-01-05 Broyles Iii Paul J Execute a command
US8453176B2 (en) 2010-08-20 2013-05-28 Avaya Inc. OCAP/STB ACAP/satellite-receiver audience response/consumer application
US8499245B1 (en) 2010-08-24 2013-07-30 Amazon Technologies, Inc. Multi-source profiling for adaptive device operation
US9247205B2 (en) 2010-08-31 2016-01-26 Fujitsu Limited System and method for editing recorded videoconference data
US8949871B2 (en) 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
US20120079521A1 (en) 2010-09-23 2012-03-29 Garg Sharad K Incentivizing advertisement viewing and validating associated purchase
US20120084812A1 (en) 2010-10-04 2012-04-05 Mark Thompson System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20120109726A1 (en) 2010-10-30 2012-05-03 Verizon Patent And Licensing, Inc. Methods and Systems for Trigger-Based Updating of an Index File Associated with a Captured Media Content Instance
US9348417B2 (en) 2010-11-01 2016-05-24 Microsoft Technology Licensing, Llc Multimodal input system
US20120117015A1 (en) 2010-11-05 2012-05-10 Nokia Corporation Method and apparatus for providing rule-based recommendations
US10034034B2 (en) 2011-07-06 2018-07-24 Symphony Advanced Media Mobile remote media control platform methods
JP4945675B2 (ja) 2010-11-12 2012-06-06 株式会社東芝 音響信号処理装置、テレビジョン装置及びプログラム
US8640021B2 (en) 2010-11-12 2014-01-28 Microsoft Corporation Audience-based presentation and customization of content
US20120174039A1 (en) 2011-01-05 2012-07-05 United Video Properties, Inc. Systems and methods for navigating through content in an interactive media guidance application
US20120209715A1 (en) 2011-02-11 2012-08-16 Microsoft Corporation Interaction with networked screen content via motion sensing device in retail setting
US20110145041A1 (en) 2011-02-15 2011-06-16 InnovatioNet System for communication between users and global media-communication network
WO2012117278A2 (en) 2011-02-28 2012-09-07 Telefonaktiebolaget Lm Ericsson (Publ) Electronically communicating media recommendations responsive to preferences for an electronic terminal
US20120226981A1 (en) 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
EP3654147A1 (en) 2011-03-29 2020-05-20 QUALCOMM Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9088823B1 (en) 2011-04-29 2015-07-21 Amazon Technologies, Inc. Customized insertions into digital items
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US9026476B2 (en) 2011-05-09 2015-05-05 Anurag Bist System and method for personalized media rating and related emotional profile analytics
US20120304059A1 (en) 2011-05-24 2012-11-29 Microsoft Corporation Interactive Build Instructions
US20120304206A1 (en) 2011-05-26 2012-11-29 Verizon Patent And Licensing, Inc. Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US20120324491A1 (en) 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
US9077458B2 (en) * 2011-06-17 2015-07-07 Microsoft Technology Licensing, Llc Selection of advertisements via viewer feedback
US8136724B1 (en) 2011-06-24 2012-03-20 American Express Travel Related Services Company, Inc. Systems and methods for gesture-based interaction with computer systems
US9026948B2 (en) 2011-06-29 2015-05-05 Microsoft Technology Licensing, Llc Multi-faceted relationship hubs
US8368723B1 (en) 2011-07-14 2013-02-05 Google Inc. User input combination of touch and user position
US9392308B2 (en) 2011-08-04 2016-07-12 Thomson Licensing Content recommendation based on user location and available devices
US9933935B2 (en) 2011-08-26 2018-04-03 Apple Inc. Device, method, and graphical user interface for editing videos
US9569439B2 (en) 2011-10-31 2017-02-14 Elwha Llc Context-sensitive query enrichment
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US20130145385A1 (en) 2011-12-02 2013-06-06 Microsoft Corporation Context-based ratings and recommendations for media
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8943526B2 (en) 2011-12-02 2015-01-27 Microsoft Corporation Estimating engagement of consumers of presented content
US9100685B2 (en) * 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20130159555A1 (en) 2011-12-20 2013-06-20 Microsoft Corporation Input commands
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US20130268955A1 (en) 2012-04-06 2013-10-10 Microsoft Corporation Highlighting or augmenting a media program
US20130283162A1 (en) * 2012-04-23 2013-10-24 Sony Mobile Communications Ab System and method for dynamic content modification based on user reactions
CA2775814C (en) 2012-05-04 2013-09-03 Microsoft Corporation Advertisement presentation based on a current media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
JP6064544B2 (ja) 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
US9996974B2 (en) 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
US20150262412A1 (en) 2014-03-17 2015-09-17 Qualcomm Incorporated Augmented reality lighting with dynamic geometry
US9959675B2 (en) 2014-06-09 2018-05-01 Microsoft Technology Licensing, Llc Layout design using locally satisfiable proposals

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007073059A (ja) 2004-07-07 2007-03-22 Defacto:Kk 広告システム、及び、広告結果記録方法
US20070271580A1 (en) 2006-05-16 2007-11-22 Bellsouth Intellectual Property Corporation Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics

Also Published As

Publication number Publication date
EP2845163A2 (en) 2015-03-11
US20150128161A1 (en) 2015-05-07
MX2014013427A (es) 2014-12-08
JP6291481B2 (ja) 2018-03-14
JP2015521413A (ja) 2015-07-27
US20130298146A1 (en) 2013-11-07
CA2775700C (en) 2013-07-23
RU2014144369A (ru) 2016-06-27
US9788032B2 (en) 2017-10-10
TW201407516A (zh) 2014-02-16
BR112014026648A2 (pt) 2017-06-27
BR112014026648A8 (pt) 2021-05-25
AU2013256054B2 (en) 2019-01-31
WO2013166474A2 (en) 2013-11-07
KR20150013237A (ko) 2015-02-04
AU2013256054A1 (en) 2014-11-13
MX345058B (es) 2017-01-16
WO2013166474A3 (en) 2014-10-23
CA2775700A1 (en) 2012-07-09
EP2845163A4 (en) 2015-06-10
RU2646367C2 (ru) 2018-03-02
US8959541B2 (en) 2015-02-17

Similar Documents

Publication Publication Date Title
KR102068376B1 (ko) 현재 프리젠팅된 미디어 프로그램의 미래 부분의 결정
US10798438B2 (en) Determining audience state or interest using passive sensor data
US8635637B2 (en) User interface presenting an animated avatar performing a media reaction
CA2775814C (en) Advertisement presentation based on a current media reaction
TWI581128B (zh) 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體
US20130268955A1 (en) Highlighting or augmenting a media program
US20140337868A1 (en) Audience-aware advertising
US20140325540A1 (en) Media synchronized advertising overlay
WO2014179515A2 (en) Management of user media impressions
CN103383597B (zh) 用于呈现媒体节目的方法
CN103383764A (zh) 基于当前媒体反应的广告呈现

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant