BRPI0619388A2 - aplicações sociais e interativas para mìdia de massa - Google Patents
aplicações sociais e interativas para mìdia de massa Download PDFInfo
- Publication number
- BRPI0619388A2 BRPI0619388A2 BRPI0619388-9A BRPI0619388A BRPI0619388A2 BR PI0619388 A2 BRPI0619388 A2 BR PI0619388A2 BR PI0619388 A BRPI0619388 A BR PI0619388A BR PI0619388 A2 BRPI0619388 A2 BR PI0619388A2
- Authority
- BR
- Brazil
- Prior art keywords
- media content
- descriptor
- information
- custom information
- custom
- Prior art date
Links
- 230000002452 interceptive effect Effects 0.000 title abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 74
- 238000004590 computer program Methods 0.000 claims abstract description 7
- 239000012634 fragment Substances 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000000295 complement effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims 3
- 230000008569 process Effects 0.000 description 28
- 239000000463 material Substances 0.000 description 23
- 230000007704 transition Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000010949 copper Substances 0.000 description 2
- 229910052802 copper Inorganic materials 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241001626506 Philypnodon Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 235000011389 fruit/vegetable juice Nutrition 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
- H04H60/372—Programme
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
- H04H60/375—Commercial
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/58—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/59—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/64—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for providing detail information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/252—Processing of multiple end-users' preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/26603—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for automatically generating descriptors from content, e.g. when it is not made available by its provider, using content analysis techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/4143—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44016—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440236—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
- H04N21/4542—Blocking scenes or portions of the received content, e.g. censoring scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4756—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4782—Web browsing, e.g. WebTV
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17336—Handling of requests in head-ends
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/12—Arrangements for observation, testing or troubleshooting
- H04H20/14—Arrangements for observation, testing or troubleshooting for monitoring programmes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H2201/00—Aspects of broadcast communication
- H04H2201/90—Aspects of broadcast communication characterised by the use of signatures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/02—Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
- H04H60/06—Arrangements for scheduling broadcast services or broadcast-related services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/45—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/65—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on users' side
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/66—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on distributors' side
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/76—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
- H04H60/78—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations
- H04H60/80—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations characterised by transmission among terminal devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/76—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
- H04H60/81—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself
- H04H60/82—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet
- H04H60/87—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet accessed over computer networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Computing Systems (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
APLICAçõES SOCIAIS E INTERATIVAS PARA MìDIA DE MASSA. A presente invenção refere-se a sistemas, métodos, aparelhos, interfaces com o usuário e produtos de programa de computador que proporcionam aplicações sociais e interativas para mídia de massa baseado na identificação em tempo real de áudio e/ou vídeo ambiente. Em algumas implementações, um método inclui receber descritores identificando áudio ambiente associado a uma radiodifusão de mídia, comparando os descritores com um ou mais descritores de referência, e determinando uma estatística de índice de audiência para a radiodifusão de midia baseada pelo menos em parte nos resultados da comparação.
Description
Relatório Descritivo da Patente de Invenção para "APLICAÇÕES SOCIAIS E INTERATIVAS PARA MÍDIA DE MASSA".
PEDIDOS RELACIONADOS
Este Pedido reivindica benefício de prioridade a partir do Pedido de Patente Provisória US 60/740.760, para "Environment-Based Referrals", depositado em 29 de Novembro de 2005, pedido este que é incorporado a- qui por referência neste documento em sua totalidade.
Este pedido reivindica o benefício de prioridade a partir do Pedi- do de Patente Provisória US 60/823.881, para "Audio Identification Based on Signatures", depositado em 29 de Agosto de 2006, pedido este que é incor- porado por referência neste documento em sua totalidade.
CAMPO TÉCNICO
As implementações descritas estão relacionadas a aplicações sociais e interativas para mídia de massa.
ANTECEDENTES
Os canais de mídia de massa (por exemplo, televisão e radiodi- fusão) tipicamente proporcionam conteúdo limitado para uma grande audi- ência. Em contraste, a Rede Ampla Mundial (WWW) proporciona grande quantidade de informações que podem interessar somente a poucos indiví- duos. A televisão interativa convencional tenta ligar estes dois meios de co- municação por proporcionar um dispositivo para os telespectadores interagi- rem com suas televisões e receber conteúdo e / ou serviços relacionados às difusões de televisão.
A televisão interativa convencional tipicamente só é disponível para os telespectadores através de cabo ou de redes de satélite pagando uma taxa de assinatura. Para receber o serviço de televisão interativa, o te- lespectador tem que alugar ou comprar uma caixa decodificadora e ter a mesma instalada por um técnico. A televisão do telespectador é conectada com a caixa decodificadora, o que permite ao telespectador interagir com a televisão utilizando um controle remoto ou outro dispositivo de entrada, e receber informações, entretenimento e serviços (por exemplo, propagandas, compras on-line, formulários e pesquisas, jogos e atividades, etc). Ao mesmo tempo em que a televisão interativa convencional pode aperfeiçoar a experiência de televisão do telespectador, permanece uma necessidade por aplicações sociais e interativas para mídia de massa que não conte com hardware adicional significativo ou com conexões físicas entre a televisão ou o rádio e uma caixa decodificadora ou computador.
Uma aplicação de televisão social e interativa que está ausente nos sistemas de televisão convencionais e interativos é a habilidade de pro- porcionar informação complementar para o canal de mídia de massa de uma maneira fácil. Com os sistemas convencionais, um usuário teria que se co- nectar com um computador e consultar tais informações, o que iria diminuir a experiência passiva oferecida pela mídia de massa. Além disso, os sistemas de televisão convencionais não podem proporcionar informações comple- mentares em tempo real enquanto o usuário está assistindo uma programa- ção.
Outra aplicação de televisão social e interativa que está ausente nos sistemas de televisão interativa convencionais é a habilidade de dinami- camente ligar um telespectador com uma comunidade par social eventual (por exemplo, grupo de discussão, salas de bate-papo, etc) em tempo real. Imagine que você está assistindo ao último episódio de "Friends" na televi- são e descobre que a personagem "Monica" está grávida. Você deseja bater papo on-line, comentar ou ler as respostas de outros telespectadores para a cena em tempo real. Uma opção seria se conectar no seu computador, digi- tar o nome "Friends" ou outros termos relacionados em um mecanismo de pesquisa, e executar uma pesquisa para encontrar um grupo de discussão em relação a "Friends". Entretanto, tal ação requerida pelo telespectador diminuiria a experiência passiva oferecida pela mídia de massa e não permi- tira ao telespectador dinamicamente interagir (por exemplo, comentar, bater papo on-line, etc) com outros telespectadores que estão assistindo ao pro- grama ao mesmo tempo.
Outra deficiência nos sistemas de televisão convencionais e nos sistemas de televisão interativos é um método simples para acessar a popu- laridade dos eventos de difusão. As estatísticas de audiência de programas de televisão de popularidade dos eventos de difusão são de alto interesse para os usuários, para as emissoras de rádio e televisão, e para os anunci- antes. Essas necessidades são parcialmente resolvidas pelos sistemas de medição tal como as estatísticas de audiência de programas de televisão Nielsen®. Estas estatísticas de audiência de programas de televisão, entre- tanto, exigem instalação de hardware dedicado e cooperação dos telespec- tadores participantes.
SUMÁRIO
As deficiências descritas acima são endereçadas pelos siste- mas, métodos, aparelhos, interfaces com o usuário e produtos de programa de computador descritos para proporcionar aplicações sociais e interativas baseadas na identificação em tempo real do ambiente de áudio e / ou de vídeo.
Em algumas implementações, um método inclui: receber um descritor identificando o áudio ambiente associado a uma difusão de mídia; comparar o descritor com descritores de referência associados à difusão de mídia; e agregar informação personalizada relacionada com a difusão de mídia baseado no resultado da comparação.
Em algumas implementações, o método inclui: receber um pri- meiro descritor identificando o áudio ambiente associado a uma primeira di- fusão de mídia; receber um segundo descritor identificando o áudio ambiente associado a uma segunda difusão de mídia; comparar o primeiro e o segun- do descritores para determinar se a primeira e a segunda difusões de mídia forem a mesma; e agregar informação personalizada baseado no resultado da comparação.
Em algumas implementações, o método inclui: detectar áudio ambiente associado a uma difusão de mídia; gerar descritores identificando a difusão de mídia; transmitir os descritores para um recurso da rede; e re- ceber informação personalizada agregada a partir do recurso da rede base- ado nos descritores.
Em algumas implementações, um sistema inclui uma base de dados de descritores de referência. Um servidor de base de dados está ope- rativamente acoplado com a base de dados e com um sistema cliente. O servidor de base de dados é configurável para receber um descritor a partir do sistema cliente para identificar áudio ambiente associado à difusão de mídia, comparar o descritor recebido com um ou mais descritores de refe- rência, e agregar informação personalizada relacionada com a difusão de mídia baseado no resultado da comparação.
Em algumas implementações, um sistema inclui um detector de áudio configurável para fazer a amostragem do áudio ambiente. Uma inter- face do cliente está operativamente acoplada com o detector de áudio e é configurável para gerar descritores identificando uma difusão de mídia. A interface do cliente é configurável para transmitir os descritores para um re- curso da rede e para receber informação personalizada agregada a partir do recurso da rede baseado nos descritores.
Em algumas implementações, um método inclui: receber descri- tores identificando áudio ambiente associado a uma difusão de mídia; com- parar os descritores com um ou mais descritores de referência; e determinar uma estatística de audiência de programas de televisão parà difusão de mí- dia baseada pelo menos em parte nos resultados da comparação.
Em algumas implementações, um método inclui: gerar descrito- res identificando áudio ambiente associado a uma difusão de mídia; propor- cionar os descritores para um provedor de estatísticas de audiência de pro- gramas de televisão para determinar uma estatística de audiência de pro- gramas de televisão parà difusão de mídia baseado nos descritores; receber a estatística de audiência de programas de televisão a partir do provedor de estatísticas de audiência de programas de televisão; e exibir a estatística de audiência de programas de televisão em um dispositivo de vídeo.
Em algumas implementações, um método inclui: gravar fragmen- tos de áudio ambiente a partir de uma difusão de mídia; gerar um descritor a partir dos fragmentos de áudio ambiente; e proporcionar o descritor para um provedor de estatísticas de audiência de programas de televisão.
Em algumas implementações, um sistema inclui uma base de dados de descritores de referência. Um servidor está operativamente aco- piado com a base de dados e com um sistema cliente. O servidor é configu- rável para receber um descritor a partir do sistema cliente para identificar áudio ambiente associado a uma difusão de mídia, comparar o descritor re- cebido com um ou mais desertores de referência, e determinar uma estatís- tica de audiência de programa de televisão parà difusão de mídia baseada pelo menos em parte nos resultados da comparação.
Em algumas implementações, um sistema inclui um detector de áudio configurável para fazer amostragem do áudio ambiente. Uma interface do cliente está operativamente acoplada com o detector de áudio e é confi- gurável para gerar descritores identificando uma difusão de mídia. A interfa- ce do cliente é configurada para transmitir os descritores para um recurso da rede, e para receber informação de estatística de audiência de programa de televisão a partir do recurso da rede baseado nos descritores.
Outras implementações são direcionadas para sistemas, méto- dos, aparelhos, interfaces do usuário, e produtos de programa de computa- dor.
DESCRIÇÃO DOS DESENHOS
A figura 1 é um diagrama em blocos de uma modalidade de um sistema de personalização de massa.
A figura 2 ilustra uma modalidade de um sistema de identificação de áudio ambiente, incluindo a interface do lado do cliente apresentada na figura 1.
A figura 3 é um fluxograma de uma modalidade de um processo para proporcionar aplicações de personalização em massa.
A figura 4 é um fluxograma de uma modalidade de um processo de gravação de impressão digital de áudio.
A figura 5 é um fluxograma de uma modalidade de uma interface do usuário para interagir com as aplicações de personalização de massa.
A figura 6 é um diagrama em blocos de uma modalidade de ar- quitetura de hardware para um sistema cliente para implementar a interface do lado do cliente apresentadas na figura 1.
A figura 7 é um fluxograma de uma modalidade de um processo de detecção de repetição. DESCRIÇÃO DETALHADA Aplicações de Personalização de massa
As aplicações de personalização de massa proporcionam infor- mação personalizada e interativa para as transmissões de mídia de massa (por exemplo, televisão, rádio, filmes, difusões pela Internet, etc). Tais apli- cações incluem, mas não estão limitadas a: camadas de informação perso- nalizada; comunidades pares sociais eventuais; estatísticas de audiência de programa de televisão em relação à popularidade em tempo real e indicado- res de vídeo (ou de áudio), etc. Apesar de alguns exemplos de mídia de massa descritos neste documento serem no contexto de difusão de televi- são, as implementações descritas são igualmente aplicáveis a difusões de rádio e / ou de música.
As camadas de informação personalizada proporcionam infor- mação complementar para o canal de mídia de massa. Exemplos de cama- das de informação personalizada incluem, mas não estão limitados, a: moda, política, negócios, saúde, viagem, etc. Por exemplo, enquanto assistindo um segmento de notícias sobre uma celebridade, uma camada de moda é apre- sentada para o telespectador na tela de uma televisão ou no dispositivo de vídeo de um computador, a qual proporciona informações e / ou imagens relacionadas às roupas e aos acessórios que a celebridade está utilizando no segmento de notícias. Adicionalmente, camadas personalizadas podem incluir anúncios promovendo produtos ou serviços relacionados ao segmento de notícias, tal como uma ligação com uma loja de vestimentas que está vendendo roupas que a celebridade está utilizando.
As comunidades pares sociais eventuais proporcionam um ponto de encontro para comentários entre os usuários que estão assistindo ao mesmo programa na televisão ou escutando a mesma estação de rádio. Por exemplo, um usuário que está assistindo a última manchete da CNN pode ser proporcionado com um meio de comentário (por exemplo, uma sala de bate-papo, um quadro de mensagens, uma página wiki, uma ligação de ví- deo, etc) que permite ao usuário bater papo, comentar ou ler outras respos- tas de telespectadores parà difusão de mídia de massa em andamento.
As estatísticas de popularidade em tempo real proporcionam aos provedores de conteúdo e aos usuários informação de estatística de audiên- cia de programa de televisão (similar às estatísticas de audiência de pro- grama de televisão Nielsen). Por exemplo, um usuário instantaneamente pode receber as estatísticas de audiência de programa de televisão em tem- po real dos canais de televisão ou das estações de rádio sendo assistidos ou escutados pela rede social do usuário e / ou por pessoas com interesses similares.
Os indicadores de vídeo ou de áudio proporcionam aos usuários meios de baixo esforço para criar bibliotecas personalizadas de seu conteú- do de difusão favorito. Por exemplo, um usuário simplesmente pode pressio- nar um botão em um computador ou em um dispositivo de controle remoto e um fragmento de áudio ambiente e / ou de vídeo do conteúdo de difusão é gravado, processado e salvo. O fragmento pode ser utilizado como um indi- cador para referência ao programa, ou a partes do programa, para observa- ção posterior. O indicador pode ser compartilhado com amigos ou salvo para referência pessoal futura.
Rede de Personalização de massa
A figura 1 é um diagrama em blocos de um sistema de persona- lização de massa 100 para proporcionar aplicações de personalização de massa. O sistema 100 inclui uma ou mais interfaces do lado do cliente 102, um servidor de base de dados de áudio 104 e um servidor de aplicação so- cial 106, todos os quais se comunicam através de uma rede 108 (por exem- pio, Internet, Intranet, LAN, rede sem fios, etc).
Uma interface do cliente 102 pode ser qualquer dispositivo que permita a um usuário entrar e receber informação, e que seja capaz de a- presentar uma interface do usuário em um dispositivo de vídeo, incluindo, mas não limitado a: um computador de mesa ou portátil; um dispositivo ele- trônico; um telefone; um telefone móvel; um sistema de vídeo; uma televi- são; um monitor de computador; um sistema de navegação; um reprodutor / gravador de mídia portátil; um assistente pessoal digital (PDA); um console de jogo; um dispositivo eletrônico de mão; e um dispositivo ou aparelho do- méstico eletrônico embutido. A interface do cliente 102 é mais completamen- te descrita com relação à figura 2.
Em algumas implementações, a interface do cliente 102 inclui um detector de áudio ambiente (por exemplo, um microfone) para monitorar e gravar áudio ambiente de uma difusão de mídia de massa em um ambien- te de difusão (por exemplo, a sala de um usuário). Um ou mais segmentos ou "fragmentos" de áudio ambiente são convertidos em resumos estatísticos distintos e robustos, referidos como "impressões digitais de áudio" ou "des- critores". Em algumas implementações, os descritores são arquivos compac- tados contendo um ou mais componentes de assinatura de áudio que podem ser comparados com uma base de dados de descritores ou estatísticas de referência anteriormente gerados associados à difusão de mídia de massa.
Uma técnica para gerar impressões digitais de áudio para identi- ficação de música é descrita em Computer Vision for Music Indentification11 In Proc. Computer Vision and Pattern Recognition, de Ke, Y., Hoiem, D., Sukthar.kar, R. (2005), que é incorporado neste documento por referência em sua totalidade. Em algumas implementações, a abordagem de identifica- ção de música proposta por (daqui para frente, "Ke et al.") é adaptada gerar descritores para dados e consultas de áudio de televisão, como descrito com relação à figura 4.
Uma técnica para gerar descritores de áudio utilizando ondas pequenas é descrita no Pedido de Patente Provisória US 60/823. 881, para "Audio Identification Based on Signatures". Este pedido descreve uma técni- ca que utiliza uma combinação de técnicas de visão de computador e algo- ritmos de processamento de fluxo de dados em larga escala para criar des- critores / impressões digitais compactas de fragmentos de áudio que podem ser eficientemente associados. A técnica utiliza ondas pequenas, o que é uma ferramenta matemática conhecida para hierarquicamente decompor funções.
Em "Audio Identification Based on Signatures", uma implemen- tação de um processo de recuperação inclui as seguintes etapas: 1) dados os espectros de áudio de um fragmento de áudio, extrair imagens espectrais, por exemplo, com a duração de 11,6*w, com média de espaçamento aleató- rio com separação de d-ms. Para cada imagem espectral: 2) calcular ondas pequenas na imagem espectral; 3) extrair as ondas pequenas de parte de cima t; 4) criar uma representação binária das ondas pequenas de parte de cima t; 5) utilizar min-hash para criar uma subimpressão digital das ondas pequenas top t; 6) utilizar LSH com b depósitos e uma tabela hash para en- contrar segmentos de subimpressão digital que são associações próximas; 7) descartar subimpressões digitais com menos do que ν associações; 8) calcular uma distância de Hamming a partir das subimpressões digitais can- didatas restantes para a subimpressão digital de consulta; e 9) utilizar pro- gramação dinâmica para as associações combinadas através do tempo.
Em algumas implementações, os descritores e um identificador associado do usuário ("id do usuário"), para identificar a interface do lado do cliente 102 são enviados para o servidor de base de dados de áudio 104 via a rede 108. O servidor de base de dados de áudio 104 compara o descritor com vários descritores de referência, os quais foram previamente determi- nados e armazenados em uma base de dados de áudio 110 acoplada com o servidor de base de dados de áudio 104. Em algumas implementações, o servidor de base de dados de áudio 104 continuamente atualiza os descrito- res de referência armazenados na base de dados de áudio 110 a partir das difusões de mídia de massa recentes.
O servidor de base de dados de áudio 104 determina as melho- res associações entre os descritores recebidos e os descritores de referên- cia e envia a informação de melhor combinação para o servidor de aplicação social 106. O processo de associação é descrito mais completamente com relação à figura 4.
Em algumas implementações, o servidor de aplicação social 106 aceita conexões de navegador da Rede associadas a a interface do lado do cliente 102. Utilizando a informação de melhor combinação, o servidor de aplicação social 106 agrega informação personalizada para o usuário e en- via a informação personalizada para a interface do lado do cliente 102. A informação personalizada pode incluir, mas não está limitada a: anúncios, camadas de informação personalizada, estatísticas de índice de popularida- de e informação associada a um meio de comentário (por exemplo, comuni- dades pares sociais eventuais, fóruns, grupos de discussão, conferência de vídeo, etc.).
Em algumas implementações, a informação personalizada pode ser utilizada para criar uma sala de bate papo para telespectadores sem co- nhecer o programa que os telespectadores estão assistindo em tempo real. As salas de bate papo podem ser criadas por diretamente comparar os des- critores nos fluxos de dados transmitidos pelos sistemas clientes para de- terminar associações. Ou seja, as salas de bate papo podem ser criadas ao redor de telespectadores possuindo descritos associados. Em tal implemen- tação, não existe necessidade de comparar os descritores recebidos a partir dos telespectadores com os descritores de referência.
Em algumas implementações, o servidor de aplicação social 106 serve uma página da Rede para a interface do lado do cliente 102, a qual é recebida e exibida por um navegador da Rede (por exemplo, Microsoft Inter- net Explorer®) executando na interface do lado do cliente 102. O servidor de aplicação social 106 também recebe o id do usuário a partir da interface do lado do cliente 102 e / ou do servidor de base de dados de áudio 104 para ajudar a agregar o conteúdo personalizado e a servir páginas da Rede para a interface do lado do cliente 102.
Deve ser aparente que outras implementações do sistema 100 são possíveis. Por exemplo, o sistema 100 pode incluir várias bases de da- dos de áudio 110, servidores de base de dados de áudio 104 e / ou servido- res de aplicação social 106. Alternativamente, o servidor de base de dados de áudio 104 e o servidor de aplicação social 106 podem ser um único servi- dor ou sistema, ou parte de um recurso e / ou serviço da rede. Além disso, a rede 108 pode incluir várias redes e ligações operativamente acopladas jun- tas em várias topologias e disposições utilizando uma variedade de disposi- tivos de rede (por exemplo, concentradores, roteadores, etc.) e meios (por exemplo, cabo de cobre, fibra óptica, radio freqüências, etc.). As arquiteturas cliente - servidor são descritas neste documento somente como um exem- plo. Outras arquiteturas de computador são possíveis. Sistema de Identificação de Áudio Ambiente
A figura 2 ilustra um sistema de identificação de áudio ambiente 200, incluindo uma interface do lado do cliente 102 como apresentada na figura 1. O sistema 200 inclui um sistema de mídia de massa 202 (por e- xemplo, um aparelho de televisão, rádio, computador, dispositivo eletrônico, telefone móvel, console de jogo, computador de pouco recursos para rede, etc.), um detector de áudio ambiente 204, uma interface do lado do cliente 102 (por exemplo, um computador de mesa ou laptop, etc.) e um dispositivo de acesso à rede 206. Em algumas implementações, a interface do lado do cliente 102 inclui um dispositivo de vídeo 210 para apresentar uma interface do usuário (UI) 208 para permitir a um usuário interagir com uma aplicação de personalização de massa, como descrito com relação à figura 5.
Em operação, o sistema de mídia de massa 202 gera áudio am- biente de uma transmissão de mídia de massa (por exemplo, áudio de tele- visão), a qual é detectada pelo detector de áudio ambiente 204. O detector de áudio ambiente 204 pode ser qualquer dispositivo que possa detectar áudio ambiente, incluindo um microfone livre e um microfone que é integrado com a interface do lado do cliente 102. O áudio ambiente detectado é codifi- cado pela interface do lado do cliente 102 para proporcionar descritores i- dentificando o áudio ambiente. Os descritores são transmitidos para o servi- dor de base de dados de áudio 104 por meio do dispositivo de acesso à rede 206 e da rede 108.
Em algumas implementações, o software do cliente executando na interface do lado do cliente 102 continuamente monitora e grava arquivos de áudio ("fragmentos" de n segundos (por exemplo, 5 segundos)). Os frag- mentos são então convertidos em m quadros (por exemplos, 415 quadros) de descritores codificados de k bits (por exemplos, 32 bits), de acordo com um processo descrito com relação à figura 4. Em algumas implementações, o monitoramento e a gravação são baseados em evento. Por exemplo, o monitoramento e a gravação podem ser automaticamente iniciados em uma data especificada e em uma hora especificada (por exemplo, Segunda, 8:00 da noite) e por uma duração de tempo especificada (por exemplo, entre 8:00 e 9:00 da noite). Alternativamente, o monitoramento e a gravação podem ser iniciados em resposta a uma entrada do usuário (por exemplo, um clique do mouse, uma tecla de função ou combinação de teclas) a partir de um dispo- sitivo de controle (por exemplo, um controle remoto, etc.). Em algumas im- plementações, o áudio ambiente é codificado utilizando uma variação de transmissão contínua de aspectos distintivos de 32 bits / quadro descritos em Ke et al.
Em algumas implementações, o software do cliente executa co- mo uma "barra lateral" ou outro elemento de interface do usuário. Deste mo- do, quando a interface do lado do cliente 102 é iniciada, a amostragem do áudio ambiente pode iniciar imediatamente e executar em "segundo plano" com os resultados (opcionalmente) sendo exibidos na barra lateral sem in- vocar uma sessão completa do navegador da Rede.
Em algumas implementações, a amostragem de áudio ambiente pode começar quando a interface ao iaao do cliente 102 é iniciada ou quan- do o telespectador conecta-se com um serviço ou aplicação (por exemplo, correio eletrônico, etc.).
Os descritores são enviados para o servidor de base de dados de áudio 104. Em algumas implementações, os descritores são resumos estatísticos compactados do áudio ambiente, como descrito em Ke et al. Pe- lo envio de resumos estatísticos, a privacidade acústica do usuário é manti- da devido aos resumos estatísticos não serem reversíveis, isto é, o áudio original não pode ser recuperado a partir do descritor. Assim, quaisquer con- versações pelo usuário ou por outros indivíduos monitoradas e gravadas no ambiente de radiodifusão não podem ser reproduzidas a partir do descritor. Em algumas implementações, os descritores podem ser criptografados para privacidade e segurança adicional utilizando uma ou mais técnicas de cripto- grafia conhecidas (por exemplo, criptografia de chave assimétrica ou simétri- ca, criptografia elíptica, etc.).
Em algumas implementações, os descritores são enviados para o servidor de base de dados de áudio 104 como uma submissão de consulta (também referida como descritor de consulta) em resposta ao evento ativa- dor detectado pelo processo de monitoramento na interface do lado do clien- te 102. Por exemplo, um evento ativador poderia ser um tema de abertura de um programa de televisão (por exemplo, melodia de abertura de "Seinfeld") ou diálogos falados pelos atores. Em algumas implementações, os descrito- res de consulta podem ser enviados para o servidor de base de dados de áudio 104 como parte de um processo de transmissão de fluxo contínuo. Em algumas implementações, os descritores de consulta podem ser transmitidos para o servidor de base de dados de áudio 104 em resposta à entrada do usuário (por exemplo, via controle remoto, clique de mouse, etc.) Processo de Personalização de massa
A figura 3 é um fluxograma de um processo de personalização de massa 300. As etapas do processo 300 não têm que ser completadas em qualquer ordem particular e pelo menos algumas etapas podem ser execu- tadas ao mesmo tempo em um ambiente de processamento com vários en- cadeamentos ou paralelo.
O processo 300 começa quando uma interface do lado do cliente (por exemplo, a interface do lado do cliente 102) monitora e grava fragmen- tos de áudio ambiente de uma radiodifusão de mídia de massa em um ambi- ente de radiodifusão (302). Os fragmentos de áudio ambiente gravados são codificados em descritores (por exemplo, resumos estatísticos compacta- dos), os quais podem ser enviados para um servidor de base de dados de áudio (304) como consultas. O servidor de base de dados de áudio compara as consultas com uma base de dados de descritores de referência calcula- dos a partir das estatísticas de radiodifusão de mídia de massa para deter- minar descritores candidatos que melhor se associam com a consulta (308). Os descritores candidatos são enviados para um servidor de aplicação social ou outro recurso da rede, os quais utilizam os descritores candidatos para agregar informação personalizada para o usuário (310). Por exemplo, se o usuário estiver assistindo ao programa de televisão "Seinfeld", então os des- critores de consulta gerados a partir do áudio ambiente do programa serão associados a descritores de referência derivados a partir de radiodifusão anteriores de "Seinfeld". Assim, os melhores descritores candidatos se asso- ciando são utilizados para agregar informação personalizada relacionando- se com "Seinfeld" (por exemplo, novas estórias, grupos de discussão, Iiga- ções com comunidades pares sociais eventuais ou salas de bate papo, a- núncios, etc.)· Em algumas implementações, o procedimento de associação é eficientemente executado utilizando técnicas de geração de tabela hash (por exemplo, criação de tabela hash direta ou criação de tabela hash sensí- vel à localidade (LSH)) para alcançar uma lista curta de descritores candida- tos, como descrito com relação à figura 4. Os descritores candidatos são então processados em um procedimento de validação, tal como descrito em Ke et al.
Em algumas implementações, os descritores de consulta a partir de diferentes telespectadores são diretamente associados ao invés do que associar cada consulta com uma base de dados de descritores de referên- cia. Tal modalidade permitiria a criação de comunidades pares sociais even- tuais em relação ao assunto para o qual urna base de dados de descritores de referência não está disponível. Tal modalidade poderia associar telespec- tadores em tempo real que estão na mesma forma pública (por exemplo, estádio, bar, etc.) utilizando dispositivos eletrônicos portáteis (por exemplo, telefones móveis, PDAs, etc.).
Estatísticas de Audiência
Em algumas implementações, estatísticas agregadas e em tem- po real são deduzidas a partir de uma lista de espectadores correntemente assistindo à radiodifusão (por exemplo, programa, anúncio, etc.). Estas esta- tísticas podem ser agrupadas em segundo plano enquanto os telespectado- res estão utilizando outras aplicações. As estatísticas podem incluir, mas não estão limitadas a: 1) número médio de telespectadores assistindo à ra- diodifusão; 2) número médio de vezes que um telespectador assistiu à ra- diodifusão; 3) outros programas que o telespectador assistiu; 4) o número mínimo e máximo de telespectadores; 5) para o que a maioria dos telespec- tadores trocou quando eles deixaram uma radiodifusão; 6) por quanto tempo os telespectadores assistiram uma radiodifusão; 7) quantas vezes os teles- pectadores mudaram de canal; 8) quais anúncios foram assistidos pelos te- lespectadores; e 9) do que os telespectadores mais freqüentemente troca- ram quando eles entraram em uma radiodifusão, etc. A partir destas estatís- ticas, um ou mais índices de audiência podem ser determinados.
As estatísticas utilizadas para gerar índices de audiência podem ser geradas utilizando um contador para cada canal de radiodifusão sendo monitorado. Em algumas implementações, os contadores podem ser dividi- dos por dados de grupo demográfico ou por dados de grupo geográfico. Os índices de audiência podem ser utilizados pelos telespectadores para "ver o que é mais assistido", enquanto a radiodifusão está em andamento (por e- xemplo, por observar uma audiência aumentada durante a performance do meio tempo do 2004 Super Bowl). Os anunciantes e os provedores de con- teúdo também podem utilizar os índices de audiência para dinamicamente ajustar o material apresentado em resposta aos índices de audiência. Isto é especialmente verdadeiro para anúncios, desde que a duração curta e várias versões de anúncios geradas pelas firmas de propaganda sao facilmente trocadas para ajuste aos níveis de índice de audiência. Outros exemplos de estatísticas incluem, mas não estão limitadas a: popularidade de uma trans- missão de televisão versus uma radiodifusão de rádio por dados demográfi- cos ou por tempo, a audiência de horas do dia, isto é, tempos máximos de observação / audiência, número de lares em uma dada área, quantidade de mudança de canal durante programas particulares (estilo de programas, ho- ras particulares do dia), volume da radiodifusão, etc.
A informação personalizada é enviada para a interface do lado do cliente (312). Os índices de audiência também podem ser armazenados em uma base de dados para uso por outros processos (318), tal como ajuste dinâmico de anúncios como descrito acima. A informação personalizada é recebida na interface do lado do cliente (314) onde ela é formatada e apre- sentada em uma interface com o usuário (316). A informação personalizada pode ser associada a um meio de comentário (por exemplo, mensagens de texto em uma sala de bate papo) que é apresentado para o usuário em uma interface com o usuário. Em algumas implementações, uma sala de bate papo pode incluir um ou mais subgrupos. Por exemplo, um grupo de discus- são para "Seinfeld" pode incluir um subgrupo chamado "Versados de Sein- feld", ou um subgrupo pode ser associado a um grupo demográfico particu- lar, tal como mulheres na faixa de 20 até 30 anos que assistem "Seinfeld", etc.
Em algumas implementações, a informação bruta (isto é, valores do contador) utilizada pa gerar estatísticas em relação aos índices de audi- ência é coletada e armazenada na interface do lado do cliente ao invés do que no servidor de aplicação social. A informação bruta pode ser transferida para o radiodifusor sempre que o usuário estiver on-line e / ou invoque uma aplicação de personalização de massa.
Em algumas implementações, uma caixa de medição de radiodi- fusão (BMB) é instalada na interface do lado do cliente. A BMB pode ser um dispositivo de hardware simples que é similar a um caixa decodificadora mas não se conecta com o dispositivo de radiodifusão. Diferente do sistema de classificação de Neilsen, o qual exige que seja instalado hardware na teievi- são, a BMB pode ser instalada próxima do sistema de mídia de massa ou dentro do alcance do sinal de televisão. Em algumas implementações, a BMB automaticamente grava fragmentos de áudio e gera descritores, os quais são armazenados na memória (por exemplo, mídia instantânea). Em algumas implementações, a BMB pode opcionalmente incluir um ou mais botões de hardware que podem ser pressionados por um usuário para indi- car qual transmissão eles estão assistindo (similar aos índices de audiência de Neilsen®). O dispositivo BMB pode ser recolhido pelo provedor de índice de audiência de tempo em tempo para coletar os descritores armazenados, ou a BMB pode transmitir os descritores armazenados para uma ou mais partes interessadas através de uma conexão de rede (por exemplo, telefone, Internet, rádio sem fios tal como rádio SMS / mensageiro, etc.) de tempo em tempo.
Em algumas implementações, os anúncios podem ser monitora- dos para determinar a eficácia do anúncio, o que pode ser relatado de volta para os anunciantes. Por exemplo, quais anúncios são assistidos, saltados, nível de volume dos anúncios, etc.
Em algumas implementações, um dispositivo de captura de ima- gem (por exemplo, câmara digital, gravador de vídeo, etc.) pode ser utilizado para medir quantos telespectadores estão assistindo ou escutando a uma transmissão. Por exemplo, vários algoritmos conhecidos de associação de padrão podem ser aplicados junto a uma imagem o seqüência de imagens para determinar o número de telespectadores presentes em um ambiente de radiodifusão durante uma transmissão particular. As imagens e / ou os da- dos derivados a partir das imagens podem ser utilizados em combinação com os descritores de áudio para reunir informação personalizada para um usuário, calcular índices de audiência, e para qualquer outro propósito. Processo de Gravação de Impressão Digital de Áudio A figura 4 é um fluxograma do processo de gravação de impres- são digital de áudio 400. As etapas do processo 400 não têm que ser com- pletadas em qualquer ordem particular e pelo menos algumas etapas podem ser executadas ao mesmo tempo em um ambiente de vários encadeamentos ou paralelo. O processo 400 associa descritores de consulta gerados em uma interface do lado do cliente (por exemplo, interface do lado do cliente 102) com descritores de referência armazenados em uma ou mais bases de dados em tempo real e com baixa latência. O processo 400 adapta uma téc- nica proposta por Ke et al. para manipular dados de áudio ambiente (por e- xemplo, a partir de uma transmissão de televisão) e consultas.
O processo 400 começa em uma interface do lado do cliente pela decomposição dos fragmentos de áudio ambiente (por exemplo, 5 até 6 segundos de áudio) de uma radiodifusão de mídia de massa capturada por um detector de áudio ambiente (por exemplo, microfone) em quadros de so- breposição (402). Em algumas implementações, os quadros são separados por vários milisegundos (por exemplo, separados por 12 ms). Cada quadro é convertido em um descritor (por exemplo, um descritor de 32 bits) que é ca- pacitado para superar ruído e distorção de áudio (404), como descrito em Ke et al. Em algumas implementações, cada descritor representa um resumo estatístico de identificação do fragmento de áudio.
Em algumas implementações, os descritores podem ser envia- dos como fragmentos de consulta (também referidos como descritores de consulta) para um servidor de base de dados de áudio, onde eles são asso- ciados a uma base de dados de descritores de referência identificando re- sumos estatísticos de fragmentos de áudio anteriormente gravados de ra- diodifusão de mídia de massa (406). Uma lista de descritores candidatos possuindo melhores combinações pode ser determinada (408). Os descrito- res candidatos podem ter o desempenho avaliado, de modo que descritores candidatos que são temporariamente consistentes com o descritor de con- sulta tem o desempenho avaliado para mais do que os descritores candida- tos que são menos temporariamente consistentes com o descritor de consul- ta (410). Os descritores candidatos com as maiores avaliações (por exem- plo, a avaliação excede a um valor limite suficientemente alto) são transmiti- dos ou de outro modo proporcionados para um servidor de aplicação social (412) onde eles podem ser utilizados para agregar informação personalizada relacionada com a radiodifusão de mídia. Utilizar um iimite garante que os descritores sejam suficientemente associados antes dos descritores serem transmitidos ou de outro modo proporcionados para o servidor de aplicação social (412).
Em algumas implementações, a base de dados de descritores de referência pode ser gerada a partir de radiodifusões de várias companhi- as de mídia, os quais podem ser indexados e utilizados para gerar os descri- tores. Em outras implementações, os descritores de referência também po- dem ser gerados utilizando guias de televisão ou outros metadados e / ou informação embutida no sinal de radiodifusão.
Em algumas implementações, a tecnologia de reconhecimento de fala pode ser utilizada para ajudar a identificar qual programa está sendo assistido. Tal tecnologia poderia ajudar aos usuários a discutir eventos de notícias ao invés de apenas programas de televisão. Por exemplo, um usuá- rio poderia estar assistindo um lançamento de Ônibus Espacial em um canal diferente de outro telespectador e portanto, possivelmente obtendo um sinal de áudio diferente (por exemplo, devido a um jornal diferente). A tecnologia de reconhecimento de fala poderia ser utilizada para reconhecer palavras- chave (por exemplo, Ônibus Espacial, lançamento, etc.), as quais podem ser utilizadas para ligar o usuário com um meio de comentário.
Descritores de Colocação em Tabela Hash
Ke et al. utiliza as técnica de visão de computador para encon- trar estatísticas compactas, altamente distintivas, para áudio. Seu procedi- mento capacitado em pares rotulados de exemplos positivos (onde xex' são versões ruidosas do mesmo áudio) e exemplos negativos (onde xex' são a partir de áudio diferente). Durante esta fase de capacitação, a técnica de aprendizagem da máquina baseada em elevação de tensão utiliza os pares rotulados para selecionar uma combinação de 32 filtros e limites que junta- mente criam uma estatística altamente distintiva. Os filtros localizam altera- ções na magnitude do espectrograma, utilizando diferenças de primeira e segunda ordem através do tempo e da freqüência. Um benefício de utilizar estes filtros de diferença simples é que eles podem ser calculados eficiente- mente utilizando uma técnica de imagem integra! descrita ern Viola, P e Jo- nes, M. (2002), Robust Real-Time Object Detection, International Journal of Computer Vision, que é incorporado por referência neste documento em sua totalidade.
Em algumas implementações, as saídas destes 32 filtros são limites, fornecendo um único bit por filtro em cada quadro de áudio. Estes 32 resultados limite formam somente os descritores transmitidos deste quadro de áudio. Esta dispersão ao codificar garante a privacidade do usuário con- tra escuta não autorizada. Adicionalmente, estes descritores de 32 bits são robustos para as distorções de áudio nos dados de capacitação, de modo que os exemplos positivos (por exemplo, quadros associados) possuem pe- quenas distâncias de Hamming (isto é, distância medindo números de bits diferentes) e exemplos negativos (por exemplo, quadros não associados) possuem grandes distâncias de Hamming. Deve ser observado que mais ou menos filtros podem ser utilizados e mais do que um bit por filtro pode ser utilizado em cada quadro de áudio (por exemplo, mais bits utilizando vários testes de limite).
Em algumas implementações, o próprio descritor de 32 bits é utilizado como uma chave de hash para criação de tabela hash direta. O descritor é uma função hash bem equilibrada. Taxas de recuperação são adicionalmente aperfeiçoadas pela consulta não somente do descrito de consulta, mas também de um pequeno conjunto de descritores similares (até uma distância de Hamming de 2 a partir do descritor de consulta original).
Consistência Temporal dentro da Consulta
Uma vez que os descritores de consulta sejam associados a a base de dados de áudio utilizando o procedimento de colocação em tabela hash descrito acima, as associações são validadas para determinar quais dos resultados de retorno da base de dados são associações precisas. Caso contrário, um descrito candidato pode ter vários quadros associados a o descritor de consulta mas com estrutura temporal errônea.
Em algumas implementações, a validação é alcançada por se observar cada resultado da base de dados como suporte para uma combi- nação em um deslocamento específico da base de dados de consulta. Por exemplo, se o oitavo descritor {qà) em um fragmento de consulta de "Sein- feld" com o comprimento de 415 quadros e com 5 segundos, q, encontra o 1008° descritor da base de dados (xioos), isto suporta uma combinação can- didata entre a consulta de 5 segundos e os quadros 1001 até 1415 na base de dados de áudio. Outras associações entre qn e xwoo+n (1 < η < 415) su- portariam esta mesma associação candidata.
Em adição á consistência temporal, precisamos considerar qua- dros quando as conversações temporariamente abafam o áudio ambiente. Isto pode ser modelado como uma troca exclusiva entre áudio ambiente e sons de interferência. Para cada quadro de consulta /', existe uma variável oculta, y,: se y, = 0, o i-ésimo quadro da consulta é modelado como somente interferência; se y, = 1, o i-ésimo quadro é modelado como a partir de áudio ambiente limpo. Considerar uma visão extrema (ambiente puro ou interfe- rência pura) é justificado pela precisão extremamente baixa com a qual cada quadro de áudio é representado (32 bits) e suavizado pelo aprovisionamento de probabilidades adicionais de mudança de bit para cada uma das 32 posi- ções do vetor do quadro sob cada uma das duas hipóteses (y, = Oey/ = 1). Finalmente, modelamos as transições entre quadros entre estados de so- mente ambiente e de somente interferência como um processo de Markow de primeira ordem oculto, com probabilidades de transição derivadas a partir de dados de capacitação. Por exemplo, podemos utilizar novamente o mo- delo de probabilidade de 66 parâmetros fornecido por Ke et al., CVPR 2005.
O modelo final da probabilidade de associação entre um vetor de consulta, q, e um vetor da base de dados de ambiente em um deslocamento de N quadros, xn, é:
<formula>formula see original document page 22</formula>
onde <qn, xm> denota as diferenças de bit entre vetores de quadro de 32 bits qn e xm. Este modelo incorpora tanto a restrição de consistência temporal como o modelo de Markov oculto de ambiente / interferência.
Filtragem de Consistência Pós-Associação As pessoas freqüentemente falam com outras enquanto assis- tindo televisão, resultando em interferência esporádica, mas forte, especial- mente quando utilizando microfones baseados em Iaptop para amostragem de áudio ambiente. Dado que as elocuções mais conversacionais têm dois ou três segundos de duração, uma simples troca de comunicação entre os telespectadores produz uma consulta de 5 segundo irreconhecível.
Em algumas implementações, a filtragem pós-associação é utili- zada para manipular estas incompatibilidades intermitentes de baixa confi- ança. Por exemplos, podemos utilizar um modelo de Markov oculto de tempo contínuo de troca de canal com um tempo de contato esperado (isto é, tem- po entre as alterações de canal) de L segundos. O servidor de aplicação so- cial 106 indica a associação de maior confiança dentro do passado recente (junto com sua confiança "descontada") como parte da informação de estado associada a cada sessão do cliente. Utilizando esta informação, o servidor 106 seleciona a associação de índice de conteúdo a partir do passado re- cente ou a associação de índice atual, baseado em qual tem a maior confi- ança.
Utilizamos Mh e Ch para se referir à melhor associação para a etapa de tempo anterior (5 segundos atrás) e seu placar de confiança de probabilidade registrada. Se simplesmente aplicarmos o modelo de Markov junto a esta melhor associação anterior, sem considerar outra observação, então nossa expectativa é que a melhor combinação para o tempo atual 'pe que alguma seqüência do programa, apenas 5 segundos à frente, e nossa confiança nesta expectativa é Ch - I / L, onde / = 5 segundos é a etapa de tempo da consulta. Este desconto de I / L na probabilidade registrada cor- responde à modalidade do modelo de Markov, el/L, de não trocar canais du- rante a etapa de tempo com duração I.
Uma hipótese alternativa é gerada pela combinação de áudio para a consulta corrente. Utilizamos Mo para se referir à melhor combinação para o fragmento de áudio corrente: ou seja, a combinação que é gerada pelo processo de gravação de impressão digital de áudio 400. Co é o placar de confiança de probabilidade registrada dado pelo processo de gravação de impressão digital de áudio 400.
Se estas duas combinações (a expectativa histórica atualizada e a observação do fragmento corrente) fornecem combinações diferentes, se- lecionamos a hipótese com o placar de maior confiança:
<formula>formula see original document page 23</formula>
onde Mo é a associação que é utilizada pelo servidor de aplicação social 106 para sele- cionar conteúdo relacionado e Mo e Co são levados adiante na próxima eta- pa de tempo como Mh e Ch.
Interface com o Usuário
A figura 5 é um fluxograma de uma modalidade de uma interface com o usuário 208 para interagir com as aplicações de personalização de massa. A interface com o usuário 208 inclui uma área de exibição da cama- da personalizada 502, uma área de exibição do meio de comentário 504, uma área de exibição de ligação patrocinada 506 e uma área de exibição de conteúdo 508. A área de exibição de camada personalizada 502 proporciona informação complementar e / ou imagens relacionadas com o conteúdo de vídeo apresentado na área de exibição de conteúdo 508. As camadas per- sonalizadas podem ser navegadas utilizando uma barra de navegação 510 e um dispositivo de entrada (por exemplo, um mouse ou controle remoto). Ca- da camada possui um rótulo associado na barra de navegação 510. Por e- xemplo, se o usuário selecionar o rótulo "Fashion", então a camada de .mo- da, a qual inclui conteúdo relacionado com moda associado a "Seinfeld" será apresentada na área de exibição 502.
Em algumas implementações, a interface do lado do cliente 102 inclui um dispositivo de exibição 210 capaz de apresentar a interface com o usuário 208. Em algumas implementações, a interface com o usuário 208 é uma página da rede interativa servida pelo servidor de aplicação social 106 e apresentada em uma janela do navegador na tela do dispositivo de exibição 210. Em algumas implementações, a interface com o usuário 208 é persis- tente e estará disponível para interação após o áudio de radiodifusão utiliza- do no processo de associação de conteúdo ter deslocado no tempo. Em al- gumas implementações, a interface com o usuário 208 é dinamicamente a- tualizada com o tempo ou em resposta a um evento ativador (por exemplo, uma nova pessoa entra na sala de bate papo, um comercial começa, etc.). Por exemplo, cada vez que um comercial é transmitido, a área de exibição de ligações patrocinadas 506 pode ser atualizada com ligações novas 518 relacionadas com o assunto do comercial.
Em algumas implementações, a informação personalizada e as ligações patrocinadas podem ser enviadas por correio eletrônico para o teles- pectador ou apresentadas em uma barra lateral em um momento posterior.
Em algumas implementações, a interface do lado do cliente 102 recebe informação personalizada a partir do servidor de aplicação social 106. Esta informação pode incluir uma página da rede, correio eletrônico, um quadro de avisos, ligações, mensagens instantâneas, uma sala de bate pa- po, ou um convite para entrar em um grupo de discussão em andamento, eRoom, videoconferência ou conferência virtual, chamada de voz (por e- xemplo, Skype®), etc. Em algumas implementações, a interface com o usuá- rio 208 proporciona acesso aos comentários e / ou ligações para os comen- tários a partir de transmissões ou filmes anteriormente vistos. Por exemplo, se o usuário estiver atualmente assistindo um DVD de "Shrek" ele pode de- sejar ver o que as pessoas disseram a cerca do filme no passado.
Em algumas implementações, a área de exibição 502 inclui uma região de índice de audiência 512 que é utilizada para exibição as estatísti- cas de popularidade relacionadas com uma transmissão. Por exemplo, a área de exibição 512 pode apresentar quantos telespectadores estão atual- mente assistindo "Seinfeld" comparado com outro programa de televisão que é transmitido ao mesmo tempo.
Em algumas implementações, a área de exibição de meio de comentário 504 apresenta um ambiente do tipo sala de bate papo onde vá- rios usuários podem comentar a cerca das radiodifusões. Em algumas im- plementações, a área de exibição 504 inclui uma caixa de texto 514 para entrar com comentários que são enviados para a sala de bate papo utilizan- do o mecanismo de entrada 516 (por exemplo, um botão).
A área de exibição de ligações patrocinadas 506 inclui informa- ção, imagens e / ou ligações relacionadas com o anúncio que está associa- do a a radiodifusão. Por exemplo, uma das ligações 518 pode levar o usuá- rio para um site da Rede que está vendendo mercadorias de "Seinfeld".
A área de exibição de conteúdo 508 é onde o conteúdo da ra- diodifusão é exibido. Por exemplo, uma cena a partir da radiodifusão corren- te pode ser exibida com outras informações relevantes (por exemplo, núme- ro do episódio, título, marcação de horário, etc.). Em algumas implementa- ções, a área de exibição 508 inclui os controles 520 (por exemplo, os botões de rolagem) para navegação através do conteúdo exibido. Marcadores de Página de Vídeo
Em algumas implementações, um botão 522 é incluído na área de exibição de conteúdo, o qual pode ser utilizado marcar página de vídeo. Por exemplo, por clicar o botão 522, o episódio de "Seinfeld" apresentado na área de exibição 508 é adicionado para a biblioteca de vídeos favoritos do usuário, os qual pode ser então visto sob demanda através da aplicação de transmissão contínua baseada na Rede ou de outros métodos de acesso. De acordo com a política estabelecida pelo proprietário de conteúdo, este serviço de transmissão contínua pode proporcionar reprodução livre de única observação, coletar pagamento como o agente par os proprietários de con- teúdo, ou inserir anúncios que proporcionaram pagamento para os proprietá- rios de conteúdo.
Arquitetura de Hardware da Interface do Lado do Cliente
A figura 6 é um diagrama em blocos da arquitetura de hardware 600 para a interface do lado do cliente 102 apresentada na figura 1. Apesar da arquitetura de hardware 600 tipicamente se de um dispositivo de compu- tação (por exemplo, um computador pessoal), as implementações descritas podem ser realizadas em qualquer dispositivo capaz de apresentar uma in- terface com o usuário em um dispositivo de exibição, incluindo, mas não limi- tado a: computadores de mesa ou portáteis; dispositivos eletrônicos; telefo- nes; telefones móveis; sistemas de exibição; televisões; monitores; sistemas de navegação; reprodutores / gravadores de mídia portáteis; assistentes pessoais digitais; sistemas de jogo; dispositivos eletrônicos de mão; e dispo- sitivos ou aparelhos eletrônicos embutidos.
Em algumas implementações, o sistema 600 inclui um ou mais processadores 602 (por exemplo, CPU), opcionalmente um ou mais disposi- tivos de exibição 604 (por exemplo, CRT, LCD, etc.), uma interface de micro- fone 606, uma ou mais interfaces de rede 608 (por exemplo, USB, Ethernet, portas FireWire®, etc.), opcionalmente um ou mais dispositivos de entrada 610 (por exemplo, mouse, teclado, etc.) e um ou mais meios legíveis por computador 612. Cada um destes componentes é operativamente acoplado com um ou mais barramentos 614 (por exemplo, EISA, PCI, USB, FireWire®, NuBus, PDS, etc.).
Em algumas implementações, não existem dispositivos de exibi- ção ou dispositivos de entrada e o sistema 600 apenas executa a amostra- gem e a codificação (por exemplo, gerando descritores, etc.) em segundo plano sem entrada do usuário.
O termo "meio legíveis por computador" se refere a qualquer meio que participe em proporcionar instruções para um processador 602 para execução, incluindo, sem limitação, meio não volátil (por exemplo, dis- cos ópticos ou magnéticos), meio volátil (por exemplo, memória) e meio de transmissão. O meio de transmissão inclui, sem limitação, cabos coaxiais, cabos de cobre e fibra óptica. O meio de transmissão também pode assumir a forma de ondas acústicas, de luz ou de rádio freqüência.
O meio(s) legível por computador 612 adicionalmente inclui um sistema operacional 616 (por exemplo, Mac OS®, Windows®, Unix, Linux, etc.), um módulo de comunicações de rede 618, o software do cliente 620 e uma ou mais aplicações 622. O sistema operacional 616 pode ser multiusuá- rio, multiprocessamento, multitarefa, multiencadeamento, em tempo real e similares. O sistema operacional 616 executa tarefas, incluindo, mas não se limitado a: reconhecer entrada a partir de dispositivos de entrada 610; enviar saída para os dispositivos de exibição 604; manter o rastro de arquivos e de diretórios nos dispositivos de armazenamento 612, controlar dispositivos pe- riféricos (por exemplo, unidades de disco, impressoras, dispositivo de captu- ra de imagem, etc.); e gerenciar o tráfego em um ou mais barramentos 614.
O módulo de comunicações de rede 618 inclui vários componen- tes para estabelecer e manter conexões de rede (por exemplo, software para implementar protocolos de comunicação, tal como TCP/IP, HTTP, Ethernet, USB, FireWire®, etc.).
O software do cliente 620 proporciona vários componentes de software para implementar o lado do cliente das aplicações de personaliza- ção de massa e para executar as várias funções do lado do cliente descritas com relação às FIGs. 1 até 5 (por exemplo, identificação de áudio ambiente). Em algumas implementações, alguns ou todos os processos executados pelo software do cliente 620 podem ser integrados no sistema operacional 616. Em algumas implementações, o processo pode ser pelo menos parci- almente implementado em conjunto de circuitos eletrônicos digitais, ou em hardware de computador, firmware, software, ou em qualquer combinação dos mesmos.
Outras aplicações 624 podem incluir qualquer outra aplicação de software, incluindo, mas não limitado a: processadores de texto, navegado- res, correio eletrônico, Troca Instantânea de Mensagem, reprodutores de mídia, software de telefonia, etc.
Detectando Anúncios e fíetransmissão Radiofônica
Detecção de Repetição
Quando preparando uma base de dados para pesquisa, ajuda estar apto a indicar anteriormente o material repetido utilizando os descrito- res anteriormente descritos. Material de repetição pode incluir, mas não está limitado a programas que se repetem, anúncios, subsegmentos (por exem- plo, comprimento em pés de espaço em novos programas), etc. Utilizando estes indicadores, o material repetido pode ser apresentado de um modo que não impele todos outros materiais além do raio de atenção de um usuá- rio conduzindo uma pesquisa (por exemplo, além dos primeiros 10 até 20 resultados). O processo 700 descrito abaixo proporciona um modo para de- tectar estas duplicatas antes de quaisquer consultas de pesquisa na base de dados.
Remoção de Anúncio de Vídeo
Uma das reclamações que os radiodifusores têm tido a cerca de permitir que o material seja pesquisado e reproduzido é a retransmissão de anúncio embutido. A partir do ponto de vista dos radiodifusores, esta re- transmissão é anti-produtiva: ela diminui o valor das radiodifusões pelas quais o anunciante paga diretamente, desde que ela proporciona a este a- nunciante anúncio grátis. A não ser que anúncios antigos sejam removidos e novos anúncios sejam colocados de um modo que retornem algum retros- pecto para os radiodifusores originais, eles não lucram a partir da repetição de seu material anteriormente transmitido. O processo 700 descrito abaixo proporciona um modo de detectar anúncio embutido por procurar repetições, possivelmente em conjunto com outros critérios (por exemplo, duração, vo- lume, atividade visual, quadros em branco de agrupamento, etc.) Sumarizacão de Vídeo
Se um "sumário" (isto é, versão mais curta) de material de pro- grama não repetido for necessário, um modo de obter este é remover os a- núncios (como detectados pelo material repetido) e pegar segmentos a partir do material logo precedente e logo seguinte da localização do anúncio. Na transmissão de televisão, estas posições no programa tipicamente contêm "provocadores" (antes dos anúncios) e "resumos" (logo após os anúncios). Se um sumário for para ser feito de um programa de notícias que inclui uma mistura de material que não é de anúncio não repetido e repetido, tipicamen- te o material que não é de anúncio repetido corresponde a uma citação. Es- tes segmentos geralmente contribuem com menos informação do que a nar- ração da reportagem do âncora do jornal, e são bons candidatos para remo- ção. Se for para ser feito um sumário de um programa narrativo (por exem- plo, um filme ou uma série), as trilhas de áudio repetidas tipicamente corres- pondem aos sons do tema, a musica de clima, ou ao silêncio. Novamente, estes tipicamente são bons segmentos para remover de um vídeo sumário. O processo 700 descrito abaixo proporciona um modo para detectar estas trilhas de áudio repetidas de modo que elas possam ser removidas do vídeo sumário.
A figura 7 é um fluxograma de uma modalidade de um processo de detecção de repetição 700 de acordo. As etapas do processo 700 não têm que ser completadas em qualquer ordem particular e pelo menos algu- mas etapas podem ser executadas ao mesmo tempo em um ambiente de processamento de multiencadeamento ou paralelo.
O processo 700 começa pela criação de uma base de dados de estatísticas de áudio a partir de um conjunto de conteúdo tal como insumos de televisão, transferências de vídeo, etc. (702). Por exemplo, a base de da- dos poderia conter descritores de quadro de 32 bits, como descrito em Ke et al. As consultas são pegas a partir da base de dados e executam em relação à base de dados para ver onde as repetições ocorrem (704). Em algumas implementações, um segmento curto de estatísticas de áudio é pego como uma consulta e verificado em relação à execução para combinações que não são de identidade (combinações que não são idênticas) utilizando as técnicas de colocação e tabela hash (por exemplo, colocação direta em ta- bela hash ou colocação em tabela hash sensível à localidade (LSH)) para alcançar uma lista curta de combinações auditivas possíveis. Estas combi- nações candidatas são então processadas em um procedimento de valida- ção, por exemplo, como descrito em, Ke et al. O conteúdo correspondendo a uma combinação candidata validada pode ser identificado como conteúdo repetido (706).
As combinações que não são de identidade que são mais fortes são "desenvolvidas" para frente e para trás no tempo, para encontrar os pon- tos iniciais e finais do material repetido (708). Em algumas implementações, isto pode ser feito utilizando técnicas conhecidas de programação dinâmica (por exemplo, decodificação Viterbi). Ao estender a combinação para frente no tempo, o pedaço da última vez na combinação de "semente" forte é esta- belecido como "combinando" e o pedaço da última vez da primeira combina- ção de potência acreditável abaixo para o mesmo deslocamento da base de dados entre a consulta e a combinação é estabelecida como "não combi- nando". Em algumas implementações, os graus de combinação para qua- dros individuais entre estes dois pontos fixos são utilizados como observa- ções e um modelo de Markov de primeira ordem permitindo dentro de transi- ções de estado mais uma única transação a partir de estados de "combinan- do" para "não combinado" é utilizada. A probabilidade de transição de com- binando para não combinando para 1/1 pode ser estabelecida alguma coisa arbitrariamente, onde / é o número de quadros entre estes dois pontos fixos, correspondendo ao menor conhecimento da localização de transição dentro da faixa permitida. Outra possibilidade para selecionar probabilidades de transição seria utilizar os perfis de intensidade de combinação para tender esta estimativa para uma transição anterior ou posterior. Porém, isto aumen- taria a complexidade do modelo de programação dinâmica e não é provável de aperfeiçoar os resultados, desde que as intensidades de combinação já são utilizadas como observações dentro deste período. O mesmo processo é utilizado para desenvolver as combinações de segmento para trás no tempo (por exemplo, apenas troca passado / futuro e executa o mesmo algoritmo).
Em algumas implementações, as sugestões de áudio são com- binadas com informação não auditiva (por exemplo, sugestões visuais) para obter maiores precisões de combinação. Por exemplo, as combinações que são vistas com a combinação de áudio podem então ser verificadas (ou veri- ficadas uma segunda vez) pela utilização de métricas simples de similarida- de visual (710). Estas métricas podem incluir, mas não estão limitadas a: histogramas de cor (por exemplo, freqüências de cores similares em duas imagens), estatísticas em relação ao número e as distribuição de bordas, etc. Estas não precisam ser calculadas somente através de toda a imagem, mas podem ser calculadas para sub-regiões da imagem, e comparadas com as sub-regiões correspondentes na imagem direcionada.
Para estas aplicações que estão procurando anúncios (em con- traste com todos os tipos de material repetido), os resultados da detecção de material repetido podem ser combinados com métricas desejadas em distin- guir anúncios de não anúncios (712). Estas características de distinção po- dem apoiar-se em convenções de anúncio, tal corno durações (por exempio, anúncios de 10 / 15 / 30 segundos são comuns), volume (por exemplos, os anúncios tendem a ser mais altos do que o material de programa ambiente, de modo que se o material repetido for mais alto do que o material em qual- quer lado, ele é mais provável de ser um anúncio), em atividade visual (por exemplo, os anúncios tendem a ter transições mais rápidas entre as cenas e mais movimento dentro da cena, de modo que se o material repetido possuir diferenças maiores de quadro do que o material em qualquer lado, ele é mais provável de ser um anúncio), e em quadros brancos de agrupamento (anúncios localmente inseridos tipicamente não completam totalmente o es- paço que é deixado para o mesmo pelo insumo nacional, resultando em quadros negros e silêncio em um espaçamento que é um múltiplo de 30 se- gundos).
Uma vez que os anúncios sejam identificados, o material envol- vendo os anúncios pode ser analisado e estatísticas podem ser geradas. Por exemplo, as estatísticas podem ser geradas a cerca de quantas vezes um produto particular é anunciado utilizando uma solução criativa particular (por exemplo, imagens, texto), ou quantas vezes um segmento particular é transmitido, etc. Em algumas implementações, um ou mais anúncios antigos podem ser removidos ou substituídos por novos anúncios. Técnicas adicio- nais para detecção de anúncios e para substituição são descritas em Adver- tisement Detection and Replacement Using Acoustic and Visual Repetition, de Covell, M., Baluja, S., Fink, M., IEEE Signal Processing Society, MMSP 2006 International Workshop on Multimedia Signal Processing, October 3-6, 2006, BC Canada, artigo este que é incorporado por referência neste docu- mento em sua totalidade.
Em algumas implementações, a informação a partir dos proprie- tários de conteúdo a cerca da estrutura detalhada do conteúdo (por exemplo, onde o material de anúncio foi inserido, onde os programas foram repetidos) poderia ser utilizada para ampliar o processo 700 e aumentar as precisões de combinação. Em algumas implementações, as estatísticas de vídeo po- dem ser utilizadas para determinar repetição ao invés de áudio. Em outras implementações, uma combinação de estatísticas de vídeo e de áudio pode ser utilizada.
Leilões de Fragmento de Áudio
Em algumas implementações, os anunciantes podem participar em leilões relacionados com a presença de áudio ambiente que está relacio- nado com o produto ou serviço que o anunciante deseja vender. Por exem- plo, vários anunciantes poderiam oferecer um preço mais alto em um leilão para o direito de associar seus produtos ou serviços com um fragmento de áudio ou descritor associado a "Seinfeld". O vencedor do leilão então coloca- ria alguma informação relacionada em frente do telespectador (por exemplo, as ligações patrocinadas) sempre que o áudio ambiente em questão estiver presente. Em algumas implementações, os anunciantes poderiam oferecer um preço mais alto em relação a fragmentos de áudio ambiente possuindo uma descrição de meta-nível. Por exemplo, os anunciantes poderiam ofere- cer o preço mais alto em relação a um áudio que está associado a um anún- cio de televisão (por exemplo, este é o áudio associado a um anúncio de TV do Ford Explorer), em close caption (por exemplo, a legenda diz "Yankees baseball"), na localização do segmento do programa (por exemplo, este áu- dio irá ocorrer 15 minutos dentro de "Seinfeld" e irá ocorrer 3 minutos após o intervalo comercial anterior e 1 minuto antes do próximo intervalo comercial), ou em propriedades acústica ou visual de baixo nível (por exemplo, "música de fundo", "vozes de conversa", "tipo consoante explosiva", etc.).
Em algumas implementações, uma ou mais aplicações de per- sonalização de massa podem ser executadas em segundo plano enquanto o usuário executa outras tarefas tal como navegar outro site da rede (por e- xemplo, uma ligação patrocinada). O material que está relacionado com uma difusão de mídia (por exemplo, conteúdo de televisão) pode participar dos mesmos leilões de ligações patrocinadas como material que está relaciona- do com outra fonte de conteúdo (por exemplo, conteúdo de site da Rede). Por exemplo, os anúncios relacionados com TV podem ser misturados com anúncios que correspondem ao conteúdo de uma página da rede corrente.
Várias modificações podem ser feitas junto às implementações descritas e ainda estarem dentro do escopo das reivindicações seguintes.
Claims (43)
1. Método implementado em computador caracterizado pelo fato de que compreende: receber, de um sistema cliente, uma seleção do usuário de uma camada de informações personalizadas relacionadas a conteúdo de mídia, a camada de informações personalizadas para apresentar informações perso- nalizadas em uma tela do sistema cliente; receber um descritor do sistema cliente, o descritor identificando o conteúdo de mídia, onde o descritor é gerado a partir do conteúdo de mí- dia pelo sistema cliente; agregar informações personalizadas com base no descritor e a seleção do usuário da camada de informações personalizadas; e enviar as informações personalizadas para o sistema cliente pa- ra exibição na camada de informações personalizadas, onde o método é realizado por um ou mais processadores.
2. Método, de acordo com a reivindicação 1, onde agregar as informações personalizadas compreende: consultar uma base de dados de descritores de referência utili- zando o descritor recebido; e determinar um ou mais descritores de referência que combinam com o descritor recebido baseado nos critérios de combinação.
3. Método, de acordo com a reivindicação 1, onde o conteúdo de mídia inclui uma radiodifusão de mídia.
4. Método, de acordo com a reivindicação 1, onde a camada de informações personalizadas provê informações complementares ao conteú- do de mídia.
5. Método, de acordo com a reivindicação 10, onde as camadas de informações personalizadas são exibidas em uma área de exibição de camada de informação personalizada da interface do usuário.
6. Método, de acordo com a reivindicação 5, onde a interface do usuário inclui uma área de exibição de meio para realizar comentários.
7. Método, de acordo com a reivindicação 6, onde a área de exi- bição de meio para realizar comentários exibe uma ou mais redes sociais, as redes sociais determinadas sendo relacionadas ao assunto do conteúdo de mídia.
8. Método implementado em computador caracterizado pelo fato de que compreende: em um sistema cliente, exibir uma ou mais camadas de informa- ções personalizadas em uma tela, onde as camadas de informações perso- nalizadas apresentam informações personalizadas e se referem ao conteúdo de mídia; receber uma seleção do usuário de uma camada de informações personalizadas a partir das uma ou mais camadas de informações persona- lizadas; transmitir a seleção do usuário e um descritor identificando o conteúdo de mídia para um recurso de rede, o descritor gerado a partir do conteúdo de mídia pelo sistema cliente; receber informação personalizada do recurso de rede, a infor- mação personalizada agregada no recurso da rede com base nos deserto- res e na seleção do usuário da camada de informações personalizadas; e exibir a informação personalizada na camada de informações personalizadas selecionada na tela do sistema cliente.
9. Método, de acordo com a reivindicação 8, onde transmitir a seleção do usuário e os desertores compreende: gravar fragmentos do conteúdo de mídia; decompor os fragmentos do conteúdo de mídia em quadros de sobreposição; e converter os quadros no descritor, o descritor identificando su- mários estatísticos do conteúdo de mídia.
10. Método, de acordo com a reivindicação 8, adicionalmente compreendendo exibir o conteúdo de mídia em uma área de exibição de conteúdo de uma interface com o usuário do sistema cliente.
11. Sistema, caracterizado pelo fato de que compreende: um dispositivo de armazenamento legível por computador inclu- indo um programa de computador; e um ou mais processadores configurados para interagir com o dispositivo de armazenamento e executar o programa de computador para executar operações compreendendo: receber, de um sistema cliente, uma seleção do usuário de uma camada de informações personalizadas relacionadas a conteúdo de mídia, a camada de informações personalizadas para apresentar informações perso- nalizadas em uma tela do sistema cliente; receber um descritor do sistema cliente, o descritor identificando o conteúdo de mídia, onde o descritor é gerado a partir do conteúdo de mí- dia pelo sistema cliente; agregar informações personalizadas com base no descritor e a seleção do usuário da camada de informações personalizadas; e enviar as informações personalizadas para o sistema cliente pa- ra exibição na camada de informações personalizadas.
12. Método, de acordo com a reivindicação 8, onde o descritor é gerado a partir de amostras do conteúdo de mídia.
13. Método, de acordo com a reivindicação 8, onde o conteúdo de mídia inclui uma radiodifusão de mídia.
14. Método, de acordo com a reivindicação 8, ainda compreen- dendo transmitir um identificador do sistema cliente para identificar o sistema cliente ao recurso de rede.
15. Sistema, de acordo com a reivindicação 11, onde o conteúdo de mídia inclui uma radiodifusão de mídia.
16. Sistema, de acordo com a reivindicação 11, onde a informa- ção personalizada inclui informação associada a anúncio.
17. Sistema, de acordo com a reivindicação 11, onde a camada de informações personalizada provê informação complementares ao conteú- do de mídia.
18. Sistema, de acordo com a reivindicação 11, onde o descritor é gerado a partir de amostras de áudio do conteúdo de mídia.
19. Sistema, de acordo com a reivindicação 30, onde o sistema inclui um dispositivo de exibição para exibir as camadas de informação per- sonalizadas e o conteúdo de mídia e permitir a um usuário interagir com as camadas de informação personalizadas e o conteúdo de mídia.
20. Sistema, de acordo com a reivindicação 30, onde o conteúdo de mídia inclui uma radiodifusão de mídia.
21. Sistema, de acordo com a reivindicação 30, onde as cama- das de informações personalizadas exibem informações complementares do conteúdo de mídia.
22. Sistema, de acordo com a reivindicação 11, onde o descritor recebido é criptografado.
23. Sistema, de acordo com a reivindicação 11, onde o descritor recebido é enviado para um servidor de base de dados como uma submis- são de consulta em resposta a um evento ativador no sistema cliente.
24. Sistema, de acordo com a reivindicação 11, onde o descritor recebido é enviado para o servidor de base de dados como parte de um pro- cesso de transmissão contínua.
25. O meio da reivindicação 39, onde o conteúdo de mídia inclui uma radiodifusão de mídia.
26. Sistema, de acordo com a reivindicação 11, onde a informa- ção personalizada inclui informação para estabelecer uma ligação de comu- nicação entre usuários na mesma localização geográfica.
27. Sistema, de acordo com a reivindicação 11, onde as opera- ções adicionalmente incluem receber um identificador do sistema cliente.
28. Sistema, de acordo com a reivindicação 11, onde o descritor representa um sumário estatístico de identificação de uma amostra do con- teúdo de mídia.
29. Sistema, de acordo com a reivindicação 11, onde agregar a informação personalizada inclui determinar um correspondente usando des- critores de referência que são temporariamente consistentes com o descritor gerado pelo sistema cliente.
30. Sistema, caracterizado pelo fato de que compreende: um dispositivo de armazenamento legível por computador inclu- indo um programa de computador; e um ou mais processadores configurados para interagir com o dispositivo de armazenamento e executar o programa de computador para executar operações compreendendo: exibir uma ou mais camadas de informações personalizadas em um dispositivo de exibição do sistema, onde as camadas de informações personalizadas apresentam informações personalizadas e se referem ao conteúdo de mídia; receber uma seleção do usuário de uma camada de informações personalizadas a partir das uma ou mais camadas de informações persona- lizadas; transmitir a seleção do usuário e um descritor identificando o conteúdo de mídia para um recurso de rede, o descritor gerado a partir do conteúdo de mídia pelo sistema; receber informação personalizada do recurso de rede, a infor- mação personalizada agregada no recurso da rede com base no descritor e na seleção do usuário da camada de informações personalizadas; e exibir a informação personalizada na camada de informações personalizadas selecionada no dispositivo de exibição do sistema.
31. Sistema, de acordo com a reivindicação 30, onde o dispositi- vo de exibição exibe uma interface com o usuário, a interface com o usuário incluindo: uma área de exibição de camada de informação personalizada para exibir a informação personalizada; uma área de exibição de meio para realizar comentários para exibir uma ou mais as redes sociais determinadas; e uma área de exibição de conteúdo para exibir o conteúdo de mí- dia.
32. Sistema, de acordo com a reivindicação 30, onde o conteúdo inclui uma radiodifusão de mídia.
33. Sistema, de acordo com a reivindicação 30, onde as opera- ções adicionalmente incluem transmitir um identificador de sistema cliente do sistema para identificar o sistema para o recurso de rede.
34. Sistema, de acordo com a reivindicação 30, onde transmitir a seleção do usuário e o descritor compreende: gravar fragmentos do conteúdo de mídia; decompor os fragmentos do conteúdo de mídia em quadros de sobreposição; e converter os quadros no descritor, o descritor identificando su- mários estatísticos do conteúdo de mídia.
35. Sistema, de acordo com a reivindicação 30, onde o descritor é criptografado.
36. Sistema, de acordo com a reivindicação 30, onde o descritor é enviado para um servidor de base de dados como uma submissão de con- sulta em resposta a uma seleção do usuário.
37. Sistema, de acordo com a reivindicação 36, onde transmitir a seleção do usuário e o descritor identificando o conteúdo de mídia para o recurso de rede inclui enviar o descritor para o servidor de base de dados como parte de um processo de transmissão contínua.
38. Sistema, caracterizado pelo fato de que compreende: meios para receber, de um sistema cliente, uma seleção do usu- ário de uma camada de informações personalizadas relacionadas a conteú- do de mídia, a camada de informações personalizadas para apresentar in- formações personalizadas em uma tela do sistema cliente; meios para receber um descritor do sistema cliente, o descritor identificando o conteúdo de mídia, onde o descritor é gerado a partir do con- teúdo de mídia pelo sistema cliente; meios para agregar informações personalizadas com base no descritor e a seleção do usuário da camada de informações personalizadas; e meios para enviar as informações personalizadas relacionadas ao conteúdo de mídia e a seleção do usuário para o cliente para exibição na camada de informações personalizadas.
39. Meio legível por computador caracterizado pelo fato de ter instruções armazenadas em si, as quais, quando executadas por um pro- cessador, causam o processador a executar as operações de: receber, de um sistema cliente, uma seleção do usuário de uma camada de informações personalizadas relacionadas a conteúdo de mídia, a camada de informações personalizadas para apresentar informações perso- nalizadas em uma tela do sistema cliente; receber um descritor do sistema cliente, o descritor identificando o conteúdo de mídia, onde o descritor é gerado a partir do conteúdo de mí- dia pelo sistema cliente; agregar informações personalizadas relacionadas ao conteúdo e a camada de informações personalizadas escolhida com base no descritor e a seleção do usuário da camada de informações personalizadas; e enviar as informações personalizadas para o sistema cliente pa- ra exibição na camada de informações personalizadas.
40. Meio legível por computador caracterizado pelo fato de ter instruções armazenadas em si, as quais, quando executadas por um pro- cessador, causam o processador a executar as operações de: em um sistema cliente, exibir uma ou mais camadas de informa- ções personalizadas em uma tela, onde as camadas de informações perso- nalizadas apresentam informações personalizadas e se referem ao conteúdo de mídia; receber uma seleção do usuário de uma camada de informações personalizadas a partir das uma ou mais camadas de informações persona- lizadas; transmitir a seleção do usuário e um descritor identificando o conteúdo de mídia para um recurso de rede, o descritor gerado a partir do conteúdo de mídia pelo sistema cliente; receber informação personalizada do recurso de rede, a infor- mação personalizada agregada no recurso da rede com base nos descrito- res e na seleção do usuário da camada de informações personalizadas; e exibir a informação personalizada na camada de informações personalizadas selecionada na tela do sistema cliente.
41. Sistema, caracterizado pelo fato de que compreende: meios para exibir uma ou mais camadas de informações perso- nalizadas em uma tela, onde as camadas de informações personalizadas apresentam informações personalizadas e se referem ao conteúdo de mídia; meios para receber uma seleção do usuário de uma camada de informações personalizadas a partir das uma ou mais camadas de informa- ções personalizadas; meios para transmitir a seleção do usuário e um descritor identi- ficando o conteúdo de mídia para um recurso de rede, o descritor gerado a partir do conteúdo de mídia pelo sistema cliente; meios para receber informação personalizada do recurso de re- de, a informação personalizada agregada no recurso da rede com base no descritor e na seleção do usuário da camada de informações personaliza- das; e meios para exibir a informação personalizada na camada de in- formações personalizadas selecionada na tela do sistema.
42. Meio, de acordo com a reivindicação 40, onde as operações adicionalmente incluem transmitir um identificador de sistema cliente do sis- tema cliente para identificar o sistema cliente para o recurso de rede.
43. Meio, de acordo com a reivindicação 40, onde o conteúdo de mídia inclui uma radiodifusão de mídia.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US74076005P | 2005-11-29 | 2005-11-29 | |
US60/740,760 | 2005-11-29 | ||
US82388106P | 2006-08-29 | 2006-08-29 | |
US60/823,881 | 2006-08-29 | ||
PCT/US2006/045551 WO2007064641A2 (en) | 2005-11-29 | 2006-11-27 | Social and interactive applications for mass media |
Publications (1)
Publication Number | Publication Date |
---|---|
BRPI0619388A2 true BRPI0619388A2 (pt) | 2011-10-04 |
Family
ID=38092724
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BRPI0619388-9A BRPI0619388A2 (pt) | 2005-11-29 | 2006-11-27 | aplicações sociais e interativas para mìdia de massa |
BRPI0619197-5A BRPI0619197A2 (pt) | 2005-11-29 | 2006-11-27 | detecção de conteúdo de repetição em mìdia de difusão |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BRPI0619197-5A BRPI0619197A2 (pt) | 2005-11-29 | 2006-11-27 | detecção de conteúdo de repetição em mìdia de difusão |
Country Status (10)
Country | Link |
---|---|
US (6) | US8442125B2 (pt) |
EP (3) | EP1958362A4 (pt) |
JP (3) | JP2009524273A (pt) |
KR (2) | KR101371574B1 (pt) |
AU (2) | AU2006320692A1 (pt) |
BR (2) | BRPI0619388A2 (pt) |
CA (2) | CA2631151C (pt) |
ES (1) | ES2386977T3 (pt) |
IL (1) | IL191814A0 (pt) |
WO (2) | WO2007064641A2 (pt) |
Families Citing this family (440)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6834308B1 (en) * | 2000-02-17 | 2004-12-21 | Audible Magic Corporation | Method and apparatus for identifying media content presented on a media playing device |
US8205237B2 (en) | 2000-09-14 | 2012-06-19 | Cox Ingemar J | Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet |
US8117281B2 (en) * | 2006-11-02 | 2012-02-14 | Addnclick, Inc. | Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content |
US7239981B2 (en) | 2002-07-26 | 2007-07-03 | Arbitron Inc. | Systems and methods for gathering audience measurement data |
US8959016B2 (en) | 2002-09-27 | 2015-02-17 | The Nielsen Company (Us), Llc | Activating functions in processing devices using start codes embedded in audio |
US9711153B2 (en) | 2002-09-27 | 2017-07-18 | The Nielsen Company (Us), Llc | Activating functions in processing devices using encoded audio and detecting audio signatures |
US9055239B2 (en) | 2003-10-08 | 2015-06-09 | Verance Corporation | Signal continuity assessment using embedded watermarks |
US10387920B2 (en) | 2003-12-23 | 2019-08-20 | Roku, Inc. | System and method for offering and billing advertisement opportunities |
US10032192B2 (en) * | 2003-12-23 | 2018-07-24 | Roku, Inc. | Automatic localization of advertisements |
US9865017B2 (en) | 2003-12-23 | 2018-01-09 | Opentv, Inc. | System and method for providing interactive advertisement |
US7623823B2 (en) * | 2004-08-31 | 2009-11-24 | Integrated Media Measurement, Inc. | Detecting and measuring exposure to media content items |
US20060224798A1 (en) * | 2005-02-22 | 2006-10-05 | Klein Mark D | Personal music preference determination based on listening behavior |
US20070016918A1 (en) * | 2005-05-20 | 2007-01-18 | Alcorn Allan E | Detecting and tracking advertisements |
US20070118455A1 (en) * | 2005-11-18 | 2007-05-24 | Albert William J | System and method for directed request for quote |
WO2007064641A2 (en) | 2005-11-29 | 2007-06-07 | Google Inc. | Social and interactive applications for mass media |
US8132103B1 (en) * | 2006-07-19 | 2012-03-06 | Aol Inc. | Audio and/or video scene detection and retrieval |
US8751502B2 (en) * | 2005-11-29 | 2014-06-10 | Aol Inc. | Visually-represented results to search queries in rich media content |
US20070136741A1 (en) * | 2005-12-09 | 2007-06-14 | Keith Stattenfield | Methods and systems for processing content |
US20070162761A1 (en) | 2005-12-23 | 2007-07-12 | Davis Bruce L | Methods and Systems to Help Detect Identity Fraud |
US20150082342A1 (en) * | 2006-06-15 | 2015-03-19 | Social Commenting, Llc | System and method for viewers to comment on television content for display on remote websites using a web browser |
US8019162B2 (en) * | 2006-06-20 | 2011-09-13 | The Nielsen Company (Us), Llc | Methods and apparatus for detecting on-screen media sources |
US7831531B1 (en) | 2006-06-22 | 2010-11-09 | Google Inc. | Approximate hashing functions for finding similar content |
US9208500B2 (en) * | 2006-07-21 | 2015-12-08 | Microsoft Technology Licensing, Llc | Fixed position multi-state interactive advertisement |
US8732019B2 (en) * | 2006-07-21 | 2014-05-20 | Say Media, Inc. | Non-expanding interactive advertisement |
US20090018920A1 (en) | 2006-07-21 | 2009-01-15 | Videoegg, Inc. | Interaction Prompt for Interactive Advertising |
WO2008011631A2 (en) * | 2006-07-21 | 2008-01-24 | Videoegg, Inc. | Systems and methods for interaction prompt initiated video advertising |
US8738749B2 (en) | 2006-08-29 | 2014-05-27 | Digimarc Corporation | Content monitoring and host compliance evaluation |
US8411977B1 (en) | 2006-08-29 | 2013-04-02 | Google Inc. | Audio identification using wavelet-based signatures |
US9654447B2 (en) | 2006-08-29 | 2017-05-16 | Digimarc Corporation | Customized handling of copied content based on owner-specified similarity thresholds |
US8707459B2 (en) | 2007-01-19 | 2014-04-22 | Digimarc Corporation | Determination of originality of content |
US8010511B2 (en) | 2006-08-29 | 2011-08-30 | Attributor Corporation | Content monitoring and compliance enforcement |
US8615778B1 (en) | 2006-09-28 | 2013-12-24 | Qurio Holdings, Inc. | Personalized broadcast system |
US7895275B1 (en) * | 2006-09-28 | 2011-02-22 | Qurio Holdings, Inc. | System and method providing quality based peer review and distribution of digital content |
US7707224B2 (en) | 2006-11-03 | 2010-04-27 | Google Inc. | Blocking of unlicensed audio content in video files on a video hosting website |
US20080109369A1 (en) * | 2006-11-03 | 2008-05-08 | Yi-Ling Su | Content Management System |
US8310985B2 (en) * | 2006-11-13 | 2012-11-13 | Joseph Harb | Interactive radio advertising and social networking |
US8718538B2 (en) * | 2006-11-13 | 2014-05-06 | Joseph Harb | Real-time remote purchase-list capture system |
US8391155B2 (en) * | 2006-11-13 | 2013-03-05 | Joseph Harb | Digital content download associated with corresponding radio broadcast items |
US8462645B1 (en) | 2006-11-13 | 2013-06-11 | Joseph Harb | Interactive advertising system, business methods and software |
US8296195B2 (en) * | 2006-11-13 | 2012-10-23 | Joseph Harb | Broadcast programming data capture |
US9456250B2 (en) * | 2006-12-15 | 2016-09-27 | At&T Intellectual Property I, L.P. | Automatic rating optimization |
US10242415B2 (en) | 2006-12-20 | 2019-03-26 | Digimarc Corporation | Method and system for determining content treatment |
US9179200B2 (en) | 2007-03-14 | 2015-11-03 | Digimarc Corporation | Method and system for determining content treatment |
US8356039B2 (en) * | 2006-12-21 | 2013-01-15 | Yahoo! Inc. | Providing multiple media items to a consumer via a simplified consumer interaction |
US7890874B2 (en) * | 2007-02-23 | 2011-02-15 | Dkcm, Inc. | Systems and methods for interactively displaying user images |
JP4281819B2 (ja) * | 2007-04-02 | 2009-06-17 | ソニー株式会社 | 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法 |
US10489795B2 (en) | 2007-04-23 | 2019-11-26 | The Nielsen Company (Us), Llc | Determining relative effectiveness of media content items |
US20080265631A1 (en) * | 2007-04-30 | 2008-10-30 | Foremost Groups, Inc. | Folding ottoman |
EP2142977A4 (en) * | 2007-05-02 | 2010-05-19 | Google Inc | USER INTERFACES FOR WEB-BASED VIDEO PLAYER |
AU2008247347A1 (en) | 2007-05-03 | 2008-11-13 | Google Inc. | Monetization of digital content contributions |
US8094872B1 (en) | 2007-05-09 | 2012-01-10 | Google Inc. | Three-dimensional wavelet based video fingerprinting |
US8266142B2 (en) * | 2007-06-06 | 2012-09-11 | Dolby Laboratories Licensing Corporation | Audio/Video fingerprint search accuracy using multiple search combining |
US7840502B2 (en) * | 2007-06-13 | 2010-11-23 | Microsoft Corporation | Classification of images as advertisement images or non-advertisement images of web pages |
US8611422B1 (en) | 2007-06-19 | 2013-12-17 | Google Inc. | Endpoint based video fingerprinting |
US20090021474A1 (en) * | 2007-07-17 | 2009-01-22 | Motorola, Inc. | System and method for displaying status information of a multimedia broadcast receiver on an ambient device |
US8620878B2 (en) * | 2007-07-19 | 2013-12-31 | Ustream, Inc. | System and method of distributing multimedia content |
WO2009018168A2 (en) | 2007-07-27 | 2009-02-05 | Synergy Sports Technology, Llc | Using a website containing video playlists as input to a download manager |
US8238669B2 (en) * | 2007-08-22 | 2012-08-07 | Google Inc. | Detection and classification of matches between time-based media |
US8447032B1 (en) | 2007-08-22 | 2013-05-21 | Google Inc. | Generation of min-hash signatures |
US9633505B2 (en) * | 2007-09-07 | 2017-04-25 | Veritone, Inc. | System and method for on-demand delivery of audio content for use with entertainment creatives |
US20090089326A1 (en) * | 2007-09-28 | 2009-04-02 | Yahoo!, Inc. | Method and apparatus for providing multimedia content optimization |
WO2009046224A1 (en) | 2007-10-02 | 2009-04-09 | Emsense Corporation | Providing remote access to media, and reaction and survey data from viewers of the media |
US8521766B1 (en) | 2007-11-12 | 2013-08-27 | W Leo Hoarty | Systems and methods for providing information discovery and retrieval |
WO2009073634A1 (en) * | 2007-11-30 | 2009-06-11 | Emsense Corporation | Correlating media instance information with physiological responses from participating subjects |
US8938747B2 (en) * | 2007-12-06 | 2015-01-20 | At&T Intellectual Property I, L.P. | Rating multimedia programs accessed from a provider network |
WO2009082711A1 (en) * | 2007-12-20 | 2009-07-02 | G-Snap!, Inc. | Apparatus and method for providing real-time event updates |
US20090164590A1 (en) * | 2007-12-20 | 2009-06-25 | G-Snap!, Inc. | Apparatus and method for providing real-time event updates |
US8806021B2 (en) * | 2008-01-28 | 2014-08-12 | Sony Corporation | Methods, portable electronic devices, systems and computer program products for automatically creating social networking services (SNS) |
US8874076B2 (en) * | 2008-02-15 | 2014-10-28 | Alcatel Lucent | Method to allow community-identity based communications using mobile phones |
US8184953B1 (en) * | 2008-02-22 | 2012-05-22 | Google Inc. | Selection of hash lookup keys for efficient retrieval |
US9043483B2 (en) * | 2008-03-17 | 2015-05-26 | International Business Machines Corporation | View selection in a vehicle-to-vehicle network |
WO2009116856A2 (en) * | 2008-03-18 | 2009-09-24 | Civolution B.V. | Generating statistics of popular content |
US20090259519A1 (en) * | 2008-04-14 | 2009-10-15 | Microsoft Corporation | Advertisements Targeted to Social Groups that Establish Program Popularity |
US8344233B2 (en) * | 2008-05-07 | 2013-01-01 | Microsoft Corporation | Scalable music recommendation by search |
US8650094B2 (en) * | 2008-05-07 | 2014-02-11 | Microsoft Corporation | Music recommendation using emotional allocation modeling |
US20110081947A1 (en) * | 2008-05-22 | 2011-04-07 | Nykoluk Michael A | Interactive event guide with enhanced features |
WO2009149063A1 (en) * | 2008-06-02 | 2009-12-10 | Azuki Systems, Inc. | Media mashup system |
US20090307061A1 (en) * | 2008-06-10 | 2009-12-10 | Integrated Media Measurement, Inc. | Measuring Exposure To Media |
US20090307084A1 (en) * | 2008-06-10 | 2009-12-10 | Integrated Media Measurement, Inc. | Measuring Exposure To Media Across Multiple Media Delivery Mechanisms |
US20090319571A1 (en) * | 2008-06-23 | 2009-12-24 | Itel Llc | Video indexing |
US8380564B2 (en) * | 2008-07-30 | 2013-02-19 | At&T Intellectual Property I, Lp | System and method for internet protocol television product placement data |
US20100043021A1 (en) * | 2008-08-12 | 2010-02-18 | Clear Channel Management Services, Inc. | Determining audience response to broadcast content |
US20150026707A1 (en) * | 2008-08-12 | 2015-01-22 | Iheartmedia Management Services, Inc. | Audience response determination to digital-media content |
US20170034586A1 (en) * | 2008-10-08 | 2017-02-02 | Wakingapp Ltd. | System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof |
US9667365B2 (en) | 2008-10-24 | 2017-05-30 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8121830B2 (en) | 2008-10-24 | 2012-02-21 | The Nielsen Company (Us), Llc | Methods and apparatus to extract data encoded in media content |
US8359205B2 (en) | 2008-10-24 | 2013-01-22 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8516533B2 (en) | 2008-11-07 | 2013-08-20 | Digimarc Corporation | Second screen methods and arrangements |
US20100205628A1 (en) * | 2009-02-12 | 2010-08-12 | Davis Bruce L | Media processing methods and arrangements |
US9788043B2 (en) * | 2008-11-07 | 2017-10-10 | Digimarc Corporation | Content interaction methods and systems employing portable devices |
US9355554B2 (en) * | 2008-11-21 | 2016-05-31 | Lenovo (Singapore) Pte. Ltd. | System and method for identifying media and providing additional media content |
US10419541B2 (en) | 2008-11-26 | 2019-09-17 | Free Stream Media Corp. | Remotely control devices over a network without authentication or registration |
US10880340B2 (en) | 2008-11-26 | 2020-12-29 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9519772B2 (en) | 2008-11-26 | 2016-12-13 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9961388B2 (en) | 2008-11-26 | 2018-05-01 | David Harrison | Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements |
US9154942B2 (en) | 2008-11-26 | 2015-10-06 | Free Stream Media Corp. | Zero configuration communication between a browser and a networked media device |
US10334324B2 (en) | 2008-11-26 | 2019-06-25 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10977693B2 (en) | 2008-11-26 | 2021-04-13 | Free Stream Media Corp. | Association of content identifier of audio-visual data with additional data through capture infrastructure |
US10631068B2 (en) | 2008-11-26 | 2020-04-21 | Free Stream Media Corp. | Content exposure attribution based on renderings of related content across multiple devices |
US9986279B2 (en) | 2008-11-26 | 2018-05-29 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US10567823B2 (en) | 2008-11-26 | 2020-02-18 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US8180891B1 (en) | 2008-11-26 | 2012-05-15 | Free Stream Media Corp. | Discovery, access control, and communication with networked services from within a security sandbox |
JP4887348B2 (ja) * | 2008-11-27 | 2012-02-29 | ヤフー株式会社 | イベント情報提供装置およびイベント情報提供方法 |
JP4775671B2 (ja) | 2008-12-26 | 2011-09-21 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US20100226526A1 (en) * | 2008-12-31 | 2010-09-09 | Modro Sierra K | Mobile media, devices, and signaling |
US8929719B2 (en) * | 2009-01-02 | 2015-01-06 | Harris Technology, Llc | Frame correlating content determination |
CN102379103A (zh) | 2009-01-30 | 2012-03-14 | 惠普开发有限公司 | 用于使用周围音频在设备之间建立协同通信的方法和系统 |
US8918333B2 (en) | 2009-02-23 | 2014-12-23 | Joseph Harb | Method, system and apparatus for interactive radio advertising |
US9083932B2 (en) * | 2009-03-25 | 2015-07-14 | Eloy Technology, Llc | Method and system for providing information from a program guide |
US20100251279A1 (en) * | 2009-03-26 | 2010-09-30 | Clear Channel Management Services, Inc. | Delivering content related to a commercial media program |
JPWO2010114092A1 (ja) * | 2009-04-03 | 2012-10-11 | 日本電気株式会社 | 配信システムと方法と変換装置及びプログラム |
DE102009017315B3 (de) * | 2009-04-16 | 2010-10-28 | Freie Universität Berlin | Verfahren zur Datenbereitstellung auf mobilen Endgeräten und mobiles Endgerät zur Durchführung des Verfahrens |
CA3094520A1 (en) * | 2009-05-01 | 2010-11-04 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content |
CA2793726A1 (en) * | 2009-05-14 | 2010-11-18 | Brand Affinity Technologies, Inc. | System and method for on-demand delivery of audio content for use with entertainment creatives |
US20100319015A1 (en) * | 2009-06-15 | 2010-12-16 | Richard Anthony Remington | Method and system for removing advertising content from television or radio content |
WO2011004370A1 (en) * | 2009-07-09 | 2011-01-13 | Carfosget Holdings, Ltd. | Method and apparatus for interactive audio |
US8407287B2 (en) | 2009-07-14 | 2013-03-26 | Radvision Ltd. | Systems, methods, and media for identifying and associating user devices with media cues |
KR102112973B1 (ko) | 2009-07-16 | 2020-05-19 | 블루핀 랩스, 인코포레이티드 | 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체 |
US8229219B1 (en) * | 2009-08-06 | 2012-07-24 | Google Inc. | Full-length video fingerprinting |
NZ581850A (en) * | 2009-08-27 | 2011-12-22 | Eyemagnet Ltd | Informational content scheduling system and method |
US8984626B2 (en) | 2009-09-14 | 2015-03-17 | Tivo Inc. | Multifunction multimedia device |
US8290918B1 (en) | 2009-09-29 | 2012-10-16 | Google Inc. | Robust hashing of digital media data |
US8677400B2 (en) | 2009-09-30 | 2014-03-18 | United Video Properties, Inc. | Systems and methods for identifying audio content using an interactive media guidance application |
US8161071B2 (en) | 2009-09-30 | 2012-04-17 | United Video Properties, Inc. | Systems and methods for audio asset storage and management |
US8245249B2 (en) * | 2009-10-09 | 2012-08-14 | The Nielson Company (Us), Llc | Methods and apparatus to adjust signature matching results for audience measurement |
US8428955B2 (en) * | 2009-10-13 | 2013-04-23 | Rovi Technologies Corporation | Adjusting recorder timing |
US20110085781A1 (en) * | 2009-10-13 | 2011-04-14 | Rovi Technologies Corporation | Content recorder timing alignment |
US8533760B1 (en) * | 2009-10-20 | 2013-09-10 | Arris Enterprises, Inc. | Reduced latency channel switching for IPTV |
US8121618B2 (en) | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
US9218530B2 (en) | 2010-11-04 | 2015-12-22 | Digimarc Corporation | Smartphone-based methods and systems |
US8175617B2 (en) | 2009-10-28 | 2012-05-08 | Digimarc Corporation | Sensor-based mobile search, related methods and systems |
US9830605B2 (en) * | 2009-10-30 | 2017-11-28 | At&T Intellectual Property I, L.P. | Apparatus and method for product marketing |
US9820009B2 (en) * | 2009-11-03 | 2017-11-14 | Telefonaktiebolaget Lm Ericsson (Publ) | Streaming with optional broadcast delivery of data segments |
US8566876B2 (en) * | 2009-11-04 | 2013-10-22 | At&T Intellectual Property I, Lp | System and method for interacting with social networking in an internet protocol television system |
US8682145B2 (en) * | 2009-12-04 | 2014-03-25 | Tivo Inc. | Recording system based on multimedia content fingerprints |
US20110137976A1 (en) * | 2009-12-04 | 2011-06-09 | Bob Poniatowski | Multifunction Multimedia Device |
US8625033B1 (en) | 2010-02-01 | 2014-01-07 | Google Inc. | Large-scale matching of audio and video |
US8355910B2 (en) | 2010-03-30 | 2013-01-15 | The Nielsen Company (Us), Llc | Methods and apparatus for audio watermarking a substantially silent media content presentation |
US8560583B2 (en) * | 2010-04-01 | 2013-10-15 | Sony Computer Entertainment Inc. | Media fingerprinting for social networking |
US9264785B2 (en) * | 2010-04-01 | 2016-02-16 | Sony Computer Entertainment Inc. | Media fingerprinting for content determination and retrieval |
US9185458B2 (en) * | 2010-04-02 | 2015-11-10 | Yahoo! Inc. | Signal-driven interactive television |
US20110251971A1 (en) * | 2010-04-08 | 2011-10-13 | International Business Machines Corporation | System and method for facilitating real-time collaboration in a customer support environment |
US20110251885A1 (en) * | 2010-04-09 | 2011-10-13 | Alcatel-Lucent Canada | Differentiated experience for user generated content (UGC) based on popularity |
WO2011130564A1 (en) * | 2010-04-14 | 2011-10-20 | Sven Riethmueller | Platform-independent interactivity with media broadcasts |
US8265928B2 (en) * | 2010-04-14 | 2012-09-11 | Google Inc. | Geotagged environmental audio for enhanced speech recognition accuracy |
US9729344B2 (en) * | 2010-04-30 | 2017-08-08 | Mitel Networks Corporation | Integrating a trigger button module into a mass audio notification system |
US9026034B2 (en) * | 2010-05-04 | 2015-05-05 | Project Oda, Inc. | Automatic detection of broadcast programming |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US8819714B2 (en) * | 2010-05-19 | 2014-08-26 | Cisco Technology, Inc. | Ratings and quality measurements for digital broadcast viewers |
US8649573B1 (en) * | 2010-06-14 | 2014-02-11 | Adobe Systems Incorporated | Method and apparatus for summarizing video data |
US9832441B2 (en) | 2010-07-13 | 2017-11-28 | Sony Interactive Entertainment Inc. | Supplemental content on a mobile device |
US8730354B2 (en) | 2010-07-13 | 2014-05-20 | Sony Computer Entertainment Inc | Overlay video content on a mobile device |
US9159165B2 (en) | 2010-07-13 | 2015-10-13 | Sony Computer Entertainment Inc. | Position-dependent gaming, 3-D controller, and handheld as a remote |
US9143699B2 (en) | 2010-07-13 | 2015-09-22 | Sony Computer Entertainment Inc. | Overlay non-video content on a mobile device |
US9814977B2 (en) | 2010-07-13 | 2017-11-14 | Sony Interactive Entertainment Inc. | Supplemental video content on a mobile device |
US20120020647A1 (en) * | 2010-07-21 | 2012-01-26 | Rovi Technologies Corporation | Filtering repeated content |
EA201001465A1 (ru) * | 2010-07-29 | 2012-02-28 | Виктор Никифорович БОРЩОВ | Функциональная модель содействия в решении государственных задач на основе информационных технологий |
US8744860B2 (en) * | 2010-08-02 | 2014-06-03 | At&T Intellectual Property I, L.P. | Apparatus and method for providing messages in a social network |
US8732697B2 (en) | 2010-08-04 | 2014-05-20 | Premkumar Jonnala | System, method and apparatus for managing applications on a device |
GB2483370B (en) | 2010-09-05 | 2015-03-25 | Mobile Res Labs Ltd | A system and method for engaging a person in the presence of ambient audio |
US8494851B2 (en) * | 2010-09-13 | 2013-07-23 | International Business Machines Corporation | System and method for contextual social network communications during phone conversation |
KR20120034378A (ko) * | 2010-10-01 | 2012-04-12 | 엔에이치엔(주) | 사운드 인식을 통한 광고 정보 제공 시스템 및 방법 |
US8606293B2 (en) | 2010-10-05 | 2013-12-10 | Qualcomm Incorporated | Mobile device location estimation using environmental information |
WO2012057509A2 (ko) | 2010-10-25 | 2012-05-03 | 삼성전자 주식회사 | 소셜 네트워크 기반의 tv 방송 컨텐트 공유 방법 및 tv 방송 컨텐트 공유 서버, 소셜 네트워크 기반의 tv 방송 컨텐트 공유 서비스를 수신하는 방법 및 tv 디바이스 |
US20130014141A1 (en) | 2011-07-06 | 2013-01-10 | Manish Bhatia | Audience Atmospherics Monitoring Platform Apparatuses and Systems |
US20120136466A1 (en) * | 2010-11-28 | 2012-05-31 | Aron Weiss | System and method for identifying a broadcast source of ambient audio |
US8483725B2 (en) | 2010-12-03 | 2013-07-09 | Qualcomm Incorporated | Method and apparatus for determining location of mobile device |
US9542203B2 (en) | 2010-12-06 | 2017-01-10 | Microsoft Technology Licensing, Llc | Universal dock for context sensitive computing device |
US8923770B2 (en) | 2010-12-09 | 2014-12-30 | Microsoft Corporation | Cognitive use of multiple regulatory domains |
US8792429B2 (en) * | 2010-12-14 | 2014-07-29 | Microsoft Corporation | Direct connection with side channel control |
US8948382B2 (en) | 2010-12-16 | 2015-02-03 | Microsoft Corporation | Secure protocol for peer-to-peer network |
US9294545B2 (en) | 2010-12-16 | 2016-03-22 | Microsoft Technology Licensing, Llc | Fast join of peer to peer group with power saving mode |
US8971841B2 (en) | 2010-12-17 | 2015-03-03 | Microsoft Corporation | Operating system supporting cost aware applications |
US10945011B2 (en) | 2010-12-29 | 2021-03-09 | Comcast Cable Communications, Llc | Measuring video viewing |
US8365212B1 (en) * | 2010-12-29 | 2013-01-29 | Robert Alan Orlowski | System and method for analyzing human interaction with electronic devices that access a computer system through a network |
US10089592B2 (en) | 2010-12-29 | 2018-10-02 | Comcast Cable Communications, Llc | Measuring video asset viewing |
EP2659482B1 (en) | 2010-12-30 | 2015-12-09 | Dolby Laboratories Licensing Corporation | Ranking representative segments in media data |
US20120189140A1 (en) * | 2011-01-21 | 2012-07-26 | Apple Inc. | Audio-sharing network |
US10440402B2 (en) | 2011-01-26 | 2019-10-08 | Afterlive.tv Inc | Method and system for generating highlights from scored data streams |
US10382509B2 (en) * | 2011-01-28 | 2019-08-13 | Amazon Technologies, Inc. | Audio-based application architecture |
US20120200667A1 (en) * | 2011-02-08 | 2012-08-09 | Gay Michael F | Systems and methods to facilitate interactions with virtual content |
US9325953B2 (en) * | 2011-02-14 | 2016-04-26 | Disney Enterprises, Inc. | System and method for synchronizing on-air commercial programming with interactive applications |
US8543454B2 (en) | 2011-02-18 | 2013-09-24 | Bluefin Labs, Inc. | Generating audience response metrics and ratings from social interest in time-based media |
KR101069090B1 (ko) * | 2011-03-03 | 2011-09-30 | 송석명 | 조립식 경조사용 쌀 화환 |
US9143571B2 (en) * | 2011-03-04 | 2015-09-22 | Qualcomm Incorporated | Method and apparatus for identifying mobile devices in similar sound environment |
US20120224711A1 (en) * | 2011-03-04 | 2012-09-06 | Qualcomm Incorporated | Method and apparatus for grouping client devices based on context similarity |
US20140026157A1 (en) * | 2011-04-11 | 2014-01-23 | Tao Wang | Face recognition control and social networking |
KR101799443B1 (ko) * | 2011-05-02 | 2017-11-20 | 삼성전자주식회사 | 영상 컨텐츠 시청 확인 방법 및 이를 적용한 방송수신장치, 그리고 서버 |
US8917823B1 (en) | 2011-05-26 | 2014-12-23 | Google Inc. | Transcribing and navigating a response system |
US9762967B2 (en) * | 2011-06-14 | 2017-09-12 | Comcast Cable Communications, Llc | System and method for presenting content with time based metadata |
US9160837B2 (en) | 2011-06-29 | 2015-10-13 | Gracenote, Inc. | Interactive streaming content apparatus, systems and methods |
EP2735141A4 (en) | 2011-07-18 | 2015-03-04 | Viggle Inc | SYSTEM AND METHOD FOR PURSUIT AND REWARDING MEDIA AND ENTERTAINMENT USE WITH PRACTICALLY REAL-TIME REWARDS |
KR101786974B1 (ko) * | 2011-07-29 | 2017-10-18 | 네이버 주식회사 | 사운드를 이용한 소셜 네트워크 서비스 제공 장치 및 방법 |
US9443518B1 (en) * | 2011-08-31 | 2016-09-13 | Google Inc. | Text transcript generation from a communication session |
US8861937B2 (en) | 2011-08-31 | 2014-10-14 | The Nielsen Company (Us), Llc | Methods and apparatus to access media |
US8689255B1 (en) * | 2011-09-07 | 2014-04-01 | Imdb.Com, Inc. | Synchronizing video content with extrinsic data |
CN102611921A (zh) * | 2011-09-16 | 2012-07-25 | 李世平 | 一种收视数据采集方法及系统 |
US20130111514A1 (en) * | 2011-09-16 | 2013-05-02 | Umami Co. | Second screen interactive platform |
US9113202B1 (en) | 2011-09-21 | 2015-08-18 | Google Inc. | Inverted client-side fingerprinting and matching |
US8824645B2 (en) * | 2011-09-30 | 2014-09-02 | Verizon Patent And Licensing Inc. | Video messaging systems and methods |
US9402099B2 (en) | 2011-10-14 | 2016-07-26 | Digimarc Corporation | Arrangements employing content identification and/or distribution identification data |
US9223893B2 (en) | 2011-10-14 | 2015-12-29 | Digimarc Corporation | Updating social graph data using physical objects identified from images captured by smartphone |
US20130254159A1 (en) * | 2011-10-25 | 2013-09-26 | Clip Interactive, Llc | Apparatus, system, and method for digital audio services |
US11599915B1 (en) | 2011-10-25 | 2023-03-07 | Auddia Inc. | Apparatus, system, and method for audio based browser cookies |
US8966525B2 (en) * | 2011-11-08 | 2015-02-24 | Verizon Patent And Licensing Inc. | Contextual information between television and user device |
KR20130055748A (ko) * | 2011-11-21 | 2013-05-29 | 한국전자통신연구원 | 콘텐츠 추천 시스템 및 방법 |
US8745403B2 (en) | 2011-11-23 | 2014-06-03 | Verance Corporation | Enhanced content management based on watermark extraction records |
US8806528B1 (en) * | 2011-12-02 | 2014-08-12 | Adobe Systems Incorporated | Mediating digital program insertion for linear streaming media |
US10645433B1 (en) | 2013-08-29 | 2020-05-05 | Comcast Cable Communications, Llc | Measuring video-content viewing |
US10440428B2 (en) | 2013-01-13 | 2019-10-08 | Comcast Cable Communications, Llc | Measuring video-program-viewing activity |
US9143742B1 (en) * | 2012-01-30 | 2015-09-22 | Google Inc. | Automated aggregation of related media content |
US8645485B1 (en) * | 2012-01-30 | 2014-02-04 | Google Inc. | Social based aggregation of related media content |
US8510770B1 (en) * | 2012-02-03 | 2013-08-13 | Google Inc. | Predicting live programs |
US20160014466A1 (en) * | 2012-02-09 | 2016-01-14 | Ipxtend Ab | Search for media material |
US8838609B1 (en) | 2012-10-10 | 2014-09-16 | Google Inc. | IDF weighting of LSH bands for live reference ingestion |
US9684715B1 (en) * | 2012-03-08 | 2017-06-20 | Google Inc. | Audio identification using ordinal transformation |
EP2642484A1 (en) * | 2012-03-23 | 2013-09-25 | Thomson Licensing | Method for setting a watching level for an audiovisual content |
US9301016B2 (en) | 2012-04-05 | 2016-03-29 | Facebook, Inc. | Sharing television and video programming through social networking |
US9516360B2 (en) * | 2012-04-12 | 2016-12-06 | Qualcomm Incorporated | Estimating demographic statistics of media viewership via context aware mobile devices |
US10292022B2 (en) * | 2012-04-24 | 2019-05-14 | Ascension Intellectual Properties Llc | Media echoing and social networking device and method |
US8904446B2 (en) * | 2012-05-30 | 2014-12-02 | Verizon Patent And Licensing Inc. | Method and apparatus for indexing content within a media stream |
US11023520B1 (en) | 2012-06-01 | 2021-06-01 | Google Llc | Background audio identification for query disambiguation |
KR20130139675A (ko) * | 2012-06-13 | 2013-12-23 | 삼성전자주식회사 | 서버 기반의 프로파일 생성 방법, 관리 방법, 시스템 및 장치 |
US9251406B2 (en) * | 2012-06-20 | 2016-02-02 | Yahoo! Inc. | Method and system for detecting users' emotions when experiencing a media program |
US9113203B2 (en) | 2012-06-28 | 2015-08-18 | Google Inc. | Generating a sequence of audio fingerprints at a set top box |
US8843952B2 (en) * | 2012-06-28 | 2014-09-23 | Google Inc. | Determining TV program information based on analysis of audio fingerprints |
US8689250B2 (en) * | 2012-06-29 | 2014-04-01 | International Business Machines Corporation | Crowd sourced, content aware smarter television systems |
US20140013342A1 (en) * | 2012-07-05 | 2014-01-09 | Comcast Cable Communications, Llc | Media Content Redirection |
CN102831894B (zh) * | 2012-08-09 | 2014-07-09 | 华为终端有限公司 | 指令处理方法、装置和系统 |
US9699485B2 (en) | 2012-08-31 | 2017-07-04 | Facebook, Inc. | Sharing television and video programming through social networking |
GB201214842D0 (en) * | 2012-08-21 | 2012-10-03 | Omnifone Ltd | Content tracker |
JP6102124B2 (ja) * | 2012-08-24 | 2017-03-29 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US8843951B1 (en) * | 2012-08-27 | 2014-09-23 | Google Inc. | User behavior indicator |
US9113128B1 (en) | 2012-08-31 | 2015-08-18 | Amazon Technologies, Inc. | Timeline interface for video content |
US9571606B2 (en) * | 2012-08-31 | 2017-02-14 | Verance Corporation | Social media viewing system |
US8726304B2 (en) | 2012-09-13 | 2014-05-13 | Verance Corporation | Time varying evaluation of multimedia content |
US9661361B2 (en) | 2012-09-19 | 2017-05-23 | Google Inc. | Systems and methods for live media content matching |
US20140089815A1 (en) * | 2012-09-21 | 2014-03-27 | Google Inc. | Sharing Content-Synchronized Ratings |
US9081778B2 (en) | 2012-09-25 | 2015-07-14 | Audible Magic Corporation | Using digital fingerprints to associate data with a work |
US8826316B2 (en) | 2012-10-22 | 2014-09-02 | The Nielsen Company (Us), Llc | Systems and methods for configuring media devices utilizing audio codes or signatures |
US9027048B2 (en) * | 2012-11-14 | 2015-05-05 | Bank Of America Corporation | Automatic deal or promotion offering based on audio cues |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9389745B1 (en) | 2012-12-10 | 2016-07-12 | Amazon Technologies, Inc. | Providing content via multiple display devices |
WO2014099272A1 (en) * | 2012-12-17 | 2014-06-26 | Thismoment, Inc. | Systems and methods for interactive advertisements with distributed engagement channels |
US9529907B2 (en) * | 2012-12-31 | 2016-12-27 | Google Inc. | Hold back and real time ranking of results in a streaming matching system |
KR101369475B1 (ko) | 2013-01-23 | 2014-03-06 | (주)엔써즈 | 방송 시청률 조사 시스템 및 방법 |
US9256269B2 (en) * | 2013-02-20 | 2016-02-09 | Sony Computer Entertainment Inc. | Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state |
US9344759B2 (en) * | 2013-03-05 | 2016-05-17 | Google Inc. | Associating audio tracks of an album with video content |
KR101277523B1 (ko) * | 2013-03-08 | 2013-06-21 | (주) 에이노드 | 사운드 신호 기반의 로컬 인터랙티브 플랫폼 시스템, 이를 이용한 로컬 인터랙티브 서비스 제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
US9307337B2 (en) | 2013-03-11 | 2016-04-05 | Arris Enterprises, Inc. | Systems and methods for interactive broadcast content |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US20140258373A1 (en) | 2013-03-11 | 2014-09-11 | Say Media, Inc. | Systems and Methods for Managing and Publishing Managed Content |
US9301070B2 (en) | 2013-03-11 | 2016-03-29 | Arris Enterprises, Inc. | Signature matching of corrupted audio signal |
US9258597B1 (en) | 2013-03-13 | 2016-02-09 | Google Inc. | System and method for obtaining information relating to video images |
US9268880B2 (en) | 2013-03-14 | 2016-02-23 | Google Inc. | Using recent media consumption to select query suggestions |
US9247309B2 (en) | 2013-03-14 | 2016-01-26 | Google Inc. | Methods, systems, and media for presenting mobile content corresponding to media content |
US9262794B2 (en) | 2013-03-14 | 2016-02-16 | Verance Corporation | Transactional video marking system |
US9588675B2 (en) | 2013-03-15 | 2017-03-07 | Google Inc. | Document scale and position optimization |
US9705728B2 (en) | 2013-03-15 | 2017-07-11 | Google Inc. | Methods, systems, and media for media transmission and management |
US9210119B2 (en) | 2013-03-29 | 2015-12-08 | Garret J. LoPorto | Automated triggering of a broadcast |
US9774743B2 (en) | 2013-03-29 | 2017-09-26 | Hewlett-Packard Development Company, L.P. | Silence signatures of audio signals |
US9123330B1 (en) * | 2013-05-01 | 2015-09-01 | Google Inc. | Large-scale speaker identification |
US9460201B2 (en) | 2013-05-06 | 2016-10-04 | Iheartmedia Management Services, Inc. | Unordered matching of audio fingerprints |
US9817911B2 (en) * | 2013-05-10 | 2017-11-14 | Excalibur Ip, Llc | Method and system for displaying content relating to a subject matter of a displayed media program |
US9871606B1 (en) * | 2013-05-13 | 2018-01-16 | Twitter, Inc. | Identification of concurrently broadcast time-based media |
FR3006525B1 (fr) * | 2013-06-04 | 2016-10-14 | Visiware | Synchronisation de contenus multimedia sur deuxieme ecran |
US9485089B2 (en) | 2013-06-20 | 2016-11-01 | Verance Corporation | Stego key management |
US11019300B1 (en) | 2013-06-26 | 2021-05-25 | Amazon Technologies, Inc. | Providing soundtrack information during playback of video content |
US9251549B2 (en) | 2013-07-23 | 2016-02-02 | Verance Corporation | Watermark extractor enhancements based on payload ranking |
US10063450B2 (en) | 2013-07-26 | 2018-08-28 | Opentv, Inc. | Measuring response trends in a digital television network |
US20150039321A1 (en) | 2013-07-31 | 2015-02-05 | Arbitron Inc. | Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device |
US9711152B2 (en) | 2013-07-31 | 2017-07-18 | The Nielsen Company (Us), Llc | Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio |
US9542488B2 (en) | 2013-08-02 | 2017-01-10 | Google Inc. | Associating audio tracks with video content |
CN103618953B (zh) * | 2013-08-15 | 2016-09-14 | 北京中视广信科技有限公司 | 基于音频特征的广播电视节目标识与识别的方法及系统 |
CA2924065C (en) * | 2013-09-13 | 2018-05-15 | Arris Enterprises, Inc. | Content based video content segmentation |
US10506305B1 (en) * | 2013-09-18 | 2019-12-10 | Cox Communications, Inc. | Updating content URL for non-linear video content |
KR102095888B1 (ko) | 2013-10-07 | 2020-04-01 | 삼성전자주식회사 | 방송 시청 패턴 정보를 제공하는 사용자 단말 장치, 서버 및 시청 패턴 정보 제공 방법 |
US9292174B1 (en) * | 2013-10-30 | 2016-03-22 | Cox Communications, Inc. | Content check-in |
EP2876890A1 (en) * | 2013-11-21 | 2015-05-27 | Thomson Licensing | Method and apparatus for frame accurate synchronization of video streams |
US9438967B2 (en) * | 2013-11-25 | 2016-09-06 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
US9426525B2 (en) | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
US9491522B1 (en) | 2013-12-31 | 2016-11-08 | Google Inc. | Methods, systems, and media for presenting supplemental content relating to media content on a content interface based on state information that indicates a subsequent visit to the content interface |
US9456237B2 (en) | 2013-12-31 | 2016-09-27 | Google Inc. | Methods, systems, and media for presenting supplemental information corresponding to on-demand media content |
US10002191B2 (en) | 2013-12-31 | 2018-06-19 | Google Llc | Methods, systems, and media for generating search results based on contextual information |
IN2014MU00140A (pt) | 2014-01-15 | 2015-08-28 | Whats On India Media Private Ltd | |
FR3016720B1 (fr) * | 2014-01-20 | 2016-02-05 | Tdf | Procede et systeme de delivrance de coupons de reduction et de gestion desdits coupons. |
US9311639B2 (en) | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods, apparatus and arrangements for device to device communication |
US9277265B2 (en) * | 2014-02-11 | 2016-03-01 | The Nielsen Company (Us), Llc | Methods and apparatus to calculate video-on-demand and dynamically inserted advertisement viewing probability |
US10504200B2 (en) | 2014-03-13 | 2019-12-10 | Verance Corporation | Metadata acquisition using embedded watermarks |
WO2015138798A1 (en) | 2014-03-13 | 2015-09-17 | Verance Corporation | Interactive content acquisition using embedded codes |
US9900656B2 (en) * | 2014-04-02 | 2018-02-20 | Whats On India Media Private Limited | Method and system for customer management |
US9668020B2 (en) | 2014-04-07 | 2017-05-30 | The Nielsen Company (Us), Llc | Signature retrieval and matching for media monitoring |
US9438940B2 (en) | 2014-04-07 | 2016-09-06 | The Nielsen Company (Us), Llc | Methods and apparatus to identify media using hash keys |
EP3139623A4 (en) | 2014-04-27 | 2017-10-11 | LG Electronics Inc. | Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, method for transmitting broadcast signal, and method for receiving broadcast signal |
CN104093079B (zh) | 2014-05-29 | 2015-10-07 | 腾讯科技(深圳)有限公司 | 基于多媒体节目的交互方法、终端、服务器和系统 |
US9838759B2 (en) | 2014-06-20 | 2017-12-05 | Google Inc. | Displaying information related to content playing on a device |
US9946769B2 (en) | 2014-06-20 | 2018-04-17 | Google Llc | Displaying information related to spoken dialogue in content playing on a device |
US10206014B2 (en) | 2014-06-20 | 2019-02-12 | Google Llc | Clarifying audible verbal information in video content |
US9805125B2 (en) | 2014-06-20 | 2017-10-31 | Google Inc. | Displaying a summary of media content items |
US9858922B2 (en) | 2014-06-23 | 2018-01-02 | Google Inc. | Caching speech recognition scores |
US9805434B2 (en) | 2014-08-20 | 2017-10-31 | Verance Corporation | Content management based on dither-like watermark embedding |
US10325591B1 (en) * | 2014-09-05 | 2019-06-18 | Amazon Technologies, Inc. | Identifying and suppressing interfering audio content |
US20160073148A1 (en) * | 2014-09-09 | 2016-03-10 | Verance Corporation | Media customization based on environmental sensing |
US9736503B1 (en) * | 2014-09-12 | 2017-08-15 | Google Inc. | Optimizing timing of display of a mid-roll video advertisement based on viewer retention data |
US10602236B2 (en) | 2014-09-17 | 2020-03-24 | Ispot.Tv, Inc. | Unique content sequence identification method and apparatus |
US9402111B2 (en) | 2014-09-17 | 2016-07-26 | Ispot.Tv, Inc. | Television audience measurement method and apparatus |
US9497505B2 (en) | 2014-09-30 | 2016-11-15 | The Nielsen Company (Us), Llc | Systems and methods to verify and/or correct media lineup information |
US9299347B1 (en) | 2014-10-22 | 2016-03-29 | Google Inc. | Speech recognition using associative mapping |
US9942602B2 (en) | 2014-11-25 | 2018-04-10 | Verance Corporation | Watermark detection and metadata delivery associated with a primary content |
EP3225034A4 (en) | 2014-11-25 | 2018-05-02 | Verance Corporation | Enhanced metadata and content delivery using watermarks |
CN104394436B (zh) * | 2014-11-28 | 2018-06-26 | 北京国双科技有限公司 | 网络电视直播电视频道的收视率的监测方法和装置 |
FR3030177B1 (fr) * | 2014-12-16 | 2016-12-30 | Stmicroelectronics Rousset | Dispositif electronique comprenant un module de reveil d'un appareil electronique distinct d'un coeur de traitement |
US9602891B2 (en) | 2014-12-18 | 2017-03-21 | Verance Corporation | Service signaling recovery for multimedia content using embedded watermarks |
CN112261446B (zh) * | 2015-01-30 | 2023-07-18 | 夏普株式会社 | 上报信息的方法 |
US10219039B2 (en) | 2015-03-09 | 2019-02-26 | The Nielsen Company (Us), Llc | Methods and apparatus to assign viewers to media meter data |
US9578394B2 (en) | 2015-03-25 | 2017-02-21 | Cisco Technology, Inc. | Video signature creation and matching |
US10015541B2 (en) | 2015-03-25 | 2018-07-03 | Cisco Technology, Inc. | Storing and retrieval heuristics |
US9705936B2 (en) * | 2015-04-24 | 2017-07-11 | Mersive Technologies, Inc. | System and method for interactive and real-time visualization of distributed media |
US10257567B2 (en) | 2015-04-30 | 2019-04-09 | Verance Corporation | Watermark based content recognition improvements |
CA3166548A1 (en) * | 2015-05-26 | 2016-12-01 | Lg Electronics Inc. | Broadcasting signal transmitting apparatus, broadcasting signal receiving apparatus, broadcasting signal transmitting method, and broadcasting signal receiving method |
EP3308548A1 (en) * | 2015-06-15 | 2018-04-18 | Piksel, Inc. | Processing content streaming |
CN104936035B (zh) | 2015-06-19 | 2018-04-17 | 腾讯科技(北京)有限公司 | 一种弹幕处理方法及系统 |
US11481652B2 (en) * | 2015-06-23 | 2022-10-25 | Gregory Knox | System and method for recommendations in ubiquituous computing environments |
US9786270B2 (en) | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
WO2017015399A1 (en) | 2015-07-20 | 2017-01-26 | Verance Corporation | Watermark-based data recovery for content with multiple alternative components |
US9699504B2 (en) * | 2015-09-28 | 2017-07-04 | Rovi Guides, Inc. | Systems and methods for identifying a source of media content based on a log of content identifiers |
US9854304B2 (en) | 2015-09-28 | 2017-12-26 | Rovi Guides, Inc. | Systems and methods for identifying a source of media content based on a log of fingerprints |
CA3001480C (en) * | 2015-10-16 | 2019-06-18 | Tribune Broadcasting Company, Llc | Video-production system with dve feature |
US20170140795A1 (en) * | 2015-11-18 | 2017-05-18 | International Business Machines Corporation | Intelligent segment marking in recordings |
US10349141B2 (en) | 2015-11-19 | 2019-07-09 | Google Llc | Reminders of media content referenced in other media content |
US10229672B1 (en) | 2015-12-31 | 2019-03-12 | Google Llc | Training acoustic models using connectionist temporal classification |
KR102102453B1 (ko) * | 2016-01-08 | 2020-04-20 | 주식회사 아이플래테아 | 시청률 산출 서버, 시청률 산출 방법, 및 시청률 산출 리모트 장치 |
US20170214954A1 (en) * | 2016-01-25 | 2017-07-27 | Google Inc. | Media Program Moments Guide |
US10034053B1 (en) | 2016-01-25 | 2018-07-24 | Google Llc | Polls for media program moments |
KR102468763B1 (ko) * | 2016-02-05 | 2022-11-18 | 삼성전자 주식회사 | 영상처리장치 및 그 제어방법 |
US10776823B2 (en) | 2016-02-09 | 2020-09-15 | Comcast Cable Communications, Llc | Collection analysis and use of viewer behavior |
US9924222B2 (en) | 2016-02-29 | 2018-03-20 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on location |
US9930406B2 (en) | 2016-02-29 | 2018-03-27 | Gracenote, Inc. | Media channel identification with video multi-match detection and disambiguation based on audio fingerprint |
US10063918B2 (en) | 2016-02-29 | 2018-08-28 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on single-match |
US10433026B2 (en) * | 2016-02-29 | 2019-10-01 | MyTeamsCalls LLC | Systems and methods for customized live-streaming commentary |
CN105657326A (zh) * | 2016-03-02 | 2016-06-08 | 掌赢信息科技(上海)有限公司 | 一种群视频通话方法、装置及系统 |
US10360905B1 (en) | 2016-03-11 | 2019-07-23 | Gracenote, Inc. | Robust audio identification with interference cancellation |
US9918128B2 (en) * | 2016-04-08 | 2018-03-13 | Orange | Content categorization using facial expression recognition, with improved detection of moments of interest |
US20190132652A1 (en) | 2016-04-18 | 2019-05-02 | Verance Corporation | System and method for signaling security and database population |
CN106170104B (zh) * | 2016-07-01 | 2019-03-08 | 广州华多网络科技有限公司 | 视频精彩片段的确定方法、装置和服务器 |
US20180018973A1 (en) | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
GB2556023B (en) | 2016-08-15 | 2022-02-09 | Intrasonics Sarl | Audio matching |
US10171879B2 (en) * | 2016-10-04 | 2019-01-01 | International Business Machines Corporation | Contextual alerting for broadcast content |
US10108718B2 (en) | 2016-11-02 | 2018-10-23 | Alphonso Inc. | System and method for detecting repeating content, including commercials, in a video data stream |
US10419141B2 (en) * | 2016-12-09 | 2019-09-17 | The Nielsen Company (Us), Llc | Estimating volume of switching among television programs for an audience measurement panel |
US10075767B2 (en) * | 2016-12-12 | 2018-09-11 | Facebook, Inc. | Broadcast content view analysis based on ambient audio recording |
US10791355B2 (en) | 2016-12-20 | 2020-09-29 | The Nielsen Company (Us), Llc | Methods and apparatus to determine probabilistic media viewing metrics |
US10405012B2 (en) * | 2016-12-25 | 2019-09-03 | Synamedia Limited | Cloud DVR Optimization |
US11044520B2 (en) * | 2016-12-29 | 2021-06-22 | Telefonaktiebolaget Lm Ericsson (Publ) | Handling of video segments in a video stream |
CA2997355A1 (en) * | 2016-12-30 | 2019-06-14 | Tivo Solutions Inc. | Advanced trick-play modes for streaming video |
US10462514B2 (en) * | 2017-03-29 | 2019-10-29 | The Nielsen Company (Us), Llc | Interactive overlays to determine viewer data |
WO2018237191A1 (en) | 2017-06-21 | 2018-12-27 | Verance Corporation | ACQUISITION AND TREATMENT OF METADATA BASED ON A WATERMARK |
US9980004B1 (en) * | 2017-06-30 | 2018-05-22 | Paypal, Inc. | Display level content blocker |
US10440413B2 (en) | 2017-07-31 | 2019-10-08 | The Nielsen Company (Us), Llc | Methods and apparatus to perform media device asset qualification |
US10706840B2 (en) | 2017-08-18 | 2020-07-07 | Google Llc | Encoder-decoder models for sequence to sequence mapping |
US20190082222A1 (en) * | 2017-09-09 | 2019-03-14 | Telegenic, Inc. | Aggregating access to and delivery of media content from multiple sources |
CN111316315B (zh) * | 2017-09-12 | 2023-03-28 | 爱迪德有限公司 | 基于gpu加水印的设备和方法 |
US10264297B1 (en) * | 2017-09-13 | 2019-04-16 | Perfect Sense, Inc. | Time-based content synchronization |
US10621256B2 (en) * | 2017-09-29 | 2020-04-14 | Facebook, Inc. | Determining a rate for sampling information describing presentation of content based on previously received information describing presentation of content |
WO2019089028A1 (en) * | 2017-11-02 | 2019-05-09 | Bretherton Peter | Method and system for real-time broadcast audience engagement |
US11140450B2 (en) * | 2017-11-28 | 2021-10-05 | Rovi Guides, Inc. | Methods and systems for recommending content in context of a conversation |
US10715860B1 (en) * | 2017-11-29 | 2020-07-14 | Twitch Interactive, Inc. | Video stream with additional content areas |
US11146845B2 (en) | 2017-12-05 | 2021-10-12 | Relola Inc. | Systems and methods for unified presentation of synchronized on-demand, live, social or market content |
US10567828B2 (en) * | 2017-12-05 | 2020-02-18 | Silicon Beach Media II, LLC | Systems and methods for unified presentation of a smart bar on interfaces including on-demand, live, social or market content |
US10924809B2 (en) | 2017-12-05 | 2021-02-16 | Silicon Beach Media II, Inc. | Systems and methods for unified presentation of on-demand, live, social or market content |
US10817855B2 (en) | 2017-12-05 | 2020-10-27 | Silicon Beach Media II, LLC | Systems and methods for unified presentation and sharing of on-demand, live, social or market content |
US10783573B2 (en) | 2017-12-05 | 2020-09-22 | Silicon Beach Media II, LLC | Systems and methods for unified presentation and sharing of on-demand, live, or social activity monitoring content |
US10631035B2 (en) | 2017-12-05 | 2020-04-21 | Silicon Beach Media II, LLC | Systems and methods for unified compensation, presentation, and sharing of on-demand, live, social or market content |
US10412442B1 (en) | 2017-12-11 | 2019-09-10 | Amazon Technologies, Inc. | Embedded content input and timing |
US10531165B1 (en) | 2017-12-11 | 2020-01-07 | Amazon Technologies, Inc. | Embedded content synchronization |
US10715855B1 (en) * | 2017-12-20 | 2020-07-14 | Groupon, Inc. | Method, system, and apparatus for programmatically generating a channel incrementality ratio |
US10848792B2 (en) * | 2018-03-05 | 2020-11-24 | Maestro Interactive, Inc. | System and method for providing audience-targeted content triggered by events during program |
US10346474B1 (en) * | 2018-03-30 | 2019-07-09 | Alphonso Inc. | System and method for detecting repeating content, including commercials, in a video data stream using audio-based and video-based automated content recognition |
US11463747B2 (en) | 2018-04-05 | 2022-10-04 | Tvu Networks Corporation | Systems and methods for real time control of a remote video production with multiple streams |
US10966001B2 (en) * | 2018-04-05 | 2021-03-30 | Tvu Networks Corporation | Remote cloud-based video production system in an environment where there is network delay |
US11212431B2 (en) | 2018-04-06 | 2021-12-28 | Tvu Networks Corporation | Methods and apparatus for remotely controlling a camera in an environment with communication latency |
US11468149B2 (en) | 2018-04-17 | 2022-10-11 | Verance Corporation | Device authentication in collaborative content screening |
US20200007934A1 (en) * | 2018-06-29 | 2020-01-02 | Advocates, Inc. | Machine-learning based systems and methods for analyzing and distributing multimedia content |
US10771828B2 (en) * | 2018-09-18 | 2020-09-08 | Free Stream Media Corp. | Content consensus management |
US10929878B2 (en) * | 2018-10-19 | 2021-02-23 | International Business Machines Corporation | Targeted content identification and tracing |
WO2020095767A1 (ja) * | 2018-11-08 | 2020-05-14 | 日本電信電話株式会社 | 配信設計支援方法、配信設計支援装置及びプログラム |
US10868620B2 (en) * | 2018-12-26 | 2020-12-15 | The Nielsen Company (Us), Llc | Methods and apparatus for optimizing station reference fingerprint loading using reference watermarks |
US10848836B2 (en) * | 2018-12-28 | 2020-11-24 | Dish Network L.L.C. | Wager information based prioritized live event display system |
US10803480B2 (en) | 2019-01-07 | 2020-10-13 | Alphonso Inc. | Bidding agent with optimized reach limitation |
US11037205B2 (en) | 2019-01-07 | 2021-06-15 | Alphonso Inc. | Bidding agent using ad opportunity source to limit ad reach |
US10873785B2 (en) * | 2019-01-07 | 2020-12-22 | Alphonso Inc. | Content recommendation system and method-based implicit ratings |
US11151609B2 (en) | 2019-01-07 | 2021-10-19 | Alphonso Inc. | Closed loop attribution |
CN109547843B (zh) * | 2019-02-01 | 2022-05-17 | 腾讯音乐娱乐科技(深圳)有限公司 | 对音视频进行处理的方法和装置 |
US10856041B2 (en) * | 2019-03-18 | 2020-12-01 | Disney Enterprises, Inc. | Content promotion using a conversational agent |
US11259058B2 (en) * | 2019-03-25 | 2022-02-22 | Apple Inc. | Use of rendered media to assess delays in media distribution systems |
US11678031B2 (en) | 2019-04-19 | 2023-06-13 | Microsoft Technology Licensing, Llc | Authoring comments including typed hyperlinks that reference video content |
US11026000B2 (en) * | 2019-04-19 | 2021-06-01 | Microsoft Technology Licensing, Llc | Previewing video content referenced by typed hyperlinks in comments |
US11785194B2 (en) | 2019-04-19 | 2023-10-10 | Microsoft Technology Licensing, Llc | Contextually-aware control of a user interface displaying a video and related user text |
US11212560B2 (en) | 2019-06-24 | 2021-12-28 | The Nielsen Company (Us), Llc | Use of steganographically-encoded time information as basis to establish a time offset, to facilitate taking content-related action |
US11234049B2 (en) * | 2019-06-24 | 2022-01-25 | The Nielsen Company (Us), Llc | Use of steganographically-encoded time information as basis to control implementation of dynamic content modification |
US10834466B1 (en) * | 2019-08-02 | 2020-11-10 | International Business Machines Corporation | Virtual interactivity for a broadcast content-delivery medium |
US11627361B2 (en) * | 2019-10-14 | 2023-04-11 | Meta Platforms, Inc. | Method to acoustically detect a state of an external media device using an identification signal |
CN112995759A (zh) * | 2019-12-13 | 2021-06-18 | 腾讯科技(北京)有限公司 | 互动业务处理方法、系统、装置、设备及存储介质 |
US11991419B2 (en) | 2020-01-30 | 2024-05-21 | Snap Inc. | Selecting avatars to be included in the video being generated on demand |
US11356720B2 (en) | 2020-01-30 | 2022-06-07 | Snap Inc. | Video generation system to render frames on demand |
US11284144B2 (en) * | 2020-01-30 | 2022-03-22 | Snap Inc. | Video generation system to render frames on demand using a fleet of GPUs |
US11036781B1 (en) | 2020-01-30 | 2021-06-15 | Snap Inc. | Video generation system to render frames on demand using a fleet of servers |
EP4096798A1 (en) | 2020-01-30 | 2022-12-07 | Snap Inc. | System for generating media content items on demand |
EP3903501A2 (en) | 2020-03-13 | 2021-11-03 | Google LLC | Media content casting in network-connected television devices |
GB2597334A (en) | 2020-07-17 | 2022-01-26 | Playrcart Ltd | A media player |
US11284139B1 (en) * | 2020-09-10 | 2022-03-22 | Hulu, LLC | Stateless re-discovery of identity using watermarking of a video stream |
US11974024B2 (en) * | 2020-09-11 | 2024-04-30 | Sling TV L.L.C. | Automated program promotion detection in a video streaming system |
US11922967B2 (en) | 2020-10-08 | 2024-03-05 | Gracenote, Inc. | System and method for podcast repetitive content detection |
US11317128B1 (en) * | 2020-10-23 | 2022-04-26 | Synamedia Limited | Systems, methods, and devices for media content tamper protection and detection |
US11445042B2 (en) | 2020-12-02 | 2022-09-13 | International Business Machines Corporation | Correlating multiple media sources for personalized media content |
US10998006B1 (en) * | 2020-12-08 | 2021-05-04 | Turku University of Applied Sciences Ltd | Method and system for producing binaural immersive audio for audio-visual content |
US20220210488A1 (en) * | 2020-12-30 | 2022-06-30 | Comcast Cable Communications, Llc | Method and system for detecting and managing similar content |
US11722741B2 (en) | 2021-02-08 | 2023-08-08 | Verance Corporation | System and method for tracking content timeline in the presence of playback rate changes |
US11809481B2 (en) | 2021-02-17 | 2023-11-07 | International Business Machines Corporation | Content generation based on multi-source content analysis |
US11589100B1 (en) * | 2021-03-31 | 2023-02-21 | Amazon Technologies, Inc. | On-demand issuance private keys for encrypted video transmission |
US11580982B1 (en) | 2021-05-25 | 2023-02-14 | Amazon Technologies, Inc. | Receiving voice samples from listeners of media programs |
US11586344B1 (en) | 2021-06-07 | 2023-02-21 | Amazon Technologies, Inc. | Synchronizing media content streams for live broadcasts and listener interactivity |
US11792143B1 (en) | 2021-06-21 | 2023-10-17 | Amazon Technologies, Inc. | Presenting relevant chat messages to listeners of media programs |
US11792467B1 (en) | 2021-06-22 | 2023-10-17 | Amazon Technologies, Inc. | Selecting media to complement group communication experiences |
US11683558B2 (en) * | 2021-06-29 | 2023-06-20 | The Nielsen Company (Us), Llc | Methods and apparatus to determine the speed-up of media programs using speech recognition |
US11470130B1 (en) | 2021-06-30 | 2022-10-11 | Amazon Technologies, Inc. | Creating media content streams from listener interactions |
US11496776B1 (en) * | 2021-07-19 | 2022-11-08 | Intrado Corporation | Database layer caching for video communications |
CN114286169B (zh) * | 2021-08-31 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 视频生成方法、装置、终端、服务器及存储介质 |
US11687576B1 (en) | 2021-09-03 | 2023-06-27 | Amazon Technologies, Inc. | Summarizing content of live media programs |
US11463772B1 (en) | 2021-09-30 | 2022-10-04 | Amazon Technologies, Inc. | Selecting advertisements for media programs by matching brands to creators |
US11785299B1 (en) | 2021-09-30 | 2023-10-10 | Amazon Technologies, Inc. | Selecting advertisements for media programs and establishing favorable conditions for advertisements |
US11831943B2 (en) * | 2021-10-26 | 2023-11-28 | Apple Inc. | Synchronized playback of media content |
US11785272B1 (en) | 2021-12-03 | 2023-10-10 | Amazon Technologies, Inc. | Selecting times or durations of advertisements during episodes of media programs |
US11916981B1 (en) | 2021-12-08 | 2024-02-27 | Amazon Technologies, Inc. | Evaluating listeners who request to join a media program |
US11791920B1 (en) | 2021-12-10 | 2023-10-17 | Amazon Technologies, Inc. | Recommending media to listeners based on patterns of activity |
US11785278B1 (en) * | 2022-03-18 | 2023-10-10 | Comcast Cable Communications, Llc | Methods and systems for synchronization of closed captions with content output |
WO2023205559A1 (en) * | 2022-04-22 | 2023-10-26 | Whdiyo Llc | Dynamic visual watermark for streaming video |
US12052447B1 (en) | 2022-06-27 | 2024-07-30 | Amazon Technologies, Inc. | Dynamically moving transcoding of content between servers |
US11910044B1 (en) * | 2022-06-30 | 2024-02-20 | Amazon Technologies, Inc. | Systems and methods for switching the processing of a live content stream to another datacenter |
US12132952B1 (en) * | 2022-08-25 | 2024-10-29 | Amazon Technologies, Inc. | Accessory control using keywords |
Family Cites Families (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4811399A (en) | 1984-12-31 | 1989-03-07 | Itt Defense Communications, A Division Of Itt Corporation | Apparatus and method for automatic speech recognition |
DE69031842T2 (de) | 1989-02-20 | 1998-04-16 | Fujitsu Ltd | Lernsystem und Lernverfahren für eine Datenverarbeitungsvorrichtung |
US5436653A (en) * | 1992-04-30 | 1995-07-25 | The Arbitron Company | Method and system for recognition of broadcast segments |
US6044365A (en) * | 1993-09-01 | 2000-03-28 | Onkor, Ltd. | System for indexing and retrieving graphic and sound data |
JPH11506575A (ja) * | 1995-03-07 | 1999-06-08 | インターバル リサーチ コーポレイション | 情報の選択記憶システム及び方法 |
US5706364A (en) | 1995-04-28 | 1998-01-06 | Xerox Corporation | Method of producing character templates using unsegmented samples |
US7562392B1 (en) | 1999-05-19 | 2009-07-14 | Digimarc Corporation | Methods of interacting with audio and ambient music |
US20030093790A1 (en) * | 2000-03-28 | 2003-05-15 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
DK128796A (da) | 1996-11-14 | 1998-05-15 | Jan Meyrowitsch | Metode til objektivisering af subjektive klassifikationer |
US7587323B2 (en) * | 2001-12-14 | 2009-09-08 | At&T Intellectual Property I, L.P. | System and method for developing tailored content |
US7802276B2 (en) * | 1997-01-06 | 2010-09-21 | At&T Intellectual Property I, L.P. | Systems, methods and products for assessing subscriber content access |
US6157746A (en) | 1997-02-12 | 2000-12-05 | Sarnoff Corporation | Apparatus and method for encoding wavelet trees generated by a wavelet-based coding method |
US5870744A (en) * | 1997-06-30 | 1999-02-09 | Intel Corporation | Virtual people networking |
US6553404B2 (en) | 1997-08-08 | 2003-04-22 | Prn Corporation | Digital system |
EP1043853B1 (en) * | 1998-05-12 | 2005-06-01 | Nielsen Media Research, Inc. | Audience measurement system for digital television |
US6182186B1 (en) * | 1998-06-30 | 2001-01-30 | Sun Microsystems, Inc. | Method and apparatus that utilizes lock states to lock resources |
US6529526B1 (en) * | 1998-07-13 | 2003-03-04 | Thomson Licensing S.A. | System for processing programs and program content rating information derived from multiple broadcast sources |
US6471521B1 (en) | 1998-07-31 | 2002-10-29 | Athenium, L.L.C. | System for implementing collaborative training and online learning over a computer network and related techniques |
US7178106B2 (en) * | 1999-04-21 | 2007-02-13 | Sonic Solutions, A California Corporation | Presentation of media content from multiple media sources |
US6604239B1 (en) * | 1999-06-25 | 2003-08-05 | Eyescene Inc. | System and method for virtual television program rating |
US6895514B1 (en) | 1999-06-25 | 2005-05-17 | Lucent Technologies Inc. | Method and apparatus for achieving secure password access |
US7120871B1 (en) * | 1999-09-15 | 2006-10-10 | Actv, Inc. | Enhanced video programming system and method utilizing a web page staging area |
US7174293B2 (en) * | 1999-09-21 | 2007-02-06 | Iceberg Industries Llc | Audio identification system and method |
KR100353798B1 (ko) * | 1999-12-01 | 2002-09-26 | 주식회사 코난테크놀로지 | 영상 객체 모양 정보 추출 방법 및 그를 이용한 내용기반 이미지 검색 시스템 및 그 방법 |
DE19962281A1 (de) | 1999-12-23 | 2001-06-28 | Philips Corp Intellectual Pty | Röntgenuntersuchungsgerät |
US6892191B1 (en) | 2000-02-07 | 2005-05-10 | Koninklijke Philips Electronics N.V. | Multi-feature combination generation and classification effectiveness evaluation using genetic algorithms |
US6879967B1 (en) | 2000-03-24 | 2005-04-12 | Ricoh Co., Ltd. | Method and apparatus for open data collection |
JP3994682B2 (ja) * | 2000-04-14 | 2007-10-24 | 日本電信電話株式会社 | 放送情報送受信システム |
US6636848B1 (en) * | 2000-05-31 | 2003-10-21 | International Business Machines Corporation | Information search using knowledge agents |
US6763339B2 (en) | 2000-06-26 | 2004-07-13 | The Regents Of The University Of California | Biologically-based signal processing system applied to noise removal for signal extraction |
US6751601B2 (en) | 2000-07-21 | 2004-06-15 | Pablo Zegers | Method and a system for solving dynamic problems using the dynamical system architecture |
WO2002008951A1 (de) * | 2000-07-22 | 2002-01-31 | Abb Research Ltd. | System und verfahren zur generierung eines xml-basierten fehlermodells |
US7853664B1 (en) * | 2000-07-31 | 2010-12-14 | Landmark Digital Services Llc | Method and system for purchasing pre-recorded music |
IL139368A (en) | 2000-10-30 | 2006-12-10 | Nova Measuring Instr Ltd | Process control for microlithography |
US7375304B2 (en) | 2001-01-25 | 2008-05-20 | Lincoln Global, Inc. | System and method providing automated welding notification |
US7330717B2 (en) * | 2001-02-23 | 2008-02-12 | Lucent Technologies Inc. | Rule-based system and method for managing the provisioning of user applications on limited-resource and/or wireless devices |
US20020133499A1 (en) | 2001-03-13 | 2002-09-19 | Sean Ward | System and method for acoustic fingerprinting |
JP4340398B2 (ja) * | 2001-05-15 | 2009-10-07 | 日本放送協会 | 双方向型放送視聴システム |
US20020194585A1 (en) * | 2001-06-15 | 2002-12-19 | Connelly Jay H. | Methods and apparatus for providing ranking feedback for content in a broadcast system |
JP4398242B2 (ja) * | 2001-07-31 | 2010-01-13 | グレースノート インコーポレイテッド | 録音の多段階識別方法 |
JP4165685B2 (ja) * | 2001-08-09 | 2008-10-15 | ヤマハ株式会社 | コンテンツ販売サーバ及びプログラム |
FR2831981B1 (fr) | 2001-11-08 | 2005-07-08 | Cit Alcatel | Procede et dispositif d'analyse d'alarmes provenant d'un reseau de communication |
JP2003150529A (ja) * | 2001-11-19 | 2003-05-23 | Hitachi Ltd | 情報交換方法、情報交換端末装置、情報交換サーバ装置、プログラム |
JP2003163911A (ja) * | 2001-11-22 | 2003-06-06 | Nippon Telegr & Teleph Corp <Ntt> | 好感度情報に基づく映像再生制御方法、映像再生制御システム、サーバ装置、クライアント装置、並びに、映像再生制御プログラム及びその記録媒体 |
US7065544B2 (en) | 2001-11-29 | 2006-06-20 | Hewlett-Packard Development Company, L.P. | System and method for detecting repetitions in a multimedia stream |
JP3872980B2 (ja) * | 2001-12-12 | 2007-01-24 | 松下電器産業株式会社 | 情報再生装置 |
US6585521B1 (en) | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
US7038619B2 (en) * | 2001-12-31 | 2006-05-02 | Rdp Associates, Incorporated | Satellite positioning system enabled media measurement system and method |
AU2003239385A1 (en) | 2002-05-10 | 2003-11-11 | Richard R. Reisman | Method and apparatus for browsing using multiple coordinated device |
US7665035B2 (en) * | 2002-05-20 | 2010-02-16 | Gateway, Inc. | Content selection apparatus, system, and method |
JP2003345729A (ja) * | 2002-05-24 | 2003-12-05 | Matsushita Electric Ind Co Ltd | テレビチャットシステム、テレビチャット端末装置、テレビチャットサーバ、テレビチャットサービス提供方法、およびプログラム |
US6766523B2 (en) | 2002-05-31 | 2004-07-20 | Microsoft Corporation | System and method for identifying and segmenting repeating media objects embedded in a stream |
WO2003102728A2 (en) * | 2002-05-31 | 2003-12-11 | Predictive Media Corporation | Method and system for the storage, viewing management, and delivery of targeted advertising |
US20030225833A1 (en) * | 2002-05-31 | 2003-12-04 | Paul Pilat | Establishing multiparty communications based on common attributes |
JP2004015087A (ja) * | 2002-06-03 | 2004-01-15 | Matsushita Electric Ind Co Ltd | 視聴者参加型双方向通信サービスシステム |
US7107207B2 (en) | 2002-06-19 | 2006-09-12 | Microsoft Corporation | Training machine learning by sequential conditional generalized iterative scaling |
WO2004004351A1 (en) | 2002-07-01 | 2004-01-08 | Microsoft Corporation | A system and method for providing user control over repeating objects embedded in a stream |
JP2004037721A (ja) * | 2002-07-02 | 2004-02-05 | Pioneer Electronic Corp | 音声応答システム、音声応答プログラム及びそのための記憶媒体 |
JP2004049438A (ja) | 2002-07-18 | 2004-02-19 | Olympia:Kk | メダル振り分け機構を備えた遊技機及びメダル振り分け方法並びに記録媒体及びプログラム |
JP2004159192A (ja) * | 2002-11-07 | 2004-06-03 | Nippon Telegr & Teleph Corp <Ntt> | 映像要約方法及びプログラム及び映像要約プログラムを格納した記憶媒体 |
US7930716B2 (en) * | 2002-12-31 | 2011-04-19 | Actv Inc. | Techniques for reinsertion of local market advertising in digital video from a bypass source |
JP2004213570A (ja) * | 2003-01-08 | 2004-07-29 | Sony Corp | 情報提供方法 |
JP2004235694A (ja) * | 2003-01-28 | 2004-08-19 | Mitsubishi Electric Corp | サーバ装置および放送受信機 |
US7913279B2 (en) * | 2003-01-31 | 2011-03-22 | Microsoft Corporation | Global listings format (GLF) for multimedia programming content and electronic program guide (EPG) information |
US20050009620A1 (en) | 2003-02-14 | 2005-01-13 | Hodgetts George W. | Golf club shaft with adjustable flex |
US20040216041A1 (en) * | 2003-04-24 | 2004-10-28 | Amir Ajizadeh | System and methods in interactive television and radio ratings through the internet and the telephone |
JP2005107529A (ja) * | 2003-09-25 | 2005-04-21 | Ricoh Co Ltd | 時間ベースメディアのための印刷可能表現 |
US7788696B2 (en) | 2003-10-15 | 2010-08-31 | Microsoft Corporation | Inferring information about media stream objects |
JP4466055B2 (ja) * | 2003-11-28 | 2010-05-26 | ソニー株式会社 | コミュニケーションシステム、コミュニケーション方法、端末装置、情報提示方法、メッセージ交換装置およびメッセージ交換方法 |
JP2005167349A (ja) * | 2003-11-28 | 2005-06-23 | Matsushita Electric Ind Co Ltd | 番組コンテンツ送出装置 |
US7281219B2 (en) | 2003-12-05 | 2007-10-09 | International Business Machines Corporation | Blended learning experience tool and method |
US20050147256A1 (en) * | 2003-12-30 | 2005-07-07 | Peters Geoffrey W. | Automated presentation of entertainment content in response to received ambient audio |
US20050193016A1 (en) * | 2004-02-17 | 2005-09-01 | Nicholas Seet | Generation of a media content database by correlating repeating media content in media streams |
US7197502B2 (en) * | 2004-02-18 | 2007-03-27 | Friendly Polynomials, Inc. | Machine-implemented activity management system using asynchronously shared activity data objects and journal data items |
US8229751B2 (en) * | 2004-02-26 | 2012-07-24 | Mediaguide, Inc. | Method and apparatus for automatic detection and identification of unidentified Broadcast audio or video signals |
US7546086B2 (en) * | 2004-05-07 | 2009-06-09 | Telefonaktiebolaget L M Ericsson (Publ) | Ad-hoc messaging between wireless devices |
US20060080356A1 (en) | 2004-10-13 | 2006-04-13 | Microsoft Corporation | System and method for inferring similarities between media objects |
US7472096B2 (en) | 2005-07-18 | 2008-12-30 | Microsoft Corporation | Training a learning system with arbitrary cost functions |
WO2007064641A2 (en) * | 2005-11-29 | 2007-06-07 | Google Inc. | Social and interactive applications for mass media |
US7617164B2 (en) | 2006-03-17 | 2009-11-10 | Microsoft Corporation | Efficiency of training for ranking systems based on pairwise training with aggregated gradients |
US7831531B1 (en) * | 2006-06-22 | 2010-11-09 | Google Inc. | Approximate hashing functions for finding similar content |
-
2006
- 2006-11-27 WO PCT/US2006/045551 patent/WO2007064641A2/en active Application Filing
- 2006-11-27 JP JP2008543390A patent/JP2009524273A/ja active Pending
- 2006-11-27 KR KR1020087015739A patent/KR101371574B1/ko active IP Right Grant
- 2006-11-27 EP EP06838486A patent/EP1958362A4/en not_active Withdrawn
- 2006-11-27 WO PCT/US2006/045549 patent/WO2007064640A2/en active Application Filing
- 2006-11-27 BR BRPI0619388-9A patent/BRPI0619388A2/pt active Search and Examination
- 2006-11-27 EP EP08153719A patent/EP1986145A1/en not_active Ceased
- 2006-11-27 US US11/563,653 patent/US8442125B2/en active Active
- 2006-11-27 AU AU2006320692A patent/AU2006320692A1/en not_active Abandoned
- 2006-11-27 KR KR1020087015779A patent/KR20080073357A/ko not_active Application Discontinuation
- 2006-11-27 US US11/563,661 patent/US8479225B2/en active Active
- 2006-11-27 ES ES06838488T patent/ES2386977T3/es active Active
- 2006-11-27 CA CA2631151A patent/CA2631151C/en not_active Expired - Fee Related
- 2006-11-27 CA CA002631270A patent/CA2631270A1/en not_active Abandoned
- 2006-11-27 US US11/563,665 patent/US7991770B2/en active Active
- 2006-11-27 EP EP06838488A patent/EP1955458B1/en active Active
- 2006-11-27 BR BRPI0619197-5A patent/BRPI0619197A2/pt not_active IP Right Cessation
- 2006-11-27 JP JP2008543391A patent/JP2009518884A/ja active Pending
- 2006-11-27 AU AU2006320693A patent/AU2006320693B2/en not_active Ceased
-
2008
- 2008-05-29 IL IL191814A patent/IL191814A0/en unknown
-
2011
- 2011-08-01 US US13/195,330 patent/US8700641B2/en active Active
-
2012
- 2012-10-05 JP JP2012223077A patent/JP6161249B2/ja active Active
-
2013
- 2013-03-15 US US13/842,471 patent/US20150156542A1/en not_active Abandoned
-
2017
- 2017-08-11 US US15/675,586 patent/US20170366847A1/en not_active Abandoned
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BRPI0619388A2 (pt) | aplicações sociais e interativas para mìdia de massa | |
CN101517550B (zh) | 大众传媒的社会性和交互式应用 | |
US9251406B2 (en) | Method and system for detecting users' emotions when experiencing a media program | |
CN112753227B (zh) | 从事件的描绘提取元数据的方法、计算机可读介质和系统 | |
CN104798346B (zh) | 用于补充与广播媒体相关的电子消息的方法和计算系统 | |
US20100153861A1 (en) | Interactive events | |
US20130060873A1 (en) | Real time event reviewing system and method | |
US11687585B2 (en) | Systems and methods for identifying a media asset from an ambiguous audio indicator | |
US20200053409A1 (en) | Systems and Methods for Automated Extraction of Closed Captions in Real Time or Near Real-Time and Tagging of Streaming Data for Advertisements | |
CN115391651A (zh) | 基于cookie和标签的戏剧短视频推荐方法及系统 | |
CN118921502A (zh) | 从事件的描绘提取元数据的方法、计算机可读介质和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B25D | Requested change of name of applicant approved |
Owner name: GOOGLE LLC (US) |
|
B06T | Formal requirements before examination [chapter 6.20 patent gazette] | ||
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B06A | Patent application procedure suspended [chapter 6.1 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B11D | Dismissal acc. art. 38, par 2 of ipl - failure to pay fee after grant in time |