ES2386977T3 - Aplicaciones sociales e interactivas para medios masivos - Google Patents
Aplicaciones sociales e interactivas para medios masivos Download PDFInfo
- Publication number
- ES2386977T3 ES2386977T3 ES06838488T ES06838488T ES2386977T3 ES 2386977 T3 ES2386977 T3 ES 2386977T3 ES 06838488 T ES06838488 T ES 06838488T ES 06838488 T ES06838488 T ES 06838488T ES 2386977 T3 ES2386977 T3 ES 2386977T3
- Authority
- ES
- Spain
- Prior art keywords
- audio
- descriptors
- ambient audio
- mass media
- broadcast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002452 interceptive effect Effects 0.000 title description 15
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000012545 processing Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 32
- 239000000463 material Substances 0.000 description 22
- 239000012634 fragment Substances 0.000 description 16
- 230000007704 transition Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012797 qualification Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 239000010949 copper Substances 0.000 description 2
- 229910052802 copper Inorganic materials 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 235000015278 beef Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
- H04H60/372—Programme
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
- H04H60/375—Commercial
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/58—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/59—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/64—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for providing detail information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/252—Processing of multiple end-users' preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/26603—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for automatically generating descriptors from content, e.g. when it is not made available by its provider, using content analysis techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/4143—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44016—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440236—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/454—Content or additional data filtering, e.g. blocking advertisements
- H04N21/4542—Blocking scenes or portions of the received content, e.g. censoring scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4756—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4782—Web browsing, e.g. WebTV
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17336—Handling of requests in head-ends
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/12—Arrangements for observation, testing or troubleshooting
- H04H20/14—Arrangements for observation, testing or troubleshooting for monitoring programmes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H2201/00—Aspects of broadcast communication
- H04H2201/90—Aspects of broadcast communication characterised by the use of signatures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/02—Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
- H04H60/06—Arrangements for scheduling broadcast services or broadcast-related services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/45—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/65—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on users' side
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/66—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on distributors' side
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/76—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
- H04H60/78—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations
- H04H60/80—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations characterised by transmission among terminal devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/76—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
- H04H60/81—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself
- H04H60/82—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet
- H04H60/87—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet accessed over computer networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Finance (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Computing Systems (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Un método ejecutado por ordenador que comprende: Recibir un primer descriptor que identifica un primer audio ambiente de una primera difusión de medio masivo, en donde el primer audio ambiente se genera mediante un primer sistema de medios masivos (202) y se detecta mediante un primer detector de audio ambiente (204); Recibir un segundo descriptor que identifica un segundo audio ambiente de una segunda difusión de medio masivo, en donde el segundo audio ambiente se genera mediante un segundo sistema de medios masivos (202) y se detecta mediante un segundo detector de audio ambiente (204); Comparar el primer y segundo descriptores para determinar si la primera y segunda difusiones de medios masivos son iguales; y Agregar información personalizada con base en el resultado de la comparación, en donde la información personalizada incluye información asociada con un medio comentado, en donde se crea una sala de conversación al comparar directamente los primeros y segundos descriptores en el flujo de datos transmitido por los sistemas del cliente (102) para determinar las correspondencias.
Description
Aplicaciones sociales e interactivas para medios masivos.
Campo técnico
Las ejecuciones descritas se relacionan con aplicaciones sociales e interactivas para medios masivos.
Antecedentes
Los canales de medios masivos (por ejemplo las difusiones de televisión y radio) típicamente suministran contenido
limitado a una gran audiencia. Como contraste, la “World Wide Web” suministra vastas cantidades de información que
pueden ser solo de interés a pocos individuos. Los intentos de la televisión interactiva convencional crean puentes entre estos dos medios de comunicación al suministrar un medio para que los televidentes interactúen con su televisión y al recibir contenido y/o servicios relacionados con la difusión de televisión
La televisión interactiva convencional está típicamente solo disponible a los televidentes a través de redes de cable o satélite para o mediante tarifas de suscripción. Para recibir el servicio de televisión interactiva el televidente tiene que arrendar o comprar un decodificador y que lo instale un técnico. La televisión del observador está conectada al decodificador, lo que le posibilita al observador interactuar con la televisión utilizando el control remoto y otros dispositivos de entrada, y recibir información, entretenimiento y servicios (por ejemplo propaganda, compras en línea, formas y encuestas, juegos y actividades, etc.).
Aunque la televisión interactiva convencional puede mejorar la experiencia de televisión del observador, subsiste la necesidad de aplicaciones sociales e interactivas para medios masivos que no tengan hardware significativo adicional o conexiones físicas entre la televisión o la radio y un decodificador o un ordenador.
Una aplicación de televisión social e interactiva que está faltando en los sistemas de televisión convencional e interactiva es la capacidad de suministrar información complementaria al canal de medio masivo sin mayor esfuerzo. Con los sistemas convencionales, un usuario tendría que entrar a un ordenador y consultar tal información lo que disminuiría la experiencia pasiva ofrecida por los medios masivos. Más aún, los sistemas de televisión convencionales no pueden suministrar información complementaria en tiempo real mientras que el usuario está viendo una difusión.
Otra aplicación de la televisión social e interactiva que está faltando con los sistemas de televisión interactivos convencionales es la capacidad de enlazar dinámicamente un observador con una comunidad social par nd hoc (por ejemplo un grupo de discusión, un sitio de conversación, etc.) en tiempo real. Imagine que usted está viendo el último episodio de "Friends" en televisión y descubre que el personaje "Monica" está embarazada. Usted quiere conversar, comentar o leer las respuestas de otros observadores a la escena en tiempo real. Una opción sería ingresar a su ordenador, digitar el nombre de "Friends" u otros términos relacionados en un motor de búsqueda, y efectuar una búsqueda para encontrar un grupo de discusión de "Friends." Tal acción requerida por el observador, sin embargo, disminuiría la experiencia pasiva ofrecida por los medios masivos y no le posibilitaría al observador interactuar dinámicamente (por ejemplo comentar, conversar, etc.) con otros observadores que están viendo el programa al mismo tiempo.
Otra deficiencia en los sistemas de televisión convencional y los sistemas de televisión interactiva es un método simple para evaluar la popularidad de los eventos de difusión. Las calificaciones de popularidad de los eventos de difusión son de mucho interés para los usuarios, difusores y anunciantes. Estas necesidades se resuelven parcialmente mediante sistemas de medición como las calificaciones de Nielsen®. Estas calificaciones, sin embargo, requieren la instalación de un equipo dedicado y de la cooperación de los observadores participantes.
El documento US 2004/0031058 A1 describe sistemas y métodos para navegar hipermedios utilizando múltiples conjuntos de dispositivos de entrada/salida coordinados. Los sistemas y métodos descritos le permiten al usuario y/o a un autor controlar que fuentes se presentan en que dispositivos (sea que estén integrados o no), y suministrar la coordinación de actividades de navegación para posibilitar que tal interfaz se emplee a través de múltiples sistemas independientes.
Yan Ke et al., "Computer Vision for Music Identification", Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, páginas 597-604, ISBN: 978/0/7695/2372-9, describe cómo ciertas tareas en el dominio de audio se pueden dirigir efectivamente utilizando aproximaciones de visión con ordenador. Este documento se enfoca en el problema de identificación de la música, donde la meta es identificar de manera confiable una canción dando unos pocos segundos de audio ruidoso. La aproximación trata el espectrograma de cada video musical como una imagen 2D y transforma la identificación de la música en un problema de recuperación de subimagen dañada.
2
El documento US 2004/0199387 A1 describe un método y un sistema que le permite a los usuarios identificar (pregrabar) sonidos tales como música, difusión de radio, comerciales, y otras señales de audio en casi cualquier ambiente. La señal de audio (o sonido) debe ser una grabación representada en una base de datos de grabaciones. El servicio puede identificar rápidamente la señal con solo unos pocos segundos de ejecución, mientras que se tolera alto ruido y distorsión. Una vez que el usuario identifica la señal, el usuario puede efectuar transacciones interactivamente en tiempo real o fuera de línea utilizando la información de identificación.
El documento US 2005/0147256 A1 describe un aparato que incluye un analizar acústico para identificar el audio ambiente recibido y un analizador de contenido. El analizador de contenido es para seleccionar el contenido asociado con el audio identificado para la presentación del contenido a un usuario. Se describen y reivindican otras realizaciones.
El documento US 2002/0133499 A1 describe un método para identificar rápida y precisamente un archivo digital, específicamente uno que represente un archivo de audio. La identificación se puede utilizar para hacer un seguimiento a los pagos de regalías a los propietarios de derechos de autor. Una base de datos almacena características de varios archivos de audio y un identificador globalmente único (GUID) para cada archivo. De manera ventajosa, el método permite que sea actualizada una base de datos en el caso de un nuevo archivo de audio al almacenar sus características y generar un nuevo identificador único para el nuevo archivo. El archivo de audio es muestreado para generar una huella que utiliza los residuos del espectro y transforma el tren de ondas de Haar. De manera ventajosa cualquier marca utilizada para el trabajo es actualizada automáticamente si parece haber un error.
Resumen
Las deficiencias descritas anteriormente son manejadas por el sistema reivindicado, el método y el producto de programa de ordenador.
Descripción de los dibujos
La FIGURA 1 es un diagrama de bloque de una realización de sistema de personalización masivo.
La FIGURA 2 ilustra una realización de un sistema de identificación de audio ambiente, que incluye la interfaz del lado del cliente mostrada en la FIGURA .1.
La FIGURA 3 es un diagrama de flujo de un ejemplo de un proceso para proporcionar aplicaciones de personalización masiva.
La FIGURA 4 es un diagrama de flujo de un ejemplo de un proceso de establecimiento de huella de audio.
La FIGURA 5 es un diagrama de flujo de una realización de una interfaz de usuario para interactuar con aplicaciones de personalización masivas.
La FIGURA 6 es un diagrama de bloque de una realización de la arquitectura de hardware para un sistema de cliente para ejecutar la interfaz del lado del cliente mostrada en la FIGURA .1.
La FIGURA 7 es un diagrama de flujo de una realización de un proceso de detección de repetición.
Descripción detallada
Aplicaciones de personalización masivas
Las aplicaciones de personalización masivas suministran información personalizada e interactiva relacionada con las difusiones de medios masivos (por ejemplo televisión, radio, cine, difusiones de Internet, etc.). Tales aplicaciones incluyen pero no se limitan a: capas de información personalizada, comunidades sociales pares ad hoc, calificaciones de popularidad en tiempo real y marcadores de video (o audio), etc. Aunque algunos de los ejemplos de medios masivos descritos aquí están en el contexto de difusiones de televisión, las ejecuciones descritas son igualmente aplicables a difusiones de radio y/o música.
Las capas de información personalizada suministran información complementaria al canal de medios masivos. Ejemplos de capas de información personalizada incluyen pero no se limitan a: moda, política, negocios, salud, viajes, etc. Por ejemplo, mientras se ve un nuevo segmento de una celebridad, se presenta una capa de moda al observador en una pantalla de televisión o en un dispositivo de pantalla de un ordenador, que suministre información y/o imágenes relacionadas con las prendas y accesorios que está vistiendo la celebridad en el segmento de noticias. Adicionalmente, las capas personalizadas pueden incluir propaganda que promueva productos o servicios con el segmento de noticias, tal como un enlace a un almacén de ropa que está vendiendo prendas que la celebridad está vistiendo.
Las comunidades sociales pares ad hoc suministran un sitio para comentarios entre usuarios que estén viendo la misma presentación de televisión o escuchando la misma estación de radio. Por ejemplo, un usuario que esté viendo los últimos titulares de CNN se le puede dar un medio con comentario (por ejemplo un sitio de conversación, un tablero de mensajes, una página wiki, un enlace de video, etc.) que le permita al usuario conversar, comentar o leer las respuestas de otros observadores a la difusión de medios masivos en desarrollo.
Las calificaciones de popularidad en tiempo real le suministra a los proveedores de contenido y a los usuarios una información de calificaciones (similar a las calificaciones de Nielsen). Por ejemplo, a un usuario se le puede suministrar de manera instantánea calificaciones de popularidad en tiempo real de los canales de televisión o de las estaciones de radio que están viendo o escuchando o de la red social del usuario y/o la gente con similar demografía.
Las marcas de video o audio les da a los usuarios maneras con poco esfuerzo de crear bibliotecas personalizadas de su contenido de difusión favorito. Por ejemplo, un usuario puede simplemente presionar un botón sobre un ordenador o un dispositivo de control remoto y un fragmento de código de un audio ambiente y/o video de un contenido de difusión que está siendo grabado, procesado y guardado. El fragmento de código se puede utilizar como una marca para referirse al programa, o a porciones del programa, para observación posterior. La marca se puede compartir con amigos o guardarse para futura referencia personal.
Redes de Personalización Masivas
La FIGURA 1 es un diagrama de bloque de sistema de personalización masivo 100 para proporcionar aplicaciones de personalización masivas. El sistema 100 incluye una o más interfaces del lado del cliente 102, un servidor de base de datos de audio 104 y un servidor para una aplicación social 106, todas las cuales se comunican sobre una red 108 (por ejemplo, la Internet, una intranet, LAN, red inalámbrica, etc.).
Una interfaz de cliente 102 puede ser cualquier dispositivo que le permita a un usuario que le permita a un usuario ingresar y recibir información, y que es capaz de presentar una interfaz de usuario en un dispositivo de pantalla, que incluye pero no se limita a: un ordenador de mesa o portátil; un dispositivo electrónico; un teléfono, un teléfono móvil; un sistema de pantalla, una televisión, un monitor de ordenador; un sistema de navegación; un reproductor/grabador de medios portátil, un ayudante digital personal (PDA); una consola de juegos; un dispositivo electrónico manual; y un dispositivo o aparato electrónico embebido. La interfaz de cliente 102 se describe más completamente con respecto de la FIGURA 2.
La interfaz de cliente 102 incluye un detector de audio ambiente (por ejemplo, un micrófono) para supervisar y registrar el audio ambiente de una difusión de medios masivos en un ambiente de difusión (por ejemplo, una sala del usuario). Uno o más segmentos de audio ambiente o "fragmentos de códigos" se convierten en resúmenes estadísticos distintivos y robustos, denominados como "huellas de audio" o "descriptores." En algunos ejemplos, los descriptores son archivos comprimidos que contienen unos componentes de firma audio que se pueden comparar con una base de datos de los descriptores de referencia previamente generados o estadísticas asociadas con la difusión de medios masivos.
Una técnica para generar huellas de audio para identificación de música se describe en Ke, Y., Hoiem, D., Sukthankar,
R. (2005), Computer Vision for Music Identification, In Proc. Computer Vision and Pattern Recognition. En algunas ejecuciones, el método de identificación de música propuesto por (en lo sucesivo "Ke et al.") se adapta para generar descriptores para datos de audio para televisión y consultas, como se describió con respecto a la FIGURA 4.
Una técnica para generar descriptores de audio utilizando trenes de ondas se describe en la Solicitud de Patente Provisional Estadounidense No. 60/823,881, para "Audio Identification Based on Signatures." Esta solicitud describe una técnica que utiliza una combinación de visión por ordenador y unos algoritmos de procesamiento de corriente de datos a gran escala para crear descriptores/huellas compactas de fragmentos de código de audio y se pueda hacer corresponder eficientemente. La técnica utiliza trenes de ondas, que es una herramienta matemática conocida para funciones de jerárquicamente descompuestas.
En "Identificación de Audio con Base en Firmas," una implementación de un proceso de recuperación incluye las siguientes etapas: 1) dado el espectro de audio de un fragmento de código de audio, las imágenes espectrales de extracto de, por ejemplo, 11.6*w ms de duración, con un promedio de espaciamiento aleatorio separado d-ms. Para cada imagen espectral: 2) computar los trenes de onda de la imagen espectral; 3) extraer los trenes de onda superiores t; 4) crear una representación binaria de los trenes de onda superiores t; 5) utilizar “min-hash” para crear una subhuella de los trenes de onda superiores t; 6) utilizar LSH con compartimientos b y tablas “hash” para encontrar segmentos de subhuella que se hagan corresponder cercanamente; 7) descargar subhuellas con menos de “v” correspondencias; 8)
computar una distancia Hamming desde las subhuellas candidatas restantes a la subhuella de consulta; y 9) utilizar programación dinámica para combinar las correspondencias durante el tiempo.
En algunos ejemplos, los descriptores y un identificador de usuario asociado ("usuario id") para identificar la interfaz del lado del cliente 102 se envían al servidor de la base de datos de audio 104 por medio de la red 108. El servidor de la base de datos de audio 104 compara el descriptor con una pluralidad de descriptores de referencia, que se determinaron y almacenaron previamente en una base de datos de audio 110 acoplada al servidor de la base de datos de audio 104. En algunos ejemplos, el servidor de la base de datos de audio 104 actualiza continuamente los descriptores de referencia almacenados en la base de datos de audio 110 desde las difusiones de medios masivos recientes.
El servidor de la base de datos de audio 104 determina las mejores correspondencias entre los descriptores recibidos y los descriptores de referencia y envía la información de la mejor correspondencia al servidor de aplicación social 106. El proceso de correspondencia se describe más completo con respecto a la FIGURA 4.
En algunas ejecuciones, el servidor de aplicación social 106 acepta conexiones de navegador de la red asociados con la interfaz del lado del cliente 102. Utilizando la información de mejor correspondencia, el servidor de aplicación social 106 agrega información personalizada para el usuario y envía la información personalizada a la interfaz del lado del cliente
102. La información personalizada puede incluir pero no se limita a: propagandas, capas de información personalizada, calificaciones de popularidad, e información asociada con un medio en comento (por ejemplo, comunidades sociales pares ad hoc, foros, grupos de discusión, conferencias de video, etc.).
La información personalizada se utiliza para crear una sala de conversación para los observadores sin conocer el espectáculo que los observadores están viendo en tiempo real. Las salas de conversación se crean al comparar directamente los descriptores en las corrientes de datos transmitidas por los sistemas de cliente para determinar las correspondencias. Es decir, las salas de conversación se pueden crear alrededor de observadores que tienen los descriptores que se corresponden. No existe necesidad de comparar los descriptores recibidos de los observadores contra los descriptores de referencia.
En algunas ejecuciones, el servidor de aplicación social 106 sirve como una página de red a la interfaz del lado del
cliente 102, que se recibe y despliega mediante un navegador de red (por ejemplo, Microsoft Internet Explorer™) que
corre en la interfaz del lado del cliente 102. El servidor de aplicación social 106 también recibe la id del usuario desde la interfaz del lado del cliente 102 y/o el servidor de la base de datos de audio 104 para ayudar a agregar contenido personalizado y servir las páginas de red a la interfaz del lado del cliente 102.
Debe ser evidente que son posibles otras implementaciones del sistema 100. Por ejemplo, el sistema 100 puede incluir múltiples base de datos de audio 110, servidores de la base de datos de audio 104 y/o servidores de aplicación social
106. Alternativamente, el servidor de la base de datos de audio 104 y el servidor de aplicación social 106 puede ser un servidor o sistema único, o parte de un recurso de red y/o servicio. También, la red 108 puede incluir múltiples redes y enlaces acoplados operativamente en varias topologías y disposiciones que utilizan una variedad de dispositivos de red (por ejemplo, concentradores, enrutadores, etc.) y medios (por ejemplo, cobre, fibra óptica, radiofrecuencias, etc.). Las arquitecturas del servidor del cliente se describen solamente como un ejemplo. Son posibles otras arquitecturas de ordenador.
Sistema de Identificación de Audio Ambiente
La FIGURA 2 ilustra un sistema de identificación de audio ambiente 200, que incluye una interfaz del lado del cliente 102 como se muestra en la FIGURA 1. El sistema 200 incluye un sistema de medios masivos 202 (por ejemplo, un aparato de televisión, radio, ordenador, dispositivo electrónico, teléfono móvil, consola de juegos, dispositivos de red, etc.), un detector de audio ambiente 204, una interfaz del lado del cliente 102 (por ejemplo, un ordenador de mesa o portátil, etc.) y un dispositivo de acceso a la red 206. En algunas ejecuciones, la interfaz del lado del cliente 102 incluye un dispositivo de pantalla 210 para presentar una interfaz de usuario (UI) 208 para permitir que un usuario interactúe con una aplicación de personalización masivo, como se describe con respecto a la FIGURA 5.
En operación, el sistema de medios masivos 202 genera audio ambiente de una difusión de medios masivos (por ejemplo, audio de televisión), que se detecta mediante el detector de audio ambiente 204. El detector de audio ambiente 204 puede ser cualquier dispositivo que puede detectar el audio ambiente, que incluye un micrófono libre de base y un micrófono que se integra con la interfaz del lado del cliente 102. El audio ambiente detectado se codifica por la interfaz del lado del cliente 102 para suministrar descriptores que identifican el audio ambiente. Los descriptores se transmiten al servidor de la base de datos de audio 104 por medio del dispositivo de acceso a la red 206 y la red 108.
En algunas ejecuciones, el software del cliente que corre en la interfaz del lado del cliente 102 monitorea continuamente y registra los archivos de audio de n segundos (por ejemplo, 5 segundos) ("fragmentos de códigos") de audio ambiente. Los fragmentos de códigos luego se convierten en m cuadros (por ejemplo, 415 cuadros) de los descriptores codificados de k-bit (por ejemplo, 32-bits), de acuerdo con un proceso descrito con respecto a la FIGURA 4. En algunas ejecuciones, el monitoreo y el registro están basados en el evento. Por ejemplo, el monitoreo y el registro se puede iniciar automáticamente en una fecha específica y en un momento específico (por ejemplo, Lunes, 8:00 P.M.) y durante un tiempo de duración específico (por ejemplo, entre 8:00-9:00 P.M.). Alternativamente, el monitoreo y el registro se pueden iniciar en respuesta al ingreso del usuario (por ejemplo, una pulsación del ratón, clave de función o combinación de clave) desde un dispositivo de control (por ejemplo, un control remoto, etc.). En algunas ejecuciones, el audio ambiente se codifica utilizando una variación de corriente de características discriminantes de cuadro de 32-bit descrita en Ke et al.
En algunas ejecuciones, el software de cliente corre como una “barra lateral” u otro elemento de interfaz de usuario. Es decir, cuando la interfaz del lado del cliente 102 es arrancada, el muestreo del audio ambiente puede iniciar inmediatamente y correr el “trasfondo” con resultados (opcionalmente) que son desplegados en la barra lateral sin invocar una sección de navegador de la referencia.
En algunas ejecuciones, el muestreo del audio ambiente puede iniciar cuando la interfaz del lado del cliente 102 es arrancada o cuando se registra en un servicio o aplicación (por ejemplo, correo electrónico, etc.)
Los descriptores se envían al servidor de la base de datos de audio 104. En algunas ejecuciones, los descriptores son resúmenes estadísticos comprimidos del audio ambiente, descritos en Ke et al. Al enviar los resúmenes estadísticos, la privacidad acústica del usuario se mantiene porque los resúmenes estadísticos no son reversibles, es decir, el audio original no se puede recuperar del descriptor. Así, cualquier conversación del usuario u otros individuos monitoreada y grabada en el ambiente de difusión no se puede reproducir del descriptor. En algunas ejecuciones, los descriptores se pueden encriptar para privacidad y seguridad extra utilizando una o más de las técnicas de encriptación conocida (por ejemplo, encriptación con clave asimétrica o simétrica, encriptación elíptica, etc.).
En algunas ejecuciones, los descriptores se envían al servidor de la base de datos de audio 104 como un envío de consulta (también denominado como un descriptor de consulta) en respuesta a un evento disparador detectado por el proceso de monitoreo en la interfaz del lado del cliente 102. Por ejemplo, un evento disparador puede ser el tema de apertura de un programa de televisión (por ejemplo la sintonización de apertura de “Seinfeld”) o los diálogos hechos por los actores. En algunas ejecuciones, los descriptores de consulta se pueden enviar al servidor de la base de datos de audio 104 como parte de un proceso en corriente continua. En algunas ejecuciones, los descriptores de consulta se pueden transmitir al servidor de la base de datos de audio 104 en respuesta al ingreso del usuario (por ejemplo, por medio del control remoto, pulsaciones de ratón, etc.).
Proceso de Personalización Masivo
LA FIGURA 3 es un diagrama de flujo de un proceso de personalización masivo 300. Las etapas del proceso 300 no tienen que ser completadas en un orden particular y al menos algunas etapas se pueden efectuar al mismo tiempo en un ambiente multihilado o de procesamiento paralelo.
El proceso 300 comienzo cuando la interfaz del lado del cliente (por ejemplo, interfaz del lado del cliente 102) monitorea y registra los fragmentos de códigos de audio ambiente de una difusión de medios masivos en un ambiente de difusión (302). Los fragmentos de códigos del audio ambiente grabado se codifican en los descriptores (por ejemplo, resúmenes estadísticos comprimidos), que se pueden enviar a un servidor de base de datos de audio (304) como consultas. El servidor de la base de datos de audio compara las consultas contra una base de datos de los descriptores de referencia calculada de las estadísticas de difusión de medios masivos para determinar los descriptores candidatos que mejor se correspondan con la consulta (308). Los descriptores candidatos se envían a un servidor para una aplicación social o a otro recurso de red, que utiliza los descriptores candidatos para agregar información personalizada para el usuario (310). Por ejemplo, si el usuario está viendo el programa de televisión "Seinfeld," los descriptores de consulta generados del audio ambiente del programa se corresponderán con los descriptores de referencia derivados de las difusiones de "Seinfeld" previas. Así, los descriptores candidatos que se correspondan mejor se utilizan para agregar información personalizada que se relaciona con "Seinfeld" (por ejemplo, nuevas historias, grupos de discusión, enlaces a comunidades sociales pares ad hoc o salas de conversación, propagandas, etc.). En algunos ejemplos el procedimiento de correspondencia se efectúa eficientemente utilizando técnicas “hashing” (por ejemplo ”hashing” directo o ”hashing” sensible al sitio (LSH)) para lograr una lista corta de descriptores candidatos, como se describió con respecto a la FIGURA 4. Los descriptores candidatos luego se procesan en un procedimiento de validación, tal como se describió en Ke et al.
Los descriptores de consulta de los diferentes observadores se corresponden directamente en lugar de hacer corresponder cada consulta con una base de datos de los descriptores de referencia. Esto permite la creación de comunidades sociales pares ad hoc sobre la materia objeto para lo cual no está disponible una base de datos de los descriptores de referencia. Tal realización se puede hacer coincidir con los observadores en tiempo real que estén en la misma forma pública (por ejemplo, estadio, bar, etc.) utilizando dispositivos electrónicos portátiles (por ejemplo, teléfonos móviles, PDA, etc.).
Calificaciones de Popularidad
En algunas ejecuciones, las estadísticas en tiempo real y agregadas se infieren de una lista de observadores que están viendo en el momento la difusión (por ejemplo, programa, publicidad, etc.). Estas estadísticas se pueden recoger en el transfondo mientras que los observadores están utilizando otras aplicaciones. Las estadísticas pueden incluir pero no se limitan a: 1) el número promedio de observadores que ven la difusión; 2) el número promedio de veces que los observadores ven la difusión; 3) otros programas que ven los observadores; 4) el número mínimo y pico de observadores; 5) lo que más a menudo los observadores cambiaron cuando ellos dejaron una difusión; 6) que tanto ven una difusión los observadores; 7) cuantas veces los observadores cambian de canal; 8) que publicidad es vista por los observadores; y 9) lo que los observadores más a menudo cambian cuando ingresan a una difusión, etc. De estas estadísticas, se puede determinar una o más calificaciones de popularidad.
Las estadísticas utilizadas para generar las calificaciones de popularidad se pueden generar utilizando un contador para cada canal de difusión que está siendo monitoreado. En algunas ejecuciones, los contadores se pueden intersectar con datos de un grupo demográfico o con datos de un grupo geográfico. Las calificaciones de popularidad se pueden utilizar por los observadores para “ver lo que es más visto” mientras que la difusión está ocurriendo (por ejemplo, al notar una calificación creciente durante las presentaciones de mitad de tiempo del “Super Bowl” del 2004). Los anunciantes y
proveedores de contenidos también pueden utilizar calificaciones de popularidad para ajustar dinámicamente el material mostrado en respuesta a las calificaciones. Esto es especialmente cierto para la publicidad, en razón a que la longitud unitaria corta y numerosas versiones de la publicidad generada de las campañas publicitarias son fácilmente intercambiadas para ajustar a los niveles de calificación del observador. Otros ejemplos de las estadísticas incluyen pero no se limitan a: popularidad de una difusión de televisión versus la difusión de radio por demografía o tiempo, la popularidad de los momentos del día, es decir los momentos pico de observación/escucha, el número de casas en un área dada, la cantidad de cambio de canales durante un programa particular (género de programas, momentos particulares del día), volumen de la difusión, etc.
La información personalizada se envía a la interfaz del lado del cliente (312). Las calificaciones de popularidad también se pueden almacenar en una base de datos para uso de otros procesos (318), tal como el ajuste dinámico de la publicidad descrita anteriormente. La información personalizada se recibe en la interfaz del lado del cliente (314) en donde se formatea y se presenta en una interfaz de usuario (316). La información personalizada se puede asociar con un medio de comentario (por ejemplo, mensajes de texto en una sala de conversación) que se presenta al usuario en una interfaz de usuario. En algunas ejecuciones, una sala de conversación puede incluir uno o más subgrupos. Por ejemplo, un grupo de discusión para "Seinfeld" podría incluir un subgrupo denominado "Expertos en Seinfeld," o un subgrupo se puede asociar con una demografía particular, tal como las mujeres entre edades de 20-30 que ven "Seinfeld," etc.
En algunas ejecuciones, la información bruta (por ejemplo, valores de contador) utilizada para generar las estadísticas de las calificaciones de popularidad se recolecta y almacena en la interfaz del lado del cliente en lugar del servidor de aplicación social. La información bruta se puede transferir al difusor cuando quiera que el usuario esté en línea y/o invoque una aplicación de personalización masiva.
En algunas ejecuciones, se instala una caja de medición de difusión (BMB) en la interfaz del lado del cliente. El BMB puede ser un dispositivo de hardware simple que es similar a un decodificador pero que no se conecta al dispositivo de difusión. A diferencia del sistema de calificación de Neilsen, que requiere que el hardware sea instalado en la televisión, el BMB se puede instalar cerca al sistema de medios masivos o dentro de un rango de señal de televisión. En algunas ejecuciones, el BMB graba automáticamente los fragmentos de códigos de audio y genera descriptores, que se almacenan en la memoria (por ejemplo, medio flash m). En algunas ejecuciones, el BMB puede incluir opcionalmente uno o más botones de hardware que puede presionar un usuario para indicar que difusión está viendo (similar a las calificaciones Neilsen®). El dispositivo BMB puede ser recogido por el proveedor de calificaciones de vez en cuando para recolectar los descriptores almacenados, o el BMB puede difundir los descriptores almacenados a una o más partes interesadas en una conexión de red (por ejemplo, teléfono, Internet, radio inalámbrico, tal como radio SMS/portadores, etc.) de vez en cuando.
En algunas ejecuciones, la publicidad se puede monitorear para determinar los efectos de los anuncios, que se pueden reportar a los anunciantes. Por ejemplo, que anuncios fueron vistos, no tenidos en cuenta, el nivel de volumen de los anuncios, etc.
En algunas ejecuciones, un dispositivo de captura de imágenes (por ejemplo, una cámara digital, una grabadora de video, etc.) se puede utilizar para medir cuantos observadores están viendo o escuchando una difusión. Por ejemplo, varios algoritmos con correspondencia de patrón conocidos se pueden aplicar a una imagen a una secuencia de imágenes para determinar el número de observadores presentes en un ambiente de difusión durante una difusión particular. Las imágenes y los datos derivados de las imágenes se pueden utilizar en combinación con los descriptores de audio para recoger la información personalizada para un usuario, calcular las calificaciones de popularidad, o para cualquier otro propósito.
Proceso de Estampado de Huella de Audio
La FIGURA 4 es un diagrama de flujo del proceso de estampado de huella de audio 400. Las etapas del proceso 400 no tienen que ser completadas en ningún orden particular y al menos algunas etapas se pueden efectuar al mismo tiempo en un ambiente de procesamiento multihilado o paralelo. El proceso 400 se corresponde con los descriptores de consulta generados por la interfaz del lado del cliente (por ejemplo, interfaz del lado del cliente 102) a los descriptores de referencia almacenados en una o más bases de datos en tiempo real y con baja latencia. El proceso 400 adapta una técnica propuesta por Ke et al. para manejar los datos de audio ambiente (por ejemplo, de una difusión de televisión) y consultas.
El proceso 400 inicia en una interfaz del lado del cliente al descomponer fragmentos de códigos del audio ambiente (por ejemplo, 5-6 segundos de audio) de una difusión de medios masivos capturada por un detector de audio ambiente (por ejemplo, micrófono) en cuadro que se traslapa (402). En algunos ejemplos, los cuadros se separan mediante varios milisegundos (por ejemplo, 12 ms aparte). Cada cuadro se convierte en un descriptor (por ejemplo, un descriptor de 32bit) que se entrena para superar el ruido de audio y la distorsión (404), como se describe en Ke et al. En algunos ejemplos, cada descriptor representa un resumen estadístico de identificación del fragmento de código de audio.
En algunos ejemplos, los descriptores se pueden enviar como fragmentos de códigos de consulta (también denominado como descriptores de consulta) a un servidor de base de datos de audio donde coinciden con una base de datos de los descriptores de referencia que identifican resúmenes estadísticos de los fragmentos de códigos de audio registrados previamente de la difusión de medios masivos (406). Se puede determinar una lista de los descriptores candidatos que tengan las mejoras correspondencias (408). Los descriptores candidatos se pueden calificar, de tal manera que los descriptores candidatos que son temporalmente consistentes con el descriptor de consulta tienen mayor calificación que los descriptores candidatos que son temporalmente menos consistentes con el descriptor de consulta (410). Los descriptores candidatos con la más alta calificación (por ejemplo, una calificación que excede un valor de un umbral suficientemente alto) se transmiten o de otra manera se suministran a un servidor para una aplicación social (412) donde ellos se pueden utilizar para agregar información personalizada relacionada con la difusión de medios. Utilizando un umbral se asegura que los descriptores tengan una suficiente correspondencia antes de que los descriptores sean transmitidos o suministrados de otra manera al servidor de aplicación social (412).
En algunos ejemplos, la base de datos de los descriptores de referencia se puede generar de las difusiones dadas por varias compañías de medios, que se pueden indizar y utilizar para generar los descriptores. En otros ejemplos, los descriptores de referencia también se pueden generar utilizando guías de televisión u otros metadatos y/o información embebida en la señal de difusión.
En algunas ejecuciones, la tecnología de reconocimiento de habla se puede utilizar para ayudar a identificar que programa se está viendo. Dicha tecnología podría ayudar a los usuarios a discutir nuevos eventos en lugar de solo programas de televisión. Por ejemplo, un usuario podría ver el lanzamiento de un trasbordador en una canal diferente de otro observador y, por lo tanto, posiblemente conseguir una señal de audio diferente (por ejemplo debido a un presentador diferente). La tecnología de reconocimiento de voz se podría utilizar para reconocer palabras clave (por ejemplo, Trasbordador, lanzamiento, etc.), que se puede utilizar para enlazar el usuario con un medio que lo comente.
Descriptores de “Hashing”
Ke et al. utiliza técnicas de visión de ordenador para encontrar estadísticas concretas altamente discriminadas de audio. Su procedimiento entrenado en pares marcados de ejemplos positivos (en donde x y x’ son versiones ruidosas del mismo audio) y ejemplos negativos (en donde x y x’ son de diferente audio). Durante esta fase de entrenamiento, la
técnica de aprendizaje de máquina basada en amplificación utiliza los pares marcados para seleccionar una combinación de 32 filtros y umbrales que crean conjuntamente una estadística altamente discriminada. Los filtros localizan los cambios en la magnitud del estrograma, utilizando primeras y segundas diferencias de orden en el tiempo y frecuencia. Un beneficio de utilizar estos filtros de diferencia simple es que se pueden calcular eficientemente utilizando una técnica de imagen integral descrita en Viola, P. and Jones, M. (2002), Robust Real-Time Object Detection, International Journal of Computer Vision.
En algunas ejecuciones, las salidas de estos 32 filtros son umbrales, dado un bit único por filtro en cada cuadro de audio. Estos 32 umbrales resultan de solamente descriptores transmitidos de aquel cuadro de audio. Este sobrante de codificación asegura la privacidad del usuario a escucha no autorizada. Además, estos descriptores de 32 bits son robustos a las distorsiones de audio en los datos de entrenamiento, de tal manera que ejemplos positivos (por ejemplo cuadros de correspondencia) tienen pequeñas distancias Hamming (es decir la distancia que mide diferentes números de bits) y ejemplos negativos (por ejemplo cuadros que no se corresponden) tienen grandes distancias Hamming. Cabe notar se pueden utilizar más o menos filtros y más de un bit por filtro se puede utilizar en cada cuadro de audio (por ejemplo más bits que utilizan múltiples pruebas de umbral).
En algunas ejecuciones, el descriptor de 32 bits propiamente dicho se utiliza como una clave “hash” para un “hashing” directo. El descriptor es una función “hash” bien balanceada. Las tasas de recuperación se mejoran además al solicitar no solamente el destructor de consulta sino también un pequeño conjunto de destructores similares (hasta una distancia Hamming de 2 desde el descriptor de consulta original).
Consistencia Temporal Dentro de la Consulta
Una vez que los descriptores de consulta tienen correspondencia con la base de datos de audio que utiliza el procedimiento de “hashing”, las correspondencias con validadas para determinar cuál de las bases de datos que regresa las respuestas son correspondencias precisas. De otra manera, un descriptor candidato podría tener muchos cuadros con correspondencia al descriptor de consulta pero con una estructura temporal equivocada.
En algunas ejecuciones, la validación se logra al visualizar cada respuesta de la base de datos como soporte para una correspondencia en un desfase de la fase de datos de consulta específica. Por ejemplo, si el descriptor 8 (q8) en un fragmento de código de consulta de "Seinfeld" con un largo de 415 cuadros de 5 segundos, q, da el descriptor de 1008 ésima base de datos (x1008), esto soporta una correspondencia del candidato entre la consulta de 5 segundos y los cuadros 1001 a 1415 en la base de datos de audio. Otras correspondencia entre el qn y x1000+in, (1 ≤ n ≤ 415) soportaría esta misma correspondencia del candidato.
Además de la consistencia temporal, necesitamos contar los cuadros cuando las conversaciones apagan temporalmente el audio ambiente. Este se puede modelar como un interruptor exclusivo entre el audio ambiente y los sonidos de interferencia. Para cada cuadro de consulta i, existe una variable oculta, yi: si yi=0, el cuadro iésimo de la consulta se modela como interferencia solamente; si yi=1, el cuadro iésimo se modela desde un audio ambiente limpio. Tomando una visión extrema (ambiente puro o interferencia pura) se justifica por la precisión extremadamente baja con la cada cuadro de audio está representado (32 bits) y suavizado al suministrar probabilidades de bit-flop adicionales
para cada una de las 32 posiciones del vector de cuadro bajo cada una de las dos hipótesis (yi=0 y yi=1). Finalmente, modelamos las transiciones entre cuadros entre los estados de solo ambiente y solo interferencias como un proceso Markov de primer orden oculto, con las probabilidades de transición derivadas de los datos de entrenamiento. Por ejemplo, podemos reutilizar el modelo de probabilidad de 66 parámetros dado Ke et al., CVPR 2005.
El modelo final de la probabilidad de correspondencia entre el vector de consulta, q, y, un vector de base de datos ambiente en un desfase de N cuadros, xN, es:
en donde < qn, xm > denota las diferencias de bit entre los vectores de cuadro de 32 bits qn y xm. Este modelo incorpora tanto la restricción de consistencia temporal como el modelo Markov oculto ambiente/interferencia.
Filtro de Consistencia Post-Correspondencia
La gente a menudo habla con otros mientras que ve televisión, dando como resultado una interferencia acústica esporádica pero fuerte, especialmente cuando utiliza micrófonos de los portátiles para muestrear el audio ambiente. Dado que la mayoría de las expresiones de conversación son de 2 y 3 segundos de duración, intercambio de comunicación simple entre los observadores podría generar una consulta de 5 segundos no reconocible.
En algunas ejecuciones, se utiliza filtrado post-correspondencia para manejar estas faltas de correspondencia de baja confianza intermitentes. Por ejemplo, podemos utilizar un modelo Markov oculto de tiempo continuo de un canal que cambia con un tiempo de vida esperado (es decir el tiempo entre cambio de canales) de L segundos. El servidor de aplicación social 106 indica la correspondencia de más alta confianza dentro del pasado reciente junto con su confianza “discontinua” como parte de la información de estado asociada con cada sesión de cliente. Utilizando esta información el servidor 106 selecciona la correspondencia del índice de contenido del pasado reciente o la coincidencia del índice corriente, con base en aquello que tenga la mayor confianza.
Utilizamos Mh y Ch para referirnos a la mejor correspondencia para la etapa de tiempo previa (hace 5 segundos) y su calificación de confianza de la probabilidad de ingreso. Si nosotros simplemente aplicamos el modelo Markov a esta mejor coincidencia previa, sin tomar otra observación, entonces nuestra expectativa es que la mejor correspondencia para el tiempo corriente es aquella misma para la secuencia de programa, solo 5 segundos adicionales, y nuestra confianza a esa expectativa es de Ch- l/ L, en donde l =5 segundos es la etapa del tiempo de consulta. Este descuento de l/ L en la probabilidad de entrada corresponde a la probabilidad del modelo Markov, e= l/ L, de no cambiar canales durante la etapa con un tiempo de duración I.
Una hipótesis alternativa se genera por la correspondencia de audio para la consulta corriente. Utilizamos Mo para referirnos a la mejor correspondencia para el fragmento de código de audio corriente: esto es, la correspondencia que se genera por el proceso de estampado de huella de audio 400. Co es la calificación de confianza de la probabilidad de entrada dada por el proceso de estampado de huella de audio 400.
Si estas dos correspondencias (la expectativa histórica actualizada y la observación del fragmento de código corriente) dan diferentes correspondencias, seleccionamos la hipótesis con mayor calificación de confianza:
en donde M0 es la correspondencia que se utiliza por el servidor de aplicación social 106 para seleccionar el contenido relacionado y Mo y Co son llevados adelante a la siguiente etapa de tiempo como Ml, y Ch.
Interfaz de Usuario
La FIGURA 5 es un diagrama de flujo de una realización de una interfaz de usuario 208 para interactuar con aplicaciones de personalización masivas. La interfaz de usuario 208 incluye un área de pantalla de capa personalizada 502, un área de pantalla con medio de comentario 504, un área de pantalla con enlaces patrocinados 506 y un área de pantalla de contenido 508. El área de pantalla de capa personalizada 502 proporciona información complementaria y/o imágenes relacionadas con el contenido de video mostrado en el área de pantalla de contenido 508. Las capas personalizadas se pueden navegar utilizando una barra de navegación 510 y un dispositivo de entrada (por ejemplo, un ratón o un control remoto). Cada capa tiene una marca asociada en la barra de navegación 510. Por ejemplo, si el usuario selecciona la marca "Moda", entonces la capa de moda, que incluye contenido relacionado con la moda asociado con "Seinfeld," se presentará en el área de pantalla 502.
En algunas ejecuciones, la interfaz del lado del cliente 102 incluye un dispositivo de pantalla 210 capaz de presentar la interfaz de usuario 208. En algunas ejecuciones, la interfaz de usuario 208 es una página de red interactiva servida por el servidor de aplicación social 106 y presentada en una ventana del navegador en el dispositivo de pantalla 210. En algunas ejecuciones, la interfaz de usuario 208 es persistente y estará disponible para interacción después del audio de difusión utilizado en el proceso de correspondencia de contenido que ha cambiado con el tiempo. En algunas ejecuciones, la interfaz de usuario 208 es dinámicamente actualizado durante el tiempo o en respuesta a un evento de disparo (por ejemplo el ingreso de nuevas personas a la sala de conversación, el inicio de comerciales, etc.). Por ejemplo, cada vez que un comercial es difundido, el área de pantalla con enlaces patrocinados 506 se puede actualizar con enlaces frescos 518 relacionados con la materia objeto del comercial.
En algunas ejecuciones, la información personalizada y los enlaces patrocinados se pueden enviar por correo al observador o ser mostrados en la barra lateral un momento después.
En algunas ejecuciones, la interfaz del lado del cliente 102 recibe información personalizada desde el servidor de aplicación social 106. La información puede incluir una página de red, correo electrónico, un tablero de mensajes, enlaces, mensajes instantáneos, una sala de conversación, o una invitación a unirse a un grupo de discusión en
proceso, “eRoom”, video conferencia o encuentros en la red, llamadas de voz (por ejemplo, Skype®), etc. En algunas
ejecuciones, la interfaz de usuario 208 proporciona acceso a comentarios y/o enlaces a comentarios de discusiones o películas previamente vistas. Por ejemplo, si el usuario está viendo actualmente un DVD de "Shrek" el puede querer ver lo que la gente dijo acerca de la película del pasado.
En algunas ejecuciones, el área de pantalla 502 incluye una región de calificación 512, que se utiliza para visualizar calificaciones de popularidad relacionadas con una difusión. Por ejemplo, el área de pantalla 512 puede mostrar como diferentes observadores están en este momento viendo "Seinfeld" comparado con otro programa de televisión que está siendo difundido al mismo tiempo.
En algunas ejecuciones, el área de pantalla con medio de comentario 504 presenta un ambiente tipo sala de conversación en donde múltiples usuarios pueden comentar acerca de las difusiones. En algunas ejecuciones, el área de pantalla 504 incluye un cuadro texto 514 para ingresar los comentarios que son enviados a la sala de conversación utilizando el mecanismo de entrada 516 (por ejemplo, un botón).
El área de pantalla con enlaces patrocinados 506 incluye información, imágenes y/o enlaces relacionados con las propagandas que se asocian con la difusión. Por ejemplo, uno de los enlaces 518 puede llevar al usuario a un sitio de red que está vendiendo mercancía de "Seinfeld".
El área de pantalla de contenido 508 es en donde se visualiza el contenido de difusión. Por ejemplo, una escena de la difusión corriente se puede visualizar con otra información relevante (por ejemplo, el número de episodio, título, inserción de la marca de tiempo etc.). En algunas ejecuciones, el área de pantalla 508 incluye controles 520 (por ejemplo, botones de desplazamiento) para navegar a través del contenido visualizado.
Marcadores de Video
En algunas ejecuciones, se incluye un botón 522 en el área de pantalla de contenido que se puede utilizar para marcar video. Por ejemplo, al pulsar el botón 522, el episodio de "Seinfeld" mostrado en el área de pantalla 508 se agrega a la biblioteca de video de los favoritos del usuario, que puede ser entonces visualizada por demanda a través de una aplicación en flujo basada en la red u otros métodos de acceso. De acuerdo con la política establecida por el propietario del contenido, este servicio en flujo puede suministrar una reproducción de visualización única libre, recolectar pagos como el agente para los propietarios del contenido, o insertar publicidad que suministraría pago a los propietarios de contenido.
Arquitectura de Hardware de Interfaz del Lado del Cliente
La FIGURA 6 es un diagrama de bloque de la arquitectura de hardware 600 para la interfaz del lado del cliente 102 mostrada en la FIGURA .1. Aunque la arquitectura de hardware 600 es típica de un dispositivo de computo (por ejemplo, un ordenador personal), las implementaciones descritas se pueden efectuar en cualquier dispositivo capaz de presentar una interfaz de usuario en un dispositivo de pantalla, que incluye pero no se limita a: ordenadores de mesa o portátil; dispositivo electrónicos; teléfonos; teléfono móviles; sistemas de pantalla; televisores; monitores; sistemas de navegación; reproductores/grabadores de medios portátiles; ayudantes digitales personales; sistemas de juegos; dispositivos electrónicos manuales; y dispositivos o aparatos electrónicos embebidos.
En algunas ejecuciones, el sistema 600 incluye uno o más procesadores 602 (por ejemplo, CPU), opcionalmente uno o más dispositivos de pantalla 604 (por ejemplo, CRT, LCD, etc.), una interfaz de micrófono 606, una o más interfaces de red 608 (por ejemplo, puertos USB, Ethernet, FireWire®, etc.), opcionalmente uno o más dispositivos de entrada 610 (por ejemplo, ratón, teclado, etc.) y uno o más medios legibles por ordenador 612. Cada uno de estos componentes está operativamente acoplado a uno o más buses 614 (por ejemplo, EISA, PCI, USB, FireWire®, NuBus, PDS, etc.).
En algunas ejecuciones, no existen dispositivos de pantalla o dispositivos de entrada y el sistema 600 solo efectúa muestreo y codificación (por ejemplo, generar descriptores, etc.) en el trasfondo sin el ingreso del usuario.
El término "medio legible por ordenador" se refiere a cualquier medio que participa en suministrar instrucciones a un procesador 602 para ejecución, que incluye sin limitación medios no volátiles (por ejemplo, discos ópticos o magnéticos), medios volátiles (por ejemplo, memoria) y medios de transmisión. Los medios de transmisión incluyen, sin limitación, cables coaxiales, alambres de cobre y fibra óptica. Los medios de transmisión también puede tomar la forma de ondas acústicas, de luz o radiofrecuencia.
Los medios legibles por ordenador 612 incluyen además un sistema operativo 616 (por ejemplo, Mac OS®, Windows®, Unix, Linux, etc.), un módulo de comunicaciones en red 618, el software del cliente 620 y una o más aplicaciones 622. El sistema operativo 616 puede ser multiusuario, multiproceso, multitarea, multihilado, en tiempo real y similar. El sistema operativo 616 efectúa tareas básicas, que incluyen pero no se limitan a: reconocer el ingreso de los dispositivos de entrada 610; enviar la salida a los dispositivos de pantalla 604; mantener el seguimiento de archivos y directorios en dispositivos de almacenamiento 612; controlar dispositivos periféricos (por ejemplo unidades de disco, impresoras, dispositivos de captura de imágenes, etc.); y manejar tráfico en uno o más buses 614.
El módulo de comunicaciones de red 618 incluye varios componentes para establecer y mantener conexiones de red (por ejemplo, software para ejecutar protocolos de comunicación, tales como TCP/IP, HTTP, Ethernet, USB, FireWire®, etc.).
El software del cliente 620 proporciona diversos componentes de software para ejecutar el lado del cliente de las aplicaciones de personalización masivas y para efectuar las diversas funciones del lado del cliente descritas con respecto a las FIGURAS 1-5 (por ejemplo, identificación de audio ambiente). En algunas ejecuciones, algunos o todos los procesos efectuados por el software de cliente 620 se pueden integrar en el sistema operativo 616. En algunas ejecuciones, los procesos pueden al menos ser parcialmente ejecutados en un circuito electrónico digital o en un hardware de ordenador, firmware, software, o en cualquier combinación de los mismos.
Otras aplicaciones 624 pueden incluir cualquier otra aplicación de software, que incluye pero no se limita a: procesadores de palabra, navegadores, correo electrónico, mensajería instantánea, reproductores de medios, software de telefonía, etc.
Detección de Publicidad y Repetición de Difusiones
Cuando se prepara una base de datos para búsqueda, ayuda poder premarcar material repetido utilizando los descriptores previamente descritos. El material repetido puede incluir pero no se limita a programas repetidos, publicidad, sub-segmentos (por ejemplo, información en la parte inferior de las pantallas en los programas de noticias), etc. Utilizando estas marcas, el material repetido se puede presentar de manera que no arrastre el otro material más allá del campo de atención del usuario que conduce una búsqueda (por ejemplo más allá de los primeros 10-20 resultados). El proceso 700 descrito adelante proporciona una forma de detectar aquellos duplicados antes de cualquiera de las consultas de búsqueda en la base de datos.
Remoción de Publicidad del Video
Una de las quejas que los difusores han tenido a cerca de permitir que el material sea buscado y reproducido es la nueva difusión de propaganda embebida. Desde el punto de vista de los difusores, la repetición de la difusión es contraproducente: baja el valor de las difusiones que el anunciador paga directamente, en razón a que este le da al anunciante publicidad libre. A menos que sea removida toda la publicidad vieja y se ponga nueva publicidad en su lugar de alguna manera que retorne alguna remisión a los difusores originales, ellos no ganan nada con la repetición del material previamente difundido. El proceso 700 descrito adelante suministra una manera de detectar publicidad embebida al observar las repeticiones, posiblemente en conjunto con otros criterios (por ejemplo duración, volumen, actividad visual, cuadros blancos entre paréntesis, etc.).
Resumen de Video
Si un “resumen” (es decir una versión más corta) de un material de programa no repetido se requiere, una manera de conseguir esto es retirando la publicidad (como se detectó por el material repetido) y tomar segmentos del material solo siguiendo la ubicación de publicidad. En la difusión de televisión, estas posiciones en el programa contienen normalmente titulares iniciales (antes de los anuncios y resúmenes (solo después de los anuncios). Si se hace un resumen de un programa de noticias que incluye una mezcla de material de publicidad no repetido y repetido, normalmente el material sin anuncios repetido corresponde a un bit de sonido. Estos segmentos generalmente dan menos información que la narración del presentador de la historia de las noticias y son buenos candidatos para remoción. Si se va a hacer un resumen de un programa narrativo (por ejemplo una película o una serie por capítulos), las pistas de audio repetidas corresponden normalmente a los sonidos del tema, la música de la escena, o silencio. De nuevo estos son típicamente buenos segmentos para retirar de un video de resumen. El proceso 700 descrito adelante suministra una manera de detectar estas pistas de audio repetidas de tal manera que ellas se puedan retirar del video de resumen.
Proceso de Detección de Repetición La FIGURA 7 es un diagrama de flujo de un ejemplo de un proceso de detección de repetición 700 de acuerdo con esto. Las etapas del proceso 700 no se tienen que completar en ningún orden particular y al menos algunas etapas se pueden efectuar al mismo tiempo en un ambiente de procesamiento mulhilado o paralelo.
El proceso 700 inicia al crear una base de datos de estadísticas de audio de un conjunto de contenido tal como alimentaciones de televisión, cargas de video etc. (702). Por ejemplo, la base de datos puede contener descriptores de 32 bit/cuadro, como se describe en Ke et al. Las consultas son tomadas de las bases de datos y corren contra la base de datos para ver en donde ocurren repeticiones (704). En algunas ejecuciones, un segmento corto de estadísticas de audio se toma como una consulta y correr revisando correspondencias no identificadas (coincidencias que no son idénticas) que utilizan técnicas de “hashing” (por ejemplo “hashing” directo o “hashing” sensible a sitio (LSH)) para lograr una lista corta de posibles correspondencias de auditoría. Estas correspondencias candidatas son entonces procesadas en un procedimiento de validación, por ejemplo, como se describe en Ke, et al. El contenido que corresponde a una correspondencia candidata validada se puede identificar como contenido repetido (706).
Las correspondencias no idénticas que son las más fuertes “crecen” hacia adelante y hacia atrás en el tiempo, para
encontrar los puntos de inicio y finalización del material repetido (708). En algunos ejemplos, esto se puede hacer utilizando técnicas de programación dinámica conocidas (por ejemplo, decodificación Viterbi). Al extender la coincidencia hacia adelante del tiempo, la última porción de tiempo en la correspondencia de “semilla” fuerte se ajusta como “que corresponde” y la última porción de tiempo de la primera correspondencia fuerte creíble adelante para el mismo desfase de la base de datos entre la consulta y la correspondencia se ajusta como ”no corresponde”. En algunos ejemplos, las calificaciones del correspondencia para los cuadros individuales entre estos dos puntos fijos se utilizan como observaciones y se utiliza un modelo marco de primer orden que permite dentro de las transiciones de estado más una transición única de los estados de “corresponde” a “no corresponde”. La probabilidad de transición desde corresponde a no corresponde a 1/ L se puede ajustar un poco arbitrariamente, en donde L es el número de cuadros entre estos dos puntos fijos, que corresponde a por lo menos el conocimiento de la ubicación de transición dentro del rango permitido. Otra posibilidad para seleccionar las probabilidades de transición utilizaría los perfiles de refuerzo de correspondencia para empujar este estimado a una transición anterior o posterior. Pero esto incrementaría la complejidad del modelo de programación dinámica y es probable que no mejore los resultados, en razón a que las fortalezas de la correspondencia ya se utilizan como observaciones dentro de este periodo. El mismo proceso se utiliza para crecer el segmento que corresponde hacia atrás en el tiempo (por ejemplo solo cambiar pasado/futuro y correr el mismo algoritmo).
En algunos ejemplos las claves de audio se combinan con información no auditiva (por ejemplo claves visuales) para obtener decisiones de mayor correspondencia. Por ejemplo, las correspondencias que se encuentran con la correspondencia de audio se pueden entonces verificar (o revisar una segunda vez) al utilizar métricas de similitud visual simples (710). Estas métricas pueden incluir pero no se limitan a: histogramas de color (por ejemplo, frecuencias de colores similares en dos imágenes), estadísticas del número y distribución de bordes, etc. Esto no requiere ser calculado solamente sobre la imagen completa, sino que es calculado para subregiones de las imágenes también, y comparado con las subregiones correspondientes en la imagen objetivo.
Para aquellas aplicaciones que están buscando publicidad (en contraste con todos los tipos de material repetidos), los resultados de la detección del material repetido se pueden combinar con métricas destinadas a distinguir la publicidad de la no publicidad (712). Estas características distinguibles se pueden pasar en convenciones de publicidad, tales como vibraciones (por ejemplo, son comunes franjas de 10/15/30 segundos), en volumen (por ejemplo, la publicidad tiende a ser más dura que el material del programa que la rodea, así si el material repetido es más duro que el material en otro lado, es más probable que sea una publicidad), sobre actividad visual (por ejemplo, la publicidad tiende a tener transiciones más rápidas entre tomas y más dentro del movimiento de la toma, así si el material repetido tiene diferencias de cuadro mayores que el material en otro lado, es más probable que haya publicidad), y los cuadros blancos entre (publicidad localmente insertada que normalmente no llena completamente la franja que se deja para esta para alimentación nacional, que resulta en cuadros blancos y silencio en un espacio que es múltiplo de 30 segundos).
Una vez que se identifica la publicidad, el material que rodea la publicidad se puede analizar y se pueden generar estadísticas. Por ejemplo, las estadísticas se pueden generar a cerca de cuantas veces se publicitó un producto particular utilizando un creativo particular (por ejemplo, imágenes, textos), o cuantas veces estuvo en el aire un segmento particular, etc. En algunas ejecuciones, una o más publicidades viejas se pueden retirar o reemplazar con nuevas publicidades. Las técnicas adicionales para supresión de publicidad y reemplazo se describen en Covell, M., Baluja, S., Fink, M., Advertisement Detection and Replacement Using Acoustic and Visual Repetition, IEEE Signal Processing Society, MMSP 2006 International Workshop on Multimedia Signal Processing, October 3-6, 2006, BC Canadá.
En algunos ejemplos, la información de los propietarios del contenido a cerca de la estructura detallada del contenido (por ejemplo, en donde se insertó material de publicidad, donde se repitieron programas) se puede utilizar para aumentar el proceso 700 e incrementar las precisiones de correspondencia. En algunos ejemplos, se pueden utilizar estadísticas de video para determinar la repetición en lugar del audio. En otros ejemplos, se puede utilizar la combinación de estadísticas de video y audio.
Subastas de Fragmentos de Código de Audio
En algunas ejecuciones, los anunciantes pueden participar en subastas relacionadas con la presencia de audio ambiente que se relaciona con el producto o servicio que el anunciante quiere vender. Por ejemplo, múltiples anunciantes podrían presentar propuestas en una subasta por el derecho a asociar sus productos o servicios con el fragmento de código de audio o de escritura asociado con "Seinfeld." El ganador de la subasta pondría alguna 5 información relacionada al frente del observador (por ejemplo, enlaces patrocinados) siempre y cuando esté presente el audio ambiente objeto. En algunas ejecuciones, los anunciantes podrían hacer propuestas sobre fragmentos de códigos de audio ambiente que tengan una descripción a nivel meta. Por ejemplo, los anunciantes podrían presentar propuestas de audio que estén asociadas con una anuncio de televisión (por ejemplo este el audio asociado con el anuncio de TV de Ford Explorer), en leyendas cerradas (por ejemplo, la leyenda dice "Yankees baseball"), un sitio del segmento de
10 programa (por ejemplo, este audio ocurrirá 15 minutos dentro de "Seinfeld" y ocurrirá 3 minutos después del corte de comerciales ocurrido y un minuto antes del siguiente corte de comerciales, o una acústica de bajo nivel o propiedades visuales (por ejemplo, "música de fondo," "voces de conversación," "similar a explosión", etc.).
En algunas ejecuciones, una o más aplicaciones de personalización masivas se pueden correr en el trasfondo mientras que el usuario efectúa otras tareas tales como navegar otro sitio de red (por ejemplo, un enlace patrocinado). El material
15 que se relaciona con una difusión de medio (por ejemplo, contenido de televisión) puede participar en las mismas subastas de enlace patrocinados como material que está relacionado con otra fuente de contenido (por ejemplo contenido del sitio de red). Por ejemplo, los anuncios relacionados con televisión se pueden mezclar con anuncios que corresponden al contenido de una página de red corriente.
Se pueden hacer varias modificaciones a las ejecuciones descritas y aún están dentro del alcance de las siguientes 20 reivindicaciones
Claims (3)
- REIVINDICACIONES1. Un método ejecutado por ordenador que comprende:Recibir un primer descriptor que identifica un primer audio ambiente de una primera difusión de medio masivo, en donde 5 el primer audio ambiente se genera mediante un primer sistema de medios masivos (202) y se detecta mediante un primer detector de audio ambiente (204);Recibir un segundo descriptor que identifica un segundo audio ambiente de una segunda difusión de medio masivo, en donde el segundo audio ambiente se genera mediante un segundo sistema de medios masivos (202) y se detecta mediante un segundo detector de audio ambiente (204);10 Comparar el primer y segundo descriptores para determinar si la primera y segunda difusiones de medios masivos son iguales; yAgregar información personalizada con base en el resultado de la comparación, en donde la información personalizada incluye información asociada con un medio comentado, en donde se crea una sala de conversación al comparar directamente los primeros y segundos descriptores en el flujo de datos transmitido por los sistemas del cliente (102)15 para determinar las correspondencias.
-
- 2.
- Un producto de programa de ordenador que comprende un programa de ordenador operable para hacer que el sistema de procesamiento de datos lleve a cabo todas las etapas del método de acuerdo con la reivindicación.
-
- 3.
- Sistema (100) adaptado para llevar a cabo todas las etapas del método de acuerdo con la reivindicación 1.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US74076005P | 2005-11-29 | 2005-11-29 | |
US740760P | 2005-11-29 | ||
US82388106P | 2006-08-29 | 2006-08-29 | |
US823881P | 2006-08-29 | ||
PCT/US2006/045551 WO2007064641A2 (en) | 2005-11-29 | 2006-11-27 | Social and interactive applications for mass media |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2386977T3 true ES2386977T3 (es) | 2012-09-10 |
Family
ID=38092724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES06838488T Active ES2386977T3 (es) | 2005-11-29 | 2006-11-27 | Aplicaciones sociales e interactivas para medios masivos |
Country Status (10)
Country | Link |
---|---|
US (6) | US7991770B2 (es) |
EP (3) | EP1958362A4 (es) |
JP (3) | JP2009524273A (es) |
KR (2) | KR20080073357A (es) |
AU (2) | AU2006320693B2 (es) |
BR (2) | BRPI0619388A2 (es) |
CA (2) | CA2631270A1 (es) |
ES (1) | ES2386977T3 (es) |
IL (1) | IL191814A0 (es) |
WO (2) | WO2007064640A2 (es) |
Families Citing this family (435)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6834308B1 (en) * | 2000-02-17 | 2004-12-21 | Audible Magic Corporation | Method and apparatus for identifying media content presented on a media playing device |
US8205237B2 (en) | 2000-09-14 | 2012-06-19 | Cox Ingemar J | Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet |
US8117281B2 (en) * | 2006-11-02 | 2012-02-14 | Addnclick, Inc. | Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content |
US7239981B2 (en) | 2002-07-26 | 2007-07-03 | Arbitron Inc. | Systems and methods for gathering audience measurement data |
US9711153B2 (en) | 2002-09-27 | 2017-07-18 | The Nielsen Company (Us), Llc | Activating functions in processing devices using encoded audio and detecting audio signatures |
US8959016B2 (en) | 2002-09-27 | 2015-02-17 | The Nielsen Company (Us), Llc | Activating functions in processing devices using start codes embedded in audio |
US9055239B2 (en) | 2003-10-08 | 2015-06-09 | Verance Corporation | Signal continuity assessment using embedded watermarks |
US9865017B2 (en) | 2003-12-23 | 2018-01-09 | Opentv, Inc. | System and method for providing interactive advertisement |
US10387920B2 (en) | 2003-12-23 | 2019-08-20 | Roku, Inc. | System and method for offering and billing advertisement opportunities |
US10032192B2 (en) * | 2003-12-23 | 2018-07-24 | Roku, Inc. | Automatic localization of advertisements |
US7623823B2 (en) * | 2004-08-31 | 2009-11-24 | Integrated Media Measurement, Inc. | Detecting and measuring exposure to media content items |
US20060224798A1 (en) * | 2005-02-22 | 2006-10-05 | Klein Mark D | Personal music preference determination based on listening behavior |
US20070016918A1 (en) * | 2005-05-20 | 2007-01-18 | Alcorn Allan E | Detecting and tracking advertisements |
US20070118455A1 (en) * | 2005-11-18 | 2007-05-24 | Albert William J | System and method for directed request for quote |
BRPI0619388A2 (pt) * | 2005-11-29 | 2011-10-04 | Google Inc | aplicações sociais e interativas para mìdia de massa |
US8751502B2 (en) * | 2005-11-29 | 2014-06-10 | Aol Inc. | Visually-represented results to search queries in rich media content |
US8132103B1 (en) * | 2006-07-19 | 2012-03-06 | Aol Inc. | Audio and/or video scene detection and retrieval |
US20070136741A1 (en) * | 2005-12-09 | 2007-06-14 | Keith Stattenfield | Methods and systems for processing content |
US20070162761A1 (en) | 2005-12-23 | 2007-07-12 | Davis Bruce L | Methods and Systems to Help Detect Identity Fraud |
US20150082342A1 (en) * | 2006-06-15 | 2015-03-19 | Social Commenting, Llc | System and method for viewers to comment on television content for display on remote websites using a web browser |
US8019162B2 (en) * | 2006-06-20 | 2011-09-13 | The Nielsen Company (Us), Llc | Methods and apparatus for detecting on-screen media sources |
US7831531B1 (en) | 2006-06-22 | 2010-11-09 | Google Inc. | Approximate hashing functions for finding similar content |
US8732019B2 (en) | 2006-07-21 | 2014-05-20 | Say Media, Inc. | Non-expanding interactive advertisement |
US20090018920A1 (en) | 2006-07-21 | 2009-01-15 | Videoegg, Inc. | Interaction Prompt for Interactive Advertising |
US9208500B2 (en) * | 2006-07-21 | 2015-12-08 | Microsoft Technology Licensing, Llc | Fixed position multi-state interactive advertisement |
WO2008011631A2 (en) * | 2006-07-21 | 2008-01-24 | Videoegg, Inc. | Systems and methods for interaction prompt initiated video advertising |
US8411977B1 (en) | 2006-08-29 | 2013-04-02 | Google Inc. | Audio identification using wavelet-based signatures |
US8738749B2 (en) | 2006-08-29 | 2014-05-27 | Digimarc Corporation | Content monitoring and host compliance evaluation |
US9654447B2 (en) | 2006-08-29 | 2017-05-16 | Digimarc Corporation | Customized handling of copied content based on owner-specified similarity thresholds |
US8707459B2 (en) | 2007-01-19 | 2014-04-22 | Digimarc Corporation | Determination of originality of content |
US8010511B2 (en) | 2006-08-29 | 2011-08-30 | Attributor Corporation | Content monitoring and compliance enforcement |
US7895275B1 (en) | 2006-09-28 | 2011-02-22 | Qurio Holdings, Inc. | System and method providing quality based peer review and distribution of digital content |
US8615778B1 (en) | 2006-09-28 | 2013-12-24 | Qurio Holdings, Inc. | Personalized broadcast system |
US7707224B2 (en) | 2006-11-03 | 2010-04-27 | Google Inc. | Blocking of unlicensed audio content in video files on a video hosting website |
AU2007316477A1 (en) * | 2006-11-03 | 2008-05-15 | Google Inc. | Content management system |
US8391155B2 (en) * | 2006-11-13 | 2013-03-05 | Joseph Harb | Digital content download associated with corresponding radio broadcast items |
US8718538B2 (en) * | 2006-11-13 | 2014-05-06 | Joseph Harb | Real-time remote purchase-list capture system |
US8462645B1 (en) | 2006-11-13 | 2013-06-11 | Joseph Harb | Interactive advertising system, business methods and software |
US8296195B2 (en) * | 2006-11-13 | 2012-10-23 | Joseph Harb | Broadcast programming data capture |
US8310985B2 (en) * | 2006-11-13 | 2012-11-13 | Joseph Harb | Interactive radio advertising and social networking |
US9456250B2 (en) * | 2006-12-15 | 2016-09-27 | At&T Intellectual Property I, L.P. | Automatic rating optimization |
US9179200B2 (en) | 2007-03-14 | 2015-11-03 | Digimarc Corporation | Method and system for determining content treatment |
US10242415B2 (en) | 2006-12-20 | 2019-03-26 | Digimarc Corporation | Method and system for determining content treatment |
US8356039B2 (en) * | 2006-12-21 | 2013-01-15 | Yahoo! Inc. | Providing multiple media items to a consumer via a simplified consumer interaction |
US7890874B2 (en) | 2007-02-23 | 2011-02-15 | Dkcm, Inc. | Systems and methods for interactively displaying user images |
JP4281819B2 (ja) * | 2007-04-02 | 2009-06-17 | ソニー株式会社 | 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法 |
US10489795B2 (en) * | 2007-04-23 | 2019-11-26 | The Nielsen Company (Us), Llc | Determining relative effectiveness of media content items |
US20080265631A1 (en) * | 2007-04-30 | 2008-10-30 | Foremost Groups, Inc. | Folding ottoman |
US8310443B1 (en) | 2007-05-02 | 2012-11-13 | Google Inc. | Pie chart time indicator |
WO2008137880A2 (en) * | 2007-05-03 | 2008-11-13 | Google Inc. | Monetization of digital content contributions |
US8094872B1 (en) | 2007-05-09 | 2012-01-10 | Google Inc. | Three-dimensional wavelet based video fingerprinting |
CN101681381B (zh) * | 2007-06-06 | 2012-11-07 | 杜比实验室特许公司 | 使用多搜索组合改善音频/视频指纹搜索精确度 |
US7840502B2 (en) * | 2007-06-13 | 2010-11-23 | Microsoft Corporation | Classification of images as advertisement images or non-advertisement images of web pages |
US8611422B1 (en) | 2007-06-19 | 2013-12-17 | Google Inc. | Endpoint based video fingerprinting |
US20090021474A1 (en) * | 2007-07-17 | 2009-01-22 | Motorola, Inc. | System and method for displaying status information of a multimedia broadcast receiver on an ambient device |
US8620878B2 (en) * | 2007-07-19 | 2013-12-31 | Ustream, Inc. | System and method of distributing multimedia content |
WO2009018168A2 (en) | 2007-07-27 | 2009-02-05 | Synergy Sports Technology, Llc | Using a website containing video playlists as input to a download manager |
US8238669B2 (en) * | 2007-08-22 | 2012-08-07 | Google Inc. | Detection and classification of matches between time-based media |
US8447032B1 (en) | 2007-08-22 | 2013-05-21 | Google Inc. | Generation of min-hash signatures |
US9633505B2 (en) * | 2007-09-07 | 2017-04-25 | Veritone, Inc. | System and method for on-demand delivery of audio content for use with entertainment creatives |
US20090089326A1 (en) * | 2007-09-28 | 2009-04-02 | Yahoo!, Inc. | Method and apparatus for providing multimedia content optimization |
WO2009046224A1 (en) | 2007-10-02 | 2009-04-09 | Emsense Corporation | Providing remote access to media, and reaction and survey data from viewers of the media |
US8521766B1 (en) | 2007-11-12 | 2013-08-27 | W Leo Hoarty | Systems and methods for providing information discovery and retrieval |
WO2009073634A1 (en) * | 2007-11-30 | 2009-06-11 | Emsense Corporation | Correlating media instance information with physiological responses from participating subjects |
US8938747B2 (en) * | 2007-12-06 | 2015-01-20 | At&T Intellectual Property I, L.P. | Rating multimedia programs accessed from a provider network |
US20090164569A1 (en) * | 2007-12-20 | 2009-06-25 | Garcia Richard L | Apparatus and Method for Providing Real-Time Event Updates |
US20090164590A1 (en) * | 2007-12-20 | 2009-06-25 | G-Snap!, Inc. | Apparatus and method for providing real-time event updates |
US8806021B2 (en) * | 2008-01-28 | 2014-08-12 | Sony Corporation | Methods, portable electronic devices, systems and computer program products for automatically creating social networking services (SNS) |
US8874076B2 (en) * | 2008-02-15 | 2014-10-28 | Alcatel Lucent | Method to allow community-identity based communications using mobile phones |
US8184953B1 (en) * | 2008-02-22 | 2012-05-22 | Google Inc. | Selection of hash lookup keys for efficient retrieval |
US9043483B2 (en) * | 2008-03-17 | 2015-05-26 | International Business Machines Corporation | View selection in a vehicle-to-vehicle network |
US8959202B2 (en) * | 2008-03-18 | 2015-02-17 | Civolution B.V. | Generating statistics of popular content |
US20090259519A1 (en) * | 2008-04-14 | 2009-10-15 | Microsoft Corporation | Advertisements Targeted to Social Groups that Establish Program Popularity |
US8650094B2 (en) * | 2008-05-07 | 2014-02-11 | Microsoft Corporation | Music recommendation using emotional allocation modeling |
US8344233B2 (en) * | 2008-05-07 | 2013-01-01 | Microsoft Corporation | Scalable music recommendation by search |
WO2009140759A1 (en) * | 2008-05-22 | 2009-11-26 | Unify4Life Corporation | Interactive event guide with enhanced features |
WO2009149063A1 (en) * | 2008-06-02 | 2009-12-10 | Azuki Systems, Inc. | Media mashup system |
US20090307061A1 (en) * | 2008-06-10 | 2009-12-10 | Integrated Media Measurement, Inc. | Measuring Exposure To Media |
US20090307084A1 (en) * | 2008-06-10 | 2009-12-10 | Integrated Media Measurement, Inc. | Measuring Exposure To Media Across Multiple Media Delivery Mechanisms |
US20090319571A1 (en) * | 2008-06-23 | 2009-12-24 | Itel Llc | Video indexing |
US8380564B2 (en) * | 2008-07-30 | 2013-02-19 | At&T Intellectual Property I, Lp | System and method for internet protocol television product placement data |
US20150026707A1 (en) * | 2008-08-12 | 2015-01-22 | Iheartmedia Management Services, Inc. | Audience response determination to digital-media content |
US20100043021A1 (en) * | 2008-08-12 | 2010-02-18 | Clear Channel Management Services, Inc. | Determining audience response to broadcast content |
US20170034586A1 (en) * | 2008-10-08 | 2017-02-02 | Wakingapp Ltd. | System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof |
US9667365B2 (en) | 2008-10-24 | 2017-05-30 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8359205B2 (en) | 2008-10-24 | 2013-01-22 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8121830B2 (en) | 2008-10-24 | 2012-02-21 | The Nielsen Company (Us), Llc | Methods and apparatus to extract data encoded in media content |
US8516533B2 (en) | 2008-11-07 | 2013-08-20 | Digimarc Corporation | Second screen methods and arrangements |
US9788043B2 (en) * | 2008-11-07 | 2017-10-10 | Digimarc Corporation | Content interaction methods and systems employing portable devices |
US20100205628A1 (en) * | 2009-02-12 | 2010-08-12 | Davis Bruce L | Media processing methods and arrangements |
US9355554B2 (en) * | 2008-11-21 | 2016-05-31 | Lenovo (Singapore) Pte. Ltd. | System and method for identifying media and providing additional media content |
US10419541B2 (en) | 2008-11-26 | 2019-09-17 | Free Stream Media Corp. | Remotely control devices over a network without authentication or registration |
US10334324B2 (en) | 2008-11-26 | 2019-06-25 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10631068B2 (en) | 2008-11-26 | 2020-04-21 | Free Stream Media Corp. | Content exposure attribution based on renderings of related content across multiple devices |
US8180891B1 (en) | 2008-11-26 | 2012-05-15 | Free Stream Media Corp. | Discovery, access control, and communication with networked services from within a security sandbox |
US10880340B2 (en) | 2008-11-26 | 2020-12-29 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9986279B2 (en) | 2008-11-26 | 2018-05-29 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US9154942B2 (en) | 2008-11-26 | 2015-10-06 | Free Stream Media Corp. | Zero configuration communication between a browser and a networked media device |
US9519772B2 (en) | 2008-11-26 | 2016-12-13 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9961388B2 (en) | 2008-11-26 | 2018-05-01 | David Harrison | Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements |
US10977693B2 (en) | 2008-11-26 | 2021-04-13 | Free Stream Media Corp. | Association of content identifier of audio-visual data with additional data through capture infrastructure |
US10567823B2 (en) | 2008-11-26 | 2020-02-18 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
JP4887348B2 (ja) * | 2008-11-27 | 2012-02-29 | ヤフー株式会社 | イベント情報提供装置およびイベント情報提供方法 |
JP4775671B2 (ja) | 2008-12-26 | 2011-09-21 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US20100226526A1 (en) * | 2008-12-31 | 2010-09-09 | Modro Sierra K | Mobile media, devices, and signaling |
US8929719B2 (en) * | 2009-01-02 | 2015-01-06 | Harris Technology, Llc | Frame correlating content determination |
WO2010087797A1 (en) * | 2009-01-30 | 2010-08-05 | Hewlett-Packard Development Company, L.P. | Methods and systems for establishing collaborative communications between devices using ambient audio |
US8918333B2 (en) | 2009-02-23 | 2014-12-23 | Joseph Harb | Method, system and apparatus for interactive radio advertising |
US9088757B2 (en) * | 2009-03-25 | 2015-07-21 | Eloy Technology, Llc | Method and system for socially ranking programs |
US20100251279A1 (en) * | 2009-03-26 | 2010-09-30 | Clear Channel Management Services, Inc. | Delivering content related to a commercial media program |
JPWO2010114092A1 (ja) * | 2009-04-03 | 2012-10-11 | 日本電気株式会社 | 配信システムと方法と変換装置及びプログラム |
DE102009017315B3 (de) * | 2009-04-16 | 2010-10-28 | Freie Universität Berlin | Verfahren zur Datenbereitstellung auf mobilen Endgeräten und mobiles Endgerät zur Durchführung des Verfahrens |
CA2760677C (en) * | 2009-05-01 | 2018-07-24 | David Henry Harkness | Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content |
WO2010132806A2 (en) * | 2009-05-14 | 2010-11-18 | Brand Affinity Technologies, Inc. | System and method for on-demand delivery of audio content for use with entertainment creatives |
US20100319015A1 (en) * | 2009-06-15 | 2010-12-16 | Richard Anthony Remington | Method and system for removing advertising content from television or radio content |
WO2011004370A1 (en) * | 2009-07-09 | 2011-01-13 | Carfosget Holdings, Ltd. | Method and apparatus for interactive audio |
US8407287B2 (en) * | 2009-07-14 | 2013-03-26 | Radvision Ltd. | Systems, methods, and media for identifying and associating user devices with media cues |
CA3149767A1 (en) | 2009-07-16 | 2011-01-20 | Bluefin Labs, Inc. | Estimating and displaying social interest in time-based media |
US8229219B1 (en) * | 2009-08-06 | 2012-07-24 | Google Inc. | Full-length video fingerprinting |
NZ581850A (en) * | 2009-08-27 | 2011-12-22 | Eyemagnet Ltd | Informational content scheduling system and method |
US9264758B2 (en) * | 2009-09-14 | 2016-02-16 | Tivo Inc. | Method and an apparatus for detecting media content recordings |
US8290918B1 (en) | 2009-09-29 | 2012-10-16 | Google Inc. | Robust hashing of digital media data |
US8161071B2 (en) | 2009-09-30 | 2012-04-17 | United Video Properties, Inc. | Systems and methods for audio asset storage and management |
US8677400B2 (en) | 2009-09-30 | 2014-03-18 | United Video Properties, Inc. | Systems and methods for identifying audio content using an interactive media guidance application |
US8245249B2 (en) * | 2009-10-09 | 2012-08-14 | The Nielson Company (Us), Llc | Methods and apparatus to adjust signature matching results for audience measurement |
US20110085781A1 (en) * | 2009-10-13 | 2011-04-14 | Rovi Technologies Corporation | Content recorder timing alignment |
US8428955B2 (en) * | 2009-10-13 | 2013-04-23 | Rovi Technologies Corporation | Adjusting recorder timing |
US8533760B1 (en) * | 2009-10-20 | 2013-09-10 | Arris Enterprises, Inc. | Reduced latency channel switching for IPTV |
US9218530B2 (en) | 2010-11-04 | 2015-12-22 | Digimarc Corporation | Smartphone-based methods and systems |
US8121618B2 (en) | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
US8175617B2 (en) | 2009-10-28 | 2012-05-08 | Digimarc Corporation | Sensor-based mobile search, related methods and systems |
US9830605B2 (en) * | 2009-10-30 | 2017-11-28 | At&T Intellectual Property I, L.P. | Apparatus and method for product marketing |
CN102598691B (zh) * | 2009-11-03 | 2015-02-18 | 瑞典爱立信有限公司 | 利用数据分段的可选广播传送的流传输 |
US8566876B2 (en) | 2009-11-04 | 2013-10-22 | At&T Intellectual Property I, Lp | System and method for interacting with social networking in an internet protocol television system |
US20110137976A1 (en) * | 2009-12-04 | 2011-06-09 | Bob Poniatowski | Multifunction Multimedia Device |
US8682145B2 (en) * | 2009-12-04 | 2014-03-25 | Tivo Inc. | Recording system based on multimedia content fingerprints |
US8625033B1 (en) | 2010-02-01 | 2014-01-07 | Google Inc. | Large-scale matching of audio and video |
US8355910B2 (en) | 2010-03-30 | 2013-01-15 | The Nielsen Company (Us), Llc | Methods and apparatus for audio watermarking a substantially silent media content presentation |
US8560583B2 (en) | 2010-04-01 | 2013-10-15 | Sony Computer Entertainment Inc. | Media fingerprinting for social networking |
US9264785B2 (en) | 2010-04-01 | 2016-02-16 | Sony Computer Entertainment Inc. | Media fingerprinting for content determination and retrieval |
US9185458B2 (en) * | 2010-04-02 | 2015-11-10 | Yahoo! Inc. | Signal-driven interactive television |
US20110251971A1 (en) * | 2010-04-08 | 2011-10-13 | International Business Machines Corporation | System and method for facilitating real-time collaboration in a customer support environment |
US20110251885A1 (en) * | 2010-04-09 | 2011-10-13 | Alcatel-Lucent Canada | Differentiated experience for user generated content (UGC) based on popularity |
CN103069823A (zh) * | 2010-04-14 | 2013-04-24 | 斯文·里思米勒 | 与媒体广播的平台无关的交互性 |
US8265928B2 (en) * | 2010-04-14 | 2012-09-11 | Google Inc. | Geotagged environmental audio for enhanced speech recognition accuracy |
US9729344B2 (en) * | 2010-04-30 | 2017-08-08 | Mitel Networks Corporation | Integrating a trigger button module into a mass audio notification system |
US9026034B2 (en) | 2010-05-04 | 2015-05-05 | Project Oda, Inc. | Automatic detection of broadcast programming |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US8819714B2 (en) * | 2010-05-19 | 2014-08-26 | Cisco Technology, Inc. | Ratings and quality measurements for digital broadcast viewers |
US8649573B1 (en) * | 2010-06-14 | 2014-02-11 | Adobe Systems Incorporated | Method and apparatus for summarizing video data |
US9814977B2 (en) | 2010-07-13 | 2017-11-14 | Sony Interactive Entertainment Inc. | Supplemental video content on a mobile device |
US9832441B2 (en) | 2010-07-13 | 2017-11-28 | Sony Interactive Entertainment Inc. | Supplemental content on a mobile device |
US8730354B2 (en) | 2010-07-13 | 2014-05-20 | Sony Computer Entertainment Inc | Overlay video content on a mobile device |
US9159165B2 (en) | 2010-07-13 | 2015-10-13 | Sony Computer Entertainment Inc. | Position-dependent gaming, 3-D controller, and handheld as a remote |
US9143699B2 (en) | 2010-07-13 | 2015-09-22 | Sony Computer Entertainment Inc. | Overlay non-video content on a mobile device |
US20120020647A1 (en) * | 2010-07-21 | 2012-01-26 | Rovi Technologies Corporation | Filtering repeated content |
EA201001465A1 (ru) * | 2010-07-29 | 2012-02-28 | Виктор Никифорович БОРЩОВ | Функциональная модель содействия в решении государственных задач на основе информационных технологий |
US8744860B2 (en) * | 2010-08-02 | 2014-06-03 | At&T Intellectual Property I, L.P. | Apparatus and method for providing messages in a social network |
US8732697B2 (en) | 2010-08-04 | 2014-05-20 | Premkumar Jonnala | System, method and apparatus for managing applications on a device |
GB2483370B (en) | 2010-09-05 | 2015-03-25 | Mobile Res Labs Ltd | A system and method for engaging a person in the presence of ambient audio |
US8494851B2 (en) * | 2010-09-13 | 2013-07-23 | International Business Machines Corporation | System and method for contextual social network communications during phone conversation |
KR20120034378A (ko) * | 2010-10-01 | 2012-04-12 | 엔에이치엔(주) | 사운드 인식을 통한 광고 정보 제공 시스템 및 방법 |
US8606293B2 (en) | 2010-10-05 | 2013-12-10 | Qualcomm Incorporated | Mobile device location estimation using environmental information |
JP5987227B2 (ja) * | 2010-10-25 | 2016-09-07 | サムスン エレクトロニクス カンパニー リミテッド | ソーシャル・ネットワーク基盤のtv放送コンテンツ共有方法及びtv放送コンテンツ共有サーバ、ソーシャル・ネットワーク基盤のtv放送コンテンツ共有サービスを受信する方法及びtvデバイス |
US8667520B2 (en) * | 2011-07-06 | 2014-03-04 | Symphony Advanced Media | Mobile content tracking platform methods |
US20120136466A1 (en) * | 2010-11-28 | 2012-05-31 | Aron Weiss | System and method for identifying a broadcast source of ambient audio |
US8483725B2 (en) | 2010-12-03 | 2013-07-09 | Qualcomm Incorporated | Method and apparatus for determining location of mobile device |
US9542203B2 (en) | 2010-12-06 | 2017-01-10 | Microsoft Technology Licensing, Llc | Universal dock for context sensitive computing device |
US8923770B2 (en) | 2010-12-09 | 2014-12-30 | Microsoft Corporation | Cognitive use of multiple regulatory domains |
US8792429B2 (en) * | 2010-12-14 | 2014-07-29 | Microsoft Corporation | Direct connection with side channel control |
US8948382B2 (en) | 2010-12-16 | 2015-02-03 | Microsoft Corporation | Secure protocol for peer-to-peer network |
US9294545B2 (en) | 2010-12-16 | 2016-03-22 | Microsoft Technology Licensing, Llc | Fast join of peer to peer group with power saving mode |
US8971841B2 (en) | 2010-12-17 | 2015-03-03 | Microsoft Corporation | Operating system supporting cost aware applications |
US10089592B2 (en) | 2010-12-29 | 2018-10-02 | Comcast Cable Communications, Llc | Measuring video asset viewing |
US10945011B2 (en) | 2010-12-29 | 2021-03-09 | Comcast Cable Communications, Llc | Measuring video viewing |
WO2012091938A1 (en) | 2010-12-30 | 2012-07-05 | Dolby Laboratories Licensing Corporation | Ranking representative segments in media data |
US20120189140A1 (en) * | 2011-01-21 | 2012-07-26 | Apple Inc. | Audio-sharing network |
US10440402B2 (en) | 2011-01-26 | 2019-10-08 | Afterlive.tv Inc | Method and system for generating highlights from scored data streams |
US10382509B2 (en) | 2011-01-28 | 2019-08-13 | Amazon Technologies, Inc. | Audio-based application architecture |
US20120200667A1 (en) * | 2011-02-08 | 2012-08-09 | Gay Michael F | Systems and methods to facilitate interactions with virtual content |
US9325953B2 (en) * | 2011-02-14 | 2016-04-26 | Disney Enterprises, Inc. | System and method for synchronizing on-air commercial programming with interactive applications |
US8543454B2 (en) | 2011-02-18 | 2013-09-24 | Bluefin Labs, Inc. | Generating audience response metrics and ratings from social interest in time-based media |
KR101069090B1 (ko) * | 2011-03-03 | 2011-09-30 | 송석명 | 조립식 경조사용 쌀 화환 |
US20120224711A1 (en) * | 2011-03-04 | 2012-09-06 | Qualcomm Incorporated | Method and apparatus for grouping client devices based on context similarity |
US9143571B2 (en) | 2011-03-04 | 2015-09-22 | Qualcomm Incorporated | Method and apparatus for identifying mobile devices in similar sound environment |
WO2012139270A1 (en) * | 2011-04-11 | 2012-10-18 | Intel Corporation | Face recognition control and social networking |
KR101799443B1 (ko) * | 2011-05-02 | 2017-11-20 | 삼성전자주식회사 | 영상 컨텐츠 시청 확인 방법 및 이를 적용한 방송수신장치, 그리고 서버 |
US8917823B1 (en) | 2011-05-26 | 2014-12-23 | Google Inc. | Transcribing and navigating a response system |
US9762967B2 (en) * | 2011-06-14 | 2017-09-12 | Comcast Cable Communications, Llc | System and method for presenting content with time based metadata |
US9160837B2 (en) | 2011-06-29 | 2015-10-13 | Gracenote, Inc. | Interactive streaming content apparatus, systems and methods |
EP2735141A4 (en) | 2011-07-18 | 2015-03-04 | Viggle Inc | SYSTEM AND METHOD FOR PURSUIT AND REWARDING MEDIA AND ENTERTAINMENT USE WITH PRACTICALLY REAL-TIME REWARDS |
KR101786974B1 (ko) * | 2011-07-29 | 2017-10-18 | 네이버 주식회사 | 사운드를 이용한 소셜 네트워크 서비스 제공 장치 및 방법 |
US9443518B1 (en) * | 2011-08-31 | 2016-09-13 | Google Inc. | Text transcript generation from a communication session |
US8861937B2 (en) | 2011-08-31 | 2014-10-14 | The Nielsen Company (Us), Llc | Methods and apparatus to access media |
US8689255B1 (en) * | 2011-09-07 | 2014-04-01 | Imdb.Com, Inc. | Synchronizing video content with extrinsic data |
CN102611921A (zh) * | 2011-09-16 | 2012-07-25 | 李世平 | 一种收视数据采集方法及系统 |
WO2013040533A1 (en) * | 2011-09-16 | 2013-03-21 | Umami Co. | Second screen interactive platform |
US9113202B1 (en) | 2011-09-21 | 2015-08-18 | Google Inc. | Inverted client-side fingerprinting and matching |
US8824645B2 (en) * | 2011-09-30 | 2014-09-02 | Verizon Patent And Licensing Inc. | Video messaging systems and methods |
US9223893B2 (en) | 2011-10-14 | 2015-12-29 | Digimarc Corporation | Updating social graph data using physical objects identified from images captured by smartphone |
US9402099B2 (en) | 2011-10-14 | 2016-07-26 | Digimarc Corporation | Arrangements employing content identification and/or distribution identification data |
US11599915B1 (en) | 2011-10-25 | 2023-03-07 | Auddia Inc. | Apparatus, system, and method for audio based browser cookies |
US20130254159A1 (en) * | 2011-10-25 | 2013-09-26 | Clip Interactive, Llc | Apparatus, system, and method for digital audio services |
US8966525B2 (en) * | 2011-11-08 | 2015-02-24 | Verizon Patent And Licensing Inc. | Contextual information between television and user device |
KR20130055748A (ko) * | 2011-11-21 | 2013-05-29 | 한국전자통신연구원 | 콘텐츠 추천 시스템 및 방법 |
US8745403B2 (en) | 2011-11-23 | 2014-06-03 | Verance Corporation | Enhanced content management based on watermark extraction records |
US8806528B1 (en) * | 2011-12-02 | 2014-08-12 | Adobe Systems Incorporated | Mediating digital program insertion for linear streaming media |
US10440428B2 (en) | 2013-01-13 | 2019-10-08 | Comcast Cable Communications, Llc | Measuring video-program-viewing activity |
US10645433B1 (en) | 2013-08-29 | 2020-05-05 | Comcast Cable Communications, Llc | Measuring video-content viewing |
US8645485B1 (en) * | 2012-01-30 | 2014-02-04 | Google Inc. | Social based aggregation of related media content |
US9143742B1 (en) * | 2012-01-30 | 2015-09-22 | Google Inc. | Automated aggregation of related media content |
US8510770B1 (en) * | 2012-02-03 | 2013-08-13 | Google Inc. | Predicting live programs |
WO2013119171A2 (en) * | 2012-02-09 | 2013-08-15 | Ipxtend Ab | Search for media material |
US9684715B1 (en) * | 2012-03-08 | 2017-06-20 | Google Inc. | Audio identification using ordinal transformation |
US8838609B1 (en) | 2012-10-10 | 2014-09-16 | Google Inc. | IDF weighting of LSH bands for live reference ingestion |
EP2642484A1 (en) * | 2012-03-23 | 2013-09-25 | Thomson Licensing | Method for setting a watching level for an audiovisual content |
US9301016B2 (en) | 2012-04-05 | 2016-03-29 | Facebook, Inc. | Sharing television and video programming through social networking |
US9516360B2 (en) * | 2012-04-12 | 2016-12-06 | Qualcomm Incorporated | Estimating demographic statistics of media viewership via context aware mobile devices |
US10292022B2 (en) * | 2012-04-24 | 2019-05-14 | Ascension Intellectual Properties Llc | Media echoing and social networking device and method |
US8904446B2 (en) * | 2012-05-30 | 2014-12-02 | Verizon Patent And Licensing Inc. | Method and apparatus for indexing content within a media stream |
US11023520B1 (en) | 2012-06-01 | 2021-06-01 | Google Llc | Background audio identification for query disambiguation |
KR20130139675A (ko) * | 2012-06-13 | 2013-12-23 | 삼성전자주식회사 | 서버 기반의 프로파일 생성 방법, 관리 방법, 시스템 및 장치 |
US9251406B2 (en) * | 2012-06-20 | 2016-02-02 | Yahoo! Inc. | Method and system for detecting users' emotions when experiencing a media program |
US8843952B2 (en) * | 2012-06-28 | 2014-09-23 | Google Inc. | Determining TV program information based on analysis of audio fingerprints |
US9113203B2 (en) | 2012-06-28 | 2015-08-18 | Google Inc. | Generating a sequence of audio fingerprints at a set top box |
US8689250B2 (en) * | 2012-06-29 | 2014-04-01 | International Business Machines Corporation | Crowd sourced, content aware smarter television systems |
US20140013342A1 (en) * | 2012-07-05 | 2014-01-09 | Comcast Cable Communications, Llc | Media Content Redirection |
CN102831894B (zh) * | 2012-08-09 | 2014-07-09 | 华为终端有限公司 | 指令处理方法、装置和系统 |
US9699485B2 (en) | 2012-08-31 | 2017-07-04 | Facebook, Inc. | Sharing television and video programming through social networking |
GB201214842D0 (en) * | 2012-08-21 | 2012-10-03 | Omnifone Ltd | Content tracker |
JP6102124B2 (ja) * | 2012-08-24 | 2017-03-29 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US8843951B1 (en) * | 2012-08-27 | 2014-09-23 | Google Inc. | User behavior indicator |
US9571606B2 (en) * | 2012-08-31 | 2017-02-14 | Verance Corporation | Social media viewing system |
US9113128B1 (en) | 2012-08-31 | 2015-08-18 | Amazon Technologies, Inc. | Timeline interface for video content |
US8726304B2 (en) | 2012-09-13 | 2014-05-13 | Verance Corporation | Time varying evaluation of multimedia content |
US9661361B2 (en) | 2012-09-19 | 2017-05-23 | Google Inc. | Systems and methods for live media content matching |
US20140089815A1 (en) * | 2012-09-21 | 2014-03-27 | Google Inc. | Sharing Content-Synchronized Ratings |
US9081778B2 (en) | 2012-09-25 | 2015-07-14 | Audible Magic Corporation | Using digital fingerprints to associate data with a work |
US8826316B2 (en) | 2012-10-22 | 2014-09-02 | The Nielsen Company (Us), Llc | Systems and methods for configuring media devices utilizing audio codes or signatures |
US9027048B2 (en) * | 2012-11-14 | 2015-05-05 | Bank Of America Corporation | Automatic deal or promotion offering based on audio cues |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9389745B1 (en) | 2012-12-10 | 2016-07-12 | Amazon Technologies, Inc. | Providing content via multiple display devices |
WO2014099272A1 (en) * | 2012-12-17 | 2014-06-26 | Thismoment, Inc. | Systems and methods for interactive advertisements with distributed engagement channels |
US9529907B2 (en) * | 2012-12-31 | 2016-12-27 | Google Inc. | Hold back and real time ranking of results in a streaming matching system |
KR101369475B1 (ko) | 2013-01-23 | 2014-03-06 | (주)엔써즈 | 방송 시청률 조사 시스템 및 방법 |
US9256269B2 (en) * | 2013-02-20 | 2016-02-09 | Sony Computer Entertainment Inc. | Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state |
US9311640B2 (en) | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods and arrangements for smartphone payments and transactions |
US9344759B2 (en) * | 2013-03-05 | 2016-05-17 | Google Inc. | Associating audio tracks of an album with video content |
KR101277523B1 (ko) * | 2013-03-08 | 2013-06-21 | (주) 에이노드 | 사운드 신호 기반의 로컬 인터랙티브 플랫폼 시스템, 이를 이용한 로컬 인터랙티브 서비스 제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
US9301070B2 (en) | 2013-03-11 | 2016-03-29 | Arris Enterprises, Inc. | Signature matching of corrupted audio signal |
US9307337B2 (en) | 2013-03-11 | 2016-04-05 | Arris Enterprises, Inc. | Systems and methods for interactive broadcast content |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US20140258373A1 (en) | 2013-03-11 | 2014-09-11 | Say Media, Inc. | Systems and Methods for Managing and Publishing Managed Content |
US9258597B1 (en) | 2013-03-13 | 2016-02-09 | Google Inc. | System and method for obtaining information relating to video images |
US9247309B2 (en) | 2013-03-14 | 2016-01-26 | Google Inc. | Methods, systems, and media for presenting mobile content corresponding to media content |
US9262793B2 (en) | 2013-03-14 | 2016-02-16 | Verance Corporation | Transactional video marking system |
US9268880B2 (en) | 2013-03-14 | 2016-02-23 | Google Inc. | Using recent media consumption to select query suggestions |
US9705728B2 (en) | 2013-03-15 | 2017-07-11 | Google Inc. | Methods, systems, and media for media transmission and management |
US9588675B2 (en) | 2013-03-15 | 2017-03-07 | Google Inc. | Document scale and position optimization |
US9210119B2 (en) | 2013-03-29 | 2015-12-08 | Garret J. LoPorto | Automated triggering of a broadcast |
US9774743B2 (en) | 2013-03-29 | 2017-09-26 | Hewlett-Packard Development Company, L.P. | Silence signatures of audio signals |
US9123330B1 (en) * | 2013-05-01 | 2015-09-01 | Google Inc. | Large-scale speaker identification |
US9460201B2 (en) | 2013-05-06 | 2016-10-04 | Iheartmedia Management Services, Inc. | Unordered matching of audio fingerprints |
US9817911B2 (en) * | 2013-05-10 | 2017-11-14 | Excalibur Ip, Llc | Method and system for displaying content relating to a subject matter of a displayed media program |
US9871606B1 (en) | 2013-05-13 | 2018-01-16 | Twitter, Inc. | Identification of concurrently broadcast time-based media |
FR3006525B1 (fr) * | 2013-06-04 | 2016-10-14 | Visiware | Synchronisation de contenus multimedia sur deuxieme ecran |
US9485089B2 (en) | 2013-06-20 | 2016-11-01 | Verance Corporation | Stego key management |
US11019300B1 (en) | 2013-06-26 | 2021-05-25 | Amazon Technologies, Inc. | Providing soundtrack information during playback of video content |
US9251549B2 (en) | 2013-07-23 | 2016-02-02 | Verance Corporation | Watermark extractor enhancements based on payload ranking |
US10063450B2 (en) * | 2013-07-26 | 2018-08-28 | Opentv, Inc. | Measuring response trends in a digital television network |
US9711152B2 (en) | 2013-07-31 | 2017-07-18 | The Nielsen Company (Us), Llc | Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio |
US20150039321A1 (en) | 2013-07-31 | 2015-02-05 | Arbitron Inc. | Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device |
US9542488B2 (en) | 2013-08-02 | 2017-01-10 | Google Inc. | Associating audio tracks with video content |
CN103618953B (zh) * | 2013-08-15 | 2016-09-14 | 北京中视广信科技有限公司 | 基于音频特征的广播电视节目标识与识别的方法及系统 |
BR112016006860B8 (pt) * | 2013-09-13 | 2023-01-10 | Arris Entpr Inc | Aparelho e método para criar um único fluxo de dados de informações combinadas para renderização em um dispositivo de computação do cliente |
US10506305B1 (en) * | 2013-09-18 | 2019-12-10 | Cox Communications, Inc. | Updating content URL for non-linear video content |
KR102095888B1 (ko) | 2013-10-07 | 2020-04-01 | 삼성전자주식회사 | 방송 시청 패턴 정보를 제공하는 사용자 단말 장치, 서버 및 시청 패턴 정보 제공 방법 |
US9292174B1 (en) * | 2013-10-30 | 2016-03-22 | Cox Communications, Inc. | Content check-in |
EP2876890A1 (en) * | 2013-11-21 | 2015-05-27 | Thomson Licensing | Method and apparatus for frame accurate synchronization of video streams |
US9438967B2 (en) * | 2013-11-25 | 2016-09-06 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
US10002191B2 (en) | 2013-12-31 | 2018-06-19 | Google Llc | Methods, systems, and media for generating search results based on contextual information |
US9456237B2 (en) | 2013-12-31 | 2016-09-27 | Google Inc. | Methods, systems, and media for presenting supplemental information corresponding to on-demand media content |
US9491522B1 (en) | 2013-12-31 | 2016-11-08 | Google Inc. | Methods, systems, and media for presenting supplemental content relating to media content on a content interface based on state information that indicates a subsequent visit to the content interface |
US9426525B2 (en) | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
IN2014MU00140A (es) | 2014-01-15 | 2015-08-28 | Whats On India Media Private Ltd | |
FR3016720B1 (fr) * | 2014-01-20 | 2016-02-05 | Tdf | Procede et systeme de delivrance de coupons de reduction et de gestion desdits coupons. |
WO2015123201A1 (en) * | 2014-02-11 | 2015-08-20 | The Nielsen Company (Us), Llc | Methods and apparatus to calculate video-on-demand and dynamically inserted advertisement viewing probability |
US9596521B2 (en) | 2014-03-13 | 2017-03-14 | Verance Corporation | Interactive content acquisition using embedded codes |
US10504200B2 (en) | 2014-03-13 | 2019-12-10 | Verance Corporation | Metadata acquisition using embedded watermarks |
US9900656B2 (en) * | 2014-04-02 | 2018-02-20 | Whats On India Media Private Limited | Method and system for customer management |
US9438940B2 (en) | 2014-04-07 | 2016-09-06 | The Nielsen Company (Us), Llc | Methods and apparatus to identify media using hash keys |
US10306278B2 (en) | 2014-04-27 | 2019-05-28 | Lg Electronics Inc. | Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal |
CN104023247B (zh) | 2014-05-29 | 2015-07-29 | 腾讯科技(深圳)有限公司 | 获取、推送信息的方法和装置以及信息交互系统 |
US9946769B2 (en) | 2014-06-20 | 2018-04-17 | Google Llc | Displaying information related to spoken dialogue in content playing on a device |
US9838759B2 (en) | 2014-06-20 | 2017-12-05 | Google Inc. | Displaying information related to content playing on a device |
US9805125B2 (en) | 2014-06-20 | 2017-10-31 | Google Inc. | Displaying a summary of media content items |
US10206014B2 (en) | 2014-06-20 | 2019-02-12 | Google Llc | Clarifying audible verbal information in video content |
US9858922B2 (en) | 2014-06-23 | 2018-01-02 | Google Inc. | Caching speech recognition scores |
EP3183882A4 (en) | 2014-08-20 | 2018-07-04 | Verance Corporation | Content management based on dither-like watermark embedding |
US10325591B1 (en) * | 2014-09-05 | 2019-06-18 | Amazon Technologies, Inc. | Identifying and suppressing interfering audio content |
US20160073148A1 (en) * | 2014-09-09 | 2016-03-10 | Verance Corporation | Media customization based on environmental sensing |
US9736503B1 (en) * | 2014-09-12 | 2017-08-15 | Google Inc. | Optimizing timing of display of a mid-roll video advertisement based on viewer retention data |
US9402111B2 (en) | 2014-09-17 | 2016-07-26 | Ispot.Tv, Inc. | Television audience measurement method and apparatus |
US10602236B2 (en) | 2014-09-17 | 2020-03-24 | Ispot.Tv, Inc. | Unique content sequence identification method and apparatus |
US9497505B2 (en) | 2014-09-30 | 2016-11-15 | The Nielsen Company (Us), Llc | Systems and methods to verify and/or correct media lineup information |
US9299347B1 (en) | 2014-10-22 | 2016-03-29 | Google Inc. | Speech recognition using associative mapping |
US9942602B2 (en) | 2014-11-25 | 2018-04-10 | Verance Corporation | Watermark detection and metadata delivery associated with a primary content |
WO2016086047A1 (en) | 2014-11-25 | 2016-06-02 | Verance Corporation | Enhanced metadata and content delivery using watermarks |
CN104394436B (zh) * | 2014-11-28 | 2018-06-26 | 北京国双科技有限公司 | 网络电视直播电视频道的收视率的监测方法和装置 |
FR3030177B1 (fr) * | 2014-12-16 | 2016-12-30 | Stmicroelectronics Rousset | Dispositif electronique comprenant un module de reveil d'un appareil electronique distinct d'un coeur de traitement |
WO2016100916A1 (en) | 2014-12-18 | 2016-06-23 | Verance Corporation | Service signaling recovery for multimedia content using embedded watermarks |
CN107211192B (zh) * | 2015-01-30 | 2020-11-06 | 夏普株式会社 | 上报信息的方法 |
US10219039B2 (en) | 2015-03-09 | 2019-02-26 | The Nielsen Company (Us), Llc | Methods and apparatus to assign viewers to media meter data |
US10015541B2 (en) | 2015-03-25 | 2018-07-03 | Cisco Technology, Inc. | Storing and retrieval heuristics |
US9578394B2 (en) | 2015-03-25 | 2017-02-21 | Cisco Technology, Inc. | Video signature creation and matching |
US9705936B2 (en) * | 2015-04-24 | 2017-07-11 | Mersive Technologies, Inc. | System and method for interactive and real-time visualization of distributed media |
WO2016176056A1 (en) | 2015-04-30 | 2016-11-03 | Verance Corporation | Watermark based content recognition improvements |
KR20180001559A (ko) * | 2015-05-26 | 2018-01-04 | 엘지전자 주식회사 | 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 |
US11330316B2 (en) * | 2015-06-15 | 2022-05-10 | Piksel, Inc. | Media streaming |
CN104936035B (zh) | 2015-06-19 | 2018-04-17 | 腾讯科技(北京)有限公司 | 一种弹幕处理方法及系统 |
US11481652B2 (en) * | 2015-06-23 | 2022-10-25 | Gregory Knox | System and method for recommendations in ubiquituous computing environments |
US9786270B2 (en) | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
WO2017015399A1 (en) | 2015-07-20 | 2017-01-26 | Verance Corporation | Watermark-based data recovery for content with multiple alternative components |
US9699504B2 (en) * | 2015-09-28 | 2017-07-04 | Rovi Guides, Inc. | Systems and methods for identifying a source of media content based on a log of content identifiers |
US9854304B2 (en) | 2015-09-28 | 2017-12-26 | Rovi Guides, Inc. | Systems and methods for identifying a source of media content based on a log of fingerprints |
WO2017066736A1 (en) * | 2015-10-16 | 2017-04-20 | Tribune Broadcasting Company, Llc | Media-production system with social media content interface feature |
US20170140795A1 (en) * | 2015-11-18 | 2017-05-18 | International Business Machines Corporation | Intelligent segment marking in recordings |
US10349141B2 (en) | 2015-11-19 | 2019-07-09 | Google Llc | Reminders of media content referenced in other media content |
US10229672B1 (en) | 2015-12-31 | 2019-03-12 | Google Llc | Training acoustic models using connectionist temporal classification |
WO2017119604A1 (ko) * | 2016-01-08 | 2017-07-13 | 주식회사 아이플래테아 | 시청률 산출 서버, 시청률 산출 방법, 및 시청률 산출 리모트 장치 |
US20170214954A1 (en) * | 2016-01-25 | 2017-07-27 | Google Inc. | Media Program Moments Guide |
US10034053B1 (en) | 2016-01-25 | 2018-07-24 | Google Llc | Polls for media program moments |
KR102468763B1 (ko) * | 2016-02-05 | 2022-11-18 | 삼성전자 주식회사 | 영상처리장치 및 그 제어방법 |
US10776823B2 (en) | 2016-02-09 | 2020-09-15 | Comcast Cable Communications, Llc | Collection analysis and use of viewer behavior |
US9924222B2 (en) * | 2016-02-29 | 2018-03-20 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on location |
US10063918B2 (en) | 2016-02-29 | 2018-08-28 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on single-match |
US9930406B2 (en) | 2016-02-29 | 2018-03-27 | Gracenote, Inc. | Media channel identification with video multi-match detection and disambiguation based on audio fingerprint |
US10433026B2 (en) * | 2016-02-29 | 2019-10-01 | MyTeamsCalls LLC | Systems and methods for customized live-streaming commentary |
CN105657326A (zh) * | 2016-03-02 | 2016-06-08 | 掌赢信息科技(上海)有限公司 | 一种群视频通话方法、装置及系统 |
US10318813B1 (en) * | 2016-03-11 | 2019-06-11 | Gracenote, Inc. | Digital video fingerprinting using motion segmentation |
US9918128B2 (en) * | 2016-04-08 | 2018-03-13 | Orange | Content categorization using facial expression recognition, with improved detection of moments of interest |
WO2017184648A1 (en) | 2016-04-18 | 2017-10-26 | Verance Corporation | System and method for signaling security and database population |
CN106170104B (zh) * | 2016-07-01 | 2019-03-08 | 广州华多网络科技有限公司 | 视频精彩片段的确定方法、装置和服务器 |
US20180018973A1 (en) | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
GB2556023B (en) | 2016-08-15 | 2022-02-09 | Intrasonics Sarl | Audio matching |
US10171879B2 (en) * | 2016-10-04 | 2019-01-01 | International Business Machines Corporation | Contextual alerting for broadcast content |
US10108718B2 (en) | 2016-11-02 | 2018-10-23 | Alphonso Inc. | System and method for detecting repeating content, including commercials, in a video data stream |
US10419141B2 (en) | 2016-12-09 | 2019-09-17 | The Nielsen Company (Us), Llc | Estimating volume of switching among television programs for an audience measurement panel |
US10075767B2 (en) * | 2016-12-12 | 2018-09-11 | Facebook, Inc. | Broadcast content view analysis based on ambient audio recording |
US10791355B2 (en) | 2016-12-20 | 2020-09-29 | The Nielsen Company (Us), Llc | Methods and apparatus to determine probabilistic media viewing metrics |
US10405012B2 (en) * | 2016-12-25 | 2019-09-03 | Synamedia Limited | Cloud DVR Optimization |
US11044520B2 (en) * | 2016-12-29 | 2021-06-22 | Telefonaktiebolaget Lm Ericsson (Publ) | Handling of video segments in a video stream |
WO2018125590A1 (en) * | 2016-12-30 | 2018-07-05 | Tivo Solutions Inc. | Advanced trick-play modes for streaming video |
US10462514B2 (en) * | 2017-03-29 | 2019-10-29 | The Nielsen Company (Us), Llc | Interactive overlays to determine viewer data |
WO2018237191A1 (en) | 2017-06-21 | 2018-12-27 | Verance Corporation | ACQUISITION AND TREATMENT OF METADATA BASED ON A WATERMARK |
US9980004B1 (en) * | 2017-06-30 | 2018-05-22 | Paypal, Inc. | Display level content blocker |
US10440413B2 (en) | 2017-07-31 | 2019-10-08 | The Nielsen Company (Us), Llc | Methods and apparatus to perform media device asset qualification |
US10706840B2 (en) | 2017-08-18 | 2020-07-07 | Google Llc | Encoder-decoder models for sequence to sequence mapping |
US11381876B2 (en) * | 2017-09-09 | 2022-07-05 | Telegenic, Inc. | Controlling internet of things (IOT) devices and aggregating media content through a common device |
US10805693B2 (en) * | 2017-09-12 | 2020-10-13 | Irdeto B.V. | Device and method for GPU-based watermarking |
US10264297B1 (en) | 2017-09-13 | 2019-04-16 | Perfect Sense, Inc. | Time-based content synchronization |
US10621256B2 (en) * | 2017-09-29 | 2020-04-14 | Facebook, Inc. | Determining a rate for sampling information describing presentation of content based on previously received information describing presentation of content |
WO2019089028A1 (en) * | 2017-11-02 | 2019-05-09 | Bretherton Peter | Method and system for real-time broadcast audience engagement |
US11140450B2 (en) * | 2017-11-28 | 2021-10-05 | Rovi Guides, Inc. | Methods and systems for recommending content in context of a conversation |
US10715860B1 (en) * | 2017-11-29 | 2020-07-14 | Twitch Interactive, Inc. | Video stream with additional content areas |
US10817855B2 (en) | 2017-12-05 | 2020-10-27 | Silicon Beach Media II, LLC | Systems and methods for unified presentation and sharing of on-demand, live, social or market content |
US10783573B2 (en) | 2017-12-05 | 2020-09-22 | Silicon Beach Media II, LLC | Systems and methods for unified presentation and sharing of on-demand, live, or social activity monitoring content |
US11146845B2 (en) | 2017-12-05 | 2021-10-12 | Relola Inc. | Systems and methods for unified presentation of synchronized on-demand, live, social or market content |
US10924809B2 (en) | 2017-12-05 | 2021-02-16 | Silicon Beach Media II, Inc. | Systems and methods for unified presentation of on-demand, live, social or market content |
US10567828B2 (en) * | 2017-12-05 | 2020-02-18 | Silicon Beach Media II, LLC | Systems and methods for unified presentation of a smart bar on interfaces including on-demand, live, social or market content |
US10631035B2 (en) | 2017-12-05 | 2020-04-21 | Silicon Beach Media II, LLC | Systems and methods for unified compensation, presentation, and sharing of on-demand, live, social or market content |
US10412442B1 (en) | 2017-12-11 | 2019-09-10 | Amazon Technologies, Inc. | Embedded content input and timing |
US10531165B1 (en) | 2017-12-11 | 2020-01-07 | Amazon Technologies, Inc. | Embedded content synchronization |
US10715855B1 (en) * | 2017-12-20 | 2020-07-14 | Groupon, Inc. | Method, system, and apparatus for programmatically generating a channel incrementality ratio |
US10848792B2 (en) * | 2018-03-05 | 2020-11-24 | Maestro Interactive, Inc. | System and method for providing audience-targeted content triggered by events during program |
US10346474B1 (en) * | 2018-03-30 | 2019-07-09 | Alphonso Inc. | System and method for detecting repeating content, including commercials, in a video data stream using audio-based and video-based automated content recognition |
US10966001B2 (en) * | 2018-04-05 | 2021-03-30 | Tvu Networks Corporation | Remote cloud-based video production system in an environment where there is network delay |
US11463747B2 (en) | 2018-04-05 | 2022-10-04 | Tvu Networks Corporation | Systems and methods for real time control of a remote video production with multiple streams |
US11212431B2 (en) | 2018-04-06 | 2021-12-28 | Tvu Networks Corporation | Methods and apparatus for remotely controlling a camera in an environment with communication latency |
US11468149B2 (en) | 2018-04-17 | 2022-10-11 | Verance Corporation | Device authentication in collaborative content screening |
US20200007934A1 (en) * | 2018-06-29 | 2020-01-02 | Advocates, Inc. | Machine-learning based systems and methods for analyzing and distributing multimedia content |
US10771828B2 (en) * | 2018-09-18 | 2020-09-08 | Free Stream Media Corp. | Content consensus management |
US10929878B2 (en) * | 2018-10-19 | 2021-02-23 | International Business Machines Corporation | Targeted content identification and tracing |
WO2020095767A1 (ja) * | 2018-11-08 | 2020-05-14 | 日本電信電話株式会社 | 配信設計支援方法、配信設計支援装置及びプログラム |
US10868620B2 (en) * | 2018-12-26 | 2020-12-15 | The Nielsen Company (Us), Llc | Methods and apparatus for optimizing station reference fingerprint loading using reference watermarks |
US10848836B2 (en) * | 2018-12-28 | 2020-11-24 | Dish Network L.L.C. | Wager information based prioritized live event display system |
US10803480B2 (en) | 2019-01-07 | 2020-10-13 | Alphonso Inc. | Bidding agent with optimized reach limitation |
US11037205B2 (en) | 2019-01-07 | 2021-06-15 | Alphonso Inc. | Bidding agent using ad opportunity source to limit ad reach |
US11151609B2 (en) | 2019-01-07 | 2021-10-19 | Alphonso Inc. | Closed loop attribution |
US10873785B2 (en) * | 2019-01-07 | 2020-12-22 | Alphonso Inc. | Content recommendation system and method-based implicit ratings |
CN109547843B (zh) * | 2019-02-01 | 2022-05-17 | 腾讯音乐娱乐科技(深圳)有限公司 | 对音视频进行处理的方法和装置 |
US10856041B2 (en) * | 2019-03-18 | 2020-12-01 | Disney Enterprises, Inc. | Content promotion using a conversational agent |
US11259058B2 (en) * | 2019-03-25 | 2022-02-22 | Apple Inc. | Use of rendered media to assess delays in media distribution systems |
US11785194B2 (en) | 2019-04-19 | 2023-10-10 | Microsoft Technology Licensing, Llc | Contextually-aware control of a user interface displaying a video and related user text |
US11678031B2 (en) | 2019-04-19 | 2023-06-13 | Microsoft Technology Licensing, Llc | Authoring comments including typed hyperlinks that reference video content |
US11026000B2 (en) * | 2019-04-19 | 2021-06-01 | Microsoft Technology Licensing, Llc | Previewing video content referenced by typed hyperlinks in comments |
US11212560B2 (en) * | 2019-06-24 | 2021-12-28 | The Nielsen Company (Us), Llc | Use of steganographically-encoded time information as basis to establish a time offset, to facilitate taking content-related action |
US11234049B2 (en) * | 2019-06-24 | 2022-01-25 | The Nielsen Company (Us), Llc | Use of steganographically-encoded time information as basis to control implementation of dynamic content modification |
US10834466B1 (en) * | 2019-08-02 | 2020-11-10 | International Business Machines Corporation | Virtual interactivity for a broadcast content-delivery medium |
US11627361B2 (en) * | 2019-10-14 | 2023-04-11 | Meta Platforms, Inc. | Method to acoustically detect a state of an external media device using an identification signal |
CN112995759A (zh) * | 2019-12-13 | 2021-06-18 | 腾讯科技(北京)有限公司 | 互动业务处理方法、系统、装置、设备及存储介质 |
KR20220133249A (ko) | 2020-01-30 | 2022-10-04 | 스냅 인코포레이티드 | 온 디맨드로 미디어 콘텐츠 아이템들을 생성하기 위한 시스템 |
US11036781B1 (en) | 2020-01-30 | 2021-06-15 | Snap Inc. | Video generation system to render frames on demand using a fleet of servers |
US11356720B2 (en) | 2020-01-30 | 2022-06-07 | Snap Inc. | Video generation system to render frames on demand |
US11991419B2 (en) | 2020-01-30 | 2024-05-21 | Snap Inc. | Selecting avatars to be included in the video being generated on demand |
US11284144B2 (en) * | 2020-01-30 | 2022-03-22 | Snap Inc. | Video generation system to render frames on demand using a fleet of GPUs |
CN118118741A (zh) | 2020-03-13 | 2024-05-31 | 谷歌有限责任公司 | 联网电视装置中的媒体内容投射 |
GB2597334A (en) | 2020-07-17 | 2022-01-26 | Playrcart Ltd | A media player |
US11284139B1 (en) * | 2020-09-10 | 2022-03-22 | Hulu, LLC | Stateless re-discovery of identity using watermarking of a video stream |
US11974024B2 (en) * | 2020-09-11 | 2024-04-30 | Sling TV L.L.C. | Automated program promotion detection in a video streaming system |
US11922967B2 (en) * | 2020-10-08 | 2024-03-05 | Gracenote, Inc. | System and method for podcast repetitive content detection |
US11317128B1 (en) * | 2020-10-23 | 2022-04-26 | Synamedia Limited | Systems, methods, and devices for media content tamper protection and detection |
US11445042B2 (en) | 2020-12-02 | 2022-09-13 | International Business Machines Corporation | Correlating multiple media sources for personalized media content |
US10998006B1 (en) * | 2020-12-08 | 2021-05-04 | Turku University of Applied Sciences Ltd | Method and system for producing binaural immersive audio for audio-visual content |
US20220210488A1 (en) * | 2020-12-30 | 2022-06-30 | Comcast Cable Communications, Llc | Method and system for detecting and managing similar content |
US11722741B2 (en) | 2021-02-08 | 2023-08-08 | Verance Corporation | System and method for tracking content timeline in the presence of playback rate changes |
US11809481B2 (en) | 2021-02-17 | 2023-11-07 | International Business Machines Corporation | Content generation based on multi-source content analysis |
US11589100B1 (en) * | 2021-03-31 | 2023-02-21 | Amazon Technologies, Inc. | On-demand issuance private keys for encrypted video transmission |
US11580982B1 (en) | 2021-05-25 | 2023-02-14 | Amazon Technologies, Inc. | Receiving voice samples from listeners of media programs |
US11586344B1 (en) | 2021-06-07 | 2023-02-21 | Amazon Technologies, Inc. | Synchronizing media content streams for live broadcasts and listener interactivity |
US11792143B1 (en) | 2021-06-21 | 2023-10-17 | Amazon Technologies, Inc. | Presenting relevant chat messages to listeners of media programs |
US11792467B1 (en) | 2021-06-22 | 2023-10-17 | Amazon Technologies, Inc. | Selecting media to complement group communication experiences |
US11683558B2 (en) * | 2021-06-29 | 2023-06-20 | The Nielsen Company (Us), Llc | Methods and apparatus to determine the speed-up of media programs using speech recognition |
US11470130B1 (en) | 2021-06-30 | 2022-10-11 | Amazon Technologies, Inc. | Creating media content streams from listener interactions |
US11496776B1 (en) | 2021-07-19 | 2022-11-08 | Intrado Corporation | Database layer caching for video communications |
CN114286169B (zh) * | 2021-08-31 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 视频生成方法、装置、终端、服务器及存储介质 |
US11687576B1 (en) | 2021-09-03 | 2023-06-27 | Amazon Technologies, Inc. | Summarizing content of live media programs |
US11785299B1 (en) | 2021-09-30 | 2023-10-10 | Amazon Technologies, Inc. | Selecting advertisements for media programs and establishing favorable conditions for advertisements |
US11463772B1 (en) | 2021-09-30 | 2022-10-04 | Amazon Technologies, Inc. | Selecting advertisements for media programs by matching brands to creators |
US11831943B2 (en) * | 2021-10-26 | 2023-11-28 | Apple Inc. | Synchronized playback of media content |
US11785272B1 (en) | 2021-12-03 | 2023-10-10 | Amazon Technologies, Inc. | Selecting times or durations of advertisements during episodes of media programs |
US11916981B1 (en) | 2021-12-08 | 2024-02-27 | Amazon Technologies, Inc. | Evaluating listeners who request to join a media program |
US11791920B1 (en) | 2021-12-10 | 2023-10-17 | Amazon Technologies, Inc. | Recommending media to listeners based on patterns of activity |
US11785278B1 (en) * | 2022-03-18 | 2023-10-10 | Comcast Cable Communications, Llc | Methods and systems for synchronization of closed captions with content output |
US11910044B1 (en) * | 2022-06-30 | 2024-02-20 | Amazon Technologies, Inc. | Systems and methods for switching the processing of a live content stream to another datacenter |
Family Cites Families (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4811399A (en) | 1984-12-31 | 1989-03-07 | Itt Defense Communications, A Division Of Itt Corporation | Apparatus and method for automatic speech recognition |
DE69031842T2 (de) | 1989-02-20 | 1998-04-16 | Fujitsu Ltd | Lernsystem und Lernverfahren für eine Datenverarbeitungsvorrichtung |
US5436653A (en) * | 1992-04-30 | 1995-07-25 | The Arbitron Company | Method and system for recognition of broadcast segments |
US6044365A (en) | 1993-09-01 | 2000-03-28 | Onkor, Ltd. | System for indexing and retrieving graphic and sound data |
WO1996027983A1 (en) | 1995-03-07 | 1996-09-12 | Interval Research Corporation | System and method for selective recording of information |
US5706364A (en) | 1995-04-28 | 1998-01-06 | Xerox Corporation | Method of producing character templates using unsegmented samples |
US7562392B1 (en) * | 1999-05-19 | 2009-07-14 | Digimarc Corporation | Methods of interacting with audio and ambient music |
US20030093790A1 (en) * | 2000-03-28 | 2003-05-15 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
DK128796A (da) | 1996-11-14 | 1998-05-15 | Jan Meyrowitsch | Metode til objektivisering af subjektive klassifikationer |
US7802276B2 (en) * | 1997-01-06 | 2010-09-21 | At&T Intellectual Property I, L.P. | Systems, methods and products for assessing subscriber content access |
US7587323B2 (en) * | 2001-12-14 | 2009-09-08 | At&T Intellectual Property I, L.P. | System and method for developing tailored content |
US6157746A (en) | 1997-02-12 | 2000-12-05 | Sarnoff Corporation | Apparatus and method for encoding wavelet trees generated by a wavelet-based coding method |
US5870744A (en) | 1997-06-30 | 1999-02-09 | Intel Corporation | Virtual people networking |
US6553404B2 (en) * | 1997-08-08 | 2003-04-22 | Prn Corporation | Digital system |
CN1505291A (zh) * | 1998-05-12 | 2004-06-16 | ���ѷý���о��ɷ�����˾ | 数字电视的观众测定系统 |
US6182186B1 (en) * | 1998-06-30 | 2001-01-30 | Sun Microsystems, Inc. | Method and apparatus that utilizes lock states to lock resources |
US6529526B1 (en) | 1998-07-13 | 2003-03-04 | Thomson Licensing S.A. | System for processing programs and program content rating information derived from multiple broadcast sources |
US6471521B1 (en) | 1998-07-31 | 2002-10-29 | Athenium, L.L.C. | System for implementing collaborative training and online learning over a computer network and related techniques |
US7178106B2 (en) * | 1999-04-21 | 2007-02-13 | Sonic Solutions, A California Corporation | Presentation of media content from multiple media sources |
US6895514B1 (en) * | 1999-06-25 | 2005-05-17 | Lucent Technologies Inc. | Method and apparatus for achieving secure password access |
US6604239B1 (en) * | 1999-06-25 | 2003-08-05 | Eyescene Inc. | System and method for virtual television program rating |
US7120871B1 (en) * | 1999-09-15 | 2006-10-10 | Actv, Inc. | Enhanced video programming system and method utilizing a web page staging area |
US7174293B2 (en) * | 1999-09-21 | 2007-02-06 | Iceberg Industries Llc | Audio identification system and method |
KR100353798B1 (ko) | 1999-12-01 | 2002-09-26 | 주식회사 코난테크놀로지 | 영상 객체 모양 정보 추출 방법 및 그를 이용한 내용기반 이미지 검색 시스템 및 그 방법 |
DE19962281A1 (de) | 1999-12-23 | 2001-06-28 | Philips Corp Intellectual Pty | Röntgenuntersuchungsgerät |
US6892191B1 (en) * | 2000-02-07 | 2005-05-10 | Koninklijke Philips Electronics N.V. | Multi-feature combination generation and classification effectiveness evaluation using genetic algorithms |
US6879967B1 (en) | 2000-03-24 | 2005-04-12 | Ricoh Co., Ltd. | Method and apparatus for open data collection |
JP3994682B2 (ja) | 2000-04-14 | 2007-10-24 | 日本電信電話株式会社 | 放送情報送受信システム |
US6636848B1 (en) * | 2000-05-31 | 2003-10-21 | International Business Machines Corporation | Information search using knowledge agents |
US6763339B2 (en) | 2000-06-26 | 2004-07-13 | The Regents Of The University Of California | Biologically-based signal processing system applied to noise removal for signal extraction |
US6751601B2 (en) * | 2000-07-21 | 2004-06-15 | Pablo Zegers | Method and a system for solving dynamic problems using the dynamical system architecture |
EP1303819A1 (de) * | 2000-07-22 | 2003-04-23 | ABB Research Ltd. | System und verfahren zur generierung eines xml-basierten fehlermodells |
US7853664B1 (en) * | 2000-07-31 | 2010-12-14 | Landmark Digital Services Llc | Method and system for purchasing pre-recorded music |
IL139368A (en) | 2000-10-30 | 2006-12-10 | Nova Measuring Instr Ltd | Process control for microlithography |
US7375304B2 (en) | 2001-01-25 | 2008-05-20 | Lincoln Global, Inc. | System and method providing automated welding notification |
US7330717B2 (en) | 2001-02-23 | 2008-02-12 | Lucent Technologies Inc. | Rule-based system and method for managing the provisioning of user applications on limited-resource and/or wireless devices |
US20020133499A1 (en) | 2001-03-13 | 2002-09-19 | Sean Ward | System and method for acoustic fingerprinting |
JP4340398B2 (ja) * | 2001-05-15 | 2009-10-07 | 日本放送協会 | 双方向型放送視聴システム |
US20020194585A1 (en) | 2001-06-15 | 2002-12-19 | Connelly Jay H. | Methods and apparatus for providing ranking feedback for content in a broadcast system |
EP1421521A2 (en) * | 2001-07-31 | 2004-05-26 | Gracenote, Inc. | Multiple step identification of recordings |
JP4165685B2 (ja) * | 2001-08-09 | 2008-10-15 | ヤマハ株式会社 | コンテンツ販売サーバ及びプログラム |
FR2831981B1 (fr) | 2001-11-08 | 2005-07-08 | Cit Alcatel | Procede et dispositif d'analyse d'alarmes provenant d'un reseau de communication |
JP2003150529A (ja) * | 2001-11-19 | 2003-05-23 | Hitachi Ltd | 情報交換方法、情報交換端末装置、情報交換サーバ装置、プログラム |
JP2003163911A (ja) * | 2001-11-22 | 2003-06-06 | Nippon Telegr & Teleph Corp <Ntt> | 好感度情報に基づく映像再生制御方法、映像再生制御システム、サーバ装置、クライアント装置、並びに、映像再生制御プログラム及びその記録媒体 |
US7065544B2 (en) | 2001-11-29 | 2006-06-20 | Hewlett-Packard Development Company, L.P. | System and method for detecting repetitions in a multimedia stream |
JP3872980B2 (ja) * | 2001-12-12 | 2007-01-24 | 松下電器産業株式会社 | 情報再生装置 |
US6585521B1 (en) | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
US7038619B2 (en) * | 2001-12-31 | 2006-05-02 | Rdp Associates, Incorporated | Satellite positioning system enabled media measurement system and method |
WO2003096669A2 (en) | 2002-05-10 | 2003-11-20 | Reisman Richard R | Method and apparatus for browsing using multiple coordinated device |
US7665035B2 (en) * | 2002-05-20 | 2010-02-16 | Gateway, Inc. | Content selection apparatus, system, and method |
JP2003345729A (ja) * | 2002-05-24 | 2003-12-05 | Matsushita Electric Ind Co Ltd | テレビチャットシステム、テレビチャット端末装置、テレビチャットサーバ、テレビチャットサービス提供方法、およびプログラム |
US6766523B2 (en) | 2002-05-31 | 2004-07-20 | Microsoft Corporation | System and method for identifying and segmenting repeating media objects embedded in a stream |
EP1514417A4 (en) | 2002-05-31 | 2005-06-15 | Predictive Media Corp | METHOD AND SYSTEM FOR STORING, LOOKING AND MANAGING AND DELIVERING TARGETED ADVERTISING |
US20030225833A1 (en) * | 2002-05-31 | 2003-12-04 | Paul Pilat | Establishing multiparty communications based on common attributes |
JP2004015087A (ja) * | 2002-06-03 | 2004-01-15 | Matsushita Electric Ind Co Ltd | 視聴者参加型双方向通信サービスシステム |
US7107207B2 (en) | 2002-06-19 | 2006-09-12 | Microsoft Corporation | Training machine learning by sequential conditional generalized iterative scaling |
AU2003280513A1 (en) * | 2002-07-01 | 2004-01-19 | Microsoft Corporation | A system and method for providing user control over repeating objects embedded in a stream |
JP2004037721A (ja) * | 2002-07-02 | 2004-02-05 | Pioneer Electronic Corp | 音声応答システム、音声応答プログラム及びそのための記憶媒体 |
JP2004049438A (ja) | 2002-07-18 | 2004-02-19 | Olympia:Kk | メダル振り分け機構を備えた遊技機及びメダル振り分け方法並びに記録媒体及びプログラム |
JP2004159192A (ja) * | 2002-11-07 | 2004-06-03 | Nippon Telegr & Teleph Corp <Ntt> | 映像要約方法及びプログラム及び映像要約プログラムを格納した記憶媒体 |
US7930716B2 (en) * | 2002-12-31 | 2011-04-19 | Actv Inc. | Techniques for reinsertion of local market advertising in digital video from a bypass source |
JP2004213570A (ja) * | 2003-01-08 | 2004-07-29 | Sony Corp | 情報提供方法 |
JP2004235694A (ja) * | 2003-01-28 | 2004-08-19 | Mitsubishi Electric Corp | サーバ装置および放送受信機 |
US7913279B2 (en) * | 2003-01-31 | 2011-03-22 | Microsoft Corporation | Global listings format (GLF) for multimedia programming content and electronic program guide (EPG) information |
US20050009620A1 (en) | 2003-02-14 | 2005-01-13 | Hodgetts George W. | Golf club shaft with adjustable flex |
US20040216041A1 (en) * | 2003-04-24 | 2004-10-28 | Amir Ajizadeh | System and methods in interactive television and radio ratings through the internet and the telephone |
JP2005107529A (ja) * | 2003-09-25 | 2005-04-21 | Ricoh Co Ltd | 時間ベースメディアのための印刷可能表現 |
US7788696B2 (en) * | 2003-10-15 | 2010-08-31 | Microsoft Corporation | Inferring information about media stream objects |
JP4466055B2 (ja) * | 2003-11-28 | 2010-05-26 | ソニー株式会社 | コミュニケーションシステム、コミュニケーション方法、端末装置、情報提示方法、メッセージ交換装置およびメッセージ交換方法 |
JP2005167349A (ja) * | 2003-11-28 | 2005-06-23 | Matsushita Electric Ind Co Ltd | 番組コンテンツ送出装置 |
US7281219B2 (en) | 2003-12-05 | 2007-10-09 | International Business Machines Corporation | Blended learning experience tool and method |
US20050147256A1 (en) | 2003-12-30 | 2005-07-07 | Peters Geoffrey W. | Automated presentation of entertainment content in response to received ambient audio |
US20050193016A1 (en) * | 2004-02-17 | 2005-09-01 | Nicholas Seet | Generation of a media content database by correlating repeating media content in media streams |
US7197502B2 (en) * | 2004-02-18 | 2007-03-27 | Friendly Polynomials, Inc. | Machine-implemented activity management system using asynchronously shared activity data objects and journal data items |
US8229751B2 (en) | 2004-02-26 | 2012-07-24 | Mediaguide, Inc. | Method and apparatus for automatic detection and identification of unidentified Broadcast audio or video signals |
US7546086B2 (en) * | 2004-05-07 | 2009-06-09 | Telefonaktiebolaget L M Ericsson (Publ) | Ad-hoc messaging between wireless devices |
US20060080356A1 (en) * | 2004-10-13 | 2006-04-13 | Microsoft Corporation | System and method for inferring similarities between media objects |
US7472096B2 (en) | 2005-07-18 | 2008-12-30 | Microsoft Corporation | Training a learning system with arbitrary cost functions |
BRPI0619388A2 (pt) | 2005-11-29 | 2011-10-04 | Google Inc | aplicações sociais e interativas para mìdia de massa |
US7617164B2 (en) | 2006-03-17 | 2009-11-10 | Microsoft Corporation | Efficiency of training for ranking systems based on pairwise training with aggregated gradients |
US7831531B1 (en) * | 2006-06-22 | 2010-11-09 | Google Inc. | Approximate hashing functions for finding similar content |
-
2006
- 2006-11-27 BR BRPI0619388-9A patent/BRPI0619388A2/pt active Search and Examination
- 2006-11-27 US US11/563,665 patent/US7991770B2/en active Active
- 2006-11-27 US US11/563,653 patent/US8442125B2/en active Active
- 2006-11-27 CA CA002631270A patent/CA2631270A1/en not_active Abandoned
- 2006-11-27 EP EP06838486A patent/EP1958362A4/en not_active Withdrawn
- 2006-11-27 EP EP06838488A patent/EP1955458B1/en active Active
- 2006-11-27 AU AU2006320693A patent/AU2006320693B2/en not_active Ceased
- 2006-11-27 BR BRPI0619197-5A patent/BRPI0619197A2/pt not_active IP Right Cessation
- 2006-11-27 AU AU2006320692A patent/AU2006320692A1/en not_active Abandoned
- 2006-11-27 EP EP08153719A patent/EP1986145A1/en not_active Ceased
- 2006-11-27 JP JP2008543390A patent/JP2009524273A/ja active Pending
- 2006-11-27 US US11/563,661 patent/US8479225B2/en active Active
- 2006-11-27 WO PCT/US2006/045549 patent/WO2007064640A2/en active Application Filing
- 2006-11-27 CA CA2631151A patent/CA2631151C/en not_active Expired - Fee Related
- 2006-11-27 JP JP2008543391A patent/JP2009518884A/ja active Pending
- 2006-11-27 KR KR1020087015779A patent/KR20080073357A/ko not_active Application Discontinuation
- 2006-11-27 KR KR1020087015739A patent/KR101371574B1/ko active IP Right Grant
- 2006-11-27 WO PCT/US2006/045551 patent/WO2007064641A2/en active Application Filing
- 2006-11-27 ES ES06838488T patent/ES2386977T3/es active Active
-
2008
- 2008-05-29 IL IL191814A patent/IL191814A0/en unknown
-
2011
- 2011-08-01 US US13/195,330 patent/US8700641B2/en active Active
-
2012
- 2012-10-05 JP JP2012223077A patent/JP6161249B2/ja active Active
-
2013
- 2013-03-15 US US13/842,471 patent/US20150156542A1/en not_active Abandoned
-
2017
- 2017-08-11 US US15/675,586 patent/US20170366847A1/en not_active Abandoned
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2386977T3 (es) | Aplicaciones sociales e interactivas para medios masivos | |
CN101517550B (zh) | 大众传媒的社会性和交互式应用 | |
US9602855B2 (en) | Systems and methods for automated extraction of closed captions in real time or near real-time and tagging of streaming data for advertisements | |
KR101618540B1 (ko) | 대화식 방송 콘텐츠에 대한 시스템들 및 방법들 | |
US10455269B2 (en) | Systems and methods for automated extraction of closed captions in real time or near real-time and tagging of streaming data for advertisements | |
CN102216945B (zh) | 通过媒体指纹进行联网 | |
Fink et al. | Social-and interactive-television applications based on real-time ambient-audio identification | |
CN112753227A (zh) | 用于在体育事件电视节目中检测人群噪声的发生的音频处理 | |
US11991405B2 (en) | Systems and methods for automated extraction of closed captions in real time or near real-time and tagging of streaming data for advertisements | |
Fink et al. | Mass personalization: social and interactive applications using sound-track identification |