ES2386977T3 - Aplicaciones sociales e interactivas para medios masivos - Google Patents

Aplicaciones sociales e interactivas para medios masivos Download PDF

Info

Publication number
ES2386977T3
ES2386977T3 ES06838488T ES06838488T ES2386977T3 ES 2386977 T3 ES2386977 T3 ES 2386977T3 ES 06838488 T ES06838488 T ES 06838488T ES 06838488 T ES06838488 T ES 06838488T ES 2386977 T3 ES2386977 T3 ES 2386977T3
Authority
ES
Spain
Prior art keywords
audio
descriptors
ambient audio
mass media
broadcast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES06838488T
Other languages
English (en)
Inventor
Michael Fink
Shumeet Baluja
Michele Covell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38092724&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2386977(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Google LLC filed Critical Google LLC
Application granted granted Critical
Publication of ES2386977T3 publication Critical patent/ES2386977T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/372Programme
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/375Commercial
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/64Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for providing detail information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26603Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for automatically generating descriptors from content, e.g. when it is not made available by its provider, using content analysis techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4143Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17336Handling of requests in head-ends
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/12Arrangements for observation, testing or troubleshooting
    • H04H20/14Arrangements for observation, testing or troubleshooting for monitoring programmes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/90Aspects of broadcast communication characterised by the use of signatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/06Arrangements for scheduling broadcast services or broadcast-related services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/45Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/65Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on users' side
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/66Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on distributors' side
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/76Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
    • H04H60/78Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations
    • H04H60/80Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by source locations or destination locations characterised by transmission among terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/76Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
    • H04H60/81Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself
    • H04H60/82Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet
    • H04H60/87Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet accessed over computer networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Un método ejecutado por ordenador que comprende: Recibir un primer descriptor que identifica un primer audio ambiente de una primera difusión de medio masivo, en donde el primer audio ambiente se genera mediante un primer sistema de medios masivos (202) y se detecta mediante un primer detector de audio ambiente (204); Recibir un segundo descriptor que identifica un segundo audio ambiente de una segunda difusión de medio masivo, en donde el segundo audio ambiente se genera mediante un segundo sistema de medios masivos (202) y se detecta mediante un segundo detector de audio ambiente (204); Comparar el primer y segundo descriptores para determinar si la primera y segunda difusiones de medios masivos son iguales; y Agregar información personalizada con base en el resultado de la comparación, en donde la información personalizada incluye información asociada con un medio comentado, en donde se crea una sala de conversación al comparar directamente los primeros y segundos descriptores en el flujo de datos transmitido por los sistemas del cliente (102) para determinar las correspondencias.

Description

Aplicaciones sociales e interactivas para medios masivos.
Campo técnico
Las ejecuciones descritas se relacionan con aplicaciones sociales e interactivas para medios masivos.
Antecedentes
Los canales de medios masivos (por ejemplo las difusiones de televisión y radio) típicamente suministran contenido
limitado a una gran audiencia. Como contraste, la “World Wide Web” suministra vastas cantidades de información que
pueden ser solo de interés a pocos individuos. Los intentos de la televisión interactiva convencional crean puentes entre estos dos medios de comunicación al suministrar un medio para que los televidentes interactúen con su televisión y al recibir contenido y/o servicios relacionados con la difusión de televisión
La televisión interactiva convencional está típicamente solo disponible a los televidentes a través de redes de cable o satélite para o mediante tarifas de suscripción. Para recibir el servicio de televisión interactiva el televidente tiene que arrendar o comprar un decodificador y que lo instale un técnico. La televisión del observador está conectada al decodificador, lo que le posibilita al observador interactuar con la televisión utilizando el control remoto y otros dispositivos de entrada, y recibir información, entretenimiento y servicios (por ejemplo propaganda, compras en línea, formas y encuestas, juegos y actividades, etc.).
Aunque la televisión interactiva convencional puede mejorar la experiencia de televisión del observador, subsiste la necesidad de aplicaciones sociales e interactivas para medios masivos que no tengan hardware significativo adicional o conexiones físicas entre la televisión o la radio y un decodificador o un ordenador.
Una aplicación de televisión social e interactiva que está faltando en los sistemas de televisión convencional e interactiva es la capacidad de suministrar información complementaria al canal de medio masivo sin mayor esfuerzo. Con los sistemas convencionales, un usuario tendría que entrar a un ordenador y consultar tal información lo que disminuiría la experiencia pasiva ofrecida por los medios masivos. Más aún, los sistemas de televisión convencionales no pueden suministrar información complementaria en tiempo real mientras que el usuario está viendo una difusión.
Otra aplicación de la televisión social e interactiva que está faltando con los sistemas de televisión interactivos convencionales es la capacidad de enlazar dinámicamente un observador con una comunidad social par nd hoc (por ejemplo un grupo de discusión, un sitio de conversación, etc.) en tiempo real. Imagine que usted está viendo el último episodio de "Friends" en televisión y descubre que el personaje "Monica" está embarazada. Usted quiere conversar, comentar o leer las respuestas de otros observadores a la escena en tiempo real. Una opción sería ingresar a su ordenador, digitar el nombre de "Friends" u otros términos relacionados en un motor de búsqueda, y efectuar una búsqueda para encontrar un grupo de discusión de "Friends." Tal acción requerida por el observador, sin embargo, disminuiría la experiencia pasiva ofrecida por los medios masivos y no le posibilitaría al observador interactuar dinámicamente (por ejemplo comentar, conversar, etc.) con otros observadores que están viendo el programa al mismo tiempo.
Otra deficiencia en los sistemas de televisión convencional y los sistemas de televisión interactiva es un método simple para evaluar la popularidad de los eventos de difusión. Las calificaciones de popularidad de los eventos de difusión son de mucho interés para los usuarios, difusores y anunciantes. Estas necesidades se resuelven parcialmente mediante sistemas de medición como las calificaciones de Nielsen®. Estas calificaciones, sin embargo, requieren la instalación de un equipo dedicado y de la cooperación de los observadores participantes.
El documento US 2004/0031058 A1 describe sistemas y métodos para navegar hipermedios utilizando múltiples conjuntos de dispositivos de entrada/salida coordinados. Los sistemas y métodos descritos le permiten al usuario y/o a un autor controlar que fuentes se presentan en que dispositivos (sea que estén integrados o no), y suministrar la coordinación de actividades de navegación para posibilitar que tal interfaz se emplee a través de múltiples sistemas independientes.
Yan Ke et al., "Computer Vision for Music Identification", Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, páginas 597-604, ISBN: 978/0/7695/2372-9, describe cómo ciertas tareas en el dominio de audio se pueden dirigir efectivamente utilizando aproximaciones de visión con ordenador. Este documento se enfoca en el problema de identificación de la música, donde la meta es identificar de manera confiable una canción dando unos pocos segundos de audio ruidoso. La aproximación trata el espectrograma de cada video musical como una imagen 2D y transforma la identificación de la música en un problema de recuperación de subimagen dañada.
2
El documento US 2004/0199387 A1 describe un método y un sistema que le permite a los usuarios identificar (pregrabar) sonidos tales como música, difusión de radio, comerciales, y otras señales de audio en casi cualquier ambiente. La señal de audio (o sonido) debe ser una grabación representada en una base de datos de grabaciones. El servicio puede identificar rápidamente la señal con solo unos pocos segundos de ejecución, mientras que se tolera alto ruido y distorsión. Una vez que el usuario identifica la señal, el usuario puede efectuar transacciones interactivamente en tiempo real o fuera de línea utilizando la información de identificación.
El documento US 2005/0147256 A1 describe un aparato que incluye un analizar acústico para identificar el audio ambiente recibido y un analizador de contenido. El analizador de contenido es para seleccionar el contenido asociado con el audio identificado para la presentación del contenido a un usuario. Se describen y reivindican otras realizaciones.
El documento US 2002/0133499 A1 describe un método para identificar rápida y precisamente un archivo digital, específicamente uno que represente un archivo de audio. La identificación se puede utilizar para hacer un seguimiento a los pagos de regalías a los propietarios de derechos de autor. Una base de datos almacena características de varios archivos de audio y un identificador globalmente único (GUID) para cada archivo. De manera ventajosa, el método permite que sea actualizada una base de datos en el caso de un nuevo archivo de audio al almacenar sus características y generar un nuevo identificador único para el nuevo archivo. El archivo de audio es muestreado para generar una huella que utiliza los residuos del espectro y transforma el tren de ondas de Haar. De manera ventajosa cualquier marca utilizada para el trabajo es actualizada automáticamente si parece haber un error.
Resumen
Las deficiencias descritas anteriormente son manejadas por el sistema reivindicado, el método y el producto de programa de ordenador.
Descripción de los dibujos
La FIGURA 1 es un diagrama de bloque de una realización de sistema de personalización masivo.
La FIGURA 2 ilustra una realización de un sistema de identificación de audio ambiente, que incluye la interfaz del lado del cliente mostrada en la FIGURA .1.
La FIGURA 3 es un diagrama de flujo de un ejemplo de un proceso para proporcionar aplicaciones de personalización masiva.
La FIGURA 4 es un diagrama de flujo de un ejemplo de un proceso de establecimiento de huella de audio.
La FIGURA 5 es un diagrama de flujo de una realización de una interfaz de usuario para interactuar con aplicaciones de personalización masivas.
La FIGURA 6 es un diagrama de bloque de una realización de la arquitectura de hardware para un sistema de cliente para ejecutar la interfaz del lado del cliente mostrada en la FIGURA .1.
La FIGURA 7 es un diagrama de flujo de una realización de un proceso de detección de repetición.
Descripción detallada
Aplicaciones de personalización masivas
Las aplicaciones de personalización masivas suministran información personalizada e interactiva relacionada con las difusiones de medios masivos (por ejemplo televisión, radio, cine, difusiones de Internet, etc.). Tales aplicaciones incluyen pero no se limitan a: capas de información personalizada, comunidades sociales pares ad hoc, calificaciones de popularidad en tiempo real y marcadores de video (o audio), etc. Aunque algunos de los ejemplos de medios masivos descritos aquí están en el contexto de difusiones de televisión, las ejecuciones descritas son igualmente aplicables a difusiones de radio y/o música.
Las capas de información personalizada suministran información complementaria al canal de medios masivos. Ejemplos de capas de información personalizada incluyen pero no se limitan a: moda, política, negocios, salud, viajes, etc. Por ejemplo, mientras se ve un nuevo segmento de una celebridad, se presenta una capa de moda al observador en una pantalla de televisión o en un dispositivo de pantalla de un ordenador, que suministre información y/o imágenes relacionadas con las prendas y accesorios que está vistiendo la celebridad en el segmento de noticias. Adicionalmente, las capas personalizadas pueden incluir propaganda que promueva productos o servicios con el segmento de noticias, tal como un enlace a un almacén de ropa que está vendiendo prendas que la celebridad está vistiendo.
Las comunidades sociales pares ad hoc suministran un sitio para comentarios entre usuarios que estén viendo la misma presentación de televisión o escuchando la misma estación de radio. Por ejemplo, un usuario que esté viendo los últimos titulares de CNN se le puede dar un medio con comentario (por ejemplo un sitio de conversación, un tablero de mensajes, una página wiki, un enlace de video, etc.) que le permita al usuario conversar, comentar o leer las respuestas de otros observadores a la difusión de medios masivos en desarrollo.
Las calificaciones de popularidad en tiempo real le suministra a los proveedores de contenido y a los usuarios una información de calificaciones (similar a las calificaciones de Nielsen). Por ejemplo, a un usuario se le puede suministrar de manera instantánea calificaciones de popularidad en tiempo real de los canales de televisión o de las estaciones de radio que están viendo o escuchando o de la red social del usuario y/o la gente con similar demografía.
Las marcas de video o audio les da a los usuarios maneras con poco esfuerzo de crear bibliotecas personalizadas de su contenido de difusión favorito. Por ejemplo, un usuario puede simplemente presionar un botón sobre un ordenador o un dispositivo de control remoto y un fragmento de código de un audio ambiente y/o video de un contenido de difusión que está siendo grabado, procesado y guardado. El fragmento de código se puede utilizar como una marca para referirse al programa, o a porciones del programa, para observación posterior. La marca se puede compartir con amigos o guardarse para futura referencia personal.
Redes de Personalización Masivas
La FIGURA 1 es un diagrama de bloque de sistema de personalización masivo 100 para proporcionar aplicaciones de personalización masivas. El sistema 100 incluye una o más interfaces del lado del cliente 102, un servidor de base de datos de audio 104 y un servidor para una aplicación social 106, todas las cuales se comunican sobre una red 108 (por ejemplo, la Internet, una intranet, LAN, red inalámbrica, etc.).
Una interfaz de cliente 102 puede ser cualquier dispositivo que le permita a un usuario que le permita a un usuario ingresar y recibir información, y que es capaz de presentar una interfaz de usuario en un dispositivo de pantalla, que incluye pero no se limita a: un ordenador de mesa o portátil; un dispositivo electrónico; un teléfono, un teléfono móvil; un sistema de pantalla, una televisión, un monitor de ordenador; un sistema de navegación; un reproductor/grabador de medios portátil, un ayudante digital personal (PDA); una consola de juegos; un dispositivo electrónico manual; y un dispositivo o aparato electrónico embebido. La interfaz de cliente 102 se describe más completamente con respecto de la FIGURA 2.
La interfaz de cliente 102 incluye un detector de audio ambiente (por ejemplo, un micrófono) para supervisar y registrar el audio ambiente de una difusión de medios masivos en un ambiente de difusión (por ejemplo, una sala del usuario). Uno o más segmentos de audio ambiente o "fragmentos de códigos" se convierten en resúmenes estadísticos distintivos y robustos, denominados como "huellas de audio" o "descriptores." En algunos ejemplos, los descriptores son archivos comprimidos que contienen unos componentes de firma audio que se pueden comparar con una base de datos de los descriptores de referencia previamente generados o estadísticas asociadas con la difusión de medios masivos.
Una técnica para generar huellas de audio para identificación de música se describe en Ke, Y., Hoiem, D., Sukthankar,
R. (2005), Computer Vision for Music Identification, In Proc. Computer Vision and Pattern Recognition. En algunas ejecuciones, el método de identificación de música propuesto por (en lo sucesivo "Ke et al.") se adapta para generar descriptores para datos de audio para televisión y consultas, como se describió con respecto a la FIGURA 4.
Una técnica para generar descriptores de audio utilizando trenes de ondas se describe en la Solicitud de Patente Provisional Estadounidense No. 60/823,881, para "Audio Identification Based on Signatures." Esta solicitud describe una técnica que utiliza una combinación de visión por ordenador y unos algoritmos de procesamiento de corriente de datos a gran escala para crear descriptores/huellas compactas de fragmentos de código de audio y se pueda hacer corresponder eficientemente. La técnica utiliza trenes de ondas, que es una herramienta matemática conocida para funciones de jerárquicamente descompuestas.
En "Identificación de Audio con Base en Firmas," una implementación de un proceso de recuperación incluye las siguientes etapas: 1) dado el espectro de audio de un fragmento de código de audio, las imágenes espectrales de extracto de, por ejemplo, 11.6*w ms de duración, con un promedio de espaciamiento aleatorio separado d-ms. Para cada imagen espectral: 2) computar los trenes de onda de la imagen espectral; 3) extraer los trenes de onda superiores t; 4) crear una representación binaria de los trenes de onda superiores t; 5) utilizar “min-hash” para crear una subhuella de los trenes de onda superiores t; 6) utilizar LSH con compartimientos b y tablas “hash” para encontrar segmentos de subhuella que se hagan corresponder cercanamente; 7) descargar subhuellas con menos de “v” correspondencias; 8)
computar una distancia Hamming desde las subhuellas candidatas restantes a la subhuella de consulta; y 9) utilizar programación dinámica para combinar las correspondencias durante el tiempo.
En algunos ejemplos, los descriptores y un identificador de usuario asociado ("usuario id") para identificar la interfaz del lado del cliente 102 se envían al servidor de la base de datos de audio 104 por medio de la red 108. El servidor de la base de datos de audio 104 compara el descriptor con una pluralidad de descriptores de referencia, que se determinaron y almacenaron previamente en una base de datos de audio 110 acoplada al servidor de la base de datos de audio 104. En algunos ejemplos, el servidor de la base de datos de audio 104 actualiza continuamente los descriptores de referencia almacenados en la base de datos de audio 110 desde las difusiones de medios masivos recientes.
El servidor de la base de datos de audio 104 determina las mejores correspondencias entre los descriptores recibidos y los descriptores de referencia y envía la información de la mejor correspondencia al servidor de aplicación social 106. El proceso de correspondencia se describe más completo con respecto a la FIGURA 4.
En algunas ejecuciones, el servidor de aplicación social 106 acepta conexiones de navegador de la red asociados con la interfaz del lado del cliente 102. Utilizando la información de mejor correspondencia, el servidor de aplicación social 106 agrega información personalizada para el usuario y envía la información personalizada a la interfaz del lado del cliente
102. La información personalizada puede incluir pero no se limita a: propagandas, capas de información personalizada, calificaciones de popularidad, e información asociada con un medio en comento (por ejemplo, comunidades sociales pares ad hoc, foros, grupos de discusión, conferencias de video, etc.).
La información personalizada se utiliza para crear una sala de conversación para los observadores sin conocer el espectáculo que los observadores están viendo en tiempo real. Las salas de conversación se crean al comparar directamente los descriptores en las corrientes de datos transmitidas por los sistemas de cliente para determinar las correspondencias. Es decir, las salas de conversación se pueden crear alrededor de observadores que tienen los descriptores que se corresponden. No existe necesidad de comparar los descriptores recibidos de los observadores contra los descriptores de referencia.
En algunas ejecuciones, el servidor de aplicación social 106 sirve como una página de red a la interfaz del lado del
cliente 102, que se recibe y despliega mediante un navegador de red (por ejemplo, Microsoft Internet Explorer™) que
corre en la interfaz del lado del cliente 102. El servidor de aplicación social 106 también recibe la id del usuario desde la interfaz del lado del cliente 102 y/o el servidor de la base de datos de audio 104 para ayudar a agregar contenido personalizado y servir las páginas de red a la interfaz del lado del cliente 102.
Debe ser evidente que son posibles otras implementaciones del sistema 100. Por ejemplo, el sistema 100 puede incluir múltiples base de datos de audio 110, servidores de la base de datos de audio 104 y/o servidores de aplicación social
106. Alternativamente, el servidor de la base de datos de audio 104 y el servidor de aplicación social 106 puede ser un servidor o sistema único, o parte de un recurso de red y/o servicio. También, la red 108 puede incluir múltiples redes y enlaces acoplados operativamente en varias topologías y disposiciones que utilizan una variedad de dispositivos de red (por ejemplo, concentradores, enrutadores, etc.) y medios (por ejemplo, cobre, fibra óptica, radiofrecuencias, etc.). Las arquitecturas del servidor del cliente se describen solamente como un ejemplo. Son posibles otras arquitecturas de ordenador.
Sistema de Identificación de Audio Ambiente
La FIGURA 2 ilustra un sistema de identificación de audio ambiente 200, que incluye una interfaz del lado del cliente 102 como se muestra en la FIGURA 1. El sistema 200 incluye un sistema de medios masivos 202 (por ejemplo, un aparato de televisión, radio, ordenador, dispositivo electrónico, teléfono móvil, consola de juegos, dispositivos de red, etc.), un detector de audio ambiente 204, una interfaz del lado del cliente 102 (por ejemplo, un ordenador de mesa o portátil, etc.) y un dispositivo de acceso a la red 206. En algunas ejecuciones, la interfaz del lado del cliente 102 incluye un dispositivo de pantalla 210 para presentar una interfaz de usuario (UI) 208 para permitir que un usuario interactúe con una aplicación de personalización masivo, como se describe con respecto a la FIGURA 5.
En operación, el sistema de medios masivos 202 genera audio ambiente de una difusión de medios masivos (por ejemplo, audio de televisión), que se detecta mediante el detector de audio ambiente 204. El detector de audio ambiente 204 puede ser cualquier dispositivo que puede detectar el audio ambiente, que incluye un micrófono libre de base y un micrófono que se integra con la interfaz del lado del cliente 102. El audio ambiente detectado se codifica por la interfaz del lado del cliente 102 para suministrar descriptores que identifican el audio ambiente. Los descriptores se transmiten al servidor de la base de datos de audio 104 por medio del dispositivo de acceso a la red 206 y la red 108.
En algunas ejecuciones, el software del cliente que corre en la interfaz del lado del cliente 102 monitorea continuamente y registra los archivos de audio de n segundos (por ejemplo, 5 segundos) ("fragmentos de códigos") de audio ambiente. Los fragmentos de códigos luego se convierten en m cuadros (por ejemplo, 415 cuadros) de los descriptores codificados de k-bit (por ejemplo, 32-bits), de acuerdo con un proceso descrito con respecto a la FIGURA 4. En algunas ejecuciones, el monitoreo y el registro están basados en el evento. Por ejemplo, el monitoreo y el registro se puede iniciar automáticamente en una fecha específica y en un momento específico (por ejemplo, Lunes, 8:00 P.M.) y durante un tiempo de duración específico (por ejemplo, entre 8:00-9:00 P.M.). Alternativamente, el monitoreo y el registro se pueden iniciar en respuesta al ingreso del usuario (por ejemplo, una pulsación del ratón, clave de función o combinación de clave) desde un dispositivo de control (por ejemplo, un control remoto, etc.). En algunas ejecuciones, el audio ambiente se codifica utilizando una variación de corriente de características discriminantes de cuadro de 32-bit descrita en Ke et al.
En algunas ejecuciones, el software de cliente corre como una “barra lateral” u otro elemento de interfaz de usuario. Es decir, cuando la interfaz del lado del cliente 102 es arrancada, el muestreo del audio ambiente puede iniciar inmediatamente y correr el “trasfondo” con resultados (opcionalmente) que son desplegados en la barra lateral sin invocar una sección de navegador de la referencia.
En algunas ejecuciones, el muestreo del audio ambiente puede iniciar cuando la interfaz del lado del cliente 102 es arrancada o cuando se registra en un servicio o aplicación (por ejemplo, correo electrónico, etc.)
Los descriptores se envían al servidor de la base de datos de audio 104. En algunas ejecuciones, los descriptores son resúmenes estadísticos comprimidos del audio ambiente, descritos en Ke et al. Al enviar los resúmenes estadísticos, la privacidad acústica del usuario se mantiene porque los resúmenes estadísticos no son reversibles, es decir, el audio original no se puede recuperar del descriptor. Así, cualquier conversación del usuario u otros individuos monitoreada y grabada en el ambiente de difusión no se puede reproducir del descriptor. En algunas ejecuciones, los descriptores se pueden encriptar para privacidad y seguridad extra utilizando una o más de las técnicas de encriptación conocida (por ejemplo, encriptación con clave asimétrica o simétrica, encriptación elíptica, etc.).
En algunas ejecuciones, los descriptores se envían al servidor de la base de datos de audio 104 como un envío de consulta (también denominado como un descriptor de consulta) en respuesta a un evento disparador detectado por el proceso de monitoreo en la interfaz del lado del cliente 102. Por ejemplo, un evento disparador puede ser el tema de apertura de un programa de televisión (por ejemplo la sintonización de apertura de “Seinfeld”) o los diálogos hechos por los actores. En algunas ejecuciones, los descriptores de consulta se pueden enviar al servidor de la base de datos de audio 104 como parte de un proceso en corriente continua. En algunas ejecuciones, los descriptores de consulta se pueden transmitir al servidor de la base de datos de audio 104 en respuesta al ingreso del usuario (por ejemplo, por medio del control remoto, pulsaciones de ratón, etc.).
Proceso de Personalización Masivo
LA FIGURA 3 es un diagrama de flujo de un proceso de personalización masivo 300. Las etapas del proceso 300 no tienen que ser completadas en un orden particular y al menos algunas etapas se pueden efectuar al mismo tiempo en un ambiente multihilado o de procesamiento paralelo.
El proceso 300 comienzo cuando la interfaz del lado del cliente (por ejemplo, interfaz del lado del cliente 102) monitorea y registra los fragmentos de códigos de audio ambiente de una difusión de medios masivos en un ambiente de difusión (302). Los fragmentos de códigos del audio ambiente grabado se codifican en los descriptores (por ejemplo, resúmenes estadísticos comprimidos), que se pueden enviar a un servidor de base de datos de audio (304) como consultas. El servidor de la base de datos de audio compara las consultas contra una base de datos de los descriptores de referencia calculada de las estadísticas de difusión de medios masivos para determinar los descriptores candidatos que mejor se correspondan con la consulta (308). Los descriptores candidatos se envían a un servidor para una aplicación social o a otro recurso de red, que utiliza los descriptores candidatos para agregar información personalizada para el usuario (310). Por ejemplo, si el usuario está viendo el programa de televisión "Seinfeld," los descriptores de consulta generados del audio ambiente del programa se corresponderán con los descriptores de referencia derivados de las difusiones de "Seinfeld" previas. Así, los descriptores candidatos que se correspondan mejor se utilizan para agregar información personalizada que se relaciona con "Seinfeld" (por ejemplo, nuevas historias, grupos de discusión, enlaces a comunidades sociales pares ad hoc o salas de conversación, propagandas, etc.). En algunos ejemplos el procedimiento de correspondencia se efectúa eficientemente utilizando técnicas “hashing” (por ejemplo ”hashing” directo o ”hashing” sensible al sitio (LSH)) para lograr una lista corta de descriptores candidatos, como se describió con respecto a la FIGURA 4. Los descriptores candidatos luego se procesan en un procedimiento de validación, tal como se describió en Ke et al.
Los descriptores de consulta de los diferentes observadores se corresponden directamente en lugar de hacer corresponder cada consulta con una base de datos de los descriptores de referencia. Esto permite la creación de comunidades sociales pares ad hoc sobre la materia objeto para lo cual no está disponible una base de datos de los descriptores de referencia. Tal realización se puede hacer coincidir con los observadores en tiempo real que estén en la misma forma pública (por ejemplo, estadio, bar, etc.) utilizando dispositivos electrónicos portátiles (por ejemplo, teléfonos móviles, PDA, etc.).
Calificaciones de Popularidad
En algunas ejecuciones, las estadísticas en tiempo real y agregadas se infieren de una lista de observadores que están viendo en el momento la difusión (por ejemplo, programa, publicidad, etc.). Estas estadísticas se pueden recoger en el transfondo mientras que los observadores están utilizando otras aplicaciones. Las estadísticas pueden incluir pero no se limitan a: 1) el número promedio de observadores que ven la difusión; 2) el número promedio de veces que los observadores ven la difusión; 3) otros programas que ven los observadores; 4) el número mínimo y pico de observadores; 5) lo que más a menudo los observadores cambiaron cuando ellos dejaron una difusión; 6) que tanto ven una difusión los observadores; 7) cuantas veces los observadores cambian de canal; 8) que publicidad es vista por los observadores; y 9) lo que los observadores más a menudo cambian cuando ingresan a una difusión, etc. De estas estadísticas, se puede determinar una o más calificaciones de popularidad.
Las estadísticas utilizadas para generar las calificaciones de popularidad se pueden generar utilizando un contador para cada canal de difusión que está siendo monitoreado. En algunas ejecuciones, los contadores se pueden intersectar con datos de un grupo demográfico o con datos de un grupo geográfico. Las calificaciones de popularidad se pueden utilizar por los observadores para “ver lo que es más visto” mientras que la difusión está ocurriendo (por ejemplo, al notar una calificación creciente durante las presentaciones de mitad de tiempo del “Super Bowl” del 2004). Los anunciantes y
proveedores de contenidos también pueden utilizar calificaciones de popularidad para ajustar dinámicamente el material mostrado en respuesta a las calificaciones. Esto es especialmente cierto para la publicidad, en razón a que la longitud unitaria corta y numerosas versiones de la publicidad generada de las campañas publicitarias son fácilmente intercambiadas para ajustar a los niveles de calificación del observador. Otros ejemplos de las estadísticas incluyen pero no se limitan a: popularidad de una difusión de televisión versus la difusión de radio por demografía o tiempo, la popularidad de los momentos del día, es decir los momentos pico de observación/escucha, el número de casas en un área dada, la cantidad de cambio de canales durante un programa particular (género de programas, momentos particulares del día), volumen de la difusión, etc.
La información personalizada se envía a la interfaz del lado del cliente (312). Las calificaciones de popularidad también se pueden almacenar en una base de datos para uso de otros procesos (318), tal como el ajuste dinámico de la publicidad descrita anteriormente. La información personalizada se recibe en la interfaz del lado del cliente (314) en donde se formatea y se presenta en una interfaz de usuario (316). La información personalizada se puede asociar con un medio de comentario (por ejemplo, mensajes de texto en una sala de conversación) que se presenta al usuario en una interfaz de usuario. En algunas ejecuciones, una sala de conversación puede incluir uno o más subgrupos. Por ejemplo, un grupo de discusión para "Seinfeld" podría incluir un subgrupo denominado "Expertos en Seinfeld," o un subgrupo se puede asociar con una demografía particular, tal como las mujeres entre edades de 20-30 que ven "Seinfeld," etc.
En algunas ejecuciones, la información bruta (por ejemplo, valores de contador) utilizada para generar las estadísticas de las calificaciones de popularidad se recolecta y almacena en la interfaz del lado del cliente en lugar del servidor de aplicación social. La información bruta se puede transferir al difusor cuando quiera que el usuario esté en línea y/o invoque una aplicación de personalización masiva.
En algunas ejecuciones, se instala una caja de medición de difusión (BMB) en la interfaz del lado del cliente. El BMB puede ser un dispositivo de hardware simple que es similar a un decodificador pero que no se conecta al dispositivo de difusión. A diferencia del sistema de calificación de Neilsen, que requiere que el hardware sea instalado en la televisión, el BMB se puede instalar cerca al sistema de medios masivos o dentro de un rango de señal de televisión. En algunas ejecuciones, el BMB graba automáticamente los fragmentos de códigos de audio y genera descriptores, que se almacenan en la memoria (por ejemplo, medio flash m). En algunas ejecuciones, el BMB puede incluir opcionalmente uno o más botones de hardware que puede presionar un usuario para indicar que difusión está viendo (similar a las calificaciones Neilsen®). El dispositivo BMB puede ser recogido por el proveedor de calificaciones de vez en cuando para recolectar los descriptores almacenados, o el BMB puede difundir los descriptores almacenados a una o más partes interesadas en una conexión de red (por ejemplo, teléfono, Internet, radio inalámbrico, tal como radio SMS/portadores, etc.) de vez en cuando.
En algunas ejecuciones, la publicidad se puede monitorear para determinar los efectos de los anuncios, que se pueden reportar a los anunciantes. Por ejemplo, que anuncios fueron vistos, no tenidos en cuenta, el nivel de volumen de los anuncios, etc.
En algunas ejecuciones, un dispositivo de captura de imágenes (por ejemplo, una cámara digital, una grabadora de video, etc.) se puede utilizar para medir cuantos observadores están viendo o escuchando una difusión. Por ejemplo, varios algoritmos con correspondencia de patrón conocidos se pueden aplicar a una imagen a una secuencia de imágenes para determinar el número de observadores presentes en un ambiente de difusión durante una difusión particular. Las imágenes y los datos derivados de las imágenes se pueden utilizar en combinación con los descriptores de audio para recoger la información personalizada para un usuario, calcular las calificaciones de popularidad, o para cualquier otro propósito.
Proceso de Estampado de Huella de Audio
La FIGURA 4 es un diagrama de flujo del proceso de estampado de huella de audio 400. Las etapas del proceso 400 no tienen que ser completadas en ningún orden particular y al menos algunas etapas se pueden efectuar al mismo tiempo en un ambiente de procesamiento multihilado o paralelo. El proceso 400 se corresponde con los descriptores de consulta generados por la interfaz del lado del cliente (por ejemplo, interfaz del lado del cliente 102) a los descriptores de referencia almacenados en una o más bases de datos en tiempo real y con baja latencia. El proceso 400 adapta una técnica propuesta por Ke et al. para manejar los datos de audio ambiente (por ejemplo, de una difusión de televisión) y consultas.
El proceso 400 inicia en una interfaz del lado del cliente al descomponer fragmentos de códigos del audio ambiente (por ejemplo, 5-6 segundos de audio) de una difusión de medios masivos capturada por un detector de audio ambiente (por ejemplo, micrófono) en cuadro que se traslapa (402). En algunos ejemplos, los cuadros se separan mediante varios milisegundos (por ejemplo, 12 ms aparte). Cada cuadro se convierte en un descriptor (por ejemplo, un descriptor de 32bit) que se entrena para superar el ruido de audio y la distorsión (404), como se describe en Ke et al. En algunos ejemplos, cada descriptor representa un resumen estadístico de identificación del fragmento de código de audio.
En algunos ejemplos, los descriptores se pueden enviar como fragmentos de códigos de consulta (también denominado como descriptores de consulta) a un servidor de base de datos de audio donde coinciden con una base de datos de los descriptores de referencia que identifican resúmenes estadísticos de los fragmentos de códigos de audio registrados previamente de la difusión de medios masivos (406). Se puede determinar una lista de los descriptores candidatos que tengan las mejoras correspondencias (408). Los descriptores candidatos se pueden calificar, de tal manera que los descriptores candidatos que son temporalmente consistentes con el descriptor de consulta tienen mayor calificación que los descriptores candidatos que son temporalmente menos consistentes con el descriptor de consulta (410). Los descriptores candidatos con la más alta calificación (por ejemplo, una calificación que excede un valor de un umbral suficientemente alto) se transmiten o de otra manera se suministran a un servidor para una aplicación social (412) donde ellos se pueden utilizar para agregar información personalizada relacionada con la difusión de medios. Utilizando un umbral se asegura que los descriptores tengan una suficiente correspondencia antes de que los descriptores sean transmitidos o suministrados de otra manera al servidor de aplicación social (412).
En algunos ejemplos, la base de datos de los descriptores de referencia se puede generar de las difusiones dadas por varias compañías de medios, que se pueden indizar y utilizar para generar los descriptores. En otros ejemplos, los descriptores de referencia también se pueden generar utilizando guías de televisión u otros metadatos y/o información embebida en la señal de difusión.
En algunas ejecuciones, la tecnología de reconocimiento de habla se puede utilizar para ayudar a identificar que programa se está viendo. Dicha tecnología podría ayudar a los usuarios a discutir nuevos eventos en lugar de solo programas de televisión. Por ejemplo, un usuario podría ver el lanzamiento de un trasbordador en una canal diferente de otro observador y, por lo tanto, posiblemente conseguir una señal de audio diferente (por ejemplo debido a un presentador diferente). La tecnología de reconocimiento de voz se podría utilizar para reconocer palabras clave (por ejemplo, Trasbordador, lanzamiento, etc.), que se puede utilizar para enlazar el usuario con un medio que lo comente.
Descriptores de “Hashing”
Ke et al. utiliza técnicas de visión de ordenador para encontrar estadísticas concretas altamente discriminadas de audio. Su procedimiento entrenado en pares marcados de ejemplos positivos (en donde x y x’ son versiones ruidosas del mismo audio) y ejemplos negativos (en donde x y x’ son de diferente audio). Durante esta fase de entrenamiento, la
técnica de aprendizaje de máquina basada en amplificación utiliza los pares marcados para seleccionar una combinación de 32 filtros y umbrales que crean conjuntamente una estadística altamente discriminada. Los filtros localizan los cambios en la magnitud del estrograma, utilizando primeras y segundas diferencias de orden en el tiempo y frecuencia. Un beneficio de utilizar estos filtros de diferencia simple es que se pueden calcular eficientemente utilizando una técnica de imagen integral descrita en Viola, P. and Jones, M. (2002), Robust Real-Time Object Detection, International Journal of Computer Vision.
En algunas ejecuciones, las salidas de estos 32 filtros son umbrales, dado un bit único por filtro en cada cuadro de audio. Estos 32 umbrales resultan de solamente descriptores transmitidos de aquel cuadro de audio. Este sobrante de codificación asegura la privacidad del usuario a escucha no autorizada. Además, estos descriptores de 32 bits son robustos a las distorsiones de audio en los datos de entrenamiento, de tal manera que ejemplos positivos (por ejemplo cuadros de correspondencia) tienen pequeñas distancias Hamming (es decir la distancia que mide diferentes números de bits) y ejemplos negativos (por ejemplo cuadros que no se corresponden) tienen grandes distancias Hamming. Cabe notar se pueden utilizar más o menos filtros y más de un bit por filtro se puede utilizar en cada cuadro de audio (por ejemplo más bits que utilizan múltiples pruebas de umbral).
En algunas ejecuciones, el descriptor de 32 bits propiamente dicho se utiliza como una clave “hash” para un “hashing” directo. El descriptor es una función “hash” bien balanceada. Las tasas de recuperación se mejoran además al solicitar no solamente el destructor de consulta sino también un pequeño conjunto de destructores similares (hasta una distancia Hamming de 2 desde el descriptor de consulta original).
Consistencia Temporal Dentro de la Consulta
Una vez que los descriptores de consulta tienen correspondencia con la base de datos de audio que utiliza el procedimiento de “hashing”, las correspondencias con validadas para determinar cuál de las bases de datos que regresa las respuestas son correspondencias precisas. De otra manera, un descriptor candidato podría tener muchos cuadros con correspondencia al descriptor de consulta pero con una estructura temporal equivocada.
En algunas ejecuciones, la validación se logra al visualizar cada respuesta de la base de datos como soporte para una correspondencia en un desfase de la fase de datos de consulta específica. Por ejemplo, si el descriptor 8 (q8) en un fragmento de código de consulta de "Seinfeld" con un largo de 415 cuadros de 5 segundos, q, da el descriptor de 1008 ésima base de datos (x1008), esto soporta una correspondencia del candidato entre la consulta de 5 segundos y los cuadros 1001 a 1415 en la base de datos de audio. Otras correspondencia entre el qn y x1000+in, (1 ≤ n ≤ 415) soportaría esta misma correspondencia del candidato.
Además de la consistencia temporal, necesitamos contar los cuadros cuando las conversaciones apagan temporalmente el audio ambiente. Este se puede modelar como un interruptor exclusivo entre el audio ambiente y los sonidos de interferencia. Para cada cuadro de consulta i, existe una variable oculta, yi: si yi=0, el cuadro iésimo de la consulta se modela como interferencia solamente; si yi=1, el cuadro iésimo se modela desde un audio ambiente limpio. Tomando una visión extrema (ambiente puro o interferencia pura) se justifica por la precisión extremadamente baja con la cada cuadro de audio está representado (32 bits) y suavizado al suministrar probabilidades de bit-flop adicionales
para cada una de las 32 posiciones del vector de cuadro bajo cada una de las dos hipótesis (yi=0 y yi=1). Finalmente, modelamos las transiciones entre cuadros entre los estados de solo ambiente y solo interferencias como un proceso Markov de primer orden oculto, con las probabilidades de transición derivadas de los datos de entrenamiento. Por ejemplo, podemos reutilizar el modelo de probabilidad de 66 parámetros dado Ke et al., CVPR 2005.
El modelo final de la probabilidad de correspondencia entre el vector de consulta, q, y, un vector de base de datos ambiente en un desfase de N cuadros, xN, es:
en donde < qn, xm > denota las diferencias de bit entre los vectores de cuadro de 32 bits qn y xm. Este modelo incorpora tanto la restricción de consistencia temporal como el modelo Markov oculto ambiente/interferencia.
Filtro de Consistencia Post-Correspondencia
La gente a menudo habla con otros mientras que ve televisión, dando como resultado una interferencia acústica esporádica pero fuerte, especialmente cuando utiliza micrófonos de los portátiles para muestrear el audio ambiente. Dado que la mayoría de las expresiones de conversación son de 2 y 3 segundos de duración, intercambio de comunicación simple entre los observadores podría generar una consulta de 5 segundos no reconocible.
En algunas ejecuciones, se utiliza filtrado post-correspondencia para manejar estas faltas de correspondencia de baja confianza intermitentes. Por ejemplo, podemos utilizar un modelo Markov oculto de tiempo continuo de un canal que cambia con un tiempo de vida esperado (es decir el tiempo entre cambio de canales) de L segundos. El servidor de aplicación social 106 indica la correspondencia de más alta confianza dentro del pasado reciente junto con su confianza “discontinua” como parte de la información de estado asociada con cada sesión de cliente. Utilizando esta información el servidor 106 selecciona la correspondencia del índice de contenido del pasado reciente o la coincidencia del índice corriente, con base en aquello que tenga la mayor confianza.
Utilizamos Mh y Ch para referirnos a la mejor correspondencia para la etapa de tiempo previa (hace 5 segundos) y su calificación de confianza de la probabilidad de ingreso. Si nosotros simplemente aplicamos el modelo Markov a esta mejor coincidencia previa, sin tomar otra observación, entonces nuestra expectativa es que la mejor correspondencia para el tiempo corriente es aquella misma para la secuencia de programa, solo 5 segundos adicionales, y nuestra confianza a esa expectativa es de Ch- l/ L, en donde l =5 segundos es la etapa del tiempo de consulta. Este descuento de l/ L en la probabilidad de entrada corresponde a la probabilidad del modelo Markov, e= l/ L, de no cambiar canales durante la etapa con un tiempo de duración I.
Una hipótesis alternativa se genera por la correspondencia de audio para la consulta corriente. Utilizamos Mo para referirnos a la mejor correspondencia para el fragmento de código de audio corriente: esto es, la correspondencia que se genera por el proceso de estampado de huella de audio 400. Co es la calificación de confianza de la probabilidad de entrada dada por el proceso de estampado de huella de audio 400.
Si estas dos correspondencias (la expectativa histórica actualizada y la observación del fragmento de código corriente) dan diferentes correspondencias, seleccionamos la hipótesis con mayor calificación de confianza:
en donde M0 es la correspondencia que se utiliza por el servidor de aplicación social 106 para seleccionar el contenido relacionado y Mo y Co son llevados adelante a la siguiente etapa de tiempo como Ml, y Ch.
Interfaz de Usuario
La FIGURA 5 es un diagrama de flujo de una realización de una interfaz de usuario 208 para interactuar con aplicaciones de personalización masivas. La interfaz de usuario 208 incluye un área de pantalla de capa personalizada 502, un área de pantalla con medio de comentario 504, un área de pantalla con enlaces patrocinados 506 y un área de pantalla de contenido 508. El área de pantalla de capa personalizada 502 proporciona información complementaria y/o imágenes relacionadas con el contenido de video mostrado en el área de pantalla de contenido 508. Las capas personalizadas se pueden navegar utilizando una barra de navegación 510 y un dispositivo de entrada (por ejemplo, un ratón o un control remoto). Cada capa tiene una marca asociada en la barra de navegación 510. Por ejemplo, si el usuario selecciona la marca "Moda", entonces la capa de moda, que incluye contenido relacionado con la moda asociado con "Seinfeld," se presentará en el área de pantalla 502.
En algunas ejecuciones, la interfaz del lado del cliente 102 incluye un dispositivo de pantalla 210 capaz de presentar la interfaz de usuario 208. En algunas ejecuciones, la interfaz de usuario 208 es una página de red interactiva servida por el servidor de aplicación social 106 y presentada en una ventana del navegador en el dispositivo de pantalla 210. En algunas ejecuciones, la interfaz de usuario 208 es persistente y estará disponible para interacción después del audio de difusión utilizado en el proceso de correspondencia de contenido que ha cambiado con el tiempo. En algunas ejecuciones, la interfaz de usuario 208 es dinámicamente actualizado durante el tiempo o en respuesta a un evento de disparo (por ejemplo el ingreso de nuevas personas a la sala de conversación, el inicio de comerciales, etc.). Por ejemplo, cada vez que un comercial es difundido, el área de pantalla con enlaces patrocinados 506 se puede actualizar con enlaces frescos 518 relacionados con la materia objeto del comercial.
En algunas ejecuciones, la información personalizada y los enlaces patrocinados se pueden enviar por correo al observador o ser mostrados en la barra lateral un momento después.
En algunas ejecuciones, la interfaz del lado del cliente 102 recibe información personalizada desde el servidor de aplicación social 106. La información puede incluir una página de red, correo electrónico, un tablero de mensajes, enlaces, mensajes instantáneos, una sala de conversación, o una invitación a unirse a un grupo de discusión en
proceso, “eRoom”, video conferencia o encuentros en la red, llamadas de voz (por ejemplo, Skype®), etc. En algunas
ejecuciones, la interfaz de usuario 208 proporciona acceso a comentarios y/o enlaces a comentarios de discusiones o películas previamente vistas. Por ejemplo, si el usuario está viendo actualmente un DVD de "Shrek" el puede querer ver lo que la gente dijo acerca de la película del pasado.
En algunas ejecuciones, el área de pantalla 502 incluye una región de calificación 512, que se utiliza para visualizar calificaciones de popularidad relacionadas con una difusión. Por ejemplo, el área de pantalla 512 puede mostrar como diferentes observadores están en este momento viendo "Seinfeld" comparado con otro programa de televisión que está siendo difundido al mismo tiempo.
En algunas ejecuciones, el área de pantalla con medio de comentario 504 presenta un ambiente tipo sala de conversación en donde múltiples usuarios pueden comentar acerca de las difusiones. En algunas ejecuciones, el área de pantalla 504 incluye un cuadro texto 514 para ingresar los comentarios que son enviados a la sala de conversación utilizando el mecanismo de entrada 516 (por ejemplo, un botón).
El área de pantalla con enlaces patrocinados 506 incluye información, imágenes y/o enlaces relacionados con las propagandas que se asocian con la difusión. Por ejemplo, uno de los enlaces 518 puede llevar al usuario a un sitio de red que está vendiendo mercancía de "Seinfeld".
El área de pantalla de contenido 508 es en donde se visualiza el contenido de difusión. Por ejemplo, una escena de la difusión corriente se puede visualizar con otra información relevante (por ejemplo, el número de episodio, título, inserción de la marca de tiempo etc.). En algunas ejecuciones, el área de pantalla 508 incluye controles 520 (por ejemplo, botones de desplazamiento) para navegar a través del contenido visualizado.
Marcadores de Video
En algunas ejecuciones, se incluye un botón 522 en el área de pantalla de contenido que se puede utilizar para marcar video. Por ejemplo, al pulsar el botón 522, el episodio de "Seinfeld" mostrado en el área de pantalla 508 se agrega a la biblioteca de video de los favoritos del usuario, que puede ser entonces visualizada por demanda a través de una aplicación en flujo basada en la red u otros métodos de acceso. De acuerdo con la política establecida por el propietario del contenido, este servicio en flujo puede suministrar una reproducción de visualización única libre, recolectar pagos como el agente para los propietarios del contenido, o insertar publicidad que suministraría pago a los propietarios de contenido.
Arquitectura de Hardware de Interfaz del Lado del Cliente
La FIGURA 6 es un diagrama de bloque de la arquitectura de hardware 600 para la interfaz del lado del cliente 102 mostrada en la FIGURA .1. Aunque la arquitectura de hardware 600 es típica de un dispositivo de computo (por ejemplo, un ordenador personal), las implementaciones descritas se pueden efectuar en cualquier dispositivo capaz de presentar una interfaz de usuario en un dispositivo de pantalla, que incluye pero no se limita a: ordenadores de mesa o portátil; dispositivo electrónicos; teléfonos; teléfono móviles; sistemas de pantalla; televisores; monitores; sistemas de navegación; reproductores/grabadores de medios portátiles; ayudantes digitales personales; sistemas de juegos; dispositivos electrónicos manuales; y dispositivos o aparatos electrónicos embebidos.
En algunas ejecuciones, el sistema 600 incluye uno o más procesadores 602 (por ejemplo, CPU), opcionalmente uno o más dispositivos de pantalla 604 (por ejemplo, CRT, LCD, etc.), una interfaz de micrófono 606, una o más interfaces de red 608 (por ejemplo, puertos USB, Ethernet, FireWire®, etc.), opcionalmente uno o más dispositivos de entrada 610 (por ejemplo, ratón, teclado, etc.) y uno o más medios legibles por ordenador 612. Cada uno de estos componentes está operativamente acoplado a uno o más buses 614 (por ejemplo, EISA, PCI, USB, FireWire®, NuBus, PDS, etc.).
En algunas ejecuciones, no existen dispositivos de pantalla o dispositivos de entrada y el sistema 600 solo efectúa muestreo y codificación (por ejemplo, generar descriptores, etc.) en el trasfondo sin el ingreso del usuario.
El término "medio legible por ordenador" se refiere a cualquier medio que participa en suministrar instrucciones a un procesador 602 para ejecución, que incluye sin limitación medios no volátiles (por ejemplo, discos ópticos o magnéticos), medios volátiles (por ejemplo, memoria) y medios de transmisión. Los medios de transmisión incluyen, sin limitación, cables coaxiales, alambres de cobre y fibra óptica. Los medios de transmisión también puede tomar la forma de ondas acústicas, de luz o radiofrecuencia.
Los medios legibles por ordenador 612 incluyen además un sistema operativo 616 (por ejemplo, Mac OS®, Windows®, Unix, Linux, etc.), un módulo de comunicaciones en red 618, el software del cliente 620 y una o más aplicaciones 622. El sistema operativo 616 puede ser multiusuario, multiproceso, multitarea, multihilado, en tiempo real y similar. El sistema operativo 616 efectúa tareas básicas, que incluyen pero no se limitan a: reconocer el ingreso de los dispositivos de entrada 610; enviar la salida a los dispositivos de pantalla 604; mantener el seguimiento de archivos y directorios en dispositivos de almacenamiento 612; controlar dispositivos periféricos (por ejemplo unidades de disco, impresoras, dispositivos de captura de imágenes, etc.); y manejar tráfico en uno o más buses 614.
El módulo de comunicaciones de red 618 incluye varios componentes para establecer y mantener conexiones de red (por ejemplo, software para ejecutar protocolos de comunicación, tales como TCP/IP, HTTP, Ethernet, USB, FireWire®, etc.).
El software del cliente 620 proporciona diversos componentes de software para ejecutar el lado del cliente de las aplicaciones de personalización masivas y para efectuar las diversas funciones del lado del cliente descritas con respecto a las FIGURAS 1-5 (por ejemplo, identificación de audio ambiente). En algunas ejecuciones, algunos o todos los procesos efectuados por el software de cliente 620 se pueden integrar en el sistema operativo 616. En algunas ejecuciones, los procesos pueden al menos ser parcialmente ejecutados en un circuito electrónico digital o en un hardware de ordenador, firmware, software, o en cualquier combinación de los mismos.
Otras aplicaciones 624 pueden incluir cualquier otra aplicación de software, que incluye pero no se limita a: procesadores de palabra, navegadores, correo electrónico, mensajería instantánea, reproductores de medios, software de telefonía, etc.
Detección de Publicidad y Repetición de Difusiones
Cuando se prepara una base de datos para búsqueda, ayuda poder premarcar material repetido utilizando los descriptores previamente descritos. El material repetido puede incluir pero no se limita a programas repetidos, publicidad, sub-segmentos (por ejemplo, información en la parte inferior de las pantallas en los programas de noticias), etc. Utilizando estas marcas, el material repetido se puede presentar de manera que no arrastre el otro material más allá del campo de atención del usuario que conduce una búsqueda (por ejemplo más allá de los primeros 10-20 resultados). El proceso 700 descrito adelante proporciona una forma de detectar aquellos duplicados antes de cualquiera de las consultas de búsqueda en la base de datos.
Remoción de Publicidad del Video
Una de las quejas que los difusores han tenido a cerca de permitir que el material sea buscado y reproducido es la nueva difusión de propaganda embebida. Desde el punto de vista de los difusores, la repetición de la difusión es contraproducente: baja el valor de las difusiones que el anunciador paga directamente, en razón a que este le da al anunciante publicidad libre. A menos que sea removida toda la publicidad vieja y se ponga nueva publicidad en su lugar de alguna manera que retorne alguna remisión a los difusores originales, ellos no ganan nada con la repetición del material previamente difundido. El proceso 700 descrito adelante suministra una manera de detectar publicidad embebida al observar las repeticiones, posiblemente en conjunto con otros criterios (por ejemplo duración, volumen, actividad visual, cuadros blancos entre paréntesis, etc.).
Resumen de Video
Si un “resumen” (es decir una versión más corta) de un material de programa no repetido se requiere, una manera de conseguir esto es retirando la publicidad (como se detectó por el material repetido) y tomar segmentos del material solo siguiendo la ubicación de publicidad. En la difusión de televisión, estas posiciones en el programa contienen normalmente titulares iniciales (antes de los anuncios y resúmenes (solo después de los anuncios). Si se hace un resumen de un programa de noticias que incluye una mezcla de material de publicidad no repetido y repetido, normalmente el material sin anuncios repetido corresponde a un bit de sonido. Estos segmentos generalmente dan menos información que la narración del presentador de la historia de las noticias y son buenos candidatos para remoción. Si se va a hacer un resumen de un programa narrativo (por ejemplo una película o una serie por capítulos), las pistas de audio repetidas corresponden normalmente a los sonidos del tema, la música de la escena, o silencio. De nuevo estos son típicamente buenos segmentos para retirar de un video de resumen. El proceso 700 descrito adelante suministra una manera de detectar estas pistas de audio repetidas de tal manera que ellas se puedan retirar del video de resumen.
Proceso de Detección de Repetición La FIGURA 7 es un diagrama de flujo de un ejemplo de un proceso de detección de repetición 700 de acuerdo con esto. Las etapas del proceso 700 no se tienen que completar en ningún orden particular y al menos algunas etapas se pueden efectuar al mismo tiempo en un ambiente de procesamiento mulhilado o paralelo.
El proceso 700 inicia al crear una base de datos de estadísticas de audio de un conjunto de contenido tal como alimentaciones de televisión, cargas de video etc. (702). Por ejemplo, la base de datos puede contener descriptores de 32 bit/cuadro, como se describe en Ke et al. Las consultas son tomadas de las bases de datos y corren contra la base de datos para ver en donde ocurren repeticiones (704). En algunas ejecuciones, un segmento corto de estadísticas de audio se toma como una consulta y correr revisando correspondencias no identificadas (coincidencias que no son idénticas) que utilizan técnicas de “hashing” (por ejemplo “hashing” directo o “hashing” sensible a sitio (LSH)) para lograr una lista corta de posibles correspondencias de auditoría. Estas correspondencias candidatas son entonces procesadas en un procedimiento de validación, por ejemplo, como se describe en Ke, et al. El contenido que corresponde a una correspondencia candidata validada se puede identificar como contenido repetido (706).
Las correspondencias no idénticas que son las más fuertes “crecen” hacia adelante y hacia atrás en el tiempo, para
encontrar los puntos de inicio y finalización del material repetido (708). En algunos ejemplos, esto se puede hacer utilizando técnicas de programación dinámica conocidas (por ejemplo, decodificación Viterbi). Al extender la coincidencia hacia adelante del tiempo, la última porción de tiempo en la correspondencia de “semilla” fuerte se ajusta como “que corresponde” y la última porción de tiempo de la primera correspondencia fuerte creíble adelante para el mismo desfase de la base de datos entre la consulta y la correspondencia se ajusta como ”no corresponde”. En algunos ejemplos, las calificaciones del correspondencia para los cuadros individuales entre estos dos puntos fijos se utilizan como observaciones y se utiliza un modelo marco de primer orden que permite dentro de las transiciones de estado más una transición única de los estados de “corresponde” a “no corresponde”. La probabilidad de transición desde corresponde a no corresponde a 1/ L se puede ajustar un poco arbitrariamente, en donde L es el número de cuadros entre estos dos puntos fijos, que corresponde a por lo menos el conocimiento de la ubicación de transición dentro del rango permitido. Otra posibilidad para seleccionar las probabilidades de transición utilizaría los perfiles de refuerzo de correspondencia para empujar este estimado a una transición anterior o posterior. Pero esto incrementaría la complejidad del modelo de programación dinámica y es probable que no mejore los resultados, en razón a que las fortalezas de la correspondencia ya se utilizan como observaciones dentro de este periodo. El mismo proceso se utiliza para crecer el segmento que corresponde hacia atrás en el tiempo (por ejemplo solo cambiar pasado/futuro y correr el mismo algoritmo).
En algunos ejemplos las claves de audio se combinan con información no auditiva (por ejemplo claves visuales) para obtener decisiones de mayor correspondencia. Por ejemplo, las correspondencias que se encuentran con la correspondencia de audio se pueden entonces verificar (o revisar una segunda vez) al utilizar métricas de similitud visual simples (710). Estas métricas pueden incluir pero no se limitan a: histogramas de color (por ejemplo, frecuencias de colores similares en dos imágenes), estadísticas del número y distribución de bordes, etc. Esto no requiere ser calculado solamente sobre la imagen completa, sino que es calculado para subregiones de las imágenes también, y comparado con las subregiones correspondientes en la imagen objetivo.
Para aquellas aplicaciones que están buscando publicidad (en contraste con todos los tipos de material repetidos), los resultados de la detección del material repetido se pueden combinar con métricas destinadas a distinguir la publicidad de la no publicidad (712). Estas características distinguibles se pueden pasar en convenciones de publicidad, tales como vibraciones (por ejemplo, son comunes franjas de 10/15/30 segundos), en volumen (por ejemplo, la publicidad tiende a ser más dura que el material del programa que la rodea, así si el material repetido es más duro que el material en otro lado, es más probable que sea una publicidad), sobre actividad visual (por ejemplo, la publicidad tiende a tener transiciones más rápidas entre tomas y más dentro del movimiento de la toma, así si el material repetido tiene diferencias de cuadro mayores que el material en otro lado, es más probable que haya publicidad), y los cuadros blancos entre (publicidad localmente insertada que normalmente no llena completamente la franja que se deja para esta para alimentación nacional, que resulta en cuadros blancos y silencio en un espacio que es múltiplo de 30 segundos).
Una vez que se identifica la publicidad, el material que rodea la publicidad se puede analizar y se pueden generar estadísticas. Por ejemplo, las estadísticas se pueden generar a cerca de cuantas veces se publicitó un producto particular utilizando un creativo particular (por ejemplo, imágenes, textos), o cuantas veces estuvo en el aire un segmento particular, etc. En algunas ejecuciones, una o más publicidades viejas se pueden retirar o reemplazar con nuevas publicidades. Las técnicas adicionales para supresión de publicidad y reemplazo se describen en Covell, M., Baluja, S., Fink, M., Advertisement Detection and Replacement Using Acoustic and Visual Repetition, IEEE Signal Processing Society, MMSP 2006 International Workshop on Multimedia Signal Processing, October 3-6, 2006, BC Canadá.
En algunos ejemplos, la información de los propietarios del contenido a cerca de la estructura detallada del contenido (por ejemplo, en donde se insertó material de publicidad, donde se repitieron programas) se puede utilizar para aumentar el proceso 700 e incrementar las precisiones de correspondencia. En algunos ejemplos, se pueden utilizar estadísticas de video para determinar la repetición en lugar del audio. En otros ejemplos, se puede utilizar la combinación de estadísticas de video y audio.
Subastas de Fragmentos de Código de Audio
En algunas ejecuciones, los anunciantes pueden participar en subastas relacionadas con la presencia de audio ambiente que se relaciona con el producto o servicio que el anunciante quiere vender. Por ejemplo, múltiples anunciantes podrían presentar propuestas en una subasta por el derecho a asociar sus productos o servicios con el fragmento de código de audio o de escritura asociado con "Seinfeld." El ganador de la subasta pondría alguna 5 información relacionada al frente del observador (por ejemplo, enlaces patrocinados) siempre y cuando esté presente el audio ambiente objeto. En algunas ejecuciones, los anunciantes podrían hacer propuestas sobre fragmentos de códigos de audio ambiente que tengan una descripción a nivel meta. Por ejemplo, los anunciantes podrían presentar propuestas de audio que estén asociadas con una anuncio de televisión (por ejemplo este el audio asociado con el anuncio de TV de Ford Explorer), en leyendas cerradas (por ejemplo, la leyenda dice "Yankees baseball"), un sitio del segmento de
10 programa (por ejemplo, este audio ocurrirá 15 minutos dentro de "Seinfeld" y ocurrirá 3 minutos después del corte de comerciales ocurrido y un minuto antes del siguiente corte de comerciales, o una acústica de bajo nivel o propiedades visuales (por ejemplo, "música de fondo," "voces de conversación," "similar a explosión", etc.).
En algunas ejecuciones, una o más aplicaciones de personalización masivas se pueden correr en el trasfondo mientras que el usuario efectúa otras tareas tales como navegar otro sitio de red (por ejemplo, un enlace patrocinado). El material
15 que se relaciona con una difusión de medio (por ejemplo, contenido de televisión) puede participar en las mismas subastas de enlace patrocinados como material que está relacionado con otra fuente de contenido (por ejemplo contenido del sitio de red). Por ejemplo, los anuncios relacionados con televisión se pueden mezclar con anuncios que corresponden al contenido de una página de red corriente.
Se pueden hacer varias modificaciones a las ejecuciones descritas y aún están dentro del alcance de las siguientes 20 reivindicaciones

Claims (3)

  1. REIVINDICACIONES
    1. Un método ejecutado por ordenador que comprende:
    Recibir un primer descriptor que identifica un primer audio ambiente de una primera difusión de medio masivo, en donde 5 el primer audio ambiente se genera mediante un primer sistema de medios masivos (202) y se detecta mediante un primer detector de audio ambiente (204);
    Recibir un segundo descriptor que identifica un segundo audio ambiente de una segunda difusión de medio masivo, en donde el segundo audio ambiente se genera mediante un segundo sistema de medios masivos (202) y se detecta mediante un segundo detector de audio ambiente (204);
    10 Comparar el primer y segundo descriptores para determinar si la primera y segunda difusiones de medios masivos son iguales; y
    Agregar información personalizada con base en el resultado de la comparación, en donde la información personalizada incluye información asociada con un medio comentado, en donde se crea una sala de conversación al comparar directamente los primeros y segundos descriptores en el flujo de datos transmitido por los sistemas del cliente (102)
    15 para determinar las correspondencias.
  2. 2.
    Un producto de programa de ordenador que comprende un programa de ordenador operable para hacer que el sistema de procesamiento de datos lleve a cabo todas las etapas del método de acuerdo con la reivindicación.
  3. 3.
    Sistema (100) adaptado para llevar a cabo todas las etapas del método de acuerdo con la reivindicación 1.
ES06838488T 2005-11-29 2006-11-27 Aplicaciones sociales e interactivas para medios masivos Active ES2386977T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US74076005P 2005-11-29 2005-11-29
US740760P 2005-11-29
US82388106P 2006-08-29 2006-08-29
US823881P 2006-08-29
PCT/US2006/045551 WO2007064641A2 (en) 2005-11-29 2006-11-27 Social and interactive applications for mass media

Publications (1)

Publication Number Publication Date
ES2386977T3 true ES2386977T3 (es) 2012-09-10

Family

ID=38092724

Family Applications (1)

Application Number Title Priority Date Filing Date
ES06838488T Active ES2386977T3 (es) 2005-11-29 2006-11-27 Aplicaciones sociales e interactivas para medios masivos

Country Status (10)

Country Link
US (6) US7991770B2 (es)
EP (3) EP1958362A4 (es)
JP (3) JP2009524273A (es)
KR (2) KR20080073357A (es)
AU (2) AU2006320693B2 (es)
BR (2) BRPI0619388A2 (es)
CA (2) CA2631270A1 (es)
ES (1) ES2386977T3 (es)
IL (1) IL191814A0 (es)
WO (2) WO2007064640A2 (es)

Families Citing this family (435)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6834308B1 (en) * 2000-02-17 2004-12-21 Audible Magic Corporation Method and apparatus for identifying media content presented on a media playing device
US8205237B2 (en) 2000-09-14 2012-06-19 Cox Ingemar J Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet
US8117281B2 (en) * 2006-11-02 2012-02-14 Addnclick, Inc. Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content
US7239981B2 (en) 2002-07-26 2007-07-03 Arbitron Inc. Systems and methods for gathering audience measurement data
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US9055239B2 (en) 2003-10-08 2015-06-09 Verance Corporation Signal continuity assessment using embedded watermarks
US9865017B2 (en) 2003-12-23 2018-01-09 Opentv, Inc. System and method for providing interactive advertisement
US10387920B2 (en) 2003-12-23 2019-08-20 Roku, Inc. System and method for offering and billing advertisement opportunities
US10032192B2 (en) * 2003-12-23 2018-07-24 Roku, Inc. Automatic localization of advertisements
US7623823B2 (en) * 2004-08-31 2009-11-24 Integrated Media Measurement, Inc. Detecting and measuring exposure to media content items
US20060224798A1 (en) * 2005-02-22 2006-10-05 Klein Mark D Personal music preference determination based on listening behavior
US20070016918A1 (en) * 2005-05-20 2007-01-18 Alcorn Allan E Detecting and tracking advertisements
US20070118455A1 (en) * 2005-11-18 2007-05-24 Albert William J System and method for directed request for quote
BRPI0619388A2 (pt) * 2005-11-29 2011-10-04 Google Inc aplicações sociais e interativas para mìdia de massa
US8751502B2 (en) * 2005-11-29 2014-06-10 Aol Inc. Visually-represented results to search queries in rich media content
US8132103B1 (en) * 2006-07-19 2012-03-06 Aol Inc. Audio and/or video scene detection and retrieval
US20070136741A1 (en) * 2005-12-09 2007-06-14 Keith Stattenfield Methods and systems for processing content
US20070162761A1 (en) 2005-12-23 2007-07-12 Davis Bruce L Methods and Systems to Help Detect Identity Fraud
US20150082342A1 (en) * 2006-06-15 2015-03-19 Social Commenting, Llc System and method for viewers to comment on television content for display on remote websites using a web browser
US8019162B2 (en) * 2006-06-20 2011-09-13 The Nielsen Company (Us), Llc Methods and apparatus for detecting on-screen media sources
US7831531B1 (en) 2006-06-22 2010-11-09 Google Inc. Approximate hashing functions for finding similar content
US8732019B2 (en) 2006-07-21 2014-05-20 Say Media, Inc. Non-expanding interactive advertisement
US20090018920A1 (en) 2006-07-21 2009-01-15 Videoegg, Inc. Interaction Prompt for Interactive Advertising
US9208500B2 (en) * 2006-07-21 2015-12-08 Microsoft Technology Licensing, Llc Fixed position multi-state interactive advertisement
WO2008011631A2 (en) * 2006-07-21 2008-01-24 Videoegg, Inc. Systems and methods for interaction prompt initiated video advertising
US8411977B1 (en) 2006-08-29 2013-04-02 Google Inc. Audio identification using wavelet-based signatures
US8738749B2 (en) 2006-08-29 2014-05-27 Digimarc Corporation Content monitoring and host compliance evaluation
US9654447B2 (en) 2006-08-29 2017-05-16 Digimarc Corporation Customized handling of copied content based on owner-specified similarity thresholds
US8707459B2 (en) 2007-01-19 2014-04-22 Digimarc Corporation Determination of originality of content
US8010511B2 (en) 2006-08-29 2011-08-30 Attributor Corporation Content monitoring and compliance enforcement
US7895275B1 (en) 2006-09-28 2011-02-22 Qurio Holdings, Inc. System and method providing quality based peer review and distribution of digital content
US8615778B1 (en) 2006-09-28 2013-12-24 Qurio Holdings, Inc. Personalized broadcast system
US7707224B2 (en) 2006-11-03 2010-04-27 Google Inc. Blocking of unlicensed audio content in video files on a video hosting website
AU2007316477A1 (en) * 2006-11-03 2008-05-15 Google Inc. Content management system
US8391155B2 (en) * 2006-11-13 2013-03-05 Joseph Harb Digital content download associated with corresponding radio broadcast items
US8718538B2 (en) * 2006-11-13 2014-05-06 Joseph Harb Real-time remote purchase-list capture system
US8462645B1 (en) 2006-11-13 2013-06-11 Joseph Harb Interactive advertising system, business methods and software
US8296195B2 (en) * 2006-11-13 2012-10-23 Joseph Harb Broadcast programming data capture
US8310985B2 (en) * 2006-11-13 2012-11-13 Joseph Harb Interactive radio advertising and social networking
US9456250B2 (en) * 2006-12-15 2016-09-27 At&T Intellectual Property I, L.P. Automatic rating optimization
US9179200B2 (en) 2007-03-14 2015-11-03 Digimarc Corporation Method and system for determining content treatment
US10242415B2 (en) 2006-12-20 2019-03-26 Digimarc Corporation Method and system for determining content treatment
US8356039B2 (en) * 2006-12-21 2013-01-15 Yahoo! Inc. Providing multiple media items to a consumer via a simplified consumer interaction
US7890874B2 (en) 2007-02-23 2011-02-15 Dkcm, Inc. Systems and methods for interactively displaying user images
JP4281819B2 (ja) * 2007-04-02 2009-06-17 ソニー株式会社 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法
US10489795B2 (en) * 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US20080265631A1 (en) * 2007-04-30 2008-10-30 Foremost Groups, Inc. Folding ottoman
US8310443B1 (en) 2007-05-02 2012-11-13 Google Inc. Pie chart time indicator
WO2008137880A2 (en) * 2007-05-03 2008-11-13 Google Inc. Monetization of digital content contributions
US8094872B1 (en) 2007-05-09 2012-01-10 Google Inc. Three-dimensional wavelet based video fingerprinting
CN101681381B (zh) * 2007-06-06 2012-11-07 杜比实验室特许公司 使用多搜索组合改善音频/视频指纹搜索精确度
US7840502B2 (en) * 2007-06-13 2010-11-23 Microsoft Corporation Classification of images as advertisement images or non-advertisement images of web pages
US8611422B1 (en) 2007-06-19 2013-12-17 Google Inc. Endpoint based video fingerprinting
US20090021474A1 (en) * 2007-07-17 2009-01-22 Motorola, Inc. System and method for displaying status information of a multimedia broadcast receiver on an ambient device
US8620878B2 (en) * 2007-07-19 2013-12-31 Ustream, Inc. System and method of distributing multimedia content
WO2009018168A2 (en) 2007-07-27 2009-02-05 Synergy Sports Technology, Llc Using a website containing video playlists as input to a download manager
US8238669B2 (en) * 2007-08-22 2012-08-07 Google Inc. Detection and classification of matches between time-based media
US8447032B1 (en) 2007-08-22 2013-05-21 Google Inc. Generation of min-hash signatures
US9633505B2 (en) * 2007-09-07 2017-04-25 Veritone, Inc. System and method for on-demand delivery of audio content for use with entertainment creatives
US20090089326A1 (en) * 2007-09-28 2009-04-02 Yahoo!, Inc. Method and apparatus for providing multimedia content optimization
WO2009046224A1 (en) 2007-10-02 2009-04-09 Emsense Corporation Providing remote access to media, and reaction and survey data from viewers of the media
US8521766B1 (en) 2007-11-12 2013-08-27 W Leo Hoarty Systems and methods for providing information discovery and retrieval
WO2009073634A1 (en) * 2007-11-30 2009-06-11 Emsense Corporation Correlating media instance information with physiological responses from participating subjects
US8938747B2 (en) * 2007-12-06 2015-01-20 At&T Intellectual Property I, L.P. Rating multimedia programs accessed from a provider network
US20090164569A1 (en) * 2007-12-20 2009-06-25 Garcia Richard L Apparatus and Method for Providing Real-Time Event Updates
US20090164590A1 (en) * 2007-12-20 2009-06-25 G-Snap!, Inc. Apparatus and method for providing real-time event updates
US8806021B2 (en) * 2008-01-28 2014-08-12 Sony Corporation Methods, portable electronic devices, systems and computer program products for automatically creating social networking services (SNS)
US8874076B2 (en) * 2008-02-15 2014-10-28 Alcatel Lucent Method to allow community-identity based communications using mobile phones
US8184953B1 (en) * 2008-02-22 2012-05-22 Google Inc. Selection of hash lookup keys for efficient retrieval
US9043483B2 (en) * 2008-03-17 2015-05-26 International Business Machines Corporation View selection in a vehicle-to-vehicle network
US8959202B2 (en) * 2008-03-18 2015-02-17 Civolution B.V. Generating statistics of popular content
US20090259519A1 (en) * 2008-04-14 2009-10-15 Microsoft Corporation Advertisements Targeted to Social Groups that Establish Program Popularity
US8650094B2 (en) * 2008-05-07 2014-02-11 Microsoft Corporation Music recommendation using emotional allocation modeling
US8344233B2 (en) * 2008-05-07 2013-01-01 Microsoft Corporation Scalable music recommendation by search
WO2009140759A1 (en) * 2008-05-22 2009-11-26 Unify4Life Corporation Interactive event guide with enhanced features
WO2009149063A1 (en) * 2008-06-02 2009-12-10 Azuki Systems, Inc. Media mashup system
US20090307061A1 (en) * 2008-06-10 2009-12-10 Integrated Media Measurement, Inc. Measuring Exposure To Media
US20090307084A1 (en) * 2008-06-10 2009-12-10 Integrated Media Measurement, Inc. Measuring Exposure To Media Across Multiple Media Delivery Mechanisms
US20090319571A1 (en) * 2008-06-23 2009-12-24 Itel Llc Video indexing
US8380564B2 (en) * 2008-07-30 2013-02-19 At&T Intellectual Property I, Lp System and method for internet protocol television product placement data
US20150026707A1 (en) * 2008-08-12 2015-01-22 Iheartmedia Management Services, Inc. Audience response determination to digital-media content
US20100043021A1 (en) * 2008-08-12 2010-02-18 Clear Channel Management Services, Inc. Determining audience response to broadcast content
US20170034586A1 (en) * 2008-10-08 2017-02-02 Wakingapp Ltd. System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8121830B2 (en) 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US8516533B2 (en) 2008-11-07 2013-08-20 Digimarc Corporation Second screen methods and arrangements
US9788043B2 (en) * 2008-11-07 2017-10-10 Digimarc Corporation Content interaction methods and systems employing portable devices
US20100205628A1 (en) * 2009-02-12 2010-08-12 Davis Bruce L Media processing methods and arrangements
US9355554B2 (en) * 2008-11-21 2016-05-31 Lenovo (Singapore) Pte. Ltd. System and method for identifying media and providing additional media content
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US9154942B2 (en) 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
JP4887348B2 (ja) * 2008-11-27 2012-02-29 ヤフー株式会社 イベント情報提供装置およびイベント情報提供方法
JP4775671B2 (ja) 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20100226526A1 (en) * 2008-12-31 2010-09-09 Modro Sierra K Mobile media, devices, and signaling
US8929719B2 (en) * 2009-01-02 2015-01-06 Harris Technology, Llc Frame correlating content determination
WO2010087797A1 (en) * 2009-01-30 2010-08-05 Hewlett-Packard Development Company, L.P. Methods and systems for establishing collaborative communications between devices using ambient audio
US8918333B2 (en) 2009-02-23 2014-12-23 Joseph Harb Method, system and apparatus for interactive radio advertising
US9088757B2 (en) * 2009-03-25 2015-07-21 Eloy Technology, Llc Method and system for socially ranking programs
US20100251279A1 (en) * 2009-03-26 2010-09-30 Clear Channel Management Services, Inc. Delivering content related to a commercial media program
JPWO2010114092A1 (ja) * 2009-04-03 2012-10-11 日本電気株式会社 配信システムと方法と変換装置及びプログラム
DE102009017315B3 (de) * 2009-04-16 2010-10-28 Freie Universität Berlin Verfahren zur Datenbereitstellung auf mobilen Endgeräten und mobiles Endgerät zur Durchführung des Verfahrens
CA2760677C (en) * 2009-05-01 2018-07-24 David Henry Harkness Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
WO2010132806A2 (en) * 2009-05-14 2010-11-18 Brand Affinity Technologies, Inc. System and method for on-demand delivery of audio content for use with entertainment creatives
US20100319015A1 (en) * 2009-06-15 2010-12-16 Richard Anthony Remington Method and system for removing advertising content from television or radio content
WO2011004370A1 (en) * 2009-07-09 2011-01-13 Carfosget Holdings, Ltd. Method and apparatus for interactive audio
US8407287B2 (en) * 2009-07-14 2013-03-26 Radvision Ltd. Systems, methods, and media for identifying and associating user devices with media cues
CA3149767A1 (en) 2009-07-16 2011-01-20 Bluefin Labs, Inc. Estimating and displaying social interest in time-based media
US8229219B1 (en) * 2009-08-06 2012-07-24 Google Inc. Full-length video fingerprinting
NZ581850A (en) * 2009-08-27 2011-12-22 Eyemagnet Ltd Informational content scheduling system and method
US9264758B2 (en) * 2009-09-14 2016-02-16 Tivo Inc. Method and an apparatus for detecting media content recordings
US8290918B1 (en) 2009-09-29 2012-10-16 Google Inc. Robust hashing of digital media data
US8161071B2 (en) 2009-09-30 2012-04-17 United Video Properties, Inc. Systems and methods for audio asset storage and management
US8677400B2 (en) 2009-09-30 2014-03-18 United Video Properties, Inc. Systems and methods for identifying audio content using an interactive media guidance application
US8245249B2 (en) * 2009-10-09 2012-08-14 The Nielson Company (Us), Llc Methods and apparatus to adjust signature matching results for audience measurement
US20110085781A1 (en) * 2009-10-13 2011-04-14 Rovi Technologies Corporation Content recorder timing alignment
US8428955B2 (en) * 2009-10-13 2013-04-23 Rovi Technologies Corporation Adjusting recorder timing
US8533760B1 (en) * 2009-10-20 2013-09-10 Arris Enterprises, Inc. Reduced latency channel switching for IPTV
US9218530B2 (en) 2010-11-04 2015-12-22 Digimarc Corporation Smartphone-based methods and systems
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US8175617B2 (en) 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
US9830605B2 (en) * 2009-10-30 2017-11-28 At&T Intellectual Property I, L.P. Apparatus and method for product marketing
CN102598691B (zh) * 2009-11-03 2015-02-18 瑞典爱立信有限公司 利用数据分段的可选广播传送的流传输
US8566876B2 (en) 2009-11-04 2013-10-22 At&T Intellectual Property I, Lp System and method for interacting with social networking in an internet protocol television system
US20110137976A1 (en) * 2009-12-04 2011-06-09 Bob Poniatowski Multifunction Multimedia Device
US8682145B2 (en) * 2009-12-04 2014-03-25 Tivo Inc. Recording system based on multimedia content fingerprints
US8625033B1 (en) 2010-02-01 2014-01-07 Google Inc. Large-scale matching of audio and video
US8355910B2 (en) 2010-03-30 2013-01-15 The Nielsen Company (Us), Llc Methods and apparatus for audio watermarking a substantially silent media content presentation
US8560583B2 (en) 2010-04-01 2013-10-15 Sony Computer Entertainment Inc. Media fingerprinting for social networking
US9264785B2 (en) 2010-04-01 2016-02-16 Sony Computer Entertainment Inc. Media fingerprinting for content determination and retrieval
US9185458B2 (en) * 2010-04-02 2015-11-10 Yahoo! Inc. Signal-driven interactive television
US20110251971A1 (en) * 2010-04-08 2011-10-13 International Business Machines Corporation System and method for facilitating real-time collaboration in a customer support environment
US20110251885A1 (en) * 2010-04-09 2011-10-13 Alcatel-Lucent Canada Differentiated experience for user generated content (UGC) based on popularity
CN103069823A (zh) * 2010-04-14 2013-04-24 斯文·里思米勒 与媒体广播的平台无关的交互性
US8265928B2 (en) * 2010-04-14 2012-09-11 Google Inc. Geotagged environmental audio for enhanced speech recognition accuracy
US9729344B2 (en) * 2010-04-30 2017-08-08 Mitel Networks Corporation Integrating a trigger button module into a mass audio notification system
US9026034B2 (en) 2010-05-04 2015-05-05 Project Oda, Inc. Automatic detection of broadcast programming
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US8819714B2 (en) * 2010-05-19 2014-08-26 Cisco Technology, Inc. Ratings and quality measurements for digital broadcast viewers
US8649573B1 (en) * 2010-06-14 2014-02-11 Adobe Systems Incorporated Method and apparatus for summarizing video data
US9814977B2 (en) 2010-07-13 2017-11-14 Sony Interactive Entertainment Inc. Supplemental video content on a mobile device
US9832441B2 (en) 2010-07-13 2017-11-28 Sony Interactive Entertainment Inc. Supplemental content on a mobile device
US8730354B2 (en) 2010-07-13 2014-05-20 Sony Computer Entertainment Inc Overlay video content on a mobile device
US9159165B2 (en) 2010-07-13 2015-10-13 Sony Computer Entertainment Inc. Position-dependent gaming, 3-D controller, and handheld as a remote
US9143699B2 (en) 2010-07-13 2015-09-22 Sony Computer Entertainment Inc. Overlay non-video content on a mobile device
US20120020647A1 (en) * 2010-07-21 2012-01-26 Rovi Technologies Corporation Filtering repeated content
EA201001465A1 (ru) * 2010-07-29 2012-02-28 Виктор Никифорович БОРЩОВ Функциональная модель содействия в решении государственных задач на основе информационных технологий
US8744860B2 (en) * 2010-08-02 2014-06-03 At&T Intellectual Property I, L.P. Apparatus and method for providing messages in a social network
US8732697B2 (en) 2010-08-04 2014-05-20 Premkumar Jonnala System, method and apparatus for managing applications on a device
GB2483370B (en) 2010-09-05 2015-03-25 Mobile Res Labs Ltd A system and method for engaging a person in the presence of ambient audio
US8494851B2 (en) * 2010-09-13 2013-07-23 International Business Machines Corporation System and method for contextual social network communications during phone conversation
KR20120034378A (ko) * 2010-10-01 2012-04-12 엔에이치엔(주) 사운드 인식을 통한 광고 정보 제공 시스템 및 방법
US8606293B2 (en) 2010-10-05 2013-12-10 Qualcomm Incorporated Mobile device location estimation using environmental information
JP5987227B2 (ja) * 2010-10-25 2016-09-07 サムスン エレクトロニクス カンパニー リミテッド ソーシャル・ネットワーク基盤のtv放送コンテンツ共有方法及びtv放送コンテンツ共有サーバ、ソーシャル・ネットワーク基盤のtv放送コンテンツ共有サービスを受信する方法及びtvデバイス
US8667520B2 (en) * 2011-07-06 2014-03-04 Symphony Advanced Media Mobile content tracking platform methods
US20120136466A1 (en) * 2010-11-28 2012-05-31 Aron Weiss System and method for identifying a broadcast source of ambient audio
US8483725B2 (en) 2010-12-03 2013-07-09 Qualcomm Incorporated Method and apparatus for determining location of mobile device
US9542203B2 (en) 2010-12-06 2017-01-10 Microsoft Technology Licensing, Llc Universal dock for context sensitive computing device
US8923770B2 (en) 2010-12-09 2014-12-30 Microsoft Corporation Cognitive use of multiple regulatory domains
US8792429B2 (en) * 2010-12-14 2014-07-29 Microsoft Corporation Direct connection with side channel control
US8948382B2 (en) 2010-12-16 2015-02-03 Microsoft Corporation Secure protocol for peer-to-peer network
US9294545B2 (en) 2010-12-16 2016-03-22 Microsoft Technology Licensing, Llc Fast join of peer to peer group with power saving mode
US8971841B2 (en) 2010-12-17 2015-03-03 Microsoft Corporation Operating system supporting cost aware applications
US10089592B2 (en) 2010-12-29 2018-10-02 Comcast Cable Communications, Llc Measuring video asset viewing
US10945011B2 (en) 2010-12-29 2021-03-09 Comcast Cable Communications, Llc Measuring video viewing
WO2012091938A1 (en) 2010-12-30 2012-07-05 Dolby Laboratories Licensing Corporation Ranking representative segments in media data
US20120189140A1 (en) * 2011-01-21 2012-07-26 Apple Inc. Audio-sharing network
US10440402B2 (en) 2011-01-26 2019-10-08 Afterlive.tv Inc Method and system for generating highlights from scored data streams
US10382509B2 (en) 2011-01-28 2019-08-13 Amazon Technologies, Inc. Audio-based application architecture
US20120200667A1 (en) * 2011-02-08 2012-08-09 Gay Michael F Systems and methods to facilitate interactions with virtual content
US9325953B2 (en) * 2011-02-14 2016-04-26 Disney Enterprises, Inc. System and method for synchronizing on-air commercial programming with interactive applications
US8543454B2 (en) 2011-02-18 2013-09-24 Bluefin Labs, Inc. Generating audience response metrics and ratings from social interest in time-based media
KR101069090B1 (ko) * 2011-03-03 2011-09-30 송석명 조립식 경조사용 쌀 화환
US20120224711A1 (en) * 2011-03-04 2012-09-06 Qualcomm Incorporated Method and apparatus for grouping client devices based on context similarity
US9143571B2 (en) 2011-03-04 2015-09-22 Qualcomm Incorporated Method and apparatus for identifying mobile devices in similar sound environment
WO2012139270A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Face recognition control and social networking
KR101799443B1 (ko) * 2011-05-02 2017-11-20 삼성전자주식회사 영상 컨텐츠 시청 확인 방법 및 이를 적용한 방송수신장치, 그리고 서버
US8917823B1 (en) 2011-05-26 2014-12-23 Google Inc. Transcribing and navigating a response system
US9762967B2 (en) * 2011-06-14 2017-09-12 Comcast Cable Communications, Llc System and method for presenting content with time based metadata
US9160837B2 (en) 2011-06-29 2015-10-13 Gracenote, Inc. Interactive streaming content apparatus, systems and methods
EP2735141A4 (en) 2011-07-18 2015-03-04 Viggle Inc SYSTEM AND METHOD FOR PURSUIT AND REWARDING MEDIA AND ENTERTAINMENT USE WITH PRACTICALLY REAL-TIME REWARDS
KR101786974B1 (ko) * 2011-07-29 2017-10-18 네이버 주식회사 사운드를 이용한 소셜 네트워크 서비스 제공 장치 및 방법
US9443518B1 (en) * 2011-08-31 2016-09-13 Google Inc. Text transcript generation from a communication session
US8861937B2 (en) 2011-08-31 2014-10-14 The Nielsen Company (Us), Llc Methods and apparatus to access media
US8689255B1 (en) * 2011-09-07 2014-04-01 Imdb.Com, Inc. Synchronizing video content with extrinsic data
CN102611921A (zh) * 2011-09-16 2012-07-25 李世平 一种收视数据采集方法及系统
WO2013040533A1 (en) * 2011-09-16 2013-03-21 Umami Co. Second screen interactive platform
US9113202B1 (en) 2011-09-21 2015-08-18 Google Inc. Inverted client-side fingerprinting and matching
US8824645B2 (en) * 2011-09-30 2014-09-02 Verizon Patent And Licensing Inc. Video messaging systems and methods
US9223893B2 (en) 2011-10-14 2015-12-29 Digimarc Corporation Updating social graph data using physical objects identified from images captured by smartphone
US9402099B2 (en) 2011-10-14 2016-07-26 Digimarc Corporation Arrangements employing content identification and/or distribution identification data
US11599915B1 (en) 2011-10-25 2023-03-07 Auddia Inc. Apparatus, system, and method for audio based browser cookies
US20130254159A1 (en) * 2011-10-25 2013-09-26 Clip Interactive, Llc Apparatus, system, and method for digital audio services
US8966525B2 (en) * 2011-11-08 2015-02-24 Verizon Patent And Licensing Inc. Contextual information between television and user device
KR20130055748A (ko) * 2011-11-21 2013-05-29 한국전자통신연구원 콘텐츠 추천 시스템 및 방법
US8745403B2 (en) 2011-11-23 2014-06-03 Verance Corporation Enhanced content management based on watermark extraction records
US8806528B1 (en) * 2011-12-02 2014-08-12 Adobe Systems Incorporated Mediating digital program insertion for linear streaming media
US10440428B2 (en) 2013-01-13 2019-10-08 Comcast Cable Communications, Llc Measuring video-program-viewing activity
US10645433B1 (en) 2013-08-29 2020-05-05 Comcast Cable Communications, Llc Measuring video-content viewing
US8645485B1 (en) * 2012-01-30 2014-02-04 Google Inc. Social based aggregation of related media content
US9143742B1 (en) * 2012-01-30 2015-09-22 Google Inc. Automated aggregation of related media content
US8510770B1 (en) * 2012-02-03 2013-08-13 Google Inc. Predicting live programs
WO2013119171A2 (en) * 2012-02-09 2013-08-15 Ipxtend Ab Search for media material
US9684715B1 (en) * 2012-03-08 2017-06-20 Google Inc. Audio identification using ordinal transformation
US8838609B1 (en) 2012-10-10 2014-09-16 Google Inc. IDF weighting of LSH bands for live reference ingestion
EP2642484A1 (en) * 2012-03-23 2013-09-25 Thomson Licensing Method for setting a watching level for an audiovisual content
US9301016B2 (en) 2012-04-05 2016-03-29 Facebook, Inc. Sharing television and video programming through social networking
US9516360B2 (en) * 2012-04-12 2016-12-06 Qualcomm Incorporated Estimating demographic statistics of media viewership via context aware mobile devices
US10292022B2 (en) * 2012-04-24 2019-05-14 Ascension Intellectual Properties Llc Media echoing and social networking device and method
US8904446B2 (en) * 2012-05-30 2014-12-02 Verizon Patent And Licensing Inc. Method and apparatus for indexing content within a media stream
US11023520B1 (en) 2012-06-01 2021-06-01 Google Llc Background audio identification for query disambiguation
KR20130139675A (ko) * 2012-06-13 2013-12-23 삼성전자주식회사 서버 기반의 프로파일 생성 방법, 관리 방법, 시스템 및 장치
US9251406B2 (en) * 2012-06-20 2016-02-02 Yahoo! Inc. Method and system for detecting users' emotions when experiencing a media program
US8843952B2 (en) * 2012-06-28 2014-09-23 Google Inc. Determining TV program information based on analysis of audio fingerprints
US9113203B2 (en) 2012-06-28 2015-08-18 Google Inc. Generating a sequence of audio fingerprints at a set top box
US8689250B2 (en) * 2012-06-29 2014-04-01 International Business Machines Corporation Crowd sourced, content aware smarter television systems
US20140013342A1 (en) * 2012-07-05 2014-01-09 Comcast Cable Communications, Llc Media Content Redirection
CN102831894B (zh) * 2012-08-09 2014-07-09 华为终端有限公司 指令处理方法、装置和系统
US9699485B2 (en) 2012-08-31 2017-07-04 Facebook, Inc. Sharing television and video programming through social networking
GB201214842D0 (en) * 2012-08-21 2012-10-03 Omnifone Ltd Content tracker
JP6102124B2 (ja) * 2012-08-24 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8843951B1 (en) * 2012-08-27 2014-09-23 Google Inc. User behavior indicator
US9571606B2 (en) * 2012-08-31 2017-02-14 Verance Corporation Social media viewing system
US9113128B1 (en) 2012-08-31 2015-08-18 Amazon Technologies, Inc. Timeline interface for video content
US8726304B2 (en) 2012-09-13 2014-05-13 Verance Corporation Time varying evaluation of multimedia content
US9661361B2 (en) 2012-09-19 2017-05-23 Google Inc. Systems and methods for live media content matching
US20140089815A1 (en) * 2012-09-21 2014-03-27 Google Inc. Sharing Content-Synchronized Ratings
US9081778B2 (en) 2012-09-25 2015-07-14 Audible Magic Corporation Using digital fingerprints to associate data with a work
US8826316B2 (en) 2012-10-22 2014-09-02 The Nielsen Company (Us), Llc Systems and methods for configuring media devices utilizing audio codes or signatures
US9027048B2 (en) * 2012-11-14 2015-05-05 Bank Of America Corporation Automatic deal or promotion offering based on audio cues
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9389745B1 (en) 2012-12-10 2016-07-12 Amazon Technologies, Inc. Providing content via multiple display devices
WO2014099272A1 (en) * 2012-12-17 2014-06-26 Thismoment, Inc. Systems and methods for interactive advertisements with distributed engagement channels
US9529907B2 (en) * 2012-12-31 2016-12-27 Google Inc. Hold back and real time ranking of results in a streaming matching system
KR101369475B1 (ko) 2013-01-23 2014-03-06 (주)엔써즈 방송 시청률 조사 시스템 및 방법
US9256269B2 (en) * 2013-02-20 2016-02-09 Sony Computer Entertainment Inc. Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state
US9311640B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods and arrangements for smartphone payments and transactions
US9344759B2 (en) * 2013-03-05 2016-05-17 Google Inc. Associating audio tracks of an album with video content
KR101277523B1 (ko) * 2013-03-08 2013-06-21 (주) 에이노드 사운드 신호 기반의 로컬 인터랙티브 플랫폼 시스템, 이를 이용한 로컬 인터랙티브 서비스 제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
US9301070B2 (en) 2013-03-11 2016-03-29 Arris Enterprises, Inc. Signature matching of corrupted audio signal
US9307337B2 (en) 2013-03-11 2016-04-05 Arris Enterprises, Inc. Systems and methods for interactive broadcast content
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20140258373A1 (en) 2013-03-11 2014-09-11 Say Media, Inc. Systems and Methods for Managing and Publishing Managed Content
US9258597B1 (en) 2013-03-13 2016-02-09 Google Inc. System and method for obtaining information relating to video images
US9247309B2 (en) 2013-03-14 2016-01-26 Google Inc. Methods, systems, and media for presenting mobile content corresponding to media content
US9262793B2 (en) 2013-03-14 2016-02-16 Verance Corporation Transactional video marking system
US9268880B2 (en) 2013-03-14 2016-02-23 Google Inc. Using recent media consumption to select query suggestions
US9705728B2 (en) 2013-03-15 2017-07-11 Google Inc. Methods, systems, and media for media transmission and management
US9588675B2 (en) 2013-03-15 2017-03-07 Google Inc. Document scale and position optimization
US9210119B2 (en) 2013-03-29 2015-12-08 Garret J. LoPorto Automated triggering of a broadcast
US9774743B2 (en) 2013-03-29 2017-09-26 Hewlett-Packard Development Company, L.P. Silence signatures of audio signals
US9123330B1 (en) * 2013-05-01 2015-09-01 Google Inc. Large-scale speaker identification
US9460201B2 (en) 2013-05-06 2016-10-04 Iheartmedia Management Services, Inc. Unordered matching of audio fingerprints
US9817911B2 (en) * 2013-05-10 2017-11-14 Excalibur Ip, Llc Method and system for displaying content relating to a subject matter of a displayed media program
US9871606B1 (en) 2013-05-13 2018-01-16 Twitter, Inc. Identification of concurrently broadcast time-based media
FR3006525B1 (fr) * 2013-06-04 2016-10-14 Visiware Synchronisation de contenus multimedia sur deuxieme ecran
US9485089B2 (en) 2013-06-20 2016-11-01 Verance Corporation Stego key management
US11019300B1 (en) 2013-06-26 2021-05-25 Amazon Technologies, Inc. Providing soundtrack information during playback of video content
US9251549B2 (en) 2013-07-23 2016-02-02 Verance Corporation Watermark extractor enhancements based on payload ranking
US10063450B2 (en) * 2013-07-26 2018-08-28 Opentv, Inc. Measuring response trends in a digital television network
US9711152B2 (en) 2013-07-31 2017-07-18 The Nielsen Company (Us), Llc Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio
US20150039321A1 (en) 2013-07-31 2015-02-05 Arbitron Inc. Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device
US9542488B2 (en) 2013-08-02 2017-01-10 Google Inc. Associating audio tracks with video content
CN103618953B (zh) * 2013-08-15 2016-09-14 北京中视广信科技有限公司 基于音频特征的广播电视节目标识与识别的方法及系统
BR112016006860B8 (pt) * 2013-09-13 2023-01-10 Arris Entpr Inc Aparelho e método para criar um único fluxo de dados de informações combinadas para renderização em um dispositivo de computação do cliente
US10506305B1 (en) * 2013-09-18 2019-12-10 Cox Communications, Inc. Updating content URL for non-linear video content
KR102095888B1 (ko) 2013-10-07 2020-04-01 삼성전자주식회사 방송 시청 패턴 정보를 제공하는 사용자 단말 장치, 서버 및 시청 패턴 정보 제공 방법
US9292174B1 (en) * 2013-10-30 2016-03-22 Cox Communications, Inc. Content check-in
EP2876890A1 (en) * 2013-11-21 2015-05-27 Thomson Licensing Method and apparatus for frame accurate synchronization of video streams
US9438967B2 (en) * 2013-11-25 2016-09-06 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US10002191B2 (en) 2013-12-31 2018-06-19 Google Llc Methods, systems, and media for generating search results based on contextual information
US9456237B2 (en) 2013-12-31 2016-09-27 Google Inc. Methods, systems, and media for presenting supplemental information corresponding to on-demand media content
US9491522B1 (en) 2013-12-31 2016-11-08 Google Inc. Methods, systems, and media for presenting supplemental content relating to media content on a content interface based on state information that indicates a subsequent visit to the content interface
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
IN2014MU00140A (es) 2014-01-15 2015-08-28 Whats On India Media Private Ltd
FR3016720B1 (fr) * 2014-01-20 2016-02-05 Tdf Procede et systeme de delivrance de coupons de reduction et de gestion desdits coupons.
WO2015123201A1 (en) * 2014-02-11 2015-08-20 The Nielsen Company (Us), Llc Methods and apparatus to calculate video-on-demand and dynamically inserted advertisement viewing probability
US9596521B2 (en) 2014-03-13 2017-03-14 Verance Corporation Interactive content acquisition using embedded codes
US10504200B2 (en) 2014-03-13 2019-12-10 Verance Corporation Metadata acquisition using embedded watermarks
US9900656B2 (en) * 2014-04-02 2018-02-20 Whats On India Media Private Limited Method and system for customer management
US9438940B2 (en) 2014-04-07 2016-09-06 The Nielsen Company (Us), Llc Methods and apparatus to identify media using hash keys
US10306278B2 (en) 2014-04-27 2019-05-28 Lg Electronics Inc. Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
CN104023247B (zh) 2014-05-29 2015-07-29 腾讯科技(深圳)有限公司 获取、推送信息的方法和装置以及信息交互系统
US9946769B2 (en) 2014-06-20 2018-04-17 Google Llc Displaying information related to spoken dialogue in content playing on a device
US9838759B2 (en) 2014-06-20 2017-12-05 Google Inc. Displaying information related to content playing on a device
US9805125B2 (en) 2014-06-20 2017-10-31 Google Inc. Displaying a summary of media content items
US10206014B2 (en) 2014-06-20 2019-02-12 Google Llc Clarifying audible verbal information in video content
US9858922B2 (en) 2014-06-23 2018-01-02 Google Inc. Caching speech recognition scores
EP3183882A4 (en) 2014-08-20 2018-07-04 Verance Corporation Content management based on dither-like watermark embedding
US10325591B1 (en) * 2014-09-05 2019-06-18 Amazon Technologies, Inc. Identifying and suppressing interfering audio content
US20160073148A1 (en) * 2014-09-09 2016-03-10 Verance Corporation Media customization based on environmental sensing
US9736503B1 (en) * 2014-09-12 2017-08-15 Google Inc. Optimizing timing of display of a mid-roll video advertisement based on viewer retention data
US9402111B2 (en) 2014-09-17 2016-07-26 Ispot.Tv, Inc. Television audience measurement method and apparatus
US10602236B2 (en) 2014-09-17 2020-03-24 Ispot.Tv, Inc. Unique content sequence identification method and apparatus
US9497505B2 (en) 2014-09-30 2016-11-15 The Nielsen Company (Us), Llc Systems and methods to verify and/or correct media lineup information
US9299347B1 (en) 2014-10-22 2016-03-29 Google Inc. Speech recognition using associative mapping
US9942602B2 (en) 2014-11-25 2018-04-10 Verance Corporation Watermark detection and metadata delivery associated with a primary content
WO2016086047A1 (en) 2014-11-25 2016-06-02 Verance Corporation Enhanced metadata and content delivery using watermarks
CN104394436B (zh) * 2014-11-28 2018-06-26 北京国双科技有限公司 网络电视直播电视频道的收视率的监测方法和装置
FR3030177B1 (fr) * 2014-12-16 2016-12-30 Stmicroelectronics Rousset Dispositif electronique comprenant un module de reveil d'un appareil electronique distinct d'un coeur de traitement
WO2016100916A1 (en) 2014-12-18 2016-06-23 Verance Corporation Service signaling recovery for multimedia content using embedded watermarks
CN107211192B (zh) * 2015-01-30 2020-11-06 夏普株式会社 上报信息的方法
US10219039B2 (en) 2015-03-09 2019-02-26 The Nielsen Company (Us), Llc Methods and apparatus to assign viewers to media meter data
US10015541B2 (en) 2015-03-25 2018-07-03 Cisco Technology, Inc. Storing and retrieval heuristics
US9578394B2 (en) 2015-03-25 2017-02-21 Cisco Technology, Inc. Video signature creation and matching
US9705936B2 (en) * 2015-04-24 2017-07-11 Mersive Technologies, Inc. System and method for interactive and real-time visualization of distributed media
WO2016176056A1 (en) 2015-04-30 2016-11-03 Verance Corporation Watermark based content recognition improvements
KR20180001559A (ko) * 2015-05-26 2018-01-04 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US11330316B2 (en) * 2015-06-15 2022-05-10 Piksel, Inc. Media streaming
CN104936035B (zh) 2015-06-19 2018-04-17 腾讯科技(北京)有限公司 一种弹幕处理方法及系统
US11481652B2 (en) * 2015-06-23 2022-10-25 Gregory Knox System and method for recommendations in ubiquituous computing environments
US9786270B2 (en) 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
WO2017015399A1 (en) 2015-07-20 2017-01-26 Verance Corporation Watermark-based data recovery for content with multiple alternative components
US9699504B2 (en) * 2015-09-28 2017-07-04 Rovi Guides, Inc. Systems and methods for identifying a source of media content based on a log of content identifiers
US9854304B2 (en) 2015-09-28 2017-12-26 Rovi Guides, Inc. Systems and methods for identifying a source of media content based on a log of fingerprints
WO2017066736A1 (en) * 2015-10-16 2017-04-20 Tribune Broadcasting Company, Llc Media-production system with social media content interface feature
US20170140795A1 (en) * 2015-11-18 2017-05-18 International Business Machines Corporation Intelligent segment marking in recordings
US10349141B2 (en) 2015-11-19 2019-07-09 Google Llc Reminders of media content referenced in other media content
US10229672B1 (en) 2015-12-31 2019-03-12 Google Llc Training acoustic models using connectionist temporal classification
WO2017119604A1 (ko) * 2016-01-08 2017-07-13 주식회사 아이플래테아 시청률 산출 서버, 시청률 산출 방법, 및 시청률 산출 리모트 장치
US20170214954A1 (en) * 2016-01-25 2017-07-27 Google Inc. Media Program Moments Guide
US10034053B1 (en) 2016-01-25 2018-07-24 Google Llc Polls for media program moments
KR102468763B1 (ko) * 2016-02-05 2022-11-18 삼성전자 주식회사 영상처리장치 및 그 제어방법
US10776823B2 (en) 2016-02-09 2020-09-15 Comcast Cable Communications, Llc Collection analysis and use of viewer behavior
US9924222B2 (en) * 2016-02-29 2018-03-20 Gracenote, Inc. Media channel identification with multi-match detection and disambiguation based on location
US10063918B2 (en) 2016-02-29 2018-08-28 Gracenote, Inc. Media channel identification with multi-match detection and disambiguation based on single-match
US9930406B2 (en) 2016-02-29 2018-03-27 Gracenote, Inc. Media channel identification with video multi-match detection and disambiguation based on audio fingerprint
US10433026B2 (en) * 2016-02-29 2019-10-01 MyTeamsCalls LLC Systems and methods for customized live-streaming commentary
CN105657326A (zh) * 2016-03-02 2016-06-08 掌赢信息科技(上海)有限公司 一种群视频通话方法、装置及系统
US10318813B1 (en) * 2016-03-11 2019-06-11 Gracenote, Inc. Digital video fingerprinting using motion segmentation
US9918128B2 (en) * 2016-04-08 2018-03-13 Orange Content categorization using facial expression recognition, with improved detection of moments of interest
WO2017184648A1 (en) 2016-04-18 2017-10-26 Verance Corporation System and method for signaling security and database population
CN106170104B (zh) * 2016-07-01 2019-03-08 广州华多网络科技有限公司 视频精彩片段的确定方法、装置和服务器
US20180018973A1 (en) 2016-07-15 2018-01-18 Google Inc. Speaker verification
GB2556023B (en) 2016-08-15 2022-02-09 Intrasonics Sarl Audio matching
US10171879B2 (en) * 2016-10-04 2019-01-01 International Business Machines Corporation Contextual alerting for broadcast content
US10108718B2 (en) 2016-11-02 2018-10-23 Alphonso Inc. System and method for detecting repeating content, including commercials, in a video data stream
US10419141B2 (en) 2016-12-09 2019-09-17 The Nielsen Company (Us), Llc Estimating volume of switching among television programs for an audience measurement panel
US10075767B2 (en) * 2016-12-12 2018-09-11 Facebook, Inc. Broadcast content view analysis based on ambient audio recording
US10791355B2 (en) 2016-12-20 2020-09-29 The Nielsen Company (Us), Llc Methods and apparatus to determine probabilistic media viewing metrics
US10405012B2 (en) * 2016-12-25 2019-09-03 Synamedia Limited Cloud DVR Optimization
US11044520B2 (en) * 2016-12-29 2021-06-22 Telefonaktiebolaget Lm Ericsson (Publ) Handling of video segments in a video stream
WO2018125590A1 (en) * 2016-12-30 2018-07-05 Tivo Solutions Inc. Advanced trick-play modes for streaming video
US10462514B2 (en) * 2017-03-29 2019-10-29 The Nielsen Company (Us), Llc Interactive overlays to determine viewer data
WO2018237191A1 (en) 2017-06-21 2018-12-27 Verance Corporation ACQUISITION AND TREATMENT OF METADATA BASED ON A WATERMARK
US9980004B1 (en) * 2017-06-30 2018-05-22 Paypal, Inc. Display level content blocker
US10440413B2 (en) 2017-07-31 2019-10-08 The Nielsen Company (Us), Llc Methods and apparatus to perform media device asset qualification
US10706840B2 (en) 2017-08-18 2020-07-07 Google Llc Encoder-decoder models for sequence to sequence mapping
US11381876B2 (en) * 2017-09-09 2022-07-05 Telegenic, Inc. Controlling internet of things (IOT) devices and aggregating media content through a common device
US10805693B2 (en) * 2017-09-12 2020-10-13 Irdeto B.V. Device and method for GPU-based watermarking
US10264297B1 (en) 2017-09-13 2019-04-16 Perfect Sense, Inc. Time-based content synchronization
US10621256B2 (en) * 2017-09-29 2020-04-14 Facebook, Inc. Determining a rate for sampling information describing presentation of content based on previously received information describing presentation of content
WO2019089028A1 (en) * 2017-11-02 2019-05-09 Bretherton Peter Method and system for real-time broadcast audience engagement
US11140450B2 (en) * 2017-11-28 2021-10-05 Rovi Guides, Inc. Methods and systems for recommending content in context of a conversation
US10715860B1 (en) * 2017-11-29 2020-07-14 Twitch Interactive, Inc. Video stream with additional content areas
US10817855B2 (en) 2017-12-05 2020-10-27 Silicon Beach Media II, LLC Systems and methods for unified presentation and sharing of on-demand, live, social or market content
US10783573B2 (en) 2017-12-05 2020-09-22 Silicon Beach Media II, LLC Systems and methods for unified presentation and sharing of on-demand, live, or social activity monitoring content
US11146845B2 (en) 2017-12-05 2021-10-12 Relola Inc. Systems and methods for unified presentation of synchronized on-demand, live, social or market content
US10924809B2 (en) 2017-12-05 2021-02-16 Silicon Beach Media II, Inc. Systems and methods for unified presentation of on-demand, live, social or market content
US10567828B2 (en) * 2017-12-05 2020-02-18 Silicon Beach Media II, LLC Systems and methods for unified presentation of a smart bar on interfaces including on-demand, live, social or market content
US10631035B2 (en) 2017-12-05 2020-04-21 Silicon Beach Media II, LLC Systems and methods for unified compensation, presentation, and sharing of on-demand, live, social or market content
US10412442B1 (en) 2017-12-11 2019-09-10 Amazon Technologies, Inc. Embedded content input and timing
US10531165B1 (en) 2017-12-11 2020-01-07 Amazon Technologies, Inc. Embedded content synchronization
US10715855B1 (en) * 2017-12-20 2020-07-14 Groupon, Inc. Method, system, and apparatus for programmatically generating a channel incrementality ratio
US10848792B2 (en) * 2018-03-05 2020-11-24 Maestro Interactive, Inc. System and method for providing audience-targeted content triggered by events during program
US10346474B1 (en) * 2018-03-30 2019-07-09 Alphonso Inc. System and method for detecting repeating content, including commercials, in a video data stream using audio-based and video-based automated content recognition
US10966001B2 (en) * 2018-04-05 2021-03-30 Tvu Networks Corporation Remote cloud-based video production system in an environment where there is network delay
US11463747B2 (en) 2018-04-05 2022-10-04 Tvu Networks Corporation Systems and methods for real time control of a remote video production with multiple streams
US11212431B2 (en) 2018-04-06 2021-12-28 Tvu Networks Corporation Methods and apparatus for remotely controlling a camera in an environment with communication latency
US11468149B2 (en) 2018-04-17 2022-10-11 Verance Corporation Device authentication in collaborative content screening
US20200007934A1 (en) * 2018-06-29 2020-01-02 Advocates, Inc. Machine-learning based systems and methods for analyzing and distributing multimedia content
US10771828B2 (en) * 2018-09-18 2020-09-08 Free Stream Media Corp. Content consensus management
US10929878B2 (en) * 2018-10-19 2021-02-23 International Business Machines Corporation Targeted content identification and tracing
WO2020095767A1 (ja) * 2018-11-08 2020-05-14 日本電信電話株式会社 配信設計支援方法、配信設計支援装置及びプログラム
US10868620B2 (en) * 2018-12-26 2020-12-15 The Nielsen Company (Us), Llc Methods and apparatus for optimizing station reference fingerprint loading using reference watermarks
US10848836B2 (en) * 2018-12-28 2020-11-24 Dish Network L.L.C. Wager information based prioritized live event display system
US10803480B2 (en) 2019-01-07 2020-10-13 Alphonso Inc. Bidding agent with optimized reach limitation
US11037205B2 (en) 2019-01-07 2021-06-15 Alphonso Inc. Bidding agent using ad opportunity source to limit ad reach
US11151609B2 (en) 2019-01-07 2021-10-19 Alphonso Inc. Closed loop attribution
US10873785B2 (en) * 2019-01-07 2020-12-22 Alphonso Inc. Content recommendation system and method-based implicit ratings
CN109547843B (zh) * 2019-02-01 2022-05-17 腾讯音乐娱乐科技(深圳)有限公司 对音视频进行处理的方法和装置
US10856041B2 (en) * 2019-03-18 2020-12-01 Disney Enterprises, Inc. Content promotion using a conversational agent
US11259058B2 (en) * 2019-03-25 2022-02-22 Apple Inc. Use of rendered media to assess delays in media distribution systems
US11785194B2 (en) 2019-04-19 2023-10-10 Microsoft Technology Licensing, Llc Contextually-aware control of a user interface displaying a video and related user text
US11678031B2 (en) 2019-04-19 2023-06-13 Microsoft Technology Licensing, Llc Authoring comments including typed hyperlinks that reference video content
US11026000B2 (en) * 2019-04-19 2021-06-01 Microsoft Technology Licensing, Llc Previewing video content referenced by typed hyperlinks in comments
US11212560B2 (en) * 2019-06-24 2021-12-28 The Nielsen Company (Us), Llc Use of steganographically-encoded time information as basis to establish a time offset, to facilitate taking content-related action
US11234049B2 (en) * 2019-06-24 2022-01-25 The Nielsen Company (Us), Llc Use of steganographically-encoded time information as basis to control implementation of dynamic content modification
US10834466B1 (en) * 2019-08-02 2020-11-10 International Business Machines Corporation Virtual interactivity for a broadcast content-delivery medium
US11627361B2 (en) * 2019-10-14 2023-04-11 Meta Platforms, Inc. Method to acoustically detect a state of an external media device using an identification signal
CN112995759A (zh) * 2019-12-13 2021-06-18 腾讯科技(北京)有限公司 互动业务处理方法、系统、装置、设备及存储介质
KR20220133249A (ko) 2020-01-30 2022-10-04 스냅 인코포레이티드 온 디맨드로 미디어 콘텐츠 아이템들을 생성하기 위한 시스템
US11036781B1 (en) 2020-01-30 2021-06-15 Snap Inc. Video generation system to render frames on demand using a fleet of servers
US11356720B2 (en) 2020-01-30 2022-06-07 Snap Inc. Video generation system to render frames on demand
US11991419B2 (en) 2020-01-30 2024-05-21 Snap Inc. Selecting avatars to be included in the video being generated on demand
US11284144B2 (en) * 2020-01-30 2022-03-22 Snap Inc. Video generation system to render frames on demand using a fleet of GPUs
CN118118741A (zh) 2020-03-13 2024-05-31 谷歌有限责任公司 联网电视装置中的媒体内容投射
GB2597334A (en) 2020-07-17 2022-01-26 Playrcart Ltd A media player
US11284139B1 (en) * 2020-09-10 2022-03-22 Hulu, LLC Stateless re-discovery of identity using watermarking of a video stream
US11974024B2 (en) * 2020-09-11 2024-04-30 Sling TV L.L.C. Automated program promotion detection in a video streaming system
US11922967B2 (en) * 2020-10-08 2024-03-05 Gracenote, Inc. System and method for podcast repetitive content detection
US11317128B1 (en) * 2020-10-23 2022-04-26 Synamedia Limited Systems, methods, and devices for media content tamper protection and detection
US11445042B2 (en) 2020-12-02 2022-09-13 International Business Machines Corporation Correlating multiple media sources for personalized media content
US10998006B1 (en) * 2020-12-08 2021-05-04 Turku University of Applied Sciences Ltd Method and system for producing binaural immersive audio for audio-visual content
US20220210488A1 (en) * 2020-12-30 2022-06-30 Comcast Cable Communications, Llc Method and system for detecting and managing similar content
US11722741B2 (en) 2021-02-08 2023-08-08 Verance Corporation System and method for tracking content timeline in the presence of playback rate changes
US11809481B2 (en) 2021-02-17 2023-11-07 International Business Machines Corporation Content generation based on multi-source content analysis
US11589100B1 (en) * 2021-03-31 2023-02-21 Amazon Technologies, Inc. On-demand issuance private keys for encrypted video transmission
US11580982B1 (en) 2021-05-25 2023-02-14 Amazon Technologies, Inc. Receiving voice samples from listeners of media programs
US11586344B1 (en) 2021-06-07 2023-02-21 Amazon Technologies, Inc. Synchronizing media content streams for live broadcasts and listener interactivity
US11792143B1 (en) 2021-06-21 2023-10-17 Amazon Technologies, Inc. Presenting relevant chat messages to listeners of media programs
US11792467B1 (en) 2021-06-22 2023-10-17 Amazon Technologies, Inc. Selecting media to complement group communication experiences
US11683558B2 (en) * 2021-06-29 2023-06-20 The Nielsen Company (Us), Llc Methods and apparatus to determine the speed-up of media programs using speech recognition
US11470130B1 (en) 2021-06-30 2022-10-11 Amazon Technologies, Inc. Creating media content streams from listener interactions
US11496776B1 (en) 2021-07-19 2022-11-08 Intrado Corporation Database layer caching for video communications
CN114286169B (zh) * 2021-08-31 2023-06-20 腾讯科技(深圳)有限公司 视频生成方法、装置、终端、服务器及存储介质
US11687576B1 (en) 2021-09-03 2023-06-27 Amazon Technologies, Inc. Summarizing content of live media programs
US11785299B1 (en) 2021-09-30 2023-10-10 Amazon Technologies, Inc. Selecting advertisements for media programs and establishing favorable conditions for advertisements
US11463772B1 (en) 2021-09-30 2022-10-04 Amazon Technologies, Inc. Selecting advertisements for media programs by matching brands to creators
US11831943B2 (en) * 2021-10-26 2023-11-28 Apple Inc. Synchronized playback of media content
US11785272B1 (en) 2021-12-03 2023-10-10 Amazon Technologies, Inc. Selecting times or durations of advertisements during episodes of media programs
US11916981B1 (en) 2021-12-08 2024-02-27 Amazon Technologies, Inc. Evaluating listeners who request to join a media program
US11791920B1 (en) 2021-12-10 2023-10-17 Amazon Technologies, Inc. Recommending media to listeners based on patterns of activity
US11785278B1 (en) * 2022-03-18 2023-10-10 Comcast Cable Communications, Llc Methods and systems for synchronization of closed captions with content output
US11910044B1 (en) * 2022-06-30 2024-02-20 Amazon Technologies, Inc. Systems and methods for switching the processing of a live content stream to another datacenter

Family Cites Families (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4811399A (en) 1984-12-31 1989-03-07 Itt Defense Communications, A Division Of Itt Corporation Apparatus and method for automatic speech recognition
DE69031842T2 (de) 1989-02-20 1998-04-16 Fujitsu Ltd Lernsystem und Lernverfahren für eine Datenverarbeitungsvorrichtung
US5436653A (en) * 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments
US6044365A (en) 1993-09-01 2000-03-28 Onkor, Ltd. System for indexing and retrieving graphic and sound data
WO1996027983A1 (en) 1995-03-07 1996-09-12 Interval Research Corporation System and method for selective recording of information
US5706364A (en) 1995-04-28 1998-01-06 Xerox Corporation Method of producing character templates using unsegmented samples
US7562392B1 (en) * 1999-05-19 2009-07-14 Digimarc Corporation Methods of interacting with audio and ambient music
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
DK128796A (da) 1996-11-14 1998-05-15 Jan Meyrowitsch Metode til objektivisering af subjektive klassifikationer
US7802276B2 (en) * 1997-01-06 2010-09-21 At&T Intellectual Property I, L.P. Systems, methods and products for assessing subscriber content access
US7587323B2 (en) * 2001-12-14 2009-09-08 At&T Intellectual Property I, L.P. System and method for developing tailored content
US6157746A (en) 1997-02-12 2000-12-05 Sarnoff Corporation Apparatus and method for encoding wavelet trees generated by a wavelet-based coding method
US5870744A (en) 1997-06-30 1999-02-09 Intel Corporation Virtual people networking
US6553404B2 (en) * 1997-08-08 2003-04-22 Prn Corporation Digital system
CN1505291A (zh) * 1998-05-12 2004-06-16 ���ѷý���о��ɷ����޹�˾ 数字电视的观众测定系统
US6182186B1 (en) * 1998-06-30 2001-01-30 Sun Microsystems, Inc. Method and apparatus that utilizes lock states to lock resources
US6529526B1 (en) 1998-07-13 2003-03-04 Thomson Licensing S.A. System for processing programs and program content rating information derived from multiple broadcast sources
US6471521B1 (en) 1998-07-31 2002-10-29 Athenium, L.L.C. System for implementing collaborative training and online learning over a computer network and related techniques
US7178106B2 (en) * 1999-04-21 2007-02-13 Sonic Solutions, A California Corporation Presentation of media content from multiple media sources
US6895514B1 (en) * 1999-06-25 2005-05-17 Lucent Technologies Inc. Method and apparatus for achieving secure password access
US6604239B1 (en) * 1999-06-25 2003-08-05 Eyescene Inc. System and method for virtual television program rating
US7120871B1 (en) * 1999-09-15 2006-10-10 Actv, Inc. Enhanced video programming system and method utilizing a web page staging area
US7174293B2 (en) * 1999-09-21 2007-02-06 Iceberg Industries Llc Audio identification system and method
KR100353798B1 (ko) 1999-12-01 2002-09-26 주식회사 코난테크놀로지 영상 객체 모양 정보 추출 방법 및 그를 이용한 내용기반 이미지 검색 시스템 및 그 방법
DE19962281A1 (de) 1999-12-23 2001-06-28 Philips Corp Intellectual Pty Röntgenuntersuchungsgerät
US6892191B1 (en) * 2000-02-07 2005-05-10 Koninklijke Philips Electronics N.V. Multi-feature combination generation and classification effectiveness evaluation using genetic algorithms
US6879967B1 (en) 2000-03-24 2005-04-12 Ricoh Co., Ltd. Method and apparatus for open data collection
JP3994682B2 (ja) 2000-04-14 2007-10-24 日本電信電話株式会社 放送情報送受信システム
US6636848B1 (en) * 2000-05-31 2003-10-21 International Business Machines Corporation Information search using knowledge agents
US6763339B2 (en) 2000-06-26 2004-07-13 The Regents Of The University Of California Biologically-based signal processing system applied to noise removal for signal extraction
US6751601B2 (en) * 2000-07-21 2004-06-15 Pablo Zegers Method and a system for solving dynamic problems using the dynamical system architecture
EP1303819A1 (de) * 2000-07-22 2003-04-23 ABB Research Ltd. System und verfahren zur generierung eines xml-basierten fehlermodells
US7853664B1 (en) * 2000-07-31 2010-12-14 Landmark Digital Services Llc Method and system for purchasing pre-recorded music
IL139368A (en) 2000-10-30 2006-12-10 Nova Measuring Instr Ltd Process control for microlithography
US7375304B2 (en) 2001-01-25 2008-05-20 Lincoln Global, Inc. System and method providing automated welding notification
US7330717B2 (en) 2001-02-23 2008-02-12 Lucent Technologies Inc. Rule-based system and method for managing the provisioning of user applications on limited-resource and/or wireless devices
US20020133499A1 (en) 2001-03-13 2002-09-19 Sean Ward System and method for acoustic fingerprinting
JP4340398B2 (ja) * 2001-05-15 2009-10-07 日本放送協会 双方向型放送視聴システム
US20020194585A1 (en) 2001-06-15 2002-12-19 Connelly Jay H. Methods and apparatus for providing ranking feedback for content in a broadcast system
EP1421521A2 (en) * 2001-07-31 2004-05-26 Gracenote, Inc. Multiple step identification of recordings
JP4165685B2 (ja) * 2001-08-09 2008-10-15 ヤマハ株式会社 コンテンツ販売サーバ及びプログラム
FR2831981B1 (fr) 2001-11-08 2005-07-08 Cit Alcatel Procede et dispositif d'analyse d'alarmes provenant d'un reseau de communication
JP2003150529A (ja) * 2001-11-19 2003-05-23 Hitachi Ltd 情報交換方法、情報交換端末装置、情報交換サーバ装置、プログラム
JP2003163911A (ja) * 2001-11-22 2003-06-06 Nippon Telegr & Teleph Corp <Ntt> 好感度情報に基づく映像再生制御方法、映像再生制御システム、サーバ装置、クライアント装置、並びに、映像再生制御プログラム及びその記録媒体
US7065544B2 (en) 2001-11-29 2006-06-20 Hewlett-Packard Development Company, L.P. System and method for detecting repetitions in a multimedia stream
JP3872980B2 (ja) * 2001-12-12 2007-01-24 松下電器産業株式会社 情報再生装置
US6585521B1 (en) 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
US7038619B2 (en) * 2001-12-31 2006-05-02 Rdp Associates, Incorporated Satellite positioning system enabled media measurement system and method
WO2003096669A2 (en) 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
US7665035B2 (en) * 2002-05-20 2010-02-16 Gateway, Inc. Content selection apparatus, system, and method
JP2003345729A (ja) * 2002-05-24 2003-12-05 Matsushita Electric Ind Co Ltd テレビチャットシステム、テレビチャット端末装置、テレビチャットサーバ、テレビチャットサービス提供方法、およびプログラム
US6766523B2 (en) 2002-05-31 2004-07-20 Microsoft Corporation System and method for identifying and segmenting repeating media objects embedded in a stream
EP1514417A4 (en) 2002-05-31 2005-06-15 Predictive Media Corp METHOD AND SYSTEM FOR STORING, LOOKING AND MANAGING AND DELIVERING TARGETED ADVERTISING
US20030225833A1 (en) * 2002-05-31 2003-12-04 Paul Pilat Establishing multiparty communications based on common attributes
JP2004015087A (ja) * 2002-06-03 2004-01-15 Matsushita Electric Ind Co Ltd 視聴者参加型双方向通信サービスシステム
US7107207B2 (en) 2002-06-19 2006-09-12 Microsoft Corporation Training machine learning by sequential conditional generalized iterative scaling
AU2003280513A1 (en) * 2002-07-01 2004-01-19 Microsoft Corporation A system and method for providing user control over repeating objects embedded in a stream
JP2004037721A (ja) * 2002-07-02 2004-02-05 Pioneer Electronic Corp 音声応答システム、音声応答プログラム及びそのための記憶媒体
JP2004049438A (ja) 2002-07-18 2004-02-19 Olympia:Kk メダル振り分け機構を備えた遊技機及びメダル振り分け方法並びに記録媒体及びプログラム
JP2004159192A (ja) * 2002-11-07 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法及びプログラム及び映像要約プログラムを格納した記憶媒体
US7930716B2 (en) * 2002-12-31 2011-04-19 Actv Inc. Techniques for reinsertion of local market advertising in digital video from a bypass source
JP2004213570A (ja) * 2003-01-08 2004-07-29 Sony Corp 情報提供方法
JP2004235694A (ja) * 2003-01-28 2004-08-19 Mitsubishi Electric Corp サーバ装置および放送受信機
US7913279B2 (en) * 2003-01-31 2011-03-22 Microsoft Corporation Global listings format (GLF) for multimedia programming content and electronic program guide (EPG) information
US20050009620A1 (en) 2003-02-14 2005-01-13 Hodgetts George W. Golf club shaft with adjustable flex
US20040216041A1 (en) * 2003-04-24 2004-10-28 Amir Ajizadeh System and methods in interactive television and radio ratings through the internet and the telephone
JP2005107529A (ja) * 2003-09-25 2005-04-21 Ricoh Co Ltd 時間ベースメディアのための印刷可能表現
US7788696B2 (en) * 2003-10-15 2010-08-31 Microsoft Corporation Inferring information about media stream objects
JP4466055B2 (ja) * 2003-11-28 2010-05-26 ソニー株式会社 コミュニケーションシステム、コミュニケーション方法、端末装置、情報提示方法、メッセージ交換装置およびメッセージ交換方法
JP2005167349A (ja) * 2003-11-28 2005-06-23 Matsushita Electric Ind Co Ltd 番組コンテンツ送出装置
US7281219B2 (en) 2003-12-05 2007-10-09 International Business Machines Corporation Blended learning experience tool and method
US20050147256A1 (en) 2003-12-30 2005-07-07 Peters Geoffrey W. Automated presentation of entertainment content in response to received ambient audio
US20050193016A1 (en) * 2004-02-17 2005-09-01 Nicholas Seet Generation of a media content database by correlating repeating media content in media streams
US7197502B2 (en) * 2004-02-18 2007-03-27 Friendly Polynomials, Inc. Machine-implemented activity management system using asynchronously shared activity data objects and journal data items
US8229751B2 (en) 2004-02-26 2012-07-24 Mediaguide, Inc. Method and apparatus for automatic detection and identification of unidentified Broadcast audio or video signals
US7546086B2 (en) * 2004-05-07 2009-06-09 Telefonaktiebolaget L M Ericsson (Publ) Ad-hoc messaging between wireless devices
US20060080356A1 (en) * 2004-10-13 2006-04-13 Microsoft Corporation System and method for inferring similarities between media objects
US7472096B2 (en) 2005-07-18 2008-12-30 Microsoft Corporation Training a learning system with arbitrary cost functions
BRPI0619388A2 (pt) 2005-11-29 2011-10-04 Google Inc aplicações sociais e interativas para mìdia de massa
US7617164B2 (en) 2006-03-17 2009-11-10 Microsoft Corporation Efficiency of training for ranking systems based on pairwise training with aggregated gradients
US7831531B1 (en) * 2006-06-22 2010-11-09 Google Inc. Approximate hashing functions for finding similar content

Also Published As

Publication number Publication date
AU2006320693B2 (en) 2012-03-01
EP1955458A2 (en) 2008-08-13
US8479225B2 (en) 2013-07-02
BRPI0619388A2 (pt) 2011-10-04
US20120059845A1 (en) 2012-03-08
KR20080073357A (ko) 2008-08-08
EP1955458B1 (en) 2012-07-11
US7991770B2 (en) 2011-08-02
WO2007064640A3 (en) 2007-12-06
EP1958362A2 (en) 2008-08-20
US20070124756A1 (en) 2007-05-31
AU2006320693A1 (en) 2007-06-07
KR20080075896A (ko) 2008-08-19
KR101371574B1 (ko) 2014-03-14
AU2006320692A1 (en) 2007-06-07
JP2013009436A (ja) 2013-01-10
US8700641B2 (en) 2014-04-15
US20070130580A1 (en) 2007-06-07
WO2007064640A2 (en) 2007-06-07
JP2009518884A (ja) 2009-05-07
WO2007064641A3 (en) 2009-05-14
EP1955458A4 (en) 2010-03-17
BRPI0619197A2 (pt) 2011-09-20
CA2631151C (en) 2015-10-13
US20150156542A1 (en) 2015-06-04
IL191814A0 (en) 2008-12-29
CA2631270A1 (en) 2007-06-07
EP1986145A1 (en) 2008-10-29
CA2631151A1 (en) 2007-06-07
US8442125B2 (en) 2013-05-14
US20070143778A1 (en) 2007-06-21
WO2007064641A2 (en) 2007-06-07
US20170366847A1 (en) 2017-12-21
JP2009524273A (ja) 2009-06-25
JP6161249B2 (ja) 2017-07-12
EP1958362A4 (en) 2010-03-17

Similar Documents

Publication Publication Date Title
ES2386977T3 (es) Aplicaciones sociales e interactivas para medios masivos
CN101517550B (zh) 大众传媒的社会性和交互式应用
US9602855B2 (en) Systems and methods for automated extraction of closed captions in real time or near real-time and tagging of streaming data for advertisements
KR101618540B1 (ko) 대화식 방송 콘텐츠에 대한 시스템들 및 방법들
US10455269B2 (en) Systems and methods for automated extraction of closed captions in real time or near real-time and tagging of streaming data for advertisements
CN102216945B (zh) 通过媒体指纹进行联网
Fink et al. Social-and interactive-television applications based on real-time ambient-audio identification
CN112753227A (zh) 用于在体育事件电视节目中检测人群噪声的发生的音频处理
US11991405B2 (en) Systems and methods for automated extraction of closed captions in real time or near real-time and tagging of streaming data for advertisements
Fink et al. Mass personalization: social and interactive applications using sound-track identification