DE102017117023A1 - Verfahren, System und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes - Google Patents

Verfahren, System und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes Download PDF

Info

Publication number
DE102017117023A1
DE102017117023A1 DE102017117023.5A DE102017117023A DE102017117023A1 DE 102017117023 A1 DE102017117023 A1 DE 102017117023A1 DE 102017117023 A DE102017117023 A DE 102017117023A DE 102017117023 A1 DE102017117023 A1 DE 102017117023A1
Authority
DE
Germany
Prior art keywords
media content
content item
implementations
secondary device
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017117023.5A
Other languages
English (en)
Inventor
Boris Smus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE102017117023A1 publication Critical patent/DE102017117023A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43079Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on multiple devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Abstract

Verfahren, Systeme und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes werden bereitgestellt. In einigen Implementierungen umfasst das Verfahren: Identifizieren, mithilfe eines sekundären Geräts, eines Medieninhaltselements, das auf einem primären Gerät präsentiert wird; Erkennen, mithilfe des sekundären Geräts, eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Identifizieren, mithilfe des sekundären Geräts, einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Ermitteln, mithilfe des sekundären Geräts, von ergänzenden Inhalten, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Veranlassen der Präsentation der ergänzenden Inhalte auf dem sekundären Gerät.

Description

  • Technisches Gebiet
  • Der offenbarte Gegenstand bezieht sich auf Verfahren, Systeme und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes.
  • Hintergrund
  • Benutzer schauen häufig Filme oder Fernsehprogramme auf einem Gerät an, während sie mit einem zweiten Gerät, wie z. B. einem Mobiltelefon oder Tablet-Computer, interagieren. Diese Benutzer könnten sich über das Empfangen von ergänzenden Inhalten freuen, die für die Inhalte relevant sind, die sie gerade betrachten, wie z. B. Wissenswertes über Schauspieler, die im Inhalt erscheinen, eine Identifizierung eines Songs, der im Inhalt wiedergegeben wird, und/oder andere Informationen über Produkte, die im Inhalt auf dem zweiten Gerät erscheinen, während der Inhalt auf dem ersten Gerät betrachtet wird. Es kann jedoch schwierig sein, die relevanten ergänzenden Inhalte sowie eine geeignete Zeit für das Präsentieren dieser Inhalte zu identifizieren.
  • Demgemäß ist es wünschenswert, Verfahren, Systeme und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes bereitzustellen.
  • Kurzdarstellung der Offenbarung
  • Verfahren, Systeme und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes werden bereitgestellt.
  • Gemäß einigen Implementierungen des vorliegenden Gegenstands wird ein Verfahren für die Ergänzung von Medieninhalten bereitgestellt, das Verfahren umfassend: Identifizieren, mithilfe eines sekundären Geräts, eines Medieninhaltselements, das auf einem primären Gerät präsentiert wird; Erkennen, mithilfe des sekundären Geräts, eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Identifizieren, mithilfe des sekundären Geräts, einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Ermitteln, mithilfe des sekundären Geräts, von ergänzenden Inhalten, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Veranlassen der Präsentation der ergänzenden Inhalte auf dem sekundären Gerät.
  • In einigen Implementierungen beinhalten die ergänzenden Inhalte Informationen über einen Schauspieler, der im Medieninhaltselement an der aktuellen Wiedergabeposition enthalten ist.
  • In einigen Implementierungen beinhalten die ergänzenden Inhalte eine Werbeanzeige.
  • In einigen Implementierungen ist der Ton, der im Teil des Audioinhalts eingebettet ist, in einem nicht hörbaren Frequenzbereich.
  • In einigen Implementierungen umfasst das Identifizieren der ergänzenden Inhalte das Abfragen einer Datenbank mit der Kennung des Medieninhaltselements und einer Angabe der aktuellen Wiedergabeposition.
  • In einigen Implementierungen beinhaltet der Teil des Audioinhalts eine Audiospur, die mit dem Medieninhaltselement verbunden ist, und das Verfahren umfasst ferner das Empfangen, am sekundären Gerät, einer Zuordnung, die eine Vielzahl von Wiedergabepositionen angibt, die jeweils einem aus einer Vielzahl von Tönen entspricht, die in der Audiospur eingebettet sind, wobei das Identifizieren der aktuellen Wiedergabeposition auf der Zuordnung basiert.
  • In einigen Implementierungen umfasst das Verfahren ferner das Ermitteln, dass die Präsentation des Medieninhaltselements auf dem primären Gerät angehalten wurde, durch Erkennen, dass ein erwarteter Ton der Vielzahl von Tönen, die in der Zuordnung angegeben sind, innerhalb eines bestimmten Zeitraums nicht erkannt wurde.
  • In einigen Implementierungen wird das Medieninhaltselement auf Basis einer Sequenz identifiziert, die durch das primäre Gerät ausgesendet wird, das eine Kennung des Medieninhaltselements codiert, und vom sekundären Gerät erkannt wird.
  • Gemäß einigen Implementierungen des vorliegenden Gegenstands wird ein System für die Ergänzung von Medieninhalten bereitgestellt, das System umfassend einen Hardwareprozessor, der für Folgendes konfiguriert ist: Identifizieren eines Medieninhaltselements, das auf einem primären Gerät präsentiert wird; Erkennen eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Identifizieren einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Ermitteln von ergänzenden Inhalten, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Veranlassen der Präsentation der ergänzenden Inhalte auf dem sekundären Gerät.
  • Gemäß einigen Implementierungen des vorliegenden Gegenstands wird ein nicht transitorisches computerlesbares Medium bereitgestellt, das von einem Computer ausführbare Anweisungen enthält, die, wenn sie durch einen Prozessor ausgeführt werden, den Prozessor veranlassen, ein Verfahren für die Ergänzung von Medieninhalten durchzuführen, das Verfahren umfassend: Identifizieren eines Medieninhalts, der auf einem primären Gerät präsentiert wird; Erkennen eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Identifizieren einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Ermitteln ergänzender Inhalte, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Veranlassen der Präsentation der ergänzenden Inhalte auf dem sekundären Gerät.
  • Gemäß einigen Implementierungen des vorliegenden Gegenstands wird ein System für die Ergänzung von Medieninhalten bereitgestellt, das System umfassend: Mittel für das Identifizieren eines Medieninhaltselements, das auf einem primären Gerät präsentiert wird; Mittel für das Erkennen eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Mittel für das Identifizieren einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Mittel für das Ermitteln von ergänzenden Inhalten, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Mittel für das Veranlassen der Präsentation der ergänzende Inhalte auf dem sekundären Gerät.
  • Kurze Beschreibung der Zeichnungen
  • Verschiedene Objekte, Merkmale und Vorteile des offenbarten Gegenstands können bezugnehmend auf die folgende ausführliche Beschreibung des offenbarten Gegenstands vollständig erfasst werden, wenn sie in Zusammenhang mit den folgenden Zeichnungen betrachtet werden, in denen gleiche Bezugsnummern gleiche Elemente identifizieren.
  • Die 1A und 1B zeigen Beispiele von Benutzeroberflächen für das Präsentieren ergänzender Inhalte gemäß einigen Implementierungen des offenbarten Gegenstands.
  • 2 zeigt ein schematisches Diagramm eines veranschaulichenden Systems, das gemäß einigen Implementierungen des offenbarten Gegenstands für die Implementierung von hierin beschriebenen Mechanismen für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes geeignet ist.
  • 3 zeigt ein detailliertes Beispiel von Hardware, die gemäß einigen Ausführungsformen des offenbarten Gegenstands in einem Server und/oder Benutzergerät von 2 verwendet werden kann.
  • 4 zeigt ein Beispiel eines Informationsflussdiagramms für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes gemäß einigen Implementierungen des offenbarten Gegenstands.
  • 5 zeigt ein Beispiel eines Prozesses für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes gemäß einigen Implementierungen des vorliegenden Gegenstands.
  • Ausführliche Beschreibung
  • Gemäß verschiedenen Implementierungen werden Mechanismen (die Verfahren, Systeme und Medien beinhalten können) für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes bereitgestellt.
  • Gemäß einigen Implementierungen können die Mechanismen das Präsentieren eines Medieninhaltselements auf einem primären Gerät (z. B. einem Fernsehgerät, einem Projektor, einem Audiolautsprecher, einem Desktop-Computer usw.) veranlassen, zudem können sie, zu einem oder mehreren Zeitpunkten, das Präsentieren ergänzender Inhalte, die zu dem bestimmte Zeitpunkt für das Medieninhaltselement relevant sind, auf einem sekundären Gerät (z. B. einem Mobiltelefon, einem Tablet-Computer, einem tragbaren Computer usw.) veranlassen. In einigen Implementierungen können die ergänzenden Inhalte ein Quiz in Verbindung mit dem Medieninhaltselement, eine Identifizierung eines Songs, der gerade im Medieninhaltselement wiedergegeben wird, Wissenswertes über einen Schauspieler im Medieninhaltselement, Informationen über Produkte, die im Medieninhaltselement präsentiert werden, Werbeanzeigen und/oder irgendeinen anderen geeigneten ergänzenden Inhalte beinhalten.
  • In einigen Implementierungen kann das primäre Gerät eine Sequenz aussenden, wenn die Präsentation des Medieninhaltselements beginnt, die eine Kennung des Medieninhaltselements codiert. In einigen Implementierungen kann die Sequenz zum Beispiel eine binäre Sequenz irgendeiner geeigneten Länge sein, die die Kennung angibt. In einigen Implementierungen kann das primäre Gerät die Sequenz erkennen und decodieren, um eine Kennung des Medieninhaltselements zu ermitteln. Die Kennung kann dann nachfolgend verwendet werden, um relevante ergänzende Inhalte zu identifizieren.
  • In einigen Implementierungen können die Mechanismen das Einbetten eines oder mehrerer akustischer Töne in einer Audiospur des Medieninhaltselements veranlassen, die durch das primäre Gerät während der Präsentation des Medieninhaltselements ausgesendet werden können. In einigen Implementierungen kann das sekundäre Gerät die akustischen Töne (z. B. über ein Mikrofon des sekundären Geräts) erkennen und eine aktuelle Wiedergabeposition des Medieninhaltselements und eine Zuordnung, die dem Medieninhaltselement entspricht, das vom sekundären Gerät vorher empfangen wurde, basierend darauf identifizieren, wann der Ton erkannt wird. In einigen Implementierungen kann das sekundäre Gerät dann eine Datenbank mit der Kennung des Medieninhaltselements und einer Angabe der aktuellen Wiedergabeposition abfragen und in Reaktion auf die Abfrage ergänzende Inhalte empfangen, die für die aktuelle Wiedergabeposition relevant sind. Das sekundäre Gerät kann dann das Präsentieren der ergänzenden Inhalte veranlassen. In einigen Implementierungen können die akustischen Töne in einer Frequenz sein, die im Allgemeinen für Menschen nicht hörbar ist, zum Beispiel in einer Frequenz, die höher als der obere hörbare Bereich ist. In einigen Implementierungen kann eine geeignete Anzahl von Tönen in geeigneten Zeitintervallen (z. B. zu einem Zeitpunkt, der vom Ersteller des Medieninhaltselements angegeben wurde, in regelmäßigen, periodischen Zeitintervallen und/oder einem anderen geeigneten Zeitintervall) ausgesendet werden.
  • Bezugnehmend auf 1A ist ein Beispiel 100 einer Benutzeroberfläche für das Präsentieren von Inhalten auf einem primären Gerät (z. B. einem Fernsehgerät, einem Projektor, einem Audio-Lautsprecher, einem Desktop-Computer, einem Laptop-Computer und/oder einem anderen geeigneten Typ von Benutzergerät) gemäß einigen Implementierungen des offenbarten Gegenstands dargestellt. Wie in Benutzeroberfläche 100 dargestellt, kann zum Beispiel der Videoinhalt 102 auf dem primären Gerät präsentiert werden. In einigen Implementierungen kann der Videoinhalt 102 in einem Videoplayer-Fenster präsentiert werden, das Bedienelemente (z. B. ein Lautstärke-Bedienelement, ein Schnellvorlauf-Bedienelement, ein Rücklauf-Bedienelement und/oder irgendein anderes geeignetes Bedienelement) zum Manipulieren der Präsentation des Videoinhalts 102 beinhaltet. In einigen Implementierungen kann der Videoinhalt 102 eine geeignete Art von Inhalt, wie z. B. ein Video, ein Fernsehprogramm, ein Film, Live-Streaming-Inhalt (z. B. ein Nachrichtenprogramm, eine Sportveranstaltung und/oder eine andere geeignete Art von Inhalt), und/oder ein anderer geeigneter Inhalt sein. Es ist zu beachten, dass in einigen Implementierungen der auf dem primären Gerät präsentierte Inhalt Audioinhalt, wie z. B. Musik, ein Hörbuch, ein Live-Streaming-Radioprogramm, ein Podcast und/oder eine andere geeignete Art von Audioinhalt sein kann.
  • Bezugnehmend auf 1B ist ein Beispiel 150 einer Benutzeroberfläche für das Präsentieren ergänzender Inhalte auf einem sekundären Gerät, die mit dem Inhalt verbunden sind, der auf dem primären Gerät präsentiert wird, gemäß einigen Implementierungen des offenbarten Gegenstands dargestellt. Wie in Benutzeroberfläche 150 dargestellt, kann der ergänzende Inhalt 152 zum Beispiel ein Quiz sein, das mit dem Videoinhalt 102 im Zusammenhang steht (z. B. Wissenswertes zu Videoinhalt 102 und/oder irgendeine andere geeignete Art von Quizfragen). Als anderes Beispiel kann in einigen Implementierungen der ergänzende Inhalt 152 einen Namen eines Charakters und/oder Schauspielers, der im Inhalt auf dem primären Gerät enthalten ist, einen Namen eines Songs, der gerade im Inhalt auf dem primären Gerät wiedergegeben wird, und/oder andere geeignete Informationen im Zusammenhang mit dem Inhalt auf dem primären Gerät angeben. Als noch anderes Beispiel kann in einigen Implementierungen der ergänzende Inhalt 152 eine Werbeanzeige sein. In einem weiteren Beispiel kann in einigen Implementierungen der ergänzende Inhalt 152 eine andere Version des Inhalts beinhalten, der gerade auf dem primären Gerät präsentiert wird (z. B. eine reine Audioversion des Inhalts, eine personalisierte Version des Inhalts auf Basis der Benutzerpräferenzen, die mit dem sekundären Gerät verbunden sind, usw.).
  • Es ist zu beachten, dass in einigen Implementierungen der ergänzende Inhalt 152 mit einem Zeitpunkt des Videoinhalts 102 synchronisiert werden kann. In einigen Implementierungen kann der ergänzende Inhalt 152 zum Beispiel, wie unten in Verbindung mit 4 und 5 beschrieben, zu einer bestimmten Zeit präsentiert werden, die durch einen akustischen Ton angegeben wird, der in einer Audiospur des Videoinhalts 152 eingebettet ist. Außerdem ist zu beachten, dass Techniken für das Identifizieren relevanter ergänzender Inhalte in Verbindung mit 5 näher beschrieben sind.
  • Bezugnehmend auf 2 ist ein Beispiel 200 für Hardware für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes dargestellt, die gemäß einigen Implementierungen des vorliegenden Gegenstands verwendet werden kann. Wie veranschaulicht, kann die Hardware 200 einen oder mehrere Server, beispielsweise einen Inhaltsserver 202, ein Kommunikationsnetzwerk 204 und/oder ein oder mehrere Benutzergeräte 206, wie z. B. Benutzergeräte 208 und 210, beinhalten.
  • In einigen Implementierungen kann der Inhaltsserver 202 ein geeigneter Server zum Speichern von Medieninhalten und Senden der Medieninhalte zur Präsentation an ein Benutzergerät sein. In einigen Implementierungen kann der Inhaltsserver 202 zum Beispiel ein Server sein, der Medieninhalte über das Kommunikationsnetzwerk 204 an das Benutzergerät 206 streamt. In einigen Implementierungen kann es sich bei den Inhalten auf dem Inhaltsserver 202 um einen geeigneten Inhalt, wie z. B. Videoinhalte, Audioinhalte, Filme, Fernsehprogramme, Live-Streaming-Inhaltê, Hörbücher und/oder andere geeignete Arten von Inhalt, handeln. In einigen Implementierungen kann der Inhaltsserver 202 weggelassen werden.
  • Das Kommunikationsnetzwerk 204 kann in einigen Implementierungen eine geeignete Kombination eines oder mehrerer verdrahteter und/oder drahtloser Netzwerke sein. Das Kommunikationsnetzwerk 204 kann zum Beispiel das Internet, ein Intranet, ein Großraumnetzwerk (WAN), ein lokales Netzwerk (LAN), ein drahtloses Netzwerk, ein digitales Teilnehmeranschlussleitungs-(DSL)-Netzwerk, ein Frame-Relay-Netzwerk, ein Asynchrones Transfermodus-ATM)-Netzwerk, ein Virtuelles Privates Netzwerk (VPN) und/oder ein anderes geeignetes Kommunikationsnetzwerk sein. Die Benutzergeräte 206 können durch eine oder mehrere Kommunikationsverbindungen 212 mit dem Kommunikationsnetzwerk 204 verbunden sein, das über eine oder mehrere Kommunikationsverbindungen (z. B. Kommunikationsverbindungen 214) mit dem Inhaltsserver 202 vernetzt sein kann. Die Kommunikationsverbindungen 212 und/oder 214 können beliebige Kommunikationsverbindungen sein, die für das Kommunizieren von Daten zwischen Benutzergeräten 206 und Server 202, wie z. B. Netzwerkverbindungen, Einwählverbindungen, drahtlosen Verbindungen, festverdrahteten Verbindungen, anderen geeigneten Kommunikationsverbindungen oder geeigneten Kombination dieser Verbindungen, geeignet sind.
  • In einigen Implementierungen können die Benutzergeräte 206 eines oder mehrere Computergeräte beinhalten, die für das Anzeigen von Audio- oder Videoinhalten, Anzeigen ergänzender Inhalte und/oder anderer geeigneter Funktionen geeignet sind. In einigen Implementierungen können die Benutzergeräte 206 als Mobilgeräte, wie z. B. als Smartphone, Mobiltelefon, Tablet-Computer, tragbarer Computer, Laptop-Computer, Entertainment-System eines Fahrzeugs (z. B. eines Autos, Boots, Flugzeugs oder eines anderen geeigneten Fahrzeugs), tragbarer Media-Player und/oder anderes geeignetes Mobilgerät, implementiert sein. Als weiteres Beispiel können in einigen Implementierungen die Benutzergeräte 206 als nicht-mobile Geräte, wie z. B. als Desktop-Computer, Set-Top-Box, Fernsehgerät, Streaming-Media-Player, Spielekonsole und/oder anderes geeignetes nicht-mobiles Gerät, implementiert sein.
  • In einigen Implementierungen kann das Benutzergerät 206 ein primäres Gerät 208 und ein sekundäres Gerät 210 beinhalten. In einigen Implementierungen kann das primäre Gerät 208 ein Inhaltselement (z. B. ein Video, Audioinhalt, ein Fernsehprogramm, einen Film und/oder einen anderen geeigneten Inhalt) präsentieren. In einigen Implementierungen kann das sekundäre Gerät 210 ergänzende Inhalte präsentieren, die für den Inhalt relevant sind, der auf dem primären Gerät 208 präsentiert wird. In einigen Implementierungen kann das sekundäre Gerät 210, wie unten in Verbindung mit 4 und 5 beschrieben, zum Beispiel Informationen in Verbindung mit dem Inhaltselement präsentieren.
  • Obgleich Inhaltsserver 202 als einzelnes Gerät veranschaulicht ist, können die vom Inhaltsserver 202 durchgeführten Funktionen in einigen Implementierungen mithilfe einer geeigneten Anzahl von Geräten durchgeführt werden. In einigen Implementierungen können zum Beispiel mehrere Geräte verwendet werden, um die vom Inhaltsserver 202 durchgeführten Funktionen zu implementieren.
  • Obgleich in 2 zwei Benutzergeräte 208 und 210 dargestellt sind, können in einigen Implementierungen eine geeignete Anzahl von Benutzergeräten und/oder eine geeignete Art von Benutzergerät verwendet werden.
  • Der Inhaltsserver 202 und die Benutzergeräte 206 können in einigen Implementierungen mithilfe einer geeigneten Hardware implementiert werden. In einigen Implementierungen können zum Beispiel die Geräte 202 und 206 mithilfe eines geeigneten Universal- oder Spezialrechners implementiert werden. Beispielsweise kann ein Server unter Verwendung eines Universalrechners implementiert werden. Diese Universal- oder Spezialrechner können eine beliebige geeignete Hardware beinhalten. Wie in der exemplarischen Hardware 300 von 3 veranschaulicht, kann diese Hardware zum Beispiel Hardwareprozessor 302, Arbeitsspeicher und/oder Datenspeicher 304, einen Eingabegerätecontroller 306, ein Eingabegerät 308, Anzeige-/Audiotreiber 310, Anzeige- und Audio-Ausgabeschaltung 312, Kommunikationsschnittstelle(n) 314, eine Antenne 316 und einen Bus 318 beinhalten.
  • Der Hardwareprozessor 302 kann in einigen Implementierungen einen geeigneten Hardwareprozessor, wie z. B. einen Mikroprozessor, einen Mikrocontroller, einen oder mehrere digitale Signalprozessor(en), eine dedizierte Logik und/oder eine andere zum Steuern der Funktionen eines Universalrechners oder eines Spezialrechners geeignete Schaltung, beinhalten. In einigen Implementierungen kann der Hardwareprozessor 302 durch ein Serverprogramm gesteuert werden, das im Arbeitsspeicher und/oder in Datenspeicher 304 eines Servers (z. B. Inhaltsserver 202) gespeichert ist. In einigen Implementierungen kann der Hardwareprozessor 302 durch ein Computerprogramm gesteuert werden, das im Arbeitsspeicher und/oder in Datenspeicher 304 des primären Geräts 208 gespeichert ist. Das Computerprogramm kann zum Beispiel den Hardwareprozessor 302 des primären Geräts 208 veranlassen, das Präsentieren eines Medieninhaltselements zu beginnen, Töne auszusenden, die in einer Audiospur des Medieninhaltselements eingebettet sind, und/oder eine andere geeignete Funktion durchzuführen. In einigen Implementierungen kann der Hardwareprozessor 302 durch ein Computerprogramm gesteuert werden, das im Arbeitsspeicher und/oder in Datenspeicher 304 des sekundären Geräts 210 gespeichert ist. In einigen Implementierungen kann das Computerprogramm den Hardwareprozessor 302 des sekundären Geräts 210 veranlassen, einen akustischen Ton zu erkennen, der vom primären Gerät 208 ausgesendet wird, eine Wiedergabepostion in einem Medieninhaltselement zu erkennen, die dem erkannten Ton entspricht, ergänzende Inhalte zu identifizieren, die für die Wiedergabeposition relevant sind, die ergänzenden Inhalte zu präsentieren und beliebige andere geeignete Funktionen durchzuführen.
  • Der Arbeitsspeicher und/oder Datenspeicher 304 kann in einigen Implementierungen ein zum Speichern von Programmen, Daten, Medieninhalten, Werbeanzeigen und/oder beliebigen anderen geeigneten Informationen geeigneter Speicher sein. Der Arbeitsspeicher und/oder Datenspeicher 304 kann zum Beispiel einen Direktzugriffsspeicher, einen schreibgeschützten Speicher, einen Flash-Speicher, einen Festplattenspeicher, optische Datenträger und/oder einen anderen geeigneten Speicher beinhalten.
  • Der Eingabegerätecontroller 306 kann in einigen Implementierungen eine zum Steuern und Empfangen von Eingaben von einem oder mehreren Eingabegeräten 308 geeignete Schaltung sein. Der Eingabegerätecontroller 306 kann zum Beispiel eine Schaltung zum Empfangen von Eingaben von einem Berührungsbildschirm, von einer Tastatur, von einer Maus, von einer oder mehreren Tasten, von einer Spracherkennungsschaltung, von einem Mikrofon, von einer Kamera, von einem optischen Sensor, von einem Beschleunigungssensor, von einem Temperatursensor, von einem Nahbereichsensor und/oder von einer anderen Art von Eingabegerät sein.
  • Die Anzeige-/Audiotreiber 310 können in einigen Implementierungen eine zum Steuern und Ansteuern von Ausgaben an ein oder mehrere Anzeige-/Audio-Ausgabegeräte 312 geeignete Schaltung sein. Die Anzeige-/Audiotreiber 310 können zum Beispiel eine Schaltung für das Betreiben eines Berührungsbildschirms, einer Flachbildschirmanzeige, einer Kathodenstrahlröhrenanzeige, eines Projektors, eines oder mehrerer Lautsprecher und/oder anderer geeigneter Anzeige- und/oder Präsentationsgeräte sein.
  • Die Kommunikationsschnittstelle(n) 314 kann/können eine geeignete Schaltung für das schnittstellenmäßige Verbinden mit einem oder mehreren Kommunikationsnetzwerken, wie z. B. dem in in 2 dargestellten Netzwerk 204, sein. Die Schnittstelle(n) 314 kann/können zum Beispiel mit Netzwerkschnittstellenkartenschaltungen, Drahtloskommunikationsschaltungen und/oder eine andere geeignete Art von Kommunikationsnetzwerkschaltungen beinhalten.
  • Die Antenne 316 kann in einigen Implementierungen eine oder mehrere beliebige Antennen sein, die zur drahtlosen Kommunikation mit einem Kommunikationsnetzwerk (z. B. Kommunikationsnetzwerk 204) geeignet sind. In einigen Implementierungen kann die Antenne 316 weggelassen werden.
  • Der Bus 318 kann in einigen Implementierungen ein zur Kommunikation zwischen zwei oder mehreren Komponenten 302, 304, 306, 310 und 314 geeigneter Mechanismus sein.
  • Gemäß einigen Ausführungsformen können andere geeignete Komponenten in der Hardware 300 enthalten sein.
  • Bezugnehmend auf 4 ist ein Beispiel 400 eines Informationsflussdiagramms zum Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes gemäß einigen Implementierungen des offenbarten Gegenstands dargestellt. Wie dargestellt, können in einigen Implementierungen Blöcke des Informationsflussdiagramms 400 auf dem Inhaltsserver 202, dem primären Gerät 208 und dem sekundären Gerät 210 implementiert werden.
  • Bei 402 kann der Inhaltsserver 202 ein Medieninhaltselement und eine Zuordnung der akustischen Töne zu Zeitpunkten im Medieninhaltselement an primäres Gerät 208 senden. Wie oben beschrieben, kann in einigen Implementierungen das Medieninhaltselement eine geeignete Art von Medieninhalt, wie z. B. ein Video, ein Film, ein Fernsehprogramm, ein Song, ein Hörbuch, ein Podcast, ein Live-Streaming-Inhalt und/oder eine andere geeignete Art von Inhalt sein. Außerdem kann in einigen Implementierungen der Inhaltsserver 202 eine Sammlung von Medieninhaltselementen, wie z. B. eine Wiedergabeliste von Songs und/oder Videos und/oder eine andere geeignete Art von Sammlung, senden. Es ist zu beachten, dass in einigen Implementierungen die akustischen Töne in einer Audiospur (oder einem anderen geeigneten Teil des Audioinhalts) des Medieninhaltselements eingebettet sein können.
  • In einigen Implementierungen kann der Inhaltsserver 202 das Medieninhaltselement und die Zuordnung in Reaktion auf geeignete Informationen senden. In einigen Implementierungen kann der Inhaltsserver 202 zum Beispiel das Medieninhaltselement und die Zuordnung in Reaktion auf das Empfangen einer Anfrage nach dem Medieninhaltselement vom primären Gerät 208 senden.
  • In einigen Implementierungen kann die Zuordnung jegliche geeigneten Informationen beinhalten. In einigen Implementierungen kann die Zuordnung Zeitpunkte angeben, die mit einem oder mehreren akustischen Tönen verbunden sind, die während der Präsentation des Medieninhaltselements ausgesendet werden. Als spezielles Beispiel kann in einigen Implementierungen die Zuordnung eine erste Zeit angeben, zu der ein erster akustischer Ton ausgesendet wird, eine zweite Zeit, zu der ein zweiter akustischer Ton ausgesendet wird, usw. Ein spezifisches Beispiel einer Zuordnung ist: [ID1: 5s; ID2: 10s; ID3: 13s], was angeben kann, dass ein erster akustischer Ton fünf Sekunden nach Beginn der Präsentation des Medieninhaltselements ausgesendet wird, ein zweiter akustischer Ton zehn Sekunden nach Beginn der Präsentation des Medieninhaltselements ausgesendet wird und ein dritter akustischer Ton dreizehn Sekunden nach Beginn der Präsentation des Medieninhaltselements ausgesendet wird. Es ist zu beachten, dass in einigen Implementierungen eine geeignete Anzahl (z. B. eins, zwei, fünf, zehn und/oder eine andere geeignete Anzahl) von akustischen Tönen in der Zuordnung angegeben werden kann.
  • Bei 404 kann das primäre Gerät 208 die empfangene Zuordnung zum zweiten Gerät 210 senden. In einigen Implementierungen kann das primäre Gerät 208 eine Sequenz aussenden, die Informationen codiert, die die Zuordnung zum Beispiel als eine Reihe von Tönen angeben. Als spezielles Beispiel können in einigen Implementierungen die Informationen, die die Zuordnung angeben, in einer Reihe von Tönen auf eine geeignete Weise, wie z. B. durch Amplituden- oder Frequenzmodulation und/oder auf eine beliebige geeignete Weise, codiert sein. In einigen Implementierungen kann ein geeignetes Schema verwendet werden, um die Informationen, wie z. B. Chirp Spread Spectrum (CSS), Direct Sequence Spread Spectrum (DSSS), Dual Tone Multi-Frequency (DTMF), und/oder ein anderes geeignetes Schema, zu codieren.
  • Bei 406 kann das sekundäre Gerät 210 die Zuordnung vom primären Gerät 208 empfangen, um sie zu verwenden, wenn das primäre Gerät 208 das Medieninhaltselement präsentiert. In einigen Implementierungen kann das sekundäre Gerät 210 die Zuordnung an einem geeigneten Ort, wie z. B. im Arbeitsspeicher 304 des sekundären Geräts 210, speichern.
  • Bei 408 kann das primäre Gerät 208 mit dem Präsentieren des Medieninhaltselements beginnen. In Fällen, in denen das Medieninhaltselement Videoinhalt beinhaltet, kann das primäre Gerät 208 beginnen, den Videoinhalt auf einer Anzeige zu präsentieren, die mit dem primären Gerät 208 verbunden ist. In einem speziellen Beispiel kann ein Benutzer des primären Geräts 208 das Medieninhaltselement aus mehreren Medieninhaltselementen, die für die Präsentation verfügbar sind, aus einer Inhaltsquelle auswählen, zudem kann, in Reaktion auf das Empfangen der Auswahl, das ausgewählte Medieninhaltselement auf einer Anzeige präsentiert werden, die mit dem primären Gerät 208 verbunden ist. In einem anderen speziellen Beispiel kann ein Benutzer des sekundären Geräts 210 das Medieninhaltselement aus mehreren Medieninhaltselementen, die verfügbar sind, aus einer Inhaltsquelle auswählen, zudem kann, in Reaktion auf das Empfangen der Auswahl, das Medieninhaltselement auf einer Anzeige präsentiert werden, die mit dem primären Gerät 208 (z. B. über eine Streaming- oder Casting-Option) verbunden ist. Als weiteres Beispiel kann, in Fällen, in denen das Medieninhaltselement Audioinhalt beinhaltet, das primäre Gerät 208 beginnen, den Audioinhalt auf Lautsprechern zu präsentieren, die mit dem primären Gerät 208 verbunden sind. Ein Beispiel einer Benutzeroberfläche, die zum Präsentieren des Medieninhaltselements auf dem primären Gerät 208 verwendet werden kann, ist oben in Verbindung mit 1A dargestellt und erläutert.
  • Bei 410 kann das primäre Gerät 208 eine Sequenz aussenden, die eine Identität des Medieninhaltselements angibt. In einigen Implementierungen kann die Sequenz zum Beispiel eine binäre Sequenz einer geeigneten Länge sein, die eine Kennung des Medieninhaltselements angibt. In einigen Implementierungen kann die Sequenz ein geeignetes Format, wie z. B. akustische Töne mit einer geeigneten Frequenz und/oder Modulation und/oder einem anderen geeigneten Format, sein. In einigen Implementierungen kann ein geeignetes Schema, wie z. B. CSS, DSSS, DTMF, und/oder ein anderes geeignetes Schema, verwendet werden, um die Kennung des Medieninhaltselements innerhalb einer Sequenz von akustischen Tönen zu codieren. Es ist zu beachten, dass in einigen Implementierungen die Sequenz in einer Audiospur des Medieninhaltselements eingebettet sein kann. In einigen Implementierungen kann die Sequenz zum Beispiel am Anfangsteil der Audiospur sein, sodass die Sequenz am Anfang der Präsentation des Medieninhaltselements ausgesendet wird.
  • Bei 412 kann das sekundäre Gerät 210 die Sequenz erkennen und das Medieninhaltselement auf Basis der Sequenz identifizieren. Das sekundäre Gerät 210 kann eine geeignete Technik oder Kombination von Techniken verwenden, um das Medieninhaltselement zu identifizieren. In einigen Implementierungen kann das sekundäre Gerät 210 zum Beispiel die Sequenz decodieren, um eine entsprechende Identifikationsnummer zu ermitteln. Diese und andere Techniken zum Identifizieren von Medieninhaltselementen auf Basis der Sequenz sind nachfolgend in Verbindung mit Block 506 von 5 beschrieben.
  • Bei 414 kann das primäre Gerät 208 einen akustischen Ton aussenden, der in einer Audiospur des Medieninhaltselements eingebettet ist. In einigen Implementierungen kann der akustische Ton eine geeignete Frequenz und Intensität sein. In einigen Implementierungen kann zum Beispiel der akustische Ton mit einer Frequenz wiedergegeben werden, die im Allgemeinen für menschliche Ohren nicht hörbar ist (z. B. über 19 kHz und/oder innerhalb einer anderen geeigneten Frequenz liegt). In einigen Implementierungen kann der Ton von einer geeigneten Dauer (z. B. 500 Millisekunden, 1 Sekunde und/oder einer anderen geeigneten Dauer) sein. Es ist zu beachten, dass in einigen Implementierungen in Fällen, in denen mehrere Töne in das Medieninhaltselement eingefügt werden, die Töne zu beliebigen Zeiten (z. B. ausgewählt durch einen Ersteller des Inhaltselements, ausgewählt durch einen Host des Inhaltselements und/oder ausgewählt durch eine andere geeignete Entität) eingefügt werden können und/oder in periodischen Intervallen (z. B. alle fünf Sekunden, alle zehn Sekunden und/oder in einem anderen geeigneten Intervall) eingefügt werden können. Außerdem oder alternativ können in einigen Implementierungen die Töne an Positionen im Medieninhaltselement eingefügt werden, an denen die Audiospur besonders laut ist, wodurch die Auffälligkeit des Tons für einen Betrachter des Medieninhaltselements verringert wird.
  • Bei 416 kann das sekundäre Gerät 210 den akustischen Ton, der vom primären Gerät 208 ausgesendet wird (z. B. mithilfe eines Mikrofons, das mit dem sekundären Gerät verbunden ist 210), erkennen und eine aktuelle Wiedergabeposition des Medieninhaltselements auf dem primären Gerät 208 auf Basis des akustischen Tons und der Zuordnung, die bei Block 406 empfangen wird, identifizieren. In einigen Implementierungen kann zum Beispiel das sekundäre Gerät 210 eine Reihe akustischer Töne ermitteln, die (z. B. seit die Sequenz bei Block 412 empfangen wurde und/oder über einen anderen geeigneten Zeitraum) erkannt wurden, und es kann den entsprechenden Zeitpunkt in der Zuordnung finden. Als weiteres Beispiel kann, in Fällen, in denen Informationen, die einen bestimmten Zeitversatz angeben, innerhalb des Tons mithilfe eines bestimmten Schemas (z. B. CSS, DSSS, DTMF und/oder eines anderen geeigneten Schemas) codiert sind, das sekundäre Gerät 210 ein Steuersignal decodieren, das im Ton codiert ist, um den Zeitversatz zu ermitteln. Genauere Techniken für das Identifizieren der Wiedergabeposition sind nachfolgend in Verbindung mit Block 510 von 5 beschrieben.
  • Bei 418 kann das sekundäre Gerät 210 ergänzende Inhalte identifizieren, die für die identifizierte Wiedergabeposition relevant sind. Wie zum Beispiel zuvor in Verbindung mit 1B dargestellt und erläutert, kann das sekundäre Gerät 210 ein Quiz in Verbindung mit Inhalten identifizieren und präsentieren, die zurzeit auf dem primären Gerät 208 präsentiert werden. Als weiteres Beispiel können in einigen Implementierungen die ergänzenden Inhalte Informationen in Verbindung mit Inhalten sein, die zurzeit auf dem primären Gerät 208 präsentiert werden, und die z. B. ein Name eines Songs, der gerade wiedergegeben wird, ein Name eines Schauspielers und/oder Charakters, der in einem Videoinhalt enthalten ist, der auf dem primären Gerät 208 präsentiert wird, ein Name und/oder Standort eines Geschäfts, welches das im Inhalt vorgestellte Produkt verkauft, und/oder ein anderer geeigneter ergänzender Inhalt sein können. Als noch weiteres Beispiel kann in einigen Implementierungen der ergänzende Inhalt eine Werbeanzeige beinhalten. Als spezielles Beispiel kann in einigen Implementierungen die Werbeanzeige durch einen geeigneten Eintrag, wie z. B. durch einen Ersteller des Medieninhaltselements, das auf dem primären Gerät 208 präsentiert wird, einen Host des Medieninhaltselements, das auf dem primären Gerät 208 präsentiert wird (z. B. einer Videotauschörse, die das Medieninhaltselement speichert, einem sozialen Netzwerkdienst, auf dem ein Link zum Medieninhaltselement gepostet wurde, und/oder einem anderen geeigneten Dienst) und/oder einer anderen geeigneten Entität, angegeben werden.
  • In einigen Implementierungen kann, nach dem Präsentieren der ergänzenden Inhalte auf dem sekundären Gerät 210, das Informationsflussdiagramm eine Schleife zurück zu Block 414 machen, wenn ein anderer akustischer Ton ausgesendet wird.
  • Bezugnehmend auf 5 ist ein exemplarischer Prozess 500 für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes gemäß einigen Implementierungen des offenbarten Gegenstands dargestellt. In einigen Implementierungen können die Blöcke von Prozess 500 auf dem sekundären Gerät 210 ausgeführt werden.
  • Prozess 500 kann bei 502 beginnen, indem eine Zuordnung empfangen wird, die mit einem Medieninhaltselement verbunden ist. Wie oben beschrieben, kann in einigen Implementierungen die Zuordnung einen Zeitpunkt während der Wiedergabe des Medieninhaltselements angeben, in dem ein akustischer Ton eingebettet ist. In einigen Implementierungen kann die Zuordnung angeben, dass der erste akustische Ton zwei Sekunden nach Beginn des Medieninhaltselements eingebettet ist, der zweite akustische Ton fünf Sekunden nach Beginn des Medieninhaltselements eingebettet ist usw. Ein spezifisches Beispiel einer Zuordnung ist: [ID1: 5s; ID2: 10s; ID3: 13s], was angeben kann, dass ein erster akustischer Ton fünf Sekunden nach Beginn der Präsentation des Medieninhaltselements ausgesendet wird, ein zweiter akustischer Ton zehn Sekunden nach Beginn der Präsentation des Medieninhaltselements ausgesendet wird und ein dritter akustischer Ton 13 Sekunden nach Beginn der Präsentation des Medieninhaltselements ausgesendet wird. Es ist zu beachten, dass in einigen Implementierungen die Zuordnung eine geeignete Anzahl (z. B. eins, zwei, fünf, zehn, zwanzig und/oder eine andere geeignete Anzahl) von akustischen Tönen angeben kann. Außerdem ist zu beachten, dass in einigen Implementierungen die Zeitpunkte innerhalb des Medieninhaltselements in einer geeigneten Weise, wie z. B. in Minuten/Sekunden, als Einzelbildnummer und/oder anderes geeignetes Format, angegeben werden können.
  • Prozess 500 kann bei 504 eine Sequenz empfangen, die mit dem Medieninhaltselement verbunden ist. In einigen Implementierungen kann die Sequenz vom primären Gerät 208 gesendet werden, wenn das primäre Gerät 208 die Präsentation des Medieninhaltselements initiiert. In einigen Implementierungen kann die Sequenz eine Kennung des Medieninhaltselements angeben. In einigen Implementierungen kann die Sequenz zum Beispiel eine binäre Sequenz einer geeigneten Länge sein, die die Kennung des Medieninhaltselements angibt.
  • In einigen Implementierungen kann die Sequenz in einer geeigneten Weise gesendet werden. In einigen Implementierungen kann die Sequenz zum Beispiel eine akustische Sequenz sein, die vom primären Gerät 208 ausgesendet wird, die eine Kennung des Medieninhaltselements codiert. Als spezielles Beispiel kann in einigen Implementierungen die Sequenz ein Ton oder eine Sequenz von Tönen mit einer geeigneten Frequenz oder geeigneten Frequenzen sein, die die Kennung codiert. In einigen dieser Implementierungen können Modulierungen innerhalb der Töne Informationen codieren, die die Kennung angeben. Spezifische Beispiele von Schemata für Codieren der Kennung können Folgendes beinhalten: Chirp Spread Spectrum (CSS), Direct Sequence Spread Spectrum (DSSS), Dual Tone Multi-Frequency (DTMF) und/oder andere geeignete Schemata. In einigen Implementierungen können die Töne in einer Frequenz (z. B. über 19 kHz und/oder in anderen geeigneten Frequenzen) sein, die im Allgemeinen für Menschen nicht hörbar ist. In einigen Implementierungen kann die Sequenz in einer geeigneten Weise durch das sekundäre Gerät 210 empfangen werden. In Fällen, in denen die Sequenz über akustische Töne gesendet wird, kann die Sequenz zum Beispiel durch ein Mikrofon empfangen werden, das mit dem sekundären Gerät 210 verbunden ist.
  • Es ist zu beachten, dass in einigen Implementierungen das sekundäre Gerät 210 das Medieninhaltselement auf eine andere geeignete Weise identifizieren kann, sobald die Präsentation auf dem primären Gerät 208 beginnt. In einigen Implementierungen kann das primäre Gerät 208 zum Beispiel das Medieninhaltselement identifizieren, indem es einen Audio-Fingerabdruck identifiziert, der mit einem Teil des präsentierten Medieninhaltselements verbunden ist, und indem es eine Datenbank abfragt, um das Medieninhaltselement auf Basis des Audio-Fingerabdrucks zu identifizieren. Als spezielles Beispiel kann in einigen Implementierungen der Audio-Fingerabdruck einen Teil des Audioinhalts beinhalten, der dem primären Gerät 208 präsentiert wurde, der durch ein Mikrofon des sekundären Geräts 210 aufgenommen wurde. Als weiteres Beispiel kann in einigen Implementierungen das primäre Gerät 208 das Medieninhaltselement identifizieren, indem es einen Video-Fingerabdruck identifiziert, der mit einem Teil des Medieninhaltselements verbunden ist, das auf dem primären Gerät 208 präsentiert wird, und eine Datenbank abfragt, um das Medieninhaltselement auf Basis des erfassten Video-Fingerabdrucks zu identifizieren. Als spezielles Beispiel kann in einigen Implementierungen der Video-Fingerabdruck ein Standbild und/oder ein Video beinhalten, das von einer Kamera des sekundären Geräts 210 aufgenommen wurde.
  • Der Prozess 500 kann dann das Medieninhaltselement auf Basis der Sequenz bei 506 identifizieren. In einigen Implementierungen kann zum Beispiel der Prozess 500 die Sequenz decodieren, um eine Kennung zu ermitteln, die mit dem Medieninhaltselement verbunden ist. In einigen Implementierungen kann die Kennung eine bestimmte Folge eines Fernsehprogramms oder Podcasts, eine bestimmte Version eines Films oder Videos und/oder andere geeignete identifizierende Informationen angeben.
  • Bei 508 kann der Prozess 500 am zweiten Gerät 210 einen Ton empfangen, der während der Präsentation des Medieninhaltselements durch das primäre Gerät 208 ausgesendet wurde. In einigen Implementierungen kann der Ton durch ein Mikrofon erfasst werden, das mit dem sekundären Gerät 210 verbunden ist. Es ist zu beachten, dass in einigen Implementierungen eine geeignete Zeitdauer zwischen dem Empfang der Sequenz bei Block 504 und dem Empfang des Tons bei Block 508 verstrichen sein kann. In einigen Implementierungen kann der Ton in einer geeigneten Frequenz und von einer geeigneten Dauer sein. In einigen Implementierungen kann zum Beispiel der Ton in einer Frequenz (z. B. über 19 kHz und/oder mit irgendwelchen anderen geeigneten Frequenzen) sein, die im Allgemeinen für Menschen nicht hörbar ist.
  • Bei 510 identifiziert das sekundäre Gerät 210 eine Wiedergabeposition des Medieninhaltselements, das auf Basis des erkannten Tons und der bei 502 empfangenen Zuordnung. gerade auf dem primären Gerät 208 präsentiert wird. In Fällen, in denen Informationen, die einen bestimmten Zeitversatz angeben, mithilfe eines bestimmten Schemas (z. B. CSS, DSSS, DTMF und/oder irgendein anderes geeignetes Schema) innerhalb des Tons codiert sind, kann zum Beispiel das sekundäre Gerät 210 ein Steuersignal decodieren, das im Ton codiert ist, um den Zeitversatz zu ermitteln. Als spezielles Beispiel kann in einigen Implementierungen das Steuersignal explizit eine Wiedergabeposition oder einen Zeitversatz angeben, an der/dem der Ton präsentiert wurde. Als weiteres spezielles Beispiel kann in einigen Implementierungen das Steuersignal eine Kennung codieren, die als Nachschlageschlüssel in der Zuordnung verwendet werden kann, um eine entsprechende Wiedergabeposition zu ermitteln. Als spezifisches Beispiel, wenn die Zuordnung wie folgt ist: [ID1: 5s; ID2: 10s; ID3: 13s], und das Steuersignal die Kennung „ID2“ codiert, kann der Prozess 500 ermitteln, dass sich die Wiedergabeposition bei 10 Sekunden befindet.
  • Als weiteres Beispiel kann in einigen Implementierungen das sekundäre Gerät 210 eine Reihe von Tönen ermitteln, die in Verbindung mit der Präsentation des Medieninhaltselements empfangen wurden (z. B. dass der bei Block 508 empfangene Ton der erste Ton und/oder eine andere geeignete Nummer war) und es kann eine Wiedergabeposition ermitteln, die mit der Tonnummer verbunden ist. Als spezielles Beispiel kann, in Fällen, in denen die Zuordnung wie folgt ist: [ID1: 5s; ID2: 10s; ID3: 13s], und das sekundäre Gerät 210 ermittelt, dass der erkannte Ton der zweite Ton ist, der in Verbindung mit der Präsentation dieses Medieninhaltselements erkannt wird, der Prozess 500 ermitteln, dass sich die aktuelle Wiedergabeposition bei 10 Sekunden befindet.
  • Es ist zu beachten, dass in einigen Implementierungen der Prozess 500 zwischen erkannten Tönen interpolieren kann, um die Wiedergabepositionen dazwischen zu ermitteln. In dem spezifischen, oben dargestellten Zuordnungsbeispiel kann zum Beispiel in Fällen, in denen der Prozess 500 ermittelt, dass eine Sekunde verstrichen ist, seit der zweite Ton erkannt wurde, der Prozess 500 ermitteln, dass sich eine aktuelle Wiedergabeposition bei 11 Sekunden befindet. Es ist zu beachten, dass in einigen Implementierungen der Prozess 500 davon ausgehen kann, dass, sobald die Präsentation des Medieninhaltselements begonnen hat, die Präsentation des Medieninhaltselements ohne Pause fortgesetzt wird. In diesen Implementierungen kann das sekundäre Gerät 210 verifizieren, dass das primäre Gerät 208 die Präsentation des Medieninhaltselements nicht angehalten wurde, indem es ermittelt, ob der Audioinhalt an einem Mikrofon, das mit dem sekundären Gerät 210 verbunden ist, noch erkennbar ist. Außerdem oder alternativ kann in einigen Implementierungen das sekundäre Gerät 210 die fortgesetzte Präsentation des Medieninhaltselements verifizieren, indem es verifiziert, dass Töne an allen der Positionen erkannt werden, die in der empfangenen Zuordnung angegeben sind, während, wenn ein erwarteter Ton an der erwarteten Wiedergabeposition nicht erkannt wird, es ermitteln kann, dass die Präsentation des Medieninhaltselements vor der erwarteten Wiedergabeposition angehalten wurde. Es ist zu beachten, dass in einigen Implementierungen, wenn das sekundäre Gerät 210 ermittelt, dass die Präsentation des Medieninhaltselements angehalten wurde, das sekundäre Gerät 210 das Speichern der Zuordnung für die Verwendung in einem Fall fortsetzen kann, in dem die Präsentation des Medieninhaltselements auf dem primären Gerät 208 wiederaufgenommen wird.
  • Bei 512 kann der Prozess 500 eine Datenbank für ergänzende Inhalte abfragen, die für das Medieninhaltselement an der ermittelten Wiedergabeposition relevant sind. Wie zum Beispiel oben in Verbindung mit 1B dargestellt und beschrieben, kann in einigen Implementierungen der ergänzende Inhalt ein Quiz in Verbindung mit Wissenswertem sein, das mit einem aktuellen Augenblick im Medieninhaltselement verbunden ist. Als weiteres Beispiel kann in einigen Implementierungen der ergänzende Inhalt eine Identität eines Songs, der zurzeit in einem Medieninhaltselement wiedergegeben wird, Informationen über einen Schauspieler und/oder Charakter, der im Medieninhaltselement erscheint (z. B. ein Name eines Schauspielers, der einen Charakter spielt, Wissenswertes über den Schauspieler, einen Link zu einer Webseite über den Schauspieler und/oder andere geeignete Informationen) angeben. Als noch weiteres Beispiel kann in einigen Implementierungen der ergänzende Inhalt Informationen über ein Produkt oder ein Element angeben, das zurzeit im Medieninhaltselement angezeigt wird. Als spezielles Beispiel kann, in Fällen, in denen ein bestimmtes Produkt (z. B. ein bestimmtes Modell eines Apparats, ein bestimmtes Modell eines Autos und/oder eine andere geeignete Art von Produkt) von einem Charakter in einem Film, Video oder Fernsehprogramm verwendet wird, der ergänzende Inhalt das bestimmte Produkt identifizieren und kann in einigen Implementierungen Informationen bereitstellen, die Geschäfte angeben, die das bestimmte Produkt (z. B. Links an Online-Shops, Wegbeschreibungen an physische Geschäfte in der Nähe eines Betrachters des Inhalts und/oder andere geeignete Informationen) verkaufen. Als noch weiteres Beispiel kann es sich in einigen Implementierungen bei dem ergänzenden Inhalt um eine oder mehrere Werbeanzeigen handeln.
  • In einigen Implementierungen kann der ergänzende Inhalt eine geeignete Art von Inhalt oder kombinierte Arten von Inhalten beinhalten. In einigen Implementierungen kann der ergänzende Inhalt zum Beispiel eine geeignete Kombination von Bildern, Grafiken, Symbolen, Animationen, Videos, Text und/oder Hyperlinks beinhalten.
  • Der Prozess 500 kann die ergänzenden Inhalte mithilfe einer geeigneten Technik oder Kombination von Techniken identifizieren. In einigen Implementierungen kann der Prozess 500 zum Beispiel eine Datenbank abfragen und die Kennung des Medieninhaltselements und eine Angabe der aktuellen Wiedergabeposition in der Abfrage angeben. Die Datenbank kann dann die ergänzenden Inhalte, die für die aktuelle Wiedergabeposition des Medieninhaltselements relevant sind, an das sekundäre Gerät 210 wiedergeben. Es ist zu beachten, dass in einigen Implementierungen der Prozess 500 andere geeignete Informationen verwenden kann, um die ergänzenden Inhalte zu identifizieren. In Fällen, in denen der Prozess 500 ermittelt, dass ein Benutzer des sekundären Geräts 210 sich vorher am ergänzenden Inhalt beteiligt hat, wenn dieser ein Quiz beinhaltet, kann der Prozess 500 zum Beispiel ermitteln, dass der ergänzende Inhalt ein Quiz beinhalten soll. Als weiteres Beispiel kann, in Fällen, in denen der Prozess 500 ermittelt, dass mehr als eine vorher bestimmte Zeitdauer vergangen ist, seitdem eine Werbeanzeige präsentiert wurde, der Prozess 500 ermitteln, dass der ergänzende Inhalt eine Werbeanzeige beinhalten soll. Als noch weiteres Beispiel kann, in Fällen, in denen der Prozess 500 ermittelt, dass der ergänzende Inhalt einer bestimmten Art (z. B. Links zu Online-Shops, die eine bestimmtes Produkt verkaufen, Wissenswertes über einen Schauspieler im Medieninhaltselement und/oder eine andere geeignete bestimmte Art von ergänzendem Inhalt) normalerweise vom Benutzer des sekundären Geräts 210 ignoriert wird, der Prozess 500 ermitteln, dass in den ergänzenden Inhalt Inhalte der bestimmten Art, die normalerweise vom Benutzer ignoriert werden, nicht einbezogen werden sollen.
  • Bei 514 kann der Prozess 500 veranlassen, dass der ergänzende Inhalt auf dem sekundären Gerät 210 präsentiert wird. Ein Beispiel einer Benutzeroberfläche für das Präsentieren des ergänzenden Inhalts ist oben in Verbindung mit 1B dargestellt und erläutert. Es ist zu beachten, dass, in einigen Implementierungen der Benutzer des sekundären Geräts 210 mit dem ergänzenden Inhalt interagieren kann. In Fällen, in denen der ergänzende Inhalt Benutzeroberflächen-Bedienelemente für das Eingeben von Auswahlen (z. B. in einem Quiz) und/oder einen oder mehrere Hyperlinks zu anderen Seiten beinhaltet, kann der Benutzer Teile des ergänzenden Inhalts auswählen. Zusätzlich oder alternativ kann in einigen Implementierungen der Benutzer den ergänzenden Inhalt auf eine geeignete Weise ignorieren und/oder schließen. In einigen Implementierungen kann der Prozess 500 den ergänzenden Inhalt nach Präsentation einer geeigneten Dauer (z. B. nach einer Minute, nach zwei Minuten und/oder einer anderen geeigneten Dauer) automatisch schließen.
  • Der Prozess 500 kann dann eine Schleife zurück zu Block 508 machen und warten, bis ein anderer Ton an einer anderen Wiedergabeposition des Medieninhaltselements erkannt wird. In einigen Implementierungen kann der Prozess 500 in Reaktion auf das Ermitteln, dass die Präsentation des Medieninhaltselements abgeschlossen ist, enden.
  • In einigen Implementierungen können mindestens einige der oben beschriebenen Blöcke der Prozesse von 4 und 5 in einer Reihenfolge oder Sequenz ausgeführt oder durchgeführt werden, die nicht auf die Reihenfolge oder Sequenz beschränkt ist, die in Verbindung mit den Figuren dargestellt und beschrieben ist. Außerdem können einige der obigen Blöcke von 4 und 5 gegebenenfalls im Wesentlichen gleichzeitig oder parallel ausgeführt oder durchgeführt werden, um die Latenz und Verarbeitungszeit zu verringern. Zusätzlich oder alternativ können einige der oben beschriebenen Blöcke der Prozesse von 4 und 5 ausgelassen werden.
  • In einigen Implementierungen können geeignete computerlesbare Medien zum Speichern von Anweisungen verwendet werden, um die Funktionen und/oder Prozesse hierin auszuführen. In einigen Implementierungen können zum Beispiel computerlesbare Medien transitorisch oder nicht transitorisch sein. Beispielsweise können nicht transitorische computerlesbare Medien, zum Beispiel Medien wie magnetische Medien (beispielsweise Festplatten, Disketten und/oder beliebige andere geeignete magnetische Medien), optische Medien (beispielsweise Compact-Discs, digitale Video-Discs, Blu-Ray-Discs und/oder beliebige andere geeignete magnetische Medien), Halbleitermedien (beispielsweise Flash-Speicher, elektronische programmierbare Nur-Lese-Speicher (EPROM), elektronische löschbare programmierbare Nur-Lese-Speicher (EEPROM) und/oder beliebige andere geeignete Halbleitermedien), beliebige geeignete nicht flüchtige Medien oder jene, die im Verlauf der Übertragung nicht dauerhaften Anscheins sind und/oder beliebige geeignete physische Medien, beinhalten. Als weiteres Beispiel kann es sich bei transitorischen computerlesbaren Medien um Signale in Netzwerken, in Drähten, Leitern, Glasfasern, Schaltungen, ein geeignete Medium, dass flüchtig und frei von jedem Anschein von Dauerhaftigkeit während der Übertragung ist, und/oder beliebige andere geeignete Medien handeln.
  • In Situationen, in denen die hier beschriebenen Systeme persönliche Informationen über Benutzer sammeln oder persönliche Daten nutzen können, wird den Benutzern ggf. die Möglichkeit gegeben, einzustellen, ob Programme oder Funktionen Benutzerinformationen (z. B. Informationen über die sozialen Netzwerkdaten eines Benutzers, soziale Aktionen oder Aktivitäten, Beruf, Vorlieben eines Benutzers oder den aktuellen Standort eines Benutzers) sammeln. Außerdem können bestimmte Daten auf eine oder mehrere Arten behandelt werden, bevor sie gespeichert oder verwendet werden, sodass persönliche Informationen entfernt sind. Beispielsweise kann die Identität eines Benutzers so behandelt werden, dass keine persönlichen Informationen für den Benutzer bestimmt werden können oder der geografische Standort eines Benutzers verallgemeinert werden kann, wenn Standortinformationen (z. B. eine Stadt, eine Postleitzahl oder ein Bundesstaat) erhalten werden, sodass ein bestimmter Standort eines Benutzers nicht bestimmt werden kann. Somit könnte der Benutzer Kontrolle darüber haben, wie Informationen über den Benutzer gesammelt und von einem Inhaltsserver verwendet werden.
  • Demgemäß werden Verfahren, Systeme und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes bereitgestellt.
  • Obwohl die Erfindung in den vorhergehenden veranschaulichenden Implementierungen beschrieben und veranschaulicht wurde, versteht es sich, dass die vorliegende Offenbarung nur exemplarisch ausgeführt wurde und dass zahlreiche Änderungen in den Details der Implementierung der Erfindung erfolgen können, ohne vom Sinn und Umfang der Erfindung abzuweichen, der nur durch die folgenden Ansprüche begrenzt ist. Merkmale der offenbarten Implementierungen können auf verschiedene Arten kombiniert und neu angeordnet werden.

Claims (17)

  1. Verfahren für die Ergänzung von Medieninhalten, das Verfahren umfassend: Identifizieren, mithilfe eines sekundären Geräts, eines Medieninhaltselements, das auf einem primären Gerät präsentiert wird; Erkennen, mithilfe des sekundären Geräts, eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Identifizieren, mithilfe des sekundären Geräts, einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Ermitteln, mithilfe des sekundären Geräts, von ergänzenden Inhalten, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Veranlassen, dass der ergänzende Inhalt auf dem sekundären Gerät präsentiert wird.
  2. Verfahren nach Anspruch 1, wobei die ergänzenden Inhalte Informationen über einen Schauspieler beinhalten, der im Medieninhaltselement an der aktuellen Wiedergabeposition enthalten ist.
  3. Verfahren nach Anspruch 1, wobei die ergänzenden Inhalte eine Werbeanzeige beinhalten.
  4. Verfahren nach Anspruch 1, wobei der Ton, der im Teil des Audioinhalts eingebettet ist, in einem nicht hörbaren Frequenzbereich ist.
  5. Verfahren nach Anspruch 1, wobei das Identifizieren der ergänzenden Inhalte das Abfragen einer Datenbank mit der Kennung des Medieninhaltselements und einer Angabe der aktuellen Wiedergabeposition umfasst.
  6. Verfahren nach Anspruch 1, wobei der Teil des Audioinhalts eine Audiospur beinhaltet, die mit dem Medieninhaltselement verbunden ist, und wobei das Verfahren ferner das Empfangen, am sekundären Gerät, einer Zuordnung umfasst, die eine Vielzahl von Wiedergabepositionen angibt, die jeweils einem aus einer Vielzahl von Tönen entspricht, die in der Audiospur eingebettet sind, wobei das Identifizieren der aktuellen Wiedergabeposition auf der Zuordnung basiert.
  7. Verfahren nach Anspruch 6, ferner umfassend das Ermitteln, dass die Präsentation des Medieninhaltselements auf dem primären Gerät angehalten wurde, durch Erkennen, dass ein erwarteter Ton der Vielzahl von Tönen, die in der Zuordnung angegeben sind, innerhalb eines bestimmten Zeitraums nicht erkannt wurde.
  8. Verfahren nach Anspruch 1, wobei das Medieninhaltselement auf Basis einer Sequenz identifiziert wird, die durch das primäre Gerät ausgesendet wird, das eine Kennung des Medieninhaltselements codiert, und vom sekundären Gerät erkannt wird.
  9. System für die Ergänzung von Medieninhalten, das System umfassend: einen Hardwareprozessor der für Folgendes konfiguriert ist: Identifizieren eines Medieninhaltselements, das auf einem primären Gerät präsentiert wird; Erkennen eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Identifizieren einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Ermitteln von ergänzenden Inhalten, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Veranlassen, dass der ergänzende Inhalt auf dem sekundären Gerät präsentiert wird.
  10. System nach Anspruch 9, wobei die ergänzenden Inhalte Informationen über einen Schauspieler beinhalten, der im Medieninhaltselement an der aktuellen Wiedergabeposition enthalten ist.
  11. System nach Anspruch 9, wobei die ergänzenden Inhalte eine Werbeanzeige beinhalten.
  12. System nach Anspruch 9, wobei der Ton, der im Teil des Audioinhalts eingebettet ist, in einem nicht hörbaren Frequenzbereich ist.
  13. System nach Anspruch 9, wobei das Identifizieren der ergänzenden Inhalte das Abfragen einer Datenbank mit der Kennung des Medieninhaltselements und einer Angabe der aktuellen Wiedergabeposition umfasst.
  14. System nach Anspruch 9, wobei der Teil des Audioinhalts eine Audiospur beinhaltet, die mit dem Medieninhaltselement verbunden ist, und wobei der Hardwareprozessor ferner konfiguriert ist, eine Zuordnung zu empfangen, die eine Vielzahl von Wiedergabepositionen angibt, die jeweils einem aus einer Vielzahl von Tönen entspricht, die in der Audiospur eingebettet sind, wobei das Identifizieren der aktuellen Wiedergabeposition auf der Zuordnung basiert.
  15. System nach Anspruch 14, wobei der Hardwareprozessor ferner konfiguriert ist, zu ermitteln, dass die Präsentation des Medieninhaltselements auf dem primären Geräts angehalten wurde, durch Erkennen, dass ein erwarteter Ton der Vielzahl von Tönen, die in der Zuordnung angegeben sind, innerhalb eines bestimmten Zeitraums nicht erkannt wurde.
  16. System nach Anspruch 9, wobei das Medieninhaltselement auf Basis einer Sequenz identifiziert wird, die durch das primäre Gerät ausgesendet wird, das eine Kennung des Medieninhaltselements codiert, und vom sekundären Gerät erkannt wird.
  17. Nicht transitorisches computerlesbares Medium, das computerausführbare Anweisungen enthält, die, wenn sie von einem Prozessor ausgeführt werden, den Prozessor veranlassen, ein Verfahren für die Ergänzung von Medieninhalten durchzuführen, das Verfahren umfassend: Identifizieren eines Medieninhaltselements, das auf einem primären Gerät präsentiert wird; Erkennen eines Tons, der in einem Teil des Audioinhalts des Medieninhaltselements eingebettet ist; Identifizieren einer aktuellen Wiedergabeposition des Medieninhaltselements auf dem primären Gerät auf Basis des erkannten Tons; Ermitteln von ergänzenden Inhalten, die für das Medieninhaltselement an der aktuellen Wiedergabeposition relevant sind; und Veranlassen, dass der ergänzende Inhalt auf dem sekundären Gerät präsentiert wird.
DE102017117023.5A 2016-08-24 2017-07-27 Verfahren, System und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes Pending DE102017117023A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/246,219 2016-08-24
US15/246,219 US20180063572A1 (en) 2016-08-24 2016-08-24 Methods, systems, and media for synchronizing media content using audio timecodes

Publications (1)

Publication Number Publication Date
DE102017117023A1 true DE102017117023A1 (de) 2018-03-01

Family

ID=59738439

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202017104488.2U Active DE202017104488U1 (de) 2016-08-24 2017-07-27 Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes
DE102017117023.5A Pending DE102017117023A1 (de) 2016-08-24 2017-07-27 Verfahren, System und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE202017104488.2U Active DE202017104488U1 (de) 2016-08-24 2017-07-27 Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes

Country Status (5)

Country Link
US (1) US20180063572A1 (de)
CN (1) CN107785037B (de)
DE (2) DE202017104488U1 (de)
GB (1) GB2553912B (de)
WO (1) WO2018038956A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140074621A1 (en) * 2012-09-07 2014-03-13 Opentv, Inc. Pushing content to secondary connected devices
US10205794B2 (en) * 2016-09-08 2019-02-12 International Business Machines Corporation Enhancing digital media with supplemental contextually relevant content
EP3499901A1 (de) 2017-12-12 2019-06-19 Spotify AB Verfahren, computerserversysteme und medienvorrichtungen für medienstreaming
KR102546026B1 (ko) 2018-05-21 2023-06-22 삼성전자주식회사 전자 장치 및 그의 컨텐츠 인식 정보 획득
US10764631B2 (en) * 2018-06-04 2020-09-01 Dish Network L.L.C. Synchronizing audio of a secondary-language audio track
US11785280B1 (en) * 2021-04-15 2023-10-10 Epoxy.Ai Operations Llc System and method for recognizing live event audiovisual content to recommend time-sensitive targeted interactive contextual transactions offers and enhancements

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2425563A1 (de) * 2009-05-01 2012-03-07 The Nielsen Company (US), LLC Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
US9026102B2 (en) * 2010-03-16 2015-05-05 Bby Solutions, Inc. Movie mode and content awarding system and method
US8763060B2 (en) * 2010-07-11 2014-06-24 Apple Inc. System and method for delivering companion content
WO2013169935A1 (en) * 2012-05-08 2013-11-14 Zulu Holdings, Inc. Methods and apparatuses for communication of audio tokens
US11115722B2 (en) * 2012-11-08 2021-09-07 Comcast Cable Communications, Llc Crowdsourcing supplemental content
WO2014072742A1 (en) * 2012-11-09 2014-05-15 Camelot Strategic Solutions Limited Improvements relating to audio visual interfaces
US9055313B2 (en) * 2012-12-20 2015-06-09 Hulu, LLC Device activation using encoded representation
US11375347B2 (en) * 2013-02-20 2022-06-28 Disney Enterprises, Inc. System and method for delivering secondary content to movie theater patrons
FR3006525B1 (fr) * 2013-06-04 2016-10-14 Visiware Synchronisation de contenus multimedia sur deuxieme ecran
US9274673B2 (en) * 2013-12-31 2016-03-01 Google Inc. Methods, systems, and media for rewinding media content based on detected audio events
US10178487B2 (en) * 2014-04-15 2019-01-08 Soundfi Systems, Llc Binaural audio systems and methods

Also Published As

Publication number Publication date
CN107785037B (zh) 2021-03-23
GB2553912B (en) 2021-03-31
GB201713254D0 (en) 2017-10-04
WO2018038956A1 (en) 2018-03-01
US20180063572A1 (en) 2018-03-01
DE202017104488U1 (de) 2017-11-27
GB2553912A (en) 2018-03-21
CN107785037A (zh) 2018-03-09

Similar Documents

Publication Publication Date Title
DE102017117023A1 (de) Verfahren, System und Medien für das Synchronisieren von Medieninhalten mithilfe von Audio-Zeitcodes
US9934322B2 (en) Concepts for providing an enhanced media presentation
US11023100B2 (en) Methods, systems, and media for creating and updating a group of media content items
US20130326352A1 (en) System For Creating And Viewing Augmented Video Experiences
CN109257611A (zh) 一种视频播放方法、装置、终端设备和服务器
US20210160575A1 (en) Methods, systems, and media for facilitating interaction between viewers of a stream of content
DE202017105546U1 (de) Computerprogrammprodukte, Systeme und Medien zur Authentifizierung von Benutzergeräten für ein Anzeigegerät
CN104065979A (zh) 一种动态显示和视频内容相关联信息方法及系统
DE102017124876A1 (de) Bestimmen von Suchanfragen, um Informationen während einer Benutzererfahrung eines Ereignisses zu erlangen
DE112016002288T5 (de) Systeme und verfahren zum bereitstellen von inhalt in einem inhaltsverzeichnis
US20140304597A1 (en) Content-object synchronization and authoring of dynamic metadata
DE102016125806A1 (de) Verfahren, Systeme und Medien zum Identifizieren und Präsentieren von mehrsprachigen Medieninhaltselementen für Benutzer
DE202016107138U1 (de) Systeme und Medien zum Präsentieren einer Werbeanzeige, während ein Video gepuffert wird
CN106792237B (zh) 一种消息显示方法和系统
US10555049B2 (en) Music sharing and advertising
WO2017019506A1 (en) News production system with dve template feature
US20200007945A1 (en) Video production system with dynamic character generator output
CN113542820B (zh) 一种视频编目方法、系统、电子设备及存储介质
EP3596628B1 (de) Verfahren, systeme und medien zur umwandlung von fingerabdrücken zum nachweisen von unbefugten medieninhaltselementen
CN113132813A (zh) 一种视频播放方法、装置、智能电视及存储介质
WO2017019527A1 (en) News production system with dynamic character generator output
CN105791901A (zh) 信息同步系统和方法

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R012 Request for examination validly filed