DE602004008936T2 - Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video - Google Patents

Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video Download PDF

Info

Publication number
DE602004008936T2
DE602004008936T2 DE602004008936T DE602004008936T DE602004008936T2 DE 602004008936 T2 DE602004008936 T2 DE 602004008936T2 DE 602004008936 T DE602004008936 T DE 602004008936T DE 602004008936 T DE602004008936 T DE 602004008936T DE 602004008936 T2 DE602004008936 T2 DE 602004008936T2
Authority
DE
Germany
Prior art keywords
signal
synchronization
fingerprint
segment
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004008936T
Other languages
English (en)
Other versions
DE602004008936D1 (de
Inventor
Job C. Oostveen
David K. Roberts
Adrianus J. Denissen
Warner R. Ten Kate
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gracenote Inc
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE602004008936D1 publication Critical patent/DE602004008936D1/de
Application granted granted Critical
Publication of DE602004008936T2 publication Critical patent/DE602004008936T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/24Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by sensing features on the record carrier other than the transducing track ; sensing signals or marks recorded by another method than the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf die Synchronisation zwischen wenigstens zwei Signalen. Insbesondere bezieht sich die vorliegende Erfindung auf ein Verfahren und eine entsprechende Anordnung zum Synchronisieren eines ersten Signals, beispielsweise eines Audiosignals, mit einem zweiten Signal, beispielsweise einem Videosignal. Die vorliegende Erfindung bezieht sich ebenfalls auf ein Verfahren und eine entsprechende Anordnung zum Ermöglichen von Synchronisation eines Audiosignals zu einem Videosignal. Weiterhin bezieht sich die vorliegende Erfindung auf ein von einem Computer auslesbaren Medium, auf dem Instruktionen gespeichert sind um dafür zu sorgen, dass eine oder mehrere Verarbeitungseinheiten das Verfahren nach der vorliegenden Erfindung durchführen.
  • Synchronisation eines Videostroms zu einem entsprechenden Audiostrom ist ein großes Problem, das viel Aufmerksamkeit erhalten hat. Es wurden bereits viele Lösungen für dieses Problem vorgeschlagen und implementiert. Die meisten dieser erfordern handmäßige Synchronisation durch einen fachkundigen Operator. Technisch schaut der Operator nach sichtbaren Anhaltspunkten in dem Bild um zu ermitteln, ob der Ton, den man hört, mit dem Bild übereinstimmt und ob sie tatsächlich synchron sind. Das Problem wird gröber, wenn die Synchronisation automatisch erfolgen soll. Dies ist ein immer großer werdendes Problem, da Verarbeitung und Verteilung von Audio- und Videosignalen immer komplizierter wird, und zwar innerhalb als auch außerhalb der Studioumgebung. Ein Beispiel des letzteren Problems ist Folgendes: Ein Verbraucher zeichnet mit Hilfe seines Videorecorders einen Film auf. Diesen möchte es mit der ursprünglichen Tonspur wiedergeben. Dazu kauft er die ursprüngliche Tonspur, die ihm beispielsweise übers Internet zugeführt wird. Nun sollen Audio und Video automatisch synchronisiert werden, beispielsweise in/von seinem Videorecorder oder einer anderen Synchronisationsanordnung.
  • Ein bekanntes System, das die automatische Synchronisation eines Audio- und eines Videostroms ermöglicht, ist von Tektronix vermarktet. Bei diesem System wird die Umhüllende des Audiosignals mit Hilfe eines Wasserzeichens in das Videosignal eingebettet. An einer Stelle in der Verteilungs- und Verarbeitungskette kann die wirkliche Audioumhüllende mit der eingebetteten verglichen werden, woraus die Verzögerung zwischen den zwei Strömen hergeleitet werden kann. Daraufhin wird die Verzögerung des Audiostroms zum Erzielen der Synchronisation korrigiert. Dieses System erfordert aber die Zusammenarbeit der Sendeanstalten oder anderer Verteiler, weil vor der Übertragung das Wasserzeichen in den Video eingebettet werden soll. Weiterhin kann dieses System nur einen einzigen bestimmten Audiostrom mit dem Video assoziieren. Wenn die Umhüllende eines Audiostroms einmal eingebettet worden ist, kann das System nur den Video mit diesem bestimmten Audiostrom synchronisieren. Zum Synchronisieren anderer Audioströme soll ein anderes Wasserzeichen eingebettet worden sein. Zum Schluss beschränkt sich das System auf Synchronisation zwischen einem Audiostrom und einem Videostrom.
  • Die Patentanmeldung US 2002/120925 A1 bezieht sich auf ein System zum Benutzen von Metadaten, geschaffen entweder an einer zentralen Stelle zur geteilten Verwendung durch verbundene Benutzer, oder an jeder einzelnen Benutzerstelle um Benutzern verfügbare Sendeprogrammierungsinhalt zur Verfügung zu stellen. Die Metadaten können ein "Fingerabdruck" oder ein "Signatur" Signal enthalten, das mit eintreffenden Sendesignalen verglichen werden kann zum Identifizieren bestimmter Segmente und kann weiterhin Zeitinformation enthalten, die den Anfang und das Ende jedes Segmentes in Bezug auf die Stelle der einzigartigen Signatur spezifiziert. Unter Anwendung von Musterübereinstimmungstechniken kann Inhalt, gespeichert an einer Fernstelle und Inhalt, gespeichert an der Benutzerstelle synchronisiert werden, es wird aber keine Synchronisation von Signalen an einer einzigen Stelle durchgeführt.
  • Es ist nun u. a. eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine entsprechende Anordnung zum Erzeugen eines ersten und eines zweiten Fingerabdrucks zu schaffen, verwendbar zur Synchronisation wenigstens zweier Signale und eines entsprechenden Verfahrens und einer entsprechenden Anordnung zum Synchronisieren zweier oder mehrerer Signale, wodurch die oben genannten Probleme gelöst werden. Eine weitere Aufgabe der vorliegenden Erfindung ist, dies auf eine einfache und effiziente Art und Weise zu schaffen. Eine weitere Aufgabe ist es, eine einfache, zuverlässige und genaue Stelle eines bestimmten Teils eines Multimediasignals zu schaffen. Ein andere Aufgabe ist es, eine automatische Synchronisation zwischen einem ersten Signal und wenigstens einem zweiten Signal zu schaffen, und zwar ohne Modifikation eines der Signale.
  • Dies wird erreicht durch ein Verfahren (und eine entsprechende Anordnung) zum Ermöglichen von Synchronisation eines ersten Signals mit einem zweiten Signal, wo bei das Verfahren die nachfolgenden Verfahrensschritte umfasst:
    • – das Herleiten eines ersten Fingerabdrucks auf Basis eines Segmentes des ersten Signals, wobei das Segment des ersten Signals unzweideutig mit einem ersten Synchronisationszeitpunkt relatiert ist, und
    • – das Herleiten eines zweiten Fingerabdrucks auf Basis eines Segmentes des zweiten Signals, wobei das Segment des zweiten Signals unzweideutig mit einem zweiten Synchronisationszeitpunkt relatiert ist, und
    • – das Liefern des ersten und des zweiten Fingerabdrucks zu einer Synchronisationsanordnung bevor die Synchronisation von der genannten Synchronisationsanordnung durchgeführt wird, wobei das genannte erste Signal ein Audiosignal ist, das genannte zweite Signal ein Videosignal ist, der genannte erste Fingerabdruck ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck ein Videofingerabdruck ist, und durch ein Verfahren (und eine entsprechende Anordnung) zum Synchronisieren zweier oder mehrerer Signale, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst:
    • – das Erzeugen eines ersten Fingerabdruckstroms auf Basis eines ersten Signals,
    • – das Erzeugen eines zweiten Fingerabdruckstroms auf Basis eines zweiten Signals,
    • – das Vergleichen eines Segmentes des ersten Fingerabdruckstroms mit einem oder mehreren ersten Fingerabdrücken, die in wenigstens einer Datenbank gespeichert sind um zu ermitteln, ob es ggf. eine Übereinstimmung gibt,
    • – das Vergleichen eines Segmentes des zweiten Fingerabdruckstroms mit einem oder mehreren zweiten Fingerabdrücken, die in der wenigstens einen Datenbank gespeichert sind um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, und wenn es für einen ersten und einen zweiten Fingerabdruck eine Übereinstimmung gibt
    • – das Ermitteln einer Stelle eines ersten Synchronisationszeitpunktes für das erste Signal und einer Stelle eines zweiten Synchronisationszeitpunktes für das zweite Signal, und
    • – das Synchronisieren des ersten und des zweiten Signals unter Verwendung der bestimmten Stellen, wobei das genannte erste Signal ein Audiosignal ist, wobei das genannte zweite Signal ein Videosignal ist und wobei der genannte erste Fingerabdruck ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck ein Videofingerabdruck ist.
  • Auf diese Weise wird eine einfache, zuverlässige und effiziente Art und Weise der Synchronisation wenigstens zweier Signale erhalten. Weiterhin wird dies ohne Modifikation des ersten oder des zweiten Signals (oder nachfolgender Signale) ermöglicht.
  • Die Signale können sogar gewissermaßen gestört oder geändert werden, während dennoch eine genaue Synchronisation ermöglicht wird, und zwar wegen der Verwendung von Fingerabdrücken.
  • Ein Fingerabdruck eines Multimedia Objekt/Inhalt/Signals ist eine Darstellung von wahrnehmbaren Merkmale des betreffenden Objekt/Inhalt/Signalteils. Derartige Fingerabdrücke sind manchmal auch als "robuste Hash-Codes" bekannt. Insbesondere ist ein Fingerabdruck von einem Stück Audio oder Video ein Identifizierer, der über dieses Stück Audio oder Video berechnet ist und der nicht wesentlich ändert, sogar wenn der betreffende Inhalt danach umcodiert, gefiltert oder sonst wie modifiziert wird.
  • Vorteilhafte Ausführungsformen der Verfahren und der Anordnungen nach der vorliegenden Erfindung werden in den Unteransprüchen definiert.
  • Weiterhin bezieht sich die vorliegende Erfindung auch auf ein von einem Computer auslesbares Medium, in dem Instruktionen gespeichert sind um dafür zu sorgen, dass eine oder mehrere Verarbeitungseinheiten das Verfahren nach der vorliegenden Erfindung durchführt. Es zeigen:
  • 1a eine schematische Darstellung der Erzeugung von Fingerabdruckpaaren, zur Synchronisation zwischen einem Audio- und einem Videosignal,
  • 1b eine schematische Darstellung der Detektion eines derartigen erzeugten Fingerabdruckpaares zur Synchronisation nach der vorliegenden Erfindung,
  • 2 eine schematische Darstellung eines Blockdiagramms einer Fingerabdruckerzeugungsanordnung nach der vorliegenden Erfindung,
  • 3 eine schematische Darstellung eines Blockschaltbildes einer Synchronisationsanordnung, die Fingerabdrücke nach der vorliegenden Erfindung detektiert und benutzt,
  • 4 eine Darstellung eines Beispiels von Tabellen/Aufzeichnungen nach der vorliegenden Erfindung,
  • 5 eine Darstellung einer alternativen Ausführungsform einer Beziehung zwischen Zeitpunkten in einem ersten und einem zweiten Signal,
  • 6 eine Darstellung einer Ausführungsform, wobei eine erste und eine zweite Darstellung an einer Fernstelle gespeichert sind,
  • 7 eine schematische Darstellung, insbesondere wie die Synchronisation in einer Ausführungsform in einer Synchronisationsanordnung unter Verwendung von Puffern durchgeführt werden kann.
  • 1a zeigt schematisch die Erzeugung von Fingerabdruckpaaren zur Verwendung zur Synchronisation zwischen einem Audio- und einem Videosignal.
  • Dargestellt sind ein digitales oder analoges erstes Signal 101 und ein digitales oder analoges zweites Signal 103. Nachstehend ist das erste Signal 101 ein Audiosignal und das zweite Signal 103 ist ein Videosignal.
  • Zu einer oder mehreren Synchronisationszeitpunkten Tn, Tn+1 soll ein Fingerabdruckpaar hergeleitet werden. Diese Zeitpunkte werden entsprechend wenigstens einem vorbestimmten Kriterium selektiert werden. So spezifizieren beispielsweise die Kriterien einen Zeitpunkt am Anfang des Audio- und/oder Videosignals, einen Zeitpunkt am Ende einen zwischen liegenden Zeitpunkt. Auf alternative Weise können die Zeitpunkte entsprechend der nachfolgenden Regel selektiert werden: einen am Anfang und einen Zeitpunkt für jeden Punkt, der nach einer bestimmten Zeitperiode vergangen ist, beispielsweise einen Zeitpunkt alle 2 Minuten oder alle 2 Sekunden, usw. Auf alternative Weise können die Zeitpunkte aus einer Analyse des betreffenden Signals selber hergeleitet werden, beispielsweise bei jeder Szenenänderung in einem Videosignal. Es ist nur ein einziger Synchronisationszeitpunkt Tn, Tn+1 erforderlich um eine Synchronisation zwischen den zwei Signalen 101, 103 nach der vorliegenden Erfindung zu ermöglichen. Die Verwendung aber von mehr Zeitpunkten Tn, Tn+1 ermöglicht eine bessere Synchronisation, beispielsweise in einer Situation, in der eines der Signale oder die beiden Signale gestutzt, modifiziert usw. worden ist bzw. sind. Ein Beispiel könnte sein, wenn ein Benutzer einen Film aufgezeichnet hat und wenn er die ursprüngliche Tonspur gekauft hat, wie oben beschrieben, wobei aber der Film durch Werbesendungen unterbrochen ist. Durch Hinzufügung von mehr Synchronisationszeitpunkten wird eine bessere Synchronisation ermöglicht, insbesondere wenn die Synchronisationszeitpunkte auf den Endzeitpunkte der Werbeunterbrechungen oder nahe dabei liegen.
  • Für jeden Synchronisationszeitpunkt Tn, Tn+1 für das Audiosignal 101 wird jeweils ein Fingerabdruck 102 hergeleitet und ein Videofingerabdruck 104 wird für das Videosignal 103 zu denselben Synchronisationszeitpunkten Tn, Tn+1 hergeleitet, was zu einem Fingerabdruckpaar 102, 104 für jeden Synchronisationszeitpunk Tn, Tn+1 führt. Ein Fingerabdruck (für Audio und/oder Video) für einen bestimmten Zeitpunkt Tn, Tn+1 wird vorzugsweise von einem Segment des Signals hergeleitet, wo das Segment (im Wesentlichen) zu dem bestimmten Zeitpunkt startet. Auf alternative Weise kann das Segment (im wesentlichen) zu dem bestimmten Zeitpunkt Tn; Tn+1 enden, oder das Segment kann in einem bestimmten Abstand (im Wesentlichen) vor oder nach dem betreffenden Zeitpunkt Tn; Tn+1 starten oder enden, oder der bestimmte Zeitpunkt Tn; Tn+1 kann zu einem vorbestimmten Zeitpunkt zwischen einem Start und einem Ende des Segmentes liegen oder entsprechend jedem beliebigen anderen Schema, solange dasselbe Schema während der Synchronisation eingehalten wird, um den betreffenden Zeitpunkt Tn; Tn+1 auf Basis eines Fingerabdrucks zu ermitteln, wie dies im Zusammenhang mit 1b nachstehend noch näher erläutert wird.
  • Die Größe der Fingerabdrücke kann eine vorbestimmte feste Größe sein oder auf alternative Weise eine variable Größe.
  • Ein Verfahren zum Berechnen eines robusten Fingerabdrucks ist in der internationalen Patentanmeldung WO 02/065782 beschrieben, obschon selbstverständlich jedes beliebige Verfahren zum Berechnen eines robusten Fingerabdrucks angewandt werden kann.
  • Die Europäische Patentveröffentlichung EP1362485 A beschreibt ein Verfahren, das robuste Fingerabdrücke für Multimediainhalt erzeugt, wie beispielsweise Audioclips, wobei der Audioclip in aufeinander folgende (vorzugsweise überlappende) Zeitintervalle aufgeteilt wird. Für jedes Zeitintervall wird das Frequenzspektrum in Bänder aufgeteilt. Eine robuste Eigenschaft jedes Bandes (beispielsweise Energie) wird berechnet und durch ein betreffendes Fingerabdruckbit dargestellt.
  • Multimediainhalt wird auf diese Weise durch einen Fingerabdruck dargestellt, der eine Verkettung binärer Werte aufweist, einen für jedes Zeitintervall. Der Fingerabdruck braucht nicht über den ganzen Multimediainhalt berechnet zu werden, kann aber berechnet werden, wenn ein Teil einer bestimmten Länge empfangen worden ist. Es kann folglich mehrere Fingerabdrücke für einen einzigen Multimediainhalt geben, und zwar abhängig davon, welcher Teil zum Berechnen des Fingerabdrucks verwendet wird.
  • Weiterhin sind Videofingerabdruckalgorithmen bekannt, beispielsweise aus der nachfolgenden Beschreibung: Job Oostveen, Ton Kalker, Jaap Haitsma: ”Feature Extraction and a Database Strategy for Video Fingerprinting", 117-128, IN: Shi-Kuo Chang, Zhe Chef, Suh-Yin Lee (Eds.): "Recent Advances in Visual Information Systems", 5th international Conference, VISUAL 2002 Hsin Chu, Taiwan, den 11.-13. März 2002, "Proceedings, Lecture Notes in Computer Science 2314" Springer 2002.
  • Nach der vorliegenden Erfindung werden ein Audiofingerabdruck 102 und ein Videofingerabdruck 104 für jeden Zeitpunkt Tn, Tn+1 auf Basis eines bestimmten Segmentes des Audiosignals 101 und eines Segmentes des Videosignals 103 zu dem betreffenden Zeitpunk oder nahe daran erzeugt.
  • Auf diese Weise ist ein bestimmtes Fingerabdruckpaar 102, 104 ein Synchronisationsmerker, der eine sehr genaue Stelle eines bestimmten Zeitpunktes der Signale 101 und 103 ermöglicht, ohne Verwendung des bestimmten Zeitpunktes, aber stattdessen Verwendung (eines Segmentes) des Signals. Weiterhin wird dies ohne Änderung der Signale ermöglicht. Sogar für Videofingerabdruck ist die Stelle typischerweise Framegenau, wenigstens solange eine Störung des Videosignals nicht zu stark ist.
  • Nachdem ein Fingerabdruckpaar 102, 104 erzeugt worden ist, wird es vorzugsweise für späteren Gebrauch in einer Datenbank, einem Speicher oder dergleichen gespeichert.
  • Es gibt viele Vorteile bei der Speicherung von Fingerabdruckpaaren (102, 104) für Multimediasignale 101, 103 in einer Datenbank statt der Multimediasignale selber. Nachstehend folgen einige:
    • – die Speicheranforderungen für die Datenbank werden reduziert.
    • – die Kompression von Fingerabdrücken ist effizienter als die Kompression der Multimediasignale selber, da Fingerabdrücke wesentlich kürzer sind als die Signale.
    • – die Suche in einer Datenbank nach einem passenden Fingerabdruck ist effizienter als die Suche nach einem kompletten Multimediasignal, da es die Übereinstimmung kürzerer Elemente betrifft.
    • – die Suche nach einem passenden Fingerabdruck ist wahrscheinlich erfolgreicher, da geringfügige Änderungen in dem Multimediasignal (wie Codierung in einem anderen Format oder Änderung der Bitrate) den Fingerabdruck nicht beeinflussen.
  • Die erzeugten Fingerabdruckpaare 102, 104, die in der Datenbank gespeichert sind, können danach über eine oder mehrere Synchronisationsanordnungen verteilt werden (und zwar übers Internet oder über andere Mittel) zur Synchronisation der Signale nach der vorliegenden Erfindung, beispielsweise vor der Wiedergabe, der Speicherung weiterer Übertragung der beiden (synchronisierten) Signale usw.
  • Es sei bemerkt, dass die vorliegende Erfindung auch anwendbar ist zum Synchronisieren von mehr als nur zwei Signale und auch auf Signale, die von einem anderen Signaltyp sind als Audio und Video, solange ein robuster Fingerabdruck erhalten werden kann. Im Grunde kann jede beliebige Anzahl Signale nach der vorliegenden Erfindung synchronisiert werden. Dies würde einfach einen zusätzlichen Fingerabdruck zu jeden Zeitpunkt Tn, Tn+1 für jedes zusätzliche Signal erfordern.
  • Auf alternative Weise kann das Fingerabdruckpaar auch zu verschiedenen Zeitpunkten für die betreffenden Signale erzeugt werden, d.h. der eine Fingerabdruck des Fingerabdruckpaares kann beispielsweise in 25 Sekunden des ersten Signals erzeugt werden, während der andere Fingerabdruck beispielsweise bei 30 Sekunden des zweiten Signals erzeugt werden kann. Dies erfordert aber eine gut definierte Beziehung zwischen jedem betreffenden Zeitpunkt (beispielsweise 25 Sekunden und 30 Sekunden in dem oben stehenden Beispiel) und einem gemeinsamen Zeitframe. Diese alternative Ausführungsform wird im Zusammenhang mit 5 detailliert beschrieben.
  • 1b zeigt schematisch die Detektion eines derartigen erzeugten Fingerabdruckpaares, verwendet zur Synchronisation nach der vorliegenden Erfindung. Dargestellt sind ein digitales oder analoges erstes (zu synchronisierendes) Signal 101 und ein digitales oder analoges zweites (zu synchronisierendes) Signal 103. Nachstehend ist das erste Signal (101) ein Audiosignal und das zweite Signal (103) ist ein Videosignal. Weiterhin sind ein erster Fingerabdruckstrom 105 und ein zweiter Fingerabdruckstrom 106 dargestellt, die ständig oder nahezu ständig auf Basis des Audiosignals 101 und des Videosignals 103 erzeugt werden. Auf alternative Weise werden die Fingerabdruckströme 105, 106 in Segmenten erzeugt. Jeder Fingerabdruckstrom 105, 106 (oder Segmente) wird mit Fingerabdrücken 102, 104 verglichen, beispielsweise in einer Datenbank gespeichert, damit ermittelt werden kann, ob es ggf. eine Übereinstimmung gibt. Insbesondere wird der Audiofingerabdruckstrom 105 mit gespeicherten Audiofingerabdrücken 102 verglichen und der Videofingerabdruckstrom 106 wird mit gespeicherten Videofingerabdrücken 104 verglichen. Die gespeicherten Fingerabdrücke 102, 104 werden erzeugt, wie im Zusammenhang mit 1a erläutert wurde, beispielsweise an einer zentralen Stelle. Die gespeicherten Finge rabdrücke 102, 104 werden beispielsweise übers Internet oder über andere Mittel, beispielsweise von einer zentralen Stelle her, empfangen.
  • Wenn eine Übereinstimmung zwischen dem Audiofingerabdruckstrom 105 und einem bestimmten Audiofingerabdruck 102 in der Datenbank gefunden wird, und eine Übereinstimmung zwischen einem Segment des Videofingerabdruckstroms 106 und einem bestimmten Videofingerabdruck 104 in der Datenbank gefunden wird, d.h. wenn ein übereinstimmendes Fingerabdruckpaar gefunden worden ist, wird der betreffende Synchronisationszeitpunkt Tn; Tn+1 auch gegeben, wenn die Fingerabdrücke 102, 104 nach der vorliegenden Erfindung erzeugt worden sind und wie im Zusammenhang mit 1a erläutert wurde.
  • Der spezifische Synchronisationszeitpunkt Tn; Tn+1 wird in Abhängigkeit von dem Schema ermittelt, das während der Erzeugung des Audiofingerabdrucks 102 und des Videofingerabdrucks 104 zu dem betreffenden Zeitpunkt Tn; Tn+1 verwendet worden ist.
  • Vorzugsweise wird der spezifische Synchronisationszeitpunkt Tn; Tn+1 dadurch gegeben, dass man voraussetzt, dass das Segment des Audiosignals 101 und das Segment des Videosignals 103 ursprünglich auf das übereinstimmende Fingerabdruckpaar 102, 104 basiert worden ist (nach 1) ausgehend (im Wesentlichen) von dem gegebenen Zeitpunkt Tn; Tn+1. Bei alternativen Ausführungsformen enden das Segment des Audiosignals 101 und das Segment des Videosignals 103 (im Wesentlichen) zu dem Zeitpunkt Tn; Tn+1, wobei die Segmente des Audio- und Videosignals 101, 103 in einem vorbestimmten Abstand vor oder nach dem gegebenen Synchronisationszeitpunkt Tn: Tn+1 starten bzw. enden, oder der gegebene Synchronisationszeitpunkt Tn; Tn+1 kann an einem vorbestimmten Zeitpunkt zwischen einem Start und einem Ende der Segmente des Audiosignals 101 und des Videosignals 103 liegen.
  • Die Synchronisationsanordnung braucht einfach die Beziehung zwischen einem bestimmten Fingerabdruck und dem gegebenen Zeitpunkt zu beachten, der während der Erzeugung verwendet wird, was während der Herstellung der Synchronisationsanordnung ermittelt und implementiert werden kann oder auf andere Art und Weise aktualisierbar ist.
  • Wie erläutert, ist nachdem ein übereinstimmendes Fingerabdruckpaar 102, 104 ermittelt worden ist, der Zeitpunkt Tn; Tn+1 dieses Paares auch bekannt und dient als Synchronisationszeitpunkt, da dieser Zeitpunkt unmittelbar einen Bezugpunkt zwischen den zwei Signalen 101 und 103 ergibt. Die Synchronisationsanordnung kompensiert dann die (etwaige) Verzögerung zwischen den zwei Signalen, beispielsweise durch Verschiebung. eines derselben, so dass sie gegenüber dem Zeitpunkt ausgerichtet sind.
  • Die oben genannte internationale Patentanmeldung WO 02/065782 beschreibt mehrere Übereinstimmungsstrategien zum Übereinstimmen von Fingerabdrücken, berechnet für einen Audioclip mit Fingerabdrücken, die in einer Datenbank gespeichert sind. Ein derartiges Verfahren zum Übereinstimmen eines Fingerabdrucks, der ein unbekanntes Informationssignal darstellt, mit einer Anzahl Fingerabdrücke identifizierter Informationssignale in einer Datenbank zum Identifizieren des unbekannten Signals, benutzt Zuverlässigkeitsinformation der extrahierten Fingerabdruckbits. Die Fingerabdruckbits werden durch Berechnung von Merkmalen eines Informationssignals und durch Schwellwertbestimmung der genannten Merkmale ermittelt zum Erhalten der Fingerabdruckbits. Wenn ein Merkmal einen Wert sehr nahe bei dem Schwellenwert hat, kann eine geringfügige Änderung in dem Signal zu einem Fingerabdruckbit mit einem entgegen gesetzten Wert führen. Der Absolutwert der Differenz zwischen dem Merkmalwert und dem Schwellenwert wird benutzt zum Merken jedes Fingerabdruckbits als zuverlässig oder als unzuverlässig. Die Zuverlässigkeiten werden daraufhin zur Verbesserung der wirklichen Übereinstimmungsprozedur verwendet.
  • Auf diese Weise kann Synchronisation erhalten werden, sogar wenn eines der Signale, beispielsweise das Videosignal, in einer geringeren Qualität erhalten worden ist, modifiziert worden ist (beispielsweise komprimiert), usw.
  • Es sei bemerkt, dass das Audiosignal 101 und/oder das Videosignal 103 eine gestörte Version des Signals sein kann, das während der Erzeugung der Fingerabdrücke verwendet wurde, beispielsweise die Signale nach 1a.
  • Wie im Zusammenhang mit 1a erwähnt, kann diese Ausführungsform auf einfache Weise modifiziert werden um Synchronisation von mehr als zwei Signalen und/oder Signalen von einem anderen Typ als Audio und oder Video zu erzielen.
  • 2 zeigt ein Blockschaltbild einer Fingerabdruckerzeugungsanordnung nach der vorliegenden Erfindung.
  • Dargestellt ist eine Fingerabdruckerzeugungsanordnung 200 mit einem Signaleingangsmodul 201, einem Fingerabdruckmodul 202, einer Datenbank, einem Speicher und/oder dergleichen 203, die über einen Bus oder dergleichen unter Ansteuerung eines oder mehrerer (nicht dargestellter) Mikroprozessoren kommunizieren. Die Fingerabdruckerzeugungsanordnung 200 kann in einer Ausführungsform ggf. auch einen Sender und Empfänger 204 zur Kommunikation mit anderen Systemen, Anordnungen usw. über ein verdrahtetes und/oder drahtloses Netzwerk, beispielsweise wie Internet, enthalten.
  • Das Signaleingangsmodul 201 empfängt ein erstes 101 und wenigstens ein zweites Signal 103. Nachstehend werden zwei Signale empfangen, die Multimediainhalt in Form eines analogen oder digitalen Audiosignals und eines Videosignals enthalten. Das Eingangsmodul 201 führt die zwei Signale dem Fingerabdruckmodul 202 zu. Das Fingerabdruckmodul 202 empfängt auch eine Darstellung der Zeitpunkte (..., Tn; Tn+1 ...), die als Synchronisationszeitpunkte verwendet werden sollen. Auf alternative Weise werden die Zeitpunkte durch die Fingerabdruckerzeugungsanordnung 200 hergeleitet. Wenn die Zeitpunkte zugeliefert werden und nicht von der Fingerabdruckerzeugungsanordnung 200 erzeugt werden, ist es nicht notwendig, dass die Fingerabdruckerzeugungsanordnung 200 mit dem kompletten Audiosignal 101 und dem kompletten Videosignal 103 versehen wird. Es reicht dann, nur die betreffenden Segmente des Audiosignals 101 und des Videosignals 103 zu liefern, die zur Fingerabdruckerzeugung verwendet werden, beispielsweise ein Segment jedes Signals für jeden Zeitpunkt.
  • Der Sender und Empfänger 204 kann auch verantwortlich sein für den Empfang eines oder mehrerer der Signale 101 und 103 und dieses/diese dem Signalempfänger 301 oder unmittelbar dem Fingerabdruckdetektor 302 zuführen.
  • Das Fingerabdruckmodul 202 berechnet einen Fingerabdruck auf Basis des empfangenen Audiosignals 101 und Videosignals 103. Ein Fingerabdruck kann für den ganzen Inhalt oder für einen Teil des Inhalts hergeleitet werden. Auf alternative Weise können verschiedene Fingerabdrücke hergeleitet werden, je von einem anderen Teil. Nach der vorliegenden Erfindung wird ein Fingerabdruck für jeden Zeitpunkt Tn; Tn+1 hergeleitet, wie im Zusammenhang mit 1a erläutert. Auf alternative Weise kann das Fingerabdruckmodul 202 in zwei, beispielsweise unterschiedliche Fingerabdruckmodule aufgeteilt werden oder das Modul kann diese enthalten, und zwar ein Modul zum herleiten von Audiofingerabdrücken und ein Modul zum herleiten von Videofingerabdrücken.
  • Das Fingerabdruckmodul 202 liefert dann das berechnete Fingerabdruckpaar zu der Datenbank 203. Wie in 4 dargestellt, umfasst die Datenbank 203 Videofinge rabdrücke, organisiert durch eine Spalte mit Videofingerabdrücken 104 'V_FP1','V_FP2', 'V_FP3', 'V_FP4', 'V_FP5', usw. und entsprechende Audiofingerabdrücken 102 'A_FP1', 'A_FP2', 'A_FP3', 'A_FP4', 'A_FP5', usw.
  • Die Datenbank 203 kann verschiedenartig organisiert sein um die Abfragezeit und/oder die Datenorganisation zu optimieren. Der Ausgang des Fingerabdruckmoduls 202 soll berücksichtigt werden, wenn die Tabellen in der Datenbank 203 entworfen werden. In der in 4 dargestellten Ausführungsform umfasst die Datenbank 203 eine einzige Tabelle mit Eingaben (Aufzeichnungen) mit betreffenden Fingerabdruckpaaren.
  • Wie erwähnt, kann diese Ausführungsform auf einfache Weise modifiziert werden um Synchronisation von mehr als zwei Signalen unterzubringen und/oder von Signalen eines anderen Typs als Audio und/oder Video.
  • 3 zeigt ein Blockschaltbild einer Synchronisationsanordnung, die Fingerabdrücke detektiert und verwendet, nach der vorliegenden Erfindung.
  • Dargestellt ist eine Synchronisationsanordnung 300 mit einem Signalempfänger 301, einem Fingerabdruckdetektor 302, einer Synchronisationsschaltung 303, einer Datenbank, einem Speicher und/oder dergleichen 203, die/der über einen Bus 205 oder dergleichen unter Ansteuerung eines oder mehrerer Mikroprozessoren (nicht dargestellt) kommuniziert. Die Synchronisationsanordnung 300 kann in einer Ausführungsform ggf. auch einen Sender und Empfänger 204 enthalten zur Kommunikation mit anderen Systemen, Anordnungen usw. über ein verdrahtetes und/oder drahtloses Netzwerk, beispielsweise wie das Internet.
  • Der Signalempfänger 301 empfängt ein erstes 101 und wenigstens ein zweites Signals 103. Nachstehend werden die zwei Signale mit Multimediainhalt in Form eines zu synchronisierenden analogen oder digitalen Audiosignals und eines zu synchronisierenden analogen oder digitalen Videosignals empfangen. Der Sender und Empfänger 204 kann auch verantwortlich sein für den Empfang eines oder mehrerer der Signale 101 und 103 und zum Liefern desselben/derselben zu dem Signalempfänger 301 oder unmittelbar zu dem Fingerabdruckdetektor 302.
  • Die empfangenen Signale werden dem Fingerabdruckdetektor 302 zugeführt, der einen Fingerabdruckstrom oder Segmente davon für jedes Signal herleitet und ermittelt, ob es Übereinstimmungen mit Fingerabdruckpaaren gibt, die in der Datenbank 203 gespeichert sind, wie im Zusammenhang mit 1b erläutert wurde. Wenn eine Über einstimmung gefunden wird, wird auch der spezifische Synchronisationszeitpunkt Tn; Tn+1 für jedes Signal ermittelt. Die spezifische Ermittlung des Synchronisationszeitpunktes Tn; Tn+1 Signal ist unabhängig von dem Schema, das während der Erzeugung des Audiofingerabdrucks 102 und des Videofingerabdrucks 104 zu dem betreffenden Zeitpunkt Tn; Tn+1 verwendet worden ist.
  • Vorzugsweise wird der spezifische Synchronisationszeitpunkt Tn; Tn+1 dadurch gegeben, dass man voraussetzt, dass das Segment des Audiosignals 101 und das Segment des Videosignals 103 ursprünglich auf das übereinstimmende Fingerabdruckpaar 102, 104 basiert worden ist (nach 1) ausgehend (im Wesentlichen) von dem gegebenen Zeitpunkt Tn; Tn+1. Bei alternativen Ausführungsformen enden das Segment des Audiosignals 101 und das Segment des Videosignals 103 (im Wesentlichen) zu dem Zeitpunkt Tn; Tn+1, wobei die Segmente des Audio- und Videosignals 101, 103 in einem vorbestimmten Abstand vor oder nach dem gegebenen Synchronisationszeitpunkt Tn: Tn+1 starten bzw. enden, oder der gegebene Synchronisationszeitpunkt Tn; Tn+1 kann an einem vorbestimmten Zeitpunkt zwischen einem Start und einem Ende der Segmente des Audiosignals 101 und des Videosignals 103 liegen.
  • Die Synchronisationsanordnung braucht einfach die Beziehung zwischen einem bestimmten Fingerabdruck und dem gegebenen Zeitpunkt zu beachten, der während der Erzeugung verwendet wird, was während der Herstellung der Synchronisationsanordnung ermittelt und implementiert werden kann oder auf andere Art und Weise aktualisierbar ist.
  • Wie erläutert, ist nachdem ein übereinstimmendes Fingerabdruckpaar 102, 104 ermittelt worden ist, der Zeitpunkt Tn; Tn+1 dieses Paares auch bekannt und dient als Synchronisationszeitpunkt, da dieser Zeitpunkt unmittelbar einen Bezugpunkt zwischen den zwei Signalen 101 und 103 ergibt. Die Synchronisationsanordnung kompensiert dann die (etwaige) Verzögerung zwischen den zwei Signalen, beispielsweise durch Verschiebung eines derselben, so dass sie gegenüber dem Zeitpunkt ausgerichtet sind.
  • Als einfaches Beispiel sagen wir, dass der Synchronisationszeitpunkt auf 5 Minuten und 34 Sekunden der Signale 101 und 103 während der Erzeugung nach 1a liegt. Während der Erzeugung von Fingerabdrücken (entsprechend 1a) würde ein einziger Audiofingerabdruck bei oder nahe bei (abhängig von dem angewandten Schema) 5 Minuten und 34 Sekunden in dem Audiosignal 101 geliefert werden und ein einziger Vi deofingerabdruck würde auch bei oder nahe bei (abhängig von dem angewandten Schema) 5 Minuten und 34 Sekunden in dem Videosignal 103 geliefert werden. Diese zwei Fingerabdrücke würden danach gespeichert und zu einer Synchronisationsanordnung übertragen werden, die dann die Synchronisation zwischen den zwei Signalen durchführt. Bei der Synchronisationsanordnung würde ein Fingerabdruckstrom 105 des Audiosignals und ein Fingerabdruckstrom 106 des Videosignals mit den gespeicherten zwei Fingerabdrücken verglichen werden. Wenn zwischen dem gespeicherten Audiofingerabdruck und dem Audiofingerabdruckstrom ein Übereinstimmungsstrom gefunden wird. Ergibt die Stelle der Übereinstimmung (beispielsweise Tn in 105 in 1b) in dem Fingerabdruckstrom den verwendeten Synchronisationszeitpunkt, d.h. was mit 5 Minuten und 34 Sekunden übereinstimmen sollte. Auf gleiche Weise gibt, wenn eine Übereinstimmung zwischen dem gespeicherten Videofingerabdruck und dem gefundenen Videofingerabdruckstrom gefunden wird, die Stelle der Übereinstimmung (beispielsweise Tn in 106 in 1b) in dem Fingerabdruckstrom den verwendeten Synchronisationszeitpunkt, d.h. 5 Minuten und 34 Sekunden. Die zwei Signale können verschoben werden, aber die genaue Stelle in den Signalen (wie durch das Segment des Fingerabdruckstroms gegeben, der mit einem gespeicherten Fingerabdruck übereinstimmt) was 5 Minuten und 34 Sekunden sein sollte, können danach zum Ausrichten der zwei Signale verwendet werden. Der spezifische Wert des Zeitpunktes (5 Minuten und 34 Sekunden) braucht überhaupt nicht bekannt zu sein oder spezifisch hergeleitet zu sein. Das einzige, was bekannt sein soll ist, dass die Fingerabdruckübereinstimmungsstelle der zwei Signale 101; 103 ausgerichtet/synchronisiert sein soll. Der Synchronisationszeitpunkt von 5 Minuten und 34 Sekunden kann beispielsweise den 5 Minuten und 34 Sekunden in dem Audiosignal entsprechen (beispielsweise weil dies die ursprüngliche Tonspur ist, die während der Erzeugung des Audiofingerabdrucks verwendet wurde) und 6 Minuten und 3 Sekunden in dem Videosignal (beispielsweise wenn das Videosignal im Vergleich mit dem ursprünglichen Videosignal, das während der Erzeugung des Videofingerabdrucks verwendet wurde) weiterhin Werbeunterbrechungen aufweist. Die Differenz zwischen den zwei Zeitwerten (6 Minuten, 3 Sekunden -5 Minuten 34 Sekunden = 29 Sekunden) kann danach zum Kompensieren der Verzögerung verwendet werden, beispielsweise durch Verschiebung der Wiedergabe, so dass das Audiosignal und das Videosignal gleichzeitig bei dem Synchronisationszeitpunkt und weiter wiedergegeben werden (wenn es keine weiteren Modifikationen anderer Signal gibt, beispielsweise ein zusätzliche Werbeunterbrechung, usw.).
  • Vorzugsweise entspricht das Datenlayout der Datenbank 203 dem einen aus 4.
  • Wie erwähnt, kann diese Ausführungsform auf einfache Art und Weise modifiziert werden um Synchronisation von mehr als nur zwei Signalen und/oder Signalen eines anderen Typs als Audio und/oder Video durchzuführen.
  • 4 zeigt ein Beispiel von Tabellen/Aufzeichnungen nach der vorliegenden Erfindung. Dargestellt ist eine Tabelle mit Fingerabdruckpaaren 102, 104. Die Tabelle ist in diesem Beispiel durch eine Spalte organisiert, die Videofingerabdrücke 'V_FP1', 'V_FP2', 'V_FP3', 'V_FP4', 'V_FP5', usw. und eine Spalte mit den betreffenden entsprechenden Audiofingerabdrücken 'A_FP1', 'A_FP2', 'A_FP3', 'A_FP4', 'A_FP5', usw. enthält.
  • 5 zeigt eine alternative Ausführungsform einer Beziehung zwischen Zeitpunkten in einem ersten und in einem zweiten Signal. Dargestellt sind ein erstes Signal 101 und ein zweites Signal 103. In dieser Ausführungsform ist ebenfalls eine dritte oder Bezugs- oder gemeinsame oder interne Takt/Linie 107 dargestellt (nachstehend nur als Bezugszeitlinie bezeichnet), und zwar zum besseren Verständnis des Prinzips dieser Ausführungsform.
  • In diesem speziellen Beispiel der alternativen Ausführungsform ist ein (nicht dargestellter) Fingerabdruck für das erste Signal 101 zu einem ersten Synchronisationszeitpunkt Tn mit dem Wert von 560 erzeugt worden. Dieser spezielle Zeitpunkt Tn für das erste Signal 101 bezieht sich auf ein Bezugszeitframe, wie durch die Bezugszeitlinie 107 angegeben (wie durch den Pfeil angegeben) auf einen Zeitpunkt mit einem Wert von 8:45:17,23 (was angibt, dass das erste Signal zu Tn = 560 vorhanden sein soll zu 8:45:17,23 auf der Bezugszeitlinie 107. Eine Darstellung dieser Angabe oder dieser Beziehung zwischen dem betreffenden Zeitpunkt Tn für das erste Signal 101 (d.h. eine erste Darstellung) kann mit dem erzeugten ersten Fingerabdruck assoziiert sein und in einer Datenbank gespeichert sein (beispielsweise in derselben oder in einer anderen als diejenige, die den erzeugten Fingerabdruck enthält), wie nachstehend noch näher erläutert wird.
  • Weiterhin ist ein (nicht dargestellter) Fingerabdruck für das zweite Signal 103 zu einem zweiten Synchronisationszeitpunkt Tm, mit dem Wert 1800 erzeugt worden. Dieser spezielle Zeitpunkt Tm, für das zweite Signal 103 bezieht sich auch auf dasselbe Be zugszeitframe wie durch die Bezugszeitlinie 107 angegeben (wie durch einen Pfeil angegeben) auf einen Zeitpunkt mit dem Wert 8:45:17,18 auf der Bezugszeitlinie 107 (wobei angegeben wird, dass das zweite Signal zu Tm = 1800 zu 8:45:17, 18 vorhanden sein soll). Eine Darstellung dieser Angabe oder Beziehung zwischen dem betreffenden Zeitpunkt Tm für das zweite Signal 101 (d.h. eine zweite Darstellung) kann mit dem erzeugten zweiten Fingerabdruck assoziiert sein und in einer Datenbank (beispielsweise derselben oder einer anderen als diejenige, die den erzeugten Fingerabdruck enthält), wie dies nachstehend noch näher erläutert wird.
  • Die erste und die zweite Darstellung kann beispielsweise einfach der Bezugszeitpunkt des ersten bzw. zweiten Signals sein. In dem oben stehenden Beispiel würde der Wert 8:45:17,18 mit dem erzeugten Fingerabdruck zu Tm = 1800 gespeichert werden.
  • Während der Synchronisation erzeugt eine Synchronisationsanordnung nach dieser Ausführungsform einen ersten und einen zweiten Fingerabdruckstrom oder Fingerabdrucksegmente, wie im Zusammenhang mit 1b erläutert. Jeder Fingerabdruckstrom (oder Segmente) wird mit Fingerabdrücken verglichen, die beispielsweise in einer örtlichen oder Ferndatenbank gespeichert sind, damit ermittelt wird, ob es ggf. eine Übereinstimmung gibt, wie auch im Zusammenhang mit 1b erläutert. Wenn ein miteinander übereinstimmender erster und zweiter Fingerabdruck gefunden worden ist, sind der erste Tn, (d.h. 560 in dem oben stehenden Beispiel) und der zweite Synchronisationszeitpunkt Tm (d.h. 1800 in dem oben stehenden Beispiel) auch bekannt oder herleitbar. Danach ist die Verwendung der oben genannten ersten und zweiten Darstellung der Beziehung zu einem Bezugszeitrahmen möglich um zu ermitteln, wie die Signale nach einem bestimmten Zeitrahmen synchronisiert werden sollen.
  • Wie erwähnt, können die erste und die zweite Darstellungen einer oder mehreren Datenbanken gespeichert sein und sollen vor der Synchronisation einer Synchronisationsanordnung zugeführt werden. In einer Ausführungsform werden die erste und die zweite Darstellung unmittelbar der Synchronisationsanordnung zur Speicherung aus einer Fingerabdruckerzeugungsanordnung zugeführt. Auf alternative Weise werden die erste und die zweite Darstellung einer anderen Anordnung, beispielsweise einem Server, zugeführt, der imstande ist, mit einer Synchronisationsanordnung zu kommunizieren. Diese Ausführungsform wird im Zusammenhang mit 6 detailliert erläutert.
  • 6 zeigt eine Ausführungsform, wo die erste und die zweite Darstellung an einer Fernstelle gespeichert sind. Dargestellt sind ein Audioserver 601 und ein Videoserver 602, die einen Audiostrom bzw. einen Videostrom zu einem Audiofingerabdruckgenerator 202 bzw. einem Videofingerabdruckgenerator 202 liefern. Der Audio- und der Videofingerabdruckgenerator 202 funktioniert wie im Zusammenhang mit 2 beschrieben und können in derselben Fingerabdruckerzeugungsanordnung 200 oder in zwei verschiedenen Anordnungen vorgesehen sein. In dieser Ausführungsform werden die erzeugten Fingerabdrücke einer Datenbank 203 zugeführt, die sich in einem (Datenbank)Server 600 befindet, der mit einer Synchronisationsanordnung 300 in Kommunikationsverbindung steht. Der Server 600 empfängt und speichert auch eine erste Darstellung für jeden Audiofingerabdruck und eine zweite Darstellung für jeden Videofingerabdruck, wie beispielsweise im Zusammenhang mit 5 beschrieben, d.h. die Darstellungen der Beziehung zwischen Zeitpunkten des Audiostroms und des Videostroms und einer gemeinsamen Bezugszeitlinie oder einem Zeitrahmen.
  • Die Synchronisationsanordnung 300 funktioniert wie im Zusammenhang mit 3 und 5 beschrieben. Sie empfängt den zu synchronisierenden Audio- und Videostrom von dem Audio- und Videoserver 601, 602 und erzeugt einen Fingerabdruckstrom oder Fingerabdrucksegmente von jedem und vergleicht diese mit vorbestimmten Fingerabdrücken (entsprechend 102 und 104 in den 1a und 1b) die Synchronisationszeitpunkte bezeichnen, wie oben beschrieben. Die vorbestimmten Fingerabdrücke können von der Fingerabdruckerzeugungsanordnung 200 empfangen werden (wie durch zwei gestrichelte Pfeile angegeben) oder von dem Server 600. Wenn die vorbestimmten Fingerabdrücke von dem Server 600 empfangen werden, wird die Speicherung in der Synchronisationsanordnung 300 gespeichert, die eine mehr begrenzte Speicherkapazität hat. Die erste und die zweite Darstellung jedes Fingerabdrucks wird vorzugsweise auch von dem Server 600 empfangen und wird zum Synchronisieren des Audio- und Videostroms vor der Wiedergabe, verwendet, wie im Zusammenhang mit 5 beschrieben.
  • Der (die) Server kann (können) vorbestimmte Fingerabdrücke und/oder ihre assoziierte erste und zweite Darstellung für verschiedene Audio- und Videoströme gespeichert haben.
  • In einer Ausführungsform sind die vorbestimmte Fingerabdrücke in der Synchronisationsanordnung 200 gespeichert, während die erste und die zweite Darstellung in einem oder mehreren Servern 600 gespeichert sind. Wenn ein Fingerabdruckpaar detektiert worden ist, werden die erste und die zweite Darstellung dieses Paares von dem (den) Server(n) übertragen und in der Synchronisationsanordnung 200 verwendet. Auf alternative Weise können alle ersten und zweiten Darstellungen aller vorbestimmten Fingerabdrücke eines bestimmten Audio- und Videostroms der Synchronisationsanordnung 200 zugeführt werden, und zwar bevor die Synchronisation anfängt, beispielsweise auf Basis von Strom-ID, usw.
  • In einer alternativen Ausführungsform werden die vorbestimmten Fingerabdrücke zusammen mit ihrer assoziierten ersten und zweiten Darstellung nur in einem oder mehreren Servern 600 gespeichert. Vor der Synchronisation der Ströme werden die Fingerabdrücke und ihrer assoziierten ersten und zweiten Darstellungen zu der Synchronisationsanordnung 200 übertragen, beispielsweise auf Basis der Strom-ID oder dergleichen. Auf alternative Weise werden nur die Fingerabdrücke vor der Synchronisation übertragen und bei Detektion übereinstimmender Fingerabdrücke werden die assoziierten Darstellungen zu der Synchronisationsanordnung 200 übertragen.
  • Es sei bemerkt, dass es meistens zwischen der Erzeugung von Fingerabdrücken auf Basis des Audio- und Videostroms und, wenn diese Ströme der Synchronisationsanordnung 300 zugeführt werden, eine Zeit geben wird.
  • Die Datenbank 203 kann eine einzelne Datenbank oder verschiedene Datenbanken sein, die in einem einzigen Server oder in verschiedenen Servern untergebracht sind.
  • 7 zeigt schematisch spezifisch, wie die Synchronisation in einer Ausführungsform in einer Synchronisationsanordnung unter Verwendung von Puffern durchgeführt werden kann. Dargestellt sind ein Puffer 701 zum Puffern von Audiodaten und ein Puffer 702 zum Puffern von Videodaten. Für den Audiopuffer 701 gibt ein Ein-Zeiger I-P an, wo der nächste Audioabtastwert, herrührend von dem Audiostrom, in den Puffer eingegeben werden soll. Eine Aus-Zeiger O-P gibt an, wo der nächste Audioabtastwert ausgelesen werden soll. Der Aus-Zeiger verlagert sich zu dem nächsten Schlitz mit einer Geschwindigkeit, eingestellt durch einen Taktgeber der Synchronisationsanordnung.
  • Für den Videopuffer 702 sind ein EIN-Zeiger I-P und ein AUS-Zeiger O-P dargestellt, die auf dieselbe Art und Weise funktionieren, wie für den Audiopuffer 701 erläutert.
  • Je nach einer ersten Darstellung (beispielsweise bereits in der Synchronisationsanordnung vorhanden oder von einem Server empfangen, wie oben bereits erläutert) wird der AUS-Zeiger eingestellt, d.h. zu einem früheren oder späteren Schlitz in dem Puffer 701 verschoben.
  • Gleiches gilt auch für eine zweite Darstellung für den Videopuffer 702. Auf diese Weise werden die AUS-Zeiger auf Basis der ersten und der zweiten Darstellung eingestellt, und synchronisieren dadurch die AUS-Ströme auf sehr einfache Weise.
  • In den Patentansprüchen sollen eingeklammerte Bezugszeichen nicht als den Anspruch beschränkend betrachtet werden. Das Wort "umfassen' schließt das Vorhandensein von Elementen oder Verfahrensschritten anders als die in dem Anspruch genannten nicht aus. Das Wort "ein" vor einem Element schließt das Vorhandensein einer Anzahl derartiger Elemente nicht aus.
  • Die vorliegende Erfindung kann mit Hilfe von Hardware, die verschiedene einzelne Elemente umfasst, und mit Hilfe eines auf geeignete Art und Weise programmierten Computers implementiert werden. In dem Anordnungsanspruch, in der verschiedene Mittel nummeriert sind, können viele dieser Mittel von ein und demselben Hardware-Item verkörpert werden. Die Tatsache, dass bestimmte Maßnahmen in untereinander verschiedenen Unteransprüchen genannt werden, gibt nicht an, dass eine Kombination dieser Maßnahmen nicht mit Vorteil angewandt werden kann.
  • Text in der Zeichnung
  • 6
    • Audioserver
    • Videoserver
    • Audiostrom
    • Videostrom
    • Synchronisationsanordnung
  • 7
    • Puffer Audio
    • Puffer Video

Claims (27)

  1. Verfahren zum Ermöglichen von Synchronisation eines ersten Signals mit einem zweiten Signal, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Herleiten eines ersten Fingerabdrucks (102) auf Basis eines Segmentes des ersten Signals (101), wobei das Segment des ersten Signals (101) unzweideutig mit einem ersten Synchronisationszeitpunkt (Tn; Tn+1) relatiert ist, und – das Herleiten eines zweiten Fingerabdrucks (104) auf Basis eines Segmentes des zweiten Signals (103), wobei das Segment des zweiten Signals (103) unzweideutig mit einem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) relatiert ist, dadurch gekennzeichnet, dass das Verfahren weiterhin Folgendes umfasst: – das Liefern des ersten und des zweiten Fingerabdrucks (102, 104) zu einer Synchronisationsanordnung (200, 300) bevor die Synchronisation von der genannten Synchronisationsanordnung (200, 300) durchgeführt wird, wobei das genannte erste Signal (101) ein Audiosignal ist, das genannte zweite Signal (103) ein Videosignal ist, der genannte erste Fingerabdruck (102) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104) ein Videofingerabdruck ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren weiterhin für jeden bestimmten Synchronisationszeitpunkt (Tn; Tn+1; Tm) das Speichern des hergeleiteten ersten Fingerabdrucks (102) in einer Datenbank (203) und/oder das Speichern des hergeleiteten zweiten Fingerabdrucks (104) in derselben oder in einer anderen Datenbank (203) umfasst.
  3. Verfahren nach Anspruch 1-2, dadurch gekennzeichnet, dass der erste Fingerabdruck (102) und der zweite Fingerabdruck (104) übers Internet oder über andere Mittel der Synchronisationsanordnung (300) zugeführt werden.
  4. Verfahren nach Anspruch 1-3, dadurch gekennzeichnet, dass das Segment des ersten Signals (101) und/oder das Segment des zweiten Signals (103) unzweideutig mit dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) wie folgt relatiert sind: – das Segment des ersten Signals (101) und/oder das Segment des zweiten Signals (103), enden im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101) und/oder das Segment des zweiten Signals (103) starten im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101) und/oder das Segment des zweiten Signals (103) starten oder enden zu einem vorbestimmten Abstand vor oder nach dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), oder – der erste und/oder zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) sind ein vorbestimmter Zeitpunkt zwischen einem Start und einem Ende des Segmentes des ersten Signals (101) und/oder des Segmentes des zweiten Signals (103).
  5. Verfahren nach Anspruch 1-4, dadurch gekennzeichnet, dass der erste (Tn; Tn+1) und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm), derselbe sind.
  6. Verfahren nach Anspruch 1-4, dadurch gekennzeichnet, dass der erste Synchronisationszeitpunkt (Tn; Tn+1) anders ist als der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) und dass das Verfahren das Speichern einer ersten Darstellung einer Beziehung zwischen dem ersten Synchronisationszeitpunkt (Tn; Tn+1) und einem ersten Zeitpunkt einer Bezugzeit (107 und das Speichern einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107) umfasst.
  7. Verfahren nach Anspruch 1-6, dadurch gekennzeichnet, dass das Verfahren weiterhin die nachfolgenden Verfahrensschritte umfasst: – das Übertragen der ersten und/oder zweiten Darstellung zu einer Synchronisationsanordnung (300), und/oder – das Übertragen der ersten und/oder zweiten Darstellung zu einem Server (600) in Kommunikationsverbindung mit einer Synchronisationsanordnung (300), und/oder – das Übertragen des einen oder mehrerer hergeleiteter erster Fingerabdrücke (102) und zweiter Fingerabdrücke (104) zu dem Serber (600).
  8. Verfahren zum Synchronisieren zweier oder mehrerer Signale, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Erzeugen eines ersten Fingerabdruckstromes (105) auf Basis eines ersten Signals (101), – das Erzeugen eines zweiten Fingerabdruckstroms (106) auf Basis eines zweiten Signals (103), – das Vergleichen eines Segmentes des ersten Fingerabdruckstromes (105) mit einem oder mehreren ersten Fingerabdrücken (102), die in wenigstens einer Datenbank (203) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, und – das Vergleichen eines Segmentes des zweiten Fingerabdruckstromes (106) mit einem oder mehreren zweiten Fingerabdrücken (104), die in der wenigstens einen Datenbank (203) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, dadurch gekennzeichnet, dass das Verfahren weiterhin Folgendes umfasst: – wenn es eine Übereinstimmung für einen ersten und einen zweiten Fingerabdruck (102; 104) gibt, das Ermitteln einer Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101) und einer Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signal (103) und das Synchronisieren des ersten Signals (101) zu dem zweiten Signal (103) unter Verwendung der ermittelten Stellen, wobei das genannte erste Signale (101) ein Audiosignal ist, wobei das zweite Signal (103) ein Videosignal ist, wobei das genannte erste Signal (101) ein Audiosignal ist, das genannte zweite Signal (103) ein Videosignals uns und der genannte erste Fingerabdruck (102) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104) ein Videofingerabdruck ist.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Synchronisation Folgendes umfasst: – das Verzögern des ersten (101) oder des zweiten (103) Signals um einen Betrag entsprechend einer Differenz, falls überhaupt, zwischen der Stelle des ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101) und der Stelle des zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signal (103).
  10. Verfahren nach Anspruch 8-9, dadurch gekennzeichnet, dass die Stelle des ersten und/oder des zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das erste und das zweite Signals (101, 103) durch eine unzweideutige Beziehung zu einem Segment eines ersten Signals (101) und/oder eines Segmentes eines zweiten Signals (103), verwendet während der Erzeugung des ersten übereinstimmenden Fingerabdrucks (102) und des zweiten übereinstimmenden Fingerabdrucks (104), gegeben ist.
  11. Verfahren nach Anspruch 8-10, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) derselbe ist.
  12. Verfahren nach Anspruch 8-10, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) verschieden sind und dass das Verfahren weiterhin Folgendes umfasst: – wenn es für einen ersten und einen zweiten Fingerabdruck (102; 104) eine Übereinstimmung gibt: – das Erhalten einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107), und – das Verwenden des ersten und zweiten Zeitpunktes der genannten Bezugszeit (107) zum Synchronisieren des ersten (101) und des zweiten Signals (103), – statt – Ermittlung, wenn es eine Übereinstimmung gibt für einen ersten und einen zweiten Fingerabdruck (102; 104), einer Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101) und einer Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signals (103) und Synchronisation des ersten (101) und des zweiten (103) Signals unter Verwendung der ermittelten Stellen.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass das Verfahren weiterhin die nachfolgenden Verfahrensschritte umfasst: – das Empfangen der ersten und/oder zweiten Darstellung in einer Synchronisationsanordnung (300) von einem Server (600) in Kommunikationsverbindung mit der Synchronisati onsanordnung (300), und/oder – das Empfangen des ersten und/oder des zweiten Fingerabdrucks (102; 104) von dem Server (600).
  14. Anordnung (200), die Synchronisation von wenigstens zwei Signalen ermöglicht, wobei die Anordnung Folgendes umfasst: – einen Fingerabdruckgenerator (202), vorgesehen – zum Herleiten eines ersten Fingerabdrucks (102) auf Basis eines Segmentes eines ersten Signals (101), wobei das Segment des ersten Signals (101) unzweideutig mit einem ersten Synchronisationszeitpunkt (Tn; Tn+1) relatiert ist, und – zum Herleiten eines zweiten Fingerabdrucks (104) auf Basis eines Segmentes des zweiten Signals (103), wobei das Segment des zweiten Signals (103) unzweideutig mit einem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) relatiert ist, dadurch gekennzeichnet, dass das genannte erste Signal (101) ein Audiosignal ist, das genannte zweite Signal (103) ein Videosignal ist, der genannte erste Fingerabdruck (102) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104) ein Videofingerabdruck ist und dass die genannte Anordnung Mittel (204) aufweist zum Liefern des ersten und des zweiten Fingerabdrucks (102, 104) zu einer Synchronisationsanordnung (200, 300) bevor die Synchronisation von der genannten Synchronisationsanordnung (200, 300) durchgeführt wird.
  15. Anordnung nach Anspruch 14, dadurch gekennzeichnet, dass die Anordnung weiterhin wenigstens eine Datenbank (203) aufweist, worin der hergeleitete erste Fingerabdruck (102) und/oder der hergeleitete zweite Fingerabdruck (104) für jeden bestimmten Synchronisationszeitpunkt (Tn; Tn+1; Tm) gespeichert ist.
  16. Anordnung nach Anspruch 14-15, dadurch gekennzeichnet, dass die Anordnung weiterhin einen Sender (204) aufweist zum Übertragen eines ersten Fingerabdrucks (102) oder eines zweiten Fingerabdrucks (104) in der wenigstens einen Datenbank zu einer Synchronisationsanordnung (300) übers Internet oder über andere Mittel.
  17. Anordnung nach Anspruch 14-16, dadurch gekennzeichnet, dass das Seg ment des ersten Signals (101) und/oder das Segment des zweiten Signals (103) unzweideutig mit dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) wie folgt relatiert sind: – das Segment des ersten Signals (101) und/oder das Segment des zweiten Signals (103), enden im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101) und/oder das Segment des zweiten Signals (103) starten im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101) und/oder das Segment des zweiten Signals (103) starten oder enden zu einem vorbestimmten Abstand vor oder nach dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1 Tm), oder – der erste und/oder zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) sind ein vorbestimmter Zeitpunkt zwischen einem Start und einem Ende des Segmentes des ersten Signals (101) und/oder des Segmentes des zweiten Signals (103).
  18. Anordnung nach Anspruch 14-17, dadurch gekennzeichnet, dass der erste Synchronisationszeitpunkt (Tn; Tn+1) und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) derselbe ist.
  19. Anordnung nach Anspruch 14-17, dadurch gekennzeichnet, dass der erste Synchronisationszeitpunkt (Tn; Tn+1) anders ist als der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) und dass die Anordnung die Mittel aufweist, vorgesehen zum Speichern einer ersten Darstellung einer Beziehung zwischen dem ersten Synchronisationszeitpunkt (Tn; Tn+1) und einem ersten Zeitpunkt einer Bezugszeit (107) und zum Speichern einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107).
  20. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass die Anordnung weiterhin Folgendes umfasst: – einen Sender (204) zum Übertragen der ersten und/oder der zweiten Darstellung zu einer Synchronisationsanordnung (300), und/oder – einen Sender (204) zum Übertragen der ersten und/oder der zweiten Darstellung zu einem Server (600) in Kommunikationsverbindung mit einer Synchronisationsanordnung (300), und/oder – einen Sender (204) zum Übertragen des ersten Fingerabdrucks (102) und/oder des zweiten Fingerabdrucks (104) zu dem Server (600).
  21. Synchronisationsanordnung (300) zum Synchronisieren von zwei oder mehr Signalen, wobei diese Anordnung Folgendes umfasst: – Mittel (302) zum Erzeugen eines ersten Fingerabdruckstromes (105) auf Basis eines ersten Signals (101), – Mittel (302) zum Erzeugen eines zweiten Fingerabdruckstroms (106) auf Basis eines zweiten Signals (103), – Mittel (302) zum Vergleichen eines Segmentes des ersten Fingerabdruckstromes (105) mit einem oder mehreren ersten Fingerabdrücken (102), die in wenigstens einer Datenbank (203) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, und – Mittel (302) zum Vergleichen eines Segmentes des zweiten Fingerabdruckstromes (106) mit einem oder mehreren zweiten Fingerabdrücken (104), die in der wenigstens einen Datenbank (203) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, dadurch gekennzeichnet, dass die Anordnung weiterhin Folgendes umfasst: – Mittel (302) um, wenn es eine Übereinstimmung für einen ersten und einen zweiten Fingerabdruck (102; 104) gibt, eine Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101) und eine Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signal (103) zu ermitteln und Mittel um das erste Signal (101) zu dem zweiten Signal (103) unter Verwendung der ermittelten Stellen zu synchronisieren, wobei das genannte erste Signale (101) ein Audiosignal ist, wobei das zweite Signal (103) ein Videosignal ist, wobei das genannte erste Signal (101) ein Audiosignal ist, das genannte zweite Signal (103) ein Videosignal ist und der genannte erste Fingerabdruck (102) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104) ein Videofingerabdruck ist.
  22. Anordnung nach Anspruch 21, dadurch gekennzeichnet, dass die Mittel (303) zum Synchronisieren dazu vorgesehen sind, entweder das erste Signal (101) oder das zweite Signal (103) um einen Betrag entsprechend der Differenz, falls überhaupt, zwischen der Stelle des Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101) und der Stelle des Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signals (103) zu verzögern.
  23. Anordnung nach Anspruch 21-22, dadurch gekennzeichnet, dass die Stelle des ersten und/oder des zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das erste und/oder das zweite Signal (101, 103) durch eine unzweideutige Beziehung mit einem Segment eines ersten Signals (101) und/oder einem Segment eines zweiten Signals (103) gegeben wird, verwendet während der Erzeugung des übereinstimmenden ersten Fingerabdrucks (102) und der Erzeugung des übereinstimmenden zweiten Fingerabdrucks (104).
  24. Anordnung nach Anspruch 21-23, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) derselbe ist.
  25. Anordnung nach den Ansprüchen 21-24, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) verschieden sind und dass die Anordnung weiterhin Folgendes umfasst: – wenn es für einen ersten und einen zweiten Fingerabdruck (102; 104) eine Übereinstimmung gibt: – einen Empfänger (204) zum Erhalten einer ersten Darstellung einer Beziehung zwischen dem ersten Synchronisationszeitpunkt (Tn; Tn+1) und einem ersten Zeitpunkt einer Bezugszeit (107), – einen Empfänger (204) zum Erhalten einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107), und – Synchronisationsmittel (303) zum Verwenden des ersten und zweiten Zeitpunktes der genannten Bezugszeit (107) zum Synchronisieren des ersten (101) und des zweiten Signals (103), – stattdessen, dass die Anordnung Folgendes umfasst: – Mittel (302) zur Ermittlung, wenn es eine Übereinstimmung gibt für einen ersten und einen zweiten Fingerabdruck (102; 104), einer Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101) und einer Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signals (103) und Synchronisation des ersten (101) und des zweiten (103) Signals unter Verwendung der ermittelten Stellen.
  26. Anordnung nach Anspruch 25, dadurch gekennzeichnet, dass die Anordnung weiterhin Folgendes umfasst: – einen Empfänger (204) zum Empfangen der ersten und/oder zweiten Darstellung in einer Synchronisationsanordnung (300) von einem Server (600) in Kommunikationsverbindung mit der Synchronisationsanordnung (300), und/oder – einen Empfänger (204) zum Empfangen des ersten Fingerabdrucks (102) und/oder des zweiten Fingerabdrucks (104) von dem Server (600).
  27. Von einem Computer auslesbares Medium, worauf Instruktionen gespeichert sind um dafür zu sorgen, dass eine oder mehrere Verarbeitungseinheiten das Verfahren nach einem der Ansprüche 1-7 oder einem der Ansprüche 8-13 durchführt.
DE602004008936T 2003-07-25 2004-07-20 Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video Expired - Lifetime DE602004008936T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP03102301 2003-07-25
EP03102301 2003-07-25
PCT/IB2004/051259 WO2005011281A1 (en) 2003-07-25 2004-07-20 Method and device for generating and detecting fingerprints for synchronizing audio and video

Publications (2)

Publication Number Publication Date
DE602004008936D1 DE602004008936D1 (de) 2007-10-25
DE602004008936T2 true DE602004008936T2 (de) 2008-06-19

Family

ID=34089696

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004008936T Expired - Lifetime DE602004008936T2 (de) 2003-07-25 2004-07-20 Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video

Country Status (8)

Country Link
US (4) US7907211B2 (de)
EP (1) EP1652385B1 (de)
JP (1) JP2006528859A (de)
KR (1) KR20060037403A (de)
CN (1) CN100521781C (de)
AT (1) ATE373389T1 (de)
DE (1) DE602004008936T2 (de)
WO (1) WO2005011281A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9686596B2 (en) 2008-11-26 2017-06-20 Free Stream Media Corp. Advertisement targeting through embedded scripts in supply-side and demand-side platforms
US9703947B2 (en) 2008-11-26 2017-07-11 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9716736B2 (en) 2008-11-26 2017-07-25 Free Stream Media Corp. System and method of discovery and launch associated with a networked media device
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560349B1 (en) * 1994-10-21 2003-05-06 Digimarc Corporation Audio monitoring using steganographic information
US7224819B2 (en) 1995-05-08 2007-05-29 Digimarc Corporation Integrating digital watermarks in multimedia content
US6505160B1 (en) * 1995-07-27 2003-01-07 Digimarc Corporation Connected audio and other media objects
US6411725B1 (en) * 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US7689532B1 (en) 2000-07-20 2010-03-30 Digimarc Corporation Using embedded data with file sharing
AU2003210625A1 (en) * 2002-01-22 2003-09-02 Digimarc Corporation Digital watermarking and fingerprinting including symchronization, layering, version control, and compressed embedding
ATE373389T1 (de) * 2003-07-25 2007-09-15 Koninkl Philips Electronics Nv Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video
US8554681B1 (en) * 2003-11-03 2013-10-08 James W. Wieder Providing “identified” compositions and digital-works
US8407752B2 (en) * 2004-03-18 2013-03-26 Digimarc Corporation Synchronizing broadcast content with corresponding network content
US8870639B2 (en) 2004-06-28 2014-10-28 Winview, Inc. Methods and apparatus for distributed gaming over a mobile device
US8376855B2 (en) 2004-06-28 2013-02-19 Winview, Inc. Methods and apparatus for distributed gaming over a mobile device
US10226698B1 (en) 2004-07-14 2019-03-12 Winview, Inc. Game of skill played by remote participants utilizing wireless devices in connection with a common game event
DE102005014477A1 (de) 2005-03-30 2006-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und zum Erzeugen einer Multikanal-Darstellung
EP1891626A1 (de) * 2005-06-03 2008-02-27 Koninklijke Philips Electronics N.V. Homomorphe verschlüsselung für sichere wasserzeichen
US10721543B2 (en) 2005-06-20 2020-07-21 Winview, Inc. Method of and system for managing client resources and assets for activities on computing devices
JP2008547122A (ja) 2005-06-20 2008-12-25 エアプレイ ネットワーク インコーポレイテッド サービス提供方法、データ受信方法、データ提供システム、クライアント装置及びサーバ装置
DE102005045627A1 (de) 2005-06-22 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Durchführen einer Korrelation zwischen einem Testtonsignal, das mit variabler Geschwindigkeit abspielbar ist, und einem Referenztonsignal
DE102005045628B3 (de) * 2005-06-22 2007-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln einer Stelle in einem Film, der in einer zeitlichen Folge aufgebrachte Filminformationen aufweist
EP1894380A1 (de) * 2005-06-23 2008-03-05 Telefonaktiebolaget LM Ericsson (publ) Verfahren zum synchronisieren der präsentation von media-strömen in einem mobilkommunikationssystem und endgerät zum übertragen von media-strömen
US7764713B2 (en) 2005-09-28 2010-07-27 Avaya Inc. Synchronization watermarking in multimedia streams
JP2007097076A (ja) * 2005-09-30 2007-04-12 Fujifilm Corp 撮影日時修正装置、撮影日時修正方法及びプログラム
US8705195B2 (en) 2006-04-12 2014-04-22 Winview, Inc. Synchronized gaming and programming
US9511287B2 (en) 2005-10-03 2016-12-06 Winview, Inc. Cellular phone games based upon television archives
US8149530B1 (en) 2006-04-12 2012-04-03 Winview, Inc. Methodology for equalizing systemic latencies in television reception in connection with games of skill played in connection with live television programming
US9919210B2 (en) 2005-10-03 2018-03-20 Winview, Inc. Synchronized gaming and programming
WO2007049451A1 (ja) * 2005-10-27 2007-05-03 National University Corporation Chiba University 映像と音声のずれ時間を、高精度かつ簡便に計測する方法および計測装置
CN101346741A (zh) * 2005-12-22 2009-01-14 皇家飞利浦电子股份有限公司 通过嵌入水印实现脚本同步
US10556183B2 (en) 2006-01-10 2020-02-11 Winview, Inc. Method of and system for conducting multiple contest of skill with a single performance
US9056251B2 (en) 2006-01-10 2015-06-16 Winview, Inc. Method of and system for conducting multiple contests of skill with a single performance
US8002618B1 (en) 2006-01-10 2011-08-23 Winview, Inc. Method of and system for conducting multiple contests of skill with a single performance
US20080086311A1 (en) * 2006-04-11 2008-04-10 Conwell William Y Speech Recognition, and Related Systems
US11082746B2 (en) 2006-04-12 2021-08-03 Winview, Inc. Synchronized gaming and programming
RU2009100847A (ru) * 2006-06-13 2010-07-20 Конинклейке Филипс Электроникс Н.В. (Nl) Идентификационная метка, устройство, способ для идентификации и синхронизации видеоданных
US7661121B2 (en) 2006-06-22 2010-02-09 Tivo, Inc. In-band data recognition and synchronization system
DE102006036562B4 (de) * 2006-08-04 2014-04-10 Hewlett-Packard Development Co., L.P. Verfahren und System zum Übertragen aufeinander bezogener Datenströme oder/und zum Synchronisieren aufeinander bezogener Datenströme
US8300877B2 (en) * 2007-02-20 2012-10-30 Sony Mobile Communications Ab Copy protected information distribution
US20080260350A1 (en) * 2007-04-18 2008-10-23 Cooper J Carl Audio Video Synchronization Stimulus and Measurement
US8266142B2 (en) * 2007-06-06 2012-09-11 Dolby Laboratories Licensing Corporation Audio/Video fingerprint search accuracy using multiple search combining
CN101409614B (zh) 2007-10-12 2011-04-13 华为技术有限公司 一种数据同步方法、系统和设备
US8813112B1 (en) 2007-10-23 2014-08-19 Winview, Inc. Method of and apparatus for utilizing SMS while running an application on a mobile device controlling a viewer's participation with a broadcast
DE102008009024A1 (de) * 2008-02-14 2009-08-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum synchronisieren von Mehrkanalerweiterungsdaten mit einem Audiosignal und zum Verarbeiten des Audiosignals
EP2274912B1 (de) * 2008-04-14 2012-08-29 NDS Limited System und verfahren zum einbetten von daten in video
US9510044B1 (en) * 2008-06-18 2016-11-29 Gracenote, Inc. TV content segmentation, categorization and identification and time-aligned applications
US8259177B2 (en) * 2008-06-30 2012-09-04 Cisco Technology, Inc. Video fingerprint systems and methods
US8347408B2 (en) * 2008-06-30 2013-01-01 Cisco Technology, Inc. Matching of unknown video content to protected video content
US20090327334A1 (en) * 2008-06-30 2009-12-31 Rodriguez Arturo A Generating Measures of Video Sequences to Detect Unauthorized Use
US8400566B2 (en) * 2008-08-21 2013-03-19 Dolby Laboratories Licensing Corporation Feature optimization and reliability for audio and video signature generation and detection
US9716918B1 (en) 2008-11-10 2017-07-25 Winview, Inc. Interactive advertising system
EP2356817B1 (de) * 2008-12-08 2017-04-12 Telefonaktiebolaget LM Ericsson (publ) Einrichtung und verfahren zum synchronisieren von empfangenen audiodaten mit videodaten
CN101763848B (zh) * 2008-12-23 2013-06-12 王宏宇 一种用于音频内容识别的同步方法
US8934545B2 (en) * 2009-02-13 2015-01-13 Yahoo! Inc. Extraction of video fingerprints and identification of multimedia using video fingerprinting
GB2470201A (en) * 2009-05-12 2010-11-17 Nokia Corp Synchronising audio and image data
CN101594527B (zh) * 2009-06-30 2011-01-05 成都艾索语音技术有限公司 从音频视频流中高精度检测模板的两阶段方法
US9615140B1 (en) 2010-05-27 2017-04-04 Edward Malinowski Method and device for delivery of subtitle synchronized with a media stream
US8384827B2 (en) 2010-06-02 2013-02-26 Disney Enterprises, Inc. System and method for in-band A/V timing measurement of serial digital video signals
US8531603B2 (en) * 2010-06-02 2013-09-10 Disney Enterprises, Inc. System and method for in-band A/V timing measurement of serial digital video signals
US8300147B2 (en) * 2010-06-02 2012-10-30 Disney Enterprises, Inc. System and method for in-band A/V timing measurement of serial digital video signals
JP5813767B2 (ja) * 2010-07-21 2015-11-17 ディー−ボックス テクノロジーズ インコーポレイテッド メディア認識及びモーション信号への同期
US10515523B2 (en) 2010-07-21 2019-12-24 D-Box Technologies Inc. Media recognition and synchronization to a motion signal
US8965026B2 (en) * 2011-06-10 2015-02-24 Canopy Co. Method and apparatus for remote capture of audio in a handheld device
US8928809B2 (en) * 2010-09-15 2015-01-06 Verizon Patent And Licensing Inc. Synchronizing videos
US8736700B2 (en) * 2010-09-30 2014-05-27 Apple Inc. Techniques for synchronizing audio and video data in an image signal processing system
US20120134529A1 (en) * 2010-11-28 2012-05-31 Pedro Javier Vazquez Method and apparatus for applying of a watermark to a video during download
US9075806B2 (en) 2011-02-22 2015-07-07 Dolby Laboratories Licensing Corporation Alignment and re-association of metadata for media streams within a computing device
US9967600B2 (en) * 2011-05-26 2018-05-08 Nbcuniversal Media, Llc Multi-channel digital content watermark system and method
US8717499B2 (en) * 2011-09-02 2014-05-06 Dialogic Corporation Audio video offset detector
US8586847B2 (en) * 2011-12-02 2013-11-19 The Echo Nest Corporation Musical fingerprinting based on onset intervals
US8625027B2 (en) 2011-12-27 2014-01-07 Home Box Office, Inc. System and method for verification of media content synchronization
US9292894B2 (en) 2012-03-14 2016-03-22 Digimarc Corporation Content recognition and synchronization using local caching
US9553756B2 (en) * 2012-06-01 2017-01-24 Koninklijke Kpn N.V. Fingerprint-based inter-destination media synchronization
WO2014004914A1 (en) * 2012-06-28 2014-01-03 Google Inc. Generating a sequence of audio fingerprints at a set top box
US20140074466A1 (en) * 2012-09-10 2014-03-13 Google Inc. Answering questions using environmental context
US9661361B2 (en) 2012-09-19 2017-05-23 Google Inc. Systems and methods for live media content matching
US9460204B2 (en) 2012-10-19 2016-10-04 Sony Corporation Apparatus and method for scene change detection-based trigger for audio fingerprinting analysis
EP2932503A4 (de) * 2012-12-13 2016-08-10 Nokia Technologies Oy Vorrichtung zur ausrichtung von audiosignalen in einer gemeinsamen audioszene
CN103051921B (zh) * 2013-01-05 2014-12-24 北京中科大洋科技发展股份有限公司 一种精确检测视音频处理系统视频、音频同步误差的方法
JP6360281B2 (ja) * 2013-01-07 2018-07-18 日本放送協会 同期情報生成装置およびそのプログラム、同期データ再生装置およびそのプログラム
US8699862B1 (en) * 2013-02-06 2014-04-15 Google Inc. Synchronized content playback related to content recognition
US9161074B2 (en) 2013-04-30 2015-10-13 Ensequence, Inc. Methods and systems for distributing interactive content
KR101463864B1 (ko) * 2013-08-07 2014-11-21 (주)엔써즈 직접 반응 광고 검출 및 분류 시스템 및 방법
EP3047653B1 (de) * 2013-09-20 2020-05-06 Koninklijke KPN N.V. Korrelierende zeitleisteninformationen zwischen medienströmen
EP3651469A1 (de) * 2013-09-20 2020-05-13 Koninklijke KPN N.V. Korrelierende zeitleisteninformationen zwischen medienströmen
US9426336B2 (en) * 2013-10-02 2016-08-23 Fansmit, LLC System and method for tying audio and video watermarks of live and recorded events for simulcasting alternative audio commentary to an audio channel or second screen
EP2876890A1 (de) * 2013-11-21 2015-05-27 Thomson Licensing Verfahren und Vorrichtung zur bildrahmengenauen Synchronisation von Video-Streams
GB2522260A (en) * 2014-01-20 2015-07-22 British Broadcasting Corp Method and apparatus for determining synchronisation of audio signals
JP6429291B2 (ja) * 2014-06-30 2018-11-28 Necディスプレイソリューションズ株式会社 表示装置、表示方法、及び表示プログラム
US9905233B1 (en) 2014-08-07 2018-02-27 Digimarc Corporation Methods and apparatus for facilitating ambient content recognition using digital watermarks, and related arrangements
US10341342B2 (en) * 2015-02-05 2019-07-02 Carrier Corporation Configuration data based fingerprinting for access to a resource
DE102015001622A1 (de) 2015-02-09 2016-08-11 Unify Gmbh & Co. Kg Verfahren zur Übertragung von Daten in einem Multimedia-System, sowie Softwareprodukt und Vorrichtung zur Steuerung der Übertragung von Daten in einem Multimedia-System
CN104980820B (zh) * 2015-06-17 2018-09-18 小米科技有限责任公司 多媒体文件播放方法及装置
WO2017015759A1 (en) * 2015-07-30 2017-02-02 Amp Me Inc. Synchronized playback of streamed audio content by multiple internet-capable portable devices
TWI625059B (zh) * 2015-08-17 2018-05-21 新加坡商雲網科技新加坡有限公司 終端設備、及音訊視訊同步檢測方法
GB2545181A (en) 2015-12-07 2017-06-14 Fujitsu Ltd Synchronisation device, method, program and system
KR20170067546A (ko) * 2015-12-08 2017-06-16 한국전자통신연구원 오디오 신호 및 비디오 신호의 동기화 시스템 및 그 방법
US9596502B1 (en) 2015-12-21 2017-03-14 Max Abecassis Integration of multiple synchronization methodologies
US9516373B1 (en) 2015-12-21 2016-12-06 Max Abecassis Presets of synchronized second screen functions
WO2017143440A1 (en) 2016-02-25 2017-08-31 Amp Me Inc. Synchronizing playback of digital media content
US10149022B2 (en) * 2016-03-09 2018-12-04 Silveredge Technologies Pvt. Ltd. Method and system of auto-tagging brands of television advertisements
US9813659B1 (en) * 2016-05-11 2017-11-07 Drone Racing League, Inc. Diversity receiver
US10015612B2 (en) 2016-05-25 2018-07-03 Dolby Laboratories Licensing Corporation Measurement, verification and correction of time alignment of multiple audio channels and associated metadata
US11551529B2 (en) 2016-07-20 2023-01-10 Winview, Inc. Method of generating separate contests of skill or chance from two independent events
US10462512B2 (en) 2017-03-31 2019-10-29 Gracenote, Inc. Music service with motion video
US11134279B1 (en) * 2017-07-27 2021-09-28 Amazon Technologies, Inc. Validation of media using fingerprinting
US10158907B1 (en) 2017-10-10 2018-12-18 Shazam Investments Ltd. Systems and methods for performing playout of multiple media recordings based on a matching segment among the recordings
US10733998B2 (en) 2017-10-25 2020-08-04 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to identify sources of network streaming services
US10726852B2 (en) 2018-02-19 2020-07-28 The Nielsen Company (Us), Llc Methods and apparatus to perform windowed sliding transforms
US11049507B2 (en) 2017-10-25 2021-06-29 Gracenote, Inc. Methods, apparatus, and articles of manufacture to identify sources of network streaming services
US10629213B2 (en) 2017-10-25 2020-04-21 The Nielsen Company (Us), Llc Methods and apparatus to perform windowed sliding transforms
KR102037220B1 (ko) 2017-11-06 2019-10-29 주식회사 아이티밥 오디오 핑거프린트 매칭 시스템
KR102037221B1 (ko) 2017-11-06 2019-10-29 주식회사 아이티밥 오디오 핑거프린트 매칭 방법
US11570506B2 (en) * 2017-12-22 2023-01-31 Nativewaves Gmbh Method for synchronizing an additional signal to a primary signal
TW201931863A (zh) * 2018-01-12 2019-08-01 圓剛科技股份有限公司 多媒體訊號的同步設備及其同步方法
US11308765B2 (en) 2018-10-08 2022-04-19 Winview, Inc. Method and systems for reducing risk in setting odds for single fixed in-play propositions utilizing real time input
US11234050B2 (en) 2019-06-18 2022-01-25 Roku, Inc. Use of steganographically-encoded data as basis to control dynamic content modification as to at least one modifiable-content segment identified based on fingerprint analysis
CN115299067A (zh) 2020-04-02 2022-11-04 谷歌有限责任公司 用于同步视频流的方法、系统和介质
KR102439201B1 (ko) * 2020-09-14 2022-09-01 네이버 주식회사 멀티미디어 콘텐츠와 음원을 동기화하기 위한 전자 장치 및 그의 동작 방법
CN115174960B (zh) * 2022-06-21 2023-08-15 咪咕文化科技有限公司 音视频同步方法、装置、计算设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5019899A (en) * 1988-11-01 1991-05-28 Control Data Corporation Electronic data encoding and recognition system
US6611607B1 (en) 1993-11-18 2003-08-26 Digimarc Corporation Integrating digital watermarks in multimedia content
US6324694B1 (en) * 1996-09-06 2001-11-27 Intel Corporation Method and apparatus for providing subsidiary data synchronous to primary content data
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US7756892B2 (en) * 2000-05-02 2010-07-13 Digimarc Corporation Using embedded data with file sharing
US6737957B1 (en) 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
US6642966B1 (en) * 2000-11-06 2003-11-04 Tektronix, Inc. Subliminally embedded keys in video for synchronization
WO2002051063A1 (en) * 2000-12-21 2002-06-27 Digimarc Corporation Methods, apparatus and programs for generating and utilizing content signatures
US7461002B2 (en) * 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US20030014755A1 (en) * 2001-07-13 2003-01-16 Williams Marvin Lynn Method and system for processing correlated audio-video segments with digital signatures within a broadcast system
US7477739B2 (en) * 2002-02-05 2009-01-13 Gracenote, Inc. Efficient storage of fingerprints
DE60323086D1 (de) * 2002-04-25 2008-10-02 Landmark Digital Services Llc Robuster und invarianter audiomustervergleich
US7519819B2 (en) * 2002-05-29 2009-04-14 Digimarc Corporatino Layered security in digital watermarking
US7461392B2 (en) * 2002-07-01 2008-12-02 Microsoft Corporation System and method for identifying and segmenting repeating media objects embedded in a stream
US20060129822A1 (en) * 2002-08-26 2006-06-15 Koninklijke Philips Electronics, N.V. Method of content identification, device, and software
EP1593272B1 (de) * 2003-02-14 2017-08-30 Thomson Licensing DTV Automatische synchronisation audio- und videobasierter mediendienste eines medieninhalts
US7359006B1 (en) * 2003-05-20 2008-04-15 Micronas Usa, Inc. Audio module supporting audio signature
US20040240562A1 (en) * 2003-05-28 2004-12-02 Microsoft Corporation Process and system for identifying a position in video using content-based video timelines
ATE373389T1 (de) 2003-07-25 2007-09-15 Koninkl Philips Electronics Nv Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9686596B2 (en) 2008-11-26 2017-06-20 Free Stream Media Corp. Advertisement targeting through embedded scripts in supply-side and demand-side platforms
US9706265B2 (en) 2008-11-26 2017-07-11 Free Stream Media Corp. Automatic communications between networked devices such as televisions and mobile devices
US9703947B2 (en) 2008-11-26 2017-07-11 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9716736B2 (en) 2008-11-26 2017-07-25 Free Stream Media Corp. System and method of discovery and launch associated with a networked media device
US9838758B2 (en) 2008-11-26 2017-12-05 David Harrison Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9848250B2 (en) 2008-11-26 2017-12-19 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9854330B2 (en) 2008-11-26 2017-12-26 David Harrison Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9866925B2 (en) 2008-11-26 2018-01-09 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US9967295B2 (en) 2008-11-26 2018-05-08 David Harrison Automated discovery and launch of an application on a network enabled device
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US10032191B2 (en) 2008-11-26 2018-07-24 Free Stream Media Corp. Advertisement targeting through embedded scripts in supply-side and demand-side platforms
US10074108B2 (en) 2008-11-26 2018-09-11 Free Stream Media Corp. Annotation of metadata through capture infrastructure
US10142377B2 (en) 2008-11-26 2018-11-27 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US10425675B2 (en) 2008-11-26 2019-09-24 Free Stream Media Corp. Discovery, access control, and communication with networked services
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US10771525B2 (en) 2008-11-26 2020-09-08 Free Stream Media Corp. System and method of discovery and launch associated with a networked media device
US10791152B2 (en) 2008-11-26 2020-09-29 Free Stream Media Corp. Automatic communications between networked devices such as televisions and mobile devices
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US10986141B2 (en) 2008-11-26 2021-04-20 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device

Also Published As

Publication number Publication date
US20080062315A1 (en) 2008-03-13
US20150003799A1 (en) 2015-01-01
CN1830211A (zh) 2006-09-06
US7907211B2 (en) 2011-03-15
CN100521781C (zh) 2009-07-29
US8358376B2 (en) 2013-01-22
JP2006528859A (ja) 2006-12-21
EP1652385B1 (de) 2007-09-12
DE602004008936D1 (de) 2007-10-25
KR20060037403A (ko) 2006-05-03
US8817183B2 (en) 2014-08-26
ATE373389T1 (de) 2007-09-15
EP1652385A1 (de) 2006-05-03
US20130128115A1 (en) 2013-05-23
WO2005011281A1 (en) 2005-02-03
US20110128444A1 (en) 2011-06-02

Similar Documents

Publication Publication Date Title
DE602004008936T2 (de) Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video
DE60210611T2 (de) Effizientes übertragen und abspielen digitaler information
DE69426711T2 (de) Vorrichtung und Verfahren zum Komprimieren von Videosignalen, und Synchronisiereinrichtung
DE69434075T2 (de) Synchronisierungseinrichtung für ein komprimiertes Videosignal
DE60133481T2 (de) Informationsverarbeitungsgerät, elektronische Vorrichtung, Informationsverarbeitungsverfahren und Medium
EP1968066A1 (de) Medienerzeugungssystem
DE112015005408T5 (de) Systeme und Verfahren zum Identifizieren von Benutzern, die eine Fernsehwerbung angesehen haben
DE112013003718T5 (de) Verfahren und Vorrichtung zum Verarbeiten digitaler Dienstsignale
DE112005000541T5 (de) Gerät und Verfahren zum Programmieren der Aufzeichnung von Rundsendeprogrammen
DE69902194T2 (de) Uebertragungssystem, Uebertragungseinrichtung, Aufzeichnungs- und Wiedergabegerät
WO2021050376A1 (en) Use of in-band metadata as basis to access reference fingerprints to facilitate content-related action
DE10005651B4 (de) Verfahren und Vorrichtung zum Suchen von aufgezeichneten digitalen Datenströmen
EP1295481B1 (de) Verfahren und vorrichtung zur zeitsynchronen weiterleitung von signalen
DE3510185C2 (de) Trägersynchronisiersystem und dazu geeignete Basisstation
DE112011101955B4 (de) Videoanzeigevorrichtung
EP1516495B1 (de) Verfahren zur generierung eines systemtaktes einer empfangseinrichtung und empfangseinrichtung hierzu
DE102007030131B3 (de) Verfahren, Vorrichtung und Computerprogrammprodukt zum synchronisierten Bereitstellen von relevanten Informationen in einer interaktiven Portalanwendung
EP3729817A1 (de) Verfahren zum synchronisieren von einem zusatzsignal zu einem hauptsignal
EP1804405B1 (de) Verfahren zur Synchronisation von medialen Datenströmen
DE60223392T2 (de) Verarbeitung eines rundfunksignals
AT520998B1 (de) Verfahren zum Synchronisieren von einem Zusatzsignal zu einem Hauptsignal
DE19546327A1 (de) Verfahren zur transparenten Aufzeichnung und Wiedergabe von zeitkritischen digitalen Datenströmen
DE102017131266A1 (de) Verfahren zum Einspielen von Zusatzinformationen zu einer Liveübertragung
DE102005045573B3 (de) Vorrichtung und Verfahren zum Ermitteln einer Stelle in einem Film
DE19904956C2 (de) Verfahren und Vorrichtung zur optimalen Einstellung des Abtastzeitpunktes bei digitaler Zusatzdatenübertragung in analogen TV-Kanälen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: GRACENOTE, INC., EMERYVILLE, CALIF., US