DE602004008936T2 - Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video - Google Patents
Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video Download PDFInfo
- Publication number
- DE602004008936T2 DE602004008936T2 DE602004008936T DE602004008936T DE602004008936T2 DE 602004008936 T2 DE602004008936 T2 DE 602004008936T2 DE 602004008936 T DE602004008936 T DE 602004008936T DE 602004008936 T DE602004008936 T DE 602004008936T DE 602004008936 T2 DE602004008936 T2 DE 602004008936T2
- Authority
- DE
- Germany
- Prior art keywords
- signal
- synchronization
- fingerprint
- segment
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000005236 sound signal Effects 0.000 claims abstract description 36
- 238000004891 communication Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000009795 derivation Methods 0.000 claims 1
- 230000001360 synchronised effect Effects 0.000 abstract description 13
- 239000000872 buffer Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
- H04N7/52—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/24—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by sensing features on the record carrier other than the transducing track ; sensing signals or marks recorded by another method than the main recording
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2389—Multiplex stream processing, e.g. multiplex stream encrypting
- H04N21/23892—Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Security & Cryptography (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf die Synchronisation zwischen wenigstens zwei Signalen. Insbesondere bezieht sich die vorliegende Erfindung auf ein Verfahren und eine entsprechende Anordnung zum Synchronisieren eines ersten Signals, beispielsweise eines Audiosignals, mit einem zweiten Signal, beispielsweise einem Videosignal. Die vorliegende Erfindung bezieht sich ebenfalls auf ein Verfahren und eine entsprechende Anordnung zum Ermöglichen von Synchronisation eines Audiosignals zu einem Videosignal. Weiterhin bezieht sich die vorliegende Erfindung auf ein von einem Computer auslesbaren Medium, auf dem Instruktionen gespeichert sind um dafür zu sorgen, dass eine oder mehrere Verarbeitungseinheiten das Verfahren nach der vorliegenden Erfindung durchführen.
- Synchronisation eines Videostroms zu einem entsprechenden Audiostrom ist ein großes Problem, das viel Aufmerksamkeit erhalten hat. Es wurden bereits viele Lösungen für dieses Problem vorgeschlagen und implementiert. Die meisten dieser erfordern handmäßige Synchronisation durch einen fachkundigen Operator. Technisch schaut der Operator nach sichtbaren Anhaltspunkten in dem Bild um zu ermitteln, ob der Ton, den man hört, mit dem Bild übereinstimmt und ob sie tatsächlich synchron sind. Das Problem wird gröber, wenn die Synchronisation automatisch erfolgen soll. Dies ist ein immer großer werdendes Problem, da Verarbeitung und Verteilung von Audio- und Videosignalen immer komplizierter wird, und zwar innerhalb als auch außerhalb der Studioumgebung. Ein Beispiel des letzteren Problems ist Folgendes: Ein Verbraucher zeichnet mit Hilfe seines Videorecorders einen Film auf. Diesen möchte es mit der ursprünglichen Tonspur wiedergeben. Dazu kauft er die ursprüngliche Tonspur, die ihm beispielsweise übers Internet zugeführt wird. Nun sollen Audio und Video automatisch synchronisiert werden, beispielsweise in/von seinem Videorecorder oder einer anderen Synchronisationsanordnung.
- Ein bekanntes System, das die automatische Synchronisation eines Audio- und eines Videostroms ermöglicht, ist von Tektronix vermarktet. Bei diesem System wird die Umhüllende des Audiosignals mit Hilfe eines Wasserzeichens in das Videosignal eingebettet. An einer Stelle in der Verteilungs- und Verarbeitungskette kann die wirkliche Audioumhüllende mit der eingebetteten verglichen werden, woraus die Verzögerung zwischen den zwei Strömen hergeleitet werden kann. Daraufhin wird die Verzögerung des Audiostroms zum Erzielen der Synchronisation korrigiert. Dieses System erfordert aber die Zusammenarbeit der Sendeanstalten oder anderer Verteiler, weil vor der Übertragung das Wasserzeichen in den Video eingebettet werden soll. Weiterhin kann dieses System nur einen einzigen bestimmten Audiostrom mit dem Video assoziieren. Wenn die Umhüllende eines Audiostroms einmal eingebettet worden ist, kann das System nur den Video mit diesem bestimmten Audiostrom synchronisieren. Zum Synchronisieren anderer Audioströme soll ein anderes Wasserzeichen eingebettet worden sein. Zum Schluss beschränkt sich das System auf Synchronisation zwischen einem Audiostrom und einem Videostrom.
- Die Patentanmeldung
US 2002/120925 A1 bezieht sich auf ein System zum Benutzen von Metadaten, geschaffen entweder an einer zentralen Stelle zur geteilten Verwendung durch verbundene Benutzer, oder an jeder einzelnen Benutzerstelle um Benutzern verfügbare Sendeprogrammierungsinhalt zur Verfügung zu stellen. Die Metadaten können ein "Fingerabdruck" oder ein "Signatur" Signal enthalten, das mit eintreffenden Sendesignalen verglichen werden kann zum Identifizieren bestimmter Segmente und kann weiterhin Zeitinformation enthalten, die den Anfang und das Ende jedes Segmentes in Bezug auf die Stelle der einzigartigen Signatur spezifiziert. Unter Anwendung von Musterübereinstimmungstechniken kann Inhalt, gespeichert an einer Fernstelle und Inhalt, gespeichert an der Benutzerstelle synchronisiert werden, es wird aber keine Synchronisation von Signalen an einer einzigen Stelle durchgeführt. - Es ist nun u. a. eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine entsprechende Anordnung zum Erzeugen eines ersten und eines zweiten Fingerabdrucks zu schaffen, verwendbar zur Synchronisation wenigstens zweier Signale und eines entsprechenden Verfahrens und einer entsprechenden Anordnung zum Synchronisieren zweier oder mehrerer Signale, wodurch die oben genannten Probleme gelöst werden. Eine weitere Aufgabe der vorliegenden Erfindung ist, dies auf eine einfache und effiziente Art und Weise zu schaffen. Eine weitere Aufgabe ist es, eine einfache, zuverlässige und genaue Stelle eines bestimmten Teils eines Multimediasignals zu schaffen. Ein andere Aufgabe ist es, eine automatische Synchronisation zwischen einem ersten Signal und wenigstens einem zweiten Signal zu schaffen, und zwar ohne Modifikation eines der Signale.
- Dies wird erreicht durch ein Verfahren (und eine entsprechende Anordnung) zum Ermöglichen von Synchronisation eines ersten Signals mit einem zweiten Signal, wo bei das Verfahren die nachfolgenden Verfahrensschritte umfasst:
- – das Herleiten eines ersten Fingerabdrucks auf Basis eines Segmentes des ersten Signals, wobei das Segment des ersten Signals unzweideutig mit einem ersten Synchronisationszeitpunkt relatiert ist, und
- – das Herleiten eines zweiten Fingerabdrucks auf Basis eines Segmentes des zweiten Signals, wobei das Segment des zweiten Signals unzweideutig mit einem zweiten Synchronisationszeitpunkt relatiert ist, und
- – das Liefern des ersten und des zweiten Fingerabdrucks zu einer Synchronisationsanordnung bevor die Synchronisation von der genannten Synchronisationsanordnung durchgeführt wird, wobei das genannte erste Signal ein Audiosignal ist, das genannte zweite Signal ein Videosignal ist, der genannte erste Fingerabdruck ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck ein Videofingerabdruck ist, und durch ein Verfahren (und eine entsprechende Anordnung) zum Synchronisieren zweier oder mehrerer Signale, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst:
- – das Erzeugen eines ersten Fingerabdruckstroms auf Basis eines ersten Signals,
- – das Erzeugen eines zweiten Fingerabdruckstroms auf Basis eines zweiten Signals,
- – das Vergleichen eines Segmentes des ersten Fingerabdruckstroms mit einem oder mehreren ersten Fingerabdrücken, die in wenigstens einer Datenbank gespeichert sind um zu ermitteln, ob es ggf. eine Übereinstimmung gibt,
- – das Vergleichen eines Segmentes des zweiten Fingerabdruckstroms mit einem oder mehreren zweiten Fingerabdrücken, die in der wenigstens einen Datenbank gespeichert sind um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, und wenn es für einen ersten und einen zweiten Fingerabdruck eine Übereinstimmung gibt
- – das Ermitteln einer Stelle eines ersten Synchronisationszeitpunktes für das erste Signal und einer Stelle eines zweiten Synchronisationszeitpunktes für das zweite Signal, und
- – das Synchronisieren des ersten und des zweiten Signals unter Verwendung der bestimmten Stellen, wobei das genannte erste Signal ein Audiosignal ist, wobei das genannte zweite Signal ein Videosignal ist und wobei der genannte erste Fingerabdruck ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck ein Videofingerabdruck ist.
- Auf diese Weise wird eine einfache, zuverlässige und effiziente Art und Weise der Synchronisation wenigstens zweier Signale erhalten. Weiterhin wird dies ohne Modifikation des ersten oder des zweiten Signals (oder nachfolgender Signale) ermöglicht.
- Die Signale können sogar gewissermaßen gestört oder geändert werden, während dennoch eine genaue Synchronisation ermöglicht wird, und zwar wegen der Verwendung von Fingerabdrücken.
- Ein Fingerabdruck eines Multimedia Objekt/Inhalt/Signals ist eine Darstellung von wahrnehmbaren Merkmale des betreffenden Objekt/Inhalt/Signalteils. Derartige Fingerabdrücke sind manchmal auch als "robuste Hash-Codes" bekannt. Insbesondere ist ein Fingerabdruck von einem Stück Audio oder Video ein Identifizierer, der über dieses Stück Audio oder Video berechnet ist und der nicht wesentlich ändert, sogar wenn der betreffende Inhalt danach umcodiert, gefiltert oder sonst wie modifiziert wird.
- Vorteilhafte Ausführungsformen der Verfahren und der Anordnungen nach der vorliegenden Erfindung werden in den Unteransprüchen definiert.
- Weiterhin bezieht sich die vorliegende Erfindung auch auf ein von einem Computer auslesbares Medium, in dem Instruktionen gespeichert sind um dafür zu sorgen, dass eine oder mehrere Verarbeitungseinheiten das Verfahren nach der vorliegenden Erfindung durchführt. Es zeigen:
-
1a eine schematische Darstellung der Erzeugung von Fingerabdruckpaaren, zur Synchronisation zwischen einem Audio- und einem Videosignal, -
1b eine schematische Darstellung der Detektion eines derartigen erzeugten Fingerabdruckpaares zur Synchronisation nach der vorliegenden Erfindung, -
2 eine schematische Darstellung eines Blockdiagramms einer Fingerabdruckerzeugungsanordnung nach der vorliegenden Erfindung, -
3 eine schematische Darstellung eines Blockschaltbildes einer Synchronisationsanordnung, die Fingerabdrücke nach der vorliegenden Erfindung detektiert und benutzt, -
4 eine Darstellung eines Beispiels von Tabellen/Aufzeichnungen nach der vorliegenden Erfindung, -
5 eine Darstellung einer alternativen Ausführungsform einer Beziehung zwischen Zeitpunkten in einem ersten und einem zweiten Signal, -
6 eine Darstellung einer Ausführungsform, wobei eine erste und eine zweite Darstellung an einer Fernstelle gespeichert sind, -
7 eine schematische Darstellung, insbesondere wie die Synchronisation in einer Ausführungsform in einer Synchronisationsanordnung unter Verwendung von Puffern durchgeführt werden kann. -
1a zeigt schematisch die Erzeugung von Fingerabdruckpaaren zur Verwendung zur Synchronisation zwischen einem Audio- und einem Videosignal. - Dargestellt sind ein digitales oder analoges erstes Signal
101 und ein digitales oder analoges zweites Signal103 . Nachstehend ist das erste Signal101 ein Audiosignal und das zweite Signal103 ist ein Videosignal. - Zu einer oder mehreren Synchronisationszeitpunkten Tn, Tn+1 soll ein Fingerabdruckpaar hergeleitet werden. Diese Zeitpunkte werden entsprechend wenigstens einem vorbestimmten Kriterium selektiert werden. So spezifizieren beispielsweise die Kriterien einen Zeitpunkt am Anfang des Audio- und/oder Videosignals, einen Zeitpunkt am Ende einen zwischen liegenden Zeitpunkt. Auf alternative Weise können die Zeitpunkte entsprechend der nachfolgenden Regel selektiert werden: einen am Anfang und einen Zeitpunkt für jeden Punkt, der nach einer bestimmten Zeitperiode vergangen ist, beispielsweise einen Zeitpunkt alle 2 Minuten oder alle 2 Sekunden, usw. Auf alternative Weise können die Zeitpunkte aus einer Analyse des betreffenden Signals selber hergeleitet werden, beispielsweise bei jeder Szenenänderung in einem Videosignal. Es ist nur ein einziger Synchronisationszeitpunkt Tn, Tn+1 erforderlich um eine Synchronisation zwischen den zwei Signalen
101 ,103 nach der vorliegenden Erfindung zu ermöglichen. Die Verwendung aber von mehr Zeitpunkten Tn, Tn+1 ermöglicht eine bessere Synchronisation, beispielsweise in einer Situation, in der eines der Signale oder die beiden Signale gestutzt, modifiziert usw. worden ist bzw. sind. Ein Beispiel könnte sein, wenn ein Benutzer einen Film aufgezeichnet hat und wenn er die ursprüngliche Tonspur gekauft hat, wie oben beschrieben, wobei aber der Film durch Werbesendungen unterbrochen ist. Durch Hinzufügung von mehr Synchronisationszeitpunkten wird eine bessere Synchronisation ermöglicht, insbesondere wenn die Synchronisationszeitpunkte auf den Endzeitpunkte der Werbeunterbrechungen oder nahe dabei liegen. - Für jeden Synchronisationszeitpunkt Tn, Tn+1 für das Audiosignal
101 wird jeweils ein Fingerabdruck102 hergeleitet und ein Videofingerabdruck104 wird für das Videosignal103 zu denselben Synchronisationszeitpunkten Tn, Tn+1 hergeleitet, was zu einem Fingerabdruckpaar102 ,104 für jeden Synchronisationszeitpunk Tn, Tn+1 führt. Ein Fingerabdruck (für Audio und/oder Video) für einen bestimmten Zeitpunkt Tn, Tn+1 wird vorzugsweise von einem Segment des Signals hergeleitet, wo das Segment (im Wesentlichen) zu dem bestimmten Zeitpunkt startet. Auf alternative Weise kann das Segment (im wesentlichen) zu dem bestimmten Zeitpunkt Tn; Tn+1 enden, oder das Segment kann in einem bestimmten Abstand (im Wesentlichen) vor oder nach dem betreffenden Zeitpunkt Tn; Tn+1 starten oder enden, oder der bestimmte Zeitpunkt Tn; Tn+1 kann zu einem vorbestimmten Zeitpunkt zwischen einem Start und einem Ende des Segmentes liegen oder entsprechend jedem beliebigen anderen Schema, solange dasselbe Schema während der Synchronisation eingehalten wird, um den betreffenden Zeitpunkt Tn; Tn+1 auf Basis eines Fingerabdrucks zu ermitteln, wie dies im Zusammenhang mit1b nachstehend noch näher erläutert wird. - Die Größe der Fingerabdrücke kann eine vorbestimmte feste Größe sein oder auf alternative Weise eine variable Größe.
- Ein Verfahren zum Berechnen eines robusten Fingerabdrucks ist in der internationalen Patentanmeldung
WO 02/065782 - Die Europäische Patentveröffentlichung
EP1362485 A beschreibt ein Verfahren, das robuste Fingerabdrücke für Multimediainhalt erzeugt, wie beispielsweise Audioclips, wobei der Audioclip in aufeinander folgende (vorzugsweise überlappende) Zeitintervalle aufgeteilt wird. Für jedes Zeitintervall wird das Frequenzspektrum in Bänder aufgeteilt. Eine robuste Eigenschaft jedes Bandes (beispielsweise Energie) wird berechnet und durch ein betreffendes Fingerabdruckbit dargestellt. - Multimediainhalt wird auf diese Weise durch einen Fingerabdruck dargestellt, der eine Verkettung binärer Werte aufweist, einen für jedes Zeitintervall. Der Fingerabdruck braucht nicht über den ganzen Multimediainhalt berechnet zu werden, kann aber berechnet werden, wenn ein Teil einer bestimmten Länge empfangen worden ist. Es kann folglich mehrere Fingerabdrücke für einen einzigen Multimediainhalt geben, und zwar abhängig davon, welcher Teil zum Berechnen des Fingerabdrucks verwendet wird.
- Weiterhin sind Videofingerabdruckalgorithmen bekannt, beispielsweise aus der nachfolgenden Beschreibung: Job Oostveen, Ton Kalker, Jaap Haitsma: ”Feature Extraction and a Database Strategy for Video Fingerprinting", 117-128, IN: Shi-Kuo Chang, Zhe Chef, Suh-Yin Lee (Eds.): "Recent Advances in Visual Information Systems", 5th international Conference, VISUAL 2002 Hsin Chu, Taiwan, den 11.-13. März 2002, "Proceedings, Lecture Notes in Computer Science 2314" Springer 2002.
- Nach der vorliegenden Erfindung werden ein Audiofingerabdruck
102 und ein Videofingerabdruck104 für jeden Zeitpunkt Tn, Tn+1 auf Basis eines bestimmten Segmentes des Audiosignals101 und eines Segmentes des Videosignals103 zu dem betreffenden Zeitpunk oder nahe daran erzeugt. - Auf diese Weise ist ein bestimmtes Fingerabdruckpaar
102 ,104 ein Synchronisationsmerker, der eine sehr genaue Stelle eines bestimmten Zeitpunktes der Signale101 und103 ermöglicht, ohne Verwendung des bestimmten Zeitpunktes, aber stattdessen Verwendung (eines Segmentes) des Signals. Weiterhin wird dies ohne Änderung der Signale ermöglicht. Sogar für Videofingerabdruck ist die Stelle typischerweise Framegenau, wenigstens solange eine Störung des Videosignals nicht zu stark ist. - Nachdem ein Fingerabdruckpaar
102 ,104 erzeugt worden ist, wird es vorzugsweise für späteren Gebrauch in einer Datenbank, einem Speicher oder dergleichen gespeichert. - Es gibt viele Vorteile bei der Speicherung von Fingerabdruckpaaren (
102 ,104 ) für Multimediasignale101 ,103 in einer Datenbank statt der Multimediasignale selber. Nachstehend folgen einige: - – die Speicheranforderungen für die Datenbank werden reduziert.
- – die Kompression von Fingerabdrücken ist effizienter als die Kompression der Multimediasignale selber, da Fingerabdrücke wesentlich kürzer sind als die Signale.
- – die Suche in einer Datenbank nach einem passenden Fingerabdruck ist effizienter als die Suche nach einem kompletten Multimediasignal, da es die Übereinstimmung kürzerer Elemente betrifft.
- – die Suche nach einem passenden Fingerabdruck ist wahrscheinlich erfolgreicher, da geringfügige Änderungen in dem Multimediasignal (wie Codierung in einem anderen Format oder Änderung der Bitrate) den Fingerabdruck nicht beeinflussen.
- Die erzeugten Fingerabdruckpaare
102 ,104 , die in der Datenbank gespeichert sind, können danach über eine oder mehrere Synchronisationsanordnungen verteilt werden (und zwar übers Internet oder über andere Mittel) zur Synchronisation der Signale nach der vorliegenden Erfindung, beispielsweise vor der Wiedergabe, der Speicherung weiterer Übertragung der beiden (synchronisierten) Signale usw. - Es sei bemerkt, dass die vorliegende Erfindung auch anwendbar ist zum Synchronisieren von mehr als nur zwei Signale und auch auf Signale, die von einem anderen Signaltyp sind als Audio und Video, solange ein robuster Fingerabdruck erhalten werden kann. Im Grunde kann jede beliebige Anzahl Signale nach der vorliegenden Erfindung synchronisiert werden. Dies würde einfach einen zusätzlichen Fingerabdruck zu jeden Zeitpunkt Tn, Tn+1 für jedes zusätzliche Signal erfordern.
- Auf alternative Weise kann das Fingerabdruckpaar auch zu verschiedenen Zeitpunkten für die betreffenden Signale erzeugt werden, d.h. der eine Fingerabdruck des Fingerabdruckpaares kann beispielsweise in 25 Sekunden des ersten Signals erzeugt werden, während der andere Fingerabdruck beispielsweise bei 30 Sekunden des zweiten Signals erzeugt werden kann. Dies erfordert aber eine gut definierte Beziehung zwischen jedem betreffenden Zeitpunkt (beispielsweise 25 Sekunden und 30 Sekunden in dem oben stehenden Beispiel) und einem gemeinsamen Zeitframe. Diese alternative Ausführungsform wird im Zusammenhang mit
5 detailliert beschrieben. -
1b zeigt schematisch die Detektion eines derartigen erzeugten Fingerabdruckpaares, verwendet zur Synchronisation nach der vorliegenden Erfindung. Dargestellt sind ein digitales oder analoges erstes (zu synchronisierendes) Signal101 und ein digitales oder analoges zweites (zu synchronisierendes) Signal103 . Nachstehend ist das erste Signal (101 ) ein Audiosignal und das zweite Signal (103 ) ist ein Videosignal. Weiterhin sind ein erster Fingerabdruckstrom105 und ein zweiter Fingerabdruckstrom106 dargestellt, die ständig oder nahezu ständig auf Basis des Audiosignals101 und des Videosignals103 erzeugt werden. Auf alternative Weise werden die Fingerabdruckströme105 ,106 in Segmenten erzeugt. Jeder Fingerabdruckstrom105 ,106 (oder Segmente) wird mit Fingerabdrücken102 ,104 verglichen, beispielsweise in einer Datenbank gespeichert, damit ermittelt werden kann, ob es ggf. eine Übereinstimmung gibt. Insbesondere wird der Audiofingerabdruckstrom105 mit gespeicherten Audiofingerabdrücken102 verglichen und der Videofingerabdruckstrom106 wird mit gespeicherten Videofingerabdrücken104 verglichen. Die gespeicherten Fingerabdrücke102 ,104 werden erzeugt, wie im Zusammenhang mit1a erläutert wurde, beispielsweise an einer zentralen Stelle. Die gespeicherten Finge rabdrücke102 ,104 werden beispielsweise übers Internet oder über andere Mittel, beispielsweise von einer zentralen Stelle her, empfangen. - Wenn eine Übereinstimmung zwischen dem Audiofingerabdruckstrom
105 und einem bestimmten Audiofingerabdruck102 in der Datenbank gefunden wird, und eine Übereinstimmung zwischen einem Segment des Videofingerabdruckstroms106 und einem bestimmten Videofingerabdruck104 in der Datenbank gefunden wird, d.h. wenn ein übereinstimmendes Fingerabdruckpaar gefunden worden ist, wird der betreffende Synchronisationszeitpunkt Tn; Tn+1 auch gegeben, wenn die Fingerabdrücke102 ,104 nach der vorliegenden Erfindung erzeugt worden sind und wie im Zusammenhang mit1a erläutert wurde. - Der spezifische Synchronisationszeitpunkt Tn; Tn+1 wird in Abhängigkeit von dem Schema ermittelt, das während der Erzeugung des Audiofingerabdrucks
102 und des Videofingerabdrucks104 zu dem betreffenden Zeitpunkt Tn; Tn+1 verwendet worden ist. - Vorzugsweise wird der spezifische Synchronisationszeitpunkt Tn; Tn+1 dadurch gegeben, dass man voraussetzt, dass das Segment des Audiosignals
101 und das Segment des Videosignals103 ursprünglich auf das übereinstimmende Fingerabdruckpaar102 ,104 basiert worden ist (nach1 ) ausgehend (im Wesentlichen) von dem gegebenen Zeitpunkt Tn; Tn+1. Bei alternativen Ausführungsformen enden das Segment des Audiosignals101 und das Segment des Videosignals103 (im Wesentlichen) zu dem Zeitpunkt Tn; Tn+1, wobei die Segmente des Audio- und Videosignals101 ,103 in einem vorbestimmten Abstand vor oder nach dem gegebenen Synchronisationszeitpunkt Tn: Tn+1 starten bzw. enden, oder der gegebene Synchronisationszeitpunkt Tn; Tn+1 kann an einem vorbestimmten Zeitpunkt zwischen einem Start und einem Ende der Segmente des Audiosignals101 und des Videosignals103 liegen. - Die Synchronisationsanordnung braucht einfach die Beziehung zwischen einem bestimmten Fingerabdruck und dem gegebenen Zeitpunkt zu beachten, der während der Erzeugung verwendet wird, was während der Herstellung der Synchronisationsanordnung ermittelt und implementiert werden kann oder auf andere Art und Weise aktualisierbar ist.
- Wie erläutert, ist nachdem ein übereinstimmendes Fingerabdruckpaar
102 ,104 ermittelt worden ist, der Zeitpunkt Tn; Tn+1 dieses Paares auch bekannt und dient als Synchronisationszeitpunkt, da dieser Zeitpunkt unmittelbar einen Bezugpunkt zwischen den zwei Signalen101 und103 ergibt. Die Synchronisationsanordnung kompensiert dann die (etwaige) Verzögerung zwischen den zwei Signalen, beispielsweise durch Verschiebung. eines derselben, so dass sie gegenüber dem Zeitpunkt ausgerichtet sind. - Die oben genannte internationale Patentanmeldung
WO 02/065782 - Auf diese Weise kann Synchronisation erhalten werden, sogar wenn eines der Signale, beispielsweise das Videosignal, in einer geringeren Qualität erhalten worden ist, modifiziert worden ist (beispielsweise komprimiert), usw.
- Es sei bemerkt, dass das Audiosignal
101 und/oder das Videosignal103 eine gestörte Version des Signals sein kann, das während der Erzeugung der Fingerabdrücke verwendet wurde, beispielsweise die Signale nach1a . - Wie im Zusammenhang mit
1a erwähnt, kann diese Ausführungsform auf einfache Weise modifiziert werden um Synchronisation von mehr als zwei Signalen und/oder Signalen von einem anderen Typ als Audio und oder Video zu erzielen. -
2 zeigt ein Blockschaltbild einer Fingerabdruckerzeugungsanordnung nach der vorliegenden Erfindung. - Dargestellt ist eine Fingerabdruckerzeugungsanordnung
200 mit einem Signaleingangsmodul201 , einem Fingerabdruckmodul202 , einer Datenbank, einem Speicher und/oder dergleichen203 , die über einen Bus oder dergleichen unter Ansteuerung eines oder mehrerer (nicht dargestellter) Mikroprozessoren kommunizieren. Die Fingerabdruckerzeugungsanordnung200 kann in einer Ausführungsform ggf. auch einen Sender und Empfänger204 zur Kommunikation mit anderen Systemen, Anordnungen usw. über ein verdrahtetes und/oder drahtloses Netzwerk, beispielsweise wie Internet, enthalten. - Das Signaleingangsmodul
201 empfängt ein erstes101 und wenigstens ein zweites Signal103 . Nachstehend werden zwei Signale empfangen, die Multimediainhalt in Form eines analogen oder digitalen Audiosignals und eines Videosignals enthalten. Das Eingangsmodul201 führt die zwei Signale dem Fingerabdruckmodul202 zu. Das Fingerabdruckmodul202 empfängt auch eine Darstellung der Zeitpunkte (..., Tn; Tn+1 ...), die als Synchronisationszeitpunkte verwendet werden sollen. Auf alternative Weise werden die Zeitpunkte durch die Fingerabdruckerzeugungsanordnung200 hergeleitet. Wenn die Zeitpunkte zugeliefert werden und nicht von der Fingerabdruckerzeugungsanordnung200 erzeugt werden, ist es nicht notwendig, dass die Fingerabdruckerzeugungsanordnung200 mit dem kompletten Audiosignal101 und dem kompletten Videosignal103 versehen wird. Es reicht dann, nur die betreffenden Segmente des Audiosignals101 und des Videosignals103 zu liefern, die zur Fingerabdruckerzeugung verwendet werden, beispielsweise ein Segment jedes Signals für jeden Zeitpunkt. - Der Sender und Empfänger
204 kann auch verantwortlich sein für den Empfang eines oder mehrerer der Signale101 und103 und dieses/diese dem Signalempfänger301 oder unmittelbar dem Fingerabdruckdetektor302 zuführen. - Das Fingerabdruckmodul
202 berechnet einen Fingerabdruck auf Basis des empfangenen Audiosignals101 und Videosignals103 . Ein Fingerabdruck kann für den ganzen Inhalt oder für einen Teil des Inhalts hergeleitet werden. Auf alternative Weise können verschiedene Fingerabdrücke hergeleitet werden, je von einem anderen Teil. Nach der vorliegenden Erfindung wird ein Fingerabdruck für jeden Zeitpunkt Tn; Tn+1 hergeleitet, wie im Zusammenhang mit1a erläutert. Auf alternative Weise kann das Fingerabdruckmodul202 in zwei, beispielsweise unterschiedliche Fingerabdruckmodule aufgeteilt werden oder das Modul kann diese enthalten, und zwar ein Modul zum herleiten von Audiofingerabdrücken und ein Modul zum herleiten von Videofingerabdrücken. - Das Fingerabdruckmodul
202 liefert dann das berechnete Fingerabdruckpaar zu der Datenbank203 . Wie in4 dargestellt, umfasst die Datenbank203 Videofinge rabdrücke, organisiert durch eine Spalte mit Videofingerabdrücken104 'V_FP1','V_FP2', 'V_FP3', 'V_FP4', 'V_FP5', usw. und entsprechende Audiofingerabdrücken102 'A_FP1', 'A_FP2', 'A_FP3', 'A_FP4', 'A_FP5', usw. - Die Datenbank
203 kann verschiedenartig organisiert sein um die Abfragezeit und/oder die Datenorganisation zu optimieren. Der Ausgang des Fingerabdruckmoduls202 soll berücksichtigt werden, wenn die Tabellen in der Datenbank203 entworfen werden. In der in4 dargestellten Ausführungsform umfasst die Datenbank203 eine einzige Tabelle mit Eingaben (Aufzeichnungen) mit betreffenden Fingerabdruckpaaren. - Wie erwähnt, kann diese Ausführungsform auf einfache Weise modifiziert werden um Synchronisation von mehr als zwei Signalen unterzubringen und/oder von Signalen eines anderen Typs als Audio und/oder Video.
-
3 zeigt ein Blockschaltbild einer Synchronisationsanordnung, die Fingerabdrücke detektiert und verwendet, nach der vorliegenden Erfindung. - Dargestellt ist eine Synchronisationsanordnung
300 mit einem Signalempfänger301 , einem Fingerabdruckdetektor302 , einer Synchronisationsschaltung303 , einer Datenbank, einem Speicher und/oder dergleichen203 , die/der über einen Bus205 oder dergleichen unter Ansteuerung eines oder mehrerer Mikroprozessoren (nicht dargestellt) kommuniziert. Die Synchronisationsanordnung300 kann in einer Ausführungsform ggf. auch einen Sender und Empfänger204 enthalten zur Kommunikation mit anderen Systemen, Anordnungen usw. über ein verdrahtetes und/oder drahtloses Netzwerk, beispielsweise wie das Internet. - Der Signalempfänger
301 empfängt ein erstes101 und wenigstens ein zweites Signals103 . Nachstehend werden die zwei Signale mit Multimediainhalt in Form eines zu synchronisierenden analogen oder digitalen Audiosignals und eines zu synchronisierenden analogen oder digitalen Videosignals empfangen. Der Sender und Empfänger204 kann auch verantwortlich sein für den Empfang eines oder mehrerer der Signale101 und103 und zum Liefern desselben/derselben zu dem Signalempfänger301 oder unmittelbar zu dem Fingerabdruckdetektor302 . - Die empfangenen Signale werden dem Fingerabdruckdetektor
302 zugeführt, der einen Fingerabdruckstrom oder Segmente davon für jedes Signal herleitet und ermittelt, ob es Übereinstimmungen mit Fingerabdruckpaaren gibt, die in der Datenbank203 gespeichert sind, wie im Zusammenhang mit1b erläutert wurde. Wenn eine Über einstimmung gefunden wird, wird auch der spezifische Synchronisationszeitpunkt Tn; Tn+1 für jedes Signal ermittelt. Die spezifische Ermittlung des Synchronisationszeitpunktes Tn; Tn+1 Signal ist unabhängig von dem Schema, das während der Erzeugung des Audiofingerabdrucks102 und des Videofingerabdrucks104 zu dem betreffenden Zeitpunkt Tn; Tn+1 verwendet worden ist. - Vorzugsweise wird der spezifische Synchronisationszeitpunkt Tn; Tn+1 dadurch gegeben, dass man voraussetzt, dass das Segment des Audiosignals
101 und das Segment des Videosignals103 ursprünglich auf das übereinstimmende Fingerabdruckpaar102 ,104 basiert worden ist (nach1 ) ausgehend (im Wesentlichen) von dem gegebenen Zeitpunkt Tn; Tn+1. Bei alternativen Ausführungsformen enden das Segment des Audiosignals101 und das Segment des Videosignals103 (im Wesentlichen) zu dem Zeitpunkt Tn; Tn+1, wobei die Segmente des Audio- und Videosignals101 ,103 in einem vorbestimmten Abstand vor oder nach dem gegebenen Synchronisationszeitpunkt Tn: Tn+1 starten bzw. enden, oder der gegebene Synchronisationszeitpunkt Tn; Tn+1 kann an einem vorbestimmten Zeitpunkt zwischen einem Start und einem Ende der Segmente des Audiosignals101 und des Videosignals103 liegen. - Die Synchronisationsanordnung braucht einfach die Beziehung zwischen einem bestimmten Fingerabdruck und dem gegebenen Zeitpunkt zu beachten, der während der Erzeugung verwendet wird, was während der Herstellung der Synchronisationsanordnung ermittelt und implementiert werden kann oder auf andere Art und Weise aktualisierbar ist.
- Wie erläutert, ist nachdem ein übereinstimmendes Fingerabdruckpaar
102 ,104 ermittelt worden ist, der Zeitpunkt Tn; Tn+1 dieses Paares auch bekannt und dient als Synchronisationszeitpunkt, da dieser Zeitpunkt unmittelbar einen Bezugpunkt zwischen den zwei Signalen101 und103 ergibt. Die Synchronisationsanordnung kompensiert dann die (etwaige) Verzögerung zwischen den zwei Signalen, beispielsweise durch Verschiebung eines derselben, so dass sie gegenüber dem Zeitpunkt ausgerichtet sind. - Als einfaches Beispiel sagen wir, dass der Synchronisationszeitpunkt auf 5 Minuten und 34 Sekunden der Signale
101 und103 während der Erzeugung nach1a liegt. Während der Erzeugung von Fingerabdrücken (entsprechend1a ) würde ein einziger Audiofingerabdruck bei oder nahe bei (abhängig von dem angewandten Schema) 5 Minuten und 34 Sekunden in dem Audiosignal101 geliefert werden und ein einziger Vi deofingerabdruck würde auch bei oder nahe bei (abhängig von dem angewandten Schema) 5 Minuten und 34 Sekunden in dem Videosignal103 geliefert werden. Diese zwei Fingerabdrücke würden danach gespeichert und zu einer Synchronisationsanordnung übertragen werden, die dann die Synchronisation zwischen den zwei Signalen durchführt. Bei der Synchronisationsanordnung würde ein Fingerabdruckstrom105 des Audiosignals und ein Fingerabdruckstrom106 des Videosignals mit den gespeicherten zwei Fingerabdrücken verglichen werden. Wenn zwischen dem gespeicherten Audiofingerabdruck und dem Audiofingerabdruckstrom ein Übereinstimmungsstrom gefunden wird. Ergibt die Stelle der Übereinstimmung (beispielsweise Tn in105 in1b ) in dem Fingerabdruckstrom den verwendeten Synchronisationszeitpunkt, d.h. was mit 5 Minuten und 34 Sekunden übereinstimmen sollte. Auf gleiche Weise gibt, wenn eine Übereinstimmung zwischen dem gespeicherten Videofingerabdruck und dem gefundenen Videofingerabdruckstrom gefunden wird, die Stelle der Übereinstimmung (beispielsweise Tn in106 in1b ) in dem Fingerabdruckstrom den verwendeten Synchronisationszeitpunkt, d.h. 5 Minuten und 34 Sekunden. Die zwei Signale können verschoben werden, aber die genaue Stelle in den Signalen (wie durch das Segment des Fingerabdruckstroms gegeben, der mit einem gespeicherten Fingerabdruck übereinstimmt) was 5 Minuten und 34 Sekunden sein sollte, können danach zum Ausrichten der zwei Signale verwendet werden. Der spezifische Wert des Zeitpunktes (5 Minuten und 34 Sekunden) braucht überhaupt nicht bekannt zu sein oder spezifisch hergeleitet zu sein. Das einzige, was bekannt sein soll ist, dass die Fingerabdruckübereinstimmungsstelle der zwei Signale101 ;103 ausgerichtet/synchronisiert sein soll. Der Synchronisationszeitpunkt von 5 Minuten und 34 Sekunden kann beispielsweise den 5 Minuten und 34 Sekunden in dem Audiosignal entsprechen (beispielsweise weil dies die ursprüngliche Tonspur ist, die während der Erzeugung des Audiofingerabdrucks verwendet wurde) und 6 Minuten und 3 Sekunden in dem Videosignal (beispielsweise wenn das Videosignal im Vergleich mit dem ursprünglichen Videosignal, das während der Erzeugung des Videofingerabdrucks verwendet wurde) weiterhin Werbeunterbrechungen aufweist. Die Differenz zwischen den zwei Zeitwerten (6 Minuten, 3 Sekunden -5 Minuten 34 Sekunden = 29 Sekunden) kann danach zum Kompensieren der Verzögerung verwendet werden, beispielsweise durch Verschiebung der Wiedergabe, so dass das Audiosignal und das Videosignal gleichzeitig bei dem Synchronisationszeitpunkt und weiter wiedergegeben werden (wenn es keine weiteren Modifikationen anderer Signal gibt, beispielsweise ein zusätzliche Werbeunterbrechung, usw.). - Vorzugsweise entspricht das Datenlayout der Datenbank
203 dem einen aus4 . - Wie erwähnt, kann diese Ausführungsform auf einfache Art und Weise modifiziert werden um Synchronisation von mehr als nur zwei Signalen und/oder Signalen eines anderen Typs als Audio und/oder Video durchzuführen.
-
4 zeigt ein Beispiel von Tabellen/Aufzeichnungen nach der vorliegenden Erfindung. Dargestellt ist eine Tabelle mit Fingerabdruckpaaren102 ,104 . Die Tabelle ist in diesem Beispiel durch eine Spalte organisiert, die Videofingerabdrücke 'V_FP1', 'V_FP2', 'V_FP3', 'V_FP4', 'V_FP5', usw. und eine Spalte mit den betreffenden entsprechenden Audiofingerabdrücken 'A_FP1', 'A_FP2', 'A_FP3', 'A_FP4', 'A_FP5', usw. enthält. -
5 zeigt eine alternative Ausführungsform einer Beziehung zwischen Zeitpunkten in einem ersten und in einem zweiten Signal. Dargestellt sind ein erstes Signal101 und ein zweites Signal103 . In dieser Ausführungsform ist ebenfalls eine dritte oder Bezugs- oder gemeinsame oder interne Takt/Linie107 dargestellt (nachstehend nur als Bezugszeitlinie bezeichnet), und zwar zum besseren Verständnis des Prinzips dieser Ausführungsform. - In diesem speziellen Beispiel der alternativen Ausführungsform ist ein (nicht dargestellter) Fingerabdruck für das erste Signal
101 zu einem ersten Synchronisationszeitpunkt Tn mit dem Wert von 560 erzeugt worden. Dieser spezielle Zeitpunkt Tn für das erste Signal101 bezieht sich auf ein Bezugszeitframe, wie durch die Bezugszeitlinie107 angegeben (wie durch den Pfeil angegeben) auf einen Zeitpunkt mit einem Wert von 8:45:17,23 (was angibt, dass das erste Signal zu Tn = 560 vorhanden sein soll zu 8:45:17,23 auf der Bezugszeitlinie107 . Eine Darstellung dieser Angabe oder dieser Beziehung zwischen dem betreffenden Zeitpunkt Tn für das erste Signal101 (d.h. eine erste Darstellung) kann mit dem erzeugten ersten Fingerabdruck assoziiert sein und in einer Datenbank gespeichert sein (beispielsweise in derselben oder in einer anderen als diejenige, die den erzeugten Fingerabdruck enthält), wie nachstehend noch näher erläutert wird. - Weiterhin ist ein (nicht dargestellter) Fingerabdruck für das zweite Signal
103 zu einem zweiten Synchronisationszeitpunkt Tm, mit dem Wert 1800 erzeugt worden. Dieser spezielle Zeitpunkt Tm, für das zweite Signal103 bezieht sich auch auf dasselbe Be zugszeitframe wie durch die Bezugszeitlinie107 angegeben (wie durch einen Pfeil angegeben) auf einen Zeitpunkt mit dem Wert 8:45:17,18 auf der Bezugszeitlinie107 (wobei angegeben wird, dass das zweite Signal zu Tm = 1800 zu 8:45:17, 18 vorhanden sein soll). Eine Darstellung dieser Angabe oder Beziehung zwischen dem betreffenden Zeitpunkt Tm für das zweite Signal101 (d.h. eine zweite Darstellung) kann mit dem erzeugten zweiten Fingerabdruck assoziiert sein und in einer Datenbank (beispielsweise derselben oder einer anderen als diejenige, die den erzeugten Fingerabdruck enthält), wie dies nachstehend noch näher erläutert wird. - Die erste und die zweite Darstellung kann beispielsweise einfach der Bezugszeitpunkt des ersten bzw. zweiten Signals sein. In dem oben stehenden Beispiel würde der Wert 8:45:17,18 mit dem erzeugten Fingerabdruck zu Tm = 1800 gespeichert werden.
- Während der Synchronisation erzeugt eine Synchronisationsanordnung nach dieser Ausführungsform einen ersten und einen zweiten Fingerabdruckstrom oder Fingerabdrucksegmente, wie im Zusammenhang mit
1b erläutert. Jeder Fingerabdruckstrom (oder Segmente) wird mit Fingerabdrücken verglichen, die beispielsweise in einer örtlichen oder Ferndatenbank gespeichert sind, damit ermittelt wird, ob es ggf. eine Übereinstimmung gibt, wie auch im Zusammenhang mit1b erläutert. Wenn ein miteinander übereinstimmender erster und zweiter Fingerabdruck gefunden worden ist, sind der erste Tn, (d.h. 560 in dem oben stehenden Beispiel) und der zweite Synchronisationszeitpunkt Tm (d.h. 1800 in dem oben stehenden Beispiel) auch bekannt oder herleitbar. Danach ist die Verwendung der oben genannten ersten und zweiten Darstellung der Beziehung zu einem Bezugszeitrahmen möglich um zu ermitteln, wie die Signale nach einem bestimmten Zeitrahmen synchronisiert werden sollen. - Wie erwähnt, können die erste und die zweite Darstellungen einer oder mehreren Datenbanken gespeichert sein und sollen vor der Synchronisation einer Synchronisationsanordnung zugeführt werden. In einer Ausführungsform werden die erste und die zweite Darstellung unmittelbar der Synchronisationsanordnung zur Speicherung aus einer Fingerabdruckerzeugungsanordnung zugeführt. Auf alternative Weise werden die erste und die zweite Darstellung einer anderen Anordnung, beispielsweise einem Server, zugeführt, der imstande ist, mit einer Synchronisationsanordnung zu kommunizieren. Diese Ausführungsform wird im Zusammenhang mit
6 detailliert erläutert. -
6 zeigt eine Ausführungsform, wo die erste und die zweite Darstellung an einer Fernstelle gespeichert sind. Dargestellt sind ein Audioserver601 und ein Videoserver602 , die einen Audiostrom bzw. einen Videostrom zu einem Audiofingerabdruckgenerator202 bzw. einem Videofingerabdruckgenerator202 liefern. Der Audio- und der Videofingerabdruckgenerator202 funktioniert wie im Zusammenhang mit2 beschrieben und können in derselben Fingerabdruckerzeugungsanordnung200 oder in zwei verschiedenen Anordnungen vorgesehen sein. In dieser Ausführungsform werden die erzeugten Fingerabdrücke einer Datenbank203 zugeführt, die sich in einem (Datenbank)Server600 befindet, der mit einer Synchronisationsanordnung300 in Kommunikationsverbindung steht. Der Server600 empfängt und speichert auch eine erste Darstellung für jeden Audiofingerabdruck und eine zweite Darstellung für jeden Videofingerabdruck, wie beispielsweise im Zusammenhang mit5 beschrieben, d.h. die Darstellungen der Beziehung zwischen Zeitpunkten des Audiostroms und des Videostroms und einer gemeinsamen Bezugszeitlinie oder einem Zeitrahmen. - Die Synchronisationsanordnung
300 funktioniert wie im Zusammenhang mit3 und5 beschrieben. Sie empfängt den zu synchronisierenden Audio- und Videostrom von dem Audio- und Videoserver601 ,602 und erzeugt einen Fingerabdruckstrom oder Fingerabdrucksegmente von jedem und vergleicht diese mit vorbestimmten Fingerabdrücken (entsprechend102 und104 in den1a und1b ) die Synchronisationszeitpunkte bezeichnen, wie oben beschrieben. Die vorbestimmten Fingerabdrücke können von der Fingerabdruckerzeugungsanordnung200 empfangen werden (wie durch zwei gestrichelte Pfeile angegeben) oder von dem Server600 . Wenn die vorbestimmten Fingerabdrücke von dem Server600 empfangen werden, wird die Speicherung in der Synchronisationsanordnung300 gespeichert, die eine mehr begrenzte Speicherkapazität hat. Die erste und die zweite Darstellung jedes Fingerabdrucks wird vorzugsweise auch von dem Server600 empfangen und wird zum Synchronisieren des Audio- und Videostroms vor der Wiedergabe, verwendet, wie im Zusammenhang mit5 beschrieben. - Der (die) Server kann (können) vorbestimmte Fingerabdrücke und/oder ihre assoziierte erste und zweite Darstellung für verschiedene Audio- und Videoströme gespeichert haben.
- In einer Ausführungsform sind die vorbestimmte Fingerabdrücke in der Synchronisationsanordnung
200 gespeichert, während die erste und die zweite Darstellung in einem oder mehreren Servern600 gespeichert sind. Wenn ein Fingerabdruckpaar detektiert worden ist, werden die erste und die zweite Darstellung dieses Paares von dem (den) Server(n) übertragen und in der Synchronisationsanordnung200 verwendet. Auf alternative Weise können alle ersten und zweiten Darstellungen aller vorbestimmten Fingerabdrücke eines bestimmten Audio- und Videostroms der Synchronisationsanordnung200 zugeführt werden, und zwar bevor die Synchronisation anfängt, beispielsweise auf Basis von Strom-ID, usw. - In einer alternativen Ausführungsform werden die vorbestimmten Fingerabdrücke zusammen mit ihrer assoziierten ersten und zweiten Darstellung nur in einem oder mehreren Servern
600 gespeichert. Vor der Synchronisation der Ströme werden die Fingerabdrücke und ihrer assoziierten ersten und zweiten Darstellungen zu der Synchronisationsanordnung200 übertragen, beispielsweise auf Basis der Strom-ID oder dergleichen. Auf alternative Weise werden nur die Fingerabdrücke vor der Synchronisation übertragen und bei Detektion übereinstimmender Fingerabdrücke werden die assoziierten Darstellungen zu der Synchronisationsanordnung200 übertragen. - Es sei bemerkt, dass es meistens zwischen der Erzeugung von Fingerabdrücken auf Basis des Audio- und Videostroms und, wenn diese Ströme der Synchronisationsanordnung
300 zugeführt werden, eine Zeit geben wird. - Die Datenbank
203 kann eine einzelne Datenbank oder verschiedene Datenbanken sein, die in einem einzigen Server oder in verschiedenen Servern untergebracht sind. -
7 zeigt schematisch spezifisch, wie die Synchronisation in einer Ausführungsform in einer Synchronisationsanordnung unter Verwendung von Puffern durchgeführt werden kann. Dargestellt sind ein Puffer701 zum Puffern von Audiodaten und ein Puffer702 zum Puffern von Videodaten. Für den Audiopuffer701 gibt ein Ein-Zeiger I-P an, wo der nächste Audioabtastwert, herrührend von dem Audiostrom, in den Puffer eingegeben werden soll. Eine Aus-Zeiger O-P gibt an, wo der nächste Audioabtastwert ausgelesen werden soll. Der Aus-Zeiger verlagert sich zu dem nächsten Schlitz mit einer Geschwindigkeit, eingestellt durch einen Taktgeber der Synchronisationsanordnung. - Für den Videopuffer
702 sind ein EIN-Zeiger I-P und ein AUS-Zeiger O-P dargestellt, die auf dieselbe Art und Weise funktionieren, wie für den Audiopuffer701 erläutert. - Je nach einer ersten Darstellung (beispielsweise bereits in der Synchronisationsanordnung vorhanden oder von einem Server empfangen, wie oben bereits erläutert) wird der AUS-Zeiger eingestellt, d.h. zu einem früheren oder späteren Schlitz in dem Puffer
701 verschoben. - Gleiches gilt auch für eine zweite Darstellung für den Videopuffer
702 . Auf diese Weise werden die AUS-Zeiger auf Basis der ersten und der zweiten Darstellung eingestellt, und synchronisieren dadurch die AUS-Ströme auf sehr einfache Weise. - In den Patentansprüchen sollen eingeklammerte Bezugszeichen nicht als den Anspruch beschränkend betrachtet werden. Das Wort "umfassen' schließt das Vorhandensein von Elementen oder Verfahrensschritten anders als die in dem Anspruch genannten nicht aus. Das Wort "ein" vor einem Element schließt das Vorhandensein einer Anzahl derartiger Elemente nicht aus.
- Die vorliegende Erfindung kann mit Hilfe von Hardware, die verschiedene einzelne Elemente umfasst, und mit Hilfe eines auf geeignete Art und Weise programmierten Computers implementiert werden. In dem Anordnungsanspruch, in der verschiedene Mittel nummeriert sind, können viele dieser Mittel von ein und demselben Hardware-Item verkörpert werden. Die Tatsache, dass bestimmte Maßnahmen in untereinander verschiedenen Unteransprüchen genannt werden, gibt nicht an, dass eine Kombination dieser Maßnahmen nicht mit Vorteil angewandt werden kann.
- Text in der Zeichnung
-
6 -
- Audioserver
- Videoserver
- Audiostrom
- Videostrom
- Synchronisationsanordnung
-
7 -
- Puffer Audio
- Puffer Video
Claims (27)
- Verfahren zum Ermöglichen von Synchronisation eines ersten Signals mit einem zweiten Signal, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Herleiten eines ersten Fingerabdrucks (
102 ) auf Basis eines Segmentes des ersten Signals (101 ), wobei das Segment des ersten Signals (101 ) unzweideutig mit einem ersten Synchronisationszeitpunkt (Tn; Tn+1) relatiert ist, und – das Herleiten eines zweiten Fingerabdrucks (104 ) auf Basis eines Segmentes des zweiten Signals (103 ), wobei das Segment des zweiten Signals (103 ) unzweideutig mit einem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) relatiert ist, dadurch gekennzeichnet, dass das Verfahren weiterhin Folgendes umfasst: – das Liefern des ersten und des zweiten Fingerabdrucks (102 ,104 ) zu einer Synchronisationsanordnung (200 ,300 ) bevor die Synchronisation von der genannten Synchronisationsanordnung (200 ,300 ) durchgeführt wird, wobei das genannte erste Signal (101 ) ein Audiosignal ist, das genannte zweite Signal (103 ) ein Videosignal ist, der genannte erste Fingerabdruck (102 ) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104 ) ein Videofingerabdruck ist. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren weiterhin für jeden bestimmten Synchronisationszeitpunkt (Tn; Tn+1; Tm) das Speichern des hergeleiteten ersten Fingerabdrucks (
102 ) in einer Datenbank (203 ) und/oder das Speichern des hergeleiteten zweiten Fingerabdrucks (104 ) in derselben oder in einer anderen Datenbank (203 ) umfasst. - Verfahren nach Anspruch 1-2, dadurch gekennzeichnet, dass der erste Fingerabdruck (
102 ) und der zweite Fingerabdruck (104 ) übers Internet oder über andere Mittel der Synchronisationsanordnung (300 ) zugeführt werden. - Verfahren nach Anspruch 1-3, dadurch gekennzeichnet, dass das Segment des ersten Signals (
101 ) und/oder das Segment des zweiten Signals (103 ) unzweideutig mit dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) wie folgt relatiert sind: – das Segment des ersten Signals (101 ) und/oder das Segment des zweiten Signals (103 ), enden im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101 ) und/oder das Segment des zweiten Signals (103 ) starten im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101 ) und/oder das Segment des zweiten Signals (103 ) starten oder enden zu einem vorbestimmten Abstand vor oder nach dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), oder – der erste und/oder zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) sind ein vorbestimmter Zeitpunkt zwischen einem Start und einem Ende des Segmentes des ersten Signals (101 ) und/oder des Segmentes des zweiten Signals (103 ). - Verfahren nach Anspruch 1-4, dadurch gekennzeichnet, dass der erste (Tn; Tn+1) und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm), derselbe sind.
- Verfahren nach Anspruch 1-4, dadurch gekennzeichnet, dass der erste Synchronisationszeitpunkt (Tn; Tn+1) anders ist als der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) und dass das Verfahren das Speichern einer ersten Darstellung einer Beziehung zwischen dem ersten Synchronisationszeitpunkt (Tn; Tn+1) und einem ersten Zeitpunkt einer Bezugzeit (
107 und das Speichern einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107 ) umfasst. - Verfahren nach Anspruch 1-6, dadurch gekennzeichnet, dass das Verfahren weiterhin die nachfolgenden Verfahrensschritte umfasst: – das Übertragen der ersten und/oder zweiten Darstellung zu einer Synchronisationsanordnung (
300 ), und/oder – das Übertragen der ersten und/oder zweiten Darstellung zu einem Server (600 ) in Kommunikationsverbindung mit einer Synchronisationsanordnung (300 ), und/oder – das Übertragen des einen oder mehrerer hergeleiteter erster Fingerabdrücke (102 ) und zweiter Fingerabdrücke (104 ) zu dem Serber (600 ). - Verfahren zum Synchronisieren zweier oder mehrerer Signale, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Erzeugen eines ersten Fingerabdruckstromes (
105 ) auf Basis eines ersten Signals (101 ), – das Erzeugen eines zweiten Fingerabdruckstroms (106 ) auf Basis eines zweiten Signals (103 ), – das Vergleichen eines Segmentes des ersten Fingerabdruckstromes (105 ) mit einem oder mehreren ersten Fingerabdrücken (102 ), die in wenigstens einer Datenbank (203 ) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, und – das Vergleichen eines Segmentes des zweiten Fingerabdruckstromes (106 ) mit einem oder mehreren zweiten Fingerabdrücken (104 ), die in der wenigstens einen Datenbank (203 ) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, dadurch gekennzeichnet, dass das Verfahren weiterhin Folgendes umfasst: – wenn es eine Übereinstimmung für einen ersten und einen zweiten Fingerabdruck (102 ;104 ) gibt, das Ermitteln einer Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101 ) und einer Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signal (103 ) und das Synchronisieren des ersten Signals (101 ) zu dem zweiten Signal (103 ) unter Verwendung der ermittelten Stellen, wobei das genannte erste Signale (101 ) ein Audiosignal ist, wobei das zweite Signal (103 ) ein Videosignal ist, wobei das genannte erste Signal (101 ) ein Audiosignal ist, das genannte zweite Signal (103 ) ein Videosignals uns und der genannte erste Fingerabdruck (102 ) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104 ) ein Videofingerabdruck ist. - Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Synchronisation Folgendes umfasst: – das Verzögern des ersten (
101 ) oder des zweiten (103 ) Signals um einen Betrag entsprechend einer Differenz, falls überhaupt, zwischen der Stelle des ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101 ) und der Stelle des zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signal (103 ). - Verfahren nach Anspruch 8-9, dadurch gekennzeichnet, dass die Stelle des ersten und/oder des zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das erste und das zweite Signals (
101 ,103 ) durch eine unzweideutige Beziehung zu einem Segment eines ersten Signals (101 ) und/oder eines Segmentes eines zweiten Signals (103 ), verwendet während der Erzeugung des ersten übereinstimmenden Fingerabdrucks (102 ) und des zweiten übereinstimmenden Fingerabdrucks (104 ), gegeben ist. - Verfahren nach Anspruch 8-10, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) derselbe ist.
- Verfahren nach Anspruch 8-10, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) verschieden sind und dass das Verfahren weiterhin Folgendes umfasst: – wenn es für einen ersten und einen zweiten Fingerabdruck (
102 ;104 ) eine Übereinstimmung gibt: – das Erhalten einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107 ), und – das Verwenden des ersten und zweiten Zeitpunktes der genannten Bezugszeit (107 ) zum Synchronisieren des ersten (101 ) und des zweiten Signals (103 ), – statt – Ermittlung, wenn es eine Übereinstimmung gibt für einen ersten und einen zweiten Fingerabdruck (102 ;104 ), einer Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101 ) und einer Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signals (103 ) und Synchronisation des ersten (101 ) und des zweiten (103 ) Signals unter Verwendung der ermittelten Stellen. - Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass das Verfahren weiterhin die nachfolgenden Verfahrensschritte umfasst: – das Empfangen der ersten und/oder zweiten Darstellung in einer Synchronisationsanordnung (
300 ) von einem Server (600 ) in Kommunikationsverbindung mit der Synchronisati onsanordnung (300 ), und/oder – das Empfangen des ersten und/oder des zweiten Fingerabdrucks (102 ;104 ) von dem Server (600 ). - Anordnung (
200 ), die Synchronisation von wenigstens zwei Signalen ermöglicht, wobei die Anordnung Folgendes umfasst: – einen Fingerabdruckgenerator (202 ), vorgesehen – zum Herleiten eines ersten Fingerabdrucks (102 ) auf Basis eines Segmentes eines ersten Signals (101 ), wobei das Segment des ersten Signals (101 ) unzweideutig mit einem ersten Synchronisationszeitpunkt (Tn; Tn+1) relatiert ist, und – zum Herleiten eines zweiten Fingerabdrucks (104 ) auf Basis eines Segmentes des zweiten Signals (103 ), wobei das Segment des zweiten Signals (103 ) unzweideutig mit einem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) relatiert ist, dadurch gekennzeichnet, dass das genannte erste Signal (101 ) ein Audiosignal ist, das genannte zweite Signal (103 ) ein Videosignal ist, der genannte erste Fingerabdruck (102 ) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104 ) ein Videofingerabdruck ist und dass die genannte Anordnung Mittel (204 ) aufweist zum Liefern des ersten und des zweiten Fingerabdrucks (102 ,104 ) zu einer Synchronisationsanordnung (200 ,300 ) bevor die Synchronisation von der genannten Synchronisationsanordnung (200 ,300 ) durchgeführt wird. - Anordnung nach Anspruch 14, dadurch gekennzeichnet, dass die Anordnung weiterhin wenigstens eine Datenbank (
203 ) aufweist, worin der hergeleitete erste Fingerabdruck (102 ) und/oder der hergeleitete zweite Fingerabdruck (104 ) für jeden bestimmten Synchronisationszeitpunkt (Tn; Tn+1; Tm) gespeichert ist. - Anordnung nach Anspruch 14-15, dadurch gekennzeichnet, dass die Anordnung weiterhin einen Sender (
204 ) aufweist zum Übertragen eines ersten Fingerabdrucks (102 ) oder eines zweiten Fingerabdrucks (104 ) in der wenigstens einen Datenbank zu einer Synchronisationsanordnung (300 ) übers Internet oder über andere Mittel. - Anordnung nach Anspruch 14-16, dadurch gekennzeichnet, dass das Seg ment des ersten Signals (
101 ) und/oder das Segment des zweiten Signals (103 ) unzweideutig mit dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) wie folgt relatiert sind: – das Segment des ersten Signals (101 ) und/oder das Segment des zweiten Signals (103 ), enden im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101 ) und/oder das Segment des zweiten Signals (103 ) starten im Wesentlichen zu dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm), – das Segment des ersten Signals (101 ) und/oder das Segment des zweiten Signals (103 ) starten oder enden zu einem vorbestimmten Abstand vor oder nach dem ersten und/oder zweiten Synchronisationszeitpunkt (Tn; Tn+1 Tm), oder – der erste und/oder zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) sind ein vorbestimmter Zeitpunkt zwischen einem Start und einem Ende des Segmentes des ersten Signals (101 ) und/oder des Segmentes des zweiten Signals (103 ). - Anordnung nach Anspruch 14-17, dadurch gekennzeichnet, dass der erste Synchronisationszeitpunkt (Tn; Tn+1) und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) derselbe ist.
- Anordnung nach Anspruch 14-17, dadurch gekennzeichnet, dass der erste Synchronisationszeitpunkt (Tn; Tn+1) anders ist als der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) und dass die Anordnung die Mittel aufweist, vorgesehen zum Speichern einer ersten Darstellung einer Beziehung zwischen dem ersten Synchronisationszeitpunkt (Tn; Tn+1) und einem ersten Zeitpunkt einer Bezugszeit (
107 ) und zum Speichern einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107 ). - Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass die Anordnung weiterhin Folgendes umfasst: – einen Sender (
204 ) zum Übertragen der ersten und/oder der zweiten Darstellung zu einer Synchronisationsanordnung (300 ), und/oder – einen Sender (204 ) zum Übertragen der ersten und/oder der zweiten Darstellung zu einem Server (600 ) in Kommunikationsverbindung mit einer Synchronisationsanordnung (300 ), und/oder – einen Sender (204 ) zum Übertragen des ersten Fingerabdrucks (102 ) und/oder des zweiten Fingerabdrucks (104 ) zu dem Server (600 ). - Synchronisationsanordnung (
300 ) zum Synchronisieren von zwei oder mehr Signalen, wobei diese Anordnung Folgendes umfasst: – Mittel (302 ) zum Erzeugen eines ersten Fingerabdruckstromes (105 ) auf Basis eines ersten Signals (101 ), – Mittel (302 ) zum Erzeugen eines zweiten Fingerabdruckstroms (106 ) auf Basis eines zweiten Signals (103 ), – Mittel (302 ) zum Vergleichen eines Segmentes des ersten Fingerabdruckstromes (105 ) mit einem oder mehreren ersten Fingerabdrücken (102 ), die in wenigstens einer Datenbank (203 ) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, und – Mittel (302 ) zum Vergleichen eines Segmentes des zweiten Fingerabdruckstromes (106 ) mit einem oder mehreren zweiten Fingerabdrücken (104 ), die in der wenigstens einen Datenbank (203 ) gespeichert sind, und zwar um zu ermitteln, ob es ggf. eine Übereinstimmung gibt, dadurch gekennzeichnet, dass die Anordnung weiterhin Folgendes umfasst: – Mittel (302 ) um, wenn es eine Übereinstimmung für einen ersten und einen zweiten Fingerabdruck (102 ;104 ) gibt, eine Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101 ) und eine Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signal (103 ) zu ermitteln und Mittel um das erste Signal (101 ) zu dem zweiten Signal (103 ) unter Verwendung der ermittelten Stellen zu synchronisieren, wobei das genannte erste Signale (101 ) ein Audiosignal ist, wobei das zweite Signal (103 ) ein Videosignal ist, wobei das genannte erste Signal (101 ) ein Audiosignal ist, das genannte zweite Signal (103 ) ein Videosignal ist und der genannte erste Fingerabdruck (102 ) ein Audiofingerabdruck ist und der genannte zweite Fingerabdruck (104 ) ein Videofingerabdruck ist. - Anordnung nach Anspruch 21, dadurch gekennzeichnet, dass die Mittel (
303 ) zum Synchronisieren dazu vorgesehen sind, entweder das erste Signal (101 ) oder das zweite Signal (103 ) um einen Betrag entsprechend der Differenz, falls überhaupt, zwischen der Stelle des Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101 ) und der Stelle des Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signals (103 ) zu verzögern. - Anordnung nach Anspruch 21-22, dadurch gekennzeichnet, dass die Stelle des ersten und/oder des zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das erste und/oder das zweite Signal (
101 ,103 ) durch eine unzweideutige Beziehung mit einem Segment eines ersten Signals (101 ) und/oder einem Segment eines zweiten Signals (103 ) gegeben wird, verwendet während der Erzeugung des übereinstimmenden ersten Fingerabdrucks (102 ) und der Erzeugung des übereinstimmenden zweiten Fingerabdrucks (104 ). - Anordnung nach Anspruch 21-23, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) derselbe ist.
- Anordnung nach den Ansprüchen 21-24, dadurch gekennzeichnet, dass der erste und der zweite Synchronisationszeitpunkt (Tn; Tn+1; Tm) verschieden sind und dass die Anordnung weiterhin Folgendes umfasst: – wenn es für einen ersten und einen zweiten Fingerabdruck (
102 ;104 ) eine Übereinstimmung gibt: – einen Empfänger (204 ) zum Erhalten einer ersten Darstellung einer Beziehung zwischen dem ersten Synchronisationszeitpunkt (Tn; Tn+1) und einem ersten Zeitpunkt einer Bezugszeit (107 ), – einen Empfänger (204 ) zum Erhalten einer zweiten Darstellung einer Beziehung zwischen dem zweiten Synchronisationszeitpunkt (Tn; Tn+1; Tm) und einem zweiten Zeitpunkt der genannten Bezugszeit (107 ), und – Synchronisationsmittel (303 ) zum Verwenden des ersten und zweiten Zeitpunktes der genannten Bezugszeit (107 ) zum Synchronisieren des ersten (101 ) und des zweiten Signals (103 ), – stattdessen, dass die Anordnung Folgendes umfasst: – Mittel (302 ) zur Ermittlung, wenn es eine Übereinstimmung gibt für einen ersten und einen zweiten Fingerabdruck (102 ;104 ), einer Stelle eines ersten Synchronisationszeitpunktes (Tn; Tn+1) für das erste Signal (101 ) und einer Stelle eines zweiten Synchronisationszeitpunktes (Tn; Tn+1; Tm) für das zweite Signals (103 ) und Synchronisation des ersten (101 ) und des zweiten (103 ) Signals unter Verwendung der ermittelten Stellen. - Anordnung nach Anspruch 25, dadurch gekennzeichnet, dass die Anordnung weiterhin Folgendes umfasst: – einen Empfänger (
204 ) zum Empfangen der ersten und/oder zweiten Darstellung in einer Synchronisationsanordnung (300 ) von einem Server (600 ) in Kommunikationsverbindung mit der Synchronisationsanordnung (300 ), und/oder – einen Empfänger (204 ) zum Empfangen des ersten Fingerabdrucks (102 ) und/oder des zweiten Fingerabdrucks (104 ) von dem Server (600 ). - Von einem Computer auslesbares Medium, worauf Instruktionen gespeichert sind um dafür zu sorgen, dass eine oder mehrere Verarbeitungseinheiten das Verfahren nach einem der Ansprüche 1-7 oder einem der Ansprüche 8-13 durchführt.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP03102301 | 2003-07-25 | ||
EP03102301 | 2003-07-25 | ||
PCT/IB2004/051259 WO2005011281A1 (en) | 2003-07-25 | 2004-07-20 | Method and device for generating and detecting fingerprints for synchronizing audio and video |
Publications (2)
Publication Number | Publication Date |
---|---|
DE602004008936D1 DE602004008936D1 (de) | 2007-10-25 |
DE602004008936T2 true DE602004008936T2 (de) | 2008-06-19 |
Family
ID=34089696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE602004008936T Expired - Lifetime DE602004008936T2 (de) | 2003-07-25 | 2004-07-20 | Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video |
Country Status (8)
Country | Link |
---|---|
US (4) | US7907211B2 (de) |
EP (1) | EP1652385B1 (de) |
JP (1) | JP2006528859A (de) |
KR (1) | KR20060037403A (de) |
CN (1) | CN100521781C (de) |
AT (1) | ATE373389T1 (de) |
DE (1) | DE602004008936T2 (de) |
WO (1) | WO2005011281A1 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9686596B2 (en) | 2008-11-26 | 2017-06-20 | Free Stream Media Corp. | Advertisement targeting through embedded scripts in supply-side and demand-side platforms |
US9703947B2 (en) | 2008-11-26 | 2017-07-11 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9716736B2 (en) | 2008-11-26 | 2017-07-25 | Free Stream Media Corp. | System and method of discovery and launch associated with a networked media device |
US9961388B2 (en) | 2008-11-26 | 2018-05-01 | David Harrison | Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements |
US9986279B2 (en) | 2008-11-26 | 2018-05-29 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US10334324B2 (en) | 2008-11-26 | 2019-06-25 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10419541B2 (en) | 2008-11-26 | 2019-09-17 | Free Stream Media Corp. | Remotely control devices over a network without authentication or registration |
US10567823B2 (en) | 2008-11-26 | 2020-02-18 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10631068B2 (en) | 2008-11-26 | 2020-04-21 | Free Stream Media Corp. | Content exposure attribution based on renderings of related content across multiple devices |
US10880340B2 (en) | 2008-11-26 | 2020-12-29 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US10977693B2 (en) | 2008-11-26 | 2021-04-13 | Free Stream Media Corp. | Association of content identifier of audio-visual data with additional data through capture infrastructure |
Families Citing this family (117)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6560349B1 (en) * | 1994-10-21 | 2003-05-06 | Digimarc Corporation | Audio monitoring using steganographic information |
US7224819B2 (en) | 1995-05-08 | 2007-05-29 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US6505160B1 (en) * | 1995-07-27 | 2003-01-07 | Digimarc Corporation | Connected audio and other media objects |
US6411725B1 (en) * | 1995-07-27 | 2002-06-25 | Digimarc Corporation | Watermark enabled video objects |
US7689532B1 (en) | 2000-07-20 | 2010-03-30 | Digimarc Corporation | Using embedded data with file sharing |
AU2003210625A1 (en) * | 2002-01-22 | 2003-09-02 | Digimarc Corporation | Digital watermarking and fingerprinting including symchronization, layering, version control, and compressed embedding |
ATE373389T1 (de) * | 2003-07-25 | 2007-09-15 | Koninkl Philips Electronics Nv | Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video |
US8554681B1 (en) * | 2003-11-03 | 2013-10-08 | James W. Wieder | Providing “identified” compositions and digital-works |
US8407752B2 (en) * | 2004-03-18 | 2013-03-26 | Digimarc Corporation | Synchronizing broadcast content with corresponding network content |
US8870639B2 (en) | 2004-06-28 | 2014-10-28 | Winview, Inc. | Methods and apparatus for distributed gaming over a mobile device |
US8376855B2 (en) | 2004-06-28 | 2013-02-19 | Winview, Inc. | Methods and apparatus for distributed gaming over a mobile device |
US10226698B1 (en) | 2004-07-14 | 2019-03-12 | Winview, Inc. | Game of skill played by remote participants utilizing wireless devices in connection with a common game event |
DE102005014477A1 (de) | 2005-03-30 | 2006-10-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und zum Erzeugen einer Multikanal-Darstellung |
EP1891626A1 (de) * | 2005-06-03 | 2008-02-27 | Koninklijke Philips Electronics N.V. | Homomorphe verschlüsselung für sichere wasserzeichen |
US10721543B2 (en) | 2005-06-20 | 2020-07-21 | Winview, Inc. | Method of and system for managing client resources and assets for activities on computing devices |
JP2008547122A (ja) | 2005-06-20 | 2008-12-25 | エアプレイ ネットワーク インコーポレイテッド | サービス提供方法、データ受信方法、データ提供システム、クライアント装置及びサーバ装置 |
DE102005045627A1 (de) | 2005-06-22 | 2007-01-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Durchführen einer Korrelation zwischen einem Testtonsignal, das mit variabler Geschwindigkeit abspielbar ist, und einem Referenztonsignal |
DE102005045628B3 (de) * | 2005-06-22 | 2007-01-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Ermitteln einer Stelle in einem Film, der in einer zeitlichen Folge aufgebrachte Filminformationen aufweist |
EP1894380A1 (de) * | 2005-06-23 | 2008-03-05 | Telefonaktiebolaget LM Ericsson (publ) | Verfahren zum synchronisieren der präsentation von media-strömen in einem mobilkommunikationssystem und endgerät zum übertragen von media-strömen |
US7764713B2 (en) | 2005-09-28 | 2010-07-27 | Avaya Inc. | Synchronization watermarking in multimedia streams |
JP2007097076A (ja) * | 2005-09-30 | 2007-04-12 | Fujifilm Corp | 撮影日時修正装置、撮影日時修正方法及びプログラム |
US8705195B2 (en) | 2006-04-12 | 2014-04-22 | Winview, Inc. | Synchronized gaming and programming |
US9511287B2 (en) | 2005-10-03 | 2016-12-06 | Winview, Inc. | Cellular phone games based upon television archives |
US8149530B1 (en) | 2006-04-12 | 2012-04-03 | Winview, Inc. | Methodology for equalizing systemic latencies in television reception in connection with games of skill played in connection with live television programming |
US9919210B2 (en) | 2005-10-03 | 2018-03-20 | Winview, Inc. | Synchronized gaming and programming |
WO2007049451A1 (ja) * | 2005-10-27 | 2007-05-03 | National University Corporation Chiba University | 映像と音声のずれ時間を、高精度かつ簡便に計測する方法および計測装置 |
CN101346741A (zh) * | 2005-12-22 | 2009-01-14 | 皇家飞利浦电子股份有限公司 | 通过嵌入水印实现脚本同步 |
US10556183B2 (en) | 2006-01-10 | 2020-02-11 | Winview, Inc. | Method of and system for conducting multiple contest of skill with a single performance |
US9056251B2 (en) | 2006-01-10 | 2015-06-16 | Winview, Inc. | Method of and system for conducting multiple contests of skill with a single performance |
US8002618B1 (en) | 2006-01-10 | 2011-08-23 | Winview, Inc. | Method of and system for conducting multiple contests of skill with a single performance |
US20080086311A1 (en) * | 2006-04-11 | 2008-04-10 | Conwell William Y | Speech Recognition, and Related Systems |
US11082746B2 (en) | 2006-04-12 | 2021-08-03 | Winview, Inc. | Synchronized gaming and programming |
RU2009100847A (ru) * | 2006-06-13 | 2010-07-20 | Конинклейке Филипс Электроникс Н.В. (Nl) | Идентификационная метка, устройство, способ для идентификации и синхронизации видеоданных |
US7661121B2 (en) | 2006-06-22 | 2010-02-09 | Tivo, Inc. | In-band data recognition and synchronization system |
DE102006036562B4 (de) * | 2006-08-04 | 2014-04-10 | Hewlett-Packard Development Co., L.P. | Verfahren und System zum Übertragen aufeinander bezogener Datenströme oder/und zum Synchronisieren aufeinander bezogener Datenströme |
US8300877B2 (en) * | 2007-02-20 | 2012-10-30 | Sony Mobile Communications Ab | Copy protected information distribution |
US20080260350A1 (en) * | 2007-04-18 | 2008-10-23 | Cooper J Carl | Audio Video Synchronization Stimulus and Measurement |
US8266142B2 (en) * | 2007-06-06 | 2012-09-11 | Dolby Laboratories Licensing Corporation | Audio/Video fingerprint search accuracy using multiple search combining |
CN101409614B (zh) | 2007-10-12 | 2011-04-13 | 华为技术有限公司 | 一种数据同步方法、系统和设备 |
US8813112B1 (en) | 2007-10-23 | 2014-08-19 | Winview, Inc. | Method of and apparatus for utilizing SMS while running an application on a mobile device controlling a viewer's participation with a broadcast |
DE102008009024A1 (de) * | 2008-02-14 | 2009-08-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum synchronisieren von Mehrkanalerweiterungsdaten mit einem Audiosignal und zum Verarbeiten des Audiosignals |
EP2274912B1 (de) * | 2008-04-14 | 2012-08-29 | NDS Limited | System und verfahren zum einbetten von daten in video |
US9510044B1 (en) * | 2008-06-18 | 2016-11-29 | Gracenote, Inc. | TV content segmentation, categorization and identification and time-aligned applications |
US8259177B2 (en) * | 2008-06-30 | 2012-09-04 | Cisco Technology, Inc. | Video fingerprint systems and methods |
US8347408B2 (en) * | 2008-06-30 | 2013-01-01 | Cisco Technology, Inc. | Matching of unknown video content to protected video content |
US20090327334A1 (en) * | 2008-06-30 | 2009-12-31 | Rodriguez Arturo A | Generating Measures of Video Sequences to Detect Unauthorized Use |
US8400566B2 (en) * | 2008-08-21 | 2013-03-19 | Dolby Laboratories Licensing Corporation | Feature optimization and reliability for audio and video signature generation and detection |
US9716918B1 (en) | 2008-11-10 | 2017-07-25 | Winview, Inc. | Interactive advertising system |
EP2356817B1 (de) * | 2008-12-08 | 2017-04-12 | Telefonaktiebolaget LM Ericsson (publ) | Einrichtung und verfahren zum synchronisieren von empfangenen audiodaten mit videodaten |
CN101763848B (zh) * | 2008-12-23 | 2013-06-12 | 王宏宇 | 一种用于音频内容识别的同步方法 |
US8934545B2 (en) * | 2009-02-13 | 2015-01-13 | Yahoo! Inc. | Extraction of video fingerprints and identification of multimedia using video fingerprinting |
GB2470201A (en) * | 2009-05-12 | 2010-11-17 | Nokia Corp | Synchronising audio and image data |
CN101594527B (zh) * | 2009-06-30 | 2011-01-05 | 成都艾索语音技术有限公司 | 从音频视频流中高精度检测模板的两阶段方法 |
US9615140B1 (en) | 2010-05-27 | 2017-04-04 | Edward Malinowski | Method and device for delivery of subtitle synchronized with a media stream |
US8384827B2 (en) | 2010-06-02 | 2013-02-26 | Disney Enterprises, Inc. | System and method for in-band A/V timing measurement of serial digital video signals |
US8531603B2 (en) * | 2010-06-02 | 2013-09-10 | Disney Enterprises, Inc. | System and method for in-band A/V timing measurement of serial digital video signals |
US8300147B2 (en) * | 2010-06-02 | 2012-10-30 | Disney Enterprises, Inc. | System and method for in-band A/V timing measurement of serial digital video signals |
JP5813767B2 (ja) * | 2010-07-21 | 2015-11-17 | ディー−ボックス テクノロジーズ インコーポレイテッド | メディア認識及びモーション信号への同期 |
US10515523B2 (en) | 2010-07-21 | 2019-12-24 | D-Box Technologies Inc. | Media recognition and synchronization to a motion signal |
US8965026B2 (en) * | 2011-06-10 | 2015-02-24 | Canopy Co. | Method and apparatus for remote capture of audio in a handheld device |
US8928809B2 (en) * | 2010-09-15 | 2015-01-06 | Verizon Patent And Licensing Inc. | Synchronizing videos |
US8736700B2 (en) * | 2010-09-30 | 2014-05-27 | Apple Inc. | Techniques for synchronizing audio and video data in an image signal processing system |
US20120134529A1 (en) * | 2010-11-28 | 2012-05-31 | Pedro Javier Vazquez | Method and apparatus for applying of a watermark to a video during download |
US9075806B2 (en) | 2011-02-22 | 2015-07-07 | Dolby Laboratories Licensing Corporation | Alignment and re-association of metadata for media streams within a computing device |
US9967600B2 (en) * | 2011-05-26 | 2018-05-08 | Nbcuniversal Media, Llc | Multi-channel digital content watermark system and method |
US8717499B2 (en) * | 2011-09-02 | 2014-05-06 | Dialogic Corporation | Audio video offset detector |
US8586847B2 (en) * | 2011-12-02 | 2013-11-19 | The Echo Nest Corporation | Musical fingerprinting based on onset intervals |
US8625027B2 (en) | 2011-12-27 | 2014-01-07 | Home Box Office, Inc. | System and method for verification of media content synchronization |
US9292894B2 (en) | 2012-03-14 | 2016-03-22 | Digimarc Corporation | Content recognition and synchronization using local caching |
US9553756B2 (en) * | 2012-06-01 | 2017-01-24 | Koninklijke Kpn N.V. | Fingerprint-based inter-destination media synchronization |
WO2014004914A1 (en) * | 2012-06-28 | 2014-01-03 | Google Inc. | Generating a sequence of audio fingerprints at a set top box |
US20140074466A1 (en) * | 2012-09-10 | 2014-03-13 | Google Inc. | Answering questions using environmental context |
US9661361B2 (en) | 2012-09-19 | 2017-05-23 | Google Inc. | Systems and methods for live media content matching |
US9460204B2 (en) | 2012-10-19 | 2016-10-04 | Sony Corporation | Apparatus and method for scene change detection-based trigger for audio fingerprinting analysis |
EP2932503A4 (de) * | 2012-12-13 | 2016-08-10 | Nokia Technologies Oy | Vorrichtung zur ausrichtung von audiosignalen in einer gemeinsamen audioszene |
CN103051921B (zh) * | 2013-01-05 | 2014-12-24 | 北京中科大洋科技发展股份有限公司 | 一种精确检测视音频处理系统视频、音频同步误差的方法 |
JP6360281B2 (ja) * | 2013-01-07 | 2018-07-18 | 日本放送協会 | 同期情報生成装置およびそのプログラム、同期データ再生装置およびそのプログラム |
US8699862B1 (en) * | 2013-02-06 | 2014-04-15 | Google Inc. | Synchronized content playback related to content recognition |
US9161074B2 (en) | 2013-04-30 | 2015-10-13 | Ensequence, Inc. | Methods and systems for distributing interactive content |
KR101463864B1 (ko) * | 2013-08-07 | 2014-11-21 | (주)엔써즈 | 직접 반응 광고 검출 및 분류 시스템 및 방법 |
EP3047653B1 (de) * | 2013-09-20 | 2020-05-06 | Koninklijke KPN N.V. | Korrelierende zeitleisteninformationen zwischen medienströmen |
EP3651469A1 (de) * | 2013-09-20 | 2020-05-13 | Koninklijke KPN N.V. | Korrelierende zeitleisteninformationen zwischen medienströmen |
US9426336B2 (en) * | 2013-10-02 | 2016-08-23 | Fansmit, LLC | System and method for tying audio and video watermarks of live and recorded events for simulcasting alternative audio commentary to an audio channel or second screen |
EP2876890A1 (de) * | 2013-11-21 | 2015-05-27 | Thomson Licensing | Verfahren und Vorrichtung zur bildrahmengenauen Synchronisation von Video-Streams |
GB2522260A (en) * | 2014-01-20 | 2015-07-22 | British Broadcasting Corp | Method and apparatus for determining synchronisation of audio signals |
JP6429291B2 (ja) * | 2014-06-30 | 2018-11-28 | Necディスプレイソリューションズ株式会社 | 表示装置、表示方法、及び表示プログラム |
US9905233B1 (en) | 2014-08-07 | 2018-02-27 | Digimarc Corporation | Methods and apparatus for facilitating ambient content recognition using digital watermarks, and related arrangements |
US10341342B2 (en) * | 2015-02-05 | 2019-07-02 | Carrier Corporation | Configuration data based fingerprinting for access to a resource |
DE102015001622A1 (de) | 2015-02-09 | 2016-08-11 | Unify Gmbh & Co. Kg | Verfahren zur Übertragung von Daten in einem Multimedia-System, sowie Softwareprodukt und Vorrichtung zur Steuerung der Übertragung von Daten in einem Multimedia-System |
CN104980820B (zh) * | 2015-06-17 | 2018-09-18 | 小米科技有限责任公司 | 多媒体文件播放方法及装置 |
WO2017015759A1 (en) * | 2015-07-30 | 2017-02-02 | Amp Me Inc. | Synchronized playback of streamed audio content by multiple internet-capable portable devices |
TWI625059B (zh) * | 2015-08-17 | 2018-05-21 | 新加坡商雲網科技新加坡有限公司 | 終端設備、及音訊視訊同步檢測方法 |
GB2545181A (en) | 2015-12-07 | 2017-06-14 | Fujitsu Ltd | Synchronisation device, method, program and system |
KR20170067546A (ko) * | 2015-12-08 | 2017-06-16 | 한국전자통신연구원 | 오디오 신호 및 비디오 신호의 동기화 시스템 및 그 방법 |
US9596502B1 (en) | 2015-12-21 | 2017-03-14 | Max Abecassis | Integration of multiple synchronization methodologies |
US9516373B1 (en) | 2015-12-21 | 2016-12-06 | Max Abecassis | Presets of synchronized second screen functions |
WO2017143440A1 (en) | 2016-02-25 | 2017-08-31 | Amp Me Inc. | Synchronizing playback of digital media content |
US10149022B2 (en) * | 2016-03-09 | 2018-12-04 | Silveredge Technologies Pvt. Ltd. | Method and system of auto-tagging brands of television advertisements |
US9813659B1 (en) * | 2016-05-11 | 2017-11-07 | Drone Racing League, Inc. | Diversity receiver |
US10015612B2 (en) | 2016-05-25 | 2018-07-03 | Dolby Laboratories Licensing Corporation | Measurement, verification and correction of time alignment of multiple audio channels and associated metadata |
US11551529B2 (en) | 2016-07-20 | 2023-01-10 | Winview, Inc. | Method of generating separate contests of skill or chance from two independent events |
US10462512B2 (en) | 2017-03-31 | 2019-10-29 | Gracenote, Inc. | Music service with motion video |
US11134279B1 (en) * | 2017-07-27 | 2021-09-28 | Amazon Technologies, Inc. | Validation of media using fingerprinting |
US10158907B1 (en) | 2017-10-10 | 2018-12-18 | Shazam Investments Ltd. | Systems and methods for performing playout of multiple media recordings based on a matching segment among the recordings |
US10733998B2 (en) | 2017-10-25 | 2020-08-04 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to identify sources of network streaming services |
US10726852B2 (en) | 2018-02-19 | 2020-07-28 | The Nielsen Company (Us), Llc | Methods and apparatus to perform windowed sliding transforms |
US11049507B2 (en) | 2017-10-25 | 2021-06-29 | Gracenote, Inc. | Methods, apparatus, and articles of manufacture to identify sources of network streaming services |
US10629213B2 (en) | 2017-10-25 | 2020-04-21 | The Nielsen Company (Us), Llc | Methods and apparatus to perform windowed sliding transforms |
KR102037220B1 (ko) | 2017-11-06 | 2019-10-29 | 주식회사 아이티밥 | 오디오 핑거프린트 매칭 시스템 |
KR102037221B1 (ko) | 2017-11-06 | 2019-10-29 | 주식회사 아이티밥 | 오디오 핑거프린트 매칭 방법 |
US11570506B2 (en) * | 2017-12-22 | 2023-01-31 | Nativewaves Gmbh | Method for synchronizing an additional signal to a primary signal |
TW201931863A (zh) * | 2018-01-12 | 2019-08-01 | 圓剛科技股份有限公司 | 多媒體訊號的同步設備及其同步方法 |
US11308765B2 (en) | 2018-10-08 | 2022-04-19 | Winview, Inc. | Method and systems for reducing risk in setting odds for single fixed in-play propositions utilizing real time input |
US11234050B2 (en) | 2019-06-18 | 2022-01-25 | Roku, Inc. | Use of steganographically-encoded data as basis to control dynamic content modification as to at least one modifiable-content segment identified based on fingerprint analysis |
CN115299067A (zh) | 2020-04-02 | 2022-11-04 | 谷歌有限责任公司 | 用于同步视频流的方法、系统和介质 |
KR102439201B1 (ko) * | 2020-09-14 | 2022-09-01 | 네이버 주식회사 | 멀티미디어 콘텐츠와 음원을 동기화하기 위한 전자 장치 및 그의 동작 방법 |
CN115174960B (zh) * | 2022-06-21 | 2023-08-15 | 咪咕文化科技有限公司 | 音视频同步方法、装置、计算设备及存储介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5019899A (en) * | 1988-11-01 | 1991-05-28 | Control Data Corporation | Electronic data encoding and recognition system |
US6611607B1 (en) | 1993-11-18 | 2003-08-26 | Digimarc Corporation | Integrating digital watermarks in multimedia content |
US6324694B1 (en) * | 1996-09-06 | 2001-11-27 | Intel Corporation | Method and apparatus for providing subsidiary data synchronous to primary content data |
US20020120925A1 (en) * | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US7756892B2 (en) * | 2000-05-02 | 2010-07-13 | Digimarc Corporation | Using embedded data with file sharing |
US6737957B1 (en) | 2000-02-16 | 2004-05-18 | Verance Corporation | Remote control signaling using audio watermarks |
US6642966B1 (en) * | 2000-11-06 | 2003-11-04 | Tektronix, Inc. | Subliminally embedded keys in video for synchronization |
WO2002051063A1 (en) * | 2000-12-21 | 2002-06-27 | Digimarc Corporation | Methods, apparatus and programs for generating and utilizing content signatures |
US7461002B2 (en) * | 2001-04-13 | 2008-12-02 | Dolby Laboratories Licensing Corporation | Method for time aligning audio signals using characterizations based on auditory events |
US20030014755A1 (en) * | 2001-07-13 | 2003-01-16 | Williams Marvin Lynn | Method and system for processing correlated audio-video segments with digital signatures within a broadcast system |
US7477739B2 (en) * | 2002-02-05 | 2009-01-13 | Gracenote, Inc. | Efficient storage of fingerprints |
DE60323086D1 (de) * | 2002-04-25 | 2008-10-02 | Landmark Digital Services Llc | Robuster und invarianter audiomustervergleich |
US7519819B2 (en) * | 2002-05-29 | 2009-04-14 | Digimarc Corporatino | Layered security in digital watermarking |
US7461392B2 (en) * | 2002-07-01 | 2008-12-02 | Microsoft Corporation | System and method for identifying and segmenting repeating media objects embedded in a stream |
US20060129822A1 (en) * | 2002-08-26 | 2006-06-15 | Koninklijke Philips Electronics, N.V. | Method of content identification, device, and software |
EP1593272B1 (de) * | 2003-02-14 | 2017-08-30 | Thomson Licensing DTV | Automatische synchronisation audio- und videobasierter mediendienste eines medieninhalts |
US7359006B1 (en) * | 2003-05-20 | 2008-04-15 | Micronas Usa, Inc. | Audio module supporting audio signature |
US20040240562A1 (en) * | 2003-05-28 | 2004-12-02 | Microsoft Corporation | Process and system for identifying a position in video using content-based video timelines |
ATE373389T1 (de) | 2003-07-25 | 2007-09-15 | Koninkl Philips Electronics Nv | Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video |
-
2004
- 2004-07-20 AT AT04744615T patent/ATE373389T1/de not_active IP Right Cessation
- 2004-07-20 KR KR1020067001752A patent/KR20060037403A/ko not_active Application Discontinuation
- 2004-07-20 US US10/566,003 patent/US7907211B2/en active Active
- 2004-07-20 JP JP2006520970A patent/JP2006528859A/ja active Pending
- 2004-07-20 DE DE602004008936T patent/DE602004008936T2/de not_active Expired - Lifetime
- 2004-07-20 EP EP04744615A patent/EP1652385B1/de not_active Expired - Lifetime
- 2004-07-20 CN CNB2004800214039A patent/CN100521781C/zh not_active Expired - Fee Related
- 2004-07-20 WO PCT/IB2004/051259 patent/WO2005011281A1/en active IP Right Grant
-
2011
- 2011-02-09 US US13/024,069 patent/US8358376B2/en not_active Expired - Lifetime
-
2013
- 2013-01-11 US US13/739,349 patent/US8817183B2/en not_active Expired - Lifetime
-
2014
- 2014-07-16 US US14/333,190 patent/US20150003799A1/en not_active Abandoned
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9686596B2 (en) | 2008-11-26 | 2017-06-20 | Free Stream Media Corp. | Advertisement targeting through embedded scripts in supply-side and demand-side platforms |
US9706265B2 (en) | 2008-11-26 | 2017-07-11 | Free Stream Media Corp. | Automatic communications between networked devices such as televisions and mobile devices |
US9703947B2 (en) | 2008-11-26 | 2017-07-11 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9716736B2 (en) | 2008-11-26 | 2017-07-25 | Free Stream Media Corp. | System and method of discovery and launch associated with a networked media device |
US9838758B2 (en) | 2008-11-26 | 2017-12-05 | David Harrison | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9848250B2 (en) | 2008-11-26 | 2017-12-19 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9854330B2 (en) | 2008-11-26 | 2017-12-26 | David Harrison | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9866925B2 (en) | 2008-11-26 | 2018-01-09 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US9961388B2 (en) | 2008-11-26 | 2018-05-01 | David Harrison | Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements |
US9967295B2 (en) | 2008-11-26 | 2018-05-08 | David Harrison | Automated discovery and launch of an application on a network enabled device |
US9986279B2 (en) | 2008-11-26 | 2018-05-29 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US10032191B2 (en) | 2008-11-26 | 2018-07-24 | Free Stream Media Corp. | Advertisement targeting through embedded scripts in supply-side and demand-side platforms |
US10074108B2 (en) | 2008-11-26 | 2018-09-11 | Free Stream Media Corp. | Annotation of metadata through capture infrastructure |
US10142377B2 (en) | 2008-11-26 | 2018-11-27 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US10334324B2 (en) | 2008-11-26 | 2019-06-25 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10419541B2 (en) | 2008-11-26 | 2019-09-17 | Free Stream Media Corp. | Remotely control devices over a network without authentication or registration |
US10425675B2 (en) | 2008-11-26 | 2019-09-24 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US10567823B2 (en) | 2008-11-26 | 2020-02-18 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10631068B2 (en) | 2008-11-26 | 2020-04-21 | Free Stream Media Corp. | Content exposure attribution based on renderings of related content across multiple devices |
US10771525B2 (en) | 2008-11-26 | 2020-09-08 | Free Stream Media Corp. | System and method of discovery and launch associated with a networked media device |
US10791152B2 (en) | 2008-11-26 | 2020-09-29 | Free Stream Media Corp. | Automatic communications between networked devices such as televisions and mobile devices |
US10880340B2 (en) | 2008-11-26 | 2020-12-29 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US10977693B2 (en) | 2008-11-26 | 2021-04-13 | Free Stream Media Corp. | Association of content identifier of audio-visual data with additional data through capture infrastructure |
US10986141B2 (en) | 2008-11-26 | 2021-04-20 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
Also Published As
Publication number | Publication date |
---|---|
US20080062315A1 (en) | 2008-03-13 |
US20150003799A1 (en) | 2015-01-01 |
CN1830211A (zh) | 2006-09-06 |
US7907211B2 (en) | 2011-03-15 |
CN100521781C (zh) | 2009-07-29 |
US8358376B2 (en) | 2013-01-22 |
JP2006528859A (ja) | 2006-12-21 |
EP1652385B1 (de) | 2007-09-12 |
DE602004008936D1 (de) | 2007-10-25 |
KR20060037403A (ko) | 2006-05-03 |
US8817183B2 (en) | 2014-08-26 |
ATE373389T1 (de) | 2007-09-15 |
EP1652385A1 (de) | 2006-05-03 |
US20130128115A1 (en) | 2013-05-23 |
WO2005011281A1 (en) | 2005-02-03 |
US20110128444A1 (en) | 2011-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE602004008936T2 (de) | Verfahren und einrichtung zur erzeugung und erkennung von fingerabdrücken zur synchronisierung von audio und video | |
DE60210611T2 (de) | Effizientes übertragen und abspielen digitaler information | |
DE69426711T2 (de) | Vorrichtung und Verfahren zum Komprimieren von Videosignalen, und Synchronisiereinrichtung | |
DE69434075T2 (de) | Synchronisierungseinrichtung für ein komprimiertes Videosignal | |
DE60133481T2 (de) | Informationsverarbeitungsgerät, elektronische Vorrichtung, Informationsverarbeitungsverfahren und Medium | |
EP1968066A1 (de) | Medienerzeugungssystem | |
DE112015005408T5 (de) | Systeme und Verfahren zum Identifizieren von Benutzern, die eine Fernsehwerbung angesehen haben | |
DE112013003718T5 (de) | Verfahren und Vorrichtung zum Verarbeiten digitaler Dienstsignale | |
DE112005000541T5 (de) | Gerät und Verfahren zum Programmieren der Aufzeichnung von Rundsendeprogrammen | |
DE69902194T2 (de) | Uebertragungssystem, Uebertragungseinrichtung, Aufzeichnungs- und Wiedergabegerät | |
WO2021050376A1 (en) | Use of in-band metadata as basis to access reference fingerprints to facilitate content-related action | |
DE10005651B4 (de) | Verfahren und Vorrichtung zum Suchen von aufgezeichneten digitalen Datenströmen | |
EP1295481B1 (de) | Verfahren und vorrichtung zur zeitsynchronen weiterleitung von signalen | |
DE3510185C2 (de) | Trägersynchronisiersystem und dazu geeignete Basisstation | |
DE112011101955B4 (de) | Videoanzeigevorrichtung | |
EP1516495B1 (de) | Verfahren zur generierung eines systemtaktes einer empfangseinrichtung und empfangseinrichtung hierzu | |
DE102007030131B3 (de) | Verfahren, Vorrichtung und Computerprogrammprodukt zum synchronisierten Bereitstellen von relevanten Informationen in einer interaktiven Portalanwendung | |
EP3729817A1 (de) | Verfahren zum synchronisieren von einem zusatzsignal zu einem hauptsignal | |
EP1804405B1 (de) | Verfahren zur Synchronisation von medialen Datenströmen | |
DE60223392T2 (de) | Verarbeitung eines rundfunksignals | |
AT520998B1 (de) | Verfahren zum Synchronisieren von einem Zusatzsignal zu einem Hauptsignal | |
DE19546327A1 (de) | Verfahren zur transparenten Aufzeichnung und Wiedergabe von zeitkritischen digitalen Datenströmen | |
DE102017131266A1 (de) | Verfahren zum Einspielen von Zusatzinformationen zu einer Liveübertragung | |
DE102005045573B3 (de) | Vorrichtung und Verfahren zum Ermitteln einer Stelle in einem Film | |
DE19904956C2 (de) | Verfahren und Vorrichtung zur optimalen Einstellung des Abtastzeitpunktes bei digitaler Zusatzdatenübertragung in analogen TV-Kanälen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: GRACENOTE, INC., EMERYVILLE, CALIF., US |