DE60303948T2 - Synchronisationssystem und verfahren für audiovisuelle programme - Google Patents

Synchronisationssystem und verfahren für audiovisuelle programme Download PDF

Info

Publication number
DE60303948T2
DE60303948T2 DE60303948T DE60303948T DE60303948T2 DE 60303948 T2 DE60303948 T2 DE 60303948T2 DE 60303948 T DE60303948 T DE 60303948T DE 60303948 T DE60303948 T DE 60303948T DE 60303948 T2 DE60303948 T2 DE 60303948T2
Authority
DE
Germany
Prior art keywords
audiovisual program
module
detection
recognition
audiovisual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60303948T
Other languages
English (en)
Other versions
DE60303948D1 (de
Inventor
Laurent Lesenne
Frederic Pasquier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Application granted granted Critical
Publication of DE60303948D1 publication Critical patent/DE60303948D1/de
Publication of DE60303948T2 publication Critical patent/DE60303948T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/18Arrangements for synchronising broadcast or distribution via plural systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/16Arrangements for broadcast or for distribution of identical information repeatedly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/38Arrangements for distribution where lower stations, e.g. receivers, interact with the broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Synchronizing For Television (AREA)

Description

  • Die vorliegende Erfindung bezeiht sich auf ein Synchronisationssystem und -verfahren für audiovisuelle Programme sowie auf zugeordnete Vorrichtungen und Verfahren. Sie bezieht sich insbesondere auf Einheiten und Verfahren zur Erkennung und Spezifikation von Synchronisationssignalen.
  • Das interaktive Fernsehen ermöglicht es einem Fernsehzuschauer, auf den Ablauf der von ihm verfolgten Sendungen einwirken. Er kann demnach mit interaktiven Diensten interagieren. Hierzu sind interaktive Endgeräte für das breite Publikum mit einem doppelten Kommunikationsnetz verbunden:
    • – ein bidirektionales Netz (Modem-Rückstrecke, Kabel, ...) des Typs Point-to-Point wie insbesondere ein Telefonnetz mit Einsatz eines oder mehrerer Punkt-zu-Punkt-Server und
    • – ein unidirektionales Verteilungsnetz wie insbesondere ein Kabel- oder Satellitenfernseh-Rundfunknetz mit Einsatz eines oder mehrerer Broadcastserver; unter "Broadcasting" ist die Übertragung von identischen Daten zu einer Gesamtheit von Empfangsstellen, ob diese insbesondere per Rundfunk, per Kabel oder über das Internet erfolgt.
  • Die betrachteten Endgeräte sind beispielsweise durch Fernsehempfänger, DVB-Decoder (DVB: Digital Video Broadcasting) oder Internet-Decoder gebildet. Die interaktiven Dienste werden in der Regel in den Endgeräten per Broadcasting über das unidirektionale Netz heruntergeladen. In anderen Fällen werden sie von Servern gehostet, die über das Telefonnetz zugänglich sind. Diese Dienste sind dann über Referenzen oder Web-Adressen (welche auch URL für "Universal Resource Locator" oder Universaladressen genannt werden) zugänglich, welche ergänzend zu einem audiovisuellen Programm gebroadcastet werden. Sie bestimmen den Server, an den sich die Endgeräte wenden müssen, sowie den auf diesem Server zu beanspruchenden Dienst. Die entweder mit den Diensten oder mit den URL der Dienste synchron gesendeten audiovisuellen Programme werden dann als "erweiterte Programme" bezeichnet.
  • Die bekannten Techniken des interaktiven Fernsehens stützen sich in der Praxis auf die folgenden Vorgänge. Mittels eines Broadcasters wird ein aus einem Services Operator stammender interaktiver Dienst synchron zu einem audiovisuellen Programm (unidirektionales Netz) gebroadcastet. Hierzu werden diesen Dienst betreffende Daten mit audiovisuellen Signalen eingebettet, die diesem Programm eigen sind. Wenn ein interaktives Endgerät das derart erhaltene erweiterte Programm empfängt, broadcastet es das audiovisuelle Programm auf den Bildschirm (Bild und Ton) und legt die Daten des interaktiven Dienstes aus. Es stellt dann diesen auf dem Bildschirm synchron zu dem audiovisuellen Programm typischerweise in Form einer Überblendung einer grafischen oder Textanzeige auf das Video dar.
  • Ein Fernsehzuschauer kann anschließend mit dem interaktiven Dienst interagieren, wobei diese Interaktion zu der Herstellung einer Verbindung mit einem Server des Services Operators (bidirektionales Netz) führen kann.
  • Einer der wesentlichen Aspekte des interaktiven Fernsehens betrifft die Einrichtung und das Management der Synchronisation zwischen den Programmen und den Daten von interaktiven Diensten. Im Allgemeinen ist insbesondere vorgesehen, den interaktiven Inhalt oder seine URL während der Dauer des zugeordneten audiovisuellen Programms zyklisch zu senden (Karussell). Für die Synchronisation werden üblicherweise zwei Einrichtungen des Broadcasters verwendet:
    • – ein Verkehrssystem, das eine Playlist mit Zeitangaben (Anfangszeit, Endzeit), Objektangaben (zu treibende Vorrichtung) und Vorgangsangaben (auszuführender Befehl) erzeugt und
    • – ein Automationssystem, das die Playlist zum Treiben und Steuern der Sendeeinrichtungen des Broadcasters (Videoserver, Videorecorder, Untertitelungsgeräte) managt.
  • Durch das Verkehrssystem können Änderungen der Playlist bei signifikanten Änderungen in der zeitlichen Organisation der Programme vorgenommen werden. Das Automationssystem ist seinerseits in der Lage, die Liste bei geringfügigen Änderungen letzter Minute neu anzupassen und die Liste auf das Verkehrssystem neu zu richten, wenn wesentlichere Änderungen erforderlich sind.
  • Die Synchronisation der interaktiven Dienste und der Programme wird dadurch erzielt, dass ein Broadcastserver (der als Server von interaktiven Anwendungen dient) in die von dem Automationssystem zu steuernden Vorrichtungen eingebunden wird. Es wird angenommen, dass der Services Operator ständig mit dem Broadcastserver des Broadcasters verbunden ist, um von dem effektiven Broadcasten der programmierten Inhalte informiert zu werden. Es handelt sich um eine Verbindung des Typs TCP-IP (Transmission Control Protocol/Internetwork Protocol) o.a., auf der eine Schicht einer besonderen Anwendung ausgebreitet werden kann. Diese Verbindung dient dazu, zum einen den Broadcastserver von bei dem Services Operator vorhandenen Verwaltungsanwendungen aus zu programmieren und zum anderen den Services Operator insbesondere über den Zustand des Broadcastservers, den Fortschritt bei den Sendungen von Inhalten und über allfällige Zwischenfälle zu informieren.
  • Es werden somit Desynchronisationsprobleme zwischen dem Broadcasten von Programmen und dem Broadcasten von zugeordneten interaktiven Inhalten vermieden. Wenn ein audiovisuelles Programm verzögert oder vorgezogen wird, wird nämlich die Playlist von dem Broadcaster aktualisiert. Die verwendeten Vorrichtungen – einschließlich des Broadcastservers – werden somit zu den geeigneten Zeitpunkten ausgelöst.
  • Eine solche Technik erfordert jedoch das Eingreifen des Broadcasters, welcher seine Playlists ändern muss, um die Ereignisse im Zusammenhang mit dem Broadcasten von interaktiven Diensten zu berücksichtigen. Ferner erfordert sie eine Absprache zwischen dem Broadcaster und dem Services Operator, damit diese sich bezüglich der Befehle betreffend das Broadcasten derartiger Dienste absprechen.
  • Es wurden ebenfalls diverse Methoden vorgeschlagen, bei denen Synchronisationssignale in das audiovisuelle Programm selbst eingefügt werden. So wird in der WO-01/50764 ein informatisches Verfahren für den Betrieb einer interaktiven digitalen Fernsehsendung beschrieben, bei dem Dienstsignale detektiert werden, die "Synchronisierimpuls"-Sequenzen entsprechen, welche die Entladung einer Multimedia-Anwendung bewirken. In dem US-Patent US-5.818.440 wird eine interaktive Anwendung in einem interaktiven Fernsehnetz heruntergeladen, und diese Anwendung wird bei der Detektion eines in das Videoprogramm eingebetteten Anwendungstokens gestartet.
  • Solche Realisierungen erfordern ebenfalls den Eingriff eines Broadcasters oder Diensteanbieters, um den Strom von geeigneten Synchronisationssignalen einzufügen, und haben daher einen intrusiven Charakter.
  • Diese Schwierigkeiten werden durch die in der WO-01/91462 offenbarte Erfindung gelöst. In diesem früheren Dokument ist eine Vorrichtung zur Synchronisation von gebroadcasteten audiovisuellen Programmen und ergänzenden Informationen beschrieben. Die Vorrichtung umfasst eine Anordnung zur Detektion von Bildern und/oder Tönen, welche in der Lage ist, mindestens ein semantisches Element aus dem Inhalt eines gerade gesendeten audiovisuellen Programm auszulesen. Sie umfasst ebenfalls eine Einheit zur Erkennung dieser semantischen Elemente, welche mit einem Programmnavigator verbunden ist, der eine chronologisch geordnete Liste von den audiovisuellen Programmen zugeordneten Informationsmengen enthält. Die durch ein vorangegangenes Training vorbereitete Erkennungseinheit wählt die Informationsmenge aus, die am wahrscheinlichsten mit diesen semantischen Elementen korreliert ist. Ein Syntheseblock synchronisiert dann die audiovisuellen Programme und die ausgewählten Informationsmengen.
  • Diese Erfindung erfordert jedoch aufwändige Mittel und den Bezug auf einen Programmnavigator.
  • In der Patentanmeldung WO-02/21840 ist eine Methode zur Synchronisation eines Clients und eines Mediensignals vorgeschlagen. Gemäß einer Ausführungsform dieser Methode werden eine oder mehrere Aktionen empfangen, die einem audiovisuellen Signal (dem Mediensignal) entsprechen, es wird eine Anwendung bestimmt, um die Aktionen durchzuführen (beispielsweise durch Syntaxanalyse oder Parsing von Aktionsinformation) und ein Start dieser Aktionen wird durch diese Anwendung ausgelöst. In den beschriebenen Beispielen definiert ein Operator Aktionen, die er zu einem Server sendet, der diese wiederum per Broadcasting über das Internet an Clients überträgt. Entweder die gesendeten Aktionen müssen gleich bei Empfang ausgeführt werden oder sie sind von Zeitinformationen begleitet, mit denen die Zeitpunkte ihrer Ausführung bestimmt werden können.
  • Ein Nachteil dieser Methode besteht darin, dass sie relativ aufwändige Vorgänge für die Synchronisation erfordert – entweder in Form von Eingriffen eines Operators zu den gewünschten Zeitpunkten oder in Form einer vorherigen Vorbereitung, die es ermöglicht, die Sendungen der Aktionen zu den zweckmäßigen Zeitpunkten auszulösen.
  • Die WO-01/82623 offenbart das automatische Einfügen von Nachrichten ("Trigger") zum Auslösen interaktiven Fernsehens in einen Strom von audiovisuellen Daten. Das Einfügen kann insbesondere auf die Erkennung von besonderen Elementen in dem Datenstrom wie in einer Datenbank gespeicherten Audio-/Video-Abtastwerten gestützt sein. Dieses Einfügen kann außerdem vor oder nach dem Broadcasten des Datenstroms ausgelöst werden. In der Beschreibung sind auch die Verwendung einer Zuordnungstabelle mit Verbindungen zum einen zwischen den zu findenden Abtastwerten und zum anderen zugeordneten interaktiven Elementen und Attributen wie beispielsweise der Nummer des Senders erwähnt.
  • Diese sehr flexible Technologie setzt jedoch voraus, dass die Erkennungselemente zuvor gewonnen werden, welche für das automatische Einfügesystem verfügbar gemacht werden müssen. In dem früheren Dokument WO-01/82623 ist jedoch nicht beschrieben, wie diese Elemente gewonnen werden. Ein Fachmann, der versucht, eine derartige Gewinnung umzusetzen, könnte dann mehrere Methoden ins Auge fassen.
  • Eine erste Gewinnungsmethode käme in dem Fall eines Einfügens der Trigger vor dem Broadcasting zur Anwendung. Ein Operator würde die betreffenden Programme im Voraus betrachten, signifikante zu erkennende Elemente auswählen und sie in eine Bank aufnehmen, die für das automatische Einfügesystem direkt zugänglich wäre. Diese Ausführungsform ist jedoch auf Einfügungen von Triggern vor dem Broadcasting beschränkt und setzt eine enge Kommunikation zwischen dem Operator und dem Broadcaster voraus.
  • Eine zweite Gewinnungsmethode würde darin bestehen, die Erkennungselemente auf ein tragbares Speichermedium wie beispielsweise eine Kassette, eine Festplatte oder eine DVD (Digital Versatile Disk) aufzunehmen, anschließend das Medium dem Benutzer des automatischen Einfügesystem zur Verfügung zu stellen. Im Vergleich zu der ersten Methode weist diese Methode den Vorteil auf, dass sie in einem weiteren Rahmen anwendbar ist und theoretisch nicht nur von einem Broadcaster, welcher nicht unbedingt unmittelbaren Zugang zu mit dem Operator gemeinsamen Speicherressourcen hat, sondern auch von einem Endbenutzer eines Videodecoders genutzt werden kann. Sie zwingt jedoch zu materiellen Übertragungen der Speichermedien und erlaubt keine flexiblen Änderungen der Erkennungselemente. Ihr praktisches Anwendungsgebiet erweist sich daher als recht beschränkt.
  • Eine dritte Gewinnungsmethode bestünde darin, die Erkennungselemente per Fernübertragung über ein Kommunikationsnetz zu übertragen. Diese Lösung, die eine große Flexibilität bietet und das Betreiben eines automatischen Einfügesystems sowohl vor als auch nach dem Broadcasting ermöglicht, ist jedoch durch den Bedarf an Übertragungsressourcen benachteiligt. Um signifikant zu sein, riskieren die Erkennungselemente nämlich in vielen Fällen, dass sie, Teile von audiovisuellen Inhalten betreffend, relativ umfangreich sind. Deren Übertragung ist dann besonders bandbreitenaufwändig und beeinträchtigt die Kommunikationsressourcen. Für die Übertragung von vollständigen Bildern in einer analogen Fernsehumgebung beispielsweise verfügt man nur über eine Bandbreite von einigen zehn KByte/sec.
  • In der WO-01/60061 ist eine Technik zur Aufnahme von Programmen vor oder nach vorbestimmten Zeitpunkten für Aufnahmen beschrieben. Hierzu werden eine oder mehrere "Signaturen" von einem Videosignal aus erzeugt, das einem gebroadcasteten aufzunehmenden Programm zugeordnet ist. Durch die Verarbeitung dieser Signaturen lassen sich Zeitpunkte von Anfang und Ende der aufzunehmenden Programme bestimmen. Die Signaturen können gemäß den zwei unterschiedlichen nachfolgenden Ausführungsformen genutzt werden, welche eventuell miteinander verbunden sein können.
  • In einer ersten Ausführungsform definiert oder gewinnt ein Benutzer ein oder mehrere Referenzelemente, mit denen anschließend die Signaturen des empfangenen Videosignals verglichen werden. Wenn eine Übereinstimmung zwischen den Signaturen und den Elementen festgestellt wird, wird die Aufnahme ausgelöst oder gestoppt. In der zweiten Ausführungsform wird die Signatur des empfangenen Videosignals periodisch berechnet und man interessiert sich für deren Entwicklung. Wenn eine signifikante Veränderung der Signatur festgestellt wird, wird daraus geschlossen, dass eine Programmänderung erfolgt ist, und die Aufnahme wird ausgelöst oder gestoppt.
  • Die erste Ausführungsform führt zu den oben erwähnten Schwierigkeiten bei der vorangehenden Gewinnung der Erkennungselemente. Die zweite Ausführungsform macht es ihrerseits erforderlich, dass Signaturen periodisch in Echtzeit berechnet werden, was zu Zwängen hinsichtlich des Aufwandes und der Rechenkosten führt. Zudem erfordert diese Technik unvermeidlich einen Ungewissheitsspielraum über den zu berücksichtigenden Abstand in den Signaturen, um das Auslösen des Beginns oder des Endes einer Aufnahme zu beschließen.
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zur Synchronisation von audiovisuellen Programmen und von interaktiven Diensten, welche ermöglichen können, dass sie keineswegs intrusiv gegenüber Broadcastern und Services Operators sind und dabei eine einfache und zuverlässige Umsetzung erlauben und vermeiden, dass ein Programmnavigator herangezogen wird. Das erfindungsgemäße System und Verfahren machen breite Anwendungen nicht nur vor sondern auch nach dem Broadcasten der Programme möglich, welche flexibel geändert werden können, und ohne die Kommunikationsbandbreitenressourcen zu beeinträchtigen.
  • Das Synchronisationssystem und -verfahren der Erfindung wenden sich ebenfalls auf andere Synchronisationsarten betreffend audiovisuelle Programme, insbesondere für automatische Aufnahmen von Filmen oder von Sendungen oder automatische Austäusche von Inhalten von audiovisuellen Programmen an (wobei der Benutzer beispielsweise im Voraus einen Austausch einer gewissen Kategorie von Programmen durch eine andere in Echtzeit am Bildschirm mittels einer Auswahl unter mehreren Broadcastquellen beschließen kann). Ferner betreffen sie auch Radiosendungen. Der Einfachheit halber werden nachfolgend einschließlich in der Definition der Erfindung mit dem Ausdruck "audiovisuelles Programm" Audio- und/oder Videoprogramme bezeichnet.
  • Gegenstand der Erfindung sind ferner Einheiten und Verfahren zur Spezifikation und zur Erkennung von Synchronisationssignalen, welche für das Synchronisationssystem der Erfindung verwendbar sind und die vorgenannten Vorteile bieten können.
  • Sie betrifft ebenfalls einen Broadcaster, einen Service Operator, ein (interaktives oder nicht interaktives) Endgerät für den Empfang von audiovisuellen Programmen und eine Software, welche zu mindestens einem der oben erwähnten Gegenstände der Erfindung zugeordnet sind.
  • Gegenstand der Erfindung ist hierzu eine Einheit zur Erkennung von Synchronisationssignalen in mindestens einem empfangenen audiovisuellen Programm, wobei das audiovisuelle Programm einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden (d.h., der in sichtbarer oder hörbarer Form dargestellt ist), sowie Kontrollinformationen umfasst. Die Erkennungseinheit entspricht dem Anspruch 1.
  • Die Erkennungseinheit ist demnach in der Lage, Synchronisationssignale ohne Änderung der audiovisuellen Programme durch direkte Analyse des für den Benutzer gebroadcasteten audiovisuellen Inhalts (wie Bilder, Töne, Teile hiervon oder Kombinationen) zu detektieren. Im Unterschied zu den intrusiven Verfahren, die darin bestehen, in die Playlists einzugreifen, ist keine Änderung dieser Listen nötig. Insbesondere werden dadurch die Gefahren eines Broadcastens eines interaktiven Diensts auf einem nicht entsprechenden audiovisuellen Programm verringert. Aufgrund der inhaltsbezogenen Erkennung ist die Wahrscheinlichkeit des Auftretens eines Fehlers nämlich gering, während bei den oben genannten Verfahren diese Gefahren durch die Bedienung von Identifikationsgebilden und das Vorhandensein eines Dritten, der von dem Services Operator nicht nachprüfbaren Informationen liefert, beträchtlich erhöht sind (Programmkennung).
  • Im Gegensatz zu den Techniken, die auf der Erkennung von spezifischen, in die Datenströme von übertragenen audiovisuellen Programmen eingebetteten Detektionssignalen beruhen, ist zudem keine Aktion auf die diese Programme tragenden Signale erforderlich.
  • Im Vergleich zu der in der Patentanmeldung WO-01/91462 offenbarten Technik werden die Erkennungselemente zudem zuvor der Erkennungseinheit mitgeteilt, wodurch das Heranziehen von aufwändigen, mit einem Programmnavigator verbundenen Identifikationstechniken vermieden werden kann.
  • Die Erkennungseinheit der Erfindung unterscheidet sich ferner von der Lehre des früheren Dokuments WO-01/82623 durch die Art und Weise der Gewinnung der Erkennungselemente. Während dieses Dokument nichts über die einzusetzenden Gewinnungsmittel aussagt und ein Fachmann eine der oben erwähnten Lösungen annehmen würde, ist die vorliegende Erkennungseinheit in der Lage, ein vorangegangenes Broadcasten eines audiovisuellen Programms über das Broadcastnetz auszunutzen. Das Modul für den Empfang der übertragenen Datenströme wird dann als Teil des Moduls für den Empfang von Erkennungselementen betrieben.
  • Die spezifisch für die Gewinnung der Teile eines audiovisuellen Inhalts zu übertagenden Informationen können auf ergänzende, die Modalitäten der Gewinnung dieser Teile (Kanal, Datum, Datentyp, ...) betreffenden Daten reduziert werden. Die Erkennungseinheit kann somit einen breiten Anwendungsbereich, Flexibilität und eine geringe Menge von benötigter Bandbreite kumulieren.
  • Die Umsetzung der Erfindung setzt jedoch voraus, dass der verwendete Inhaltsteil in einem audiovisuellen Programm vor dem Programm, auf das sich die Synchronisation aufhängen muss, gebroadcastet wird. Diese Bedingung, die recht einschränkend erscheinen mag, erweist sich in der Praxis als in einer sehr großen Anzahl von Fällen nachprüfbar. Der Inhaltsteil kann nämlich insbesondere aus dem Vorspann/Nachspann einer Sendung oder Serie oder aus einem Werbemotiv (beispielsweise einem Werbestreifen) ausgelesen werden. Im Übrigen ist die Genauigkeit bei dem Zeitpunkt der Gewinnung des aufzunehmenden Bildes oder Tons im Allgemeinen nicht entscheidend. In der Tat wird in den üblichen oben erwähnten Fällen an einer bestimmten Sequenz festgehalten, von der ein beliebiger ausgelesener, als Markierung geeigneter Teil passen kann.
  • Zudem umfasst die Erkennungseinheit der Erfindung vorteilhafterweise nachfolgend erläuterte Verzögerungsmöglichkeiten, durch welche Aktionen nach vorbestimmten Dauern in Abhängigkeit von dem Zeitpunkt der Detektion des Inhaltsteils in einem Programm ausgelöst werden können. Ein beliebiger Zeitpunkt einer Sendung kann demnach Gegenstand eines synchronisierten Vorganges sein, sofern bestimmte Anfangszeitpunkte dieser Sendung (oder vor dieser Sendung liegende Zeitpunkte) markiert werden können.
  • Angesichts der bekannten Techniken und der Methoden, die sich recht logisch auf die Gewinnung der Erkennungselemente anzuwenden scheinen, erscheint der Betrieb von zuvor über das Broadcastnetz gebroadcasteten Programmen besonders überraschend. Man würde nämlich erwarten, dass die Gesamtheit der für die Detektion der Synchronisationssignale einschließlich der zu identifizierenden Inhaltsteile erforderlichen Informationen spezifisch und gruppiert zur Verfügung gestellt werden. Im Unterschied hierzu werden die Inhaltsteile hier nicht ausdrücklich und spezifisch, sondern inzident und implizit über eine nicht für die Synchronisation dedizierte Übertragung mitgeteilt oder zugänglich.
  • Bei der Definition der Erkennungseinheit sind die "Einheiten" und "Module" wie in der restlichen Anmeldung im funktionalen Sinn zu verstehen, und sie sind daher nicht auf besondere Darstellungen beschränkt. So können sie insbesondere in ein und derselben Komponente oder in ein und derselben Software zusammengefasst sein oder im Gegenteil in verschiedenen Bauteilen verteilt sein. Die Erkennungseinheit kann ferner broadcastseitig (typischerweise beim Broadcaster), auf Seite des Service Operator oder in einem vorzugsweise interaktiven Endgerät für den Empfang von audiovisuellen Programmen in eingebetteter Form eingebaut sein.
  • Die empfangenen Erkennungselemente und/oder die ausgelesenen Teile können auf ein oder mehrere gleichzeitig oder sukzessive gesendete Programme angewandt werden. Da Programme in der Zeit rekursiv sind, ist es beispielsweise ausreichend, Bilder ein einziges Mal zu gewinnen, damit eine Synchronisation tatsächlich programmiert wird.
  • Gemäß verschiedenen Modalitäten der von der Erkennungseinheit für eine gegebene Detektionsart verwendeten Auslesanweisungen:
    • – betreffen die Anweisungen ein vollständiges Bild, von dem aus die Detektion erfolgen muss;
    • – betreffen die Anweisungen ein Unterbild; die Erkennungselemente enthalten dann die Koordinaten eines zu detektierenden Bereichs; diese Lösung ist weniger ressourcenaufwändig als die vorige, nicht nur bezüglich der Speicherung, sondern auch bezüglich der für die Detektion benötigten Verarbeitungszeit;
    • – betreffen die Anweisungen eine Gruppe von Bildern oder von Bilderteilen; das Auslösen einer Aktion hängt beispielsweise dann von der Detektion aller Gebilde der Gruppe ab oder im Gegenteil von der Detektion von mindestens eines davon;
    • – betreffen die Anweisungen eine Menge von während einer bestimmten Dauer gebroadcasteten Tönen.
  • Im Allgemeinen ist jeder der Inhaltsteile vorzugsweise durch einen der folgenden Teile gebildet: ein Bild, einen Ton und eine beliebige Kombination von mindestens zwei dieser Teile.
  • Das Modul für den Empfang der Erkennungselemente ist vorzugsweise vorgesehen, um eine Auslösenachricht (Trigger) zu empfangen, und das Aufnahmemodul ist vorgesehen, um gleich bei Empfang dieser Auslösenachricht den Teil aus dem zuvor empfangenen Datenstrom auszulesen und aufzunehmen. Die Verwendung eines derartigen Triggers ist besonders wirksam und einfach umzusetzen. Zudem ist der Trigger vorteilhafterweise eine Auslösenachricht besonderer Art, welche den Typ von auszulesendem Inhaltsteil und den ins Auge gefassten Kanal angibt. In einer Variante wurden diese Informationen zuvor gesendet. Wie oben angegeben, ist eine große Genauigkeit in der Synchronisation dieser Aufnahme eines Teils meist nicht nötig.
  • Gemäß einer Weiterbildung der Erkennungseinheit ist das Modul für den Empfang der Erkennungselemente auch vorgesehen, um unter den Erkennungselementen mindestens eine Kennung des ausgelesenen Teils zu empfangen, und das Detektionsmodul ist in der Lage, in dem Speicherraum diesen ausgelesenen, zuvor aufgenommenen und dieser Kennung zugeordneten Teil zurückzubekommen, um in dem Inhalt des empfangenen audiovisuellen Programms diesen ausgelesenen Teil zu erkennen.
  • Bei dieser Ausführung lassen sich insbesondere mehrfache Auslesevorgänge (Ersparnis von lokalen Ressourcen) oder von Übertragungen (Bandbreitenersparnis) eines und desselben ausgelesenen Teils vermeiden, wenn der Anfangsschritt der Gewinnung dieses Teils durchgeführt ist. Auch bei der einmaligen Verwendung eines ausgelesenen Teils ermöglicht sie zudem, spätere Erkennungsanweisungen vorwegzunehmen. Es kann nämlich vorkommen, dass eine für die Detektion signifikante Sequenz in einem Programm gebroadcastet wird, ohne dass deren genaue spätere Verwendung schon genau festgelegt ist (die Betriebsmodalitäten für die Interaktivität beispielsweise sind noch nicht bekannt).
  • Die späteren Erkennungselemente, die die Nutzung des aufgenommenen Teils spezifizieren, können Erkennungsdaten wie insbesondere Zeitbereich, Sendekanal und/oder booleschen Operator eventuell begleitet von Aktions- und/oder Verzögerungsinformationen umfassen. Die Erkennungselemente werden somit insgesamt vorteilhafterweise in zwei sukzessiven Schritten gewonnen: Anweisungen zum Auslesen von Inhaltsteilen, anschließend Anweisungen zur Nutzung dieser Teile (wobei diese Teile bei dem Empfang der Nutzungsanweisungen bereits gewonnen sein können oder nicht).
  • In einer besonderen Form dieser Ausführung mit Teil-Kennung sind die Empfangs- und Aufnahmemodule geeignet, ausgelesene Teile zu empfangen und zu speichern, die für mehrere unterschiedliche Detektionsarten nutzbar sind. Jeder Teil bzw. jede Menge von Teilen ist dann durch eine eindeutige Teil-Kennung spezifiziert, die von den unterschiedlichen Detektionsarten nutzbar ist. Diese Vielzahl der Detektionsarten ist geeignet, zugleich Flexibilität und Komplexität in den Synchronisationsvorgängen auf einfache Weise zu geben.
  • Das Modul für den Empfang der Erkennungselemente ist vorteilhafterweise auch in der Lage, den ausgelesenen Teil unter den Erkennungselementen direkt zu empfangen, und das Aufnahmemodul ist vorgesehen, um diesen ausgelesenen Teil in den Speicherraum aufzunehmen.
  • Diese Funktionalität, die bandbreitenaufwändig sein kann, wird somit integriert, jedoch als Ersatzlösung, wenn das vorangehende Auslesen in einem gebroadcasteten Programm nicht möglich ist. In manchen Fällen schafft man es nämlich nicht, ein gesendetes Programm im Voraus zu identifizieren, in dem ein in Hinblick auf eine gewünschte spätere Detektion geeignetes Motiv ausgelesen werden könnte. Das Vorhandensein dieser Option liefert ein Gesamtsystem, dass aufgrund seiner Fähigkeit, alle Situationen abzudecken, und dabei (für viele dieser Situationen) den Vorteil einer beträchtlichen potenziellen Verringerung des Bandbreitenbedarfs beizubehalten, sehr vorteilhaft ist.
  • Diese letzten kombinierten Vorteile sind besonders interessant, wenn die Erkennungseinheit in einem Endgerät oder allgemeiner nach einem umfangreichen Kommunikationsnetz implementiert ist, welches vorgesehen ist, um den Transport der ausgelesenen Teile zu tragen.
  • Gemäß einer bevorzugten Ausführung vereint die Erkennungseinheit die Fähigkeiten der drei oben erwähnten Arten von Gewinnung von Inhaltsteilen:
    • – Auslesen des Inhaltsteils in mindestens einem Datenstrom eines audiovisuellen Programms, das zuvor von dem Datenstromempfangsmodul empfangen wurde, gemäß Ausleseanweisungen, die in den Erkennungselementen eingeschlossen sind,
    • – direkte Übertragung des in den Erkennungselementen eingeschlossenen Inhaltsteils an die Erkennungseinheit; die ausgelesenen Teile werden vorteilhafterweise von einer spezifischen Einheit (wie derjenigen, die nachfolgend als "Spezifikationseinheit" definiert ist) übertragen und
    • – Zurückgewinnung des Inhaltsteils in den Speicherraum von einer Kennung eines ausgelesenen Teils aus, die in den Erkennungselementen eingeschlossen ist.
  • Die Erkennungseinheit umfasst vorzugsweise auch ein Modul zur Verzögerung vor der Sendung der Aktionsanweisungen durch das Übertragungsmodul.
  • Das Verzögerungsmodul führt eine Frist vor der Übertragung der Aktionsanweisungen ein, wenn die Synchronisationssignale in dem audiovisuellen Programm detektiert sind. Die Verwendung dieser Frist ist besonders interessant, sofern sie es ermöglicht, die Synchronisation auf ein Ereignis aufzuhängen, das vorweggenommen werden kann, und anschließend den Zeitabstand zwischen dieser Synchronisation und einem oder mehreren zweckmäßigen Zeitpunkten zu bestimmen, um zu diesen Zeitpunkten die zu synchronisierenden Aktionen auszulösen. Die Nutzung der Frist begünstigt zudem beträchtlich die Gewinnung des Inhaltsteils von einem zuvor gebroadcasteten Programm aus. Sie ermöglicht es nämlich, sich auf eine Sequenz, die vorgesehen ist, um bei sukzessiven Übertragungen wiederholt zu werden, wie einen Vorspann/Nachspann, aufzuhängen.
  • Da insbesondere einer Live-Sendung im Allgemeinen Werbung vorangeht oder eine solche von Werbung unterbrochen wird, kann demnach die Detektion auf einen Nachspann eines Werbestreifens aufgehängt werden (zuvor aus einer früheren Sendung aufgenommen) und die Verzögerung eingestellt werden, damit ein interaktiver Dienst beispielsweise 10 Minuten nach dem Start der Sendung angezeigt wird (beispielsweise die Zeit, die ein Moderator braucht, um die Möglichkeit der Interaktion mit dem Fernsehgerät anzukündigen).
  • Diese Technik kann es insbesondere einem Services Operator ermöglichen, Synchronisationsvorgänge zu managen einschließlich bei live gebroadcasteten Sendungen, ohne dass ein die Sendungen broadcastender Sender gebeten werden muss, sich an diesen Vorgängen zu beteiligen. Es ist nämlich ausreichend, dass der Sender einen Modus für die Gewinnung eines Abtastwertes, wie beispielsweise ein Bild eines Werbestreifens, und ein ungefähres Timing für das Auslösen von gewünschten Aktionen, beispielsweise das Erscheinen einer Interaktivität, liefert. Diese Ausführung macht insbesondere eine Synchronisation des Broadcastens von interaktiven Diensten auf audiovisuelle Programme möglich, die a priori ohne jegliche Interaktivität konzipiert sind.
  • Einer gegebenen Detektion der Synchronisationselemente können mehrere Verzögerungen entsprechen, die sukzessive Zeitpunkte definieren. Die Verzögerungs- und Übertragungsmodule sind dann geeignet, einen Detektionszeitpunkt als Referenzzeit zu benutzen, von der aus das Verzögerungsmodul mehrere Zeitpunkte für das Auslösen von Sendungen von Aktionsanweisungen bestimmt. In einer hochentwickelten Version ist das Verzögerungsmodul geeignet, Informationen, die komplexer sind als ein einziger Detektionszeitpunkt, und vorbestimmte Dauern zu kombinieren, um diese Auslösezeitpunkte zu bestimmen. Solche Informationen können insbesondere in
    • – mehreren Detektionszeitpunkten (beispielsweise zwei Detektionszeitpunkten zur Spezifikation von mindestens drei Zeitpunkten zum Auslösen der Sendung von Anweisungen),
    • – Operatoren betreffend die detektierten Synchronisationssignale (einzelne ausgelesene Teile sind beispielsweise jeweils verschiedenen Fristengruppen zugeordnet),
    • – Detektionszeitbereichen (die Fristen sind beispielsweise kürzer, wenn die Detektionen während späterer Zeitbereiche erfolgen) oder
    • – einer beliebigen Kombination der oben genannten Informationen
    bestehen.
  • Die Module für den Empfang und die Aufnahme der Erkennungselemente in der Erkennungseinheit sind vorzugsweise vorgesehen, um auch mindestens eine Verzögerungsfrist zu empfangen beziehungsweise aufzunehmen, und das Verzögerungsmodul ist vorgesehen, um diese Frist zu nutzen.
  • Gemäß anderen Ausführungen ist die Frist vorbestimmt oder von dem Benutzer lokal bestimmt.
  • Die Module für den Empfang und für die Aufnahme von Erkennungselementen und das Modul für die Übertragung von Aktionsanweisungen sind vorteilhafterweise vorgesehen, um Kennungen betreffend die auszulösenden Aktionen zu empfangen, aufzunehmen und zu übertragen. Es werden somit die Erkennungskriterien und die auszuführenden Aktionen zugleich spezifiziert.
  • In einer bevorzugten Kommunikationsform der Aktionskennungen werden Erkennungselemente und Aktionskennungen gleichzeitig in Form von Paaren empfangen, wobei jedes dieser Paare eine Menge von Erkennungselementen und eine zugeordnete Aktionskennung enthält.
  • In weiteren Ausführungsformen werden die Aktionskennungen getrennt empfangen und gelten für alle Detektionen, die später mit den sukzessive übertragenen Erkennungselementen durchgeführt werden. In noch weiteren Ausführungsformen sind die auszulösenden Aktionen von Benutzern unabhängig von den Erkennungsvorgängen vorbestimmt oder beschlossen.
  • In einer ersten vorteilhaften Form der Erkennungselemente schließen diese mindestens einen booleschen Operator ein. Das Erkennungsmodul ist dann vorgesehen, um mindestens zwei der Inhaltsteile in Verbindung mit diesem booleschen Operator (wie insbesondere "und" oder "oder") zu detektieren, und das Übertragungsmodul ist vorgesehen, um die Aktionsanweisungen bei einer solchen Detektion zu übertragen.
  • Es werden beispielsweise Kennungen, die Aktionskennungen zugeordnet sind, wie folgt kombiniert:
    • – wenn (Detektion von Bild 1 UND Detektion von Bild 2), dann Auslösen von Aktion 1,
    • – wenn (Detektion von Bild 3 ODER Detektion von Bild 4), dann Auslösen von Aktion 2.
  • In einer zweiten vorteilhaften Form der Erkennungselemente schließen diese mindestens eine Zeitinformation ein. Das Erkennungsmodul ist dann vorgesehen, um mindestens zwei der Inhaltsteile in Verbindung mit dieser Zeitinformation zu detektieren, und das Übertragungsmodul ist vorgesehen, um die Aktionsanweisungen bei einer solchen Detektion zu übertragen. Diese Zeitinformation umfasst vorzugsweise mindestens eine Information, die unter einem Detektionsdatum und einem Detektionszeitbereich gewählt wird.
  • Es wird beispielsweise die Detektion der Inhaltsteile mit Tests über das aktuelle Datum kombiniert:
    • – wenn (Detektion von Bild 1 UND Detektion von Bild 2), dann Auslösen von Dienst 1,
    • – wenn (Detektion von Bild 3 UND current date() == 06092002), dann Auslösen von Aufnahme.
  • Besonders interessante Ausführungsformen der Zeitinformationen tragenden Erkennungselemente betreffen die Begrenzung der Aktivierungsperiode für die Detektion der Inhaltsteile.
  • Für jede Detektion werden beispielsweise ein Datum/die Uhrzeit des Detektionsanfangs und ein Datum/die Uhrzeit des Detektionsendes angegeben, wodurch die Anzahl der für jedes empfangene Erkennungselement durchzuführenden Vergleiche beschränkt wird. Diese Technik ist insbesondere für das Broadcasten von interaktiven Diensten interessant. Die Uhrzeit des Broadcastens eines audiovisuellen Programms ist nämlich im Allgemeinen auf einige Minuten genau bekannt und es wird nur ein Dienst auf einmal gesendet, so dass die Programmierung einer einzigen Detektion zu einem gegebenen Zeitpunkt ausreichend ist, um das Broadcasten dieses Dienstes auszulösen.
  • Gemäß weiteren (vorteilhafterweise kombinierten) Ausführungsmodalitäten
    • – beginnt die Suche unmittelbar nach der Gewinnung des Teils gemäß den Ausleseanweisungen und hört zu einem gewissen Datum auf, das in den Erkennungselementen angegeben ist,
    • – beginnt die Suche unter der Wirkung eines Anfangstriggers und hört unter der Wirkung eines Endtriggers auf, wobei diese Anfangs- und Endtrigger sich vorzugsweise auf die ins Auge gefasste Detektionsart mittels mindestens einer Kennung eines ausgelesenen Teils beziehen,
    • – und/oder wird die Suche aktiviert und/oder deaktiviert durch die Detektion von mindestens einem Inhaltshilfsteil; dieser Hilfsteil kann viel kleiner gewählt werden als der Inhaltshauptteil (beispielsweise Werbungslogo), was diese Lösung recht interessant macht, um die erforderlichen CPU-Vorgänge (CPU: Central Processing Unit) zu beschränken.
  • In einer dritten vorteilhaften Ausführungsform der Erkennungselemente schließen diese mindestens eine Kanalreferenz ein. Das Detektionsmodul ist dann vorgesehen, um die Inhaltsteile in Verbindung mit dieser Kanalreferenz zu detektieren, und das Übertragungsmodul ist vorgesehen, um die Aktionsanweisungen bei einer solchen Detektion zu übertragen.
  • Durch Übertragung einer Information über einen Sender, auf der die Detektion erfolgen muss, wird vermieden, dass die Erkennungseinheit umsonst beansprucht wird, wenn keine Detektion auf dem aktuellen Sender programmiert ist. Durch diese ergänzende Information kann ebenfalls eine Detektion auf einem Sender insbesondere programmiert werden, wobei das zu detektierende Erkennungselement, beispielsweise ein Werbespot, auf mehreren Sendern gebroadcastet werden kann. Per Vorgabe und ohne jegliche Senderinformation wird die Detektion vorzugsweise ständig und ohne Senderunterscheidung aktiviert. In vorteilhaften Ausführungsformen beruht die Detektion der Synchronisationssignale auf der Erkennung mehrerer Inhaltsteile oder auf der Kreuzung der Erkennung solcher Teile mit anderen Informationstypen (Sender, Variablen des Systems wie dem aktuellen Datum, eventuell Programmnavigator, ...). Es werden somit vorteilhafterweise mehrere Bilder benutzt bei Ungewissheit betreffend den Programminhalt oder um die Chancen der Programmdetektion zu vervielfachen, wobei die Detektion eines der Bilder den Aktionsprozess auslöst.
  • Die Erfindung betrifft ebenfalls eine Einheit zur Spezifikation von mindestens einem audiovisuellen Programm zugeordneten Synchronisationssignalen, wobei dieses oder diese audiovisuelle(n) Programme) einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, und wobei die Synchronisationssignale dazu bestimmt sind, in mindestens einem dieses audiovisuelle Programm tragenden und über ein Broadcastnetz übertragenen Datenstrom detektiert zu werden und somit mindestens eine Aktion auszulösen.
  • Erfindungsgemäß umfasst die Spezifikationseinheit Folgendes:
    • – ein Modul für die Vorbereitung von Erkennungselementen, welches die Gewinnung mindestens eines aus dem Inhalt des audiovisuellen Programms ausgelesenen Teils ermöglicht, und
    • – ein Modul für die Übertragung der Erkennungselemente – unabhängig von Übertragungen des audiovisuellen Programms – an mindestens eine Erkennungseinheit zur Detektion der Synchronisationssignale in dem übertragenen, das audiovisuelle Programm tragenden Datenstrom durch Erkennung des ausgelesenen Teils/der ausgelesenen Teile in dem Inhalt des audiovisuellen Programms.
  • Das Vorbereitungsmodul und das Übertragungsmodul dieser Spezifikationseinheit sind für die Vorbereitung beziehungsweise für die Übertragung von Anweisungen zum Auslesen des Inhaltsteils in mindestens einem Datenstrom eines zuvor von der Erkennungseinheit über das Broadcastnetz empfangenen audiovisuellen Programms vorgesehen. Dieser Teil wird aus dem zuvor empfangenen audiovisuellen Programm ausgelesen.
  • Diese Spezifikationseinheit ist vorzugsweise in der Lage, mit einer beliebigen der Ausführungsformen der Erkennungseinheit der Erfindung zusammenzuwirken.
  • Das Vorbereitungsmodul und das Übertragungsmodul dieser Spezifikationseinheit sind vorzugsweise für die Vorbereitung beziehungsweise die Übertragung der Kennungen betreffend die bei Detektion der Synchronisationssignale auszulösenden Aktionen vorgesehen.
  • Die Aktionskennungen betreffen dann vorteilhafterweise mindestens eine der folgenden Aktionen: Broadcasten eines interaktiven Dienstes, Auslösen eines interaktiven Dienstes, Auslösen einer Aktualisierung eines interaktiven Dienstes, Auslösen einer Aufnahme des audiovisuellen Programms und Verbindung zu einer Web-Site. Die erste Aktion ist spezifischer für eine Detektion von Synchronisationssignalen an einem Broadcaster oder einem Services Operator bestimmt, während die drei letzten Aktionen typischerweise in dem Fall anwendbar sind, in dem die Erkennung in einem Endgerät für den Empfang von audiovisuellen Programmen erfolgt (beispielsweise Auslösen eines eingebetteten Dienstes, was in dem Auslösen dessen Erscheinen bestehen kann).
  • Gemäß vorteilhaften Ausführungsformen betreffend die Gewinnung des ausgelesenen Teils
    • – sind die Vorbereitungs- und Übertragungsmodule derart, dass die Erkennungselemente diesen ausgelesenen Teil einschließen können und/oder
    • – sind die Vorbereitungs- und Übertragungsmodule derart, dass die Erkennungselemente mindestens eine Kennung dieses ausgelesenen, zuvor in den Speicherraum aufgenommenen Teils einschließen können.
  • Die Erfindung ist ebenfalls auf ein Synchronisationssystem gemäß Anspruch 15 anwendbar, welches eine Einheit zur Spezifikation von Synchronisationssignalen, eine Einheit zur Erkennung der Synchronisationssignale und eine Aktivierungseinheit zum Auslösen von mindestens einer Aktion bei Detektion der Synchronisationssignale durch die Erkennungseinheit umfasst.
  • Die Erkennungseinheit und/oder die Spezifikationseinheit entsprechen vorzugsweise einer beliebigen der Ausführungsformen der Erfindung.
  • Gegenstände der Erfindung sind ebenfalls ein Broadcaster, ein Services Operator und ein Endgerät für den Empfang von audiovisuellen Programmen, umfassend ein Spezifikationsmodul, ein Erkennungsmodul und/oder ein Synchronisationssystem entsprechend einer beliebigen der Ausführungsformen der Erfindung.
  • In dem Fall, in dem die Erkennungseinheit sich in einem Empfangsendgerät befindet, werden an das Endgerät vorteilhafterweise mit Phasenvoreilung Erkennungselemente und zugeordnete interaktive Dienste übertragen. Wenn beispielsweise den Fernsehzuschauern keine Interaktivität angeboten wird, kann dadurch der Anteil von Fernsehgeräten erhöht werden, die in der Lage sind, Interaktivität vorzuschlagen. Das Endgerät verfügt dann vorzugsweise über Mittel zur Speicherung der Erkennungselemente, der ausgelesenen Teile und der interaktiven Dienste in dem permanenten Speicher beispielsweise des Typs Flashspeichers. Durch diese Ausführung können Synchronisationen programmiert werden, die über Abschaltungen und Einschaltungen des Endgeräts (switch off/on) hinaus dauern. Dadurch werden die Chancen erhöht, dass Interaktivität trotz eines vorübergehenden kompletten Stillstandes des Systems angeboten wird.
  • In einer ersten Ausführungsform der Sendung der Erkennungselemente und der zugeordneten Dienste an ein Endgerät mit einer Erkennungseinheit werden gleichzeitig (mit Phasenvoreilung) eine oder mehrere Verbindungen von Mengen von Erkennungselementen und entsprechenden interaktiven Diensten vorzugsweise per Broadcasting übertragen. Das Senden mehrerer derartiger Verbindungen zur Parallelnutzung wird dadurch ergänzt, dass mit den Elementenmengen gekoppelten Aktionskennungen mitgeteilt werden, wobei diese Kennungen präzisieren, welche Dienste zu starten sind.
  • In einer zweiten Ausführungsform der Sendung der Erkennungselemente und der zugeordneten Dienste an ein Endgerät mit einer Erkennungseinheit wird das Senden der Erkennungselemente und der Dienste getrennt. Aktionskennungen werden dann den Erkennungselementen hinzugefügt, damit diese den zu startenden Diensten entsprechen.
  • Die Erfindung betrifft ebenfalls ein Verfahren zur Aktivierung durch Erkennung von Synchronisationssignalen in mindestens einem empfangenen audiovisuellen Programm gemäß Anspruch 19. Dieses Erkennungsverfahren wird vorzugsweise mittels einer einer beliebigen der Ausführungsformen der Erfindung entsprechenden Erkennungseinheit eingesetzt.
  • Die Erfindung betrifft ferner ein Verfahren zur Spezifikation von Synchronisationssignalen und ein Synchronisationsverfahren gemäß den Ansprüchen 20 beziehungsweise 21. Diese Verfahren werden vorzugsweise mittels einer Spezifikationseinheit beziehungsweise eines Synchronisationssystems gemäß einer beliebigen der Ausführungsformen der Erfindung eingesetzt.
  • Gegenstand der Erfindung ist ebenfalls ein Computerprogrammprodukt, dadurch gekennzeichnet, dass es Programmcode-Anweisungen für die Durchführung der Schritte eines der erfindungsgemäßen Verfahren umfasst, wenn das Programm auf einem Computer ausgeführt wird. Unter "Computerprogrammprodukt" ist ein Computerprogrammträger zu verstehen, der nicht nur in einem Speicherraum mit dem Programm wie einer Diskette oder Kassette, sondern auch in einem Signal wie einem elektrischen oder optischen Signal bestehen kann.
  • Die Erfindung wird besser verständlich und veranschaulicht anhand der folgenden Ausführungs- und Umsetzungsbeispiele, welche keineswegs einschränkend sind, in Verbindung mit den beigefügten Figuren. Es zeigen:
  • 1 eine schematische Prinzipdarstellung eines erfindungsgemäßen Synchronisationssystems;
  • 2 eine Spezifikationseinheit des Synchronisationssystems der 1;
  • 3 eine Erkennungseinheit des Synchronisationssystems der 1;
  • 4 eine Aktivierungseinheit des Synchronisationssystems der 1;
  • 5 eine schematische Darstellung eines Kommunikationsnetzes, umfassend ein Broadcaster mit einem Broadcastserver, ein Services Operator mit einem Punkt-zu-Punkt-Server und ein interaktives oder nicht interaktives Endgerät für das breite Publikum;
  • 6 die zeitliche Entwicklung eines zyklischen Senden (Karussell) von Diensten;
  • 7 eine erste Einsatzform des Synchronisationssystems der 1 in dem Kommunikationsnetz der 5 mit Synchronisationssystem bei dem Services Operator;
  • 8 eine zweite Einsatzform des Synchronisationssystems der 1 in dem Kommunikationsnetz der 5 mit Spezifikationseinheit bei dem Services Operator und Erkennungs- und Aktivierungseinheiten bei dem Broadcaster;
  • 9 eine dritte Einsatzform des Synchronisationssystems der 1 in dem Kommunikationsnetz der 5 mit Spezifikationseinheit bei dem Broadcaster und Erkennungs- und Aktivierungseinheiten in dem Endgerät und
  • 10 eine schematische Darstellung einer Implementierung der Erkennungs- und Aktivierungseinheiten in dem Endgerät für die Einsatzform der 9.
  • Ein Synchronisationssystem 5 (1) ist vorgesehen, um audiovisuelle Programme 15 und interaktive Dienste S zu synchronisieren. Es umfasst eine Einheit 1 zur Spezifikation von Synchronisationssignalen, welche geeignet ist, Paare 10, welche jeweils durch eine Menge von Erkennungselementen 11 und eine Aktionskennung 12 gebildet sind, von den audiovisuellen Programmen 15 und von einem Benutzer vorgenommenen Auswahlvorgängen ausgehend vor dem Broadcasten der Programme 15 auf einem Netz vorzubereiten. In jedem dieser Paare 10 schließen die Erkennungselemente 11 mindestens einen Teil ein, welcher aus dem Inhalt des Programms 15 ausgelesen ist und dazu bestimmt ist, als Synchronisationssignal (zumindest Teilsignal) zu dienen oder Anweisungen zum Auslesen dieses Teils in einem Programm, das vor dem synchronisationsgegenständlichen Programm 15 gebroadcastet wird. Die Aktionskennungen 12 jedes der Paare 10 enthalten Informationen über die Ausführung von Aktionen bei Detektion solcher Synchronisationssignale in die Programme 15 tragenden Datenströmen.
  • Eine Erkennungseinheit 2 ist vorgesehen, um die aus der Spezifikationseinheit 1 stammenden Paare 10 aufzunehmen, sie bei Empfängen von die Programme 15 tragenden Datenströmen zu nutzen, um die Inhaltsteile in den Programmen zu erkennen, und unter den von den Mengen von Erkennungselementen 11 definierten Bedingungen Synchronisationsvorfälle zu identifizieren. Sie ist ebenfalls dazu bestimmt, die Aktionskennungen 12 zum Auslösen dieser Aktionen bei Detektion von diesen Aktionen entsprechenden Identifikationssignalen zu übertragen.
  • Eine Aktivierungseinheit 3 ist vorgesehen, um die Aktionskennungen 12 aus der Erkennungseinheit 2 zu empfangen und um die geeigneten Aktionen A auszulösen.
  • Nachfolgend werden nun die drei Einheiten 1, 2 und 3 des Synchronisationssystems in Verbindung mit den 2, 3 beziehungsweise 4 näher erläutert. Die Spezifikationseinheit 1 (2) umfasst ein Eingangsmodul 31 der audiovisuellen Programme 15 oder von zugeordneten audiovisuellen Programmen für die Synchronisation und ein Modul 32 für das kontrollierte Broadcasten von Inhalten 16 dieser Programme an einen Operator. Diese Letzten oder zumindest signifikante Teile von diesen Programmen (Bild, Ton, Farbe eines Streifens, ...) sind hierzu mit Phasenvoreilung für den mit der Programmierung des Synchronisationssystems 5 beauftragten Operator verfügbar. Dieses verfügt typischerweise über eine Kassetten- oder DVD-Aufnahme oder über eine in eine Sendung einzufügende Sequenz. Der Operator kann beispielsweise eines der Programme 15 bildweise betrachten oder bestimmte Tonabschnitte hören.
  • Eine Benutzerschnittstelle 33 der Spezifikationseinheit 1 ermöglicht es dem Operator, Befehle 17 in Verbindung mit diesem kontrollierten Broadcasten einzugeben. Sie erlaubt es dem Operator, Bilder, Töne, Teile von Bildern oder Kombinationen von diesen Inhaltsteilen auszuwählen, um in die Erkennungselemente 11
    entweder die Teile selbst
    oder Anweisungen zum Auslesen dieser Teile in einem (oder mehreren) audiovisuellen, vor dem Programm 15 gebroadcasteten audiovisuellen Programm
    oder Kennungen dieser Teile einzuschließen.
  • Die Schnittstelle 33 ermöglicht es ihm auch, komplexere Erkennungskriterien, die auf Konjunktionen oder Alternativen (jeweils mehrere Teile oder mindestens ein Teil unter mehreren, die es zu erkennen gilt) beruhen, Zeitkriterien (Datum, Zeitschlitz) oder Sender zu definieren. Die Schnittstelle 33 ermöglicht es ebenfalls dem Operator, Aktionskennungen 12 zu definieren, die Erkennungselementen 11 zugeordnet sind, wie das Auslösen oder das Broadcasten eines identifizierten interaktiven Dienstes, und Verzögerungsfristen zwischen der Detektion von Synchronisationssignalen und dem Auslösen von entsprechenden Aktionen. Solche Fristen werden
    • – entweder getrennt in Form von Fristen 13 übertragen, die für eine Verzögerung zwischen einer Detektion durch die Erkennungseinheit 2 und einer Übertragung der Aktionskennungen 12 an die Aktivierungseinheit 3 vorgesehen sind,
    • – oder in die Aktionskennungen 12 zur Verzögerung zwischen dem Empfang der Letzteren durch die Aktivierungseinheit 3 und dem Auslösen der entsprechenden Aktionen A eingebettet.
  • Die gemeinsame Nutzung der zwei Fristentypen ist ebenfalls möglich.
  • Ein Vorbereitungsmodul 34 legt die Paare 10 und die Fristen 13 in Abhängigkeit von den Befehlen des Operators fest und übermittelt sie an ein Modul 37 zur Übertragung zu der Erkennungseinheit 2. Dieses Vorbereitungsmodul 34 enthält insbesondere ein Untermodul 35 zum Auslesen der in den betrachteten Programmen ausgewählten Teile und ein Untermodul 36 zum Definieren der Aktionskennungen 12.
  • Die Erkennungseinheit 2 (3) umfasst ihrerseits ein Modul 21 für den Empfang der audiovisuellen Programme (insbesondere der Programme 15) und ein Modul 24 für den Empfang der Informationen aus der Spezifikationseinheit 1 einschließlich der Paare 10 und der Verzögerungsfristen 13. Ein Aufnahmemodul 25 ermöglicht die automatische Aufnahme dieser Informationen in einen Speicherraum 20.
  • Die Erkennungseinheit 2 umfasst ebenfalls ein Modul 22 zur Detektion der Synchronisationssignale, welches insbesondere dazu bestimmt ist, die Inhalte der Programme 15 mit den Inhaltsteilen zu vergleichen, die mittels der Erkennungselemente 11 gewonnen und in dem Speicherraum 20 gespeichert werden. Das Detektionsmodul 22 steht in Verbindung mit den Informationsquellen, die zur Identifizierung der Auswahlkriterien dienen können, beispielsweise eine Uhr 28, die im Falle von Zeitkriterien (Datum, Zeitbereich) Zeitinformationen liefert. Das Detektionsmodul 22 ist vorgesehen, um die Aktionskennungen 12 als solche und die zugeordneten Verzögerungsfristen 13 bei Detektion der Synchronisationssignale zu einem Modul 23 für die Übertragung von Anweisungen über ein Verzögerungsmodul 26 zu übermitteln. Die Funktion des Letzteren besteht darin, die Übertragung in Anwesenheit von Verzögerungsfristen 13 eventuell zu verzögern, während das Übertragungsmodul 23 dazu bestimmt ist, die Aktionskennungen 12 als solche an die Aktivierungseinheit 3 zu übertragen.
  • Wie oben angegeben, erlauben es die Schnittstelle 33 und das Vorbereitungsmodul 34 der Spezifikationseinheit 1 dem Operator, Informationen zu erarbeiten, die in den Erkennungselementen 11 eingeschlossen sind, welche es der Erkennungseinheit 2 ermöglichen, die Inhaltsteile über das Modul 21 für den Empfang der audiovisuellen Programme zu identifizieren und zu gewinnen.
  • Diese Informationen können insbesondere in einem Kanal und einem Stundenplan bestehen, wobei dieser Stundenplan durch eine Kennung für eine Sofortauswahl ersetzt werden kann. Die Informationen können in Form von Triggern gesendet werden, welche zum Auslösen des Auslesens und der Aufnahme der ins Auge gefassten Teile an der Erkennungseinheit 2 vorgesehen sind. In einer Variante der Gewinnung der Inhaltsteile löst das Vorhandensein eines Motivs (Ton und/oder Bild) in einem auf einem gegebenen Kanal und in einem bestimmten Zeitbereich gebroadcasteten Programm die Auslese- und Aufnahmevorgänge nach einer vorbestimmten Frist.
  • Man möchte beispielsweise eine automatische Aufnahme aller Episoden einer Serie veranlassen. Dieser Serie geht immer derselbe Vorspann voran, welcher ca. eine Minute dauert. Die erste Episode der Serie muss ca. 3 Minuten nach einer letzten Werbeseite kommen, von der ein repräsentativer Bildteil bereits als Referenz gespeichert ist. Zunächst wird daher die Aufnahme der ersten Episode dadurch veranlasst, dass der Sender und der Zeitbereich genau definiert werden und das Auslösen der Aufnahme (sicherheitshalber) 2 Minuten nach der Detektion des Werbebildteils vorgesehen wird.
  • Parallel wird ein Auslesen und eine Aufnahme eines auf dem Sender gebroadcasteten Bild 3 Minuten 30 nach eben dieser Detektion. Dieses zu dem Vorspann der Serie gehörende Bild (nachprüfen ist möglich) wird dann selbst als ausgelesener Referenzteil für die Detektion der folgenden Episoden benutzt.
  • Es wird somit eine systematische Aufnahme mit der Dauer einer Episode ausgelöst, sobald dieses Bild auf dem Sendekanal detektiert wird. Gemäß Varianten oder Weiterbildungen
    • – wird ein Nachspann der Episoden benutzt, um das Ende der Aufnahme auszulösen,
    • – werden mehrere Bilder des Vorspanns benutzt, die zeitlich beabstandet sind, um das Auslösen der Aufnahme freizugeben, um das Risiko zu verringern, dass eine Aufnahme durch einen Werbestreifen ausgelöst wird,
    • – werden die Bilderkennung und ein Programmnavigator gekreuzt, um die Standbyperioden zu begrenzen und das Risiko einer ungewollten Aufnahme zu verringern.
  • Das Aufnahmemodul 25 der Erkennungseinheit 2 ist somit in der Lage, die Aufnahme der ausgelesenen Teile in Abhängigkeit von den durch die Spezifikationseinheit 1 übertragenen Informationen vorzunehmen, ohne dass diese Teile zwischen Spezifikationseinheit 1 und Erkennungseinheit 2 laufen mussten.
  • Die Aktivierungseinheit 3 (4) umfasst ein Modul 41 für den Empfang der Aktionskennungen 12, ein Modul zum Auslesen der Aktionsinformationen in diesen Kennungen 12 und zur Übertragung von Aktionsanweisungen 18 und eventuellen Verzögerungsfristen 19 zu einem Modul 44 zum Auslösen von Aktionen über ein Verzögerungsmodul 43. Die Funktion des Letzteren besteht darin, die Übertragung der Aktionsanweisungen 18 als solche gemäß den Verzögerungsfristen 19 zu verzögern. Das Auslösemodul 44 löst seinerseits die von den Aktionsanweisungen 18 ins Auge gefassten Aktionen A gleich bei Empfang der Letzteren aus.
  • Das Synchronisationssystem 5 soll nun in mehreren praktischen Anwendungen interaktiven Fernsehens unter Einbeziehung eines Kommunikationsnetzes (5) dargestellt werden, welches einen Broadcaster 50, einen Services Operator 60 und ein interaktives Endgerät 70 für das breite Publikum umfasst. Der Broadcaster 50 ist mit Endgeräten des Typs des Endgeräts 70 über ein unidirektionales Netz 81 verbunden (ein Kabel- oder Satellitenfernseh-Rundfunknetz). Der Services Operator 60 kann mit dem Endgerät 70 über ein bidirektionales Netz (Modem-Rückstrecke, Kabel, ...) des Typs Point-to-Point wie das Telefonnetz verbunden sein oder nicht. Der Broadcaster 50 und der Services Operator 60 sind über eine Verbindung 83 des Typs TCP-IP miteinander verbunden, auf der ein dem CORBA-Standard (CORBA: Common Object Request Broker Architecture) entsprechender Bus eingesetzt ist.
  • Es ist vorgesehen, dass der Broadcaster 50 interaktive Inhalte oder deren URLs, welche zur Vereinfachung "interaktive Dienste S" genannt werden, während der Dauer der zugeordneten audiovisuellen Programme 15 zyklisch sendet (Karussell) sendet. In einem Funktionsbeispiel (6) sendet der Broadcaster 50 sukzessive während der Zeit t die Dienste S1, S2 und S3 zyklisch gemeinsam mit den jeweiligen erweiterten Programmen PG1, PG2 und PG3 bis zu Zeitpunkten des Endes der Verfügbarkeit FS1, FS2 und FS3 der Dienste S.
  • In einer ersten Ausführungsform (7) ist das Synchronisationssystem 5 in einem Rechner 62 des Services Operators 60 implementiert und wird von einem Operator 61 über ein Netz 84 kontrolliert. Im Betrieb mit Auslesen von Inhaltsteilen kann wie folgt verfahren werden:
    • – Schritt 1: Programmierung der Spezifikationseinheit 1 des Synchronisationssystems 5 durch Aufhängen auf einen Sender, wo ein audiovisuelles Programm vor dem Programm 15 gebroadcastet werden muss und mit einem identischen Referenzmotiv oder auf Informationen bezüglich der Programme dieses Senders (wie einem Programmnavigator); Definition von zu detektierenden, diesem Motiv zugeordneten Bildern und/oder Tönen und Spezifikation der Erkennungselemente 11, welche Anweisungen zum Auslesen dieser Bilder und/oder Töne einschließen, und der zu broadcastenden Aktionskennung 12;
    • – Schritt 2: Broadcasten des audiovisuellen Vorprogramms durch den Broadcaster 50, Empfang dieses Programms durch das Synchronisationssystem 5, Anwendung der Anweisungen zum Auslesen der zu detektierenden Bilder und/oder Töne in diesem Programm und Aufnahme;
    • – Schritt 3: Wenn der Zeitpunkt gekommen ist, das Programm 15 zu broadcasten, startet ein Videoserver oder ein Videorecorder des Broadcasters 50 das Senden des audiovisuellen Programms 15;
    • – Schritt 4: Broadcasten des audiovisuellen Programms 15 alleine (über Broadcastrelais 56);
    • – Schritt 5: Das Synchronisationssystem 5 empfängt dann die Bilder des audiovisuellen Programms 15, auf die ein interaktiver Dienst S zu synchronisieren ist, und analysiert sie;
    • – Schritt 6: Wenn die programmierten Bilder und/oder Töne detektiert sind, informiert das Synchronisationssystem 5 einen Broadcastserver des Broadcasters 50, der dann das Broadcasten des interaktiven Diensts S gleichzeitig mit dem audiovisuellen Programm 15 auslösen kann;
    • – Schritt 7: Gleichzeitiges Broadcasten des interaktiven Diensts S und des audiovisuellen Programms 15.
  • Die zu detektierenden Bilder und/oder Töne nicht direkt aufzunehmen, ist für den Services Operator 60 insofern interessant, als es für ihn zur Programmierung der Synchronisation ausreichend sein kann, über Teilinformationen über die vor dem Broadcasten der Programme 15 vorgesehenen Broadcastvorgänge zu verfügen.
  • In einer zweiten Ausführungsform (8) ist die Spezifikationseinheit 1 innerhalb des Services Operators 60 wie in der ersten Ausführungsform der 7 implementiert, die Erkennungseinheit 2 und die Aktivierungseinheit 3 sind jedoch in dem Broadcastserver des Broadcasters 50 implementiert. Der Ablauf der Funktionsschritte ist im Übrigen ähnlich dem Ablauf der ersten Ausführungsform.
  • In der dritten Ausführungsform (9) ist die Spezifikationseinheit 1 diesmal bei dem Broadcaster 50 implementiert und die Erkennungseinheit 2 und die Aktivierungseinheit 3 sind in dem Endgerät 70 eingebettet. Das Endgerät 70 umfasst genauer (10) einen Block für die Rückgewinnung 71 von gebroadcasteten Signalen (unter Einbeziehung des Betriebssystems und der Treiber), welcher für den Empfang von Paaren 10 von Mengen von Erkennungselementen 11 und Aktionskennungen 12 und interaktive Dienste S vorgesehen ist. Dieser Block 71 ist vorgesehen, um der Erkennungseinheit 2 die Erkennungselemente 11 und einer interaktiven oder Präsentationsmiddleware 72 die interaktiven Dienste S mitzuteilen.
  • Im Betrieb wird wie folgt verfahren:
    • – Schritt 1: Programmierung der Erkennungseinheit 2 des Synchronisationssystems 5 durch einen Operator des Broadcasters 50 durch Wahl der Bilder und/oder Töne für die Synchronisation und das Broadcasten der Erkennungselemente 11 (allgemeiner: des Paares 10) mit Phasenvoreilung mit Anweisungen um Auslesen dieser Bilder und/oder Töne in einem zuvor gebroadcasteten Programm und des bei einer Detektion auszuführenden interaktiven Diensts S;
    • – Schritt 2: Auslesen und Aufnahme der zu detektierenden Bilder und/oder Töne gemäß den in den Erkennungselementen 11 eingeschlossenen Ausleseanweisungen durch die Erkennungseinheit 2 in einem von dem Broadcaster 50 gesendeten Programm;
    • – Schritt 3: Wenn der Zeitpunkt gekommen ist, das Programm 15 zu broadcasten, startet ein Videoserver oder ein Videorecorder des Broadcasters 50 die Sendung des audiovisuellen Programms 15;
    • – Schritt 4: Broadcasten des audiovisuellen Programms 15 alleine;
    • – Schritt 5: Die in dem Endgerät 70 eingebettete Erkennungseinheit 2 empfängt dann die Bilder des audiovisuellen Programms 15, auf die der interaktive Dienst S zu synchronisieren ist, und analysiert sie;
    • – Schritt 6: Wenn die programmierten Bilder und/oder Töne detektiert sind, informiert die Erkennungseinheit 2 die interaktive Middleware 72 über die Aktivierungseinheit 3, und die Middleware 72 kann dann die Ausführung des interaktiven Diensts S auslösen; in Varianten ist die auszulösende Aktion das Anzeigen oder die Aktualisierung des interaktiven Diensts auf dem Endgerät 70;
    • – Schritt 7: Gleichzeitiges Erscheinen des interaktiven Diensts S und des audiovisuellen Programms 15.
  • Ein Vorteil dieser dritten Ausführungsform im Vergleich zu den zwei ersten besteht darin, dass man eine Verschiebung zwischen dem Zeitpunkt, zu dem das audiovisuelle Programm 15 gebroadcastet wird, und dem Zeitpunkt, zu dem der interaktive Dienst S in dieses eingefügt wird, vermeidet. Sie erfordert jedoch beträchtliche Ressourcen in dem Endgerät 70 (CPU, Speicher, ...).
  • Gemäß einer vierten nicht dargestellten Ausführungsform ist das Synchronisationssystem 5 vollständig in ein Endgerät integriert. Der Benutzer kann somit die Synchronisationsmodalitäten beispielsweise hinsichtlich der Aufnahme von Programmen definieren.
  • In einer Ausführungsvariante ist die Spezifikationseinheit 1 vorgesehen, um zunächst der Erkennungseinheit 2 zu ermöglichen, mehrere ausgelesene, jeweils eindeutigen Teile-Kennungen zugeordnete Teile zu gewinnen. Bei der Phase der Speicherung jedes Inhaltsteils in dem Speicherraum 20 speichert somit das Aufnahmemodul 25 ebenfalls die entsprechende Teil-Kennung. Bei einem späteren Schritt der Spezifikation einer ins Auge gefassten Detektion sendet die Spezifikationseinheit 1 lediglich die Teile-Kennungen in die Erkennungselemente 11 der Paare 10. Diese Kennungen spielen dann die Rolle von Schlüsseln, mit denen das Erscheinen der ausgelesenen Teile und die anderen Parameter wie insbesondere Verzögerungsfristen 13 oder 19 und/oder auszulösende Aktionen verbunden werden können.
  • Der vorhergehende Schritt der Gewinnung von ausgelesenen Teilen beispielsweise definiert drei Kennungen ID1, ID2 und ID3, die drei Inhaltsteilen POR1, POR2 beziehungsweise POR3 (Tabelle 1) zugeordnet sind, anschließend definiert der spätere, Synchronisationsanweisungen liefernde Übertragungsschritt Fristen und Aktionen A' und A'', die den Kennungen ID2 beziehungsweise ID1 zugeordnet sind (Tabelle 2). Tabelle 1 – Aufnahme von Teilen und zugeordneten Kennungen
    Figure 00360001
    Tabelle 2 – Anweisungen zur Synchronisation von Aktionen
    Figure 00370001
  • In einer besonderen Ausführung dieser Variante können die ins Auge gefassten Detektionsspezifikationen auch Detektionszeitbereiche enthalten. Wenn die Erkennungseinheit 2 erfasst, dass die aktuelle Zeit außerhalb dieser Zeitbereiche liegt, nimmt sie die Analyse der gebroadcasteten Inhalte nicht vor. Anderenfalls wird das Detektionsmodul aktiviert. Mehrere Erkennungszeitbereiche können sich im Übrigen überlappen. Die Kennungen ID1 und ID2 beispielsweise sind einer Detektion "Freitags zwischen 15 Uhr und 16 Uhr" beziehungsweise "Täglich außer am Wochenende zwischen 12 Uhr und 16 Uhr" zugeordnet.
  • Es sollen jetzt Anwendungen auf die analoge und digitale Welt des Synchronisationssystems 5 gemäß dem ATVEF-Standard (ATVEF: Advanced Television Enhancement Forum) beziehungsweise dem DVB-Standard entwickelt werden. Sie betreffen die Integration der Erkennungseinheit 2 und der Aktivierungseinheit 3 in das Endgerät 70 (9).
  • A/Anwendungen auf die analoge Welt: ATVEF
  • Es werden drei Hauptschritte unterschieden:
    • – Vorabanzeige von mindestens einem zu detektierenden Bild; das Endgerät 70 muss somit dieses Bild gewinnen und sichern,
    • – Auslösen einer Aktion oder mehrerer Aktionen auf die Detektion dieses Bilds hin während einer Detektionsperiode und
    • – Anzeige des Endes der Detektionsperiode an das Endgerät 70.
  • A1 – Anzeige eines oder mehrerer zu detektierenden Bilder
  • Gemäß einem ersten Beispiel wird ein vollständiges Bild detektiert. Während der Sendung eines Programms wird demnach ein Trigger gesendet, der dem Endgerät 70 anzeigt, dass das aktuelle empfangene Bild gesichert werden muss, um anschließend detektiert zu werden.
  • Der Trigger hat beispielsweise die folgende Form:
    Figure 00380001
    wo
    • – das Feld "PictureStorage" dem Endgerät 70 anzeigt, dass das aktuelle Bild unter dem Namen "Picture1" zu speichern ist,
    • – das optionale Feld "name" eine Beschreibung des Triggers liefert,
    • – das Feld "PNAME" den Namen des Bildes spezifiziert, das später referenziert wird und
    • – das Feld "ACQUIRE" angibt, dass der Trigger die Gewinnung eines Bildes auslösen muss.
  • Gemäß einem zweiten Beispiel wird ein Unterteil eines Bildes detektiert. Der Trigger ATVEF hat dann beispielsweise die folgende Form:
    Figure 00380002
    wo
    • – das Feld "tlc" (tlc: top left corner) gibt die Koordinaten der oberen linken Ecke eines zu detektierenden Rechtecks an und
    • – das optionale Feld "brc" (brc: bottom right corner) gibt die Koordinaten der unteren rechten Ecke des zu detektierenden Rechtecks an; fehlt dieses Feld, so wird die untere rechte Ecke des Bildes für die Definition des Rechtecks berücksichtigt.
  • A2 – Anzeige des Anfanges der Detektionsperiode
  • Gemäß einer vorteilhaften Ausführung werden ein spezifischer Trigger, der dem Endgerät 70 anzeigt, dass es die Suche nach einem zuvor gewonnenen Bild starten muss, und ein weiterer spezifischer Trigger für das Ende der Suche gesendet. Die Spezifikation des ins Auge gefassten Bildes erfolgt beispielsweise durch Referenzierung einer Bildkennung.
  • Der Trigger hat beispielsweise die folgende Form:
    Figure 00390001
    wo
    • – das Feld "service_url/servicename" eine bei der Detektion eines zuvor gewonnenen Bildes auszulösende Aktion spezifiziert,
    • – das Feld "PNAME" das zu detektierende Bild (picture1) angibt,
    • – das Feld "DETECT" angibt, dass der Trigger für das Auslösen einer Detektion vorgesehen ist und
    • – das Feld "tlc" den Bereich des zu betrachtenden Bildes präzisiert (obere linke Ecke).
  • A3 – Anzeige des Endes der Detektionsperiode
  • Ein Trigger wird an das Endgerät 70 gesendet, um ihm anzuzeigen, dass die Periode der Detektion eines Bildes zu Ende geht.
  • In dem betrachteten Beispiel wird somit die Unterbrechung der Detektion des Bildes Picture1 bei Empfang des folgenden Triggers wirksam:
    Figure 00390002
    wo
    • – das Feld "PictureStorage" dem Endgerät 70 angibt, wo und unter welchem Namen das Bild gespeichert ist,
    • – das optionale Feld "name" eine Beschreibung des Triggers liefert und
    • – das Feld "DETECT" spezifiziert, dass der Trigger vorgesehen ist, um die Unterbrechung der Bilddetektion auszulösen.
  • B/Anwendungen auf die digitale Welt: DVB
  • Tabellen SI (SI: System Information) bieten die Möglichkeit, Ereignisdeskriptoren wie "Short Events Descriptors" (siehe den ETSI-Standard (ETSI: European Telecommunications Standard Institute) EN 300-468 V1.4.1, § 6.2.33) einzuschließen. Ein solcher Deskriptor gibt den Namen des betrachteten Ereignisses an und liefert davon eine Beschreibung im Textformat (maximal 256 Zeichen für den hier benutzten Ereignistyp).
  • Er stellt sich im Allgemeinen in der folgenden Syntaxform dar:
    Figure 00400001
    wo
    • – das Feld "descriptor_tag" einen Identifikationstag liefert; bei der betrachteten Umsetzung wird er verwendet, um zu spezifizieren, dass es um eine Bildspeicherung ("PICTURE_STORAGE"), um einen Anfang einer Detektionsperiode ("PICTURE_STRRT_DETECTION") oder eine Unterbrechung einer Detektionsperiode ("PICTURE_STOP_DETECTION") geht,
    • – das Feld "descriptor_length" die Länge des Deskriptors liefert,
    • – das Feld "language_code" drei Zeichen umfasst, die den Sprachcode angeben (beispielsweise "fre"),
    • – das Feld "event_name_length" die Länge des Ereignisnamens in Bytes angibt,
    • – das Feld "event_name_char" eine Kette von das Ereignis identifizierenden Zeichen ist; es kann sich hier um eine Bildgewinnung ("Picture1_Acquisition"), einen Detektionsbeginn ("Picture1_Start_Detection") oder ein Detektionsende ("Picture1_Stop_Detection") handeln,
    • – das Feld "text_length" die Länge der Beschreibung des Ereignisses in Bytes angibt und
    • – das Feld "text_char" eine Kette von das Ereignis beschreibenden Zeichen ist; in dem betrachteten Beispiel besteht es in "PNAME=Picture1".
  • Genauer: In Übereinstimmung mit der Tabelle 12 und dem ETSI-Standard EN 300-486 V1.4.1, welche anzeigen, dass die für den für den descriptor_tag verwendeten Benutzertags von 0 × 80 bis 0 × FE gehen, werden die in der Tabelle 3 angegebenen Zuordnungen definiert. Tabelle 3 – Werte des Feldes descriptor tag
    Figure 00410001
  • Beispiele einer Signalisierung, wonach dem Endgerät 70 angezeigt wird, dass es ein Bild unter dem Namen "Picture 1" speichern muss, die Periode der Detektion dieses Bildes beginnen muss und die Periode der Detektion dieses Bildes unterbrechen muss, sind in den Tabellen 4, 5 und 6 angegeben. Tabelle 4 – Signalisierung für Bildspeicherung
    Figure 00420001
    Tabelle 5 – Signalisierung für den Beginn einer Detektionsperiode
    Figure 00420002
    Tabelle 6 – Signalisierung für das Ende einer Detektionsperiode
    Figure 00420003

Claims (22)

  1. Einheit (2) zur Erkennung von Synchronisationssignalen in mindestens einem empfangenen audiovisuellen Programm (15), wobei das audiovisuelle Programm (15) einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, wobei die Erkennungseinheit (2) Folgendes umfasst: – ein Empfangsmodul (21, 24) und ein Modul (25) für die Aufnahme in einen Speicherraum (20) von Erkennungselementen (11), welche die Gewinnung mindestens eines aus dem Inhalt des audiovisuellen Programms (15) ausgelesenen Teils ermöglichen, – ein Modul (21), um mindestens einen übertragenen, das audiovisuelle Programm (15) tragenden Datenstrom über ein Broadcastnetz (81) zu empfangen, – ein Modul (22), um die Synchronisationssignale (11) in dem empfangenen audiovisuellen Programm (15) mittels der in dem Speicherraum (20) gespeicherten Erkennungselemente (11) durch Erkennung des ausgelesenen Teils in dem Inhalt des empfangenen audiovisuellen Programms (15) zu detektieren, und – ein Modul (23) für die Übertragung von Aktionsanweisungen (12) bei Detektion der Synchronisationssignale in dem audiovisuellen Programm (15), wobei die Anweisungen (12) vorgesehen sind, um mindestens eine Aktion auszulösen, dadurch gekennzeichnet, dass das Modul (21, 24) für den Empfang der Erkennungselemente (11) vorgesehen ist, um unter den Erkennungselementen (11) Anweisungen zu empfangen, um den ausgelesenen Teil in mindestens einem Datenstrom eines zuvor von dem Datenstromempfangsmodul (21) empfangenen audiovisuellen Programms auszulesen, wobei der Teil aus dem zuvor empfangenen audiovisuellen Programm ausgelesen wird, und dass das Aufnahmemodul (25) vorgesehen ist, um den Teil direkt aus dem Datenstrom gemäß den Ausleseanweisungen auszulesen und um den Teil in den Speicherraum (20) aufzunehmen.
  2. Erkennungseinheit (2) nach Anspruch 1, dadurch gekennzeichnet, dass das Modul (21, 24) für den Empfang der Erkennungselemente (11) vorgesehen ist, um eine Auslösenachricht zu empfangen, und dass das Aufnahmemodul (25) vorgesehen ist, um gleich bei Empfang der Auslösenachricht den Teil aus dem zuvor empfangenen Datenstrom auszulesen und aufzunehmen.
  3. Erkennungseinheit (2) nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das Modul (24) für den Empfang der Erkennungselemente (11) auch vorgesehen ist, um unter den Erkennungselementen (11) mindestens eine Kennung des ausgelesenen Teils zu empfangen, und dass das Detektionsmodul (22) in der Lage ist, in dem Speicherraum (20) den ausgelesenen, zuvor aufgenommenen und der Kennung zugeordneten Teil zurückzubekommen, um in dem Inhalt des empfangenen audiovisuellen Programms (15) den ausgelesenen Teil zu erkennen.
  4. Erkennungseinheit (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Modul (24) für den Empfang der Erkennungselemente (11) auch vorgesehen ist, um unter den Erkennungselementen (11) den ausgelesenen Teil direkt zu empfangen, und das Aufnahmemodul (25) vorgesehen ist, um den ausgelesenen Teil in den Speicherraum (20) aufzunehmen.
  5. Erkennungseinheit (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Erkennungseinheit (2) ebenfalls ein Modul (26) zur Verzögerung vor der Sendung der Aktionsanweisungen (12) durch das Übertragungsmodul (23) umfasst.
  6. Erkennungseinheit (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Module für den Empfang (24) und für die Aufnahme (25) von Erkennungselementen (11) und das Modul (23) für die Übertragung von Aktionsanweisungen (12) vorgesehen sind, um Kennungen (12) betreffend die auszulösenden Aktionen zu empfangen, aufzunehmen beziehungsweise zu übertragen.
  7. Erkennungseinheit (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jeder der Inhaltsteile durch mindestens einen der folgenden Teile gebildet ist: ein Bild, einen Bildteil, einen Ton und eine beliebige Kombination von mindestens zwei der Teile.
  8. Erkennungseinheit (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Erkennungselemente (11) mindestens einen booleschen Operator einschließen, wobei das Detektionsmodul (22) vorgesehen ist, um mindestens zwei der Inhaltsteile in Verbindung mit dem booleschen Operator zu detektieren, und das Übertragungsmodul (23) vorgesehen ist, um die Aktionsanweisungen (12) bei einer solchen Detektion zu übertragen.
  9. Erkennungseinheit (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Erkennungselemente (11) mindestens eine Zeitinformation einschließen, wobei das Detektionsmodul (22) vorgesehen ist, um die Inhaltsteile in Verbindung mit der Zeitinformation zu detektieren, und das Übertragungsmodul (23) vorgesehen ist, um die Aktionsanweisungen (12) bei einer solchen Detektion zu übertragen.
  10. Erkennungseinheit (2) nach Anspruch 9, dadurch gekennzeichnet, dass die Zeitinformation mindestens eine Information umfasst, die unter einem Detektionsdatum und einem Detektionszeitfenster gewählt wird.
  11. Erkennungseinheit (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Erkennungselemente (11) mindestens eine Kanalreferenz einschließen, wobei das Detektionsmodul (22) vorgesehen ist, um die Inhaltsteile in Verbindung mit der Kanalreferenz zu detektieren, und das Übertragungsmodul (23) vorgesehen ist, um die Aktionsanweisungen (12) bei einer solchen Detektion zu übertragen.
  12. Einheit (1) zur Spezifikation von mindestens einem audiovisuellen Programm (15) zugeordneten Synchronisationssignalen, wobei das audiovisuelle Programm (15) einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, und wobei die Synchronisationssignale dazu bestimmt sind, in mindestens einem das über ein Broadcastnetz (81) übertragene audiovisuelle Programm (15) tragenden Datenstrom detektiert zu werden und somit mindestens eine Aktion auszulösen, dadurch gekennzeichnet, dass die Spezifikationseinheit (1) Folgendes umfasst: – ein Modul (34) für die Vorbereitung von Erkennungselementen (11), welches die Gewinnung mindestens eines aus dem Inhalt des audiovisuellen Programms (15) ausgelesenen Teils ermöglicht, und – ein Modul (37) für die Übertragung der Erkennungselemente (11) – unabhängig von Übertragungen des audiovisuellen Programms (15) – an mindestens eine Erkennungseinheit (2) zur Detektion der Synchronisationssignale in dem übertragenen, das audiovisuelle Programm (15) tragenden Datenstrom durch Erkennung des ausgelesenen Teils in dem Inhalt des audiovisuellen Programms (15), und dass das Vorbereitungsmodul (34) und das Übertragungsmodul (37) der Einheit (1) vorgesehen sind für die Vorbereitung beziehungsweise für die Übertragung von Anweisungen zum Auslesen des Inhaltsteils in mindestens einem Datenstrom eines zuvor von der Erkennungseinheit (2) über das Broadcastnetz (81) empfangenen audiovisuellen Programms, wobei der Teil aus dem zuvor empfangenen audiovisuellen Programm ausgelesen wird, wobei die Spezifikationseinheit (1) in der Lage ist, mit der Erkennungseinheit (2) nach einem der Ansprüche 1 bis 11 zusammenzuwirken.
  13. Spezifikationseinheit (1) nach Anspruch 12, dadurch gekennzeichnet, dass das Vorbereitungsmodul (34) und das Übertragungsmodul (37) der Einheit (1) für die Vorbereitung beziehungsweise für die Übertragung von Kennungen (12) betreffend die bei Detektion der Synchronisationssignale auszulösenden Aktionen vorgesehen sind.
  14. Spezifikationseinheit (1) nach Anspruch 13, dadurch gekennzeichnet, dass die Aktionskennungen (12) mindestens eine der folgenden Aktionen betreffen: Broadcasten eines interaktiven Dienstes (S), Auslösen eines interaktiven Dienstes (S), Auslösen einer Aktualisierung eines interaktiven Dienstes (S), Auslösen einer Aufnahme des audiovisuellen Programms (15) und Verbindung zu einer Web-Site.
  15. Synchronisationssystem (5) mit – einer Einheit (1) zur Spezifikation von mindestens einem audiovisuellen Programm (15) zugeordneten Synchronisationssignalen, wobei das audiovisuelle Programm (15) einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, – einer Einheit (2) zur Erkennung der Synchronisationssignale in mindestens einem das über ein Broadcastnetz (81) übertragene audiovisuelle Programm tragenden Datenstrom durch Erkennung mindestens eines aus dem Inhalt des audiovisuellen Programms (15) ausgelesenen Teils in dem empfangenen audiovisuellen Programm und – einer Aktivierungseinheit (3) zum Auslösen von mindestens einer Aktion bei Detektion der Synchronisationssignale durch die Erkennungseinheit (2), dadurch gekennzeichnet, dass die Spezifikationseinheit (1) vorgesehen ist, um Erkennungselemente (11) vorzubereiten und an die Erkennungseinheit (2) zu übertragen, welche die Gewinnung des ausgelesenen Teils ermöglichen und Anweisungen umfassen, um den Inhaltsteil in mindestens einem Datenstrom eines zuvor von der Erkennungseinheit (2) über das Broadcastnetz (81) empfangenen audiovisuellen Programms auszulesen, wobei der Teil aus dem zuvor empfangenen audiovisuellen Programm ausgelesen wird, und dass die Erkennungseinheit (2) vorgesehen ist, um den Teil direkt aus dem Datenstrom gemäß den Ausleseanweisungen auszulesen und den Teil aufzunehmen, wobei die Erkennungseinheit (2) einem der Ansprüche 1 bis 11 und die Spezifikationseinheit (1) einem der Ansprüche 12 bis 14 entsprechen.
  16. Broadcaster (50), dadurch gekennzeichnet, dass es eine Vorrichtung umfasst, die unter mindestens einem Spezifikationsmodul (1) nach einem der Ansprüche 12 bis 14, einem Erkennungsmodul (2) nach einem der Ansprüche 1 bis 11 und einem Synchronisationssystem nach Anspruch 15 gewählt ist.
  17. Services Operator (60), dadurch gekennzeichnet, dass er eine Vorrichtung umfasst, die unter mindestens einem Spezifikationsmodul (1) nach einem der Ansprüche 12 bis 14, einem Erkennungsmodul (2) nach einem der Ansprüche 1 bis 11 und einem Synchronisationssystem nach Anspruch 15 gewählt wird.
  18. Endgerät (70) für den Empfang von audiovisuellen Programmen (15), dadurch gekennzeichnet, dass es eine Vorrichtung umfasst, die unter mindestens einem Spezifikationsmodul (1) nach einem der Ansprüche 12 bis 14, einem Erkennungsmodul (2) nach einem der Ansprüche 1 bis 11 und einem Synchronisationssystem nach Anspruch 15 gewählt wird.
  19. Verfahren zur Aktivierung durch Erkennung von Synchronisationssignalen in mindestens einem empfangenen audiovisuellen Programm (15), wobei das audiovisuelle Programm (15) einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, wobei das Verfahren die folgenden Schritte umfasst: – Empfang von mindestens einem übertragenen, das audiovisuelle Programm (15) tragenden Datenstrom über ein Broadcastnetz (81) – Detektion der Synchronisationssignale (11) in dem empfangenen audiovisuellen Programm (15) mittels Erkennungselementen (11), welche die Gewinnung mindestens eines aus dem Inhalt des audiovisuellen Programms (15) ausgelesenen Teils ermöglichen und die in einem Speicherraum (20) gespeichert sind, durch Erkennen des ausgelesenen Teils in dem Inhalt des audiovisuellen Programms (15), und – Auslösen von mindestens einer Aktion bei Detektion der Synchronisationssignale in dem audiovisuellen Programm (15), dadurch gekennzeichnet, dass die Erkennungselemente (11) Anweisungen umfassen, um den ausgelesenen Teil in mindestens einem Datenstrom eines zuvor empfangenen audiovisuellen Programms durch Auslesen des Teils aus dem zuvor empfangenen audiovisuellen Programm auszulesen, der Teil aus dem zuvor empfangenen Datenstrom gemäß den Ausleseanweisungen direkt ausgelesen wird und der Teil in den Speicherraum (20) aufgezeichnet wird.
  20. Verfahren zur Spezifikation von mindestens einem audiovisuellen Programm (15) zugeordneten Synchronisationssignalen, wobei das audiovisuelle Programm (15) einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, wobei die Synchronisationssignale dazu bestimmt sind, in mindestens einem das über ein Broadcastnetz (81) übertragene audiovisuelle Programm (15) tragenden Datenstrom detektiert zu werden und somit mindestens eine Aktion auszulösen, dadurch gekennzeichnet, dass das Spezifikationsverfahren die folgenden Schritte umfasst: – Vorbereitung von Erkennungselementen (11), welche die Gewinnung mindestens eines aus dem audiovisuellen Programm (15) ausgelesenen Teils ermöglichen, – Übertragung der Informationen – unabhängig von Übertragungen des audiovisuellen Programms (15) – zur Detektion der Synchronisationssignale in dem übertragenen, das audiovisuelle Programm (15) tragenden Datenstrom durch Erkennung des ausgelesenen Teils in dem Inhalt des audiovisuellen Programms (15), und – Übertragung von Anweisungen zum Auslesen des Inhaltsteils in mindestens einem Datenstrom eines zuvor von der Erkennungseinheit (2) über das Broadcastnetz (81) empfangenen audiovisuellen Programms durch Auslesen des Teils aus dem zuvor empfangenen audiovisuellen Programm.
  21. Synchronisationsverfahren mit den folgenden Schritten: – einem Schritt der Spezifikation von mindestens einem audiovisuellen Programm (15) zugeordneten Synchronisationssignalen, wobei das audiovisuelle Programm (15) einen audiovisuellen Inhalt, der dazu bestimmt ist, für Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, bei dem für die Detektion Erkennungselemente (11) spezifiziert werden, welche die Gewinnung mindestens eines aus dem Inhalt des audiovisuellen Programms (15) ausgelesenen Teils ermöglichen, – einem Schritt der Detektion der Synchronisationssignale in mindestens einem das über ein Broadcastnetz (81) übertragene audiovisuelle Programm (15) tragenden Datenstrom, bei dem die Synchronisationssignale in dem empfangenen audiovisuellen Programm durch Erkennung des ausgelesenen Teils in dem Inhalt des audiovisuellen Programms (15) detektiert werden und – einem Schritt des Auslösens von mindestens einer Aktion bei Detektion der Synchronisationssignale, dadurch gekennzeichnet, dass die Erkennungselemente (11) vorbereitet und an die Erkennungseinheit (2) übertragen werden, welche Anweisungen umfassen, um den Inhaltsteil in mindestens einem Datenstrom eines zuvor von der Erkennungseinheit (2) über das Broadcastnetz (81) empfangenen audiovisuellen Programms durch Auslesen des Teils aus dem zuvor empfangenen audiovisuellen Programm auszulesen, und dass der Teil direkt aus dem Datenstrom gemäß den Ausleseanweisungen ausgelesen wird und der Teil aufgenommen wird.
  22. Computerprogrammprodukt, dadurch gekennzeichnet, dass es Programmcode-Anweisungen für die Durchführung der Schritte eines der Verfahren nach einem der Ansprüche 19 bis 21 umfasst, wenn das Programm auf einem Computer ausgeführt wird.
DE60303948T 2002-06-28 2003-06-27 Synchronisationssystem und verfahren für audiovisuelle programme Expired - Lifetime DE60303948T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0208091 2002-06-28
FR0208091A FR2841724A1 (fr) 2002-06-28 2002-06-28 Systeme et procede de synchronisation pour programmes audiovisuels, dispositifs et procedes associes
PCT/EP2003/050273 WO2004004336A2 (fr) 2002-06-28 2003-06-27 Systeme et procede de synchronisation pour programmes audiovisuels, dispositifs et procedes associes

Publications (2)

Publication Number Publication Date
DE60303948D1 DE60303948D1 (de) 2006-05-04
DE60303948T2 true DE60303948T2 (de) 2006-11-23

Family

ID=29724976

Family Applications (2)

Application Number Title Priority Date Filing Date
DE60303948T Expired - Lifetime DE60303948T2 (de) 2002-06-28 2003-06-27 Synchronisationssystem und verfahren für audiovisuelle programme
DE60327081T Expired - Lifetime DE60327081D1 (de) 2002-06-28 2003-06-27 Synchronisationssystem und verfahren für audiovisuelle programme, assoziierte einrichtungen und verfahren

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE60327081T Expired - Lifetime DE60327081D1 (de) 2002-06-28 2003-06-27 Synchronisationssystem und verfahren für audiovisuelle programme, assoziierte einrichtungen und verfahren

Country Status (11)

Country Link
US (2) US8612544B2 (de)
EP (2) EP1535473B1 (de)
JP (2) JP4846235B2 (de)
KR (2) KR101011140B1 (de)
CN (2) CN100586192C (de)
AU (2) AU2003251727A1 (de)
DE (2) DE60303948T2 (de)
ES (2) ES2324990T3 (de)
FR (1) FR2841724A1 (de)
MX (2) MXPA04012944A (de)
WO (2) WO2004004360A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7479555B2 (en) 1999-07-21 2009-01-20 Ceres, Inc. Polynucleotides having a nucleotide sequence that encodes a polypeptide having MOV34 family activity
FR2826224B1 (fr) * 2001-06-15 2003-09-26 Thomson Licensing Sa Procede de synchronisation de diffusion de programmes et d'incorporation de contenus de diffusion, dispositif et produits correspondants
FR2855705A1 (fr) * 2003-05-28 2004-12-03 Thomson Licensing Sa Procede de navigation pour la selection de documents associes a des identificateurs, et recepteur mettant en oeuvre le procede.
EP1566838A3 (de) * 2004-02-20 2010-09-01 LG Electronics, Inc. Organische elektrolumineszente Anzeigevorrichtung und Herstellungsverfahren
US8307403B2 (en) 2005-12-02 2012-11-06 Microsoft Corporation Triggerless interactive television
KR100755713B1 (ko) * 2006-03-10 2007-09-05 삼성전자주식회사 시각화 이미지 제공 장치 및 방법
KR101479891B1 (ko) * 2010-12-26 2015-01-06 엘지전자 주식회사 방송 서비스 전송 방법, 그 수신 방법 및 그 수신 장치
EP2659663B1 (de) 2010-12-29 2016-04-20 Telecom Italia S.p.A. Verfahren und system zur synchronisation von elektronischen programmführers
US8646023B2 (en) 2012-01-05 2014-02-04 Dijit Media, Inc. Authentication and synchronous interaction between a secondary device and a multi-perspective audiovisual data stream broadcast on a primary device geospatially proximate to the secondary device
WO2014145657A2 (en) * 2013-03-15 2014-09-18 Timeflash Llc Scalable navigation slider
US20190208236A1 (en) * 2018-01-02 2019-07-04 Source Digital, Inc. Coordinates as ancillary data

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4230990C1 (en) 1979-03-16 2002-04-09 John G Lert Jr Broadcast program identification method and system
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US5485518A (en) * 1993-09-30 1996-01-16 Yellowstone Environmental Science, Inc. Electronic media program recognition and choice
US5886995A (en) 1996-09-05 1999-03-23 Hughes Electronics Corporation Dynamic mapping of broadcast resources
US6637032B1 (en) * 1997-01-06 2003-10-21 Microsoft Corporation System and method for synchronizing enhancing content with a video program using closed captioning
EP0866616A1 (de) * 1997-03-21 1998-09-23 CANAL+ Société Anonyme Verfahren und Vorrichtung zur Übertragung von Daten
US5818440A (en) 1997-04-15 1998-10-06 Time Warner Entertainment Co. L.P. Automatic execution of application on interactive television
US6460180B1 (en) * 1999-04-20 2002-10-01 Webtv Networks, Inc. Enabling and/or disabling selected types of broadcast triggers
US6415438B1 (en) 1999-10-05 2002-07-02 Webtv Networks, Inc. Trigger having a time attribute
EP1206870B1 (de) 1999-08-27 2004-06-16 Siemens Aktiengesellschaft Tragbares telefon
CN100379273C (zh) * 1999-09-20 2008-04-02 提维股份有限公司 闭式字幕添加标签的系统
FR2799023B1 (fr) 1999-09-24 2003-04-18 France Telecom Procede de classification thematique de documents, module de classification thematique et moteur de recherche incorporant un tel module
AU1115001A (en) 1999-10-22 2001-05-08 Activesky, Inc. An object oriented video system
FR2803472B1 (fr) 2000-01-03 2003-05-16 Nptv Procede informatique pour l'exploitation d'une emission de television numerique interactive
US6771885B1 (en) * 2000-02-07 2004-08-03 Koninklijke Philips Electronics N.V. Methods and apparatus for recording programs prior to or beyond a preset recording time period
TW518890B (en) 2000-03-21 2003-01-21 Koninkl Philips Electronics Nv System and method for automatic content enhancement of multimedia output device
EP1286541B1 (de) 2000-04-14 2012-05-02 Nippon Telegraph And Telephone Corporation Verfahren, system und vorrichtung zum erfassen von informationen bezüglich rundsendeinformationen
US9788058B2 (en) * 2000-04-24 2017-10-10 Comcast Cable Communications Management, Llc Method and system for automatic insertion of interactive TV triggers into a broadcast data stream
WO2001091462A1 (fr) 2000-05-25 2001-11-29 Thomson Licensing Sa Dispositif et procede de synchronisation de programmes audiovisuels diffuses et d'informations complementaires
WO2002021840A2 (en) * 2000-09-08 2002-03-14 Webchoice. Com Synchronizing a client with a media signal
US7216170B2 (en) * 2002-05-22 2007-05-08 Microsoft Corporation Systems and methods to reference resources in a television-based entertainment system

Also Published As

Publication number Publication date
KR101011140B1 (ko) 2011-01-26
CN100586192C (zh) 2010-01-27
CN1659892A (zh) 2005-08-24
MXPA04012944A (es) 2005-05-16
KR20050016944A (ko) 2005-02-21
AU2003251727A8 (en) 2004-01-19
AU2003251726A1 (en) 2004-01-19
ES2260656T3 (es) 2006-11-01
AU2003251727A1 (en) 2004-01-19
WO2004004360A1 (en) 2004-01-08
US20050243206A1 (en) 2005-11-03
MXPA04012789A (es) 2005-02-24
ES2324990T3 (es) 2009-08-21
JP2005536090A (ja) 2005-11-24
EP1537747A2 (de) 2005-06-08
KR101004124B1 (ko) 2010-12-27
FR2841724A1 (fr) 2004-01-02
CN100379294C (zh) 2008-04-02
EP1537747B1 (de) 2006-03-08
WO2004004336A3 (fr) 2004-02-19
US20060117339A1 (en) 2006-06-01
KR20050016941A (ko) 2005-02-21
WO2004004336A2 (fr) 2004-01-08
DE60327081D1 (de) 2009-05-20
JP2005537697A (ja) 2005-12-08
EP1535473B1 (de) 2009-04-08
EP1535473A1 (de) 2005-06-01
CN1666533A (zh) 2005-09-07
JP4852243B2 (ja) 2012-01-11
US8626872B2 (en) 2014-01-07
DE60303948D1 (de) 2006-05-04
JP4846235B2 (ja) 2011-12-28
US8612544B2 (en) 2013-12-17

Similar Documents

Publication Publication Date Title
DE60217091T2 (de) Synchrones aktualisieren dynamischer interaktiver anwendungen
DE69925881T2 (de) Erinnerungsvorrichtung für Rundfunk- und Nicht-Rundfunkereignisse
DE69932060T2 (de) Simulation einer zweiwegverbindung für ein-direktionalle datenströme für mehrere teilnehmer
DE69936279T2 (de) Konfigurierbares System für die Ermittlung der Zahl der Zuschauer und der Benutzung von interaktiven Applikationen
DE112011103903B4 (de) Methode zum Empfang eines bestimmten Services und Videowiedergabegerät dazu
US9558786B2 (en) Systems, methods, and computer program products for multiple aspect ratio automated simulcast production
DE69734117T2 (de) Integriertes System für interaktives Video und Internet
DE69731549T2 (de) Interaktivität mit audiovisueller programmierung
DE69830202T2 (de) Hostgerät zur struktur einer zweiwegverbindung in einwegdatenströmen
DE60303696T3 (de) TV Programm-Datenbank
DE60210076T2 (de) Fernbedienung mit eingebautem mobiltelefon für interaktives fernsehen
EP0667081B2 (de) Adressierbare schaltungseinrichtung
DE69533565T2 (de) Verteiltes Computersystem
DE69738024T2 (de) Fernsehprogrammierungssystem und betriebsverfahren dazu
DE69731988T2 (de) Verfahren und Gerät zur Anzeige von Bildern und Daten
DE69933503T2 (de) Elektronischer, auf einem Schirm dargestellter Quellenführer
DE60300838T2 (de) Videoaufzeichnung entsprechend einer aktualisierten Programmvorschau
DE60006708T2 (de) System und verfahren zur aufnahme von push daten
DE2435822C2 (de) Signalverarbeitungseinrichtung
DE69836193T2 (de) Empfangsgerät zur Verarbeitung von Programminformationen
DE60305096T2 (de) Adressierte Rundfunknachrichtenübertragung
DE60210671T2 (de) Freier zugang zu ip video-inhalt für mhp digitale anwendungen
DE112013004029B4 (de) Vorrichtung und Verfahren zum Verarbeiten eines interaktiven Dienstes
DE60303948T2 (de) Synchronisationssystem und verfahren für audiovisuelle programme
DE60028692T2 (de) Verfahren und anordnung zur übertragung und zum empfang von kodierten bildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition