-
Die
vorliegende Erfindung bezeiht sich auf ein Synchronisationssystem
und -verfahren für
audiovisuelle Programme sowie auf zugeordnete Vorrichtungen und
Verfahren. Sie bezieht sich insbesondere auf Einheiten und Verfahren
zur Erkennung und Spezifikation von Synchronisationssignalen.
-
Das
interaktive Fernsehen ermöglicht
es einem Fernsehzuschauer, auf den Ablauf der von ihm verfolgten
Sendungen einwirken. Er kann demnach mit interaktiven Diensten interagieren.
Hierzu sind interaktive Endgeräte
für das
breite Publikum mit einem doppelten Kommunikationsnetz verbunden:
- – ein
bidirektionales Netz (Modem-Rückstrecke,
Kabel, ...) des Typs Point-to-Point wie insbesondere ein Telefonnetz
mit Einsatz eines oder mehrerer Punkt-zu-Punkt-Server und
- – ein
unidirektionales Verteilungsnetz wie insbesondere ein Kabel- oder
Satellitenfernseh-Rundfunknetz mit Einsatz eines oder mehrerer Broadcastserver;
unter "Broadcasting" ist die Übertragung
von identischen Daten zu einer Gesamtheit von Empfangsstellen, ob
diese insbesondere per Rundfunk, per Kabel oder über das Internet erfolgt.
-
Die
betrachteten Endgeräte
sind beispielsweise durch Fernsehempfänger, DVB-Decoder (DVB: Digital
Video Broadcasting) oder Internet-Decoder gebildet. Die interaktiven
Dienste werden in der Regel in den Endgeräten per Broadcasting über das
unidirektionale Netz heruntergeladen. In anderen Fällen werden
sie von Servern gehostet, die über
das Telefonnetz zugänglich
sind. Diese Dienste sind dann über
Referenzen oder Web-Adressen (welche auch URL für "Universal Resource Locator" oder Universaladressen
genannt werden) zugänglich,
welche ergänzend
zu einem audiovisuellen Programm gebroadcastet werden. Sie bestimmen den
Server, an den sich die Endgeräte
wenden müssen,
sowie den auf diesem Server zu beanspruchenden Dienst. Die entweder
mit den Diensten oder mit den URL der Dienste synchron gesendeten
audiovisuellen Programme werden dann als "erweiterte Programme" bezeichnet.
-
Die
bekannten Techniken des interaktiven Fernsehens stützen sich
in der Praxis auf die folgenden Vorgänge. Mittels eines Broadcasters
wird ein aus einem Services Operator stammender interaktiver Dienst
synchron zu einem audiovisuellen Programm (unidirektionales Netz)
gebroadcastet. Hierzu werden diesen Dienst betreffende Daten mit
audiovisuellen Signalen eingebettet, die diesem Programm eigen sind.
Wenn ein interaktives Endgerät
das derart erhaltene erweiterte Programm empfängt, broadcastet es das audiovisuelle
Programm auf den Bildschirm (Bild und Ton) und legt die Daten des
interaktiven Dienstes aus. Es stellt dann diesen auf dem Bildschirm
synchron zu dem audiovisuellen Programm typischerweise in Form einer Überblendung
einer grafischen oder Textanzeige auf das Video dar.
-
Ein
Fernsehzuschauer kann anschließend
mit dem interaktiven Dienst interagieren, wobei diese Interaktion
zu der Herstellung einer Verbindung mit einem Server des Services
Operators (bidirektionales Netz) führen kann.
-
Einer
der wesentlichen Aspekte des interaktiven Fernsehens betrifft die
Einrichtung und das Management der Synchronisation zwischen den
Programmen und den Daten von interaktiven Diensten. Im Allgemeinen
ist insbesondere vorgesehen, den interaktiven Inhalt oder seine
URL während
der Dauer des zugeordneten audiovisuellen Programms zyklisch zu senden
(Karussell). Für
die Synchronisation werden üblicherweise zwei
Einrichtungen des Broadcasters verwendet:
- – ein Verkehrssystem,
das eine Playlist mit Zeitangaben (Anfangszeit, Endzeit), Objektangaben
(zu treibende Vorrichtung) und Vorgangsangaben (auszuführender
Befehl) erzeugt und
- – ein
Automationssystem, das die Playlist zum Treiben und Steuern der
Sendeeinrichtungen des Broadcasters (Videoserver, Videorecorder,
Untertitelungsgeräte)
managt.
-
Durch
das Verkehrssystem können Änderungen
der Playlist bei signifikanten Änderungen
in der zeitlichen Organisation der Programme vorgenommen werden.
Das Automationssystem ist seinerseits in der Lage, die Liste bei
geringfügigen Änderungen
letzter Minute neu anzupassen und die Liste auf das Verkehrssystem
neu zu richten, wenn wesentlichere Änderungen erforderlich sind.
-
Die
Synchronisation der interaktiven Dienste und der Programme wird
dadurch erzielt, dass ein Broadcastserver (der als Server von interaktiven
Anwendungen dient) in die von dem Automationssystem zu steuernden
Vorrichtungen eingebunden wird. Es wird angenommen, dass der Services
Operator ständig
mit dem Broadcastserver des Broadcasters verbunden ist, um von dem
effektiven Broadcasten der programmierten Inhalte informiert zu
werden. Es handelt sich um eine Verbindung des Typs TCP-IP (Transmission
Control Protocol/Internetwork Protocol) o.a., auf der eine Schicht
einer besonderen Anwendung ausgebreitet werden kann. Diese Verbindung
dient dazu, zum einen den Broadcastserver von bei dem Services Operator
vorhandenen Verwaltungsanwendungen aus zu programmieren und zum
anderen den Services Operator insbesondere über den Zustand des Broadcastservers,
den Fortschritt bei den Sendungen von Inhalten und über allfällige Zwischenfälle zu informieren.
-
Es
werden somit Desynchronisationsprobleme zwischen dem Broadcasten
von Programmen und dem Broadcasten von zugeordneten interaktiven
Inhalten vermieden. Wenn ein audiovisuelles Programm verzögert oder
vorgezogen wird, wird nämlich
die Playlist von dem Broadcaster aktualisiert. Die verwendeten Vorrichtungen – einschließlich des
Broadcastservers – werden
somit zu den geeigneten Zeitpunkten ausgelöst.
-
Eine
solche Technik erfordert jedoch das Eingreifen des Broadcasters,
welcher seine Playlists ändern muss,
um die Ereignisse im Zusammenhang mit dem Broadcasten von interaktiven
Diensten zu berücksichtigen.
Ferner erfordert sie eine Absprache zwischen dem Broadcaster und
dem Services Operator, damit diese sich bezüglich der Befehle betreffend
das Broadcasten derartiger Dienste absprechen.
-
Es
wurden ebenfalls diverse Methoden vorgeschlagen, bei denen Synchronisationssignale
in das audiovisuelle Programm selbst eingefügt werden. So wird in der WO-01/50764
ein informatisches Verfahren für den
Betrieb einer interaktiven digitalen Fernsehsendung beschrieben,
bei dem Dienstsignale detektiert werden, die "Synchronisierimpuls"-Sequenzen entsprechen, welche die Entladung
einer Multimedia-Anwendung bewirken. In dem US-Patent US-5.818.440
wird eine interaktive Anwendung in einem interaktiven Fernsehnetz heruntergeladen,
und diese Anwendung wird bei der Detektion eines in das Videoprogramm
eingebetteten Anwendungstokens gestartet.
-
Solche
Realisierungen erfordern ebenfalls den Eingriff eines Broadcasters
oder Diensteanbieters, um den Strom von geeigneten Synchronisationssignalen
einzufügen,
und haben daher einen intrusiven Charakter.
-
Diese
Schwierigkeiten werden durch die in der WO-01/91462 offenbarte Erfindung
gelöst.
In diesem früheren
Dokument ist eine Vorrichtung zur Synchronisation von gebroadcasteten
audiovisuellen Programmen und ergänzenden Informationen beschrieben.
Die Vorrichtung umfasst eine Anordnung zur Detektion von Bildern
und/oder Tönen,
welche in der Lage ist, mindestens ein semantisches Element aus
dem Inhalt eines gerade gesendeten audiovisuellen Programm auszulesen.
Sie umfasst ebenfalls eine Einheit zur Erkennung dieser semantischen
Elemente, welche mit einem Programmnavigator verbunden ist, der
eine chronologisch geordnete Liste von den audiovisuellen Programmen
zugeordneten Informationsmengen enthält. Die durch ein vorangegangenes
Training vorbereitete Erkennungseinheit wählt die Informationsmenge aus,
die am wahrscheinlichsten mit diesen semantischen Elementen korreliert
ist. Ein Syntheseblock synchronisiert dann die audiovisuellen Programme
und die ausgewählten
Informationsmengen.
-
Diese
Erfindung erfordert jedoch aufwändige
Mittel und den Bezug auf einen Programmnavigator.
-
In
der Patentanmeldung WO-02/21840 ist eine Methode zur Synchronisation
eines Clients und eines Mediensignals vorgeschlagen. Gemäß einer
Ausführungsform
dieser Methode werden eine oder mehrere Aktionen empfangen, die
einem audiovisuellen Signal (dem Mediensignal) entsprechen, es wird
eine Anwendung bestimmt, um die Aktionen durchzuführen (beispielsweise
durch Syntaxanalyse oder Parsing von Aktionsinformation) und ein
Start dieser Aktionen wird durch diese Anwendung ausgelöst. In den
beschriebenen Beispielen definiert ein Operator Aktionen, die er
zu einem Server sendet, der diese wiederum per Broadcasting über das
Internet an Clients überträgt. Entweder
die gesendeten Aktionen müssen
gleich bei Empfang ausgeführt werden
oder sie sind von Zeitinformationen begleitet, mit denen die Zeitpunkte
ihrer Ausführung
bestimmt werden können.
-
Ein
Nachteil dieser Methode besteht darin, dass sie relativ aufwändige Vorgänge für die Synchronisation
erfordert – entweder
in Form von Eingriffen eines Operators zu den gewünschten
Zeitpunkten oder in Form einer vorherigen Vorbereitung, die es ermöglicht,
die Sendungen der Aktionen zu den zweckmäßigen Zeitpunkten auszulösen.
-
Die
WO-01/82623 offenbart das automatische Einfügen von Nachrichten ("Trigger") zum Auslösen interaktiven
Fernsehens in einen Strom von audiovisuellen Daten. Das Einfügen kann
insbesondere auf die Erkennung von besonderen Elementen in dem Datenstrom
wie in einer Datenbank gespeicherten Audio-/Video-Abtastwerten gestützt sein.
Dieses Einfügen
kann außerdem
vor oder nach dem Broadcasten des Datenstroms ausgelöst werden.
In der Beschreibung sind auch die Verwendung einer Zuordnungstabelle
mit Verbindungen zum einen zwischen den zu findenden Abtastwerten
und zum anderen zugeordneten interaktiven Elementen und Attributen
wie beispielsweise der Nummer des Senders erwähnt.
-
Diese
sehr flexible Technologie setzt jedoch voraus, dass die Erkennungselemente
zuvor gewonnen werden, welche für
das automatische Einfügesystem
verfügbar
gemacht werden müssen.
In dem früheren
Dokument WO-01/82623 ist jedoch nicht beschrieben, wie diese Elemente
gewonnen werden. Ein Fachmann, der versucht, eine derartige Gewinnung
umzusetzen, könnte
dann mehrere Methoden ins Auge fassen.
-
Eine
erste Gewinnungsmethode käme
in dem Fall eines Einfügens
der Trigger vor dem Broadcasting zur Anwendung. Ein Operator würde die
betreffenden Programme im Voraus betrachten, signifikante zu erkennende
Elemente auswählen
und sie in eine Bank aufnehmen, die für das automatische Einfügesystem
direkt zugänglich
wäre. Diese
Ausführungsform
ist jedoch auf Einfügungen
von Triggern vor dem Broadcasting beschränkt und setzt eine enge Kommunikation
zwischen dem Operator und dem Broadcaster voraus.
-
Eine
zweite Gewinnungsmethode würde
darin bestehen, die Erkennungselemente auf ein tragbares Speichermedium
wie beispielsweise eine Kassette, eine Festplatte oder eine DVD
(Digital Versatile Disk) aufzunehmen, anschließend das Medium dem Benutzer
des automatischen Einfügesystem
zur Verfügung
zu stellen. Im Vergleich zu der ersten Methode weist diese Methode
den Vorteil auf, dass sie in einem weiteren Rahmen anwendbar ist
und theoretisch nicht nur von einem Broadcaster, welcher nicht unbedingt
unmittelbaren Zugang zu mit dem Operator gemeinsamen Speicherressourcen
hat, sondern auch von einem Endbenutzer eines Videodecoders genutzt
werden kann. Sie zwingt jedoch zu materiellen Übertragungen der Speichermedien
und erlaubt keine flexiblen Änderungen
der Erkennungselemente. Ihr praktisches Anwendungsgebiet erweist
sich daher als recht beschränkt.
-
Eine
dritte Gewinnungsmethode bestünde
darin, die Erkennungselemente per Fernübertragung über ein Kommunikationsnetz
zu übertragen.
Diese Lösung,
die eine große
Flexibilität
bietet und das Betreiben eines automatischen Einfügesystems
sowohl vor als auch nach dem Broadcasting ermöglicht, ist jedoch durch den
Bedarf an Übertragungsressourcen
benachteiligt. Um signifikant zu sein, riskieren die Erkennungselemente
nämlich
in vielen Fällen,
dass sie, Teile von audiovisuellen Inhalten betreffend, relativ
umfangreich sind. Deren Übertragung
ist dann besonders bandbreitenaufwändig und beeinträchtigt die
Kommunikationsressourcen. Für
die Übertragung
von vollständigen
Bildern in einer analogen Fernsehumgebung beispielsweise verfügt man nur über eine
Bandbreite von einigen zehn KByte/sec.
-
In
der WO-01/60061 ist eine Technik zur Aufnahme von Programmen vor
oder nach vorbestimmten Zeitpunkten für Aufnahmen beschrieben. Hierzu
werden eine oder mehrere "Signaturen" von einem Videosignal
aus erzeugt, das einem gebroadcasteten aufzunehmenden Programm zugeordnet
ist. Durch die Verarbeitung dieser Signaturen lassen sich Zeitpunkte
von Anfang und Ende der aufzunehmenden Programme bestimmen. Die
Signaturen können
gemäß den zwei
unterschiedlichen nachfolgenden Ausführungsformen genutzt werden,
welche eventuell miteinander verbunden sein können.
-
In
einer ersten Ausführungsform
definiert oder gewinnt ein Benutzer ein oder mehrere Referenzelemente,
mit denen anschließend
die Signaturen des empfangenen Videosignals verglichen werden. Wenn
eine Übereinstimmung
zwischen den Signaturen und den Elementen festgestellt wird, wird
die Aufnahme ausgelöst oder
gestoppt. In der zweiten Ausführungsform
wird die Signatur des empfangenen Videosignals periodisch berechnet
und man interessiert sich für
deren Entwicklung. Wenn eine signifikante Veränderung der Signatur festgestellt
wird, wird daraus geschlossen, dass eine Programmänderung
erfolgt ist, und die Aufnahme wird ausgelöst oder gestoppt.
-
Die
erste Ausführungsform
führt zu
den oben erwähnten
Schwierigkeiten bei der vorangehenden Gewinnung der Erkennungselemente.
Die zweite Ausführungsform
macht es ihrerseits erforderlich, dass Signaturen periodisch in
Echtzeit berechnet werden, was zu Zwängen hinsichtlich des Aufwandes
und der Rechenkosten führt.
Zudem erfordert diese Technik unvermeidlich einen Ungewissheitsspielraum über den
zu berücksichtigenden
Abstand in den Signaturen, um das Auslösen des Beginns oder des Endes
einer Aufnahme zu beschließen.
-
Die
vorliegende Erfindung betrifft ein System und ein Verfahren zur
Synchronisation von audiovisuellen Programmen und von interaktiven
Diensten, welche ermöglichen
können,
dass sie keineswegs intrusiv gegenüber Broadcastern und Services
Operators sind und dabei eine einfache und zuverlässige Umsetzung
erlauben und vermeiden, dass ein Programmnavigator herangezogen
wird. Das erfindungsgemäße System
und Verfahren machen breite Anwendungen nicht nur vor sondern auch
nach dem Broadcasten der Programme möglich, welche flexibel geändert werden
können,
und ohne die Kommunikationsbandbreitenressourcen zu beeinträchtigen.
-
Das
Synchronisationssystem und -verfahren der Erfindung wenden sich
ebenfalls auf andere Synchronisationsarten betreffend audiovisuelle
Programme, insbesondere für
automatische Aufnahmen von Filmen oder von Sendungen oder automatische
Austäusche
von Inhalten von audiovisuellen Programmen an (wobei der Benutzer
beispielsweise im Voraus einen Austausch einer gewissen Kategorie
von Programmen durch eine andere in Echtzeit am Bildschirm mittels
einer Auswahl unter mehreren Broadcastquellen beschließen kann).
Ferner betreffen sie auch Radiosendungen. Der Einfachheit halber
werden nachfolgend einschließlich in
der Definition der Erfindung mit dem Ausdruck "audiovisuelles Programm" Audio- und/oder Videoprogramme bezeichnet.
-
Gegenstand
der Erfindung sind ferner Einheiten und Verfahren zur Spezifikation
und zur Erkennung von Synchronisationssignalen, welche für das Synchronisationssystem
der Erfindung verwendbar sind und die vorgenannten Vorteile bieten
können.
-
Sie
betrifft ebenfalls einen Broadcaster, einen Service Operator, ein
(interaktives oder nicht interaktives) Endgerät für den Empfang von audiovisuellen
Programmen und eine Software, welche zu mindestens einem der oben
erwähnten
Gegenstände
der Erfindung zugeordnet sind.
-
Gegenstand
der Erfindung ist hierzu eine Einheit zur Erkennung von Synchronisationssignalen
in mindestens einem empfangenen audiovisuellen Programm, wobei das
audiovisuelle Programm einen audiovisuellen Inhalt, der dazu bestimmt
ist, für
Benutzer gebroadcastet zu werden (d.h., der in sichtbarer oder hörbarer Form
dargestellt ist), sowie Kontrollinformationen umfasst. Die Erkennungseinheit
entspricht dem Anspruch 1.
-
Die
Erkennungseinheit ist demnach in der Lage, Synchronisationssignale
ohne Änderung
der audiovisuellen Programme durch direkte Analyse des für den Benutzer
gebroadcasteten audiovisuellen Inhalts (wie Bilder, Töne, Teile
hiervon oder Kombinationen) zu detektieren. Im Unterschied zu den
intrusiven Verfahren, die darin bestehen, in die Playlists einzugreifen,
ist keine Änderung
dieser Listen nötig.
Insbesondere werden dadurch die Gefahren eines Broadcastens eines
interaktiven Diensts auf einem nicht entsprechenden audiovisuellen
Programm verringert. Aufgrund der inhaltsbezogenen Erkennung ist
die Wahrscheinlichkeit des Auftretens eines Fehlers nämlich gering,
während
bei den oben genannten Verfahren diese Gefahren durch die Bedienung
von Identifikationsgebilden und das Vorhandensein eines Dritten,
der von dem Services Operator nicht nachprüfbaren Informationen liefert,
beträchtlich
erhöht
sind (Programmkennung).
-
Im
Gegensatz zu den Techniken, die auf der Erkennung von spezifischen,
in die Datenströme
von übertragenen
audiovisuellen Programmen eingebetteten Detektionssignalen beruhen,
ist zudem keine Aktion auf die diese Programme tragenden Signale
erforderlich.
-
Im
Vergleich zu der in der Patentanmeldung WO-01/91462 offenbarten
Technik werden die Erkennungselemente zudem zuvor der Erkennungseinheit
mitgeteilt, wodurch das Heranziehen von aufwändigen, mit einem Programmnavigator
verbundenen Identifikationstechniken vermieden werden kann.
-
Die
Erkennungseinheit der Erfindung unterscheidet sich ferner von der
Lehre des früheren
Dokuments WO-01/82623 durch die Art und Weise der Gewinnung der
Erkennungselemente. Während
dieses Dokument nichts über
die einzusetzenden Gewinnungsmittel aussagt und ein Fachmann eine
der oben erwähnten
Lösungen
annehmen würde,
ist die vorliegende Erkennungseinheit in der Lage, ein vorangegangenes
Broadcasten eines audiovisuellen Programms über das Broadcastnetz auszunutzen.
Das Modul für
den Empfang der übertragenen
Datenströme
wird dann als Teil des Moduls für
den Empfang von Erkennungselementen betrieben.
-
Die
spezifisch für
die Gewinnung der Teile eines audiovisuellen Inhalts zu übertagenden
Informationen können
auf ergänzende,
die Modalitäten
der Gewinnung dieser Teile (Kanal, Datum, Datentyp, ...) betreffenden Daten
reduziert werden. Die Erkennungseinheit kann somit einen breiten
Anwendungsbereich, Flexibilität
und eine geringe Menge von benötigter
Bandbreite kumulieren.
-
Die
Umsetzung der Erfindung setzt jedoch voraus, dass der verwendete
Inhaltsteil in einem audiovisuellen Programm vor dem Programm, auf
das sich die Synchronisation aufhängen muss, gebroadcastet wird. Diese
Bedingung, die recht einschränkend
erscheinen mag, erweist sich in der Praxis als in einer sehr großen Anzahl
von Fällen
nachprüfbar.
Der Inhaltsteil kann nämlich
insbesondere aus dem Vorspann/Nachspann einer Sendung oder Serie
oder aus einem Werbemotiv (beispielsweise einem Werbestreifen) ausgelesen
werden. Im Übrigen
ist die Genauigkeit bei dem Zeitpunkt der Gewinnung des aufzunehmenden
Bildes oder Tons im Allgemeinen nicht entscheidend. In der Tat wird
in den üblichen
oben erwähnten
Fällen
an einer bestimmten Sequenz festgehalten, von der ein beliebiger
ausgelesener, als Markierung geeigneter Teil passen kann.
-
Zudem
umfasst die Erkennungseinheit der Erfindung vorteilhafterweise nachfolgend
erläuterte
Verzögerungsmöglichkeiten,
durch welche Aktionen nach vorbestimmten Dauern in Abhängigkeit
von dem Zeitpunkt der Detektion des Inhaltsteils in einem Programm
ausgelöst
werden können.
Ein beliebiger Zeitpunkt einer Sendung kann demnach Gegenstand eines
synchronisierten Vorganges sein, sofern bestimmte Anfangszeitpunkte
dieser Sendung (oder vor dieser Sendung liegende Zeitpunkte) markiert
werden können.
-
Angesichts
der bekannten Techniken und der Methoden, die sich recht logisch
auf die Gewinnung der Erkennungselemente anzuwenden scheinen, erscheint
der Betrieb von zuvor über
das Broadcastnetz gebroadcasteten Programmen besonders überraschend.
Man würde
nämlich
erwarten, dass die Gesamtheit der für die Detektion der Synchronisationssignale
einschließlich
der zu identifizierenden Inhaltsteile erforderlichen Informationen
spezifisch und gruppiert zur Verfügung gestellt werden. Im Unterschied
hierzu werden die Inhaltsteile hier nicht ausdrücklich und spezifisch, sondern
inzident und implizit über
eine nicht für
die Synchronisation dedizierte Übertragung
mitgeteilt oder zugänglich.
-
Bei
der Definition der Erkennungseinheit sind die "Einheiten" und "Module" wie in der restlichen Anmeldung im
funktionalen Sinn zu verstehen, und sie sind daher nicht auf besondere
Darstellungen beschränkt. So
können
sie insbesondere in ein und derselben Komponente oder in ein und
derselben Software zusammengefasst sein oder im Gegenteil in verschiedenen
Bauteilen verteilt sein. Die Erkennungseinheit kann ferner broadcastseitig
(typischerweise beim Broadcaster), auf Seite des Service Operator
oder in einem vorzugsweise interaktiven Endgerät für den Empfang von audiovisuellen
Programmen in eingebetteter Form eingebaut sein.
-
Die
empfangenen Erkennungselemente und/oder die ausgelesenen Teile können auf
ein oder mehrere gleichzeitig oder sukzessive gesendete Programme
angewandt werden. Da Programme in der Zeit rekursiv sind, ist es
beispielsweise ausreichend, Bilder ein einziges Mal zu gewinnen,
damit eine Synchronisation tatsächlich
programmiert wird.
-
Gemäß verschiedenen
Modalitäten
der von der Erkennungseinheit für
eine gegebene Detektionsart verwendeten Auslesanweisungen:
- – betreffen
die Anweisungen ein vollständiges
Bild, von dem aus die Detektion erfolgen muss;
- – betreffen
die Anweisungen ein Unterbild; die Erkennungselemente enthalten
dann die Koordinaten eines zu detektierenden Bereichs;
diese
Lösung
ist weniger ressourcenaufwändig
als die vorige, nicht nur bezüglich
der Speicherung, sondern auch bezüglich der für die Detektion benötigten Verarbeitungszeit;
- – betreffen
die Anweisungen eine Gruppe von Bildern oder von Bilderteilen; das
Auslösen
einer Aktion hängt
beispielsweise dann von der Detektion aller Gebilde der Gruppe ab
oder im Gegenteil von der Detektion von mindestens eines davon;
- – betreffen
die Anweisungen eine Menge von während
einer bestimmten Dauer gebroadcasteten Tönen.
-
Im
Allgemeinen ist jeder der Inhaltsteile vorzugsweise durch einen
der folgenden Teile gebildet: ein Bild, einen Ton und eine beliebige
Kombination von mindestens zwei dieser Teile.
-
Das
Modul für
den Empfang der Erkennungselemente ist vorzugsweise vorgesehen,
um eine Auslösenachricht
(Trigger) zu empfangen, und das Aufnahmemodul ist vorgesehen, um
gleich bei Empfang dieser Auslösenachricht
den Teil aus dem zuvor empfangenen Datenstrom auszulesen und aufzunehmen.
Die Verwendung eines derartigen Triggers ist besonders wirksam und
einfach umzusetzen. Zudem ist der Trigger vorteilhafterweise eine
Auslösenachricht
besonderer Art, welche den Typ von auszulesendem Inhaltsteil und
den ins Auge gefassten Kanal angibt. In einer Variante wurden diese
Informationen zuvor gesendet. Wie oben angegeben, ist eine große Genauigkeit
in der Synchronisation dieser Aufnahme eines Teils meist nicht nötig.
-
Gemäß einer
Weiterbildung der Erkennungseinheit ist das Modul für den Empfang
der Erkennungselemente auch vorgesehen, um unter den Erkennungselementen
mindestens eine Kennung des ausgelesenen Teils zu empfangen, und
das Detektionsmodul ist in der Lage, in dem Speicherraum diesen
ausgelesenen, zuvor aufgenommenen und dieser Kennung zugeordneten
Teil zurückzubekommen,
um in dem Inhalt des empfangenen audiovisuellen Programms diesen
ausgelesenen Teil zu erkennen.
-
Bei
dieser Ausführung
lassen sich insbesondere mehrfache Auslesevorgänge (Ersparnis von lokalen Ressourcen)
oder von Übertragungen
(Bandbreitenersparnis) eines und desselben ausgelesenen Teils vermeiden,
wenn der Anfangsschritt der Gewinnung dieses Teils durchgeführt ist.
Auch bei der einmaligen Verwendung eines ausgelesenen Teils ermöglicht sie
zudem, spätere
Erkennungsanweisungen vorwegzunehmen. Es kann nämlich vorkommen, dass eine
für die
Detektion signifikante Sequenz in einem Programm gebroadcastet wird,
ohne dass deren genaue spätere
Verwendung schon genau festgelegt ist (die Betriebsmodalitäten für die Interaktivität beispielsweise
sind noch nicht bekannt).
-
Die
späteren
Erkennungselemente, die die Nutzung des aufgenommenen Teils spezifizieren,
können Erkennungsdaten
wie insbesondere Zeitbereich, Sendekanal und/oder booleschen Operator
eventuell begleitet von Aktions- und/oder Verzögerungsinformationen umfassen.
Die Erkennungselemente werden somit insgesamt vorteilhafterweise
in zwei sukzessiven Schritten gewonnen: Anweisungen zum Auslesen
von Inhaltsteilen, anschließend
Anweisungen zur Nutzung dieser Teile (wobei diese Teile bei dem
Empfang der Nutzungsanweisungen bereits gewonnen sein können oder
nicht).
-
In
einer besonderen Form dieser Ausführung mit Teil-Kennung sind die
Empfangs- und Aufnahmemodule geeignet, ausgelesene Teile zu empfangen
und zu speichern, die für
mehrere unterschiedliche Detektionsarten nutzbar sind. Jeder Teil
bzw. jede Menge von Teilen ist dann durch eine eindeutige Teil-Kennung
spezifiziert, die von den unterschiedlichen Detektionsarten nutzbar
ist. Diese Vielzahl der Detektionsarten ist geeignet, zugleich Flexibilität und Komplexität in den
Synchronisationsvorgängen
auf einfache Weise zu geben.
-
Das
Modul für
den Empfang der Erkennungselemente ist vorteilhafterweise auch in
der Lage, den ausgelesenen Teil unter den Erkennungselementen direkt
zu empfangen, und das Aufnahmemodul ist vorgesehen, um diesen ausgelesenen
Teil in den Speicherraum aufzunehmen.
-
Diese
Funktionalität,
die bandbreitenaufwändig
sein kann, wird somit integriert, jedoch als Ersatzlösung, wenn
das vorangehende Auslesen in einem gebroadcasteten Programm nicht
möglich
ist. In manchen Fällen
schafft man es nämlich
nicht, ein gesendetes Programm im Voraus zu identifizieren, in dem
ein in Hinblick auf eine gewünschte
spätere
Detektion geeignetes Motiv ausgelesen werden könnte. Das Vorhandensein dieser
Option liefert ein Gesamtsystem, dass aufgrund seiner Fähigkeit,
alle Situationen abzudecken, und dabei (für viele dieser Situationen)
den Vorteil einer beträchtlichen
potenziellen Verringerung des Bandbreitenbedarfs beizubehalten,
sehr vorteilhaft ist.
-
Diese
letzten kombinierten Vorteile sind besonders interessant, wenn die
Erkennungseinheit in einem Endgerät oder allgemeiner nach einem
umfangreichen Kommunikationsnetz implementiert ist, welches vorgesehen
ist, um den Transport der ausgelesenen Teile zu tragen.
-
Gemäß einer
bevorzugten Ausführung
vereint die Erkennungseinheit die Fähigkeiten der drei oben erwähnten Arten
von Gewinnung von Inhaltsteilen:
- – Auslesen
des Inhaltsteils in mindestens einem Datenstrom eines audiovisuellen
Programms, das zuvor von dem Datenstromempfangsmodul empfangen wurde,
gemäß Ausleseanweisungen,
die in den Erkennungselementen eingeschlossen sind,
- – direkte Übertragung
des in den Erkennungselementen eingeschlossenen Inhaltsteils an
die Erkennungseinheit; die ausgelesenen Teile werden vorteilhafterweise
von einer spezifischen Einheit (wie derjenigen, die nachfolgend
als "Spezifikationseinheit" definiert ist) übertragen
und
- – Zurückgewinnung
des Inhaltsteils in den Speicherraum von einer Kennung eines ausgelesenen
Teils aus, die in den Erkennungselementen eingeschlossen ist.
-
Die
Erkennungseinheit umfasst vorzugsweise auch ein Modul zur Verzögerung vor
der Sendung der Aktionsanweisungen durch das Übertragungsmodul.
-
Das
Verzögerungsmodul
führt eine
Frist vor der Übertragung
der Aktionsanweisungen ein, wenn die Synchronisationssignale in
dem audiovisuellen Programm detektiert sind. Die Verwendung dieser
Frist ist besonders interessant, sofern sie es ermöglicht,
die Synchronisation auf ein Ereignis aufzuhängen, das vorweggenommen werden
kann, und anschließend
den Zeitabstand zwischen dieser Synchronisation und einem oder mehreren
zweckmäßigen Zeitpunkten
zu bestimmen, um zu diesen Zeitpunkten die zu synchronisierenden
Aktionen auszulösen.
Die Nutzung der Frist begünstigt
zudem beträchtlich
die Gewinnung des Inhaltsteils von einem zuvor gebroadcasteten Programm
aus. Sie ermöglicht
es nämlich,
sich auf eine Sequenz, die vorgesehen ist, um bei sukzessiven Übertragungen
wiederholt zu werden, wie einen Vorspann/Nachspann, aufzuhängen.
-
Da
insbesondere einer Live-Sendung im Allgemeinen Werbung vorangeht
oder eine solche von Werbung unterbrochen wird, kann demnach die
Detektion auf einen Nachspann eines Werbestreifens aufgehängt werden
(zuvor aus einer früheren
Sendung aufgenommen) und die Verzögerung eingestellt werden,
damit ein interaktiver Dienst beispielsweise 10 Minuten nach dem
Start der Sendung angezeigt wird (beispielsweise die Zeit, die ein
Moderator braucht, um die Möglichkeit
der Interaktion mit dem Fernsehgerät anzukündigen).
-
Diese
Technik kann es insbesondere einem Services Operator ermöglichen,
Synchronisationsvorgänge
zu managen einschließlich
bei live gebroadcasteten Sendungen, ohne dass ein die Sendungen
broadcastender Sender gebeten werden muss, sich an diesen Vorgängen zu
beteiligen. Es ist nämlich
ausreichend, dass der Sender einen Modus für die Gewinnung eines Abtastwertes,
wie beispielsweise ein Bild eines Werbestreifens, und ein ungefähres Timing
für das
Auslösen
von gewünschten
Aktionen, beispielsweise das Erscheinen einer Interaktivität, liefert.
Diese Ausführung
macht insbesondere eine Synchronisation des Broadcastens von interaktiven
Diensten auf audiovisuelle Programme möglich, die a priori ohne jegliche
Interaktivität konzipiert
sind.
-
Einer
gegebenen Detektion der Synchronisationselemente können mehrere
Verzögerungen
entsprechen, die sukzessive Zeitpunkte definieren. Die Verzögerungs-
und Übertragungsmodule
sind dann geeignet, einen Detektionszeitpunkt als Referenzzeit zu
benutzen, von der aus das Verzögerungsmodul
mehrere Zeitpunkte für
das Auslösen
von Sendungen von Aktionsanweisungen bestimmt. In einer hochentwickelten
Version ist das Verzögerungsmodul
geeignet, Informationen, die komplexer sind als ein einziger Detektionszeitpunkt,
und vorbestimmte Dauern zu kombinieren, um diese Auslösezeitpunkte
zu bestimmen. Solche Informationen können insbesondere in
- – mehreren
Detektionszeitpunkten (beispielsweise zwei Detektionszeitpunkten
zur Spezifikation von mindestens drei Zeitpunkten zum Auslösen der
Sendung von Anweisungen),
- – Operatoren
betreffend die detektierten Synchronisationssignale (einzelne ausgelesene
Teile sind beispielsweise jeweils verschiedenen Fristengruppen zugeordnet),
- – Detektionszeitbereichen
(die Fristen sind beispielsweise kürzer, wenn die Detektionen
während
späterer Zeitbereiche
erfolgen) oder
- – einer
beliebigen Kombination der oben genannten Informationen
bestehen.
-
Die
Module für
den Empfang und die Aufnahme der Erkennungselemente in der Erkennungseinheit sind
vorzugsweise vorgesehen, um auch mindestens eine Verzögerungsfrist
zu empfangen beziehungsweise aufzunehmen, und das Verzögerungsmodul
ist vorgesehen, um diese Frist zu nutzen.
-
Gemäß anderen
Ausführungen
ist die Frist vorbestimmt oder von dem Benutzer lokal bestimmt.
-
Die
Module für
den Empfang und für
die Aufnahme von Erkennungselementen und das Modul für die Übertragung
von Aktionsanweisungen sind vorteilhafterweise vorgesehen, um Kennungen
betreffend die auszulösenden
Aktionen zu empfangen, aufzunehmen und zu übertragen. Es werden somit
die Erkennungskriterien und die auszuführenden Aktionen zugleich spezifiziert.
-
In
einer bevorzugten Kommunikationsform der Aktionskennungen werden
Erkennungselemente und Aktionskennungen gleichzeitig in Form von
Paaren empfangen, wobei jedes dieser Paare eine Menge von Erkennungselementen
und eine zugeordnete Aktionskennung enthält.
-
In
weiteren Ausführungsformen
werden die Aktionskennungen getrennt empfangen und gelten für alle Detektionen,
die später
mit den sukzessive übertragenen
Erkennungselementen durchgeführt
werden. In noch weiteren Ausführungsformen
sind die auszulösenden
Aktionen von Benutzern unabhängig
von den Erkennungsvorgängen
vorbestimmt oder beschlossen.
-
In
einer ersten vorteilhaften Form der Erkennungselemente schließen diese
mindestens einen booleschen Operator ein. Das Erkennungsmodul ist
dann vorgesehen, um mindestens zwei der Inhaltsteile in Verbindung
mit diesem booleschen Operator (wie insbesondere "und" oder "oder") zu detektieren,
und das Übertragungsmodul
ist vorgesehen, um die Aktionsanweisungen bei einer solchen Detektion
zu übertragen.
-
Es
werden beispielsweise Kennungen, die Aktionskennungen zugeordnet
sind, wie folgt kombiniert:
- – wenn (Detektion
von Bild 1 UND Detektion von Bild 2), dann Auslösen von Aktion 1,
- – wenn
(Detektion von Bild 3 ODER Detektion von Bild 4), dann Auslösen von
Aktion 2.
-
In
einer zweiten vorteilhaften Form der Erkennungselemente schließen diese
mindestens eine Zeitinformation ein. Das Erkennungsmodul ist dann
vorgesehen, um mindestens zwei der Inhaltsteile in Verbindung mit
dieser Zeitinformation zu detektieren, und das Übertragungsmodul ist vorgesehen,
um die Aktionsanweisungen bei einer solchen Detektion zu übertragen.
Diese Zeitinformation umfasst vorzugsweise mindestens eine Information,
die unter einem Detektionsdatum und einem Detektionszeitbereich
gewählt
wird.
-
Es
wird beispielsweise die Detektion der Inhaltsteile mit Tests über das
aktuelle Datum kombiniert:
- – wenn (Detektion von Bild
1 UND Detektion von Bild 2), dann Auslösen von Dienst 1,
- – wenn
(Detektion von Bild 3 UND current date() == 06092002), dann Auslösen von
Aufnahme.
-
Besonders
interessante Ausführungsformen
der Zeitinformationen tragenden Erkennungselemente betreffen die
Begrenzung der Aktivierungsperiode für die Detektion der Inhaltsteile.
-
Für jede Detektion
werden beispielsweise ein Datum/die Uhrzeit des Detektionsanfangs
und ein Datum/die Uhrzeit des Detektionsendes angegeben, wodurch
die Anzahl der für
jedes empfangene Erkennungselement durchzuführenden Vergleiche beschränkt wird.
Diese Technik ist insbesondere für
das Broadcasten von interaktiven Diensten interessant. Die Uhrzeit
des Broadcastens eines audiovisuellen Programms ist nämlich im
Allgemeinen auf einige Minuten genau bekannt und es wird nur ein
Dienst auf einmal gesendet, so dass die Programmierung einer einzigen
Detektion zu einem gegebenen Zeitpunkt ausreichend ist, um das Broadcasten
dieses Dienstes auszulösen.
-
Gemäß weiteren
(vorteilhafterweise kombinierten) Ausführungsmodalitäten
- – beginnt
die Suche unmittelbar nach der Gewinnung des Teils gemäß den Ausleseanweisungen
und hört zu
einem gewissen Datum auf, das in den Erkennungselementen angegeben
ist,
- – beginnt
die Suche unter der Wirkung eines Anfangstriggers und hört unter
der Wirkung eines Endtriggers auf, wobei diese Anfangs- und Endtrigger
sich vorzugsweise auf die ins Auge gefasste Detektionsart mittels mindestens
einer Kennung eines ausgelesenen Teils beziehen,
- – und/oder
wird die Suche aktiviert und/oder deaktiviert durch die Detektion
von mindestens einem Inhaltshilfsteil; dieser Hilfsteil kann viel
kleiner gewählt
werden als der Inhaltshauptteil (beispielsweise Werbungslogo), was
diese Lösung
recht interessant macht, um die erforderlichen CPU-Vorgänge (CPU:
Central Processing Unit) zu beschränken.
-
In
einer dritten vorteilhaften Ausführungsform
der Erkennungselemente schließen
diese mindestens eine Kanalreferenz ein. Das Detektionsmodul ist
dann vorgesehen, um die Inhaltsteile in Verbindung mit dieser Kanalreferenz
zu detektieren, und das Übertragungsmodul
ist vorgesehen, um die Aktionsanweisungen bei einer solchen Detektion
zu übertragen.
-
Durch Übertragung
einer Information über
einen Sender, auf der die Detektion erfolgen muss, wird vermieden,
dass die Erkennungseinheit umsonst beansprucht wird, wenn keine
Detektion auf dem aktuellen Sender programmiert ist. Durch diese
ergänzende
Information kann ebenfalls eine Detektion auf einem Sender insbesondere
programmiert werden, wobei das zu detektierende Erkennungselement,
beispielsweise ein Werbespot, auf mehreren Sendern gebroadcastet
werden kann. Per Vorgabe und ohne jegliche Senderinformation wird
die Detektion vorzugsweise ständig
und ohne Senderunterscheidung aktiviert. In vorteilhaften Ausführungsformen
beruht die Detektion der Synchronisationssignale auf der Erkennung
mehrerer Inhaltsteile oder auf der Kreuzung der Erkennung solcher
Teile mit anderen Informationstypen (Sender, Variablen des Systems wie
dem aktuellen Datum, eventuell Programmnavigator, ...). Es werden
somit vorteilhafterweise mehrere Bilder benutzt bei Ungewissheit
betreffend den Programminhalt oder um die Chancen der Programmdetektion
zu vervielfachen, wobei die Detektion eines der Bilder den Aktionsprozess
auslöst.
-
Die
Erfindung betrifft ebenfalls eine Einheit zur Spezifikation von
mindestens einem audiovisuellen Programm zugeordneten Synchronisationssignalen,
wobei dieses oder diese audiovisuelle(n) Programme) einen audiovisuellen
Inhalt, der dazu bestimmt ist, für
Benutzer gebroadcastet zu werden, sowie Kontrollinformationen enthält, und
wobei die Synchronisationssignale dazu bestimmt sind, in mindestens
einem dieses audiovisuelle Programm tragenden und über ein
Broadcastnetz übertragenen
Datenstrom detektiert zu werden und somit mindestens eine Aktion
auszulösen.
-
Erfindungsgemäß umfasst
die Spezifikationseinheit Folgendes:
- – ein Modul
für die
Vorbereitung von Erkennungselementen, welches die Gewinnung mindestens
eines aus dem Inhalt des audiovisuellen Programms ausgelesenen Teils
ermöglicht,
und
- – ein
Modul für
die Übertragung
der Erkennungselemente – unabhängig von Übertragungen
des audiovisuellen Programms – an
mindestens eine Erkennungseinheit zur Detektion der Synchronisationssignale
in dem übertragenen,
das audiovisuelle Programm tragenden Datenstrom durch Erkennung
des ausgelesenen Teils/der ausgelesenen Teile in dem Inhalt des
audiovisuellen Programms.
-
Das
Vorbereitungsmodul und das Übertragungsmodul
dieser Spezifikationseinheit sind für die Vorbereitung beziehungsweise
für die Übertragung
von Anweisungen zum Auslesen des Inhaltsteils in mindestens einem
Datenstrom eines zuvor von der Erkennungseinheit über das
Broadcastnetz empfangenen audiovisuellen Programms vorgesehen. Dieser
Teil wird aus dem zuvor empfangenen audiovisuellen Programm ausgelesen.
-
Diese
Spezifikationseinheit ist vorzugsweise in der Lage, mit einer beliebigen
der Ausführungsformen der
Erkennungseinheit der Erfindung zusammenzuwirken.
-
Das
Vorbereitungsmodul und das Übertragungsmodul
dieser Spezifikationseinheit sind vorzugsweise für die Vorbereitung beziehungsweise
die Übertragung
der Kennungen betreffend die bei Detektion der Synchronisationssignale
auszulösenden
Aktionen vorgesehen.
-
Die
Aktionskennungen betreffen dann vorteilhafterweise mindestens eine
der folgenden Aktionen: Broadcasten eines interaktiven Dienstes,
Auslösen
eines interaktiven Dienstes, Auslösen einer Aktualisierung eines
interaktiven Dienstes, Auslösen
einer Aufnahme des audiovisuellen Programms und Verbindung zu einer Web-Site.
Die erste Aktion ist spezifischer für eine Detektion von Synchronisationssignalen
an einem Broadcaster oder einem Services Operator bestimmt, während die
drei letzten Aktionen typischerweise in dem Fall anwendbar sind,
in dem die Erkennung in einem Endgerät für den Empfang von audiovisuellen
Programmen erfolgt (beispielsweise Auslösen eines eingebetteten Dienstes,
was in dem Auslösen
dessen Erscheinen bestehen kann).
-
Gemäß vorteilhaften
Ausführungsformen
betreffend die Gewinnung des ausgelesenen Teils
- – sind die
Vorbereitungs- und Übertragungsmodule
derart, dass die Erkennungselemente diesen ausgelesenen Teil einschließen können und/oder
- – sind
die Vorbereitungs- und Übertragungsmodule
derart, dass die Erkennungselemente mindestens eine Kennung dieses
ausgelesenen, zuvor in den Speicherraum aufgenommenen Teils einschließen können.
-
Die
Erfindung ist ebenfalls auf ein Synchronisationssystem gemäß Anspruch
15 anwendbar, welches eine Einheit zur Spezifikation von Synchronisationssignalen,
eine Einheit zur Erkennung der Synchronisationssignale und eine
Aktivierungseinheit zum Auslösen
von mindestens einer Aktion bei Detektion der Synchronisationssignale
durch die Erkennungseinheit umfasst.
-
Die
Erkennungseinheit und/oder die Spezifikationseinheit entsprechen
vorzugsweise einer beliebigen der Ausführungsformen der Erfindung.
-
Gegenstände der
Erfindung sind ebenfalls ein Broadcaster, ein Services Operator
und ein Endgerät für den Empfang
von audiovisuellen Programmen, umfassend ein Spezifikationsmodul,
ein Erkennungsmodul und/oder ein Synchronisationssystem entsprechend
einer beliebigen der Ausführungsformen
der Erfindung.
-
In
dem Fall, in dem die Erkennungseinheit sich in einem Empfangsendgerät befindet,
werden an das Endgerät
vorteilhafterweise mit Phasenvoreilung Erkennungselemente und zugeordnete
interaktive Dienste übertragen.
Wenn beispielsweise den Fernsehzuschauern keine Interaktivität angeboten
wird, kann dadurch der Anteil von Fernsehgeräten erhöht werden, die in der Lage
sind, Interaktivität
vorzuschlagen. Das Endgerät verfügt dann
vorzugsweise über
Mittel zur Speicherung der Erkennungselemente, der ausgelesenen
Teile und der interaktiven Dienste in dem permanenten Speicher beispielsweise
des Typs Flashspeichers. Durch diese Ausführung können Synchronisationen programmiert
werden, die über
Abschaltungen und Einschaltungen des Endgeräts (switch off/on) hinaus dauern.
Dadurch werden die Chancen erhöht,
dass Interaktivität
trotz eines vorübergehenden
kompletten Stillstandes des Systems angeboten wird.
-
In
einer ersten Ausführungsform
der Sendung der Erkennungselemente und der zugeordneten Dienste
an ein Endgerät
mit einer Erkennungseinheit werden gleichzeitig (mit Phasenvoreilung)
eine oder mehrere Verbindungen von Mengen von Erkennungselementen
und entsprechenden interaktiven Diensten vorzugsweise per Broadcasting übertragen.
Das Senden mehrerer derartiger Verbindungen zur Parallelnutzung
wird dadurch ergänzt,
dass mit den Elementenmengen gekoppelten Aktionskennungen mitgeteilt
werden, wobei diese Kennungen präzisieren,
welche Dienste zu starten sind.
-
In
einer zweiten Ausführungsform
der Sendung der Erkennungselemente und der zugeordneten Dienste
an ein Endgerät
mit einer Erkennungseinheit wird das Senden der Erkennungselemente
und der Dienste getrennt. Aktionskennungen werden dann den Erkennungselementen
hinzugefügt,
damit diese den zu startenden Diensten entsprechen.
-
Die
Erfindung betrifft ebenfalls ein Verfahren zur Aktivierung durch
Erkennung von Synchronisationssignalen in mindestens einem empfangenen
audiovisuellen Programm gemäß Anspruch
19. Dieses Erkennungsverfahren wird vorzugsweise mittels einer einer
beliebigen der Ausführungsformen
der Erfindung entsprechenden Erkennungseinheit eingesetzt.
-
Die
Erfindung betrifft ferner ein Verfahren zur Spezifikation von Synchronisationssignalen
und ein Synchronisationsverfahren gemäß den Ansprüchen 20 beziehungsweise 21.
Diese Verfahren werden vorzugsweise mittels einer Spezifikationseinheit
beziehungsweise eines Synchronisationssystems gemäß einer
beliebigen der Ausführungsformen
der Erfindung eingesetzt.
-
Gegenstand
der Erfindung ist ebenfalls ein Computerprogrammprodukt, dadurch
gekennzeichnet, dass es Programmcode-Anweisungen für die Durchführung der
Schritte eines der erfindungsgemäßen Verfahren
umfasst, wenn das Programm auf einem Computer ausgeführt wird.
Unter "Computerprogrammprodukt" ist ein Computerprogrammträger zu verstehen,
der nicht nur in einem Speicherraum mit dem Programm wie einer Diskette
oder Kassette, sondern auch in einem Signal wie einem elektrischen
oder optischen Signal bestehen kann.
-
Die
Erfindung wird besser verständlich
und veranschaulicht anhand der folgenden Ausführungs- und Umsetzungsbeispiele,
welche keineswegs einschränkend
sind, in Verbindung mit den beigefügten Figuren. Es zeigen:
-
1 eine
schematische Prinzipdarstellung eines erfindungsgemäßen Synchronisationssystems;
-
2 eine
Spezifikationseinheit des Synchronisationssystems der 1;
-
3 eine
Erkennungseinheit des Synchronisationssystems der 1;
-
4 eine
Aktivierungseinheit des Synchronisationssystems der 1;
-
5 eine
schematische Darstellung eines Kommunikationsnetzes, umfassend ein
Broadcaster mit einem Broadcastserver, ein Services Operator mit
einem Punkt-zu-Punkt-Server
und ein interaktives oder nicht interaktives Endgerät für das breite
Publikum;
-
6 die
zeitliche Entwicklung eines zyklischen Senden (Karussell) von Diensten;
-
7 eine
erste Einsatzform des Synchronisationssystems der 1 in
dem Kommunikationsnetz der 5 mit Synchronisationssystem
bei dem Services Operator;
-
8 eine
zweite Einsatzform des Synchronisationssystems der 1 in
dem Kommunikationsnetz der 5 mit Spezifikationseinheit
bei dem Services Operator und Erkennungs- und Aktivierungseinheiten
bei dem Broadcaster;
-
9 eine
dritte Einsatzform des Synchronisationssystems der 1 in
dem Kommunikationsnetz der 5 mit Spezifikationseinheit
bei dem Broadcaster und Erkennungs- und Aktivierungseinheiten in
dem Endgerät
und
-
10 eine
schematische Darstellung einer Implementierung der Erkennungs- und
Aktivierungseinheiten in dem Endgerät für die Einsatzform der 9.
-
Ein
Synchronisationssystem 5 (1) ist vorgesehen,
um audiovisuelle Programme 15 und interaktive Dienste S
zu synchronisieren. Es umfasst eine Einheit 1 zur Spezifikation
von Synchronisationssignalen, welche geeignet ist, Paare 10, welche
jeweils durch eine Menge von Erkennungselementen 11 und
eine Aktionskennung 12 gebildet sind, von den audiovisuellen
Programmen 15 und von einem Benutzer vorgenommenen Auswahlvorgängen ausgehend
vor dem Broadcasten der Programme 15 auf einem Netz vorzubereiten.
In jedem dieser Paare 10 schließen die Erkennungselemente 11 mindestens
einen Teil ein, welcher aus dem Inhalt des Programms 15 ausgelesen
ist und dazu bestimmt ist, als Synchronisationssignal (zumindest
Teilsignal) zu dienen oder Anweisungen zum Auslesen dieses Teils
in einem Programm, das vor dem synchronisationsgegenständlichen
Programm 15 gebroadcastet wird. Die Aktionskennungen 12 jedes
der Paare 10 enthalten Informationen über die Ausführung von
Aktionen bei Detektion solcher Synchronisationssignale in die Programme 15 tragenden
Datenströmen.
-
Eine
Erkennungseinheit 2 ist vorgesehen, um die aus der Spezifikationseinheit 1 stammenden
Paare 10 aufzunehmen, sie bei Empfängen von die Programme 15 tragenden
Datenströmen
zu nutzen, um die Inhaltsteile in den Programmen zu erkennen, und
unter den von den Mengen von Erkennungselementen 11 definierten
Bedingungen Synchronisationsvorfälle
zu identifizieren. Sie ist ebenfalls dazu bestimmt, die Aktionskennungen 12 zum
Auslösen
dieser Aktionen bei Detektion von diesen Aktionen entsprechenden
Identifikationssignalen zu übertragen.
-
Eine
Aktivierungseinheit 3 ist vorgesehen, um die Aktionskennungen 12 aus
der Erkennungseinheit 2 zu empfangen und um die geeigneten
Aktionen A auszulösen.
-
Nachfolgend
werden nun die drei Einheiten 1, 2 und 3 des
Synchronisationssystems in Verbindung mit den 2, 3 beziehungsweise 4 näher erläutert. Die
Spezifikationseinheit 1 (2) umfasst
ein Eingangsmodul 31 der audiovisuellen Programme 15 oder
von zugeordneten audiovisuellen Programmen für die Synchronisation und ein
Modul 32 für
das kontrollierte Broadcasten von Inhalten 16 dieser Programme
an einen Operator. Diese Letzten oder zumindest signifikante Teile
von diesen Programmen (Bild, Ton, Farbe eines Streifens, ...) sind
hierzu mit Phasenvoreilung für
den mit der Programmierung des Synchronisationssystems 5 beauftragten
Operator verfügbar.
Dieses verfügt
typischerweise über
eine Kassetten- oder DVD-Aufnahme oder über eine
in eine Sendung einzufügende
Sequenz. Der Operator kann beispielsweise eines der Programme 15 bildweise
betrachten oder bestimmte Tonabschnitte hören.
-
Eine
Benutzerschnittstelle 33 der Spezifikationseinheit 1 ermöglicht es
dem Operator, Befehle 17 in Verbindung mit diesem kontrollierten
Broadcasten einzugeben. Sie erlaubt es dem Operator, Bilder, Töne, Teile von
Bildern oder Kombinationen von diesen Inhaltsteilen auszuwählen, um
in die Erkennungselemente 11
entweder die Teile selbst
oder
Anweisungen zum Auslesen dieser Teile in einem (oder mehreren) audiovisuellen,
vor dem Programm 15 gebroadcasteten audiovisuellen Programm
oder
Kennungen dieser Teile einzuschließen.
-
Die
Schnittstelle 33 ermöglicht
es ihm auch, komplexere Erkennungskriterien, die auf Konjunktionen oder
Alternativen (jeweils mehrere Teile oder mindestens ein Teil unter
mehreren, die es zu erkennen gilt) beruhen, Zeitkriterien (Datum,
Zeitschlitz) oder Sender zu definieren. Die Schnittstelle 33 ermöglicht es
ebenfalls dem Operator, Aktionskennungen 12 zu definieren,
die Erkennungselementen 11 zugeordnet sind, wie das Auslösen oder
das Broadcasten eines identifizierten interaktiven Dienstes, und
Verzögerungsfristen
zwischen der Detektion von Synchronisationssignalen und dem Auslösen von
entsprechenden Aktionen. Solche Fristen werden
- – entweder
getrennt in Form von Fristen 13 übertragen, die für eine Verzögerung zwischen
einer Detektion durch die Erkennungseinheit 2 und einer Übertragung
der Aktionskennungen 12 an die Aktivierungseinheit 3 vorgesehen
sind,
- – oder
in die Aktionskennungen 12 zur Verzögerung zwischen dem Empfang
der Letzteren durch die Aktivierungseinheit 3 und dem Auslösen der
entsprechenden Aktionen A eingebettet.
-
Die
gemeinsame Nutzung der zwei Fristentypen ist ebenfalls möglich.
-
Ein
Vorbereitungsmodul 34 legt die Paare 10 und die
Fristen 13 in Abhängigkeit
von den Befehlen des Operators fest und übermittelt sie an ein Modul 37 zur Übertragung
zu der Erkennungseinheit 2. Dieses Vorbereitungsmodul 34 enthält insbesondere
ein Untermodul 35 zum Auslesen der in den betrachteten
Programmen ausgewählten
Teile und ein Untermodul 36 zum Definieren der Aktionskennungen 12.
-
Die
Erkennungseinheit 2 (3) umfasst
ihrerseits ein Modul 21 für den Empfang der audiovisuellen Programme
(insbesondere der Programme 15) und ein Modul 24 für den Empfang
der Informationen aus der Spezifikationseinheit 1 einschließlich der
Paare 10 und der Verzögerungsfristen 13.
Ein Aufnahmemodul 25 ermöglicht die automatische Aufnahme
dieser Informationen in einen Speicherraum 20.
-
Die
Erkennungseinheit 2 umfasst ebenfalls ein Modul 22 zur
Detektion der Synchronisationssignale, welches insbesondere dazu
bestimmt ist, die Inhalte der Programme 15 mit den Inhaltsteilen
zu vergleichen, die mittels der Erkennungselemente 11 gewonnen
und in dem Speicherraum 20 gespeichert werden. Das Detektionsmodul 22 steht
in Verbindung mit den Informationsquellen, die zur Identifizierung
der Auswahlkriterien dienen können,
beispielsweise eine Uhr 28, die im Falle von Zeitkriterien
(Datum, Zeitbereich) Zeitinformationen liefert. Das Detektionsmodul 22 ist
vorgesehen, um die Aktionskennungen 12 als solche und die zugeordneten
Verzögerungsfristen 13 bei
Detektion der Synchronisationssignale zu einem Modul 23 für die Übertragung
von Anweisungen über
ein Verzögerungsmodul 26 zu übermitteln.
Die Funktion des Letzteren besteht darin, die Übertragung in Anwesenheit von
Verzögerungsfristen 13 eventuell
zu verzögern,
während
das Übertragungsmodul 23 dazu
bestimmt ist, die Aktionskennungen 12 als solche an die
Aktivierungseinheit 3 zu übertragen.
-
Wie
oben angegeben, erlauben es die Schnittstelle 33 und das
Vorbereitungsmodul 34 der Spezifikationseinheit 1 dem
Operator, Informationen zu erarbeiten, die in den Erkennungselementen 11 eingeschlossen sind,
welche es der Erkennungseinheit 2 ermöglichen, die Inhaltsteile über das
Modul 21 für
den Empfang der audiovisuellen Programme zu identifizieren und zu
gewinnen.
-
Diese
Informationen können
insbesondere in einem Kanal und einem Stundenplan bestehen, wobei dieser
Stundenplan durch eine Kennung für
eine Sofortauswahl ersetzt werden kann. Die Informationen können in
Form von Triggern gesendet werden, welche zum Auslösen des
Auslesens und der Aufnahme der ins Auge gefassten Teile an der Erkennungseinheit 2 vorgesehen
sind. In einer Variante der Gewinnung der Inhaltsteile löst das Vorhandensein
eines Motivs (Ton und/oder Bild) in einem auf einem gegebenen Kanal
und in einem bestimmten Zeitbereich gebroadcasteten Programm die
Auslese- und Aufnahmevorgänge
nach einer vorbestimmten Frist.
-
Man
möchte
beispielsweise eine automatische Aufnahme aller Episoden einer Serie
veranlassen. Dieser Serie geht immer derselbe Vorspann voran, welcher
ca. eine Minute dauert. Die erste Episode der Serie muss ca. 3 Minuten
nach einer letzten Werbeseite kommen, von der ein repräsentativer
Bildteil bereits als Referenz gespeichert ist. Zunächst wird
daher die Aufnahme der ersten Episode dadurch veranlasst, dass der Sender
und der Zeitbereich genau definiert werden und das Auslösen der
Aufnahme (sicherheitshalber) 2 Minuten nach der Detektion des Werbebildteils
vorgesehen wird.
-
Parallel
wird ein Auslesen und eine Aufnahme eines auf dem Sender gebroadcasteten
Bild 3 Minuten 30 nach eben dieser Detektion. Dieses zu dem Vorspann
der Serie gehörende
Bild (nachprüfen
ist möglich) wird
dann selbst als ausgelesener Referenzteil für die Detektion der folgenden
Episoden benutzt.
-
Es
wird somit eine systematische Aufnahme mit der Dauer einer Episode
ausgelöst,
sobald dieses Bild auf dem Sendekanal detektiert wird. Gemäß Varianten
oder Weiterbildungen
- – wird ein Nachspann der Episoden
benutzt, um das Ende der Aufnahme auszulösen,
- – werden
mehrere Bilder des Vorspanns benutzt, die zeitlich beabstandet sind,
um das Auslösen
der Aufnahme freizugeben, um das Risiko zu verringern, dass eine
Aufnahme durch einen Werbestreifen ausgelöst wird,
- – werden
die Bilderkennung und ein Programmnavigator gekreuzt, um die Standbyperioden
zu begrenzen und das Risiko einer ungewollten Aufnahme zu verringern.
-
Das
Aufnahmemodul 25 der Erkennungseinheit 2 ist somit
in der Lage, die Aufnahme der ausgelesenen Teile in Abhängigkeit
von den durch die Spezifikationseinheit 1 übertragenen
Informationen vorzunehmen, ohne dass diese Teile zwischen Spezifikationseinheit 1 und
Erkennungseinheit 2 laufen mussten.
-
Die
Aktivierungseinheit 3 (4) umfasst
ein Modul 41 für
den Empfang der Aktionskennungen 12, ein Modul zum Auslesen
der Aktionsinformationen in diesen Kennungen 12 und zur Übertragung
von Aktionsanweisungen 18 und eventuellen Verzögerungsfristen 19 zu
einem Modul 44 zum Auslösen
von Aktionen über ein
Verzögerungsmodul 43.
Die Funktion des Letzteren besteht darin, die Übertragung der Aktionsanweisungen 18 als
solche gemäß den Verzögerungsfristen 19 zu
verzögern.
Das Auslösemodul 44 löst seinerseits
die von den Aktionsanweisungen 18 ins Auge gefassten Aktionen
A gleich bei Empfang der Letzteren aus.
-
Das
Synchronisationssystem 5 soll nun in mehreren praktischen
Anwendungen interaktiven Fernsehens unter Einbeziehung eines Kommunikationsnetzes
(5) dargestellt werden, welches einen Broadcaster 50,
einen Services Operator 60 und ein interaktives Endgerät 70 für das breite
Publikum umfasst. Der Broadcaster 50 ist mit Endgeräten des
Typs des Endgeräts 70 über ein
unidirektionales Netz 81 verbunden (ein Kabel- oder Satellitenfernseh-Rundfunknetz).
Der Services Operator 60 kann mit dem Endgerät 70 über ein
bidirektionales Netz (Modem-Rückstrecke,
Kabel, ...) des Typs Point-to-Point wie das Telefonnetz verbunden
sein oder nicht. Der Broadcaster 50 und der Services Operator 60 sind über eine
Verbindung 83 des Typs TCP-IP miteinander verbunden, auf
der ein dem CORBA-Standard
(CORBA: Common Object Request Broker Architecture) entsprechender
Bus eingesetzt ist.
-
Es
ist vorgesehen, dass der Broadcaster 50 interaktive Inhalte
oder deren URLs, welche zur Vereinfachung "interaktive Dienste S" genannt werden,
während
der Dauer der zugeordneten audiovisuellen Programme 15 zyklisch
sendet (Karussell) sendet. In einem Funktionsbeispiel (6)
sendet der Broadcaster 50 sukzessive während der Zeit t die Dienste
S1, S2 und S3 zyklisch gemeinsam mit den jeweiligen erweiterten
Programmen PG1, PG2 und PG3 bis zu Zeitpunkten des Endes der Verfügbarkeit
FS1, FS2 und FS3 der Dienste S.
-
In
einer ersten Ausführungsform
(7) ist das Synchronisationssystem 5 in
einem Rechner 62 des Services Operators 60 implementiert
und wird von einem Operator 61 über ein Netz 84 kontrolliert.
Im Betrieb mit Auslesen von Inhaltsteilen kann wie folgt verfahren
werden:
- – Schritt
1: Programmierung der Spezifikationseinheit 1 des Synchronisationssystems 5 durch
Aufhängen auf
einen Sender, wo ein audiovisuelles Programm vor dem Programm 15 gebroadcastet
werden muss und mit einem identischen Referenzmotiv oder auf Informationen
bezüglich
der Programme dieses Senders (wie einem Programmnavigator); Definition
von zu detektierenden, diesem Motiv zugeordneten Bildern und/oder
Tönen und
Spezifikation der Erkennungselemente 11, welche Anweisungen
zum Auslesen dieser Bilder und/oder Töne einschließen, und
der zu broadcastenden Aktionskennung 12;
- – Schritt
2: Broadcasten des audiovisuellen Vorprogramms durch den Broadcaster 50,
Empfang dieses Programms durch das Synchronisationssystem 5,
Anwendung der Anweisungen zum Auslesen der zu detektierenden Bilder
und/oder Töne
in diesem Programm und Aufnahme;
- – Schritt
3: Wenn der Zeitpunkt gekommen ist, das Programm 15 zu
broadcasten, startet ein Videoserver oder ein Videorecorder des
Broadcasters 50 das Senden des audiovisuellen Programms 15;
- – Schritt
4: Broadcasten des audiovisuellen Programms 15 alleine
(über Broadcastrelais 56);
- – Schritt
5: Das Synchronisationssystem 5 empfängt dann die Bilder des audiovisuellen
Programms 15, auf die ein interaktiver Dienst S zu synchronisieren
ist, und analysiert sie;
- – Schritt
6: Wenn die programmierten Bilder und/oder Töne detektiert sind, informiert
das Synchronisationssystem 5 einen Broadcastserver des
Broadcasters 50, der dann das Broadcasten des interaktiven
Diensts S gleichzeitig mit dem audiovisuellen Programm 15 auslösen kann;
- – Schritt
7: Gleichzeitiges Broadcasten des interaktiven Diensts S und des
audiovisuellen Programms 15.
-
Die
zu detektierenden Bilder und/oder Töne nicht direkt aufzunehmen,
ist für
den Services Operator 60 insofern interessant, als es für ihn zur
Programmierung der Synchronisation ausreichend sein kann, über Teilinformationen über die
vor dem Broadcasten der Programme 15 vorgesehenen Broadcastvorgänge zu verfügen.
-
In
einer zweiten Ausführungsform
(8) ist die Spezifikationseinheit 1 innerhalb
des Services Operators 60 wie in der ersten Ausführungsform
der 7 implementiert, die Erkennungseinheit 2 und
die Aktivierungseinheit 3 sind jedoch in dem Broadcastserver
des Broadcasters 50 implementiert. Der Ablauf der Funktionsschritte
ist im Übrigen ähnlich dem
Ablauf der ersten Ausführungsform.
-
In
der dritten Ausführungsform
(9) ist die Spezifikationseinheit 1 diesmal
bei dem Broadcaster 50 implementiert und die Erkennungseinheit 2 und
die Aktivierungseinheit 3 sind in dem Endgerät 70 eingebettet. Das
Endgerät 70 umfasst
genauer (10) einen Block für die Rückgewinnung 71 von
gebroadcasteten Signalen (unter Einbeziehung des Betriebssystems
und der Treiber), welcher für
den Empfang von Paaren 10 von Mengen von Erkennungselementen 11 und
Aktionskennungen 12 und interaktive Dienste S vorgesehen
ist. Dieser Block 71 ist vorgesehen, um der Erkennungseinheit 2 die
Erkennungselemente 11 und einer interaktiven oder Präsentationsmiddleware 72 die
interaktiven Dienste S mitzuteilen.
-
Im
Betrieb wird wie folgt verfahren:
- – Schritt
1: Programmierung der Erkennungseinheit 2 des Synchronisationssystems 5 durch
einen Operator des Broadcasters 50 durch Wahl der Bilder
und/oder Töne
für die
Synchronisation und das Broadcasten der Erkennungselemente 11 (allgemeiner:
des Paares 10) mit Phasenvoreilung mit Anweisungen um Auslesen
dieser Bilder und/oder Töne
in einem zuvor gebroadcasteten Programm und des bei einer Detektion auszuführenden
interaktiven Diensts S;
- – Schritt
2: Auslesen und Aufnahme der zu detektierenden Bilder und/oder Töne gemäß den in
den Erkennungselementen 11 eingeschlossenen Ausleseanweisungen
durch die Erkennungseinheit 2 in einem von dem Broadcaster 50 gesendeten
Programm;
- – Schritt
3: Wenn der Zeitpunkt gekommen ist, das Programm 15 zu
broadcasten, startet ein Videoserver oder ein Videorecorder des
Broadcasters 50 die Sendung des audiovisuellen Programms 15;
- – Schritt
4: Broadcasten des audiovisuellen Programms 15 alleine;
- – Schritt
5: Die in dem Endgerät 70 eingebettete
Erkennungseinheit 2 empfängt dann die Bilder des audiovisuellen
Programms 15, auf die der interaktive Dienst S zu synchronisieren
ist, und analysiert sie;
- – Schritt
6: Wenn die programmierten Bilder und/oder Töne detektiert sind, informiert
die Erkennungseinheit 2 die interaktive Middleware 72 über die
Aktivierungseinheit 3, und die Middleware 72 kann
dann die Ausführung
des interaktiven Diensts S auslösen;
in Varianten ist die auszulösende
Aktion das Anzeigen oder die Aktualisierung des interaktiven Diensts
auf dem Endgerät 70;
- – Schritt
7: Gleichzeitiges Erscheinen des interaktiven Diensts S und des
audiovisuellen Programms 15.
-
Ein
Vorteil dieser dritten Ausführungsform
im Vergleich zu den zwei ersten besteht darin, dass man eine Verschiebung
zwischen dem Zeitpunkt, zu dem das audiovisuelle Programm 15 gebroadcastet
wird, und dem Zeitpunkt, zu dem der interaktive Dienst S in dieses
eingefügt
wird, vermeidet. Sie erfordert jedoch beträchtliche Ressourcen in dem
Endgerät 70 (CPU,
Speicher, ...).
-
Gemäß einer
vierten nicht dargestellten Ausführungsform
ist das Synchronisationssystem 5 vollständig in ein Endgerät integriert.
Der Benutzer kann somit die Synchronisationsmodalitäten beispielsweise
hinsichtlich der Aufnahme von Programmen definieren.
-
In
einer Ausführungsvariante
ist die Spezifikationseinheit 1 vorgesehen, um zunächst der
Erkennungseinheit 2 zu ermöglichen, mehrere ausgelesene,
jeweils eindeutigen Teile-Kennungen
zugeordnete Teile zu gewinnen. Bei der Phase der Speicherung jedes
Inhaltsteils in dem Speicherraum 20 speichert somit das
Aufnahmemodul 25 ebenfalls die entsprechende Teil-Kennung.
Bei einem späteren
Schritt der Spezifikation einer ins Auge gefassten Detektion sendet
die Spezifikationseinheit 1 lediglich die Teile-Kennungen
in die Erkennungselemente 11 der Paare 10. Diese
Kennungen spielen dann die Rolle von Schlüsseln, mit denen das Erscheinen
der ausgelesenen Teile und die anderen Parameter wie insbesondere
Verzögerungsfristen 13 oder 19 und/oder
auszulösende
Aktionen verbunden werden können.
-
Der
vorhergehende Schritt der Gewinnung von ausgelesenen Teilen beispielsweise
definiert drei Kennungen ID1, ID2 und ID3, die drei Inhaltsteilen
POR1, POR2 beziehungsweise POR3 (Tabelle 1) zugeordnet sind, anschließend definiert
der spätere,
Synchronisationsanweisungen liefernde Übertragungsschritt Fristen und
Aktionen A' und
A'', die den Kennungen
ID2 beziehungsweise ID1 zugeordnet sind (Tabelle 2). Tabelle
1 – Aufnahme
von Teilen und zugeordneten Kennungen
Tabelle
2 – Anweisungen
zur Synchronisation von Aktionen
-
In
einer besonderen Ausführung
dieser Variante können
die ins Auge gefassten Detektionsspezifikationen auch Detektionszeitbereiche
enthalten. Wenn die Erkennungseinheit 2 erfasst, dass die
aktuelle Zeit außerhalb
dieser Zeitbereiche liegt, nimmt sie die Analyse der gebroadcasteten
Inhalte nicht vor. Anderenfalls wird das Detektionsmodul aktiviert.
Mehrere Erkennungszeitbereiche können
sich im Übrigen überlappen.
Die Kennungen ID1 und ID2 beispielsweise sind einer Detektion "Freitags zwischen
15 Uhr und 16 Uhr" beziehungsweise "Täglich außer am Wochenende zwischen
12 Uhr und 16 Uhr" zugeordnet.
-
Es
sollen jetzt Anwendungen auf die analoge und digitale Welt des Synchronisationssystems 5 gemäß dem ATVEF-Standard
(ATVEF: Advanced Television Enhancement Forum) beziehungsweise dem
DVB-Standard entwickelt werden. Sie betreffen die Integration der
Erkennungseinheit 2 und der Aktivierungseinheit 3 in das
Endgerät 70 (9).
-
A/Anwendungen auf die
analoge Welt: ATVEF
-
Es
werden drei Hauptschritte unterschieden:
- – Vorabanzeige
von mindestens einem zu detektierenden Bild; das Endgerät 70 muss
somit dieses Bild gewinnen und sichern,
- – Auslösen einer
Aktion oder mehrerer Aktionen auf die Detektion dieses Bilds hin
während
einer Detektionsperiode und
- – Anzeige
des Endes der Detektionsperiode an das Endgerät 70.
-
A1 – Anzeige eines oder mehrerer
zu detektierenden Bilder
-
Gemäß einem
ersten Beispiel wird ein vollständiges
Bild detektiert. Während
der Sendung eines Programms wird demnach ein Trigger gesendet, der
dem Endgerät 70 anzeigt,
dass das aktuelle empfangene Bild gesichert werden muss, um anschließend detektiert
zu werden.
-
Der
Trigger hat beispielsweise die folgende Form:
wo
- – das Feld "PictureStorage" dem Endgerät 70 anzeigt,
dass das aktuelle Bild unter dem Namen "Picture1" zu speichern ist,
- – das
optionale Feld "name" eine Beschreibung
des Triggers liefert,
- – das
Feld "PNAME" den Namen des Bildes
spezifiziert, das später
referenziert wird und
- – das
Feld "ACQUIRE" angibt, dass der
Trigger die Gewinnung eines Bildes auslösen muss.
-
Gemäß einem
zweiten Beispiel wird ein Unterteil eines Bildes detektiert. Der
Trigger ATVEF hat dann beispielsweise die folgende Form:
wo
- – das Feld "tlc" (tlc: top left corner)
gibt die Koordinaten der oberen linken Ecke eines zu detektierenden Rechtecks
an und
- – das
optionale Feld "brc" (brc: bottom right
corner) gibt die Koordinaten der unteren rechten Ecke des zu detektierenden
Rechtecks an; fehlt dieses Feld, so wird die untere rechte Ecke
des Bildes für
die Definition des Rechtecks berücksichtigt.
-
A2 – Anzeige des Anfanges der
Detektionsperiode
-
Gemäß einer
vorteilhaften Ausführung
werden ein spezifischer Trigger, der dem Endgerät 70 anzeigt, dass
es die Suche nach einem zuvor gewonnenen Bild starten muss, und
ein weiterer spezifischer Trigger für das Ende der Suche gesendet.
Die Spezifikation des ins Auge gefassten Bildes erfolgt beispielsweise
durch Referenzierung einer Bildkennung.
-
Der
Trigger hat beispielsweise die folgende Form:
wo
- – das Feld "service_url/servicename" eine bei der Detektion
eines zuvor gewonnenen Bildes auszulösende Aktion spezifiziert,
- – das
Feld "PNAME" das zu detektierende
Bild (picture1) angibt,
- – das
Feld "DETECT" angibt, dass der
Trigger für
das Auslösen
einer Detektion vorgesehen ist und
- – das
Feld "tlc" den Bereich des
zu betrachtenden Bildes präzisiert
(obere linke Ecke).
-
A3 – Anzeige des Endes der Detektionsperiode
-
Ein
Trigger wird an das Endgerät 70 gesendet,
um ihm anzuzeigen, dass die Periode der Detektion eines Bildes zu
Ende geht.
-
In
dem betrachteten Beispiel wird somit die Unterbrechung der Detektion
des Bildes Picture1 bei Empfang des folgenden Triggers wirksam:
wo
- – das Feld "PictureStorage" dem Endgerät 70 angibt,
wo und unter welchem Namen das Bild gespeichert ist,
- – das
optionale Feld "name" eine Beschreibung
des Triggers liefert und
- – das
Feld "DETECT" spezifiziert, dass
der Trigger vorgesehen ist, um die Unterbrechung der Bilddetektion auszulösen.
-
B/Anwendungen auf die
digitale Welt: DVB
-
Tabellen
SI (SI: System Information) bieten die Möglichkeit, Ereignisdeskriptoren
wie "Short Events Descriptors" (siehe den ETSI-Standard
(ETSI: European Telecommunications Standard Institute) EN 300-468 V1.4.1, § 6.2.33)
einzuschließen.
Ein solcher Deskriptor gibt den Namen des betrachteten Ereignisses
an und liefert davon eine Beschreibung im Textformat (maximal 256
Zeichen für
den hier benutzten Ereignistyp).
-
Er
stellt sich im Allgemeinen in der folgenden Syntaxform dar:
wo
- – das
Feld "descriptor_tag" einen Identifikationstag
liefert; bei der betrachteten Umsetzung wird er verwendet, um zu
spezifizieren, dass es um eine Bildspeicherung ("PICTURE_STORAGE"), um einen Anfang einer Detektionsperiode ("PICTURE_STRRT_DETECTION") oder eine Unterbrechung
einer Detektionsperiode ("PICTURE_STOP_DETECTION") geht,
- – das
Feld "descriptor_length" die Länge des
Deskriptors liefert,
- – das
Feld "language_code" drei Zeichen umfasst,
die den Sprachcode angeben (beispielsweise "fre"),
- – das
Feld "event_name_length" die Länge des
Ereignisnamens in Bytes angibt,
- – das
Feld "event_name_char" eine Kette von das
Ereignis identifizierenden Zeichen ist; es kann sich hier um eine
Bildgewinnung ("Picture1_Acquisition"), einen Detektionsbeginn
("Picture1_Start_Detection") oder ein Detektionsende
("Picture1_Stop_Detection") handeln,
- – das
Feld "text_length" die Länge der
Beschreibung des Ereignisses in Bytes angibt und
- – das
Feld "text_char" eine Kette von das
Ereignis beschreibenden Zeichen ist; in dem betrachteten Beispiel
besteht es in "PNAME=Picture1".
-
Genauer:
In Übereinstimmung
mit der Tabelle 12 und dem ETSI-Standard EN 300-486 V1.4.1, welche anzeigen,
dass die für
den für
den descriptor_tag verwendeten Benutzertags von 0 × 80 bis
0 × FE
gehen, werden die in der Tabelle 3 angegebenen Zuordnungen definiert. Tabelle
3 – Werte
des Feldes descriptor tag
-
Beispiele
einer Signalisierung, wonach dem Endgerät
70 angezeigt wird,
dass es ein Bild unter dem Namen "Picture 1" speichern muss, die Periode der Detektion
dieses Bildes beginnen muss und die Periode der Detektion dieses
Bildes unterbrechen muss, sind in den Tabellen 4, 5 und 6 angegeben. Tabelle
4 – Signalisierung
für Bildspeicherung
Tabelle
5 – Signalisierung
für den
Beginn einer Detektionsperiode
Tabelle
6 – Signalisierung
für das
Ende einer Detektionsperiode