DE102008044635A1 - Vorrichtung und Verfahren zum Bereitstellen einer Fernsehsequenz - Google Patents

Vorrichtung und Verfahren zum Bereitstellen einer Fernsehsequenz Download PDF

Info

Publication number
DE102008044635A1
DE102008044635A1 DE102008044635A DE102008044635A DE102008044635A1 DE 102008044635 A1 DE102008044635 A1 DE 102008044635A1 DE 102008044635 A DE102008044635 A DE 102008044635A DE 102008044635 A DE102008044635 A DE 102008044635A DE 102008044635 A1 DE102008044635 A1 DE 102008044635A1
Authority
DE
Germany
Prior art keywords
content
television
audio
contraption
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008044635A
Other languages
English (en)
Inventor
Peter Dunker
Uwe KÜHHIRT
Andreas Haupt
Christian Dittmar
Holger Grossmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to JP2011519058A priority Critical patent/JP2011528879A/ja
Priority to KR1020117001714A priority patent/KR101326897B1/ko
Priority to EP20090777045 priority patent/EP2304951A2/de
Priority to PCT/EP2009/004948 priority patent/WO2010009812A2/en
Publication of DE102008044635A1 publication Critical patent/DE102008044635A1/de
Priority to US13/011,563 priority patent/US8566880B2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234336Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26616Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for merging a unicast channel into a multicast channel, e.g. in a VOD application, when a client served by unicast channel catches up a multicast channel to save bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Eine Vorrichtung (100) zum Bereitstellen einer Fernsehsequenz (104) weist eine Datenbankschnittstelle (110), einen Suchanfrageempfänger (130), ein Fernsehsequenzaufbereitungsmodul (140) und eine Ausgangsschnittstelle (150) auf. Die Datenbankschnittstelle (110) greift unter Nutzung einer Suchanfrage (113) auf wenigstens einer Datenbank (200) zu. Der Suchanfrageempfänger (130) ist ausgebildet, um die Datenbankschnittstelle (110) anzusteuern, um über die Datenbankschnittstelle (110) für die Suchanfrage (113) wenigstens einen Audioinhalt (122) und wenigstens einen davon getrennten Bildinhalt (124) zu gewinnen. Das Fernsehsequenzaufbereitungsmodul (140) kombiniert den getrennten Audioinhalt (122) und den Bildinhalt (124), um die Fernsehsequenz (104) zu erzeugen, die auf den Audioinhalt (122) und den Bildinhalt (124) basiert. Die Ausgangsschnittstelle (150) gibt die Fernsehsequenz (104) zu einem Fernsehsequenzverteiler (300) aus.

Description

  • Ausführungsbeispiele der vorliegenden Erfindung beziehen sich auf eine Vorrichtung und auf ein Verfahren zum Bereitstellen einer Fernsehsequenz und insbesondere auf eine automatisierte Generierung von Diensten und Sendeabläufen für analoges und digitales Fernsehen und für Fernsehen übers Internet (IPTV = Internet Protokoll Television).
  • Derzeit steht eine große Bandbreite an interaktiven Fernsehdiensten zur Verfügung. Die Anwendungsarten können mit unterschiedlichen Taxonomien kategorisiert werden: lokalindividuelle interaktive Anwendungen ohne Rückkanal (Informationsdienste), vollständig-individuelle interaktive Anwendungen mit Rückkanal (Homeshopping) oder masseninteraktiven Anwendungen (Abstimmungsanwendungen). Eine alternative Kategorisierung wäre beispielsweise: zum Fernsehrundfunk gehörige Anwendungen (Quizanwendungen parallel zu Fernseh-Quizshows), von Fernsehrundfunk unabhängigen Anwendungen (TV-Betreiberdienstportale) oder Fernsehrundfunk-Übertragungsanwendungen (mobile Nachrichtenübermittlungsanwendungen wie z. B. Chat-Anwendungen).
  • Besonders interessant sind mobile Nachrichtenübermittlungsdienste in Verbindung mit Interaktiven-Rundfunk-Erstellungsdienste wie z. B. die Fernsehshow „Mess TV” des norwegischen Fernsehens, die SMS- oder MMS-Mitteilungen (SMS = Kurzmitteilungsdienst; MMS = Multimedia-Mitteilungsdienst) einzubinden, die über Mobiltelefone direkt an jedermanns Fernsehbildschirm gesendet werden bzw. gesendet wurden, um mit Moderatoren zu sprechen. Ferner werden MMS-Mitteilungen auf dem Bildschirm gezeigt, um die Zuschauer stärker in die Fernsehshow einzubeziehen. Es las sen sich weitere interaktive Fernsehsendungen finden, die auf SMS- und MMS-Kommunikation beruhen.
  • Es besteht somit ein Bedarf nach neuartigen Anreicherungsstrategien von interaktiven Fernsehdiensten unter Nutzung mobiler Nachrichtenübermittlung mit kollaborativen und inhaltsbasierten Filterverfahren zu zeigen.
  • Im Stand der Technik findet sich einige Ansätze, die diesem Bedarf jedoch nur teilweise gerecht werden. In WO/2002/032144 wird eine Vorrichtung und ein Verfahren zum Codieren, Übertragen und dem Empfang von Bild- und Videoinhalten offenbart, wobei jedoch keine automatisierte und inhaltsbasierte Erzeugung der Bild- und Videoinhalten erfolgt. In US 2008155624 , JP 2007209023 , JP 2007142729 und in GB 2444284 sind Vorrichtungen und Verfahren offenbart, die zwar einen ähnlichen Zweck verfolgen, jedoch keine inhaltsbasierten Verfahren anwenden. Der Fokus liegt vielmehr auf dem Bereitstellen von Empfehlungen von Inhalten für Redakteure, die dann die Abfolgen der Sendeinhalte bestimmen können. Die automatisierte Erstellung der Abfolgen mit einer ggf. möglichen manuellen Korrektur erfolgt nicht. Oder es wird eine Analyse von Programmzusatzinformationen vorgenommen, um dem Nutzer einen verbesserten elektronischen Programmführer (EPG) anzubieten, so dass die Nutzer sich selbst das Programm zusammenstellen können.
  • Ausgehend von diesem Stand der Technik liegt der vorliegenden Erfindung die Aufgabe zugrunde, eine Vorrichtung und ein Verfahren für eine automatisierte Bereitstellung einer Fernsehsequenz zu schaffen.
  • Diese Aufgabe wird durch eine Vorrichtung nach Anspruch 1, ein Verfahren nach Anspruch 22 und ein Computerprogramm nach Anspruch 23 gelöst.
  • Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass ein automatisiertes Bereitstellen einer Fernsehsequenz dadurch möglich ist, dass eine Datenbankschnittstelle auf wenigstens eine Datenbank unter Nutzung eines Suchbegriffs oder eines Medienbeispiels oder allgemeiner einer Suchanfrage (Suchbegriffe und Medienbeispiele sind Beispiele für Suchanfragen) zugreift und ferner ein Suchanfrageempfänger ausgebildet ist, um die Datenbankschnittstelle anzusteuern. Über die Datenbankschnittstelle wird für den Suchbegriff oder das Medienbeispiel wenigstens ein Audioinhalt und wenigstens ein davon getrennter Bildinhalt gewonnen, wobei der Audioinhalt mit dem Bildinhalt in einem Fernsequenzaufbereitungsmodul kombiniert wird, um die Fernsehsequenz zu erzeugen. Die Fernsehsequenz basiert somit auf den Audioinhalt und den Bildinhalt und wird über eine Ausgangsschnittstelle zu einem Fernsehsequenzverteiler ausgegeben.
  • Ein typisches Ausführungsbeispiel der vorliegenden Erfindung beschreibt beispielsweise einen interaktiven Fernsehdienst, der ein Fernsehprogramm auf der Basis einfacher Suchbegriffe oder Schlüsselwörter (keywords) erstellt, indem Multimedia-Daten, die unter Verwendung der Schlüsselwörter mittels semantischen Indexierens abgefragt oder gewonnen werden können, zeitlich plant werden. Das zeitliche Planen bezieht sich dabei beispielsweise auf das zeitliche Aneinanderfügen der einzelnen Inhalte, so dass sich die Fernsehsequenz ergibt. Der Vorgang dieses Dienstes kann in drei Schritte unterteilt werden:
    • – Steuerung interaktiver Dienste
    • – Multimedia-Datenbeschaffung
    • – Fernsehprogrammerstellung
  • Das Initiieren (anfängliche Starten) des Dienstes kann mit einem Satz spezieller Schlüsselwörter bewirkt werden, die durch einen Administrator des Fernsehdienstes ausgewählt werden. Die Steuerung interaktiver Dienste wird ermöglicht, indem eine laufend aktualisierte Schlüsselwortliste verwendet wird, die durch die Fernsehzuschauer über SMS und Mobiltelefon oder andere mögliche Rückkanäle erstellt wird. Außerdem können für weitere Schritte auch über MMS oder Telefonanrufe empfangene Bilder oder empfangener Audioinhalt der Zuschauer verwendet werden.
  • Die Schlüsselwörter werden im Rahmen eines Themenprogramms als Anfrage innerhalb von Multimedia-Datenbanken (Beschaffungssysteme) verwendet, wobei die entsprechende Anfrage anhand von Schlüsselwörtern zum Sammeln von Multimedia-Daten führt. Das Themenprogramm stellt somit automatisch passend zu einem Thema Multimedia-Material (Bild- und Audiomaterial) zusammen.
  • Die Datenbanken oder Datenquellen können beispielsweise Musik-, Bild- oder Videoinhaltsdatenbanken umfassen, die mit inhaltsbasierten semantischen Beschreibungen angereichert sind, die mittels automatischer Klassifikationsalgorithmen oder Verschlagwortungsalgorithmen erhalten werden. Ferner können kollaborative Bild-Communities wie „Flickr” und die kollaborative Wissensdatenbank „Wikipedia” mit den erwähnten Schlüsselwörtern abgefragt werden, um Bilder und Textinformationen einzuholen. Bei einer Anwendung eines Sprache-Zu-Text-Erkennungssystems können je nach gesprochenem Audioinhalt neue Schlüsselwörter erzeugt werden. Außerdem können die Bilder und der Audioinhalt des Zuschauers bei inhaltsbasierten Bild- und Audiosuchsystemen dazu verwendet werden, zusätzliche Multimedia-Elemente einzuholen.
  • Der dritte Schritt ist der komplizierteste, und konzentriert sich auf die Generierung von Fernsehdiensten, einschließlich der zeitlichen Planung von Multimedia-Daten sowie der Aufbereitung (preparation) des Inhalts. Aufbereitung bedeutet z. B. einen Entwurf für visuelle und auditive Übergänge oder Textüberlagerungen mit zusätzlichen Informationen zu erstellen. Input-Material für die zeitliche Planung sind Bilder, Videos, Musik oder sonstiger Audioinhalt, Textinformationen und Metadaten mit möglichen Zuschaueridentifizierungen der Anwender, die für einen individuellen Multimedia-Inhalt verantwortlich sind (da sie beispielswei se die Schlüsselwörter geliefert hatten). Zur möglichen Aufbereitung von Inhalt ist zunächst z. B. eine Text-Zu-Sprache-Umwandlung von Textinformationen erforderlich.
  • Für die zeitliche Planung von Musik, Videos und Bildern können die ursprünglichen Schlüsselwörter dazu verwendet werden, Medienelemente mit ähnlichen Schlüsselwörtern gleichzeitig zu zeigen. Ein anspruchsvollerer Ansatz ist die inhaltsbasierte Klassifikation spezieller semantischer Konzepte wie z. B. Stimmung für alle Multimedia-Daten, bei dem die einzelnen Elemente gemäß ihrer Stimmungsklassifikation arrangiert werden. Ferner wird ein automatischer inhaltsbasierter Musiksegmentierungsalgorithmus dazu verwendet, Refrain-, und Strophenteile eines Songs zu finden. Diese Informationen werden dazu verwendet, die Stimmungswahrscheinlichkeiten in einzelnen Segmenten von Songs zu analysieren, um die Songstruktur präzise wiederzugeben sowie zum Zweck einer besseren Anpassung von geeigneten Bildern. Die Segmentinformationen können auch dazu verwendet werden, dieselben Bilder in jedem Refrain der Musik zu wiederholen. Auf der Basis des beschriebenen Arbeitsablaufs wird eine Sequenz von Medienelementen zusammengestellt.
  • Der nächste Schritt konzentriert sich auf die Vorbereitung der genauen zeitlichen Planung und auf Übergangseffekte. Zur ausführlichen zeitlichen Planung kann ein Audioanalysealgorithmus zur Taktschlagerfassung angewendet werden, um die einzelnen Taktschlagzeiten zum Positionieren der Bilderübergänge zu diesen spezifischen Zeitpunkten zu finden. Die Arten von Bildübergangseffekten werden im Einklang mit vordefinierten Stimmungsprofilen behandelt. Übergänge im ruhigen und melancholischen Stimmungsbereich werden üblicherweise übergeblendet oder langsam ein- und ausgeblendet. In einem aggressiven und euphorischen Bereich können harte Schnitte oder schnelle Ein- und Ausblendungen verwendet werden. Die Aufbereitung von Inhalt umfasst auch einen Vorgang eines Erfassens menschlicher Gesichter auf Bildern und ein entsprechendes Verarbeiten dieser Bilder auf vordefi nierte Weise, z. B. Beseitigen derartiger Bilder oder Überlagern der Gesichtsbereiche mit einem Schleier, um Persönlichkeitsrechte zu schützen. Im Gegensatz dazu können die Gesichtsbereiche bei Animationen und Zoom-Aufnahmen explizit erscheinen.
  • Der letzte Schritt bei der Aufbereitung des Programms kann beispielsweise darin bestehen, Textinformationen in das Video einzuarbeiten, die z. B. zusätzliche Informationen von Wikipedia oder Anwendernamen von Besitzern eingeholter Multimedia-Elemente (z. B. bezüglich einer CreativeCommons-Lizenz und der Attributbedingung) oder Werbung umfassen können.
  • Die verschiedenen Aspekte der Ausführungsbeispiele können auch wie folgt beschrieben werden.
  • Ausführungsbeispiele der vorliegenden Erfindung umfassen ein Verfahren und eine Vorrichtung, die eine automatisierte und teilautomatisierte Erzeugung von Sendeabläufen und eine automatisierte graphische und auditive Aufbereitung von Inhalten für das Fernsehen und IPTV ermöglichen.
  • Die Photo-, Video-, Audio- und Textinhalte, die in Ausführungsbeispielen genutzt werden, können beispielsweise über eine inhaltsbasierte Suche anhand von Bild/Audio/Videobeispielen in verfügbaren Informationsquellen zusammengestellt werden. Ferner ist es möglich, die Photo-, Video- und Audiotextinhalte über eine stichwort-basierte Suche, beispielsweise unter Nutzung von Suchanfragen, in verfügbaren Informationsquellen (Datenbanken) zusammenzustellen. Die stichwort-basierte Suche kann zum Beispiel inhaltsbasiertes Analysieren und automatische semantische Verschlagwortung (Indexierung) von Audiomaterial oder Videomaterial umfassen.
  • Außerdem umfassen Ausführungsbeispiele die Nutzung von dynamisch zur Verfügung gestellten Inhalten (beispielsweise von Zuschauern oder Nutzern) als dynamische Steuerinformation für die Anpassung der Sendeabläufe sowie die Generierung von speziellen Audio/Video-Inhalten auf der Basis der Zuschauer oder Nutzerinhalte. Insbesondere um die Interaktion mit den Nutzern oder Zuschauern zu verbessern, umfassen Ausführungsbeispiele das automatisierte Registrieren und Verwalten von Nutzern, die dann beispielsweise bei dem zuvor erwähnten Zurverfügungstellung von Inhalten wieder erkannt werden können.
  • Neben den zuvor erwähnten dynamischen Steuerinformationen, die beispielsweise ebenfalls über die von den Zuschauern oder Nutzern zur Verfügung gestellten Inhalten erzeugt werden können, können auch statische Steuerinformationen genutzt werden. Die statischen Steuerinformationen umfassen beispielsweise anfängliche Mediendaten (Audio-, Bild-, Video- und Textinformationen), Datenquellen, Stichworte oder ausgewählte Nutzer oder Zuschauer oder Gruppen von registrierten Nutzern oder Zuschauern. Somit können alle abgespeicherten Informationen (auch die registrierten Nutzer oder Namen der Datenbanken) als statischen Steuerinformationen genutzt werden. Den spezifischen Initialen statischen Steuerinformationen können ferner bestimmte Services (Dienste) zugeordnet werden, so dass ein individueller Sendungscharakter erzeugt wird. Beispielsweise können feste Radioprogramme als Audiomaterial definiert werden, zu dem automatisch Bildinhalte zusammengestellt werden oder es können nur Bilder aus einer definierten Bildersammlung genutzt werden.
  • Weitere Ausführungsbeispiele umfassen die Nutzung der Fernsehsequenz für das digitale Fernsehen in allen Ausbreitungsformen (z. B. über Kabel oder Satellit oder als IPTV übers Internet) als auch für kontinuierliche Videostreams (Videodatenstrom) in Live und/oder vorproduzierender Form. Ausführungsbeispiele liefern somit die Möglichkeit, Audio-, Photo- und Videoabfolgen sowie passende Kombinationen daraus zu erstellen. Ferner können passende Kombinationen mit Hilfe von Verfahren zur automatisierten inhaltsbasierten Audio-, Bild- und Videoklassifikation und -suche hergestellt werden.
  • Ferner umfassen Ausführungsbeispiele eine inhaltsbasierte zeitliche Segmentierung von Video- und Audiomaterial und die Nutzung dieser Informationen zur Aufbereitung der Abfolgen (z. B. die Aufbereitung der Übergänge bei crossmedialen Anordnungen). Als Beispiel wäre dabei zu erwähnen, dass entsprechend zu einer gegebenen Musik (z. B. eine ruhige oder melancholische Musik) entsprechendes Bildmaterial zur Verfügung gestellt wird, wobei ein Wechseln einer Musik mit einem Wechsel in dem Bildmaterial einhergehen kann.
  • Außerdem umfassen Ausführungsbeispiele das automatische inhaltsbasierte Arrangieren von musikalischen Audioinhalten unter Verwendung von Informationen aus der inhaltsbasierten zeitlichen Segmentierung anhand von Streaming-Bild-Inhalten, sowie das automatische inhaltsbasierte Arrangieren von Bild- und Videoinhalten unter Verwendung von Informationen aus der inhaltsbasierten zeitlichen Segmentierung von musikalischen Audio-Streaming-Inhalten.
  • Ferner umfassen Ausführungsbeispiele eine automatisierte visuelle und auditive Aufbereitung der Medienabfolgen, die insbesondere in Verbindung mit der Aufbereitung der Übergänge (zwischen einzelnen Elementen) und den cross-medialen Anordnungen erfolgen kann.
  • Weitere Ausführungsbeispiele umfassen eine mögliche nachträgliche manuelle Korrektur der vorgeschlagenen und erzeugten Sendeabläufe.
  • Ebenfalls umfasst sind die Herstellung von Senderabläufen unter Benutzung von lokal verfügbaren, collaborativ erstellten Datenquellen (wie z. B. FLICKR.COM oder die Enzyklopädie WIKIPEDIA) als auch öffentlich oder kommerziell verfügbaren, streaming-basierten sowie dynamisch von Zu schauern oder Nutzern zur Verfügung gestellten Audio-, Bild-, Video- und Textinformationen.
  • Bei weiteren Ausführungsbeispielen werden Photo-, Video- und Audioinhalte unter Hilfe von Steuerinformationen gesucht, (z. B. durch einen Suchbegriff, der eine bestimmte Region oder ein Land bezeichnet) oder zusammengestellt und dann ggf. in Verbindung mit einer Kartendarstellung in die Sendeabfolge integriert.
  • Um beispielsweise Textinhalte, die aus dem Internet oder der WIKIPEDIA Enzyklopädie erhalten werden, in die Sendeinhalte zu integrieren, werden bei Ausführungsbeispielen eine Text-Zu-Sprache-Generierung durchgeführt, um so die Textinformation in einen Audioinhalt zu konvertieren. Die entsprechenden textuellen Informationsquellen können allgemeine Datenbanken sein oder auch das Internet.
  • Wie bereits erwähnt, umfassen Ausführungsbeispiele ebenfalls die Nutzung von Suchbegriffen, die automatisch aus gesprochenen oder gesungenen Audioinhalten gewonnen werden und genutzt werden, um weitere dazu in Verbindung stehenden Mediendaten aus Datenbanken abzufragen. Zum Beispiel können die Audioinhalte eines Radiomoderators derart untersucht werden, dass dessen Inhalt mit Bildquellen oder Bilddaten entsprechend ergänzt wird.
  • Die Suchbegriffe können ferner aus Audio-, Bild- und Videoinhalten durch eine Klassifikation von semantischen Inhalten oder Metadaten oder durch eine Spracherkennung (Sprache-Zu-Text-Modul) gewonnen werden. Die Audio-, Bild- und Videoinhalten können auch Inhaltsdaten aufweisen, die für die Klassifikation genutzt werden können.
  • Weitere Ausführungsbeispiele umfassen eine Einblendung oder Einspielung von kontextabhängigen Zusatzinformationen, die beispielsweise Werbeeinblendungen oder Textinformationen umfassen können. Bezugnehmend auf das oben erwähnte Bei spiel der Geoinformation können so entsprechende Werbeinformationen, z. B: von Reiseveranstaltern in die betreffende Region übertragen werden. Die Textinformationen können beispielsweise Fakten über Städte, Regionen oder anderen Inhalten des Programms sein.
  • Bei weiteren Ausführungsbeispielen können Bild- oder Bewegtbildinhalte mit Audioinhalten derart passend arrangiert oder kombiniert werden, so dass sie eine gemeinsame Eigenschaft aufweisen, wie beispielsweise gleiche oder ähnliche Stimmung oder Genre. Dies kann durch eine automatische inhaltsbasierte Klassifizierung der visuellen und auditiven Inhalte geschehen (z. B. Sonnenuntergangs- oder Sonnenaufgangsstimmung zu entsprechenden melancholischen Klängen). Das Arrangieren von Bild- und/oder Videoinhalten zu kontinuierlichen oder Streaming-Audioinhalten geschieht somit automatisch und inhaltsbasiert.
  • Weitere Ausführungsbeispiele umfassen die Generierung von kontinuierlichen Bild- und Videostreamings durch eine automatische Inhalts- und Metadaten-basierte Nutzung einer Photo/Video-Zusammenfassung aus einer Photosammlung oder aus einzelnen oder aus vielen Videos mit einer anschließenden Nutzung beim Arrangieren von Audioinhalten zu kontinuierlichen Bild- oder Videoinhalten. Ebenso kann das Arrangieren von Audioinhalten zu kontinuierlichen oder Streaming Bild- oder Videoinhalten ebenfalls automatisch und inhaltsbasiert geschehen.
  • Beispielsweise wird ein kontinuierlichen Audiostrom und eine Vielzahl von Bildinhalten gewonnen, um die Fernsehsequenz durch ein Einblenden der Vielzahl von Bildinhalten in den kontinuierlichen Audiostrom zu erhalten. Oder anders herum wird bei einem weiteren Ausführungsbeispiel eine Bildsequenz und eine Vielzahl von Audioinhalten zu gewinnen, um die Fernsehsequenz durch ein Einblenden der Vielzahl von Audioinhalten in die Bildsequenz zu erhalten.
  • Außerdem umfassen Ausführungsbeispiele die Erstellung eines Themen-Sendungs-Services mit beispielsweise textuellen Informationen, wobei das Thema beispielsweise durch die von Nutzern oder Zuschauern als dynamische Steuerinformation erhaltene Suchbegriffe oder in Form von statischen Steuerinformationen definiert wird. Das so definierte Thema dient dazu, um aus einer Bilddatenbank Bilder zu akquirieren, die dann durch ein automatisches Arrangieren zu Audioinhalten kombiniert zusammengestellt werden und mit passenden Audioinhalten zu einer Abfolge arrangiert werden. Optional kann dabei wiederum eine visuelle und auditive Aufbereitung der Medienabfolgen geschehen, die insbesondere über eine Aufbereitung der Übergänge in den cross-medialen Anordnungen umfasst.
  • Außerdem umfassen Ausführungsbeispiele wie auch bereits festgestellt die Nutzung einer Technologie zur Detektion von Gesichtern auf Bildern und in Videos, um diese Inhalte gezielt auszuwählen oder zu ignorieren (Schutz der Privatsphäre) oder die Gesichtsbereiche hervorzuheben oder die Gesichtsbereiche zu verfälschen.
  • Ausführungsbeispiel sind somit dahingehend vorteilhaft, dass die gezeigten Anreicherungsstrategien und Servicekonzepte mit einer Fokussierung auf Gemeinsamkeiten, zur Generierung von Fernsehsendungen so wenig Produktions- und Instandhaltungsaufwand benötigen wie möglich. Das findet wiederum zu enormen Kosteneinsparungen.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung einer Vorrichtung zum Bereitstellen einer Fernsehsequenz nach Ausführungsbeispielen der vorliegenden Erfindung;
  • 2 eine schematische Darstellung mit weiteren Details gemäß weiterer Ausführungsbeispiele;
  • 3 ein Flussdiagramm für eine automatische Generierung von Sendeabläufen (Fernsehsequenz) gemäß Ausführungsbeispielen;
  • 4a ein Beispielresultat für eine inhaltsbasierte Bildabfrage mit visuell ähnlichen Bildern;
  • 4b ein Beispielresultat von einem Algorithmus zu einer Liedstruktursegmentierung;
  • 5 eine Darstellung für eine Serverarchitektur, um interaktives Fernsehen zu bereichern;
  • 6a eine Darstellung für eine interaktive Erzeugung einer Spielliste; und
  • 6b ein Flusschart für einen thematischen AV-Generator.
  • Bevor im Folgenden die vorliegende Erfindung anhand der Zeichnungen näher erläutert wird, wird darauf hingewiesen, dass gleiche Elemente in den Figuren mit den gleichen oder ähnlichen Bezugszeichen versehen sind, und dass eine wiederholte Beschreibung dieser Elemente weggelassen wird.
  • 1 zeigt ein erstes Ausführungsbeispiel für eine Vorrichtung 100 zum Bereitstellen einer Fernsehsequenz 104. Die Vorrichtung 100 weist eine Datenbankschnittstelle 110 zum Zugreifen auf wenigstens eine Datenbank 200 unter Nutzung eines Suchbegriffs oder Medienbeispiels 113 (oder einer allgemeinen Suchanfrage oder eines BAVT-Suchbegriffs) auf. Ferner weist die Vorrichtung 100 einen Suchanfrageempfänger 130 auf, der ausgebildet ist, um die Datenbankschnittstelle 110 anzusteuern, um über die Datenbankschnittstelle 110 für den Suchbegriff 113 wenigstens einen Audioinhalt 122 und wenigstens einen davon getrennten Bildinhalt 124 aus einer Datenbank 200 durch ein Anfrage 121 zu gewinnen. Abgesehen von Suchbegriffen können nämlich auch Medienbeispiele wie z. B. spezielles Bild- oder Audiomaterial an eine Datenbank als Anfrage geschickt werden, wobei die Datenbank als Antwort ähnliches Material (z. B. Bild- und Audiomaterial in dem gleichen Genre) zurücksendet. Ferner weist die Vorrichtung 100 ein Fernsehsequenzaufbereitungsmodul 140 zum Kombinieren des getrennten Audioinhalts 122 und des Bildinhalts 124 auf, um die Fernsequenz 104 basierend auf den Audioinhalt 122 und den Bildinhalt 124 zu erzeugen. Schließlich weist die Vorrichtung 100 eine Ausgangsschnittstelle 150 zum Ausgeben der Fernsehsequenz 104 zu einem Fernsehsequenzverteiler 300 auf.
  • Der Suchanfrageempfänger 130 kann optional mehrere Eingänge aufweisen, um so Suchbegriffe, die sowohl statische Steuerinformationen als auch dynamische Steuerinformationen umfassen, zu empfangen. Ferner kann die Datenbank 200 mehrere Teile oder voneinander getrennte Datenbanken aufweisen, so dass Audio-Daten 122 und Bilddaten 124 von verschiedenen Datenbanken abgerufen werden. Die Datenbankschnittstelle 110 kann dazu Abfragen 121 an verschiedene Datenbanken 200 senden, wozu die Datenbankschnittstelle 110 beispielsweise ein Interface zu dem Internet oder zu einem Telefonnetz (mobil oder Festnetz) aufweist.
  • Die 2 zeigt ein Ausführungsbeispiel, welches weitere optionale Komponenten aufweist. Die Datenbank 200 weist optional drei Datenquellen auf, wobei eine erste Datenquelle 210 eine öffentlich und kommerziell verfügbare Bild/Audio/Video/Textdatenquelle (BAVT = Bild/Audio/Video/Text = Bild und/oder Audio und/oder Video und/oder Text) ist, eine zweite Datenquelle 220 ferner optional eine Quelle für einen Audio/Videostrom darstellt und eine dritte Datenquelle 230 eine Quelle für lokale BAVT-Daten ist. Die Anfrage 121 kann dabei beispielsweise Suchbegriffe für eine spezielle BAVT-Information aufweisen und die Antwort der die Antwort der ersten Datenquelle 210 kann dann – sofern vorhanden – angefragte BAVT-Daten umfassen.
  • Die Suchbegriffe 113 sind in dem Ausführungsbeispiel der 2 in statische Steuerinformationen 113a und dynamische Steuerinformationen 113b unterteilt. Die statischen Steuerinformationen 113a umfassen beispielsweise Anfangsinhalte (initiale Inhalte) oder dramaturgische Informationen. Die dynamischen Steuerinformationen 113b können beispielsweise von Zuschauern oder Nutzern eingegeben werden und BAVT-Informationen (Material) umfassen und werden optional mittels MMS/SMS/E-Mail/Web-Formular der Vorrichtung 100 zugeführt. Der Fernsehsequenzverteiler 300 umfasst bei dem Ausführungsbeispiel der 2 zunächst eine Einrichtung zur manuellen Korrektur 310, die die Fernsehsequenz 104 in eine korrigierte Fernsehsequenz 105 umwandelt, die wiederum in einer Einrichtung zur Aufbereitung von Übergängen und Animationen 320 eingegeben wird, um schließlich daraus den Sendeablauf 106 zu generieren.
  • Die Vorrichtung 100 erzeugt somit automatisierte Abläufe und Darstellungen und kann optional Methoden der inhaltsbasierten Merkmalsextraktion sowie Klassifikation und Suche von Audio-, Bild- und Videoinhalten nutzen.
  • 3 zeigt ein Ausführungsbeispiel für die automatische Generierung von Sendeabläufen (der Fernsehsequenz 104), wobei das Verfahren drei Bestandteile aufweist. Ein erster Bestandteil ist dabei eine interaktive Kontrolle (der Suchanfrageempfänger 130 in der 1 kann ein Teil davon sein), deren Anfangszustand beispielsweise von einem Administrator durch Eingabe spezieller Suchbegriffe eingestellt wird. Die Suchbegriffe, die von dem Administrator zunächst eingestellt werden, können dann beispielsweise durch Zuschauer oder Nutzer ständig verändert oder erweitert werden. Beispielsweise können Nutzer über SMS, Handy, Web-Formular, etc. weitere Suchbegriffe der interaktiven Kontrolle zuführen. Optional ist es ferner möglich, dass zu sätzliches BAVT-Material der interaktiven Kontrolle, beispielsweise durch die Nutzer oder Zuschauer zugeführt wird.
  • Die interaktive Kontrolle steuert dann eine Datenbeschaffung oder ein Datenbeschaffungsmodul (z. B. die Datenbankschnittstelle 110 in 1), welches beispielsweise eine Anfrage an Datenbanken 200 unter Nutzung der Suchbegriffe 113 – sowohl der speziellen Suchbegriffe des Administrators als auch der durch die Nutzer generierten Suchbegriffe – schickt. Die Datenbanken 200 liefern als Antwort auf die Anfrage BAVT-Material, welches von dem Datenbeschaffungsmodul beispielsweise zunächst zwischengespeichert wird. Das Datenbeschaffungsmodul kann auch sprachbasierter Suchbegriffe, die beispielsweise von einem Nutzer über ein Mobiltelefon der interaktiven Kontrolle zugeführt wurden, an ein Sprache-Zu-Text-Modul 114 weiterleiten, welches unter Nutzung des sprachbasierten Suchbegriffs zusätzliche Suchbegriffe in Form einer Textnachricht generiert und diese an die Datenbanken 200 weiterleitet. Die Datenbank 200 schickt wiederum basierend auf diese zusätzlichen Suchbegriffe zusätzliches BAVT-Material an das Datenbeschaffungsmodul zurück.
  • Das BAVT-Material kann beispielsweise Musik, Bilder oder Videos aber Textinformationen umfassen, die ihrerseits beispielsweise durch Metadaten angereichert sein können und die eine Klassifizierung hinsichtlich ihres Inhalts bieten. Beispiele für Datenbanken 200 sind bildbasierte Datenbanken wie beispielsweise FLICKR oder auch textbasierte Datenbanken wie beispielsweise die WIKIPEDIA Enzyklopädie umfassen.
  • Nach der Datenbeschaffung erfolgt die Erzeugung des TV-Programms in dem Fernsehsequenzaufbereitungsmodul 140, welches zum einen die einzelnen Inhalte aneinander ordnet und zum anderen eine Vorbearbeitung des Inhalts vornimmt. Das Fernsehsequenzaufbereitungsmodul 140 erstellt beispielsweise Übergänge zwischen verschiedenen Bildern oder verschiedenen Audiosequenzen. Optional ist es ebenfalls möglich, dass die Datenbeschaffung textbasierter Daten (wie beispielsweise von der WIKIPEDIA Enzyklopädie) zunächst in ein Text-Zu-Sprache-Modul 112 sendet, welches aus den textbasierten Dateninhalten ein Audiosignal erzeugt, welches wiederum an das Fernsehsequenzaufbereitungsmodul 140 weitergeleitet wird.
  • Bei dem Aneinanderordnen von BAVT-Material in dem Fernsehsequenzaufbereitungsmodul 140 kann beispielsweise BAVT-Material, welches zu ähnlichen Suchbegriffen gefunden wurde, gruppiert werden und zeitlich nacheinander ausgegeben werden. Optional ist es möglich, die Klassifizierung, die beispielsweise über die Metadaten möglich ist, zu nutzen, um z. B. BAVT-Material nach einem bestimmten Inhalt oder einer Stimmung zu sortieren. Bei Musik kann ferner eine Chor- und Vers-Unterteilung (Segmentierung) durchgeführt und dazu passend mit Bildmaterial angereichert werden, ggf. durch Wiederholung von Bildmaterial bei Wiederholungen von Chor. Dieses Kombinieren von Bild- und Audioinhalten kann weiterhin so verfeinert werden, dass bei der Segmentierung eine Audioanalyse durchgeführt wird, um beispielsweise Takte oder einen Rhythmus zu detektieren. Damit wird es ferner möglich entsprechend zu dem Takt oder Rhythmus Bilder ein- oder auszublenden.
  • Die Übergänge zwischen verschiedenen BAVT-Daten können entsprechend dem Stimmungsprofil durchgeführt werden, so dass beispielsweise bei einer ruhigen Stimmung weiche Übergänge gewählt werden (langsames Ein- und Ausblenden von Bilder) und bei einer aggressiven Stimmung harte Übergänge gewählt werden. Schließlich kann das Fernsehsequenzaufbereitungsmodul 140 auch eine Bearbeitung von menschlichen Gesichtern durchführen, um beispielsweise die menschlichen Gesichter unkenntlich zu machen, damit deren Privatsphäre gesichert bleibt. Als letzten Schritt kann optional Textinformation in die Videos eingepasst werden. Die Textinformation kann beispielsweise den Namen des Besitzers des entsprechenden Materials oder aber auch Werbung oder weiteres Informationsmaterial (beispielsweise von WIKIPEDIA) aufweisen.
  • Datenquellen können in zwei Gruppen eingeteilt werden. Erstens die Multimedia-Daten, die durch die Zuschauer bereitgestellt werden, um die aktuelle Sendung zu steuern. Diese Informationen können Bilder, Textmitteilungen oder Sprachmitteilungen sein, die über Mobiltelefone oder alternative über zur Verfügung stehende Rückkanäle gesendet werden. Die Multimedia-Elemente können direkt als ein Teil der Fernsehsendung oder als Keim-Medienelemente (seed media items) innerhalb eines nachstehend beschriebenen Ähnlichkeitssuchvorganges verwendet werden. Die zweite Gruppe von Datenquellen bedeutet ein Integrieren von vom Anwender erstellten Daten von Internet-Plattformen wie z. B. Flickr, Wikipedia oder blip.tv, die eine große Bandbreite an öffentlich zugänglichen Multimedia-Informationen bieten.
  • Kollaborative Filterverfahren können beispielsweise angewendet werden, um TV-Inhaltsempfehlungen durch eine interaktive Rückkopplung einer Vielzahl von Nutzern zu verbessern. Deshalb ist es vorteilhaft, wenn Anwender der interaktiven Fernsehdienste z. B. bezüglich der Art ihres Inputs in die Fernsehdienste überwacht werden, so dass Anwenderprofils errichtet werden kann. Die Profile von Anwendern, die an einem aktuellen interaktiven Fernsehdienst beteiligt sind, können verglichen werden, um die Relevantesten herauszufiltern.
  • Auf dem Gebiet der Bildanalyse sind zwei grundlegende Ansätze relevant. Erstens ist dies eine inhaltsbasierte Bildsuche bzw. -wiedergewinnung (CBIR – Content-Based Image Retrieval), wobei Bildbeispiele als Anfrage an eine Bilddatenbank verwendet werden. Daraufhin werden ähnliche Bilder auf der Basis von grundlegenden Merkmalen (wie z. B. Farbhistogrammen oder Raumfrequenzinformationen) zurückgibt.
  • Die 4a zeigt ein typisches Ergebnis des CBIR-Algorithmus für eine inhaltsbasierte Bildabfrage bei einer Datenbank unter Nutzung eines Beispielbildes z. B. 124a. Als Resultat liefert die Datenbank 200 beispielsweise fünf Bilder 124a, 124b, 124c, 124d und 124e, wobei die Bilder 124 visuell ähnliche Motive (verschiedene Sonnenuntergänge) zeigen. Dementsprechend können die visuell ähnlichen Bilder, wie sie beispielsweise in der 4a gezeigt sind, genutzt werden, um eine entsprechende musikalische Stimmung (ruhig oder melancholisch) bildlich zu begleiten. Ob eine Musik eher ruhig oder aggressiv ist, kann beispielsweise anhand einer Untersuchung des Taktes/Rhythmus (als Teil der Segmentierung) geschehen.
  • Der zweite Ansatz beruht auf einer Klassifikation von Bildinhalten. Dieser Ansatz fasst verschiedene Mustererkennungs- und -klassifikationstechniken (z. B. Naturszenenklassifikation oder Objekterkennung) zusammen. Die Ergebnisse bestehen aus semantischen Beschreibungen des gesamten Bildes, z. B. Landschaft, Stadt, Menschen, oder Beschreibungen von Teilen des Bildes, z. B. Gras, Wald, Strand, Meer, oder spezifischen Kommentaren zu konkreten Objekten, z. B. Auto, Pferd oder Eiffelturm.
  • Semantische Audioanalyse bezieht sich auf die Anreicherung von digitalisierten Audioaufzeichnungen mit deskriptiven Metadatenmarkierungen, die eine verbesserte Datenbanksuche oder Weiterverarbeitung ermöglichen. Heutzutage ist eine Metadatenbeschreibung von Audio meist durch eine katalogorientierte Klassifikation gegeben. Ungünstigerweise ist diese Markierung gemäß vordefinierten Kategorien umständlich und zeitaufwändig. Eine automatische Generierung von inhaltsbasierten Metadaten verspricht eine kosteneffiziente, skalierbare Markierung, um robuste und effiziente Ergebnisse für realitätsnahe Anwendungen zu liefern. Bezüglich einer Audiowiedergewinnung anhand einer Schlüsselwortsuche sind die interessantesten Eigenschaften eines Musikstücks sein Genre und seine Stimmung. Die in Anwenderstu dien ermittelten anerkanntesten musikalischen Stile und Stimmungscharakteristika können unter Verwendung von Datengewinnungs- und Statistikverfahren in einem überwachten Mustererkennungssystem automatisch klassifiziert werden. Andere nützliche Eigenschaften wie z. B. das Tempo, die Taktart und das Beat-Schema können auf zuverlässige Weise ermittelt werden. Der Algorithmus zur Analyse zeitbezogener Informationen kann zur automatischen Generierung von Bildsequenzen im Einklang mit begleitender Musik genutzt werden. Ferner stellt eine Segmentierung der Songstruktur eine wichtige Voraussetzung dar, um Veränderungen des Genres oder der Stimmung innerhalb eines Songs zu berücksichtigen.
  • 4b zeigt das Resultat einer Struktursegmentierung für ein Lied, wobei Segmente ein Label C tragen, wenn sie als Refrain (Chor) identifiziert wurden. Insgesamt sind in der 4b neun Segmente 122a bis 122i gezeigt, wobei das zweite Segment 122b, das vierte Segment 122d, und das achte Segment 122h als ein Refrain identifiziert wurden. Die verbleibenden Segmente, das heißt das erste Segment 122a, das dritte Segment 122c, das fünfte bis siebte Segment 122e–g und das neunte Segment 122i weisen keinen Refrain auf, wobei jedoch diese Segmente entsprechen des Rhythmus ebenfalls eine andere Klassifizierung aufweisen können. Die oben erwähnte Klassifizierung hinsichtlich des Rhythmus kann beispielsweise durch ein Analysieren der Längen der Segmente geschehen (z. B. längerer Abschnitte deuten eher auf ruhige Musik hin).
  • Eine effiziente Art und Weise, zusätzliche Musikinhalte in einem Stream (Fernsehsequenz 104) einzubetten, ist für den Fall, dass keine semantischen Markierungen zur Verfügung stehen, die inhaltsbasierte Musikabfrage von ähnlicher Musik. Die Bestimmung von Ähnlichkeitsbeziehungen zwischen einem Anfragesong und einem größeren Songkatalog kann relevante Spiellisten (Playlists) liefern. Während das System durch eine Modellierung von Anwenderpräferenzen und eine Integration von Rückkopplungen bezüglich der Relevanz (Re levance-Feedback) erweiterten wird, konnten die Empfehlungsqualität deutlich verbessert werden. Die Rückkopplung kann beispielsweise genutzt werden, um derartige Playlists sukzessiv anzupassen.
  • Die Anwendung inhaltsbasierter Musikidentifizierung über einen Anruf (z. B. eines Mobiltelefons), bei dem das Mobiltelefon beispielsweise nahe an einen Lautsprecher gehalten wird, bietet weitere Möglichkeiten der Interaktion.
  • Zusätzlich zu einer reinen Bild- oder reinen Audioanalyse kann noch eine multimodale Analyse vorgenommen werden, wobei ein multimodaler oder modusübergreifender Analysevorgang Audio- und visuelle Medien umfasst. Eine typische multimodale Analyseanwendung ist ein Musikabspielgerät, das Fotos für Visualisierungen verwendet. Der Kombinationsaspekt der Modalität könnten die Musik-und-Bild-Stimmung oder emotionale Wirkungen sein. Die Musikvisualisierung kann auch mit Anwendertests ausgewertet werden, um die Anwenderwahrnehmung zu messen. Die emotionsbasierte Kombination von Musik und Fotos kann mit einer Visualisierung durch konventionelle Media Player und/oder einer Diashow mit zufälligen Fotos verglichen werden. Der Anwendertest offenbart ein intensiviertes Anwendererlebnis und eine stärkere Akzeptanz der stimmungsbasierten Kombination von Musik und Fotos. Deshalb sollte eine modusübergreifende Anwendung von Multimedia-Elementen auf die Produktion von Fernsehsendungen angewendet werden, die das beste Anwendererlebnis mit sich bringt, statt Audio- und visuelle Daten einzeln zu verarbeiten.
  • Die Anreicherung des interaktiven TV-Dienstes kann verwirklicht werden, indem Serverkomponenten in einer digitalen TV-Playout-Umgebung entwickelt werden. Der Kern der Architektur ist ein Streaming-orientierter Datenaustausch zwischen Kernmodulen, z. B. ein MPEG-2-Transport-Stream-Multiplexer, ein Videocodierer und Objektkarussell-Generierungseinrichtungen. Ferner steuert ein Inhalts-, Zeitplanungs- und Administrationsserver das gesamte System und die Interaktion zwischen den Komponenten.
  • 5 zeigt ein weiteres Ausführungsbeispiel, bei dem der Suchanfrageempfänger 130 beispielsweise vier Module und das Fernsehsequenzaufbereitungsmodul 140 zwei Untermodule aufweist. Im Detail weist bei diesem Ausführungsbeispiel der Suchanfrageempfänger 130 ein Nachrichteneingangsmodul 132, ein Nutzerverwaltungsmodul 134, ein Filtermodul für registrierte Nutzer 136 und ein Medienakquirierungsmodul 138 auf. Das Fernsehsequenzaufbereitungsmodul 140 umfasst als Untermodule zunächst ein inhaltsbasiertes Medienanalysemodul 142 und ein Medienanordnungs- und Vorbereitungsmodul oder Medienprozessierungsmodul 144. Medienprozessierung umfasst beispielsweise ein Scheduling (zeitliches planen oder aneinander ordnen) und eine Vorverarbeitung. Ferner weist der Fernsehsequenzverteiler 300 einen digitalen TV-VideoEncoder 330 und einen digitalen TV-Multiplexer 340 auf.
  • Über das Nachrichteneingangsmodul 132 können somit Nutzer Nachrichten an die Vorrichtung 100 senden, wobei die Nachrichten beispielsweise mittels SMS, MMS, E-Mail oder Web-Formular versandt werden können. Die Nachrichten können beispielsweise Suchbegriffe 113 aufweisen, die dann an das Medienakquirierungsmodul 138 gesendet werden. Gleichzeitig kann das Nutzermanagementmodul 134 die eingegangenen Nachrichten bezüglich der Absender analysieren und feststellen, ob die Nachricht beispielsweise von einem registrierten Nutzer stammen. Optional kann das Filtermodul 136 die Nachricht danach gewichten, ob der Nutzer oder der Absender der Nachricht ein registrierter Nutzer ist oder nicht. Für registrierte Nutzer kann beispielsweise der Suchbegriff 113 direkt genutzt werden, um eine Akquirierung der Mediendaten mittels des Medienakquirierungsmodul 138 durchzuführen. Für nichtregistrierte Nutzer kann beispielsweise eine Mindestanzahl von Nutzern erforderlich sein, bevor der Suchbegriff 113 für eine Medienakquirierung akzeptiert wird. Alternativ können nichtregistrierte Nutzer lediglich an Abstimmungen (Voting) teilnehmen – nicht jedoch eigene Suchbegriffe 113 generieren.
  • Nachdem die Mediendaten durch das Akquirierungsmodul 138 von einer Datenbank abgefragt wurden (in dem Ausführungsbeispiel der 5 nicht gezeigt) erfolgt in dem inhaltsbasierten Medienanalysemodul 142 die oben beschriebene Untersuchung hinsichtlich des Inhalts der Mediendaten, wobei die Mediendaten sowohl Bildinhalte 124 als auch Audioinhalte 122 umfassen können. In dem Modul zum Erstellen der Senderabläufe 144 (Medienprozessierungsmodul) erfolgt dann eine entsprechende Anpassung sowohl der Audio- und Videodaten und insbesondere eine Aufbereitung der entsprechenden Übergänge zwischen verschiedenen Daten. Die so erhaltene Fernsequenz 104 wird dann in den digitalen TV-Encoder 330 eingegeben, der ein interaktives TV-Programm erzeugt, welches anschließend in einen digitalen TV-Multiplexer 340 eingegeben wird. Das so erhaltene interaktive TV-Programm kann mit anderen TV-Programmen aus anderen Quellen (beispielsweise ein Programm 1 bis ein TV-Programm n kombiniert und beispielsweise in ein digitales TV-Netzwerk (z. B. Kabel) eingespeist werden.
  • Somit sind bei Ausführungsbeispiele für die Anreicherung von TV-Programmen oder TV-Diensten spezielle Module zur Medienakquirierung, Multimedia-Analyse und zum kollaborativen Filtern integriert, welche wie folgt zusammengefasst werden können. Die gezeigte Verarbeitungskette zeigt einen abstrakten Arbeitsablauf für interaktive TV-Generierungsdienste, die die Handhabung von Nutzer-Mitteilungen, die über Mobiltelefone oder andere Rückkanäle wie z. B. Email übermittelt werden, umfasst. Die Mitteilungen können wie oben beschrieben gefiltert werden, damit registrierte Anwender das kollaborative Filtermodul, das nach übergreifenden Interessen bezüglich anderer registrierter Anwender sucht, in Gang setzen bzw. beeinflussen können. Bei dem nächsten Schritt wird eine Medienakquirierung vorgenommen, falls sie für den ausgewählten Dienst benötigt wird. Danach verarbeitet das inhaltsbasierte Analysemodul Audio-, Bild- und Videodaten in Bezug auf semantische Indizes und Ähnlichkeit. Das letzte Modul der Anreicherungskette übernimmt die zeitliche Planung und Aufbereitung von Multimedia-Elementen ebenfalls unter Verwendung von inhaltsbasierten Analyseverfahren. Der Arbeitsablauf kann je nach der Art der Anwendung unterschiedlich sein.
  • Die Anreicherungsstrategien für interaktive Fernsehdienste können wie folgt beschrieben werden. Auf der Basis der vorab definierten Systemarchitektur und der gezeigten inhaltsbasierten und kollaborativen Filterverfahren sind viele Strategien zur Anreicherung von interaktiven Diensten (Erstellung der Fernsehsequenz 104) möglich.
  • Beispielsweise können Textmitteilungen von Anwendern nach Schlüsselwörtern analysiert werden, um passende Multimedia-Elemente in Multimedia-Datenbanken zu finden, die mit vom Anwender oder automatisch erstellten Kommentaren versehen sind, um diesen Inhalt in die Sendung zu integrieren.
  • Es können ebenfalls Multimedia-Mitteilungen von Anwendern als Anfrage bei inhaltsbasierten Wiedergewinnungssystemen (Abfragesystem oder sogenannte retrieval systems) verwendet werden, um ähnliche Multimedia-Elemente für die Fernsehsequenz zu erhalten.
  • Ferner kann der Audioinhalt oder gesprochene Sprache von Anwendern nach Schlüsselwörtern oder passenden Musikstücken analysiert werden. Die Schlüsselwörter und Songtitel können beispielsweise dazu verwendet werden, um Multimedia-Elemente abzufragen.
  • Eine Anwendergruppe könnte beispielsweise ferngesteuert eine intelligente Playliste erzeugen, um Videoclips oder Musik anhand von Nutzerrückkopplung bezüglich der Relevanz gesteuert zu steuern.
  • Die so zusammengetragenen Medien (BAVT-Material) kann automatisch modusübergreifend zeitlich geplant und aufbereitet werden, um den Nutzern/Zuschauern ein optimales Ergebnis zu bieten.
  • Im Anschluss an die beschriebenen Anreicherungsstrategien sind mehrere konkrete Dienstszenarios möglich. Beispielhaft werden die Dienste: Intelligent Playlist Generator (IPG, Intelligente Spiellisten-Erstellungseinrichtung) und Theme Broadcast Generator (TBG, Themensendungserstellungseinrichtung oder thematischer AV-Generator) ausführlich beschrieben.
  • Die 6a zeigt ein Flussdiagramm zur Erzeugung einer Spielliste und deren Anpassung. Dabei wird in einem ersten Schritt 610 zunächst von einem Nutzer (z. B. ein registrierter Nutzer) ein Lied eingereicht oder bereitgestellt, welches beispielsweise einen Startwert in der Spielliste 620 darstellt. Basierend auf diesem Lied erstellt die Vorrichtung beispielsweise eine Liste ähnlicher Titel, die dann abgespielt werden können. In einem weiteren Schritt 630 erfolgt eine Rückkopplung durch andere Nutzer, die beispielsweise über eine Abstimmung oder Voting die entsprechend gefundenen Titel bewerten und somit eine Rangfolge in der Spielliste erzeugen. Durch ein ständiges Ersetzen der am schlechtest bewerteten Titel kann somit eine Spielliste sukzessiv verbessert und adaptiert werden.
  • Der IPG-Dienst beschreibt an dem Beispiel der Musik einen interaktiven Dienst für eine dynamische Playlist-Erstellung. Das grundlegende Konzept kann auch als Diashow oder in Kombination als Musik/Diashow-Dienst auf den Bildbereich angewendet werden.
  • Das oben schematisch gezeigte Konzept des IPG-Dienstes kann wie folgt weiter konkretisiert werden. Um den Dienst zu beginnen, stellt ein Anwender oder der Administrator der Dienste einen so genannten Keimsong (seed song) ein, der durch einen Musikgewinnungsalgorithmus verwendet wird. Der Musikgewinnungsalgorithmus durchsucht eine Musikdatenbank, um eine erste Playliste von ähnlichen Songs zu erhalten. Im weiteren Verlauf des Dienstes wird die Playliste länger und verändert sich. Die Bereitstellung (submission) eines derartigen Songs kann anhand des Songtitels über eine Textmitteilung- oder über eine Mobiltelefon-Musikidentifikation gehandhabt werden. Der identifizierte Song wird an den IPG geliefert. Nach der Initialisierung des Dienstes können Anwender eine Rückmeldung über aktuell gespielte Songs abgeben (z. B. ein Abstimmen). Ein Relevanz-Feedback-Algorithmus profitiert von der kontinuierlichen Anwenderrückmeldung und passt die Playliste an. Im schlimmsten Fall einer massenhaften Ablehnung wird der derzeit gespielte Song angehalten, und es wird ein alternativer Song gewählt. Die Abstimmungsergebnisse können auf dem Bildschirm gezeigt werden, um das Anwendererlebnis zu erweitern. Neben dem Abstimmungsansatz können zusätzliche Songs zum Zweck einer direkteren Steuerung der IPG anhand mehrerer Keimsongs und Playlist-Aggregationsalgorithmen unterbreitet werden. Dieses Verfahren kann auf einen Dienst, der einem Multiplayer-Spiel ähnelt, ausgedehnt werden: „Finde und unterbreite verschiedene Songs eines speziellen Musikgenres, bis die IPG dein Genre spielt”. Alternativ dazu kann das kollaborative Filtermodul dazu befähigt werden, bereits vorhandene Musikpräferenzen von registrierten Anwendern mit einzubeziehen.
  • Bezüglich der Musik/Diashow-Version dieses Dienstes werden zusätzliche Techniken zum Verschmelzen von Audio- und visuellem Inhalt, z. B. Stimmungsklassifikation, angewendet. Ferner wird eine Audio-Beat-Analyse angewendet, um Bilder genau bei Musik-Beats zu wechseln. Es wird eine Segmentierung der Songstruktur angewendet, um dieselben Bilder innerhalb jedes Refrains eines Songs zu wiederholen.
  • Im Prinzip ist der Abstimmungsansatz für eine Masseninteraktion denkbar, während der Unterbreitungsansatz (d. h. jeder Nutzer kann selbst Material bereitstellen) bei einer begrenzten Anzahl von Anwendern verwendet werden sollte.
  • Die 6b zeigt ein Flussdiagramm für einen thematischen AV-Generator (TBG), der eine Sendung automatisch generiert und bei dem wiederum in einem ersten Schritt 710 ein Nutzer beispielsweise einen Suchbegriff einreicht. In einem zweiten Schritt 720 wird der Suchbegriff verwendet, um beispielsweise eine Datenbank abzufragen, wobei in einem dritten Schritt 730 multimediale Daten erworben werden, und in einem vierten Schritt 740 optional wissensbasierte Datenbanken abgefragt werden. Die wissensbasierte Datenbankabfrage liefert somit einen Text, der in einem sechsten Schritt 760 in Sprache konvertiert werden kann und für ein mediales Aneinanderordnen zur Verfügung steht. In einem fünften Schritt 750 werden zum einen die multimedialen Daten mit den zu Sprache konvertierten Textinformationen kombiniert und aneinander angeordnet, wobei die Übergänge in einem siebten Schritt 770 entsprechend angepasst werden können. In einem achten Schritt 780 können die multimedialen Daten mit relevanten Nutzerinformationsdaten versehen werden. Das so erhaltene Material wird schließlich in einem letzten Schritt 790 ausgegeben bzw. dem Fernsehsequenzverteiler 300 zur Verfügung gestellt.
  • Der TBG-Dienst beschreibt somit einen interaktiven Fernsehdienst, der eine Fernsehsendung auf der Basis eines verfügbaren Multimedia-Inhalts, der anhand einer Schlüsselwortsuche zusammengestellt wird, beruht. Der Dienst kann auch wie folgt detailliert beschrieben werden. Anfängliche werden Schlüsselwörter für ein spezielles Thema, z. B. „Neuseeland”, bereitgestellt. Die anfänglichen Schlüsselwörter können seitens eines vorab registrierten Anwenders über eine Textmitteilung oder einen Dienstadministrator eingestellt werden. Unter Einschluss dieser Schlüsselwörter wird eine Multimedia-Suche auf verschiedenen Multimedia- Plattformen, z. B. Flickr.com, durchgeführt, um einen anfänglichen Inhalt für die TBG zu gewinnen. Neben dem Multimedia-Inhalt werden Wissensdatenbanken wie Wikipedia.org nach Textinhalt durchsucht, der mit einer Text-Zu-Sprache-Synthese als Audioinhalt verwendet werden kann. Zusätzlicher Musikinhalt kann z. B. anhand einer Stimmungsklassifikation der eingeholten Bilder und einer stimmungsbasierten Suche in markierten oder semantischen indizierten Musikdatenbanken ausgewählt werden.
  • Durch Kombinieren und zeitliches Planen eingeholter und generierter Multimedia-Daten kann eine Themensendung ohne jegliche Produktionskosten, mit Ausnahme möglicher Lizenzgebühren, generiert werden. Der letzte Schritt konzentriert sich auf den Entwurf von Übergangseffekten, z. B. zwischen Bildern. Deshalb können auch die oben beschriebene Stimmungsklassifikation sowie vordefinierte Übergänge bei Stimmungsprofilen angewendet werden, z. B. ruhig und melancholisch, die sich für sanfte Überblendungen eignen.
  • Während der anfänglich eingeholte Inhalt gesendet wird, können Anwender Textmitteilungen mit zusätzlichen, zum Thema passenden Schlüsselwörtern senden, für das Beispiel „Neuseeland” z. B. „Milford Sound, Queens Town, Abel Tasman”. Diese interaktiv bereitgestellten Schlüsselwörter reichern die ursprüngliche Themensendung um zusätzlichen Multimedia-Inhalt an, der dynamisch integriert wird. Um Anwender zu ermutigen, an dem TBG-Dienst teilzunehmen, können in der Sendung Spitznamen oder Bilder des Anwenders zusammen mit dem Inhalt, für den der Anwender verantwortlich ist, gezeigt werden.
  • Ausführungsbeispiele der vorliegenden Erfindung sind somit insbesondere anwendbar für die automatisierte Generierung von TV-Sendeinhalten, die beispielsweise in lokalen TV-Kabelnetzen oder Kabelkopfstationen, die ein lokales TV-Programm anbieten, genutzt werden. Besonders interessant sind dabei Anwendungen in Bereiche, wo in kurzer Zeit bei begrenzten finanziellen Ressourcen ein abwechslungsreiches TV-Angebot zur Verfügung gestellt werden soll, jedoch kaum Ressourcen für eine Inhaltspflege zur Verfügung stehen. Das angebotene TV-Programm kann beispielsweise zur Unterhaltung, aber auch zu Informationszwecken genutzt werden.
  • Für lokale Fernsehangebote eröffnen sich durch die Ausführungsbeispiele auch Möglichkeiten, ungenutzte Sendezeiten mit lokal interessanten Inhalten und ggf. von Nutzern generierten Inhalten zu füllen, in den beispielsweise Photoaufnahmen von lokalen Veranstaltungen und ggf. Musik von lokalen Künstlern oder passend zur Musik eines regionalen Radiosenders Bildmaterial durch das automatische Verfahren entsprechend der Stimmung arrangiert werden.
  • Weitere Anwendungen ergeben sich beispielsweise auch bei der Produktion von Inhalten für das mobile Fernsehen, bei dem aktuell auch Radioprogramme als Fernsehen übertragen werden und einfach Bilder von CD-Cover im Videobild angezeigt werden. Hier könnten automatisch zur Musik ggf. rhythmisch und stimmungsgemäß passende Bilder aus einem Bilderpool (Datenbank) angezeigt werden. Durch die Abwechslung der Inhalte und die automatische Auswahl kann ein deutlicher Mehrwert mit wenig Aufwand erreicht werden. Ausführungsbeispiele umfassen ebenso die Möglichkeit lokale Communities mit Hilfe der zuvor genannten Mittel zu fördern.
  • Die Einbindung in diesem Bereich kann als Modul realisiert werden, welche beispielsweise Content-Management-Systeme für das sogenannte Play-Out von mobilem Fernsehen entwickeln und einreichen.
  • Ausführungsbeispiele umfassen ebenfalls das Erstellen eines Videostreams und das anschließende Übertragung des Videostreams an eine Vielzahl von Nutzern/Zuschauern, ohne dass die Nutzer notwendigerweise auf die Erstellung des Videostreams Einfluss nehmen (d. h. nicht interaktiv). Das kann beispielsweise für eine regional abgrenzte Region geschehen (z. B. eine Stadt oder eine Versorgungsregion eines Kabelproviders).
  • Die erfolgreichsten interaktiven TV-Anwendungen umfassen Fernsehdienste unter Nutzung Mobiler Nachrichtendienste wie beispielsweise SMS-Chats. Ausführungsbeispiele liefern darüber hinaus neuartige Ansätze zur Anreicherung von mobilen Nachrichtenmitteilungsdiensten unter Verwendung von inhaltsbasierten und kollaborativen Filterverfahren. Als Beispiel ist ein Inhalts- und Playout-Server offenbart, der zum Integrieren von interaktiven Fernsehdiensten in digitale TV-Netze verwendet werden kann. Ferner sind Developed-Content-basierte Analysealgorithmen beschrieben, die in der Lage sind, die Anwendererfahrung von mobilen Mitteilungsübermittlungsdiensten anzureichern sowie Gelegenheiten für neuartige Dienste mit geringeren Dienstproduktionskosten anzubieten. Die neuen Ansätze konzentrieren sich auf eine automatisierte Akquirierung von Multimedia-Inhalt sowie auf eine intelligente zeitliche Inhaltsplanung und – aufbereitung.
  • Zusammenfassend können Ausführungsbeispiele wie folgt charakterisiert werden. Sie umfassen eine Anreicherung von interaktiven Fernsehdiensten mit kollaborativen und inhaltsbasierten Filterverfahren. Es ist ein Ansatz zur Anreicherung von mobilen Nachrichtenübermittlungsdiensten beschrieben, der inhaltsbasierte und kollaborative Filterverfahren aufweist. Die Inhalts- und Playout-Systemarchitektur ist beschrieben. Die inhaltsbasierten Analysealgorithmen und ihre mögliche Verwendung bei Anreicherungskomponenten sind offenbart. Es wurden zwei Dienstkonzepte detailliert beschrieben, um die Anwendung der inhaltsbasierten Algorithmen bei einem Prozess einer Generierung von interaktiven Fernsehsendungen zu erläutern. Unter Zusammenfassung der Ergebnisse wurde ein Basissystem für prototypische interaktive Dienste verwirklicht.
  • Somit beschreiben Ausführungsbeispiele insbesondere ein kollaboratives und ein inhaltsbasiertes Filtern sowie ein Anreichern von interaktiven Fernsehdiensten.
  • Insbesondere wird darauf hingewiesen, dass abhängig von den Gegebenheiten das erfindungsgemäße Schema auch in Software implementiert sein kann. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder einer CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das entsprechende Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computerprogrammprodukt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computerprogrammprodukt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computerprogramm auf einem Computer abläuft.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - WO 2002/032144 [0005]
    • - US 2008155624 [0005]
    • - JP 2007209023 [0005]
    • - JP 2007142729 [0005]
    • - GB 2444284 [0005]
  • Zitierte Nicht-Patentliteratur
    • - FLICKR.COM [0027]
    • - Enzyklopädie WIKIPEDIA [0027]
    • - WIKIPEDIA Enzyklopädie [0056]
    • - WIKIPEDIA Enzyklopädie [0057]
    • - WIKIPEDIA [0059]
    • - Flickr.com [0088]
    • - Wikipedia.org [0088]

Claims (23)

  1. Vorrichtung (100) zum Bereitstellen einer Fernsehsequenz (104) mit: einer Datenbankschnittstelle (110) zum Zugreifen auf wenigstens einer Datenbank (200) unter Nutzung einer Suchanfrage (113); einem Suchanfrageempfänger (130), der ausgebildet ist, um die Datenbankschnittstelle (110) anzusteuern, um über die Datenbankschnittstelle (110) für die Suchanfrage (113) wenigstens einen Audioinhalt (122) und wenigstens einen davon getrennten Bildinhalt (124) zu gewinnen; einem Fernsehsequenzaufbereitungsmodul (140) zum Kombinieren des getrennten Audioinhalts (122) und des Bildinhalts (124), um die Fernsehsequenz (104) zu erzeugen, die auf den Audioinhalt (122) und den Bildinhalt (124) basiert; und einer Ausgangsschnittstelle (150) zum Ausgeben der Fernsehsequenz (104) zu einem Fernsehsequenzverteiler (300).
  2. Vorrichtung (100) nach Anspruch 1, bei dem die Datenbank (200) eine erste und ein zweite Datenquelle, die räumlich voneinander getrennt sind, aufweist und die Datenbankschnittstelle (110) ausgebildet ist, um den Audioinhalt (122) von der ersten Datenquelle anzufragen und den Bildinhalt (124) von der zweiten Datenquelle abzufragen.
  3. Vorrichtung (100) nach Anspruch 1 oder Anspruch 2, bei dem die Datenbankschnittstelle (110) ausgebildet ist, um auf weitere textbasierte Datenbanken zu zugreifen und ansprechend auf die Suchanfrage (113) Textinformationen abzufragen.
  4. Vorrichtung (100) nach Anspruch 3, die ferner ein Text-Zu-Sprache-Modul (112) aufweist, wobei das Text-Zu-Sprache-Modul (112) ausgebildet ist, um die Textinformationen in zusätzliche Audioinhalte umzuwandeln und an das Fernsehaufbereitungsmodul (140) weiterzuleiten.
  5. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der die Datenbankschnittstelle (110) ausgebildet ist, um einen weiteren Suchbegriff aus dem Audioinhalt (122) zu ermitteln.
  6. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der der Suchanfrageempfänger (130) ausgebildet ist, um einen weiteren Audioinhalt und ein weiteren Bildinhalt über die Datenbankschnittstelle (110) zu gewinnen und bei der das Fernsehsequenzaufbereitungsmodul (140) ausgebildet ist, um den Audioinhalt (122), den Bildinhalt (124), den weiteren Audioinhalt und den weiteren Bildinhalt zu der Fernsehsequenz (104) zu kombinieren.
  7. Vorrichtung (100) nach einem der Ansprüche 6, bei der das Fernsehsequenzaufbereitungsmodul (140) ausgebildet ist, um die Fernsehsequenz (104) derart zu erzeugen, dass ein Wechsel vom Audioinhalt (122) zu dem weiteren Audioinhalt mit einem Wechsel vom Bildinhalt (124) zu dem weiteren Bildinhalt zeitlich übereinstimmt.
  8. Vorrichtung (100) nach Anspruch 6 oder Anspruch 7, bei der der Audioinhalt (122) einen Takt oder einen Refrain mit einem Anfang und einem Ende aufweist und bei dem das Fernsehsequenzaufbereitungsmodul (140) ausgebildet ist, um einen Wechsel vom Bildinhalt (124) zu dem weiteren Bildinhalt mit dem Takt oder mit dem Anfang oder dem Ende des Refrains in Übereinstimmung zu bringen.
  9. Vorrichtung (100) nach einem der Ansprüche 6 bis 8, bei der der Audioinhalt (122) und der Bildinhalt (124) hinsichtlich ihres Inhalts klassifiziert sind und bei dem der Suchanfrageempfänger (130) ausgebildet ist, um den weiteren Audioinhalt und den weiteren Bildinhalt in Abhängigkeit der Klassifikation abzufragen.
  10. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der die Suchanfrage (113) statische Steuerinformationen (113a) oder dynamische Steuerinformationen (113b) aufweist, wobei die dynamischen Steuerinformationen (113b) von der Fernsehsequenz (104) abhängt.
  11. Vorrichtung (100) nach Anspruch 10, wobei der Fernsehsequenzverteiler (300) ausgebildet ist, um die Fernsehsequenz (104) an Nutzer zu übermitteln und bei der der Suchanfrageempfänger (130) ausgebildet ist, um die dynamischen Steuerinformationen (113b) in Form einer Nachricht von Nutzern zu erhalten.
  12. Vorrichtung (100) nach Anspruch 10 oder Anspruch 11, das ferner ein Nutzerverwaltungsmodul (134) aufweist, wobei das Nutzerverwaltungsmodul (134) ausgebildet ist, um besondere Nutzer der Vorrichtung (100) zu registrieren, wobei der Suchanfrageempfänger (130) ausgebildet ist, um dynamische Steuerinformationen (113b) von den besonderen Nutzern anders zu verarbeiten als dynamische Steuerinformationen (113b) von den Nutzern.
  13. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der der Suchanfrageempfänger (130) aus gebildet ist, um einen kontinuierlichen Audiostrom und eine Vielzahl von Bildinhalten zu gewinnen, und bei der das Fernsehaufbereitungsmodul (140) ausgebildet ist, um die Fernsehsequenz (104) durch ein Einblenden der Vielzahl von Bildinhalten in den kontinuierlichen Audiostrom zu erhalten.
  14. Vorrichtung (100) nach einem der Ansprüche 1 bis 12, bei der der Suchanfrageempfänger (130) ausgebildet ist, um eine Bildsequenz und eine Vielzahl von Audioinhalten zu gewinnen, und bei dem das Fernsehaufbereitungsmodul (140) ausgebildet ist, um die Fernsehsequenz (104) durch ein Einblenden der Vielzahl von Audioinhalten in die Bildsequenz zu erhalten.
  15. Vorrichtung (100) nach einem der Ansprüche 6 bis 14, die ferner eine Einrichtung zur manuellen Korrektur (310) von Audio- oder Bildinhalten oder eine Einrichtung zur Aufbereitung von Übergängen (320) zwischen Audio- und Bildinhalten aufweist.
  16. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der der Audioinhalt (122) oder der Bildinhalt (124) Inhaltsdaten aufweist und die Vorrichtung (100) ferner einen Speicher aufweist, um den Audioinhalt (122) oder den Bildinhalt (124) abzuspeichern und entsprechend der Inhaltsdaten zu klassifizieren.
  17. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der der Audioinhalt (122) oder der Bildinhalt (124) Inhaltsdaten aufweist und bei dem das Fernsehsequenzaufbereitungsmodul (140) ausgebildet ist, um den Audioinhalt (122) oder den Bildinhalt (124) basierend auf den Inhaltsdaten durch Textinformationen anzureichern.
  18. Vorrichtung (100) nach Anspruch 16 oder Anspruch 17, bei der die Inhaltsdaten ein Genre des Audioinhalts (122) oder des Bildinhalts (124) bezeichnen und bei der das Fernsehsequenzaufbereitungsmodul (140) ausgebildet ist, um das Kombinieren des Audioinhalts (122) und des Bildinhalts (124) entsprechend des Genres durchzuführen.
  19. Vorrichtung (100) nach Anspruch 18, bei der das Fernsehsequenzaufbereitungsmodul (140) ausgebildet ist, um den Bildinhalt (124) in Abhängigkeit von dem Genre einzublenden oder auszublenden.
  20. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der das Fernsehaufbereitungsmodul (140) ausgebildet ist, um kontextabhängige Zusatzinformationen in die Fernsehsequenz (104) einzublenden.
  21. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, bei der das Fernsehsequenzaufbereitungsmodul (140) ausgebildet ist, um aus dem Bildinhalt (124) menschliche Gesichter zu erkennen und erkannten menschliche Gesichter zu verfälschen.
  22. Verfahren zum Bereitstellen einer Fernsehsequenz (104), mit folgenden Schritten: Zugreifen einer Datenbankschnittstelle (110) auf eine Datenbank (200) unter Nutzung einer Suchanfrage (113); Ansteuern der Datenbankschnittstelle (110) durch einen Suchanfrageempfänger (130), um über die Datenbankschnittstelle (110) für die Suchanfrage (113) wenigstens einen Audioinhalt (122) und wenigstens einen davon getrennten Bildinhalt (124) zu gewinnen; Kombinieren des Audioinhalts (122) und des getrennten Bildinhalts (124) durch ein Fernsehsequenzaufbereitungsmodul (140), um die Fernsehsequenz (104) zu erzeugen, die auf den Audioinhalt (122) und dem getrennten Bildinhalt (124) basiert; und Ausgeben der Fernsehsequenz (104) durch eine Ausgangsschnittstelle (150) zu einem Fernsehsequenzverteiler (300).
  23. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 22, wenn das Computerprogramm auf einem Computer abläuft.
DE102008044635A 2008-07-22 2008-08-27 Vorrichtung und Verfahren zum Bereitstellen einer Fernsehsequenz Withdrawn DE102008044635A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011519058A JP2011528879A (ja) 2008-07-22 2009-07-08 テレビジョンシーケンスを提供するための装置および方法
KR1020117001714A KR101326897B1 (ko) 2008-07-22 2009-07-08 텔레비전 시퀀스를 제공하는 장치 및 방법
EP20090777045 EP2304951A2 (de) 2008-07-22 2009-07-08 Vorrichtung und verfahren zur bereitstellung einer fernsehsequenz
PCT/EP2009/004948 WO2010009812A2 (en) 2008-07-22 2009-07-08 Device and method for providing a television sequence
US13/011,563 US8566880B2 (en) 2008-07-22 2011-01-21 Device and method for providing a television sequence using database and user inputs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US8277308P 2008-07-22 2008-07-22
US61/082,773 2008-07-22

Publications (1)

Publication Number Publication Date
DE102008044635A1 true DE102008044635A1 (de) 2010-02-04

Family

ID=41461771

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008044635A Withdrawn DE102008044635A1 (de) 2008-07-22 2008-08-27 Vorrichtung und Verfahren zum Bereitstellen einer Fernsehsequenz

Country Status (6)

Country Link
US (1) US8566880B2 (de)
EP (1) EP2304951A2 (de)
JP (1) JP2011528879A (de)
KR (1) KR101326897B1 (de)
DE (1) DE102008044635A1 (de)
WO (1) WO2010009812A2 (de)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102124466B (zh) * 2008-09-05 2013-09-11 索尼公司 内容推荐系统、内容推荐方法和内容推荐设备
US9443147B2 (en) * 2010-04-26 2016-09-13 Microsoft Technology Licensing, Llc Enriching online videos by content detection, searching, and information aggregation
US20120177345A1 (en) * 2011-01-09 2012-07-12 Matthew Joe Trainer Automated Video Creation Techniques
KR101462253B1 (ko) * 2012-03-08 2014-11-17 주식회사 케이티 동적으로 메뉴를 생성하는 메뉴 데이터 생성 서버 및 방법, 그리고 메뉴 데이터를 표시하는 단말
JP2013225731A (ja) * 2012-04-19 2013-10-31 Nippon Hoso Kyokai <Nhk> 画像処理装置及びプログラム
US10395642B1 (en) * 2012-11-19 2019-08-27 Cox Communications, Inc. Caption data fishing
US10542305B2 (en) * 2012-12-03 2020-01-21 Nbcuniversal Media, Llc Flexible broadcast system and method
US10349140B2 (en) 2013-11-18 2019-07-09 Tagboard, Inc. Systems and methods for creating and navigating broadcast-ready social content items in a live produced video
CN103747277A (zh) * 2014-01-10 2014-04-23 北京酷云互动科技有限公司 一种多媒体节目识别方法和装置
FR3043521A1 (fr) * 2015-11-06 2017-05-12 Orange Generation automatique de contenu audiovisuel
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
JP6219548B1 (ja) * 2017-03-31 2017-10-25 株式会社ドワンゴ 仮想処理サーバ、仮想処理サーバの制御方法、コンテンツ配信システム、および端末装置のアプリケーションプログラム
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002032144A2 (en) 2000-10-11 2002-04-18 Screenpeaks Ltd. Digital video broadcasting
JP2007142729A (ja) 2005-11-17 2007-06-07 Sharp Corp 番組推薦装置、番組推薦方法、番組推薦プログラム、および番組推薦プログラムを記録した記録媒体
JP2007209023A (ja) 2007-03-20 2007-08-16 Matsushita Electric Ind Co Ltd 番組選択支援装置とその方法
GB2444284A (en) 2006-09-18 2008-06-04 Yann Emmanuel Motte Method and apparatus for selection of information and web page generation
US20080155624A1 (en) 2005-01-07 2008-06-26 Kyoung-Ro Yoon Apparatus and Method for Providing Adaptive Broadcast Service Using Classification Schemes for Usage Environment Description

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5233438A (en) 1990-03-02 1993-08-03 Brother Kogyo Kabushiki Kaisha Entertainment apparatus for producing orchestral music accompaniment and a selected background video
US5253275A (en) * 1991-01-07 1993-10-12 H. Lee Browne Audio and video transmission and receiving system
US7079176B1 (en) * 1991-11-25 2006-07-18 Actv, Inc. Digital interactive system for providing full interactivity with live programming events
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library
US6321383B1 (en) * 1995-07-31 2001-11-20 Brother Kogyo Kabushiki Kaisha Information supplying device that can store multiple types of information and supplies composite information in response to a request
US6463444B1 (en) * 1997-08-14 2002-10-08 Virage, Inc. Video cataloger system with extensibility
US20050028194A1 (en) * 1998-01-13 2005-02-03 Elenbaas Jan Hermanus Personalized news retrieval system
US6133912A (en) * 1998-05-04 2000-10-17 Montero; Frank J. Method of delivering information over a communication network
DE69841239D1 (de) * 1998-05-27 2009-11-26 Sony France Sa Sequenzgenerierung, die eine Formulierung als Bedingungserfüllungsproblem nutzt
US6230162B1 (en) * 1998-06-20 2001-05-08 International Business Machines Corporation Progressive interleaved delivery of interactive descriptions and renderers for electronic publishing of merchandise
US6144375A (en) * 1998-08-14 2000-11-07 Praja Inc. Multi-perspective viewer for content-based interactivity
US8589975B2 (en) * 1998-08-21 2013-11-19 United Video Properties, Inc. Electronic program guide with advance notification
DE19841683A1 (de) 1998-09-11 2000-05-11 Hans Kull Vorrichtung und Verfahren zur digitalen Sprachbearbeitung
JP2001084743A (ja) * 1999-09-09 2001-03-30 Mega Chips Corp 画像・音響対応方法、音響対応方法、画像対応方法
WO2002008948A2 (en) * 2000-07-24 2002-01-31 Vivcom, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
FR2813682B1 (fr) * 2000-09-07 2003-01-17 France Telecom Procede de recherche de programmes ou de contenus audiovisuels sur un flux audiovisuel comportant des tables d'evenements distribue par une base de donnees
EP1191460A1 (de) 2000-09-21 2002-03-27 Swisscom AG Verfahren und System für die Klassifizierung von digitalen Audio- und Videodateien
JP2004080307A (ja) * 2002-08-15 2004-03-11 Nippon Hoso Kyokai <Nhk> 番組制作方法、番組制作装置、番組制作プログラム
JPWO2004080071A1 (ja) * 2003-03-06 2006-06-08 松下電器産業株式会社 データ処理装置
US20040197088A1 (en) * 2003-03-31 2004-10-07 Ferman Ahmet Mufit System for presenting audio-video content
JP4965257B2 (ja) * 2003-05-26 2012-07-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視聴覚番組コンテンツの視聴覚要約を生成するシステム及び方法
US7613613B2 (en) * 2004-12-10 2009-11-03 Microsoft Corporation Method and system for converting text to lip-synchronized speech in real time
JP4775626B2 (ja) * 2005-04-15 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20070028278A1 (en) * 2005-07-27 2007-02-01 Sigmon Robert B Jr System and method for providing pre-encoded audio content to a television in a communications network
US20080065695A1 (en) * 2006-09-11 2008-03-13 Pivi Unlimited Llc System and method for nondeterministic media playback selected from a plurality of distributed media libraries

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002032144A2 (en) 2000-10-11 2002-04-18 Screenpeaks Ltd. Digital video broadcasting
US20080155624A1 (en) 2005-01-07 2008-06-26 Kyoung-Ro Yoon Apparatus and Method for Providing Adaptive Broadcast Service Using Classification Schemes for Usage Environment Description
JP2007142729A (ja) 2005-11-17 2007-06-07 Sharp Corp 番組推薦装置、番組推薦方法、番組推薦プログラム、および番組推薦プログラムを記録した記録媒体
GB2444284A (en) 2006-09-18 2008-06-04 Yann Emmanuel Motte Method and apparatus for selection of information and web page generation
JP2007209023A (ja) 2007-03-20 2007-08-16 Matsushita Electric Ind Co Ltd 番組選択支援装置とその方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Enzyklopädie WIKIPEDIA
FLICKR.COM
Wikipedia.org

Also Published As

Publication number Publication date
WO2010009812A2 (en) 2010-01-28
US20110179452A1 (en) 2011-07-21
US8566880B2 (en) 2013-10-22
JP2011528879A (ja) 2011-11-24
WO2010009812A3 (en) 2010-07-01
KR101326897B1 (ko) 2013-11-11
KR20110033844A (ko) 2011-03-31
EP2304951A2 (de) 2011-04-06

Similar Documents

Publication Publication Date Title
DE102008044635A1 (de) Vorrichtung und Verfahren zum Bereitstellen einer Fernsehsequenz
DE10085178B4 (de) Verfahren für Internetradio und Übertragung
Widholm Online methodology: Analysing news flows of online journalism
DE112016006153T5 (de) Erstellen und verteilen von wiedergabelisten mit verwandter musik und geschichten
US20090226046A1 (en) Characterizing Or Recommending A Program
WO2020231528A1 (en) Dynamic video highlight
Jiang et al. Live: an integrated production and feedback system for intelligent and interactive tv broadcasting
US10990625B2 (en) Playlist preview
CN110691271A (zh) 一种新闻视频生成方法、系统、装置和存储介质
CN109565618A (zh) 媒体环境驱动的内容分发平台
CN102890950A (zh) 媒体自动剪辑装置、方法、媒体播送方法与其播送系统
DE112018006004T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE20314039U1 (de) Streamingportal, Computervorrichtung mit dem Streamingportal, Computerprogrammprodukt, computerlesbares Medium, Computernetzwerk zum Bereitstellen des Streamingportals, erstes, zweites und drittes Computersystem
DE10196456T5 (de) Persönliches Discjockeysystem
CN111083522A (zh) 视频分发、播放及用户特征标签获取方法
Kerr Experiments in sound: generating sonic landscapes in online spaces
KR20230093683A (ko) 영상 편집 장치에서 인공지능을 이용하여 영상 데이터를 자동으로 편집하는 장치 및 방법
DE102006049681B4 (de) Aufnahmeeinrichtung zur Erstellung einer multimedialen Aufnahme einer Veranstaltung und Verfahren zur Bereitstellung einer multimedialen Aufnahme
JP7137825B2 (ja) 映像情報提供システム
Smits et al. A system concept for socially enriched access to soccer video collections
Pedro Alternative Journalism in Madrid’s Blues Scene
DE60211813T2 (de) Vorrichtung zur Übertragung von Zusammenfassungsinformation für Mobiltelefonen
Stockleben et al. Radio Frames-Personalization of audio programs
Pek-Dorji Opening the gates in Bhutan: Media gatekeepers and the agenda of change
Czaszewicz Decolonizing the Music Industry: A Case Study of Independent Music Artists on TikTok

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee