DE102021126741A1 - Process for the aggregated output of media content - Google Patents

Process for the aggregated output of media content Download PDF

Info

Publication number
DE102021126741A1
DE102021126741A1 DE102021126741.2A DE102021126741A DE102021126741A1 DE 102021126741 A1 DE102021126741 A1 DE 102021126741A1 DE 102021126741 A DE102021126741 A DE 102021126741A DE 102021126741 A1 DE102021126741 A1 DE 102021126741A1
Authority
DE
Germany
Prior art keywords
media content
clusters
metadata
cluster
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102021126741.2A
Other languages
German (de)
Inventor
Jascha Minow
Carl Jahn
Said El Mallouki
Martin Michael Platschek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Telekom AG
Original Assignee
Deutsche Telekom AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Telekom AG filed Critical Deutsche Telekom AG
Priority to DE102021126741.2A priority Critical patent/DE102021126741A1/en
Publication of DE102021126741A1 publication Critical patent/DE102021126741A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur aggregierten Ausgabe von Medieninhalten. Das erfindungsgemäße Verfahren ermöglicht durch das Analysieren von Medieninhalten aus verschiedenen Quellen, das Erkennen, Erfassen und Vergleichen von Clustern innerhalb dieser Medieninhalte, die Verschlagwortung gemeinsamer und/oder sich überschneidender Medieninhalte, die Auswahl und Aggregation einzelner Inhalte (E) sowie das Generieren einer Ausgabe der aggregierten Medieninhalte (F) ein automatisiertes Anpassen von unterschiedlichen Medieninhalten an die Bedürfnisse einzelner Nutzer bzw. Konsumenten. Die Erfindung betrifft ferner ein Computerprogramm und ein System zur Durchführung des Verfahrens.The invention relates to a method for the aggregated output of media content. By analyzing media content from various sources, the method according to the invention enables the recognition, acquisition and comparison of clusters within this media content, the indexing of common and/or overlapping media content, the selection and aggregation of individual content (E) and the generation of an output of the aggregated media content (F) an automated adaptation of different media content to the needs of individual users or consumers. The invention also relates to a computer program and a system for carrying out the method.

Description

Hintergrund der ErfindungBackground of the Invention

Die Erfindung betrifft ein Verfahren zur aggregierten Ausgabe von Medieninhalten. Die Erfindung betrifft ferner ein Computerprogramm und ein System zur Durchführung des Verfahrens.The invention relates to a method for the aggregated output of media content. The invention also relates to a computer program and a system for carrying out the method.

Stand der TechnikState of the art

Beim Konsum von Medieninhalten (z.B. Nachrichten, Podcasts, Audio- und Video-Streams) sind die Nutzer oft in einem bestimmten Zeitfenster gefangen, da die Medieninhalte eine feststehende Länge haben. So dauert ein Kinofilm mindestens 90 Minuten und Nachrichtensendungen häufig ca. 30 Minuten, wobei die Dauer des Films bzw. der Sendung vom Konsumenten nicht verändert werden kann. Manchmal hat ein Nutzer aber nicht das komplette Zeitfenster zur Verfügung, sondern nur beispielsweise 80 Minuten für einen Film oder 20 Minuten für Nachrichten, möchte aber trotzdem den Film bzw. die Nachrichten konsumieren. In solchen Fällen hat der Nutzer bisher nur die Möglichkeit, das Abspielen der Medieninhalte entweder vor ihrem eigentlichen Ende abzubrechen oder bestimmte Abschnitte, die als eher uninteressant angesehen werden, zu überspringen.When consuming media content (e.g. news, podcasts, audio and video streams), users are often trapped in a certain window of time because the media content has a fixed length. For example, a cinema film lasts at least 90 minutes and news programs often around 30 minutes, although the duration of the film or program cannot be changed by the consumer. Sometimes, however, a user does not have the entire time window available, but only 80 minutes for a film or 20 minutes for the news, but still wants to consume the film or the news. In such cases, the user has hitherto only been able to either interrupt the playback of the media content before it actually ends or to skip certain sections that are considered rather uninteresting.

Beim Konsum von Medieninhalten stellt sich darüber hinaus oft heraus, dass es zu Dopplungen oder der Wiedergabe von unnötigen Informationen kommt. So beinhalten Nachrichten aus verschiedenen Quellen oft die gleichen Themen, wobei die Unterschiede meist nur marginal sind. Dies gilt beispielsweise ebenso für Dokumentationen zu einem bestimmten Thema, da viele Informationen gedoppelt und die einzigartigen Informationen es häufig nicht wert sind, noch einmal eine ganze Dokumentation über beispielsweise 90 Minuten anzusehen. Auch bei der Erstellung von Trailern zu Filmen müssen viele Inhalte auf kurze Zeit komprimiert werden, was aber aktuell noch überwiegend manuell in mühseliger Kleinarbeit durchgeführt wird. Die genannten Arbeiten werden heutzutage immer noch in der Regel durch Menschen (z.B. Redakteure und Editoren) ausgeführt. Dies ist jedoch zeit- und personalaufwändig und erlaubt in der Regel auch nicht die Berücksichtigung von Wünschen und Vorgaben der Konsumenten.In addition, when consuming media content, it often turns out that there is duplication or the reproduction of unnecessary information. News from different sources often contain the same topics, with the differences usually only being marginal. This also applies to documentaries on a specific topic, for example, since a lot of information is duplicated and the unique information is often not worth watching a whole documentary over, say, 90 minutes again. Even when creating trailers for films, a lot of content has to be compressed for a short time, which is currently still mostly done manually in laborious detail work. The work mentioned is still usually carried out by people (e.g. editors and editors). However, this is time-consuming and labour-intensive and usually does not allow the consumer's wishes and specifications to be taken into account.

Beschreibung der ErfindungDescription of the invention

Es ist Aufgabe der Erfindung, ein Verfahren und ein dieses Verfahren ausführendes Computerprogramm zur Verfügung zu stellen, welche ein schnelles und personalsparendes Anpassen von Medieninhalten an die Bedürfnisse einzelner Nutzer bzw. Konsumenten ermöglichen.The object of the invention is to provide a method and a computer program that executes this method, which enable media content to be adapted to the needs of individual users or consumers quickly and in a manner that saves on personnel.

Erfindungsgemäß wird die Aufgabe durch ein computerimplementiertes Verfahren gelöst, welches die folgenden Schritte umfasst:

  1. A) Auswählen mindestens eines Quelldatensatzes, der Nutzdaten umfasst, die zumindest bildlich, akustisch und/oder schriftlich wiedergebbare Medieninhalte umfassen;
  2. B) Analysieren der Medieninhalte und Erfassung von Clustern innerhalb dieser Medieninhalte;
  3. C) Vergleichen der Cluster und Ermitteln von mindestens einem Gesamtcluster, das gemeinsame und/oder sich überschneidende Medieninhalte umfasst;
  4. D) Verschlagwortung des Gesamtclusters und Erzeugung von diesem Gesamtcluster zugeordneten Metadaten und/oder Schlagwörtern und Speichern dieser Metadaten und/oder Schlagwörter des Gesamtclusters in mindestens einer Datenbank;
  5. E) Auswählen von Gesamtclustern aus der Datenbank anhand der Metadaten und/oder Schlagwörter und Zusammenstellen der ausgewählten Gesamtcluster zur Erzeugung mindestens eines Medieninhaltsaggregats;
  6. F) Erstellen mindestens eines Zieldatensatzes, der Nutzdaten umfasst, die das Medieninhaltsaggregat mit zumindest bildlich, akustisch und/oder schriftlich wiedergebbaren Medieninhalten umfassen; und
  7. G) Übertragen des Zieldatensatzes an mindestens ein Endgerät zur Wiedergabe des Medieninhaltsaggregats.
According to the invention, the object is achieved by a computer-implemented method, which includes the following steps:
  1. A) Selecting at least one source data set that includes user data that includes media content that can be reproduced at least visually, acoustically and/or in writing;
  2. B) analyzing the media content and detecting clusters within this media content;
  3. C) comparing the clusters and determining at least one overall cluster that includes common and/or overlapping media content;
  4. D) Indexing of the overall cluster and generation of metadata and/or keywords assigned to this overall cluster and storage of this metadata and/or keywords of the overall cluster in at least one database;
  5. E) Selecting overall clusters from the database using the metadata and/or keywords and assembling the selected overall clusters to generate at least one media content aggregate;
  6. F) Creation of at least one target data record that includes user data that includes the media content aggregate with media content that can be reproduced at least visually, acoustically and/or in writing; and
  7. G) Transmission of the target data set to at least one terminal for playback of the media content aggregate.

Mittels des erfindungsgemäßen Verfahrens kann eine Anpassung bzw. Konfektionierung von Medieninhalten an die Bedürfnisse einzelner Nutzer bzw. Konsumenten, die aktuell noch in mühseliger Kleinarbeit durchgeführt werden müsste, automatisiert und somit schnell und personalsparend ausgeführt werden. Erfindungsgemäß wird ein Verfahren bzw. System zur Verfügung gestellt, dass die automatisierte Aggregation von Medieninhalten basierend auf Nutzereinstellungen bzw. -vorgaben ermöglicht, wobei eine oder mehrere Quellen zu einem bestimmten Inhalt (Thema) basierend auf bestimmten Anforderungen verarbeitet werden kann/können. Zu diesem Zweck werden zunächst die Medieninhalte aus einer oder mehreren (Daten-) Quellen beispielsweise im Hinblick auf Inhalt, Audiosequenzen und Videoszenen analysiert und dann kategorisiert eingeordnet und priorisiert. Im Anschluss werden dann ausgewählte Inhalte anhand vorgegebener Anforderungen bzw. Vorgaben zusammengefasst (aggregiert) und schließlich an den Nutzer bzw. Konsumenten ausgegeben. So können zum Beispiel „Nachrichten aus Deutschland in 5 Minuten“ (= Nutzervorgabe) aus verschiedenen Quellen inhaltlich analysiert, Dopplungen herausgenommen und nur die einzigartigen Informationen aus allen Quellen zusammengefasst werden. Sollte das zunächst erzeugte Aggregat den Zeitrahmen von 5 Minuten überschreiten, so werden zunächst die Nachrichten mit der höchsten Priorität, beispielsweise solche, die am häufigsten in allen Quellen vorgekommen, verwendet. Dadurch wird in vorteilhafter Weise viel Konsumzeit bei gleichem Informationsgehalt gespart. Das erfindungsgemäße Verfahren ermöglicht also durch das Analysieren von Medieninhalten aus verschiedenen Quellen, das Erkennen, Erfassen und Vergleichen von Clustern innerhalb dieser Medieninhalte, die Verschlagwortung gemeinsamer und/oder sich überschneidender Medieninhalte, die Auswahl und Aggregation einzelner Inhalte sowie das Generieren einer Ausgabe der aggregierten Medieninhalte ein automatisiertes Anpassen von unterschiedlichen Medieninhalten an die Bedürfnisse einzelner Nutzer bzw. Konsumenten.By means of the method according to the invention, an adaptation or packaging of media content to the needs of individual users or consumers, which would currently still have to be carried out in laborious detailed work, can be automated and thus carried out quickly and in a personnel-saving manner. According to the invention, a method or system is made available that enables the automated aggregation of media content based on user settings or specifications, with one or more sources for a specific content (topic) being able to be processed based on specific requirements. For this purpose, the media content from one or more (data) sources is first analyzed, for example with regard to content, audio sequences and video scenes, and then categorized and prioritized. Subsequently, selected content is then summarized (aggregated) based on specified requirements or specifications and finally output to the user or consumer. For example, "News from Germany in 5 minutes" (= Nutz requirement) from different sources are analyzed in terms of content, duplications are removed and only the unique information from all sources is summarized. If the initially generated aggregate exceeds the time frame of 5 minutes, the messages with the highest priority, for example those that occur most frequently in all sources, are used first. This advantageously saves a lot of consumption time with the same information content. By analyzing media content from different sources, the method according to the invention thus makes it possible to identify, record and compare clusters within this media content, index common and/or overlapping media content, select and aggregate individual content and generate an output of the aggregated media content an automated adaptation of different media content to the needs of individual users or consumers.

Zur Anreicherung der Medieninhalte in Schritt A) können in vorteilhafter Ausgestaltung der Erfindung externe Datenquellen, vorzugsweise öffentlich verfügbare Metadatenquellen (z.B. IMDB, Amazon Bewertungen, Gracenote bei Musik etc.), hinzugezogen werden. Auf diese Weise kann die Anzahl der für die Auswahl zur Verfügung stehenden Quelldatensätze bzw. Informationen signifikant und in sinnvoller Weise erhöht werden.In an advantageous embodiment of the invention, external data sources, preferably publicly available metadata sources (e.g. IMDB, Amazon ratings, Gracenote for music, etc.), can be used to enrich the media content in step A). In this way, the number of source data records or pieces of information available for selection can be increased significantly and in a meaningful way.

In weiterer vorteilhafter Ausgestaltung der Erfindung ist vorgesehen, dass Schritt B) die folgenden Schritte umfasst:

  • B1) Aufteilen der Nutzdaten durch Trennen der bildlich, akustisch und/oder schriftlich wiedergebbaren Medieninhalte; und
  • B2) Getrenntes Analysieren der unterschiedlichen Medieninhalte und Erfassung von Bild-/Video-, Ton- und/oder Text-Clustern innerhalb der jeweiligen Medieninhalte.
Es wird also ein „Inhalts-Splitting“ durchgeführt, so dass die unterschiedlichen Medieninhalte bzw. Dateiformate (z.B. Video, Sound, Untertitel) getrennt analysiert und „geclustert“ werden können. Die Erkennung und Erfassung der Medieninhalt-Cluster kann dabei beispielsweise anhand der folgenden Parameter bzw. Analyseverfahren datenspezifisch durchgeführt werden:
  • - „Video-Clustering“: Farbänderungen, Helligkeit, Geschwindigkeit der Bewegung, Inhalts- bzw. Objekterkennung, Gesichtserkennung und/oder „Setting“- bzw. Szene-Erkennung;
  • - „Sound-Clustering“: Musik, Amplitude, Frequenz-Erkennung, Stimmen-Segmentierung, Sprechererkennung, Geschlechtererkennung und/oder Stim m ungsanalyse;
  • - „Untertitel-Clustering“: Dialoganalyse, Spracherkennung (z.B. „Natural Language Understanding“ (NLU), Inhaltserkennung) und/oder Wortkomplexitätsbestimmung.
In a further advantageous embodiment of the invention, it is provided that step B) comprises the following steps:
  • B1) splitting up the user data by separating the media content that can be reproduced visually, acoustically and/or in writing; and
  • B2) Separate analysis of the different media content and acquisition of image/video, sound and/or text clusters within the respective media content.
A "content splitting" is carried out so that the different media content or file formats (e.g. video, sound, subtitles) can be analyzed and "clustered" separately. The detection and recording of the media content clusters can be carried out in a data-specific manner, for example, using the following parameters or analysis methods:
  • - "Video clustering": color changes, brightness, speed of movement, content or object recognition, face recognition and/or "setting" or scene recognition;
  • - “Sound Clustering”: music, amplitude, frequency detection, voice segmentation, speaker detection, gender detection and/or mood analysis;
  • - “Subtitle clustering”: dialogue analysis, speech recognition (e.g. “Natural Language Understanding” (NLU), content recognition) and/or word complexity determination.

Dabei kann Schritt C) in vorteilhafter Weise das Vergleichen der Cluster der unterschiedlichen Medieninhalte umfassen, so dass gemeinsame und/oder sich überschneidende Medieninhalte in beispielsweise Video-, Sprach- und Textdateien ermittelt werden können, um ein Gesamtcluster zu generieren, das die gemeinsamen und/oder sich überschneidenden Medieninhalte der unterschiedlichen Medien- bzw. Dateiformate (bildlich, akustisch und/oder schriftlich wiedergegebene Inhalte) bündelt.Step C) can advantageously include comparing the clusters of the different media content, so that common and/or overlapping media content can be determined in video, voice and text files, for example, in order to generate an overall cluster that contains the common and/or or overlapping media content of the different media or file formats (content reproduced visually, acoustically and/or in writing).

In weiterer vorteilhafter Ausgestaltung der Erfindung ist ferner vorgesehen, dass in Schritt C) mit Hilfe mindestens eines Algorithmus', vorzugsweise eines Algorithmus' für maschinelles Lernen („Machine Learning Algorithm“), spezifische Muster in den Clustern erkannt und miteinander verglichen werden, wobei das mindestens eine Gesamtcluster anhand gemeinsamer und/oder sich überschneidender Muster ermittelt wird.In a further advantageous embodiment of the invention, it is also provided that in step C) specific patterns in the clusters are recognized and compared with one another with the aid of at least one algorithm, preferably an algorithm for machine learning (“Machine Learning Algorithm”), with the at least one overall cluster is identified based on common and/or overlapping patterns.

In weiterer vorteilhafter Ausgestaltung der Erfindung ist vorgesehen, dass das Auswählen von Gesamtclustern aus der Datenbank in Schritt E) zumindest teilweise auf mindestens einer Vorgabe basiert, die ausgewählt ist aus der Gruppe bestehend aus mindestens einer Nutzervorgabe, mindestens einer nutzerspezifischen Filtereinstellung, mindestens einer voreingestellten Einschränkung oder Präferenz und mindestens einem Empfehlungsfilter. Auf diese Weise kann die Auswahl der Medieninhalte einerseits spezifisch an die Wünsche, Bedürfnisse und Vorgaben der Nutzer bzw. Konsumenten und andererseits an gesetzliche und/oder vom Nutzer gewählte Einschränkungen angepasst werden.In a further advantageous embodiment of the invention, it is provided that the selection of overall clusters from the database in step E) is at least partially based on at least one specification that is selected from the group consisting of at least one user specification, at least one user-specific filter setting, at least one preset restriction or preference and at least one recommendation filter. In this way, the selection of the media content can be specifically adapted to the wishes, needs and specifications of the user or consumer on the one hand and to legal restrictions and/or restrictions chosen by the user on the other hand.

In weiterer vorteilhafter Ausgestaltung der Erfindung ist vorgesehen, dass das Erstellen mindestens eines Zieldatensatzes in Schritt F) das Generieren der auszugebenden Medieninhalte basierend auf mindestens einem Kriterium umfasst, das ausgewählt ist aus der Gruppe bestehend aus der zeitlichen Länge der Wiedergabe (zeitspezifische Auswahl der einzelnen Clusterstücke, um die vom Nutzer vorgegebene Dauer der Inhaltswiedergabe (z.B. 10 min.) möglichst genau einzuhalten), der Gewichtung und Auswahl der einzelnen Cluster basierend auf Nutzerpräferenzen (basierend auf der Cluster-Verschlagwortung wird entschieden, welche Clusterstücke Verwendung finden. Dazu kann beispielsweise ein Konfidenzwert ermittelt werden, der angibt wie hoch die Wertung für ein bestimmtes Metadatenmerkmal ist, das für ein Clusterstück ermittelt wurde) und der Gewichtung basierend auf mindestens einem Empfehlungsfilter (beispielsweise können von anderen Nutzern höher gewichtete bzw. bewertete Clusterstücke gegenüber niedrig oder nicht bewerteten Clusterstücken priorisiert werden).In a further advantageous embodiment of the invention, it is provided that the creation of at least one target data record in step F) includes the generation of the media content to be output based on at least one criterion that is selected from the group consisting of the time length of the playback (time-specific selection of the individual cluster pieces , in order to adhere to the duration of content playback specified by the user (e.g. 10 min.) as precisely as possible), the weighting and selection of the individual clusters based on user preferences (based on the cluster keywording, a decision is made as to which cluster pieces are used. For this purpose, for example, a confidence value be determined, which indicates how high the rating for a certain metadata feature that was determined for a cluster piece) and the weighting based on at least one recommendation filter (e.g. cluster pieces that are more highly weighted or rated by other users can be prioritized over low or non-rated cluster pieces).

In weiterer vorteilhafter Ausgestaltung der Erfindung ist ferner vorgesehen, dass die Medieninhalte im Zieldatensatz im Vergleich mit dem mindestens einen Quelldatensatz zeitlich komprimiert sind. Mittels des erfindungsgemäßen Verfahrens kann also beispielsweise ein Kinofilm mit einer Länge von 100 Minuten oder eine Nachrichtensendung mit einer Länge von 20 Minuten auf eine Länge von beispielsweise 60 Minuten für den Film oder 10 Minuten für die Nachrichtensendung reduziert werden, ohne dass für den Konsumenten wichtige Teile bzw. Informationen verloren gehen. Der Film bzw. die Nachrichten werden anhand der Vorgaben des Nutzers spezifisch angepasst, so dass er/sie die für ihn/sie wichtigen Teile bzw. Informationen in der gewünschten Zeit konsumieren kann.In a further advantageous embodiment of the invention, it is also provided that the media content in the target data record is time-compressed in comparison with the at least one source data record. Using the method according to the invention, for example, a cinema film with a length of 100 minutes or a news program with a length of 20 minutes can be reduced to a length of, for example, 60 minutes for the film or 10 minutes for the news program without parts that are important for the consumer or information is lost. The film or the news is specifically adapted based on the user's specifications, so that he/she can consume the parts or information that are important to him/her in the desired time.

Der Zieldatensatz kann beispielsweise in Form mindestens einer Text-, Bild-, Audio-, Video, und/oder sonstigen Mediendatei vorliegen oder in eine solche umgewandelt werden. Auf diese Weise kann der Zieldatensatz, der die durch den Nutzer angeforderten Medieninhalte bzw. Informationen enthält, in geeigneter Weise auf einem Endgerät (z.B. Smartphone, Tablet oder Desktop-PC bzw. Notebook) angezeigt und/oder durch dieses wiedergegeben werden. Der Nutzer erhält die aufbereiteten Informationen also in einer für ihn/sie einfach aufzunehmenden Form, wobei alle möglichen Dateiformate Anwendung finden können.The target data set can, for example, be in the form of at least one text, image, audio, video and/or other media file or can be converted into one. In this way, the target data record, which contains the media content or information requested by the user, can be displayed and/or played back by a device (e.g. smartphone, tablet or desktop PC or notebook) in a suitable manner. The user receives the processed information in a form that is easy for him/her to absorb, with all possible file formats being able to be used.

Die Aufgabe wird ferner durch ein Computerprogramm gelöst, das computer-ausführbare Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das oben beschriebene erfindungsgemäße Verfahren auszuführen. Die Erfindung umfasst dabei auch ein computerlesbares Speichermedium, das computer-ausführbare Befehle umfasst, die bei der Ausführung durch einen Computer diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Die Erfindung betrifft darüber hinaus einen computerlesbaren Datenträger, auf dem das erfindungsgemäße Computerprogramm gespeichert ist.The object is also achieved by a computer program which comprises computer-executable instructions which, when the program is executed by a computer, cause the latter to execute the method according to the invention described above. The invention also includes a computer-readable storage medium, which includes computer-executable instructions which, when executed by a computer, cause the computer to carry out the method according to the invention. The invention also relates to a computer-readable data carrier on which the computer program according to the invention is stored.

Die Erfindung umfasst auch eine Anordnung bzw. ein System zur Datenverarbeitung, die bzw. das Mittel zur Ausführung der Schritte des erfindungsgemäßen Verfahrens umfasst. Die Aufgabe wird insbesondere durch ein System zur Übertragung von aggregierten Medieninhalten an mindestens ein Endgerät über mindestens eine Datenverbindung gelöst, das die folgenden Mittel umfasst:

  1. a) Mittel zur Analyse und zum Vergleichen von Medieninhalten aus mindestens einem Quelldatensatz mittels mindestens eines in mindestens einer Datenverarbeitungseinrichtung implementierten Algorithmus';
  2. b) Mittel zum Erzeugen von Metadaten und Speichern dieser Metadaten in mindestens einer Datenbank;
  3. c) Mittel zum Auswählen und Aggregieren von Medieninhalten aus mindestens einem Inhaltsspeicher basierend auf den in der Datenbank gespeicherten Metadaten; und
  4. d) Mittel zur Übertragung mindestens eines Zieldatensatzes über die Datenverbindung an das Endgerät.
The invention also includes an arrangement or a system for data processing, which includes means for carrying out the steps of the method according to the invention. The object is achieved in particular by a system for transmitting aggregated media content to at least one terminal device via at least one data connection, which includes the following means:
  1. a) means for analyzing and comparing media content from at least one source data set using at least one algorithm implemented in at least one data processing device;
  2. b) means for generating metadata and storing this metadata in at least one database;
  3. c) means for selecting and aggregating media content from at least one content store based on the metadata stored in the database; and
  4. d) Means for transmitting at least one target data record via the data connection to the terminal.

In vorteilhafter Ausgestaltung der Erfindung ist vorgesehen, dass der Quelldatensatz mittels mindestens eines in einer zentralen Datenverarbeitungseinrichtung implementierten Algorithmus' verarbeitet und analysiert wird. Es wird also ein Verfahren bzw. System bereitgestellt, das beispielsweise mittels Cloud-Integration zusätzliche Algorithmen nutzt, die rechenintensiv und/oder datenintensiv auf der zentralen Datenverarbeitungseinrichtung (Server) ablaufen. Bei den rechen- und datenintensiven Algorithmen kann es sich beispielsweise um Spracherkennung, Texterkennung, Bilddatenauswertung, Analyse der Inhalte und Ähnliches handeln. Die automatischen Spracherkennungssysteme können beispielsweise akustische Modelle wie z.B. Hidden-Markov-Modelle, „Natural Language Understanding“ (NLU) und/oder neuronale Netze umfassen. Die automatischen Texterkennungssysteme können beispielsweise „Optical Character Recognition“ (OCR), „Intelligent Character Recognition“ (ICR) und/oder „Intelligent Word Recognition“ (IWR) umfassen. Darüber hinaus können Algorithmen für maschinelles Lernen („Machine Learning Algorithms“) zum Einsatz kommen.In an advantageous embodiment of the invention, it is provided that the source data set is processed and analyzed using at least one algorithm implemented in a central data processing device. A method or system is thus provided which, for example by means of cloud integration, uses additional algorithms which run on the central data processing device (server) in a computationally intensive and/or data-intensive manner. The computationally and data-intensive algorithms can be, for example, speech recognition, text recognition, image data evaluation, content analysis and the like. The automatic speech recognition systems can include, for example, acoustic models such as Hidden Markov Models, Natural Language Understanding (NLU) and/or neural networks. The automatic text recognition systems can include, for example, "optical character recognition" (OCR), "intelligent character recognition" (ICR) and/or "intelligent word recognition" (IWR). In addition, machine learning algorithms can be used.

Das Endgerät kann beispielsweise ein mobiles Telekommunikationsendgerät (z.B. Smartphone oder Tablet), ein Personalcomputer (z.B. Desk- oder Laptop) oder ein Smart-TV sein. Mindestens eine Steuereinrichtung des mobilen Telekommunikationsendgeräts ist vorzugsweise mit mindestens einer Anzeigevorrichtung gekoppelt, welche der Nutzerin bzw. dem Nutzer die im Zieldatensatz enthaltenen Medieninhalte und Informationen anzeigt. Diese Anzeige kann beispielsweise visuell über ein Display und/oder akustisch über einen Lautsprecher (z. B. als Sprachnachricht) erfolgen. Das Display kann beispielsweise Bestandteil des Endgeräts (z.B. Smartphone, Tablet, Laptop) oder eines separaten Monitors sein. Die Übermittlung der Daten von mindestens einer Steuereinrichtung des Endgeräts zur Anzeigevorrichtung kann dabei beispielsweise auch drahtlos bzw. kabellos erfolgen, z.B. mittels Bluetooth, WLAN, ZigBee, NFC, Wibree oder WiMAX.The terminal can be, for example, a mobile telecommunications terminal (eg smartphone or tablet), a personal computer (eg desk or laptop) or a smart TV. At least one control device of the mobile telecommunications terminal is preferably coupled to at least one display device, which shows the user the media content and information contained in the target data record. This display can, for example, take place visually via a display and/or acoustically via a loudspeaker (eg as a voice message). The display can, for example, be part of the end device (e.g. smartphone, tablet, laptop) or a separate monitor. The transmission of the data from at least one control device of the terminal device to the display device can, for example, also take place wirelessly, for example by means of Bluetooth, WLAN, ZigBee, NFC, Wibree or WiMAX.

Der Begriff „Nutzdaten“ bezeichnet im Sinne der Erfindung Daten eines Datensatzes, die keine Steuer- oder Protokollinformationen enthalten. Nutzdaten im Sinne der Erfindung sind beispielsweise Text, Zeichen, Bilder und Töne.For the purposes of the invention, the term “user data” refers to data in a data record that does not contain any control or log information. User data within the meaning of the invention are, for example, text, characters, images and sounds.

Der Begriff „Metadaten“ bezeichnet im Sinne der Erfindung strukturierte Daten, die Angaben über Merkmale, Eigenschaften und technische Parameter anderer Daten, insbesondere Nutzdaten, enthalten und entsprechende Steuer- und/oder Protokollinformationen bereitstellen.In the context of the invention, the term “metadata” refers to structured data that contains information about characteristics, properties and technical parameters of other data, in particular user data, and provides corresponding control and/or protocol information.

Der Begriff „Dateiformat“ bezeichnet im Sinne der Erfindung die Art von Daten und wie diese Daten innerhalb einer Datei technisch gespeichert werden. Ein Dateiformat definiert somit u. a. die Bedeutung und Interpretation von Daten innerhalb einer Datei, so dass die Kenntnis des Dateiformats essentiell für die Interpretation der in einer Datei abgelegten Information ist. Das Dateiformat wird dabei für die Interpretation der in einer Datei abgelegten Information benötigt, wobei einer Datei durch das Betriebssystem mittels des Dateiformats Anwendungen zugeordnet werden, welche diese Datei interpretieren können. Die meisten Dateiformate werden durch eine ein- bis dreistellige Kennung identifiziert (wie zum Beispiel „.dat" oder „.exe"). Zur Bestimmung des Dateiformats werden üblicherweise zusammen mit der Datei Metadaten, die das Dateiformat exakt definieren (siehe oben), gespeichert bzw. übertragen. Dateiformate können beispielsweise nach der Art ihrer Inhalte eingeteilt werden (z. B. Text-, Bild-, Ton- und Video-Formate).For the purposes of the invention, the term “file format” describes the type of data and how this data is technically stored within a file. A file format thus defines e.g. the meaning and interpretation of data within a file, so that knowledge of the file format is essential for interpreting the information stored in a file. The file format is required for the interpretation of the information stored in a file, applications that can interpret this file being assigned to a file by the operating system using the file format. Most file formats are identified by a one to three character identifier (such as ".dat" or ".exe"). To determine the file format, metadata that exactly defines the file format (see above) is usually stored or transmitted together with the file. For example, file formats can be categorized by the type of content they contain (e.g., text, image, audio, and video formats).

Der Begriff „Verschlagwortung“ (auch „Indexierung“ genannt) bezeichnet im Sinne der Erfindung die Erstellung und Erfassung von Schlagwörtern und Metadaten zu Nutzdaten (Dokumenten), d. h. die Zuordnung von Deskriptoren zu einem Datensatz (Dokument) zur Erschließung der darin enthaltenen (Medien-) Inhalte. Die Verschlagwortung kann dabei als kontrollierte Indexierung, d. h. mit einem Thesaurus oder Schlagwortkatalog, oder freie Indexierung, d. h. mit nicht vorgegebenen Deskriptoren, ausgeführt werden.In the context of the invention, the term “keywording” (also called “indexing”) refers to the creation and collection of keywords and metadata for user data (documents), i. H. the assignment of descriptors to a data set (document) in order to index the (media) content contained therein. Keywording can be used as controlled indexing, i. H. with a thesaurus or keyword catalogue, or free indexing, d. H. with unspecified descriptors.

Die Erfindung wird im Weiteren anhand der nachfolgend beschriebenen Figuren und Ausführungsformen beispielhaft näher erläutert.

  • 1 zeigt ein Ablaufdiagramm zur Durchführung der ersten Schritte einer beispielhaften Ausführungsform des erfindungsgemäßen Verfahrens (Die Referenzen A) bis D) bezeichnen die jeweiligen Schritte des erfindungsgemäßen Verfahrens).
  • 2 zeigt ein Ablaufdiagramm zur Durchführung der letzten Schritte einer beispielhaften Ausführungsform des erfindungsgemäßen Verfahrens (Die Referenzen E) und F) bezeichnen die jeweiligen Schritte des erfindungsgemäßen Verfahrens).
The invention is explained in more detail below by way of example with reference to the figures and embodiments described below.
  • 1 shows a flowchart for carrying out the first steps of an exemplary embodiment of the method according to the invention (references A) to D) denote the respective steps of the method according to the invention).
  • 2 shows a flowchart for carrying out the last steps of an exemplary embodiment of the method according to the invention (references E) and F) denote the respective steps of the method according to the invention).

Beschreibung vorteilhafter und beispielhafter Ausführungsformen der ErfindungDescription of advantageous and exemplary embodiments of the invention

1) Analyse der Medieninhalte (Figur 1):1) Analysis of media content (Figure 1):

Zunächst werden Quelldatensätze ausgewählt, die Nutzdaten mit bildlich, akustisch und/oder schriftlich wiedergebbaren Medieninhalten umfassen (Schritt A). Dabei kann auf unterschiedliche Datenquellen (intern und/oder extern) zugegriffen werden. Zur Anreicherung der Medieninhalte in Schritt A) kann dabei zusätzlich auch auf öffentlich verfügbare Metadatenquellen (z.B. IMDB, Amazon Bewertungen, Gracenote bei Musik etc.), zugegriffen werden.First, source data sets are selected that include user data with media content that can be reproduced visually, acoustically, and/or in writing (step A). Different data sources (internal and/or external) can be accessed. To enrich the media content in step A), publicly available metadata sources (e.g. IMDB, Amazon ratings, Gracenote for music, etc.) can also be accessed.

Anschließend wird ein sogenanntes „Inhalts-Splitting“ durchgeführt, so dass die unterschiedlichen Medieninhalte bzw. Dateiformate (z.B. Video, Sound, Untertitel) getrennt analysiert und „geclustert“ werden können (Schritt B bzw. Schritte B1 und B2). Die Erkennung und Erfassung der Medieninhalt-Cluster kann dabei beispielsweise anhand der folgenden Parameter bzw. Analyseverfahren datenspezifisch durchgeführt werden:A so-called "content splitting" is then carried out so that the different media content or file formats (e.g. video, sound, subtitles) can be analyzed separately and "clustered" (step B or steps B1 and B2). The detection and recording of the media content clusters can be carried out in a data-specific manner, for example, using the following parameters or analysis methods:

Video-Cluster-Erkennung:Video Cluster Detection:

Metadaten:metadata:

Gesamthelligkeit im Laufe der Zeit, Änderung des Helligkeitshistogramms, Farbwerte im Zeitverlauf, Farbkomposition einer Szene, Erkennung von Bewegungen in einer Szene, Geschwindigkeit der Bewegungen über den Bildschirm (Entfernung/„Frame“) und/oder Erkennung von Gesichtern in einer Szene.Overall brightness over time, change in brightness histogram, color values over time, color composition of a scene, detection of movement in a scene, speed of movement across the screen (distance/"frame"), and/or recognition of faces in a scene.

Beschreibung:Description:

Die Video-Cluster-Erkennung ist ein iterativer Prozess, der mit grobkörnigem Clustering basierend auf einfachen Änderungen wie Farbe, Helligkeit etc. beginnt. Nach der Grobanalyse erfolgt ein weiterer Durchlauf unter Verwendung der Inhaltserkennung innerhalb der zuvor definierten Zeitrahmen, um komplexere Szenendetails zu ermitteln. Gesichtserkennung und Objekterkennung werden verwendet, um festzustellen, was in einem Zeitrahmen passiert und ob sich die Einstellung geändert hat (z.B. innen, außen, Zimmer, Autos, Bus, Bahn etc.).Video cluster detection is an iterative process that starts with coarse-grained clustering based on simple changes like color, brightness, etc. After the coarse analysis, another pass is made using content detection within the previously defined timeframes to determine more complex scene details. Face recognition and object recognition are used to determine what is happening in a time frame and whether the setting has changed (e.g. inside, outside, room, cars, bus, train etc.).

Sound-Cluster-Erkennung:Sound Cluster Detection:

Metadaten:metadata:

Musikerkennung, „Beats“ pro Minute, Lautstärke, Musikrichtung, Häufigkeiten im Zeitrahmen, Spracherkennung, Geschlechtserkennung, Natural Language Processing (NLP) zur Identifizierung, Inhalt eines Dialogs, Szeneninhalt, Bewertung der Wortkomplexität und/oder Stimmungsanalyse von Dialogen.Music detection, "beats" per minute, loudness, music genre, frequencies over time, speech detection, gender detection, natural language processing (NLP) for identification, content of a dialogue, scene content, word complexity assessment, and/or sentiment analysis of dialogue.

Beschreibung:Description:

Die Audio-Cluster-Erkennung verwendet die Audiospur, um zu bestimmen, was in einer Szene passiert. NLU wird verwendet, um Sprachinhalte zu analysieren. Stimmen werden analysiert, um die Anzahl der Sprecher in einer Szene und deren Geschlecht einschließlich der Stimmung des Sprechers zu erkennen. Direktionales Audio kann verwendet werden, um relevante Inhalte aus Hintergrundinhalten zu bestimmen. Ein Dialog läuft hauptsächlich über den Center-Lautsprecher. Es können Szenen bestimmt werden, in denen Musik gespielt wird. Musik kann analysiert werden, um den Szenentyp (z.B. Action, Romantik, Erotik) zu identifizieren.Audio cluster detection uses the audio track to determine what is happening in a scene. NLU is used to analyze speech content. Voices are analyzed to detect the number of speakers in a scene and their gender, including the speaker's mood. Directional audio can be used to determine relevant content from background content. Dialogue runs mainly through the center speaker. Scenes in which music is played can be specified. Music can be analyzed to identify scene type (e.g., action, romance, erotic).

Untertitel-Cluster-Erkennung:Subtitle Cluster Detection:

Metadaten:metadata:

Dialog-Analyse, NLU / Kontext, Wort-Komplexität und/oder Sprachniveau-Einstufung.Dialog analysis, NLU / context, word complexity and/or language level rating.

Beschreibung:Description:

Wenn ein Multimedia-Inhalt Untertitel enthält, analysiert ein Algorithmus den Text auf bestimmte Absichten und Kontexte sowie zusätzliche Beschreibungen des wiedergegebenen Audios, wie beispielsweise Lachen oder andere Geräusche. Personen mit Haarausfall werden angezeigt, um das Seherlebnis zu verbessern. Zusätzlich wird der Kontext eines Dialogs zwischen Menschen analysiert, um den Beginn und das Ende eines Clusters zu bestimmen. Schließlich wird ein Sprachniveau-Rating angewendet, um die Anforderungen der Nutzer in Bezug auf Sprachschwierigkeit und Komplexität des beschriebenen Themas für die Cluster-Generierung zu erfüllen.When multimedia content contains subtitles, an algorithm analyzes the text for specific intent and context, as well as additional descriptions of the audio being played, such as laughter or other sounds. People with hair loss are shown to improve the viewing experience. In addition, the context of a dialogue between people is analyzed to determine the beginning and end of a cluster. Finally, a language level rating is applied to meet users' requirements in terms of language difficulty and complexity of the described topic for cluster generation.

Anschließend werden die erkannten Cluster verglichen (Cluster-Abgleich bzw. „Cluster Matching“) und es wird mindestens ein Gesamtcluster ermittelt, das gemeinsame und/oder sich überschneidende Medieninhalte umfasst (Schritt C):The recognized clusters are then compared (cluster comparison or "cluster matching") and at least one overall cluster is determined that includes common and/or overlapping media content (step C):

Cluster-Abgleich:Cluster matching:

Hauptziel des Cluster-Abgleichs ist es, allgemeine Muster zu finden, die von den verschiedenen Cluster-Analysen erkannt wurden, und darauf basierend gemeinsame Cluster (Gesamtcluster) zu generieren.The main goal of cluster matching is to find general patterns recognized by the various cluster analyzes and to generate common clusters (overall clusters) based on this.

Beschreibung:Description:

Häufigkeitsverteilung für alle angegebenen Cluster generieren:

  • Kombinieren und Generieren einer „Urliste“ aus allen Clustern (Video, Ton, Untertitel), Berechnung des „Interquartilsabstand“ für jedes Cluster (Der Interquartilsabstand ist die Differenz zwischen dem oberen und dem unteren Quartil einer Stichprobe. Sortiert man eine Stichprobe der Größe nach, so gibt der Interquartilsabstand an, wie breit das Intervall ist, in dem die mittleren 50 % der Stichprobeelemente liegen.) und dynamische Anpassung von „Quantil“ für die Zählung von Clustern und Zeitrahmen. Der „Machine Learning“-Algorithmus wird verwendet, um Überschneidungen in den gegebenen Funktionen zu finden und einen gemeinsamen Zeitrahmen und Verschlagwortungen für ein Gesamtcluster zu finden.
Generate frequency distribution for all specified clusters:
  • Combine and generate a "primary list" from all clusters (video, sound, subtitles), calculate the "interquartile range" for each cluster (The interquartile range is the difference between the upper and lower quartile of a sample. Sorting a sample by size, (e.g., the interquartile range indicates how wide the interval is in which the middle 50% of the sample elements fall.) and dynamically adjusts Quantile for counting clusters and time frames. The "machine learning" algorithm is used to find overlaps in the given functions and to find a common time frame and keywords for an overall cluster.

Anforderungen an ein Cluster: Mindest-/Höchstdauer eines Clusters und/oder Überlappung von mindestens x% der angegebenen Metadaten.Requirements for a cluster: minimum/maximum duration of a cluster and/or overlap of at least x% of the specified metadata.

Inhalt der Metadaten:Content of metadata:

Zeit-Indizes, Video-Typ und Audio-Inhalt (Genre, Musik, Geschwindigkeit, Inhalt, Menschen, Komplexität, Lautstärke, Einstellungen), Szenen-Index (Einstellungswechsel), Tag/Nacht/Wetter, FSK-Einstufung für indizierte Bereiche, Hintergrund-/Umgebungs-Inhalte und/oder Haupt-/Fokus-Inhalt.Time indexes, video type and audio content (genre, music, speed, content, people, complexity, volume, shots), scene index (shot change), day/night/weather, FSK rating for indexed areas, background -/Ambient Content and/or Main/Focus Content.

Nach der Verschlagwortung des Gesamtclusters und Erzeugung von diesem Gesamtcluster zugeordneten Metadaten und/oder Schlagwörtern sowie dem Speichern dieser Metadaten und/oder Schlagwörter des Gesamtclusters in mindestens einer Datenbank (Schritt D), werden die derart verarbeiteten Medieninhalts-Cluster (Gesamtcluster) aggregiert.After the overall cluster has been indexed and metadata and/or keywords assigned to this overall cluster have been generated and this metadata and/or keywords of the overall cluster have been stored in at least one database (step D), the media content clusters processed in this way (overall cluster) are aggregated.

2) Aggregation der verschlagworteten Medieninhalts-Cluster (Figur 2):2) Aggregation of the tagged media content clusters (Figure 2):

Aggregation:aggregation:

Basierend auf den folgenden Kriterien werden die identifizierten Mediencluster dem Nutzer bzw. Konsumenten präsentiert und aggregiert:

  • Nutzerpräferenzen: Basierend auf dem Nutzerprofil wie z.B. Alter, Geschlecht, Sprachniveau usw. werden die Unordnungen ausgewählt.
  • Benutzerdefinierte Filter: Anpassung der Nutzereinstellungen und Inhaltsbeschreibung wie z.B. Genre, benötigte Dauer und Art der Szenen; die Cluster werden ausgewählt.
  • Einschränkungen: GEMA, Geo-Location-Blocking, FSK und Sonstiges. Gesetzliche Beschränkungseinstellungen werden bei der Cluster-Generierung berücksichtigt.
  • Empfehlungsfilter: Community-basierte Empfehlungen werden bei der Cluster-Generierung berücksichtigt.
Based on the following criteria, the identified media clusters are presented to the user or consumer and aggregated:
  • User Preferences: Based on the user profile such as age, gender, language level, etc., the disorders are selected.
  • Custom Filters: Customization of user settings and content description such as genre, required duration and type of scenes; the clusters are selected.
  • Restrictions: GEMA, geo-location blocking, FSK and others. Legal restriction settings are taken into account during cluster generation.
  • Recommendation filter: Community-based recommendations are taken into account during cluster generation.

Die verschlagworteten Medieninhalts-Cluster (Gesamtcluster) werden anhand der Metadaten und/oder Schlagwörter auf Basis der Nutzer-Anfrage aus einer Datenbank ausgewählt und zur Erzeugung eines Medieninhaltsaggregats zusammengefügt (Schritt E). Zur Generierung der Inhaltsausgabe wird daraus ein Zieldatensatz erstellt, der Nutzdaten umfasst, die das Medieninhaltsaggregat mit den beispielsweise bildlich, akustisch und/oder schriftlich wiedergebbaren Medieninhalten umfassen (Schritt F). Dieser Zieldatensatz wird dann an mindestens ein Endgerät zur Wiedergabe des Medieninhaltsaggregats übertragen, d.h. einem Konsumenten beispielsweise als „Stream“ zur Verfügung gestellt (Schritt G).The keyworded media content clusters (overall clusters) are selected from a database based on the metadata and/or keywords based on the user query and combined to generate a media content aggregate (step E). To generate the content output, a target data record is created from this, which includes user data that includes the media content aggregate with the media content that can be reproduced, for example, visually, acoustically and/or in writing (step F). This target data record is then transmitted to at least one end device for playback of the media content aggregate, i.e. it is made available to a consumer, for example as a "stream" (step G).

Das erfindungsgemäße Verfahren bzw. System kann beispielsweise dazu verwendet werden, einen Film oder eine Dokumentation in einem bestimmten Zeitrahmen anzusehen. So könnte zum Beispiel „eine Dokumentation über den Weltraum in 60 Minuten“ angefordert werden. Dann wird das System auf verschiedene Quellen zu diesem Thema zugreifen und die Medieninhalte analysieren. Dopplungen werden entfernt und die wichtigen Informationen aneinandergefügt (aggregiert), so dass am Ende genau 60 Minuten Dokumentation generiert werden, so dass der Nutzer seine/ihre verbleibende Zeit perfekt ausfüllen kann. Mithilfe des erfindungsgemäßen Systems ergeben sich auch noch viele weitere Anwendungsmöglichkeiten, wie beispielsweise Zusammenstellen der besten Autorennszenen aus allen „Fast and the Furious“ - Filmen oder wunschgemäßes Schneiden eines Trailers zu dem Film „Avatar“.The method and system according to the invention can be used, for example, to watch a film or a documentary in a specific time frame. For example, "a documentary about space in 60 minutes" could be requested. Then the system will access various sources on this topic and analyze the media content. Duplications are removed and the important information is put together (aggregated) so that at the end exactly 60 minutes of documentation is generated so that the user can fill in his/her remaining time perfectly. With the help of the system according to the invention, there are also many other possible applications, such as compiling the best car racing scenes from all the "Fast and the Furious" films or cutting a trailer for the film "Avatar" as desired.

Claims (11)

Computerimplementiertes Verfahren, umfassend die folgenden Schritte: A) Auswählen mindestens eines Quelldatensatzes, der Nutzdaten umfasst, die zumindest bildlich, akustisch und/oder schriftlich wiedergebbare Medieninhalte umfassen; B) Analysieren der Medieninhalte und Erfassung von Clustern innerhalb dieser Medieninhalte; C) Vergleichen der Cluster und Ermitteln von mindestens einem Gesamtcluster, das gemeinsame und/oder sich überschneidende Medieninhalte umfasst; D) Verschlagwortung des Gesamtclusters und Erzeugung von diesem Gesamtcluster zugeordneten Metadaten und/oder Schlagwörtern und Speichern dieser Metadaten und/oder Schlagwörter des Gesamtclusters in mindestens einer Datenbank; E) Auswählen von Gesamtclustern aus der Datenbank anhand der Metadaten und/oder Schlagwörter und Zusammenstellen der ausgewählten Gesamtcluster zur Erzeugung mindestens eines Medieninhaltsaggregats; F) Erstellen mindestens eines Zieldatensatzes, der Nutzdaten umfasst, die das Medieninhaltsaggregat mit zumindest bildlich, akustisch und/oder schriftlich wiedergebbaren Medieninhalten umfassen; und G) Übertragen des Zieldatensatzes an mindestens ein Endgerät zur Wiedergabe des Medieninhaltsaggregats.Computer-implemented method, comprising the following steps: A) Selecting at least one source data set that includes user data that includes media content that can be reproduced at least visually, acoustically and/or in writing; B) analyzing the media content and detecting clusters within this media content; C) comparing the clusters and determining at least one overall cluster that includes common and/or overlapping media content; D) Indexing of the overall cluster and generation of metadata and/or keywords assigned to this overall cluster and storage of this metadata and/or keywords of the overall cluster in at least one database; E) Selecting overall clusters from the database using the metadata and/or keywords and assembling the selected overall clusters to generate at least one media content aggregate; F) Creation of at least one target data record that includes user data that includes the media content aggregate with media content that can be reproduced at least visually, acoustically and/or in writing; and G) Transmission of the target data set to at least one terminal for playback of the media content aggregate. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Anreicherung der Medieninhalte in Schritt A) externe Datenquellen, vorzugsweise öffentlich verfügbare Metadatenquellen, hinzugezogen werden.procedure after claim 1 , characterized in that external data sources, preferably publicly available metadata sources, are used to enhance the media content in step A). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass Schritt B) die folgenden Schritte umfasst: B1) Aufteilen der Nutzdaten durch Trennen der bildlich, akustisch und/oder schriftlich wiedergebbaren Medieninhalte; und B2) Getrenntes Analysieren der unterschiedlichen Medieninhalte und Erfassung von Bild-/Video-, Ton- und/oder Text-Clustern innerhalb der jeweiligen Medieninhalte.procedure after claim 1 or 2 , characterized in that step B) comprises the following steps: B1) splitting up the user data by separating the media content that can be reproduced visually, acoustically and/or in writing; and B2) Separately analyzing the different media content and capturing image/video, sound and/or text clusters within the respective media content. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass Schritt C) das Vergleichen der Cluster der unterschiedlichen Medieninhalte umfasst.procedure after claim 3 , characterized in that step C) comprises comparing the clusters of the different media contents. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass in Schritt C) mit Hilfe mindestens eines Algorithmus', vorzugsweise eines Algorithmus' für maschinelles Lernen, spezifische Muster in den Clustern erkannt und miteinander verglichen werden, wobei das mindestens eine Gesamtcluster anhand gemeinsamer und/oder sich überschneidender Muster ermittelt wird.Procedure according to one of Claims 1 until 4 , characterized in that in step C) specific patterns in the clusters are recognized and compared with one another with the aid of at least one algorithm, preferably an algorithm for machine learning, the at least one overall cluster being determined on the basis of common and/or overlapping patterns . Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das Auswählen von Gesamtclustern aus der Datenbank in Schritt E) zumindest teilweise auf mindestens einer Vorgabe basiert, die ausgewählt ist aus der Gruppe bestehend aus mindestens einer Nutzervorgabe, mindestens einer nutzerspezifischen Filtereinstellung, mindestens einer voreingestellten Einschränkung oder Präferenz und mindestens einem Empfehlungsfilter.Procedure according to one of Claims 1 until 5 , characterized in that the selection of total clusters from the database in step E) is based at least in part on at least one specification selected from the group consisting of at least one user specification, at least one user-specific filter setting, at least one preset restriction or preference and at least one recommendation filter. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das Erstellen mindestens eines Zieldatensatzes in Schritt F) das Generieren der auszugebenden Medieninhalte basierend auf mindestens einem Kriterium umfasst, das ausgewählt ist aus der Gruppe bestehend aus der zeitlichen Länge der Wiedergabe, der Gewichtung und Auswahl der einzelnen Cluster basierend auf Nutzerpräferenzen und der Gewichtung basierend auf mindestens einem Empfehlungsfilter.Procedure according to one of Claims 1 until 6 , characterized in that the creation of at least one target data record in step F) comprises generating the media content to be output based on at least one criterion selected from the group consisting of the time length of the playback, the weighting and selection of the individual clusters based on user preferences and the weight based on at least one recommendation filter. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Medieninhalte im Zieldatensatz im Vergleich mit dem mindestens einen Quelldatensatz zeitlich komprimiert sind.Procedure according to one of Claims 1 until 7 , characterized in that the media content in the target data set is temporally compressed in comparison with the at least one source data set. Computerprogramm umfassend computer-ausführbare Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Computer program comprising computer-executable instructions which, when the program is executed by a computer, cause the latter to carry out the method according to one of Claims 1 until 8th to execute. Computerlesbarer Datenträger, auf dem das Computerprogramm nach Anspruch 9 gespeichert ist.Computer-readable data carrier on which the computer program claim 9 is saved. System zur Übertragung von aggregierten Medieninhalten an mindestens ein Endgerät über mindestens eine Datenverbindung, das die folgenden Mittel umfasst: e) Mittel zur Analyse und zum Vergleichen von Medieninhalten aus mindestens einem Quelldatensatz mittels mindestens eines in mindestens einer Datenverarbeitungseinrichtung implementierten Algorithmus ; f) Mittel zum Erzeugen von Metadaten und Speichern dieser Metadaten in mindestens einer Datenbank; g) Mittel zum Auswählen und Aggregieren von Medieninhalten aus mindestens einem Inhaltsspeicher basierend auf den in der Datenbank gespeicherten Metadaten; und h) Mittel zur Übertragung mindestens eines Zieldatensatzes über die Datenverbindung an das Endgerät.System for the transmission of aggregated media content to at least one end device via at least one data connection, comprising the following means: e) means for analyzing and comparing media content from at least one source data record using at least one algorithm implemented in at least one data processing device; f) means for generating metadata and storing this metadata in at least one database; g) means for selecting and aggregating media content from at least one content store based on the metadata stored in the database; and h) Means for transmitting at least one target data record via the data connection to the terminal.
DE102021126741.2A 2021-10-15 2021-10-15 Process for the aggregated output of media content Ceased DE102021126741A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021126741.2A DE102021126741A1 (en) 2021-10-15 2021-10-15 Process for the aggregated output of media content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021126741.2A DE102021126741A1 (en) 2021-10-15 2021-10-15 Process for the aggregated output of media content

Publications (1)

Publication Number Publication Date
DE102021126741A1 true DE102021126741A1 (en) 2023-04-20

Family

ID=85773539

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021126741.2A Ceased DE102021126741A1 (en) 2021-10-15 2021-10-15 Process for the aggregated output of media content

Country Status (1)

Country Link
DE (1) DE102021126741A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170065889A1 (en) 2015-09-04 2017-03-09 Sri International Identifying And Extracting Video Game Highlights Based On Audio Analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170065889A1 (en) 2015-09-04 2017-03-09 Sri International Identifying And Extracting Video Game Highlights Based On Audio Analysis

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VON WENZLAWOWICZ, Till ; HERZOG, Otthein: Semantic video abstracting: automatic generation of movie trailers based on video patterns. In: Artificial intelligence: theories and applications - 7th Hellenic Conference on AI, SETN 2012, Lamia, Greece, May 28-31, 2012 – Proceedings. Berlin : Springer, 2012 (Lecture notes in artificial intelligence ; 7297). S. 345-352. – ISBN 978-3-642-30447-7

Similar Documents

Publication Publication Date Title
DE60320414T2 (en) Apparatus and method for the automatic extraction of important events in audio signals
US11790934B2 (en) Deep learning based method and system for processing sound quality characteristics
EP1787284B1 (en) Device and method for robustly classifying audio signals, method for establishing and operating audio signal database and a computer program
AT507588B1 (en) PROCESS FOR EDITING AUDIO DATA IN A COMPRESSED VERSION
EP1405222B1 (en) Method and device for producing a fingerprint and method and device for identifying an audio signal
DE69924765T2 (en) Apparatus for generating data for recovering video data and apparatus for recovering video data
WO2020155750A1 (en) Artificial intelligence-based corpus collecting method, apparatus, device, and storage medium
DE60120417T2 (en) METHOD FOR SEARCHING IN AN AUDIO DATABASE
US20050131688A1 (en) Apparatus and method for classifying an audio signal
DE60038535T2 (en) METHOD AND DEVICE, STORAGE METHOD AND APPARATUS FOR INFORMATION CREATION AND PROCESSING
DE102018113034A1 (en) VOICE RECOGNITION SYSTEM AND VOICE RECOGNITION METHOD FOR ANALYZING A COMMAND WHICH HAS MULTIPLE INTENTIONS
DE202012100189U1 (en) Detection of creative works on broadcast media
EP1866924A1 (en) Synthesis of composite news stories
DE202014011475U1 (en) Electronic device
EP1217603A1 (en) Method for identifying musical pieces
DE112020002858T5 (en) SYNCHRONIZED SOUND GENERATION FROM VIDEOS
DE60319710T2 (en) Method and apparatus for automatic dissection segmented audio signals
DE10054583A1 (en) Storing, reproducing or transmitting speech information e.g. for retrieval using keywords in mobile telephone, by acoustically outputting sentence with smallest deviation from stored speech pattern
CN1613074A (en) Method for segmenting a compressed video
DE102021132695A1 (en) Method and device for lighting control
DE112019007274T5 (en) AUTOMATIC SUBTITLING OF AUDIBLE PORTIONS OF CONTENT ON A COMPUTER DEVICE
DE60318450T2 (en) Apparatus and method for segmentation of audio data in meta-patterns
DE102021126741A1 (en) Process for the aggregated output of media content
DE102006027720A1 (en) Multimedia presentation processing method, involves annotating video with image-and/or script contents, and annotating video segment based on obtained allocation information with information of allocated section of presentation material
DE10315517A1 (en) Multimedia system and method

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0016740000

Ipc: H04N0021854900

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final