FR3099674A1 - Procede et appareil d’enrichissement de contenu multimedia par des meta-informations - Google Patents
Procede et appareil d’enrichissement de contenu multimedia par des meta-informations Download PDFInfo
- Publication number
- FR3099674A1 FR3099674A1 FR1908943A FR1908943A FR3099674A1 FR 3099674 A1 FR3099674 A1 FR 3099674A1 FR 1908943 A FR1908943 A FR 1908943A FR 1908943 A FR1908943 A FR 1908943A FR 3099674 A1 FR3099674 A1 FR 3099674A1
- Authority
- FR
- France
- Prior art keywords
- video
- content
- enriched
- metadata
- audiovisual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 238000012163 sequencing technique Methods 0.000 claims abstract description 9
- 230000001360 synchronised effect Effects 0.000 claims abstract description 4
- 230000002452 interceptive effect Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 claims description 3
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 239000003550 marker Substances 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000007670 refining Methods 0.000 claims 1
- 230000006870 function Effects 0.000 abstract description 2
- 238000002372 labelling Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23424—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
PROCEDE ET APPAREIL D’ENRICHISSEMENT DE CONTENU MULTIMEDIA PAR DES META-INFORMATIONS
La présente invention est un système capable d’automatiser le séquençage et l’enrichissement d’un programme audiovisuel linéaire ou flux d’images de toute nature (émissions de télévision, films, documentaires, séries, ou tout autres programmes audiovisuel ou éducatif). Le procédé et le dispositif consistent en une plateforme Smart-Vidéo donnant aux utilisateurs un accès à des contenus additionnels, des services et des fonctionnalités d’agencement et navigation de contenus, de recherche, de partage et d’e-commerce relatifs au contenu de la vidéo.
Les contenus audiovisuels et l’expérience utilisateur sont ainsi enrichis.
Une forte capacité d’analyse permet à ce système de collecter un nombre important de métadonnées à partir desquelles les contenus vidéos pourront être enrichis et séquencés. Ces métadonnées sont synchronisées, les placements de contenus additionnels et séquençages peuvent ainsi être positionnés de manière très précise.
Le logiciel que nous appelons l’Éditeur permet de parcourir un flux vidéo trame par trame, d’ajuster les métadonnées automatiquement générées, d’ajouter des données et/ou des objets fonctionnels et de les placer à des temps choisis.
L’interface de ce système se compose de deux parties, la première destinée à l’ajout, l’édition et la gestion des contenus, la seconde servant à la création et labélisation de séquences (chapitres), points de marquage et/ou des objets fonctionnels. Elle sert également au placement des contenus sur la ligne de temps.
La représentation des données est donc générée à partir de cet Éditeur ou par détection automatique. Enfin un lecteur de vidéo ou « player » permet de lire la vidéo résultante enrichie de ses données et fonctions associées.
Il s’agit dans ces conditions d’un module permettant d’inclure le lecteur dans une application tierce offrant aux consommateurs une expérience audiovisuelle enrichie. Soit autonome soit en restant dans l’univers et l’écosystème des détenteurs des droits audiovisuels et des diffuseurs.
Description
La présente invention est un système capable d’automatiser le séquençage et l’enrichissement d’un programme audiovisuel linéaire ou flux d’images de toute nature (émissions de télévision, films, documentaires, séries, ou tout autres programmes audiovisuel ou éducatif). Le procédé et le dispositif consistent en une plateforme Smart-Vidéo donnant aux utilisateurs un accès à des contenus additionnels, des services et des fonctionnalités d’agencement et navigation de contenus, de recherche, de partage et d’e-commerce relatifs au contenu de la vidéo.
La plateforme est constituée de 3 piliers :
1) Un outil d’édition, appelé l’Éditeur, permettant de générer un fichier de description temporelle, des contenus de données et des modèles d’interface pour les utilisateurs.
2) Des fichiers représentant le support généré à partir de cet Éditeur.
3) Un lecteur de vidéo, ou « player » permettant d’utiliser la vidéo et les données associées.
1) Un outil d’édition, appelé l’Éditeur, permettant de générer un fichier de description temporelle, des contenus de données et des modèles d’interface pour les utilisateurs.
2) Des fichiers représentant le support généré à partir de cet Éditeur.
3) Un lecteur de vidéo, ou « player » permettant d’utiliser la vidéo et les données associées.
Grâce à ces 3 piliers, l’utilisation de la plateforme génère une Smart-Vidéo, vidéo dont le contenu, les fonctions et le mode de navigation sont enrichis, permettant à l’utilisateur de personnaliser son parcours et son expérience au sein même de la vidéo. De par sa nature modulaire, le lecteur vidéo peut bénéficier à toutes applications tierces, plateformes OTT (tels My Canal, BBC Player, MyTF1), OSTV, ou sites internet, mais également être utilisé de manière autonome.
On connaît l’état de la technique d’approche interactive décrite ci-dessus. On peut en citer deux exemples :
Un brevet WO2009115695, déposé le 25 février 2009 et publié le 24 septembre 2009 par MAIM ENRICO Français et un brevet WO2013079768 déposé le 17 octobre 2012 et publié le 6 juin 2013 par NOKIA Corp US.
Le premier brevet concernant un procédé d’enrichissement de source de données sur la création de nouvelles données à partir de sources et d’analyses de textes mais ne précise pas qu’il s’agit de sources audiovisuelles. Le second concernant un procédé et appareil d’enrichissement de contenus multimédias par des méta-informations. Il ajoute des métadonnées sur les contenus multimédias d’origine. Les supports sont physiques et l’invention porte sur une méthodologie de l’utilisation manuelle des métadonnées.
En l’état, il n’existe aucun procédé automatisé d’édition permettant l’enrichissement et le découpage des média vidéo en séquences et ou évènements fonctionnels ou offrant une solution intégrée de back-office, de lecteur vidéo enrichie de contenus, de fonctionnalités et services (vidéo et expérience utilisateur enrichie) à destination de tout détenteur de droits audiovisuels et ses diffuseurs.
La présente invention dotée d’un forte capacité d’analyse permet de détecter automatiquement un grand nombre d’éléments déterminants permettant la collecte de métadonnées en rapport avec le contenu du moment analysé. Les métadonnées sont synchronisées avec le contenu. Pour cela, toutes les trames d’une vidéo sont analysées, 1 seconde de vidéo correspond à un nombre de trames allant de 25 à 30 trames. A titre d’exemple, s’il est détecté qu’une personnalité apparaît sur la 23èmetrame de la 5ème seconde de la vidéo, il est alors possible d’attacher des informations complémentaires au sujet de cette personnalité à partir du timecode 00 :00 :05 :23.
La présente invention concerne le premier pilier de la plateforme, laquelle a pour objectif, par l’enrichissement de métadonnées, de simplifier, en automatisant au maximum, l’ajout de contenus et/ou d’éléments interactifs à un programme audio-visuel.
Ce système automatisé est capable d’analyser puis de transformer un programme audiovisuel linéaire ou flux d’images de toute nature (émissions de TV, films, documentaires …) en un programme audiovisuel interactif consultable sur téléphone mobile, tout écran ou appareil connecté notamment, tablette, Apple TV, Android TV, et/ou smart TV.
Son interface, tout en parcourant un flux vidéo trame par trame, grâce à des algorithmes procédant par extraction, se compose de deux parties, la première destinée à l’ajout, l’édition et la gestion des contenus d’origine, quelle qu’en soit la source interne ou externe, enrichi d’informations ou de fonctionnalités interactives, la seconde servant à la création et à la labélisation de chapitres, séquences événements ou points de marquage étant des contenus éditoriaux contextuels et pertinents. Elle sert également au placement de ces contenus et/ou objets fonctionnels et l’enrichissement de métadonnées.
Des indices audio ou visuels, les métadonnées, permettent d’organiser le séquençage, premier découpage suite à la détection d’indices audio ou visuels de la vidéo, puis de les ajuster et de les affiner à partir des indices ou scènes de la vidéo pour parvenir à une thématique ou une interactivité partielle.
L’Éditeur permet ensuite de parcourir un flux vidéo trame par trame, de vérifier les résultats de l’analyse automatique, d’ajouter des données et de les placer à des temps choisis.
Ces contenus enrichis sont intégrés à la vidéo initiale et reformatés pour obtenir une expérience d’utilisateur personnalisée.
La création de chapitres consiste à indexer le contenu d’une vidéo dans le but de la parcourir d’une manière non linéaire comme le permettrait le découpage de chapitres fourni sur un support DVD ou la création de liste de lecture regroupant seulement les séquences pertinentes de plusieurs vidéos sous une liste contextuelle. Cela permet également de se situer et de naviguer temporellement durant la lecture du flux. De plus, l’ajout de métadonnées à ces chapitres offre la possibilité d’effectuer des requêtes de recherche au sein même de la vidéo et non plus simplement que sur le titre des fichiers.
Ce procédé d’indexation et de séquençage est illustré dans la .
Cette technologie permettra d’analyser et de transformer des vidéos accessibles au public, en direct ou en temps différé, provenant de tout moteur hypertexte ou de recherche, de tout contenu quel qu’en soit l’origine, de bases de données de tout type…
Les contenus à ajouter peuvent être de différents types et sont définis lors de la création des modèles qui sont à l’expérience utilisateur souhaité, lesquels peuvent différer en fonction du format (Film, Magazine, Documentaire) mais aussi du programme proprement dit : il peut s’agir à titre d’exemples de biographies, d’extraits vidéo (bande annonce, clip musical extrait, archive d’émissions déjà diffusés…), ou encore de fonctionnalités d’achat pour la vente de places de concerts, de livres, ou autres.
Le résultat est ensuite consultable depuis une application (téléphone mobile, tablette, smart TV, TV OS, site web ou tout écran connecté à internet) permettant de bénéficier de l’expérience enrichie et de consulter les données ajoutées.
Le dispositif consiste en une plateforme Smart-Vidéo qui comprend, d’une part, un éditeur permettant d’éditer, de publier, de partager, de donner accès à des contenus enrichis, d’autre part de générer un fichier de description temporelle de métadonnées synchronisées, et enfin un lecteur vidéo permettant d’utiliser la Smart-Vidéo.
Les métadonnées sont accessibles depuis des codes et des fonctionnalités (API, SDK) rendant le lecteur vidéo remplaçable et le dispositif compatible avec tout autre lecteur ou plateforme technologique de manière interopérable.
Dans ces conditions, le procédé automatise un maximum les actions qui étaient jusqu’alors effectuées par l’intervention d’un être humain capable de visualiser et de comprendre le sens éditorial d’une vidéo. Il en est ainsi des actions suivantes :
- visionnage d’un flux vidéo « timeline » ;
- identification d’un passage pouvant être augmenté, enrichi d’informations ou de fonctionnalités interactives ;
- ajout de contenu et de données en rapport avec le passage identifié ;
- division en chapitres, séquençage, marquage ;
- placement de modèle temporel de contenus, d’objets interactifs et/ou fonctionnels « vidéo événement »
- association d’un modèle de « vidéo événement » à un des contenus gérés par la base de données.
- visionnage d’un flux vidéo « timeline » ;
- identification d’un passage pouvant être augmenté, enrichi d’informations ou de fonctionnalités interactives ;
- ajout de contenu et de données en rapport avec le passage identifié ;
- division en chapitres, séquençage, marquage ;
- placement de modèle temporel de contenus, d’objets interactifs et/ou fonctionnels « vidéo événement »
- association d’un modèle de « vidéo événement » à un des contenus gérés par la base de données.
Aussi la plateforme est capable de détecter automatiquement des chapitres et des évènements vidéo, audio ou multimédia, à partir de solutions d’Apprentissage Profond («deeplearning») ou réseaux neuronaux mais également à partir d’algorithmes du domaine du traitement du signal, et de créer seul un « vidéo événement » à partir de la vidéo initiale. Elle peut aussi ajouter des « vidéo événements » d’autres types en fonction du contexte, du contenu et de la narration détectée.
La solution de détection automatique, plus communément appelée « moteur d’automatisation » se divise en 2 blocs, l’un destiné au découpage de la vidéo en chapitres, l’autre aux placements de contenus interactifs.
Elle peut être représentée selon le schéma décrit dans la .
Chaque bloc s’appuie sur un ensemble de techniques déjà connues et d’algorithmes répondant aux besoins spécifiques de la plateforme : la détection de « vidéo événements » et leurs placements correspondant à des types de contenus.
Le séquençage individualisé offre à l’utilisateur la possibilité de sélectionner tout ou partie des chapitres d’une vidéo à visualiser avec un repère de temps permettant de se situer lors de la visualisation.
Pour la détection automatique des timecodes permettant le séquençage en chapitres et le placement de vidéo événements, un ensemble d’algorithmes permet de réduire au maximum la fenêtre de recherche de ces derniers. Cet ensemble d’algorithmes est ensuite adapté en fonction du programme et des éléments recherchés.
1) Premier découpage suite à la détection des indices audio en utilisant la méthode dite de cross-corrélation. La comparaison de deux signaux peut retrouver des similarités entre ces deux derniers. Chaque similarité retrouvée est alors accompagnée d’un score de probabilité. Plus ce score est proche de 1, plus la similarité est forte;
2) Ajustement grâce à la détection d’indices visuels dans les segments du découpage precedent;
3) Affinage à partir de la détection de scènes dans le montage vidéo.
La présente invention permet de décrire sous forme de règles, en fonction du programme, l’enchaînement des algorithmes à utiliser dans le but de détecter les timecodes pertinents.
La liste des algorithmes mise à disposition est la suivante:
- Détection de similitudes audio par « cross-correlation »;
- Détection et reconnaissance d’un signal audio à partir du modèle de réseaux de neurones convolutifs Youtube-8M
- Détection de similitudes d’une partie visuelle par SSIM
- Détection et reconnaissances de visages à partir de l’implémentation de l’algorithme Eigen-Faces
- Détection et reconnaissance de visages à partir de différents modèles de réseaux de neurones convolutifs : ResNet 50, InceptionV3, DensNet, YOLOv2, MobileNet-SSD, MTCNN
- Classification d’images à partir de différents modèles de réseaux de neurones convolutifs : ResNet50, InceptionV3, MobileNet.
- Détection de similitudes audio par « cross-correlation »;
- Détection et reconnaissance d’un signal audio à partir du modèle de réseaux de neurones convolutifs Youtube-8M
- Détection de similitudes d’une partie visuelle par SSIM
- Détection et reconnaissances de visages à partir de l’implémentation de l’algorithme Eigen-Faces
- Détection et reconnaissance de visages à partir de différents modèles de réseaux de neurones convolutifs : ResNet 50, InceptionV3, DensNet, YOLOv2, MobileNet-SSD, MTCNN
- Classification d’images à partir de différents modèles de réseaux de neurones convolutifs : ResNet50, InceptionV3, MobileNet.
Le placement automatique des éléments interactifs s’appuie également sur des indices tels que des textes incrustés dans la vidéo ou des mots clés issus de la transcription en texte de la piste audio du flux.
Claims (6)
- L’invention est un système automatisé capable d’analyser puis de transformer un programme audiovisuel linéaire ou flux d’images de toute nature (émissions de TV, films, documentaires …) en un programme audiovisuel interactif consultable sur téléphone mobile, tout écran ou appareil connecté notamment, tablette, Apple TV, Android TV, et/ou smart TV
caractérisé en ce que son interface, tout en parcourant un flux vidéo trame par trame, grâce à des algorithmes procédant par extraction, se compose de deux parties, la première destinée à l’ajout, l’édition et la gestion des contenus d ‘origine, quelle qu’en soit la source interne ou externe, enrichi d’informations ou de fonctionnalités interactives, la seconde servant à détecter et labelliser des chapitres, séquences événements ou points de marquage étant des contenus éditoriaux contextuels et pertinents, ainsi qu’au placement de ces contenus et/ou objets fonctionnels. - La détection automatique des chapitres ou points de marquage, selon la revendication 1, est caractérisée en ce que des indices audio ou visuels, les métadonnées, permettent d’organiser le séquençage et la coupure entre deux chapitres, premier découpage suite à la détection d’indices audio ou visuels de la vidéo, puis de les ajuster et de les affiner à partir des indices ou scènes de la vidéo pour parvenir à une thématique ou une interactivité partielle.
- La technologie de placement des contenus ou points de marquage, selon les revendications 1 et 2, est caractérisée en ce que ces contenus enrichis sont intégrés à la vidéo initiale et reformatés pour une expérience d’utilisateur personnalisé.
- La technologie selon les revendications 1 à 3 permettra d’analyser et de transformer des vidéos accessibles au public, en direct ou en temps différé, provenant de tout moteur hypertexte ou de recherche, de tout contenu quel qu’en soit l’origine, de bases de données de tout type…
- Le dispositif consiste en une plateforme Smart-Vidéo, selon les revendications 1 à 3, caractérisée en ce qu’elle comprend, d’une part, un éditeur permettant d’éditer, de publier, de partager, de donner accès à des contenus enrichis, d’autre part de générer un fichier de description temporelle de métadonnées synchronisées, et enfin un lecteur vidéo permettant d’utiliser la Smart-Vidéo.
- Un dispositif selon la revendication 5, caractérisé en ce que les métadonnées sont accessibles depuis des codes et des fonctionnalités (API, SDK) rendant le lecteur vidéo remplaçable et le dispositif compatible avec tout autre lecteur ou plateforme technologique de manière interopérable.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1908943A FR3099674B1 (fr) | 2019-08-03 | 2019-08-03 | Procede et appareil d’enrichissement de contenu multimedia par des meta-informations |
PCT/EP2020/025354 WO2021023397A1 (fr) | 2019-08-03 | 2020-07-31 | Procede et appareil d'enrichissement de contenu multimedia par des meta-informations |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1908943 | 2019-08-03 | ||
FR1908943A FR3099674B1 (fr) | 2019-08-03 | 2019-08-03 | Procede et appareil d’enrichissement de contenu multimedia par des meta-informations |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3099674A1 true FR3099674A1 (fr) | 2021-02-05 |
FR3099674B1 FR3099674B1 (fr) | 2022-04-08 |
Family
ID=69572030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1908943A Expired - Fee Related FR3099674B1 (fr) | 2019-08-03 | 2019-08-03 | Procede et appareil d’enrichissement de contenu multimedia par des meta-informations |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR3099674B1 (fr) |
WO (1) | WO2021023397A1 (fr) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009115695A1 (fr) | 2008-02-25 | 2009-09-24 | Enrico Maim | Procede d'enrichissement de sources de donnees |
WO2009136236A1 (fr) * | 2008-05-08 | 2009-11-12 | Sony Ericsson Mobile Communications Ab | Dispositifs électroniques et procédés d’insertion de marques de chapitres adressables en relation avec un contenu publicitaire dans des flux vidéo |
WO2010055242A1 (fr) * | 2008-11-13 | 2010-05-20 | France Telecom | Procede de decoupage de contenu multimedia, dispositif et programme d'ordinateur correspondant |
WO2013079768A1 (fr) | 2011-11-30 | 2013-06-06 | Nokia Corporation | Procédé et appareil d'enrichissement de contenu multimédia par des méta-informations |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140337127A1 (en) * | 2013-04-23 | 2014-11-13 | Brightcove, Inc. | Client bridge |
-
2019
- 2019-08-03 FR FR1908943A patent/FR3099674B1/fr not_active Expired - Fee Related
-
2020
- 2020-07-31 WO PCT/EP2020/025354 patent/WO2021023397A1/fr active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009115695A1 (fr) | 2008-02-25 | 2009-09-24 | Enrico Maim | Procede d'enrichissement de sources de donnees |
WO2009136236A1 (fr) * | 2008-05-08 | 2009-11-12 | Sony Ericsson Mobile Communications Ab | Dispositifs électroniques et procédés d’insertion de marques de chapitres adressables en relation avec un contenu publicitaire dans des flux vidéo |
WO2010055242A1 (fr) * | 2008-11-13 | 2010-05-20 | France Telecom | Procede de decoupage de contenu multimedia, dispositif et programme d'ordinateur correspondant |
WO2013079768A1 (fr) | 2011-11-30 | 2013-06-06 | Nokia Corporation | Procédé et appareil d'enrichissement de contenu multimédia par des méta-informations |
Also Published As
Publication number | Publication date |
---|---|
FR3099674B1 (fr) | 2022-04-08 |
WO2021023397A1 (fr) | 2021-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110351578B (zh) | 用于根据脚本自动制作视频节目的方法和系统 | |
US9785841B2 (en) | Method and system for audio-video signal processing | |
US7620551B2 (en) | Method and apparatus for providing search capability and targeted advertising for audio, image, and video content over the internet | |
US20180160200A1 (en) | Methods and systems for identifying, incorporating, streamlining viewer intent when consuming media | |
US20150301718A1 (en) | Methods, systems, and media for presenting music items relating to media content | |
US20080187231A1 (en) | Summarization of Audio and/or Visual Data | |
US20110022589A1 (en) | Associating information with media content using objects recognized therein | |
JP2014032656A (ja) | コンテンツ・リンクを生成する方法、装置およびプログラム | |
JP2004533756A (ja) | 自動コンテンツ分析及びマルチメデイア・プレゼンテーションの表示 | |
KR20060008897A (ko) | 콘텐트 분석을 사용하여 뮤직 비디오를 요약하기 위한 방법및 장치 | |
US20100023485A1 (en) | Method of generating audiovisual content through meta-data analysis | |
WO2015101155A1 (fr) | Procédé de recommandation d'informations à un utilisateur | |
BRPI0708456A2 (pt) | método para prover um sumário de diversas imagens, dispositivo adaptado para gerar um sumário de diversas imagens, sistema, código de programa executável por computador, e, portador de dados | |
JP2006155384A (ja) | 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体 | |
Haubold et al. | Augmented segmentation and visualization for presentation videos | |
WO2007004110A2 (fr) | Systeme et procede pour l'alignement d'information audiovisuelle intrinseque et extrinseque | |
EP3690674A1 (fr) | Procédé de recommandation de contenu vidéo | |
KR20060129030A (ko) | 비디오 트레일러 | |
RU2413990C2 (ru) | Способ и устройство для обнаружения границ элемента контента | |
US20120239689A1 (en) | Communicating time-localized metadata | |
CN111935529A (zh) | 教育类音视频资源的播放方法、设备及存储介质 | |
EP2104937A1 (fr) | Procede de creation d'un nouveau sommaire d'un document audiovisuel comportant deja un sommaire et des reportages et recepteur mettant en uvre le procede | |
Nandzik et al. | CONTENTUS—technologies for next generation multimedia libraries: Automatic multimedia processing for semantic search | |
FR3099674A1 (fr) | Procede et appareil d’enrichissement de contenu multimedia par des meta-informations | |
Sack et al. | Automated annotations of synchronized multimedia presentations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20210205 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
ST | Notification of lapse |
Effective date: 20240405 |