FR3030980A1 - Procede et dispositif de generation d'une image representative d'un chapitrage d'un contenu multimedia, terminal et programme d'ordinateur correspondants. - Google Patents
Procede et dispositif de generation d'une image representative d'un chapitrage d'un contenu multimedia, terminal et programme d'ordinateur correspondants. Download PDFInfo
- Publication number
- FR3030980A1 FR3030980A1 FR1463184A FR1463184A FR3030980A1 FR 3030980 A1 FR3030980 A1 FR 3030980A1 FR 1463184 A FR1463184 A FR 1463184A FR 1463184 A FR1463184 A FR 1463184A FR 3030980 A1 FR3030980 A1 FR 3030980A1
- Authority
- FR
- France
- Prior art keywords
- multimedia content
- chapter
- user
- representative
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000009877 rendering Methods 0.000 claims abstract description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 238000012550 audit Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 description 28
- 235000019640 taste Nutrition 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000005266 casting Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010010144 Completed suicide Diseases 0.000 description 1
- 241001063191 Elops affinis Species 0.000 description 1
- 235000002756 Erythrina berteroana Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- HKPHPIREJKHECO-UHFFFAOYSA-N butachlor Chemical compound CCCCOCN(C(=O)CCl)C1=C(CC)C=CC=C1CC HKPHPIREJKHECO-UHFFFAOYSA-N 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000000699 topical effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
- H04N21/25891—Management of end-user data being end-user preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Graphics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
L'invention concerne un procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia comprenant une pluralité de chapitres extraits dudit contenu multimédia, ledit procédé comprenant lesdites étapes de: - saisie par un utilisateur (11) d'au moins une information d'identification dudit contenu multimédia à subdiviser en chapitres, - génération (12) automatique de ladite image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage, un emplacement graphique étant dédié à la restitution d'au moins une information représentative d'un chapitre, - restitution (13) de ladite image représentative, ladite étape de génération (12) utilisant au moins une information (lPU) appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur.
Description
Procédé et dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia, terminal et programme d'ordinateur correspondants. 1. Domaine de l'invention Le domaine de l'invention est celui de la navigation multimédia, et plus particulièrement celui de la recherche et de la présentation de contenus multimédia et de leur affichage sur un écran. Un tel contenu peut être du texte, du son (ou de l'audio), des images, des vidéos, des applications/services ou encore toute combinaison de ces différents éléments. L'invention s'applique notamment de façon privilégiée au chapitrage de contenus, par exemple en vue d'offrir un service de chapitrage de contenu multimédia personnalisable ou un service interactif ludique lié à la découverte de nouveaux découpages de contenus multimédia. Par « chapitrage » on entend l'organisation de l'interactivité associée à un contenu multimédia. En d'autres termes, la présentation d'un contenu multimédia est effectuée sous la forme de chapitres. Un chapitre est un extrait (i.e. une partie) de contenu multimédia auquel l'utilisateur peut accéder directement, via un click de souris d'ordinateur ou par reconnaissance vocale d'une requête d'accès, par exemple, sans avoir à visualiser/écouter l'ensemble dudit contenu multimédia.
Le « chapitrage » regroupe donc l'ensemble des extraits auxquels l'utilisateur peut accéder directement et individuellement. De tels services peuvent en outre être associés à des catalogues de contenus multimédia, tels que des bibliothèques multimédia notamment lues et gérées par le logiciel iTunes d'Apple® ou encore les catalogues de vidéos, tels que par exemple un catalogue de vidéo à la demande (VOD, pour « Video on Demand » en anglais).
L'invention peut notamment être mise en oeuvre dans un terminal doté d'une interface utilisateur et d'une interface graphique, par exemple une tablette, un téléphone portable, un smartphone (« téléphone intelligent »), un ordinateur personnel, une télévision connectée à un réseau de communication etc. 2. Art antérieur Aujourd'hui, lorsque l'utilisateur souhaite accéder à des contenus multimédia ou approfondir ses connaissances relatives à de tels contenus, il est amené à parcourir des catalogues de contenus, en d'autres termes des bases de données de contenus. De tels catalogues, tels que par exemple les catalogues VOD, sont finalement des magasins numériques qui proposent une « mise en rayon » de contenus multimédia classés de façon thématique, afin de permettre à l'utilisateur de choisir plus facilement et rapidement le contenu dont il a envie. Parmi ces catalogues, on peut notamment citer la « base de données cinématographiques d'Internet » (IMDbe) de l'anglais (« Internet Movie Database »), base de données en ligne sur le cinéma mondial, la télévision et les jeux vidéo, restituant un grand nombres d'informations concernant des films, des acteurs, des réalisateurs, des scénaristes ou tout intervenant dans les contenus multimédia que cette base de données regroupe. Ces catalogues présentent en général, sur requête de l'utilisateur au moyen d'une interface, une fiche de renseignements détaillée d'un contenu multimédia auquel il souhaite accéder. De telles fiches de renseignements comprennent notamment des données éditoriales, appelées métadonnées, telles que le titre, la durée, le casting, un résumé ... De telles métadonnées ne permettent cependant pas d'avoir une visibilité sur la structure et l'enchaînement dans le temps des actions/scènes/morceaux d'un contenu multimédia. En d'autres termes de telles données ne sont pas « liées » directement à certains extraits de contenus multimédia. Des techniques de chapitrage ont été développées dernièrement afin d'enrichir les chapitrages standards de sorte à associer certaines métadonnées à des extraits de contenu multimédia. Toutefois, actuellement la présentation de contenus multimédia sous la forme de chapitre reste standard. En d'autres termes, pour tout utilisateur, le découpage d'un contenu multimédia est identique. Un utilisateur pourrait tenter de réaliser lui même une adaptation de ce chapitrage en enregistrant et redécoupant un contenu multimédia mais cela au prix d'un traitement complexe, chronophage (non compatible avec un accès temps réel et immédiat à un contenu multimédia) qui ne permet pas de répéter une telle opération au cours du temps afin de réadapter le découpage d'un contenu multimédia pour le redécouvrir sous un nouvel angle.30 Ainsi, la navigation d'un utilisateur via les techniques actuelles de chapitrage est limitée et ne lui permet pas de découvrir ou de rédécouvrir, automatiquement et rapidement, de manière ludique et personnalisée de nouveaux contenus multimédia. Il existe donc un besoin d'une solution permettant d'améliorer la présentation de contenus multimédia, afin de mettre en avant les extraits, appelés par la suite chapitres, qui sont le plus susceptibles d'intéresser un utilisateur donné. 3. Exposé de l'invention L'invention propose une solution nouvelle qui ne présente pas l'ensemble de ces inconvénients de l'art antérieur, sous la forme d'un procédé de génération d'une image représentative d'un chapitrage d'un contenu multimédia, ledit chapitrage comprenant une pluralité de chapitres extraits dudit contenu multimédia, ledit procédé comprenant lesdites étapes suivantes mises en oeuvre par un processeur : - saisie par un utilisateur d'au moins une information d'identification dudit contenu multimédia à subdiviser en chapitres, - génération automatique de ladite image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage, un emplacement graphique étant dédié à la restitution d'au moins une information représentative d'un chapitre, - restitution de ladite image représentative, ladite étape de génération utilisant, selon l'invention, au moins une information appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur. Ainsi, l'invention propose un chapitrage automatique et personnalisé de contenus multimédia, qui pour un même contenu multimédia délivre un chapitrage différent d'un utilisateur à un autre. Il est à noter que le chapitrage obtenu peut correspondre à une sélection de chapitres significatifs et comprendre un nombre de chapitres dont la durée cumulée est inférieure à la durée totale du contenu multimédia identifié par l'utilisateur. Pour ce faire, la présente invention met en oeuvre une personnalisation du chapitrage en utilisant automatiquement, et sans intervention de l'utilisateur, au moins une donnée représentative de ses goûts, centres d'intérêts, préalablement stockée au sein de son profil utilisateur. Il est à noter que par « information d'identification saisie », on entend, par exemple, une information d'identification saisie par écrit par exemple via un clavier (tactile ou non) et une interface graphique proposant une fenêtre graphique de saisie sur un écran d'un dispositif de restitution, ou encore une information d'identification saisie oralement via un outil de reconnaissance vocale permettant à tout utilisateur d'identifier facilement un contenu multimédia, y compris un utilisateur malvoyant ou un utilisateur conduisant un véhicule et désireux d'obtenir un chapitrage personnalisé via un tableau de bord intelligent.
Une telle information d'identification saisie peut également correspondre à l'insertion physique d'un contenu multimédia dans un dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon l'invention. Par « profil utilisateur », on entend un ensemble de données qui influencent le comportement d'un dispositif informatique en fonction de l'utilisateur. Un profil peut être relatif à une personne seule, ou à un groupe de personnes ayant des points communs, tels que par exemple les membres d'un groupe de travail. En particulier, un profil utilisateur contient les réglages personnels appliqués à l'environnement de bureau pour cet utilisateur; par exemple les marque-pages du navigateur web, les connexions au réseau, les comptes e-mail ou les documents personnels, mais également des informations relatives à ses goûts tels que ses acteurs, ses genres musicaux ou encore ses genres cinématographiques préférés. De tels profils peuvent être « mobiles » (« roaming » en anglais) et « suivent » l'utilisateur sur chaque dispositif auquel il se connecte (voire s'authentifie). Il est à noter que l'expression « profil utilisateur » couvre également les profils dits « collectifs » applicables à un groupe de personnes. Selon une caractéristique particulière de l'invention, le procédé de génération comprend une étape préalable d'authentification de l'utilisateur ouvrant un accès à son profil utilisateur utilisé lors de ladite étape de génération. Une telle étape préalable permet l'identification de l'utilisateur notamment lorsque celui-ci change régulièrement de dispositifs d'accès à des contenus multimédia, de tels dispositifs d'accès étant aptes à mettre en oeuvre le procédé de génération selon l'invention. Selon une caractéristique particulière de l'invention, le procédé de génération comprend une étape de remplissage dudit ensemble de données correspondant à un profil utilisateur.
Cette étape est préalable ou mise en oeuvre périodiquement indépendamment des étapes de réception, de génération et de restitution précédemment citées, et vise à rassembler des données relatives aux goûts de l'utilisateur en termes de contenus multimédia.
Le résultat de ce remplissage, à savoir le profil utilisateur, est avantageusement utilisé comme outil de personnalisation du chapitrage délivré selon la présente invention. Selon une caractéristique particulière de l'invention, ladite étape de génération est dynamique, délivrant à deux instants temporels distincts respectivement deux images représentatives distinctes pour un même utilisateur. En effet, les données stockées dans le profil utilisateur évoluent au cours du temps, si bien qu'en fonction de l'activité de l'utilisateur (sur des réseaux sociaux par exemple), de l'actualité qu'il consulte, l'image représentative générée automatiquement selon l'invention variera entre deux moments.
En d'autres termes, il peut être considéré que l'image représentative générée automatiquement selon l'invention varie en fonction de l'humeur ou de la curiosité de l'utilisateur. Selon un mode de réalisation particulier, ladite étape de génération comprend les étapes suivantes : insertion d'une ligne de temps dans ladite image représentative, ordonnancement desdits emplacements graphiques de ladite image représentative sur ladite ligne de temps. Une telle ligne de temps présente un avantage en termes de visualisation pour l'utilisateur qui peut ainsi identifier la chronologie des chapitres au sein du contenu multimédia. Selon un mode de réalisation particulier, ladite étape de génération comprend les étapes suivantes : analyse dudit contenu multimédia en fonction de ladite au moins une information utilisateur et de métadonnées associées audit contenu multimédia, délivrant un chapitrage, dit chapitrage personnalisé, dudit contenu multimédia comprenant une pluralité de chapitres associés à la fois audit contenu multimédia et à ladite au moins une information utilisateur, construction de ladite image représentative, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage personnalisé. Ainsi, au regard de l'art antérieur, la présente invention met en oeuvre une analyse de contenus multimédia « orientée » par le profil de l'utilisateur afin d'obtenir directement un chapitrage personnalisé représentatif des goûts et centres d'intérêt de l'utilisateur. Un tel chapitrage peut correspondre à une sélection des seuls chapitres significatifs correspondant aux goûts de l'utilisateur. Par « métadonnées », on entend les métadonnées éditoriales classiques associées à un contenu multimédia telles que le titre, la durée, la date, le casting, un résumé,..., pour un contenu vidéo, et/ou pour un contenu audio, les titres des pistes audio, le nom des chanteurs, des musiciens, des compositeurs, ... , ou des « métadonnées » plus spécifiques telles que des phrases cultes, des thèmes abordés indexés et référencés par une analyse sémantique (exploitant des liens sémantiques (permettant d'associer un contenu multimédia à un autre) et/ou un graphe de données préalablement construit par un autre dispositif que celui apte à mettre en oeuvre la présente invention), ... Selon un mode de réalisation particulier, ladite étape de génération comprend les étapes suivantes : - analyse dudit contenu multimédia en fonction de métadonnées associées audit contenu multimédia, délivrant un chapitrage, dit chapitrage standard, dudit contenu multimédia comprenant une pluralité de chapitres associés audit contenu multimédia, - sélection d'une partie dudit chapitrage standard comprenant au moins un chapitre de ladite pluralité, en fonction de ladite au moins une information utilisateur, - construction de ladite image représentative, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant à ladite partie dudit chapitrage standard. Ainsi, au regard de l'art antérieur correspondant au résultat de l'étape d'analyse délivrant un chapitrage standard, la présente invention met en oeuvre une étape supplémentaire de personnalisation automatique d'un chapitrage standard au moyen d'une sélection des seuls extraits significatifs au regard de l'utilisateur.
L'avantage d'un tel mode de réalisation est que le résultat de l'étape d'analyse délivrant un chapitrage standard peut être par exemple mémorisé au sein d'un dispositif d'accès à des contenus multimédia apte à mettre en oeuvre le procédé de génération selon l'invention, puis réutilisé pour deux utilisateurs distincts par exemple ou pour la mise en oeuvre de l'invention à deux moments distincts.
Selon un mode de réalisation particulier de l'invention, le procédé selon l'invention comprend en outre une étape d'enrichissement, activée en fonction d'une option d'enrichissement préalablement sélectionnée, et mettant en oeuvre une allocation d'au moins un emplacement graphique supplémentaire dédié à l'affichage d'au moins un contenu multimédia supplémentaire, distinct dudit contenu multimédia ou de l'un de ses chapitres.
Par exemple, une telle étape d'enrichissement est mise en oeuvre lors de l'étape de génération de l'image représentative ou lors de sa restitution, et suscite (telle une invitation) chez un utilisateur l'envie de découvrir d'autres contenus associés (correspondant par exemple eux-mêmes à des extraits de contenus), par exemple au moyen de liens sémantiques, au contenu multimédia ou à l'un de ses chapitres sélectionné selon l'invention. Un tel extrait supplémentaire correspond par exemple à un extrait d'un autre contenu multimédia, par exemple une parodie, où la même phrase culte que celle du contenu multimédia est également utilisée. Selon un aspect particulier de ce mode de réalisation, ledit au moins un contenu supplémentaire est déterminé automatiquement en fonction de ladite au moins une information utilisateur. Ainsi, selon cet aspect, l'enrichissement est également personnalisé en fonction du profil utilisateur. Selon un autre aspect, la technique proposée se rapporte également à un dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia, ledit chapitrage comprenant une pluralité de chapitres extraits dudit contenu multimédia, ledit dispositif comprenant : - un module de saisie d'au moins une information d'identification dudit contenu multimédia à subdiviser en chapitres, - un module de génération automatique de ladite image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage, un emplacement graphique étant dédié à la restitution d'au moins une information représentative d'un chapitre, - un module de restitution de ladite image représentative, ledit module de génération étant configuré pour accéder à au moins une information appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur. Un tel dispositif est notamment adapté à mettre le procédé de génération décrit précédemment. L'invention concerne également un terminal comprenant un dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia tel que décrit ci-dessus. Un tel terminal est par exemple un ordinateur, une set-top-box ou bien un terminal connecté à la set-top-box, tel que par exemple une tablette. Selon une implémentation, les différentes étapes du procédé de génération tel que décrit précédemment sont mises en oeuvre par un ou plusieurs logiciels ou programmes de module logiciel, comprenant des instructions logicielles destinées à être exécutées par un processeur de données d'un dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia, un tel processeur étant conçu pour commander l'exécution des différentes étapes des procédés. En conséquence, l'invention vise aussi un programme susceptible d'être exécuté par un ordinateur ou par un processeur de données, ce programme comportant des instructions pour commander l'exécution des étapes d'un procédé de génération tel que décrit ci-dessus. Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable.
L'invention vise aussi un support d'informations lisible par un processeur de données, et comportant des instructions d'un programme tel que mentionné ci-dessus. Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique (clé USB, SSD), ou encore un moyen d'enregistrement magnétique, par exemple une disquette (floppy disc) ou un disque dur. D'autre part, le support d'informations peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet. Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question. Selon un mode de réalisation, l'invention est mise en oeuvre au moyen de composants logiciels et/ou matériels. Dans cette optique, le terme "module" peut correspondre dans ce document aussi bien à un composant logiciel, qu'à un composant matériel ou à un ensemble de composants matériels et logiciels. Un composant logiciel correspond à un ou plusieurs programmes de module logiciel, un ou plusieurs sous-programmes d'un programme, ou de manière plus générale à tout élément d'un programme ou d'un logiciel apte à mettre en oeuvre une fonction ou un ensemble de fonctions, selon ce qui est décrit ci-dessous pour le module concerné. Un tel composant logiciel est exécuté par un processeur de données d'une entité physique (terminal, serveur, passerelle, routeur, etc.) et est susceptible d'accéder aux ressources matérielles de cette entité physique (mémoires, supports d'enregistrement, bus de communication, cartes électroniques d'entrées/sorties, interfaces utilisateur, etc.). De la même manière, un composant matériel correspond à tout élément d'un ensemble matériel (ou hardware) apte à mettre en oeuvre une fonction ou un ensemble de fonctions, selon ce qui est décrit ci-dessous pour le module concerné. Il peut s'agir d'un composant matériel programmable ou avec processeur intégré pour l'exécution de logiciel, par exemple un circuit intégré, une carte à puce, une carte à mémoire, une carte électronique pour l'exécution d'un micrologiciel (firmware), etc. Chaque composante du système précédemment décrit met bien entendu en oeuvre ses propres modules logiciels.
Les différents modes de réalisation mentionnés ci-dessus sont combinables entre eux pour la mise en oeuvre de l'invention. 4. Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : - la figure 1 présente les principales étapes mises en oeuvre par un procédé de génération tel que décrit précédemment ; - les figures 2A à 2C illustrent un premier mode de réalisation et deux de ces variantes. - les figures 3A et 3B illustrent un deuxième mode de réalisation, - la figure 4 illustre un exemple particulier de structure d'une image représentative d'un chapitrage d'un contenu multimédia obtenue conformément au procédé de génération décrit précédemment, - la figure 5 présente la structure simplifiée d'un dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon un mode de réalisation particulier. 5. Description d'un mode de réalisation de l'invention 5.1 Principe général Le principe général de l'invention repose sur l'utilisation d'au moins une information extraite de la base de données correspondant au profil d'un utilisateur pour personnaliser automatiquement le chapitrage d'un contenu que ce même utilisateur a identifié. En d'autres termes, la présente invention vise à adapter le chapitrage d'un contenu multimédia en fonction des centres d'intérêt d'un utilisateur tels que répertoriés/mémorisés au sein de son profil utilisateur. Ainsi la présente invention permet à un utilisateur de découvrir ou redécouvrir un contenu multimédia sans nécessiter son intervention pour obtenir un chapitrage original et valorisant aux yeux de cet utilisateur. Cette absence d'intervention de l'utilisateur lui procure une découverte ludique et performante. En effet, du fait que sa participation au découpage n'est pas requise, l'utilisateur vit une expérience enrichissante lorsqu'il accède au découpage original fourni selon l'invention. On présente, en relation avec la figure 1, les principale étapes du procédé de génération (10) d'une image représentative d'un chapitrage d'un contenu multimédia dans un mode de réalisation particulier. Au cours d'une première étape (11), le dispositif de génération (50) (figure 5) selon l'invention reçoit au moins une information d'identification d'un contenu multimédia C à subdiviser en chapitres, ladite au moins une information d'identification étant saisie par un utilisateur.
De tels contenus multimédia sont par exemple des contenus audiovisuels tels que des films ou encore des émissions télévisuelles, ou encore des bandes sons relatives par exemple à des émissions de radio diffusées en ligne. Il est à noter qu'optionnellement (en pointillés) et préalablement, le procédé de génération selon l'invention comprend en outre une étape préalable d'authentification (101) de l'utilisateur ouvrant notamment un accès à son profil utilisateur Pu ultérieurement utilisé au cours du procédé selon l'invention. En parallèle, et optionnellement (en pointillés), le procédé comprend une étape de remplissage (102) dudit ensemble de données correspondant à un profil utilisateur, lorsque par exemple aucun profil utilisateur n'est mémorisé par défaut sur le dispositif de génération selon l'invention ou sur un terminal le comprenant. Cette étape est préalable ou mise en oeuvre périodiquement indépendamment des étapes de saisie (11) et d'authentification (101) précédemment citées, et vise à rassembler des données relatives aux goûts de l'utilisateur en termes de contenus multimédia.
Le résultat de ce remplissage, à savoir le profil utilisateur, est avantageusement utilisé comme outil de personnalisation du chapitrage délivré selon la présente invention. Par exemple, selon un tel remplissage (102), un suivi (ou « tracking » en anglais) des usages de l'utilisateur est réalisé de façon à connaître au mieux ses goûts et ses centres d'intérêt. Pour ce faire, l'étape optionnelle de remplissage (102) met par exemple en oeuvre les étapes suivantes : déclaration explicite des goûts de l'utilisateur : un utilisateur peut donner ses genres et thèmes préférés grâce à une interface graphique dédiée dans une application. déduction logicielle implicite des goûts de l'utilisateur grâce à ses consommations (par exemple, un utilisateur qui a regardé de nombreux contenus de science-fiction est a priori sensible à ce genre de film, une personne qui regarde en différé (« replay » en anglais) les extraits de chapitres avec le thème de la justice est a priori intéressé par ce thème). déduction logicielle implicite des goûts de l'utilisateur grâce à ses usages sur les réseaux sociaux, déduction logicielle implicite des goûts de l'utilisateur grâce à ses usages précédents du procédé selon l'invention mémorisés au sein d'une mémoire du dispositif de génération selon l'invention.
Par déduction logicielle, on entend l'opération logicielle qui consiste à mémoriser des métadonnées associées aux contenus multimédia visualisés/écoutés/téléchargés par l'utilisateur tels que des émissions télévisuelles, des films, des chansons. De telles métadonnées correspondent notamment aux genres, aux acteurs ou encore à la date de restitution de ces contenus multimédia.
Une fois cette mémorisation effectuée, une pondération de ces métadonnées est mise en oeuvre afin de déduire les préférences de l'utilisateur en termes de genre, d'acteurs... et ce en tenant compte de la périodicité ou de la date de restitution des contenus multimédia sélectionnés par l'utilisateur. Ainsi, le profil utilisateur Pu comporte avantageusement les genres (films, émissions, chansons...), les thèmes (drames, voyages, historiques pour des contenu audiovisuels ou des thèmes de liste de lecture (« playlist » en anglais)). Ces thèmes et genres, sont par exemple pondérés en fonction de la préférence indiquée explicitement par l'utilisateur ou implicitement en fonction de leur fréquence d'accès.
En outres, des liens sémantiques (permettant d'associer un contenu multimédia à un autre) peuvent également être mémorisés afin de mémoriser au sein du profil de l'utilisateur ses habitudes relatives à la découverte de contenus. De tels liens sémantiques peuvent êtres catégorisés, par exemple « célébrités », « genre », « thème » et pondérés en fonction de leur fréquence d'utilisation. Par exemple, un utilisateur qui aime découvrir des contenus en orientant la découverte sur l'aspect filmographique d'un acteur particulier, utilisera fréquemment le lien sémantique de type « célébrités » pour découvrir de nouveaux contenus multimédia. Puis, à partir du contenu multimédia identifié par un utilisateur, le dispositif selon l'invention génère (12) automatiquement une image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant au chapitrage, un emplacement graphique étant dédié à la restitution d'au moins une information représentative d'un chapitre. Avantageusement, selon la présente invention, l'étape de génération (12) utilise au moins une information (Ipu) appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur. Il est à noter que la génération selon l'invention est dynamique, délivrant à deux instants temporels distincts respectivement deux images représentatives distinctes pour un même utilisateur.
En effet, la présente invention prend en compte l'évolution du profil utilisateur Pu et délivre de ce fait, à deux instants différents, des chapitrages distincts d'un contenu multimédia C pour un même utilisateur. Par exemple, selon l'invention, il peut être détecté qu'entre deux chapitrages successifs d'un même contenu multimédia, par exemple à un mois d'intervalle, les goûts/pratiques de l'utilisateur se sont focalisés sur un genre (par exemple l'utilisateur a visualisé beaucoup de comédies romantiques sur cette période) ou sur un thème d'actualité particulier (la coupe du monde de football, les jeux olympiques, une guerre, un événement diplomatique/économique/écologique particulier). De ce fait l'image représentative correspondante restituée à l'utilisateur selon l'invention est différente d'un chapitrage à l'autre, de sorte à prendre la récente activité de l'utilisateur telle que mémorisée dans son profil utilisateur. L'étape de génération (12) selon l'invention peut être mise en oeuvre selon plusieurs modes de réalisation qui peuvent être préalablement sélectionnés par l'utilisateur ou par un fournisseur de services proposant l'exécution du procédé selon l'invention à un utilisateur.
Selon un premier mode de réalisation M1, ladite étape de génération (12) comprend les étapes suivantes : analyse A1 (1201) dudit contenu multimédia en fonction de ladite au moins une information utilisateur et de métadonnées associées audit contenu multimédia, délivrant un chapitrage, dit chapitrage personnalisé, dudit contenu multimédia comprenant une pluralité de chapitres associés à la fois audit contenu multimédia et à ladite au moins une information utilisateur, construction C1 (1202) de ladite image représentative, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage personnalisé. Ce premier mode de réalisation sera détaillé par la suite en relation avec les figures 2A à 2C. A titre d'alternative, selon un deuxième mode de réalisation M2, ladite étape de génération comprend les étapes suivantes : analyse A2 (12001) dudit contenu multimédia en fonction de métadonnées associées audit contenu multimédia, délivrant un chapitrage, dit chapitrage standard, dudit contenu multimédia comprenant une pluralité de chapitres associés audit contenu multimédia, sélection S2 (12002) d'une partie dudit chapitrage standard comprenant au moins un chapitre de ladite pluralité, en fonction de ladite au moins une information utilisateur, construction C2 (12003) de ladite image représentative, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant à ladite partie dudit chapitrage standard. Ce deuxième mode de réalisation sera détaillé par la suite en relation avec les figures 3A et 3B. Par ailleurs, optionnellement (en pointillés), l'étape de génération (12) comprend les étapes suivantes : insertion (121) d'une ligne de temps dans ladite image représentative, ordonnancement 0 (122) desdits emplacements graphiques de ladite image représentative sur ladite ligne de temps. Une telle ligne de temps présente un avantage en termes de visualisation pour l'utilisateur qui peut ainsi identifier la chronologie des chapitres au sein du contenu multimédia.
On obtient alors une image représentative telle que celle illustrée sur la figure 4 et dont les détails seront fournis par la suite. Une fois l'image représentative d'un chapitrage personnalisé du contenu multimédia C identifié par l'utilisateur obtenue en tenant compte, et ce de manière automatique (i.e. sans intervention de l'utilisateur) d'au moins une ou d'une pluralité d'informations stockées au sein de son profil utilisateur, celle-ci est restituée (13), par exemple, sur au moins une fenêtre graphique d'un écran de dispositif de restitution. Optionnellement (en pointillés), le procédé de génération d'une image représentative d'un chapitrage d'un contenu multimédia comprend en outre une étape d'enrichissement (14) activée en fonction d'une option d'enrichissement préalablement sélectionnée, et mettant en oeuvre une allocation d'au moins un emplacement graphique supplémentaire dédié à l'affichage d'au moins un contenu multimédia supplémentaire distinct dudit contenu multimédia ou de l'un de ses chapitres, sur ladite au moins une fenêtre graphique.
En particulier, un tel contenu supplémentaire Csu' est déterminé (141) automatiquement en fonction de ladite au moins une information utilisateur. Par exemple, un telle étape d'enrichissement (14) est mise en oeuvre lors de l'étape de génération de l'image représentative ou lors de sa restitution, et permet à un utilisateur de découvrir d'autres contenus associés (correspondant par exemple eux-mêmes à des extraits de contenus), par exemple au moyen de liens sémantiques, au contenu multimédia ou à l'un de ses chapitres sélectionné selon l'invention. 5.2 Exemples détaillés de mise en oeuvre On présente en relation avec les figures 2A à 2C, un mode de réalisation de l'étape de génération d'une image représentative d'un chapitrage d'un contenu multimédia C selon l'invention. Plus précisément, à partir du contenu multimédia C identifié (11) par l'utilisateur, une étape d'analyse A1 (1201) dudit contenu multimédia C est mise en oeuvre en fonction de ladite au moins une information utilisateur et de métadonnées associées audit contenu multimédia, délivrant un chapitrage, dit chapitrage personnalisé, dudit contenu multimédia comprenant une pluralité de chapitres associés à la fois audit contenu multimédia et à ladite au moins une information utilisateur. Puis, une fois une telle analyse effectuée, une image représentative du chapitrage du contenu multimédia est construite (1202) et comprend autant d'emplacements graphiques que de chapitres E1-11, E2-U, E,-U, EN-11 (12021) appartenant au chapitrage personnalisé. En particulier, l'analyse (1201) mise en oeuvre selon l'invention tire par exemple profit de l'apport des sous-titres, de la détection de personnes célèbres (au moyen par exemple d'une détection automatique de visage), de la reconnaissance de séquences audio. En relation avec la figure 2A, l'analyse (1201) recherche et rassemble R_ leu (12011) tout d'abord les éléments pertinents, appelés métadonnées (110), du contenu C et du profil de l'utilisateur Pu nécessaire pour orienter l'analyse et le découpage du contenu multimédia C à subdiviser de manière personnalisée.
Par exemple, un contenu vidéo de type émission télévisuelle, telle une émission de divertissement, sera analysé par rapport aux critiques (également appelées « buzz » où le spectateur est l'initiateur d'une communication sur des réseaux sociaùx par exemple, telle une critique sur l'émission considérée), aux thèmes abordés, et aux extraits musicaux, alors qu'un contenu vidéo de type film, sera analysé par rapport aux thèmes, aux citations, aux moments musicaux et aux moments aimés par les utilisateurs/spectateurs. Pour ce faire, une telle étape de recherche R_ leu (12011) peut notamment accéder à des bases de données existantes (ou des services tiers) dont des exemples sont donnés par la suite en fonction de différents axes d'analyse mis en oeuvre. En effet, une telle recherche R_ leu (12011) met en oeuvre différents outils/axes d'analyse. Différents exemples d'outils/axes d'analyse de métadonnées associées au contenu multimédia identifié par l'utilisateur sont décrits par la suite. Parmi ces outils/axes d'analyse, figure par exemple un outil basé « citation ». Selon cet axe d'analyse, des sites Internet externes référençant des phrases cultes, par exemple, du cinéma sont notamment utilisés. En d'autres termes, pour chaque contenu, l'étape d'analyse (1201) selon l'invention met en oeuvre une recherche sur un serveur de phrases cultes, par exemple Kaakook ou encore Vodkastere, les phrases cultes pertinentes du contenu multimédia C identifié par l'utilisateur. Optionnellement et parallèlement, l'étape d'analyse (1201) de l'invention, utilisant un tel outil d'analyse basé citation est interactif de sorte à permettre à des utilisateurs du procédé de génération selon l'invention de sélectionner eux mêmes des phrases cultes lors de la restitution du contenu multimédia identifié et de les mémoriser dans leur profil utilisateur.
Par exemple, selon cette option, lorsque les utilisateurs regardent/écoutent un contenu multimédia, ils peuvent signaler l'apparition d'une phrase culte en cliquant par exemple sur un bouton dédié « ceci est une phrase culte ». Une telle action est alors mémorisée dans le profil utilisateur Pu, puis utilisée ultérieurement lors de la présente étape de recherche R_ 'pu (12011). Une fois que de telles métadonnées pertinentes correspondant à des citations sont obtenues, l'étape d'analyse passe à leur traitement T_ Ipu 2.012) en tant que tel, à savoir dans ce cas, un découpage du contenu multimédia C en chapitres' . Un tel découpage est effectué en recherchant, par exemple dans les sous-titres du contenu multimédia C les phrases cultes rassemblées lors de l'étape de recherche R_ IPU (12011) afin de les référencer en tant que « bornes » de découpage, ou index temporel, pour « borner »/indexer un extrait temporellement sur une ligne de temps. Une telle ligne de temps est représentée en relation avec l'exemple d'image représentative de la figure 4 où quatre extraits EL E2, E3 et Ett correspondent à des extraits où, par exemple, quatre phrases cultes sont prononcées respectivement à des index temporels tn, tE2s tE3 et tE4 distincts. Un autre outil/axe d'analyse est par exemple basé sur la recherche de moments musicaux qui composent par exemple la bande originale d'un film, ou encore les différents jingles utilisés pour rythmer une émission télévisée. De tels moments musicaux peuvent être détectés (12011) grâce à des technologies dite d'impression audio (« audio fingerprinting » en anglais) permettant de classifier les sons (applaudissement, musique, parole, silence..). Une telle détection de moments musicaux peut être enrichie en accédant à des sites externes spécialisés tels que Deezer qui permet d'obtenir un ensemble d'extraits musicaux associés au contenu multimédia identifié par l'utilisateur, ces extraits musicaux pouvant ensuite être réutilisés pour être recherchés au sein du contenu multimédia à subdiviser. L'association de ces deux techniques d'impression audio et de détection de moments musicaux via une recherche préalable sur un service externe permet, lors de l'étape de traitement T_ Ipu (12012) en tant que telle, une indexation précise des moments musicaux d'un contenu multimédia.
Ainsi, une telle analyse (1201) basée « moments musicaux », permet d'obtenir par exemple un chapitrage musical du contenu multimédia, lorsqu'une information (lpu) du profil utilisateur indique que l'utilisateur est par exemple « musicophile », ou lorsque ses données de recherche indiquent que run des morceaux musicaux du contenu multimédia a fait récemment l'objet d'une recherche internet de la part de I 'utilisateur.
Au regard de l'image représentative construite (1202) en utilisant le résultat d'un tel outil d'analyse (1201) basé « moment musicaux », une telle image comprend par exemple pour chaque chapitre E1-1J, E2-U, E,-U, EN-U (12021) du contenu multimédia un emplacement graphique représenté avec un logo/pictogramme (par exemple une note de musique) « moment musical ». Un tel emplacement graphique, lorsqu'il est pointé par l'utilisateur au moyen d'une souris d'ordinateur par exemple ou par pression tactile du doigt, permet, via un lien, d'accéder directement et précisément à l'extrait correspondant du contenu multimédia, grâce à l'indexation temporelle précédemment réalisée.
En outre, l'emplacement graphique relatif à un chapitre obtenu en utilisant un tel outil d'analyse basé « moments musicaux » est optionnellement enrichi de métadonnées (12022) permettant d'indiquer également le nom du morceau et/ou des informations « cliquables » sur le compositeur, le chanteur, etc... Par « cliquable », on entend des informations associées à des liens hypertextes permettant de passer automatiquement d'un document consulté à un document lié. En conséquence, l'image représentative d'un chapitrage de contenu multimédia délivrée selon l'invention permet, grâce à l'affichage de telles métadonnées associées à chaque extrait, de découvrir par « rebonds » de nouvelles oeuvres musicales et/ou vidéo. Un autre outil/axe d'analyse est par exemple basé sur la recherche dans le profil utilisateur Pu des moments du contenu multimédia aimés par l'utilisateur. En effet, de la même façon que pour les phrases cultes détectées selon l'outil d'analyse basé « citation » mentionné précédemment, selon cette option, lorsque les utilisateurs regardent/écoutent un contenu multimédia, ils peuvent signaler l'apparition d'un extrait qu'ils adorent en cliquant par exemple sur un bouton dédié « j'aime ».
Une telle action est alors mémorisée dans le profil utilisateur Pu, puis utilisée ultérieurement lors de la présente étape de recherche R_ lpu (12011). Une fois que de telles métadonnées pertinentes correspondant à des moments aimés par l'utilisateur sont obtenues, l'étape d'analyse passe à leur traitement T_ lpu (12012) afin de délivrer une indexation précise des moments aimés par l'utilisateur d'un contenu multimédia. Au regard de l'image représentative construite (1202) en utilisant le résultat d'un tel outil d'analyse (1201) basé « moments aimés», une telle image comprend par exemple pour chaque chapitre du contenu multimédia un emplacement graphique E1-1J, E2-U, E,-U, EN_i-U, EN-U (12021) représenté avec un logo/pictogramme par exemple un coeur) « moment aimé ». Un tel emplacement graphique, lorsqu'il est pointé par l'utilisateur au moyen d'une souris d'ordinateur par exemple ou par pression tactile du doigt, permet, via un lien, d'accéder directement et précisément à l'extrait correspondant du contenu multimédia, grâce à l'indexation temporelle précédemment réalisée. En outre, l'ernplacemei'egraeique relatif à un chapitre obtenu en utilisant un tel outil d'analyse basé « moment aimé», est optionnellement enrichi de métadonnées (12022) permettant d'indiquer également les thèmes et mots-clés issus d'une analyse de sous-titres et/ou audio de chaque extrait ainsi identifié. Un autre outil/axe d'analyse est par exemple basé sur un accès à des réseaux sociaux, par exemple Twittert sur lesquels des moments significatifs du contenu multimédia identifié par l'utilisateur ont été commentés. En d'autres termes, un tel axe d'analyse utilisé ou non dn combinaison avec l'un des axes précédents permet d'orienter l'analyse et le découpage du contenu multimédia identifié par l'utilisateur. En effet, pour des contenus multimédia tels que des émissions télévisuelles, l'usage de réseaux sociaux comme Twittere est répandue. En conséquence, certains extraits d'émissions télévisuelles font par exemple l'objet d'un retentissement médiatique (appelé communément « buzz ») plus important que d'autres. Ainsi, un tel outil basé « réseaux sociaux » permet par exemple de mettre en avant l'importance de certains passages d'un contenu multimédia au regard d'autres passages. De même que pour les autres outils, au regard de l'image représentative construite (1202) en utilisant le résultat d'un tel outil d'analyse (1201) basé « réseau sociaux », l'emplacement graphique, relatif à un chapitre ainsi obtenu, est optionnellement enrichi de métadonnées (12022) permettant d'indiquer également les thèmes et mots-clés issus d'une analyse de sous-titres et/ou audio de chaque extrait ainsi identifié. Optionnellement, l'accès de l'utilisateur, ou bien même sa participation à ce « buzz » tel que mémorisé au sein du profil utilisateur, peut être pris en compte en tant qu'information (lpu) pour la personnalisation du chapitrage selon l'invention. Un autre outil/axe d'analyse est par exemple basé sur une analyse des moments correspondant à l'arrivée ou à la prise de parole de personnages principaux (acteurs/présentateurs) du contenu multimédia identifié par l'utilisateur.
Une telle analyse repose sur l'utilisation d'outils de reconnaissance de visage ou de reconnaissance vocale. De même que pour les autres outils, au regard de l'image représentative construite (1202) en utilisant le résultat d'un tel outil d'analyse (1201) basé sur une analyse des moments correspondant à l'arrivée ou à la prise de parole de personnages principaux, l'emplacement graphique, relatif à un chapitre ainsi obtenu, est optionnellement enrichi de métadonnées (12022) permettant d'indiquer les noms d'acteurs/présentateurs, chanteurs qui interviennent dans le chapitre, et éventuellement le nom de leur personnage lorsqu'il s'agit d'une fiction.
Un autre outil/axe d'analyse est par exemple basé sur une analyse des thèmes abordés dans le contenu multimédia. Une telle analyse est sémantique et est effectuée à partir de regroupements de mots identifiés au sein de la bande audio ou des sous-titres du contenu multimédia, afin d'extraire des thèmes.
Une telle extraction est notamment facilitée par une catégorisation du contenu multimédia (divertissement, actualité, musique, etc... ). Une telle catégorisation peut être indiquée par les métadonnées éditoriales du contenu multimédia, ou déterminée en accédant à des sites Internet externes tels qu'un guide de programme télévisuel. Par exemple, dans une émission télévisuelle de type actualité, un reportage où les mots guerre, machette, milice, militaire, violence, pourra amener le thème « conflit ». Dans un autre exemple, dans un film où il est évoqué le groupe de mots « maladie »,« mourir », » souffrir »,« suicide », le thème « mort » pourra être extrait et indexé au chapitre correspondant (ou à l'ceuvre globale si le thème est abordé pendant toute l'ceuvre).
Un autre outil/axe d'analyse complémentaire de l'outil/axe d'analyse basé sur une analyse des thèmes abordés dans le contenu multimédia mentionné ci-dessus, est par exemple basé sur un accès à des réseaux d'informations journalistiques, par exemple des sites de journaux tels que le Monde, sur lesquels des actualités en relation avec les thèmes significatifs du contenu multimédia identifié par l'utilisateur sont délivrées.
Par exemple, en relation avec le thème « conflit » précédemment cité, il se peut qu'une actualité majeure soit en cours, si bien que le thème « conflit » obtiendra une pondération plus forte au regard du thème « amour » pour adapter le chapitrage d'un contenu multimédia correspondant par exemple à un film.
Ainsi, un film comprenant à la fois des scènes de guerre et des scènes d'amour sera découpé de sorte à mettre en avant les scènes de guerre au regard des scènes d'amour. Optionnellement, l'accès de l'utilisateur à de tels sites Internet journalistiques, tels que mémorisés (par exemple une souscription) au sein du profil utilisateur peut être pris en compte en tant qu'information (Ipu) pour la personnalisation du chapitrage selon l'invention. Il est à noter que la présente invention propose de combiner l'un ou une pluralité des axes/outils d'analyse de métadonnées de contenus multimédia précédemment décrits avec au moins une information (Ipu) du profil utilisateur. En conséquence, pour deux utilisateurs distincts, deux chapitrages d'un même contenu multimédia C seront obtenus. Un tel résultat est notamment illustré par la figure 2B, pour deux utilisateurs U1 et Ainsi, comme illustré sur la figure 2B, le chapitrage 21 du contenu multimédia C de l'utilisateur U1 comprend N extraits de même durée, tandis que le chapitrage 22 du contenu multimédia C de l'utilisateur U2 comprend M extraits de durées différentes. Ainsi le premier extrait Ei_Ui de l'utilisateur U1 est moins long que le premier extrait EI_U2 de l'utilisateur U2, ces deux extraits se terminant respectivement à des instants t2_U1 et t2_U2 tels que t2_U1< Selon une variante de l'invention, le chapitrage de contenu délivré selon l'invention vise en outre à ne retenir que les chapitres dits « significatifs » pour un utilisateur. Ainsi, en relation avec la figure 2C, pour l'utilisateur U1, seul un ensemble (23) de trois extraits parmi les N extraits, à savoir E,_Ui et EN_i_Ui sont sélectionnés au sein du contenu multimédia et présentés sur l'image délivrée selon l'invention, tandis que pour l'utilisateur U2, seul un ensemble (24) de quatre extraits E2_U2, Em-2_U2, Em_i_U2et Em_th sont sélectionnés. Selon la variante illustrée par la figure 2C, le chapitrage obtenu comprend donc un nombre de chapitres dont la durée cumulée est inférieure à la durée totale du contenu multimédia identifié par l'utilisateur. On présente en relation avec les figures 3A et 3B, un autre mode de réalisation de l'étape de génération d'une image représentative d'un chapitrage d'un contenu multimédia C selon l'invention. Plus précisément, à partir du contenu multimédia C identifié (11) par l'utilisateur, une étape d'analyse A2 (12001) dudit contenu multimédia en fonction de métadonnées associées audit contenu multimédia est mise en oeuvre et délivre un chapitrage, dit chapitrage standard (12010), dudit contenu multimédia comprenant une pluralité de N chapitres associés au contenu multimédia C. Une telle analyse A2 (12001) utilise les mêmes axes/outils d'analyse précédemment cités au regard du mode de réalisation représenté en relation avec les figures 2A à 2C. En revanche, selon ce mode de réalisation représenté sur les figures 3A et 313, aucune information du profil de l'utilisateur n'est utilisée à ce stade pour personnaliser l'analyse et le chapitrage résultant. Ainsi, le chapitrage standard 12010 issu'àutomatiquement de l'étape d'analyse Az (12001) sera identique d'un utilisateur à un autre et permanent dans le temps.
En revanche, selon ce mode de réalisation, une sélection S2 (12002) d'une partie dudit chapitrage standard comprenant au moins un chapitre de ladite pluralité, est mise en oeuvre en fonction de ladite au moins une information (Ipu) de profil utilisateur. Puis, la construction C2 (12003) de l'image représentative d'un chapitrage d'un contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres (El et EN-1) appartenant à ladite partie dudit chapitrage standard, est effectuée. L'avantage d'un tel mode de réalisation est que le résultat de l'étape d'analyse délivrant un chapitrage standard peut être par exemple mémorisé au sein de la mémoire (51) (voir figure 5) d'un dispositif d'accès à des contenus multimédia apte à mettre en oeuvre le procédé de génération selon l'invention, puis réutilisé pour deux utilisateurs distincts par exemple ou pour la mise en oeuvre de l'invention à deux moments distincts. La figure 38 illustre que selon ce mode de réalisation, le chapitrage résultant est également distinct d'un utilisateur à un autre. En effet, à partir du chapitrage standard (12010) issu automatiquement de l'étape d'analyse A2 (12001), seule la partie (31) du chapitrage standard (12010) comprenant les extraits E1 et EN4 est sélectionnée (12002) pour l'utilisateur U1, tandis que pour l'utilisateur U2; seule la partie (324-comprenant les extraits E2 et EN sont sélectionnés (12002) pour l'utilisateur U2. Par exemple, on considère un contenu multimédia C correspondant au film « Mr et Mrs Smith » avec une actrice principale A et un acteur principal B. Pour l'utilisateur U1, l'information (Ipu) de profil utilisateur indique qu'il est fan de l'actrice principale A, tandis que pour l'utilisateur U2, l'information (Ipu) de profil utilisateur indique qu'il est fan de l'acteur principal B.
Le chapitrage (31) délivré à l'utilisateur U1 correspondra de ce fait aux seules scènes où l'actrice principale A joue seule en l'absence de l'acteur principal B, tandis que le chapitrage (31) délivré à l'utilisateur U2 correspondra de ce fait aux seules scènes où l'acteur principal B joue seul en l'absence de l'actrice principale A. 5.3 Structure simplifiée d'un dispositif selon l'invention On présente finalement, en relation avec la figure 5, la structure simplifiée d'un dispositif (50) de génération d'une image représentative d'un chapitrage d'un contenu multimédia, ledit dispositif mettant en oeuvre un procédé de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon l'un des modes de réalisation décrits ci-dessus. Comme illustré en figure 5, un dispositif (50) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon un mode de réalisation de l'invention comprend une mémoire 51 comprenant une mémoire tampon, une unité de traitement 52, équipée par exemple d'un microprocesseur ii.P, et pilotée par le programme d'ordinateur 53, mette'« en oeuvre le procédé de génération d'une image représentative d'un chapitrage d'un contenu multimédia décrit ci-dessus. A l'initialisation, les instructions de code du programme d'ordinateur 53 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement 52. Le microprocesseur de l'unité de traitement 52 met en oeuvre les étapes du procédé de génération d'une image représentative d'un chapitrage d'un contenu multimédia décrit précédemment, selon les instructions du programme d'ordinateur 53, pour recevoir au moins une information d'identification, saisie par un utilisateur, dudit contenu multimédia à subdiviser en chapitres, générer automatiquement ladite image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage, un emplacement graphique étant dédié à la restitution d'au moins une information représentative d'un chapitre en utilisant au moins une information (Ipu) appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur, et restituer ladite image représentative. Pour cela, le terminal comprend, outre la mémoire tampon 51, un module de saisie 54 d 'au moins une information d'identification dudit contenu multimédia à subdiviser en chapitres, un module de génération 55 automatique de ladite image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant représentative d'un chapitre en utilisant au moins une information (Ipu) appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur, et un module de restitution 56 sur au moins une deuxième fenêtre graphique dudit dispositif de restitution de ladite image représentative.
Ces modules sont pilotés par le microprocesseur de l'unité de traitement 52. Le dispositif de génération illustré par la figure 5 peut être intégré au sein d'un équipement/terminal existant, par exemple une set-top-box ou bien un terminal connecté à la set-top-box, tel que par exemple une tablette.
Claims (13)
- REVENDICATIONS1. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia, ledit chapitrage comprenant une pluralité de chapitres extraits dudit contenu multimédia, ledit procédé comprenant lesdites étapes suivantes mises en oeuvre par un processeur : saisie par un utilisateur (11) d'au moins une information d'identification dudit contenu multimédia à subdiviser en chapitres, génération (12) automatique de ladite image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage, un emplacement graphique étant dédié à la restitution d'au moins une information représentative d'un chapitre, restitution (13) de ladite image représentative, caractérisé en ce que ladite étape de génération (12) utilise au moins une information (Ipu) appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur.
- 2. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce qu'il comprend une étape préalable d'authentification (101) de l'utilisateur ouvrant un accès à son profil utilisateur utilisé lors de ladite étape de génération.
- 3. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce qu'il comprend une étape de remplissage (102) dudit ensemble de données correspondant à un profil utilisateur.
- 4. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce que ladite étape de génération (12) est dynamique, délivrant à deux instants temporels distincts respectivement deux images représentatives distinctes pour un même utilisateur.
- 5. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce que ladite étape de génération (12) comprend les étapes suivantes : insertion (121) d'une ligne de temps dans ladite image représentative, ordonnancement (122) desdits emplacements graphiques de ladite image représentative sur ladite ligne de temps.
- 6. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce que ladite étape de génération comprend les étapes suivantes : analyse (1201) dudit contenu multimédia en fonction de ladite au moins une information utilisateur et de métadonnées associées audit contenu multimédia, délivrant un chapitrage, dit chapitrage personnalisé, dudit contenu multimédia comprenant une pluralité de chapitres associés à la fois audit contenu multimédia et à ladite au moins une information utilisateur, construction (1202) de ladite image représentative, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage personnalisé.
- 7. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce que ladite étape de génération comprend les étapes suivantes : analyse (12001) dudit contenu multimédia en fonction de métadonnées associées audit contenu multimédia, délivrant un chapitrage, dit chapitrage standard, dudit contenu multimédia comprenant une pluralité de chapitres associés audit contenu multimédia, sélection (12002) d'une partie dudit chapitrage standard comprenant au moins un chapitre de ladite pluralité, en fonction de ladite au moins une information utilisateur, construction (12003) de ladite image représentative, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant à ladite partie dudit chapitrage standard.
- 8. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce qu'il comprend en outre une étape d'enrichissement (14), activée en fonction d'une option d'enrichissement préalablement sélectionnée, et mettant en oeuvre une allocation d'au moins un emplacement graphique supplémentaire dédié à l'affichage d'au moins un contenu multimédia supplémentaire, distinct dudit contenu multimédia ou de l'un de ses chapitres.
- 9. Procédé (10) de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 1, caractérisé en ce que ledit au moins un contenu supplémentaire est déterminé (141) automatiquement en fonction de ladite au moins une information utilisateur.
- 10. Dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia, ledit chapitrage comprenant une pluralité de chapitres extraits dudit contenu multimédia, ledit dispositif comprenant : un module de saisie(54) d'au moins une information d'identification dudit contenu multimédia à subdiviser en chapitres, un module de génération (55) automatique de ladite image représentative d'un chapitrage dudit contenu multimédia, ladite image représentative comprenant autant d'emplacements graphiques que de chapitres appartenant audit chapitrage, un emplacement graphique étant dédié à la restitution d'au moins une information représentative d'un chapitre, un module de restitution (56) de ladite image représentative, caractérisé en ce que ledit module de génération est configuré pour accéder à au moins une information appartenant à un ensemble de données correspondant à un profil utilisateur dudit utilisateur, dite au moins une information utilisateur.
- 11. Terminal apte à contenir un dispositif de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon la revendication 10.
- 12. Programme d'ordinateur comportant des instructions de code de programme pour l'exécution des étapes du procédé de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon l'une quelconque des revendications 1 à 9, lorsque ledit programme est exécuté par un ordinateur.
- 13. Support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions de code de programme pour l'exécution des étapes du procédé de génération d'une image représentative d'un chapitrage d'un contenu multimédia selon l'une quelconque des revendications 1 à 9, lorsque ledit programme est exécuté par un ordinateur.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1463184A FR3030980A1 (fr) | 2014-12-23 | 2014-12-23 | Procede et dispositif de generation d'une image representative d'un chapitrage d'un contenu multimedia, terminal et programme d'ordinateur correspondants. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1463184A FR3030980A1 (fr) | 2014-12-23 | 2014-12-23 | Procede et dispositif de generation d'une image representative d'un chapitrage d'un contenu multimedia, terminal et programme d'ordinateur correspondants. |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3030980A1 true FR3030980A1 (fr) | 2016-06-24 |
Family
ID=52589676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1463184A Withdrawn FR3030980A1 (fr) | 2014-12-23 | 2014-12-23 | Procede et dispositif de generation d'une image representative d'un chapitrage d'un contenu multimedia, terminal et programme d'ordinateur correspondants. |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3030980A1 (fr) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030093790A1 (en) * | 2000-03-28 | 2003-05-15 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US7251790B1 (en) * | 2002-01-23 | 2007-07-31 | Microsoft Corporation | Media browsing system displaying thumbnails images based on preferences of plurality of users and placing the thumbnails images at a scene change |
US20080112690A1 (en) * | 2006-11-09 | 2008-05-15 | Sbc Knowledge Venturses, L.P. | Personalized local recorded content |
US20110150427A1 (en) * | 2009-12-18 | 2011-06-23 | Michinari Kohno | Content providing server, content reproducing apparatus, content providing method, content reproducing method, program, and content providing system |
-
2014
- 2014-12-23 FR FR1463184A patent/FR3030980A1/fr not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030093790A1 (en) * | 2000-03-28 | 2003-05-15 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US7251790B1 (en) * | 2002-01-23 | 2007-07-31 | Microsoft Corporation | Media browsing system displaying thumbnails images based on preferences of plurality of users and placing the thumbnails images at a scene change |
US20080112690A1 (en) * | 2006-11-09 | 2008-05-15 | Sbc Knowledge Venturses, L.P. | Personalized local recorded content |
US20110150427A1 (en) * | 2009-12-18 | 2011-06-23 | Michinari Kohno | Content providing server, content reproducing apparatus, content providing method, content reproducing method, program, and content providing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210081449A1 (en) | Music recommendations from trending queries | |
US7613691B2 (en) | Dynamic insertion of supplemental video based on metadata | |
US11748408B2 (en) | Analyzing user searches of verbal media content | |
CN101395607B (zh) | 用于自动生成多个图像的概要的方法和设备 | |
US9100701B2 (en) | Enhanced video systems and methods | |
US20220107978A1 (en) | Method for recommending video content | |
CN1942970A (zh) | 生成对用户具有特定情绪影响的内容项的方法 | |
ES2475965T5 (es) | Sistemas y métodos para identificar contenido de audio utilizando una aplicación interactiva de guía de medios | |
US20150066897A1 (en) | Systems and methods for conveying passive interest classified media content | |
EP2104937B1 (fr) | Procede de creation d'un nouveau sommaire d'un document audiovisuel comportant deja un sommaire et des reportages et recepteur mettant en oeuvre le procede | |
EP3021594A1 (fr) | Procédé de classement d'un contenu et recommandation de contenu dans un guide électronique des programmes | |
WO2010078650A1 (fr) | Identification, recommandation et fourniture d'un contenu média approprié | |
US8352985B2 (en) | Method of storing and displaying broadcast contents and apparatus therefor | |
EP3556102B1 (fr) | Procede d'enregistrement d'un programme telediffuse a venir | |
FR3030980A1 (fr) | Procede et dispositif de generation d'une image representative d'un chapitrage d'un contenu multimedia, terminal et programme d'ordinateur correspondants. | |
FR2973133A1 (fr) | Procedes d’actualisation et de creation de profils d'utilisateur, de recommandation de contenu et de construction d'une liste de contenus | |
EP3073395B1 (fr) | Procédé et dispositif d'accès à une pluralité de contenus, terminal et programme d'ordinateur correspondants | |
EP2800017A2 (fr) | Génération d'un document sonore personnalisé relatif à un évènement | |
CN116600178A (zh) | 一种视频发布方法、装置、计算机设备及存储介质 | |
FR2839233A1 (fr) | Procede de navigation affichant un document, recepteur mettant en oeuvre le procede, et interface graphique pour la presentation du procede | |
FR2996934A1 (fr) | Procede de navigation dans un contenu audio comprenant des extraits musicaux | |
FR2929425A1 (fr) | Procede et dispositif de production, diffusion et publication en serie de videos et leurs descriptions respectives, a partir d'informations d'origine non audiovisuelles | |
FR3051936A1 (fr) | Procede et dispositif de classement de contenus multimedia, terminal et programme d'ordinateur correspondants | |
FR3026519A1 (fr) | Procede et dispositif de generation d'une liste ordonnee de contenus a afficher, terminal et programme d'ordinateur correspondants | |
FR3018984A1 (fr) | Procede et dispositif d'acces a une pluralite de contenus, terminal et programme d'ordinateur correspondants |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20160624 |
|
ST | Notification of lapse |
Effective date: 20170831 |