FR3097394A1 - Procédé de génération d'un produit multimédia adaptatif - Google Patents

Procédé de génération d'un produit multimédia adaptatif Download PDF

Info

Publication number
FR3097394A1
FR3097394A1 FR1906191A FR1906191A FR3097394A1 FR 3097394 A1 FR3097394 A1 FR 3097394A1 FR 1906191 A FR1906191 A FR 1906191A FR 1906191 A FR1906191 A FR 1906191A FR 3097394 A1 FR3097394 A1 FR 3097394A1
Authority
FR
France
Prior art keywords
video sequences
data
computer server
broadcast
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1906191A
Other languages
English (en)
Other versions
FR3097394B1 (fr
Inventor
Loïc LECHELLE
Ghislain PRAS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fee Sitikroa
Original Assignee
Fee Sitikroa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fee Sitikroa filed Critical Fee Sitikroa
Priority to FR1906191A priority Critical patent/FR3097394B1/fr
Publication of FR3097394A1 publication Critical patent/FR3097394A1/fr
Application granted granted Critical
Publication of FR3097394B1 publication Critical patent/FR3097394B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8541Content authoring involving branching, e.g. to different story endings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Procédé de génération d'un produit multimédia adaptatif Procédé de génération d'un produit multimédia (10) adaptatif, caractérisé en ce qu'il comprend : - une étape d'enregistrement (E1) dans une mémoire (E33) d'un serveur informatique (3) de données personnelles d'un spectateur et/ou de données contextuelles d'un spectateur (D1, D2, D3), - une étape de sélection (E2) de séquences vidéo de séquences vidéo (21) issues d'une base de données (2), la base de données étant en liaison avec le serveur informatique, l'étape de sélection étant réalisée en fonction desdites données personnelles du spectateur et/ou desdites données contextuelles du spectateur, - une étape de génération (E3) par le serveur informatique d'un scénario du produit multimédia, le scénario comprenant un ordonnancement desdites séquences vidéo, et - une étape de diffusion (E4) à la volée desdites séquences vidéo sur un terminal numérique (5), le terminal numérique étant en liaison avec le serveur informatique. Figure pour l’abrégé : figure 4

Description

Procédé de génération d'un produit multimédia adaptatif
L’invention concerne un procédé de génération d'un produit multimédia adaptatif, notamment un produit audiovisuel adaptatif. L’invention porte aussi sur un produit programme mettant en œuvre un tel procédé de génération. L’invention porte encore sur un support d'enregistrement de données comprenant un tel produit programme. L’invention porte enfin sur un système informatique pour générer un produit multimédia adaptatif.
Etat de la technique antérieure
Au quotidien, de nombreux produits multimédias tels que des produits audiovisuels sont diffusés sur différents terminaux numériques. Par exemple, des vidéos peuvent être diffusées à l'attention d'un spectateur via l'écran d'un Smartphone ou via l'écran d'un ordinateur. La diffusion de ces vidéos peut être lancée sur requête d'un utilisateur ou spontanément, par exemple lorsque l'utilisateur navigue sur Internet. Ces produits multimédias servent à diffuser des informations utiles au spectateur, notamment elles peuvent contenir une annonce ou un message publicitaire.
L'utilisateur a toujours la possibilité d'interrompre la diffusion de ces vidéos, ou tout au moins de détourner son attention de ces vidéos. On constate par ailleurs que de nombreux produits multimédias, et en particulier de nombreuses vidéos, ne sont pas consultés dans leur intégralité, c’est-à-dire que leur diffusion est stoppée avant leur fin, ou que le spectateur n'y prête plus attention. Lorsque les vidéos sont visionnées jusqu'à la fin, on constate bien souvent qu'elles ne provoquent pas le comportement espéré par le diffuseur de ces vidéos. Ainsi, le message porté par ces produits multimédias n'est pas efficacement transmis au spectateur. Par exemple, lorsque le produit multimédia se rapporte à une annonce ou une publicité, on constate que le taux de conversion associé à la diffusion du produit multimédia est souvent très faible. Selon un autre exemple, lorsque le produit multimédia se rapporte à un contenu pédagogique, on peut constater également un manque d'intérêt ou de pertinence pour les informations contenues dans le produit multimédia.
Pour améliorer l'efficacité et notamment le taux de conversion d'un produit multimédia, on connait certains procédés de génération de produits multimédias dit personnalisés. Toutefois, les procédés connus requièrent des capacités de calcul importantes pour générer un produit multimédia ainsi qu'un espace de stockage considérable pour mémoriser des produits multimédias adaptés à chaque spectateur potentiel (c'est-à-dire des produits personnalisés). Pour limiter l'impact sur les moyens matériels disponibles, on limite aussi les possibilités de diversifier ces produits multimédias. De plus, les procédés connus requièrent l'utilisation de programmes d'ordinateur complexes, et spécialement développés pour générer des produits audiovisuels adaptatifs. Ces procédés sont peu flexibles et difficiles à configurer. Un annonceur, qui n'est pas nécessairement un professionnel de l'informatique, peut donc éprouver des difficultés à adapter les procédés connus à ses propres besoins. Les procédés connus demandent donc des mises au point incessantes entre les développeurs informatiques et les annonceurs.
Présentation de l'invention
Le but de l’invention est de fournir un procédé de génération de produits multimédias adaptatifs remédiant aux inconvénients ci-dessus et améliorant les procédés connus de l’art antérieur.
Plus précisément, un premier objet de l’invention est un procédé de génération de produits multimédias permettant de générer une grande diversité de produits multimédias sans requérir des ressources matérielles importantes, notamment sans recourir à un espace de stockage important.
Un second objet de l’invention est un procédé de génération de produits multimédias simple à utiliser et à configurer.
Un troisième objet de l'invention est un procédé de génération de produits multimédia qui ne requiert pas le développement d'un nouveau protocole de streaming.
L'invention se rapporte à un procédé de génération d'un produit multimédia adaptatif, comprenant :
- une étape d'enregistrement dans une mémoire d'un serveur informatique de données personnelles d'un spectateur et/ou de données contextuelles d'un spectateur,
- une étape de sélection de séquences vidéo de séquences vidéo issues d'une base de données, la base de données étant en liaison avec le serveur informatique, l'étape de sélection étant réalisée en fonction desdites données personnelles du spectateur et/ou desdites données contextuelles du spectateur,
- une étape de génération par le serveur informatique d'un scénario du produit multimédia, le scénario comprenant un ordonnancement desdites séquences vidéo, et
- une étape de diffusion à la volée desdites séquences vidéo sur un terminal numérique, le terminal numérique étant en liaison avec le serveur informatique.
Les séquences vidéo du produit multimédia peuvent avoir une durée supérieure ou égale à trois secondes et inférieure ou égale à douze secondes.
Les données contextuelles peuvent comprendre des données relatives à un comportement d'un spectateur.
Le procédé de génération peut comprendre :
- une étape de diffusion de premières séquences vidéo sur le terminal numérique,
- une étape d'enregistrement dans la mémoire du serveur informatique de données relatives à un comportement de l'utilisateur au cours de la diffusion de premières séquences vidéo, ou postérieurement à la diffusion des premières séquences vidéo,
- une étape de calcul d'un indice de performance des premières séquences vidéo en fonction desdites données relatives au comportement de l'utilisateur,
- une étape de sélection desdites premières séquences vidéo en fonction de l'indice de performance des premières séquences vidéos lors d'une itération ultérieure du procédé de génération.
Le procédé de génération peut comprendre :
- une étape de diffusion de premières séquences vidéo sur le terminal numérique,
- une étape d'enregistrement dans la mémoire du serveur informatique de données relatives à un comportement de l'utilisateur au cours de la diffusion de premières séquences vidéo, ou postérieurement à la diffusion des premières séquences vidéo,
- une étape de calcul d'un indice de performance du scénario du produit multimédia en fonction desdites données relatives au comportement de l'utilisateur,
- une étape de génération d'un scenario en fonction de l'indice de performance du scénario lors d'une itération ultérieure du procédé de génération.
Le procédé de génération peut comprendre :
- une étape de diffusion de premières séquences vidéo du produit multimédia sur le terminal numérique,
- une étape d'enregistrement dans la mémoire du serveur informatique de données personnelles et/ou de données contextuelles, cette étape d'enregistrement étant réalisée au cours de la diffusion des premières séquences vidéo,
- une étape de sélection d'au moins une deuxième séquence vidéo dans la base de données en fonction des données personnelles et/ou des données contextuelles enregistrées dans la mémoire du serveur informatique au cours de l'étape de diffusion des premières séquences vidéo,
- une étape de diffusion de ladite deuxième séquence vidéo sur ledit terminal numérique.
L'étape d'enregistrement de données personnelles et/ou de données contextuelles peut comprendre une interrogation du spectateur au moyen d'un questionnaire à choix multiples.
Lors de ladite étape de sélection, au moins une séquence vidéo peut être sélectionnée arbitrairement ou aléatoirement dans la base de données puis associée au scénario du produit multimédia.
Chaque séquence vidéo peut être dépourvue d'une bande son, et le procédé de génération peut comprendre une étape de sélection d'une bande son, la bande son étant indépendante des séquences vidéo.
L'étape de sélection peut comprendre l'utilisation d'une table de correspondance entre des données personnelles et/ou des données contextuelles d'un spectateur d'une part et des séquences vidéo de la base de données d'autre part.
L'étape de sélection peut comprendre l'exécution d'un algorithme de sélection d'au moins une séquence vidéo en fonction de plusieurs données personnelles et/ou contextuelles d'un spectateur.
L'invention se rapporte également à un procédé de génération d'un produit multimédia adaptatif comprenant :
- une étape d'enregistrement dans une mémoire d'un serveur informatique de données personnelles d'un spectateur et/ou de données contextuelles d'un spectateur,
- une étape de sélection de bandes son de séquences vidéo issues d'une base de données, la base de données étant en liaison avec le serveur informatique, l'étape de sélection étant réalisée en fonction desdites données personnelles du spectateur et/ou desdites données contextuelles du spectateur,
- une étape de génération par le serveur informatique d'un scénario du produit multimédia, le scénario comprenant un ordonnancement desdites bandes son, et
- une étape de diffusion à la volée desdites bandes son sur un terminal numérique, le terminal numérique étant en liaison avec le serveur informatique.
L'invention se rapporte également à un produit programme d’ordinateur comprenant des instructions de code de programme enregistrées sur un support lisible par ordinateur pour mettre en œuvre les étapes du procédé de génération tel que défini précédemment.
L'invention se rapporte également à un support d’enregistrement de données, lisible par un ordinateur, sur lequel est enregistré un programme d’ordinateur comprenant des instructions de code de programme de mise en œuvre du procédé de génération tel que défini précédemment.
L'invention se rapporte également à un système informatique de génération de produits multimédias adaptatifs, le système informatique comprenant :
- au moins une base de données comprenant un ensemble de séquences vidéo, et
- un serveur informatique apte à communiquer avec la base de données, le serveur informatique contenant un produit programme tel que défini précédemment.
Présentation des figures
Ces objets, caractéristiques et avantages de la présente invention seront exposés en détail dans la description suivante d’un mode de réalisation particulier fait à titre non-limitatif en relation avec les figures jointes parmi lesquelles :
La figure 1 est une vue schématique d'un système informatique de génération de produits multimédias adaptatifs selon un mode de réalisation de l'invention, le système informatique étant en liaison avec un terminal numérique.
La figure 2 est une vue schématique d'un produit multimédia obtenu par un procédé selon un mode de réalisation de l'invention.
La figure 3 est une vue schématique des étapes d'un procédé de génération d'un produit multimédia selon un mode de réalisation de l'invention.
La figure 4 est une vue schématique d'une étape de génération d'un scénario du produit multimédia.
La figure 5 est une vue schématique d'un diagramme utilisé pour la définition d'un scénario.
Description détaillée
La figure 1 illustre schématiquement un système informatique 1 de génération de produits multimédias 10 adaptatifs selon un mode de réalisation de l'invention. Le système informatique 1 comprend une base de données 2 comprenant une mémoire dans laquelle est enregistré un ensemble de séquences vidéo 21 et au moins une bande son 22. Le système informatique 1 comprend également un serveur informatique 3 apte à communiquer avec la base de données 2. Le serveur informatique 3 (ou plus simplement un ordinateur) comprend notamment un microprocesseur 31, une interface de communication 32 permettant d'émettre et de recevoir des données, et une mémoire 33. Le système informatique 1 comprend en outre une interface homme-machine 4 également apte à communiquer avec le serveur informatique 3. L'interface homme-machine 4 comprend un microprocesseur 41, une interface de communication 42 permettant d'émettre et de recevoir des données, une mémoire 43 apte à enregistrer des produits programmes d'ordinateur, et des moyens d'interactions 44 avec un utilisateur de l'interface homme-machine 3, tels qu'un écran, et/ou un clavier, et/ou une souris d'ordinateur. Selon une variante de réalisation, la base de données 2 et/ou le serveur informatique 3 et/ou l'interface homme-machine 4 pourraient être le même et unique élément, notamment un unique et même ordinateur. Les mémoires 33 et 43 comprennent notamment un produit programme comprenant des instructions de code de programme permettant l'exécution d'un procédé selon un mode de réalisation de l'invention. Le système informatique 1 est apte à transmettre des informations à un terminal numérique 5. Le terminal numérique 5 peut être un support numérique quelconque, tel que par exemple un ordinateur de bureau, un ordinateur portable, une tablette ou un smartphone, voire même une télévision ou un écran disposé dans un espace public. Le terminal numérique 5 comprend notamment un microprocesseur 51, une interface de communication 52 permettant d'émettre et de recevoir des données, une mémoire 53, des moyens d'interaction 54 avec un utilisateur, ou spectateur. Ces moyens d'interaction 54 peuvent être par exemple un écran, notamment un écran tactile, un haut-parleur, une souris d'ordinateur, ou encore un clavier. La base de donnée 2, l'interface homme machine 4 et le terminal numérique 5 peuvent être reliés au serveur informatique 3 par une liaison filaire ou une liaison sans fil. Notamment ils peuvent être reliés entre eux via l'Internet.
D'une manière générale, la base de données 2, le serveur informatique 3 et l'interface homme-machine 4 sont des moyens matériels permettant la mise en œuvre d'un procédé de génération d'un produit multimédia adaptatif selon un mode de réalisation de l'invention. En variante, ces moyens matériels pourraient être différents. Tout ou partie des données nécessaires à la mise en œuvre du procédé de génération d'un produit multimédia pourrait être enregistrées sur un cloud selon une architecture dite "serverless". Les données pourraient être enregistrées et réparties sur un nombre quelconque de serveurs ou de moyens informatiques distants avec lesquels le terminal 5 peut communiquer.
En référence à la figure 2, Le produit multimédia 10 obtenu par ledit procédé de génération comprend une succession de séquences vidéo 21 et au moins une bande son 22 indépendante des séquences vidéo 21. Le produit multimédia, en l'espèce un produit audiovisuel, peut notamment être diffusé par le terminal numérique 5 : les séquences vidéo peuvent être affichées sur l'écran du terminal et la bande son peut être diffusée par son haut-parleur. La durée D1 du produit multimédia peut être de l'ordre de quelques minutes. Le produit multimédia peut avoir par exemple une durée comprise entre une minute et dix minutes, voire même entre une minute et vingt minutes, voire même une durée plus longue ou plus courte.
Le produit multimédia peut avoir un contenu narratif quelconque. En particulier, le contenu narratif du produit multimédia, c’est-à-dire le message ou l'histoire qu'il transmet peut être un contenu pédagogique, un contenu informationnel, un documentaire, un contenu de divertissement ou encore un contenu publicitaire. Lorsque le produit multimédia comprend un contenu pédagogique, il peut être destiné à enseigner un savoir ou une technique particulière à un spectateur. Lorsque le produit multimédia comprend un contenu informationnel ou publicitaire, il peut être, par exemple, destiné à informer le spectateur sur des possibilités d'activités dans une ville ou dans une région donnée. Il peut également être un guide d'achat pour aider un consommateur à choisir un produit particulier dans une gamme de produits. Selon un autre exemple, il peut être par exemple un reportage animalier. Le produit multimédia peut donc être utilisé par tout type d'industrie, notamment l'enseignement, le tourisme, les loisirs ou encore les biens de consommations. Les contenus narratifs de chacune des séquences vidéo composant un produit multimédia peuvent être indépendants les uns des autres. C'est à dire que chacune des séquences vidéo peut représenter une scénette indépendante des scénettes contenues dans les autres séquences vidéo. Avantageusement, ces scénettes sont néanmoins articulées autour d'un thème commun. Les séquences vidéo peuvent être diffusées selon un ordonnancement quelconque, c’est-à-dire que leur ordre de diffusion peut être modifié sans diminuer l'intelligibilité du produit multimédia. Lors de la diffusion du produit multimédia, l'ordonnancement des séquences vidéo peut être aléatoire ou obéir à un scénario prédéfini.
Les séquences vidéo sont des films ou animations dont la durée D2 peut avantageusement être comprise entre trois et douze secondes. Elles peuvent être constituées d'un ou plusieurs plans, c’est-à-dire d'une ou plusieurs prises de vues différentes. Avantageusement, les séquences vidéo en mémoire dans la base de données peuvent avoir toutes une durée D2 égale ou sensiblement égale entre elles, ce qui facilite le remplacement d'une séquence vidéo par une autre tout en conservant une durée D1 sensiblement identique dans le procédé de génération qui va être décrit.
Les séquences vidéo sont différentes les unes des autres, notamment, elles comportent des vues distinctes les unes des autres ou autrement dit un contenu narratif distinct les uns des autres. En particulier, les différentes séquences vidéo ne sont pas des versions avec des résolutions différentes d'un même contenu narratif. Toutefois, le produit multimédia généré par le procédé selon l'invention est compatible avec une diffusion avec la technologie, dite "adaptive streaming", c’est-à-dire une technologie permettant d'adapter la résolution du produit multimédia en fonction d'un débit d'information entre le terminal 5 et la base de données dans laquelle sont mémorisées les séquences vidéo.
Le produit multimédia est "adaptatif" dans la mesure ou son contenu narratif est adapté en fonction de certaines données en relation avec un spectateur du produit multimédia. Le spectateur est un utilisateur du terminal numérique 5, c’est-à-dire une personne positionnée de sorte à observer l'écran du terminal numérique et à interagir avec le terminal numérique, notamment via les moyens d'interaction 54. Le terme spectateur désigne donc un utilisateur du terminal numérique. En variante, le spectateur pourrait même désigner un groupe de personnes capables d'observer ensemble l'écran du terminal numérique.
Nous allons à présent décrire un mode de réalisation selon l'invention du procédé de génération d'un produit multimédia 10 adaptatif en référence à la figure 3. Le procédé de génération (ou autrement dit, le procédé de fabrication) du produit multimédia peut être décomposé en six étapes E1, E2, E3, E4, E5 et E6. Notamment, le procédé comprend une étape d'enregistrement E1 dans la mémoire 33 du serveur informatique 3 de données personnelles du spectateur et/ou de données contextuelles du spectateur. Le procédé comprend ensuite une étape E2 de sélection de séquences vidéo en fonction des données personnelles du spectateur et/ou de données contextuelles du spectateur. Le procédé comprend également une étape de génération E3 par le serveur informatique 3 d'un scénario du produit multimédia. Le procédé comprend aussi une étape de diffusion E4 à la volée desdites séquences vidéo sur le terminal numérique 5 en liaison avec le serveur informatique 3. Enfin le procédé comprend deux étapes E5 et E6 visant à améliorer et à adapter le procédé de génération au fur et à mesure de ses itérations. Les étapes E1 à E6 peuvent être exécutées séquentiellement, c’est-à-dire les unes après les autres et être renouvelées aussi souvent que nécessaire. Selon un aspect original de l'invention qui sera détaillé par la suite, les étapes E1 à E6 peuvent également être exécutées parallèlement les unes aux autres ou avec un léger décalage les unes par rapport aux autres, de sorte que le produit multimédia puisse être adapté en temps réel, c'est au dire au cours même de sa diffusion. Selon une autre variante de réalisation de l'invention les étapes E2 et E3 pourrait même être inversées, c’est-à-dire que c'est le scenario qui serait généré en fonction des données personnelles et/ contextuelles du spectateur, puis le scénario ainsi généré conduirait à la sélection de séquences vidéo mémorisées dans la base de données.
Lors de l'étape E1 des données personnelles et/ou contextuelles sont enregistrées dans la mémoire du serveur 3. Ces données peuvent être de différentes natures. Elles peuvent être des données personnelles du spectateur, c’est-à-dire des données permettant de caractériser le spectateur, notamment de caractériser les centres d'intérêt du spectateur. Les données personnelles peuvent être par exemple l'âge, les goûts, les préférences, ou le genre du spectateur. Les données peuvent également être des données contextuelles, c’est-à-dire des données relatives à un contexte dans lequel se trouve le spectateur à un instant donné. Par exemple, ces données peuvent être un lieu dans lequel se trouve le spectateur. Ces données peuvent par exemple permettre d'établir si le spectateur est chez lui, ou dans un lieu public, ou encore dans un lieu de passage. Ces données peuvent également être une caractérisation d'un moment de la journée (par exemple elles peuvent définir si on est le matin, le midi, l'après-midi, le soir ou la nuit au moment de l'exécution du procédé). Elles peuvent être une caractérisation d'un jour de la semaine particulier (s'agit-il d'un jour travaillé ou d'un jour chômé ?). Ces données peuvent encore être fonction des conditions météo lors de la mise en œuvre du procédé. Ces données peuvent aussi être le type de terminal numérique utilisé par le spectateur, par exemple ces données peuvent caractériser si le spectateur utilise un Smartphone, un ordinateur, ou un autre équipement informatique. Ces données peuvent également identifier une activité que le spectateur est en train de réaliser en parallèle de la consultation du terminal.
Les données contextuelles peuvent en particulier comprendre des données comportementales, c’est-à-dire relatives au comportement adopté par le spectateur, notamment sa manière d'interagir avec le terminal numérique. Les données comportementales peuvent mémoriser les actions de commande du spectateur sur le terminal numérique 5. Par exemple, elles peuvent mémoriser une action de déplacement d'une souris, un clic de souris, un appui sur une touche du terminal numérique, une sélection avec le doigt sur un écran tactile, une commande de défilement de l'écran au moyen de la molette d'une souris ou du doigt sur un écran tactile. Les données comportementales peuvent notamment comprendre l'identification d'une connexion à un site marchand, d'un achat ou d'un paiement. Elles peuvent aussi identifier un clic sur un bouton de type "like ou "unlike" ou une notation qui serait associée au produit multimédia pour partager un avis avec d'autres internautes.
Avantageusement, des capteurs du terminal numérique, tels qu'un capteur de de l'activation de boutons de commande, une caméra, ou même un microphone ou un accéléromètre pourraient aider à recueillir ces données. Des algorithmes peuvent être mis en œuvre pour traiter les données brutes fournies par ces capteurs afin de consolider ces données. Ces algorithmes peuvent être exécutés directement par le terminal numérique 5 ou bien par le serveur informatique 3 en lien avec le terminal numérique. En variante, ces données pourraient également être obtenues grâce à des cookies informatiques ou être fournies par une application tierce.
Les informations personnelles et contextuelles peuvent également être enregistrées grâce à une étape d'interrogation du spectateur au moyen d'un questionnaire, notamment d'un questionnaire à choix multiples. Ainsi le spectateur participe activement et volontairement au procédé de génération du produit audiovisuel. Le spectateur peut ainsi conserver la maîtrise des données qu'il renseigne et influer activement les adaptations réalisées par le serveur informatique 3 lorsqu'il génère un produit multimédia adaptatif ou personnalisé. Avantageusement, les questions posées au spectateur sont des questions à choix fermé. Ainsi, il est plus facile de standardiser le traitement de ces réponses et de les associer à des séquences vidéo en particulier, ce qui sera détaillé par la suite.
Dans une deuxième étape E2, on utilise (ou autrement dit, on "traite") les données personnelles et/ou contextuelles mémorisées lors de la première étape E1 pour sélectionner des séquences vidéos dans la base de donnée 2. Selon une première variante de réalisation, cette sélection peut être opérée en associant directement les données à des séquences vidéos. Pour cela, on peut définir une ou plusieurs tables de correspondance entre les séquences vidéo disponibles dans la base de données 2 et des données personnelles et/ou contextuelles. A cet effet, chaque séquence vidéo de la base de données peut comprendre un identifiant numérique enregistré dans la table de correspondance. En lien avec cet identifiant, on peut faire correspondre une ou plusieurs données personnelles et/ou contextuelles. En fonction des données personnelles et/ou contextuelles recueillies, on pourra ainsi sélectionner des séquences vidéo adaptées. La table ou les tables de correspondance peuvent être enregistrées dans la mémoire 33 du serveur informatique 3.
Selon une deuxième variante de réalisation, on peut utiliser un algorithme plus complexe pour sélectionner les séquences vidéos en fonction de plusieurs données personnelles et/ou contextuelles. L'algorithme peut servir par exemple à classer le spectateur dans une catégorie donnée. Il peut mettre en œuvre une technique dite de "zoning". Par exemple, le choix d'une séquence vidéo parmi un sous ensemble de séquence vidéo pourra être effectué à la fois en fonction de données personnelles et en fonction de données contextuelles. L'utilisation d'un tel algorithme permet de réaliser une sélection « intelligente » des séquences vidéos et selon des critères plus nombreux qui peuvent être librement choisis. L'algorithme peut par exemple exploiter des mécanismes d'intelligence artificielle et/ou exploiter un réseau de neurones.
En variante l'algorithme peut être utilisé non pas pour sélectionner des vidéos individuellement mais pour sélectionner un scénario particulier comprenant une sélection et un ordonnancement de séquences vidéo particulières Le scénario peut être sélectionné parmi un ensemble de scénarios possibles.
Par exemple, une donnée contextuelle prise en compte pour la génération du produit multimédia peut être une information relative aux conditions météorologiques. La base de données peut par exemple comprendre quatre séquences vidéo représentant un même paysage mais avec des conditions météorologiques différentes. Par exemple ces conditions météorologiques peuvent correspondre aux quatre saisons : printemps, été, automne et hiver. En utilisant une table de correspondance telle que définie précédemment, on peut sélectionner la séquence vidéo correspondant à une saison et/ou aux conditions météorologiques actuelles au moment où le spectateur visionne la vidéo. En utilisant un algorithme plus complexe, on peut sélectionner la séquence vidéo en fonction de plusieurs données : par exemple en fonction des centres d'intérêt du spectateur (eux-mêmes potentiellement déterminés à partir de plusieurs données collectées lors de l'étape E1), de son âge, et du jour de l'année. Selon un choix scénaristique, on peut également choisir de sélectionner une séquence vidéo comportant la condition météorologique opposée de données météo. Selon un autre exemple, la base de données peut comporter un ensemble de séquences vidéo relatives chacune à la pratique d'un sport donné. L'identifiant associé à ces séquences vidéo peut comprendre la mention de ce sport. Les données personnelles du spectateur peuvent comprendre l'information du sport préféré de l'utilisateur parmi les sports pour lesquels une séquence vidéo est disponible. Ensuite, la séquence vidéo correspondant au sport préférée pourra être sélectionnée dans l'étape de génération E3.
Dans l'étape de génération E3, on génère un scénario du produit multimédia. Le scénario comprend une sélection et un ordonnancement de séquences vidéo issues de la base de données 2. Le produit multimédia est donc le résultat de l'assemblage par juxtaposition de différentes séquences vidéo choisies dans la base de données parmi un plus grand nombre de séquences vidéo. Au moins une séquence vidéo 21 est sélectionnée dans la base de données en fonction desdites données personnelles et/ou desdites données contextuelles.
Comme évoqué précédemment, l'étape de génération E3 pourrait également consister en la génération d'un scénario particulier parmi une pluralité de scénarios possibles directement en fonction des données personnelles et/ou contextuelles de l'utilisateur.
La figure 4 illustre schématiquement la première étape E1, la deuxième étape E2 et la troisième étape E3. Trois données D1, D2 D3 relatives au spectateur sont enregistrées dans la mémoire 33 du serveur informatique 3. Ces données sont ensuite utilisées par un algorithme A1. L'exécution de l'algorithme A1 conduit à la sélection de cinq séquences vidéos 21a, 21b, 21c, 21d, 21e particulières parmi l'ensemble de séquences vidéo 21 disponibles dans la base de donnée 2. Les séquences vidéo 21a, 21b, 21c, 21d et 21e sont ensuite intégrées dans le produit multimédia. Le produit multimédia peut être complété par d'autres séquences vidéo 21 sélectionnées arbitrairement ou aléatoirement. La position des séquences vidéo 21a, 21b, 21c, 21d et 21e peut être définie aléatoirement ou bien selon un ordonnancement prévu.
Certaines séquences vidéo 21 constituant le produit multimédia peuvent être sélectionnées aléatoirement ou de manière prédéfinie, c’est-à-dire arbitrairement. Ces séquences vidéo sont donc sélectionnées indépendamment de toute donnée personnelle ou contextuelle du spectateur. L'avantage de choisir certaines séquence vidéo arbitrairement est de simplifier le procédé de génération puisqu'il suffit d'intégrer toujours la même séquence vidéo au produit multimédia pour obtenir une durée totale du produit multimédia plus importante sans augmenter le nombre de données personnelles et/ou contextuelles. L'intérêt de choisir aléatoirement certaines séquences vidéo est de rendre chaque produit multimédia unique. Selon toute probabilité, le spectateur ne pourra pas consulter deux fois exactement le même produit multimédia, même si ses données personnelles et contextuelles demeurent inchangées. Le spectateur pourra ainsi être incité à relancer le procédé de génération pour obtenir un produit multimédia différent du précédent. Le nouveau produit multimédia généré sera aussi adapté à sa personne et/ou à son contexte. Les séquences vidéo sélectionnées aléatoirement peuvent être sélectionnées parmi l'ensemble des séquences vidéo disponibles dans la base de données ou bien être sélectionnées parmi un sous-ensemble plus restreint des séquences vidéos mémorisées dans la base de données. En remarque, on peut obtenir un produit multimédia différent en utilisant les mêmes séquences vidéo mais en changeant simplement leur ordonnancement.
Plus précisément, pour la génération du scénario, on peut dans un premier temps définir une structure du produit multimédia, ou autrement dit un séquencement temporel du produit multimédia en périodes consécutives. Ensuite chacune de ces périodes peut être associée à une séquence vidéo. En fonction des périodes considérées, les séquences vidéo peuvent être sélectionnées en fonction desdites données personnelles et/ou desdites données contextuelles et grâce à un algorithme ou à une table de correspondance, ou bien sélectionnées de manière prédéfinie ou encore aléatoirement. Grâce à ce mode de construction on obtient un très grand nombre de scénarios différents. Le nombre de scénarios différents est fonction à la fois du nombre de périodes, c'est-à-dire du nombre N de séquences différentes que peut comporter le produit multimédia ainsi que du nombre P de séquences vidéo différentes dans la base de données 2. Le nombre de scénarios différents peut être égal à P à la puissance N. Toutefois, on peut imposer qu'un scénario donné ne comprenne pas deux fois la même séquence. Dans ce cas, le nombre de scénarios différents possible peut être calculé avec une loi binomiale et est égal à P!/(N!(P-N)!).
A titre d'exemple, si la base de données comprend vingt séquences vidéo, le nombre de scénarios comprenant six séquences vidéo distinctes et issues de cette base de donnée est égal à 38760. Il existe donc 38760 scénarios différents pour un produit multimédia d'une durée d'une minute et obtenu par l'assemblage de six séquences vidéo de dix secondes chacune. Quand que le nombre de séquences vidéo disponibles dans la base de données augmente linéairement, le nombre de scénarios différents augmente exponentiellement.
Avantageusement, les séquences vidéo du produit multimédia ont une durée supérieure ou égale à trois secondes et inférieure ou égale à douze secondes. La durée minimale de trois secondes permet de délivrer un contenu narratif significatif. Autrement dit, cette durée minimale permet au cerveau humain de comprendre un concept sans effort excessif. En assemblant des séquences vidéo comprenant une durée de trois secondes au minimum, on évite de changer trop fréquemment de contenu narratif ce qui limite la fatigue mentale du spectateur. Une durée maximale de douze secondes permet d'avoir un nombre important de séquences vidéo dans un produit multimédia tout en conservant une durée totale raisonnable. On a donc un nombre important de scénarios différents sans pour autant avoir une durée totale du produit multimédia trop longue.
On remarque qu'une durée comprise entre trois et douze secondes correspond grosso modo à la durée de prononciation d'une phrase. Une phrase simple peut être prononcée en environ trois secondes. Une phrase complexe peut nécessiter jusqu'à douze secondes pour être prononcée. Le procédé de génération peut donc être vu comme un assemblage de phrases distinctes, les phrases prenant la forme de séquences vidéo. Lorsque le produit multimédia se rapporte à un contenu pédagogique, on peut ainsi obtenir un assemblage de phrases produisant un récit d'une durée totale maitrisée et comportant des parties personnalisées et/ou adaptées au contexte de l'utilisateur. Si le récit comprend des exemples pour illustrer une théorie, ces exemples pourront avantageusement être sélectionnés en fonction des données personnelles et/ou contextuelles du spectateur, notamment en fonction d'un niveau de connaissance du spectateur.
A l'issue de l'étape de génération E3, on a défini quelles séquences vidéo constituent le produit multimédia et selon quel ordre elles vont être diffusées. Toutefois, on ne compile pas un unique fichier informatique regroupant les différentes séquences vidéo. Le produit multimédia n'est donc pas enregistré en tant que tel dans la mémoire du serveur informatique, mais il est assemblé à la volée.
Lors de l'étape de diffusion E4, on diffuse les séquences vidéo à la volée. Les séquences vidéo préalablement sélectionnées sont envoyées au terminal numérique 5 selon l'ordonnancement défini lors de l'étape de génération E3. Les séquences vidéo peuvent être envoyées directement depuis la base de donnée 2 vers le terminal numérique 5 selon le scénario prédéfini. Chaque séquence vidéo est envoyée juste à temps pour être réceptionnée par le terminal 5 avant d'être diffusée à la suite de la séquence vidéo précédente, sans interruption. La succession de séquences vidéos distinctes est donc imperceptible pour le spectateur. Un protocole de communication peut être utilisé entre le serveur informatique 3 et le terminal numérique 5 pour déclencher l'émission par le serveur numérique de chaque séquence vidéo. On peut notamment tenir compte d'un débit de données possible entre le serveur et le terminal. On peut également prévoir une mémoire tampon dans la mémoire du terminal pour pallier aux aléas de débit entre le serveur et le terminal.
La sélection d'une séquence vidéo dans la base de données 2 peut être réalisée juste avant que la séquence vidéo ne doivent être émise vers le terminal numérique. On peut ainsi retarder le processus de sélection et bénéficier des données personnelles et/ou contextuelles les plus à jour possible. Le scénario du produit multimédia peut donc être généré (ou modifié) au fur et à mesure de la diffusion du produit multimédia. De manière générale, les étapes E1, E2 et E3 définies précédemment peuvent être exécutées ou poursuivies parallèlement à l'étape de diffusion E4.
Il n'est pas nécessaire de compiler ou de créer un fichier informatique qui comprendrait la concaténation des différentes séquences vidéo. Une capacité de stockage supplémentaire de la base de données n'a pas besoin d'être prévue pour stocker un fichier résultant de la combinaison de plusieurs séquences vidéo. A plus forte raison, la base de données, ne doit pas être prévue pour stocker l'ensemble des combinaisons possibles de séquences vidéo. On peut ainsi parvenir à proposer un très grand nombre de produits multimédia différents tout en utilisant des capacités de stockage limitées. Considérée individuellement, chaque séquence peut être non personnalisée et non adaptée au spectateur. C'est la sélection et l'ordonnancement des séquences vidéo qui est adaptée au spectateur.
Pour diffuser les séquences vidéo à la volée, on peut s'appuyer sur des protocoles de streaming vidéo existant. Notamment, on peut utiliser la technologie dénommée DASH (acronyme de "Dynamic Adaptive Streaming over HTTP") et/ou sur la technologie dénommée HLS (acronyme de "HTTP Live Streaming"). En particulier, ces protocoles de streaming vidéo prévoient des possibilités d'interrompre la diffusion d'une vidéo pour y insérer des annonces publicitaires. Ce mécanisme d'interruption, initialement prévu pour insérer des annonces publicitaires, peut être adapté pour déclencher la diffusion d'une séquence vidéo suivante. La diffusion du produit multimédia ne requiert pas l'installation préalable d'un programme ou d'un dispositif matériel ou logiciel permettant de mettre en œuvre l'encodage ou le décodage d'un flux de données numérique sur le terminal numérique. De préférence, la diffusion du produit multimédia n'est pas interrompue par une annonce publicitaire. Notamment, la diffusion du produit multimédia n'est de préférence pas interrompue par la diffusion d'une vidéo qui n'aurait pas fait l'objet d'une sélection lors de la troisième étape E3 ou lors d'une itération de la troisième étape E3.
Une diffusion à la volée des séquences vidéo permet en outre d'adapter le contenu du produit multimédia alors même que sa diffusion a déjà commencé. En effet, alors que la première ou les premières séquences vidéo du produit multimédia sont diffusées sur le terminal numérique, on peut enregistrer dans la mémoire du serveur informatique de nouvelles données personnelles et/ou de nouvelles données contextuelles. Ces données peuvent remplacer les données précédemment connues ou simplement les compléter. L'étape d'enregistrement des données E1 peut donc être réalisée ou poursuivie au cours de la diffusion des premières séquences vidéo. Ensuite, au moins une deuxième séquence vidéo peut être sélectionnée dans la base de données en fonction des nouvelles données personnelles et/ou des nouvelles données contextuelles enregistrées dans la mémoire du serveur informatique. Pour ce faire, on pourra utiliser un algorithme ou une table de correspondance telle que décrits précédemment. La ou les séquences vidéo ainsi sélectionnées peuvent ensuite être diffusées sur le terminal numérique à la suite des premières séquences vidéo et sans interruption. Cette ou ces séquences vidéo peuvent éventuellement remplacer une ou plusieurs séquences vidéo préalablement sélectionnées ou, en variante, s'intercaler entre deux séquences vidéo préalablement sélectionnées, ce qui aura pour effet de rallonger la durée totale de diffusion du produit multimédia. Inversement, le produit multimédia peut être raccourci en supprimant au cours de sa diffusion des séquences vidéo du scénario. Par exemple, l'algorithme mis en œuvre lors de l'étape E2 peut conduire à détecter un comportement impatient du spectateur. Dans cette hypothèse, la durée du produit multimédia peut être écourtée. En outre, le scenario peut ne pas être défini entièrement alors que la diffusion des premières séquences vidéo a débuté. La définition du scénario réalisée lors de la troisième étape E3 peut être poursuivie et complétée après la diffusion des premières séquences vidéo.
Le procédé de génération comprend également un ensemble d'étapes E5, E6 permettant de calculer un indice de performance des différentes séquences vidéo et/ou des différents scénarios. L'indice de performance peut être une note ou une évaluation attribuée à chaque séquence vidéo, respectivement à chaque scénario. Cette note mesure l'impact de la séquence vidéo, ou respectivement du scénario, sur le spectateur.
Par exemple, dans un premier temps, on diffuse des premières séquences vidéo sur le terminal numérique. Dans une étape E5, on enregistre dans la mémoire du serveur informatique des données relatives à un comportement de l'utilisateur au cours de la diffusion de ces premières séquences vidéo, ou postérieurement à la diffusion des premières séquences vidéo. En particulier, on peut enregistrer une éventuelle interruption volontaire de la diffusion du produit multimédia. On peut également enregistrer le fait que le produit multimédia ait été regardé jusqu'au bout, voire que la diffusion du produit multimédia ait entraîné une action particulière sur le terminal numérique, comme par exemple un achat ou un paiement.
Ensuite, dans l'étape E6 on calcule un indice de performance des premières séquences vidéo en fonction des données relatives au comportement de l'utilisateur. Si le spectateur a eu le comportement espéré ou attendu on peut augmenter l'indice de performance et au contraire, s'il n'a pas eu le comportement espéré, on peut diminuer l'indice de performance.
Par exemple, l'indice de performance des premières séquences vidéo déjà diffusées alors que la diffusion du produit multimédia a été interrompue par le spectateur peut être diminué d'une certaine valeur. On peut au choix abaisser l'indice de performance de l'ensemble des séquences vidéo déjà diffusées, abaisser l'indice de performance uniquement de la séquence vidéo en cours de diffusion au moment de l'interruption. Ou encore, on peut réduire l'indice de performance de l'ensemble des séquences vidéo déjà diffusées selon des proportions différentes en fonction de leurs positions respectives dans le produit multimédia.
Au contraire, l'indice de performance des séquences vidéo constituant un produit multimédia diffusé et regardé entièrement peut être augmenté d'une certaine valeur. On parvient ainsi à évaluer la performance de chacune des séquences vidéo au fur et à mesure que le procédé de génération est renouvelé.
En variante, le calcul de l'indice de performance pourrait également être fondé sur un questionnaire, notamment un questionnaire à choix multiples, soumis au spectateur à la fin de la diffusion. Le calcul de l'indice de performance pourrait également être fondé sur la comptabilisation de clics sur des boutons de type "like" ou "unlike", ou bien encore sur une note attribuée par le spectateur.
Ultérieurement, lors d'une itération ultérieure du procédé de génération, les séquences vidéo pourront être sélectionnées non seulement en fonction des données personnelles et/ou contextuelles d'un nouvel utilisateur, mais également en fonction de l'indice de performance préalablement calculé. L'indice de performance de chaque séquence vidéo peut être intégré comme entrée de l'algorithme défini lors de l'étape E2 ou dans la table de correspondance définie lors de l'étape E2. Par exemple si plusieurs séquences vidéo correspondent à une même donnée personnelle et/ou contextuelle, on pourra sélectionner celle qui comprend le meilleur indice de performance. Les séquences vidéo comprenant un indice de performance plus faible pourront être retirées de la base de données ou bien être réutilisées, mais plus rarement, pour pouvoir être réévaluées. On obtient ainsi une évaluation en continue de la performance des séquences vidéo. Le procédé de génération est donc un procédé asservi. Les produits multimédias générés par le procédé s'améliorent donc au fur et à mesure de ses répétitions.
Le même principe d'évaluation peut être utilisé en alternative ou en complément pour évaluer non pas les séquences vidéos individuellement mais des scenarios de contenus multimédias. De la même manière que précédemment, on peut construire un indice de performance pour chaque scénario possible. Cet indice de performance peut être incrémenté ou décrémenté en fonctions des réactions favorables ou défavorables de l'utilisateur. L'indice de performance de chaque scénario ainsi calculé peut être intégré comme donnée d'entrée de l'étape E3. Ce système d'évaluation d'un scénario sera particulièrement avantageux dans le cas où un scénario particulier est sélectionné parmi une pluralités de scénarios possibles en fonction des données personnelles et/ou contextuelles de l'utilisateur. On parvient ainsi grâce aux itérations successives du procédé de génération à identifier les scénarios les plus performants, c’est-à-dire ceux l'indice de performance est le plus élevé. Les étapes E5 et E6 peuvent être exécutées en parallèle de la diffusion des premières séquences vidéo. Ainsi, on peut prévoir une modification du scenario au cours de sa diffusion si son indice de performance devait devenir trop faible. Autrement dit, si on détecte que l'utilisateur manifeste un désintérêt pour les premières séquences vidéos diffusées, on peut modifier la suite du scénario pour regagner l'attention de l'utilisateur.
Avantageusement, chaque séquence vidéo peut être dépourvue d'une bande son. Chaque séquence vidéo est donc muette. Ainsi, on peut assembler les séquences vidéo librement, et éventuellement les intervertir, sans se préoccuper de la cohérence sonore entre les différentes séquences vidéo. Une bande son indépendante des séquences vidéo peut ensuite être sélectionnée dans la base de donnée et envoyée au terminal numérique en vue d'être diffusée parallèlement à la diffusion des séquences vidéo. La bande son peut comprendre par exemple un morceau de musique ou la récitation d'un texte. Avantageusement, la bande son peut également être sélectionnée parmi un vaste choix de bandes son préalablement enregistrées dans la base de donnée. La diffusion des séquences vidéo adaptée pourra ainsi être accompagnée de la diffusion d'une bande son adaptée. Par exemple, si les données personnelles du spectateur comportent une indication sur l'âge du spectateur, on pourra sélectionner une bande son en fonction d'un critère sur l'âge de l'utilisateur. En variante, le produit multimédia pourrait être accompagné toujours de la même bande son. Le produit multimédia pourrait aussi être un film dépourvu de bande son, c’est-à-dire être un film muet. Les bandes sons associées aux séquences vidéo pourrait aussi être diffusées ou non diffusées en fonction des données personnelles et/ou contextuelles. Par ailleurs, il est également possible d'associer une bande son distincte à chaque séquence vidéo. De la même manière qu'on sélectionne et qu'on diffuse les séquences vidéos à la volée, on peut sélectionner et diffuser à la volée les différentes bandes son, et ce en fonction des données personnelles et/ou contextuelles du spectateur.
Le procédé de génération peut également prévoir une interruption de la diffusion par ledit terminal numérique d'une ou plusieurs séquences vidéo issue de la base de données de sorte à diffuser sur ledit terminal numérique une nouvelle séquence vidéo. L'interruption d'une séquence vidéo est moins perceptible pour le spectateur que l'interruption de la bande son car contrairement à une bande son, la succession des séquences vidéo ne doit pas nécessairement respecter un rythme spécifique. Une telle interruption peut permettre de synchroniser la bande son avec les séquences vidéo. Par exemple, le rythme de la bande son peut ainsi être bien synchronisé avec un changement de plan vidéo. Grâce à une interruption de la diffusion des séquences vidéo, on peut également modifier la fréquence selon laquelle les séquences vidéo se succèdent. Une durée D2 des séquences vidéo plus ou moins longue peut être ajustée en fonction des données personnelles et contextuelles. La bande son pourra également être sélectionnée en fonction de la durée D2. Par exemple, une chanson plus vive peut être associée à une durée D2 courte et donc à un renouvellement rapide des séquences vidéo. Une chanson plus douce peut être associée à une durée D2 plus longue et donc à un renouvellement moins fréquent des séquences vidéo.
Le procédé de génération qui vient d'être décrit peut être configuré simplement par un annonceur souhaitant diffuser un message adapté ou personnalisé à des spectateurs. Pour cela l'annonceur peut utiliser l'interface homme machine 4 en liaison avec le serveur. Tout d'abord, il peut enregistrer un ensemble de séquences vidéo dans la base de données. Ensuite, il peut définir les données personnelles et/ou contextuelles sur lesquelles il compte s'appuyer pour adapter le produit multimédia. Puis, il peut associer à chaque séquence vidéo issue de la base de donnée au moins une donnée personnelle et/ou contextuelle, ce qui permettra à la séquence vidéo d'être sélectionnée lors de l'étape de génération du scénario. Il peut également programmer un algorithme plus complexe conduisant à la sélection de séquences vidéos en fonction de plusieurs données personnelles et/ou contextuelles.
La génération du scénario peut être présentée sur l'interface homme machine 4 sous la forme d'un diagramme représenté à titre d'exemple sur la figure 5. Le produit audiovisuel est découpé en périodes représentées sur cette figure par des colonnes. Sur la figure 5, on a représenté à titre d'exemple cinq colonnes C1, C2, C3, C4, C5 : le produit audiovisuel sera donc constitué de l'assemblage de cinq séquences vidéo. Les séquences vidéo sont représentées par des rectangles. Pour chaque flèche du diagramme on peut associer une condition qui sera vérifiée ou non vérifiée en fonction des données personnelles et/ou contextuelles du spectateur. On définit un scénario en suivant un chemin particulier conduisant de la première colonne C1 à la dernière colonne C5. La génération d'un scénario particulier consiste donc à linéariser le diagramme de la figure 5 : pour chacune des colonnes du diagramme, une séquence vidéo particulière est sélectionnée. Ainsi, le scénario correspond à une ligne particulière du diagramme, la ligne reliant les différentes colonnes. Par exemple, la séquence vidéo S1 associée à la première période peut être définie arbitrairement. Elle sera donc commune à tous les produits audiovisuels obtenus par cet exemple de réalisation. La deuxième séquence vidéo sera définie parmi trois séquences vidéo possibles S21, S22, S23 en fonction d'une première donnée ou d'un premier ensemble de données personnelles et/ou contextuelles. La troisième séquence S3 peut être définie aléatoirement. Elle peut donc être choisie parmi n'importe laquelle des séquences vidéo disponibles dans la base de donnée, idéalement parmi les séquences vidéo qui ne sont pas déjà utilisée pour la réalisation de ce produit multimédia. La quatrième séquence vidéo sera définie parmi deux séquences vidéo S41, S42 possibles en fonction d'une deuxième donnée ou d'un deuxième ensemble de données personnelles et/ou contextuelles. La cinquième séquence sera définie parmi quatre séquences vidéo S51, S52, S53, S54 possibles en fonction d'une troisième donnée ou d'un troisième ensemble de données personnelles et/ou contextuelles et en fonction de la quatrième séquence vidéo sélectionnée. En suivant un tel diagramme, on peut donc réaliser douze scénarios différents.
L'utilisation d'une interface graphique sous forme de diagramme permet de définir simplement et intuitivement le mode de mise en œuvre du procédé de génération. La personne en charge de la configuration du procédé de génération peut ainsi facilement définir les conditions conduisant au choix de telle ou telle séquence vidéo. Le procédé peut ainsi être mis en œuvre par des personnes sans connaissances en informatique très pointues.
Le mode de réalisation de l'invention qui vient d'être décrit repose sur un produit multimédia obtenu par la juxtaposition de différentes séquences vidéo. En variante, le mode de réalisation précédemment décrit pourrait être adapté pour être appliqué à un produit multimédia différent. Le produit multimédia, pourrait ne comprendre aucune séquence vidéo mais la juxtaposition de plusieurs bandes son sélectionnées et diffusées comme décrit précédemment. Le produit multimédia pourrait également être un texte dans lequel les phrases correspondent aux séquences vidéo décrites précédemment. Le produit multimédia pourrait également être une bande dessinée dans lequel les cases correspondent aux séquences vidéo décrites précédemment. Selon d'autres modes de réalisation le produit multimédia pourrait être toute autre forme de produit multimédia et solliciter d'autres sens humains : notamment l'odorat, le toucher, le goût. Le produit multimédia pourrait également être un film en trois dimensions ou un film destiné à un visionnage au moyen d'un casque de réalité virtuelle.
Grâce à l'invention on parvient à générer des produits multimédias adaptés à un spectateur et/ou au contexte dans lequel il se trouve. Le procédé ne requiert pas de capacités de stockage d'information très importante et il est simple à mettre en œuvre.

Claims (15)

  1. Procédé de génération d'un produit multimédia (10) adaptatif, caractérisé en ce qu'il comprend :
    - une étape d'enregistrement (E1) dans une mémoire (E33) d'un serveur informatique (3) de données personnelles d'un spectateur et/ou de données contextuelles d'un spectateur (D1, D2, D3),
    - une étape de sélection (E2) de séquences vidéo de séquences vidéo (21) issues d'une base de données (2), la base de données étant en liaison avec le serveur informatique (3), l'étape de sélection étant réalisée en fonction desdites données personnelles du spectateur et/ou desdites données contextuelles du spectateur,
    - une étape de génération (E3) par le serveur informatique (3) d'un scénario du produit multimédia, le scénario comprenant un ordonnancement desdites séquences vidéo (21), et
    - une étape de diffusion (E4) à la volée desdites séquences vidéo (21) sur un terminal numérique (5), le terminal numérique (5) étant en liaison avec le serveur informatique (3).
  2. Procédé de génération selon la revendication précédente, caractérisé en ce que les séquences vidéo (21) du produit multimédia (10) ont une durée (D2) supérieure ou égale à trois secondes et inférieure ou égale à douze secondes.
  3. Procédé de génération selon l'une des revendications précédentes, caractérisé en que les données contextuelles comprennent des données relatives à un comportement d'un spectateur.
  4. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce qu'il comprend :
    - une étape de diffusion (E4) de premières séquences vidéo (21) sur le terminal numérique (5),
    - une étape d'enregistrement (E5) dans la mémoire du serveur informatique de données relatives à un comportement de l'utilisateur au cours de la diffusion de premières séquences vidéo, ou postérieurement à la diffusion des premières séquences vidéo,
    - une étape de calcul (E6) d'un indice de performance des premières séquences vidéo en fonction desdites données relatives au comportement de l'utilisateur,
    - une étape de sélection (E2) desdites premières séquences vidéo en fonction de l'indice de performance des premières séquences vidéos lors d'une itération ultérieure du procédé de génération.
  5. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce qu'il comprend :
    - une étape de diffusion (E4) de premières séquences vidéo (21) sur le terminal numérique (5),
    - une étape d'enregistrement (E5) dans la mémoire du serveur informatique de données relatives à un comportement de l'utilisateur au cours de la diffusion de premières séquences vidéo, ou postérieurement à la diffusion des premières séquences vidéo,
    - une étape de calcul (E6) d'un indice de performance du scénario du produit multimédia en fonction desdites données relatives au comportement de l'utilisateur,
    - une étape de génération (E3) d'un scenario en fonction de l'indice de performance du scénario lors d'une itération ultérieure du procédé de génération.
  6. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce qu'il comprend :
    - une étape de diffusion (E4) de premières séquences vidéo (21) du produit multimédia (10) sur le terminal numérique (5),
    - une étape d'enregistrement (E1) dans la mémoire (E33) du serveur informatique (E3) de données personnelles et/ou de données contextuelles, cette étape d'enregistrement (E1) étant réalisée au cours de la diffusion des premières séquences vidéo,
    - une étape de sélection (E2) d'au moins une deuxième séquence vidéo dans la base de données en fonction des données personnelles et/ou des données contextuelles enregistrées dans la mémoire (33) du serveur informatique (3) au cours de l'étape de diffusion des premières séquences vidéo,
    - une étape de diffusion (E4) de ladite deuxième séquence vidéo sur ledit terminal numérique (5).
  7. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce que l'étape d'enregistrement (E1) de données personnelles et/ou de données contextuelles (D1, D2, D3) comprend une interrogation du spectateur au moyen d'un questionnaire à choix multiples.
  8. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce que, lors de ladite étape de sélection (E2), au moins une séquence vidéo est sélectionnée arbitrairement ou aléatoirement dans la base de données (2) puis associée au scénario du produit multimédia.
  9. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce que chaque séquence vidéo (21) est dépourvue d'une bande son, et en ce que qu’il comprend une étape de sélection d'une bande son (22), la bande son (22) étant indépendante des séquences vidéo.
  10. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce que l'étape de sélection (E2) comprend l'utilisation d'une table de correspondance entre des données personnelles et/ou des données contextuelles (D1, D2, D3) d'un spectateur d'une part et des séquences vidéo (21) de la base de données (2) d'autre part.
  11. Procédé de génération selon l'une des revendications précédentes, caractérisé en ce que l'étape de sélection (E2) comprend l'exécution d'un algorithme (A1) de sélection d'au moins une séquence vidéo (21) en fonction de plusieurs données personnelles et/ou contextuelles (D1, D2, D3) d'un spectateur.
  12. Procédé de génération d'un produit multimédia adaptatif, caractérisé en ce qu'il comprend :
    - une étape d'enregistrement dans une mémoire d'un serveur informatique de données personnelles d'un spectateur et/ou de données contextuelles d'un spectateur,
    - une étape de sélection de bandes son de séquences vidéo issues d'une base de données, la base de données étant en liaison avec le serveur informatique, l'étape de sélection étant réalisée en fonction desdites données personnelles du spectateur et/ou desdites données contextuelles du spectateur,
    - une étape de génération par le serveur informatique d'un scénario du produit multimédia, le scénario comprenant un ordonnancement desdites bandes son, et
    - une étape de diffusion à la volée desdites bandes son sur un terminal numérique, le terminal numérique étant en liaison avec le serveur informatique.
  13. Produit programme d’ordinateur comprenant des instructions de code de programme enregistrées sur un support lisible par ordinateur pour mettre en œuvre les étapes du procédé de génération selon l’une quelconque des revendications 1 à 12 lorsque ledit programme fonctionne sur un ordinateur.
  14. Support d’enregistrement de données (33), lisible par un ordinateur, sur lequel est enregistré un programme d’ordinateur comprenant des instructions de code de programme de mise en œuvre du procédé de génération selon l’une des revendications 1 à 12.
  15. Système informatique (1) de génération de produits multimédias adaptatifs, caractérisé en ce qu'il comprend :
    - au moins une base de données (2) comprenant un ensemble de séquences vidéo (21), et
    - un serveur informatique (3) apte à communiquer avec la base de données, le serveur informatique contenant un produit programme selon la revendication 13.
FR1906191A 2019-06-11 2019-06-11 Procédé de génération d'un produit multimédia adaptatif Active FR3097394B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1906191A FR3097394B1 (fr) 2019-06-11 2019-06-11 Procédé de génération d'un produit multimédia adaptatif

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1906191A FR3097394B1 (fr) 2019-06-11 2019-06-11 Procédé de génération d'un produit multimédia adaptatif
FR1906191 2019-06-11

Publications (2)

Publication Number Publication Date
FR3097394A1 true FR3097394A1 (fr) 2020-12-18
FR3097394B1 FR3097394B1 (fr) 2021-06-25

Family

ID=67999886

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1906191A Active FR3097394B1 (fr) 2019-06-11 2019-06-11 Procédé de génération d'un produit multimédia adaptatif

Country Status (1)

Country Link
FR (1) FR3097394B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140149867A1 (en) * 2010-10-14 2014-05-29 Rapt Media, Inc. Web-based interactive experience utilizing video components
US20150294685A1 (en) * 2014-04-10 2015-10-15 JBF Interlude 2009 LTD - ISRAEL Systems and methods for creating linear video from branched video
US20160225187A1 (en) * 2014-11-18 2016-08-04 Hallmark Cards, Incorporated Immersive story creation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140149867A1 (en) * 2010-10-14 2014-05-29 Rapt Media, Inc. Web-based interactive experience utilizing video components
US20150294685A1 (en) * 2014-04-10 2015-10-15 JBF Interlude 2009 LTD - ISRAEL Systems and methods for creating linear video from branched video
US20160225187A1 (en) * 2014-11-18 2016-08-04 Hallmark Cards, Incorporated Immersive story creation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "En quoi la vidéo personnalisée est le meilleur moyen de booster ses taux de conversion web - SkewerLab : la vidéo ultra-personnalisée", 29 July 2018 (2018-07-29), XP055671049, Retrieved from the Internet <URL:https://skewerlab.com/en-quoi-la-video-personnalisee-est-le-meilleur-moyen-de-booster-ses-taux-de-conversion-web/> [retrieved on 20200221] *

Also Published As

Publication number Publication date
FR3097394B1 (fr) 2021-06-25

Similar Documents

Publication Publication Date Title
US20230412412A1 (en) Systems and methods for virtual interactions
Markman et al. Why pod? Further explorations of the motivations for independent podcasting
RU2646367C2 (ru) Определение будущего участка представляемой в данный момент медийной программы
US20130268955A1 (en) Highlighting or augmenting a media program
US20090013263A1 (en) Method and apparatus for selecting events to be displayed at virtual venues and social networking
US20020049783A1 (en) Interactive multimedia content builder
TW201242341A (en) Data highlighting and extraction
Crick Power, Surveillance, and Culture in YouTube™'s Digital Sphere
WO2022147221A1 (fr) Système et processus pour génération, publication, distribution et découverte de contenu numérique collaboratif
FR3049418A1 (fr) Procede et dispositif de controle du reglage d&#39;au moins un parametre audio et/ou video, terminal et programme d&#39;ordinateur correspondants
Balakhonskaya et al. “Newstalgia” as Digital Marketing Communication Strategy
Zamora-Medina Politainment as dance: visual storytelling on TikTok among Spanish political parties
FR3097394A1 (fr) Procédé de génération d&#39;un produit multimédia adaptatif
FR2973133A1 (fr) Procedes d’actualisation et de creation de profils d&#39;utilisateur, de recommandation de contenu et de construction d&#39;une liste de contenus
Kendrat et al. I want my youtube! Trends in early youth-created music videos (2007–2013)
Braun " Dance like nobody's paying": Spotify and Surveillance as the Soundtrack of Our Lives
Khokhlova Opera houses online: marketing sophisticated Art in the age of big data and social media
Lordin Consumer engagement during concerts: A study on using mobile interactive technology to enhance the live music event experience
Feisthauer Reconsidering Contemporary Music Videos
Wijnants et al. Stay Tuned! An Investigation of Content Substitution, the Listener as Curator and Other Innovations in Broadcast Radio
US20220109911A1 (en) Method and apparatus for determining aggregate sentiments
Stefan et al. Generative Music Video Composition: Using automation to extend creative practice
Forst Crowdfunding: Prosocial motivations of funders participating in music campaigns
WO2001088753A1 (fr) Procede et systeme d&#39;acces a un ensemble d&#39;informations stockees dans une base de donnees et relatives a un evenement actuel ou passe, en particulier une chanson diffusee par une station de radiodiffusion
EP4270905A1 (fr) Procede de geolocalisation d&#39;une action d&#39;un utilisateur ou de l&#39; avatar d&#39;un utilisateur dans un environnement respectivement reel ou virtuel

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20201218

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5