FR3043521A1 - Generation automatique de contenu audiovisuel - Google Patents

Generation automatique de contenu audiovisuel Download PDF

Info

Publication number
FR3043521A1
FR3043521A1 FR1560676A FR1560676A FR3043521A1 FR 3043521 A1 FR3043521 A1 FR 3043521A1 FR 1560676 A FR1560676 A FR 1560676A FR 1560676 A FR1560676 A FR 1560676A FR 3043521 A1 FR3043521 A1 FR 3043521A1
Authority
FR
France
Prior art keywords
content
search
visual
data
multimedia
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1560676A
Other languages
English (en)
Inventor
Christine Kuster
Catherine Colomes
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1560676A priority Critical patent/FR3043521A1/fr
Publication of FR3043521A1 publication Critical patent/FR3043521A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

L'invention concerne la génération automatique de contenu audiovisuel. En particulier, la génération de contenu audiovisuel en réponse à une préparation de voyage. Un objet de l'invention est un générateur automatique de contenus audiovisuels à partir d'au moins un contenu visuel comportant un moteur de recherche d'ambiance, d'au moins un contenu multimédia dans au moins une base de contenus en fonction de données de perception d'au moins un contenu visuel et de données de perception des contenus multimédia de ladite au moins une base de contenus, le contenu multimédia fourni par le moteur de recherche d'ambiance étant mixé audit au moins un contenu visuel, le contenu mixé étant intégré à un contenu audiovisuel. Ainsi, le moteur de recherche d'ambiance fourni au moins un contenu multimédia cohérent en terme d'ambiance avec le contenu visuel de départ permettant de générer un contenu audiovisuel cohérent en terme d'ambiance.

Description

GENERATION AUTOMATIQUE DE CONTENU AUDIOVISUEL L'invention concerne la génération automatique de contenus audiovisuels. En particulier, la génération de contenus audiovisuels en réponse à une préparation de voyage.
Aujourd’hui, les interfaces informatiques de contenus visuels proposent, dans le cas de recherche de contenus visuels, ou de présentation de stock de photos... de fournir des listes ou pages d’images, notamment résultants de recherche, dans lesquelles les images sont agencées suivant des critères de format, d’orientation, de taille, des données techniques de prises de vues, localisation, date, auteur, couleur dominante.
De la même manière, les interfaces informatiques de contenus sonores proposent, dans le cas de recherche de contenus sonores, ou de présentation de stock de sons/musiques... de fournir des listes ou pages de contenus sonores, notamment résultants de recherche, dans lesquelles les sons sont agencés suivant des critères de format, de tempo, de tonalité, de structures rythmiques, de type de contenu. L’inconvénient de telles interfaces de présentation de contenus est qu’elles fournissent généralement des contenus qui même s’ils sont sélectionnés en fonction d’éléments-clés (moteur de recherche) restent très hétérogènes.
Ces différents types de contenus : images et sons, sont présentés dans la majorité des cas de manière indépendante. Lorsqu’une association automatique des deux types de contenus est faite, elle se fait sur la base d’un élément descriptif simple comme par exemple une image de train et le son d’un bruit fait par un train roulant sur des rails. D’un autre côté, les associations d’une ou plusieurs image(s) et de musique sont généralement aléatoire, et non contextualisées
Un des buts de la présente invention est d'apporter des améliorations par rapport à l'état de la technique.
Un objet de l’invention est un générateur automatique de contenus audiovisuels à partir d’au moins un contenu visuel comportant un moteur de recherche d’ambiance, d’au moins un contenu multimédia dans au moins une base de contenus en fonction de données de perception d’ au moins un contenu visuel et de données de perception des contenus multimédia de ladite au moins une base de contenus, le contenu multimédia fourni par le moteur de recherche d’ambiance étant mixé audit au moins un contenu visuel, le contenu mixé étant intégré à un contenu audiovisuel.
Ainsi, le moteur de recherche d’ambiance fourni au moins un contenu multimédia cohérent en terme d’ambiance avec le contenu visuel de départ permettant de générer un contenu audiovisuel contextualisé, c'est-à-dire cohérent en terme d’ambiance. Par cohérent en terme d’ambiance est entendu : pour deux contenus de même nature, notamment visuel : homogène au moins sur une donnée de perception, telle que la couleur dominante, par exemple, ou pour deux contenus de nature distincte, notamment visuelle et sonore, correspondant à des données de perception associée.
Avantageusement, le moteur de recherche d’ambiance effectue une recherche d’au moins un contenu multimédia dans au moins une base de contenus en fonction de données d’ambiance d’ au moins un premier contenu visuel et de données d’ambiance des contenus multimédia de ladite au moins une base de contenus, les données d’ambiance étant associées à des valeurs prédéfinies de données de perception des contenus en fonction de règles préétablies.
Ainsi, les règles préétablies permettent d’obtenir des contenus de nature distincte cohérents en termes de perception, notamment par au moins de règles préétablies d’ambiance.
Avantageusement, le générateur comporte un mixeur du contenu multimédia fourni par le moteur de recherche d’ambiance avec ledit au moins un contenu visuel en fonction duquel le moteur de recherche d’ambiance effectue sa recherche.
Ainsi, le générateur fourni au moins un contenu audiovisuel cohérent en terme d’ambiance, c'est-à-dire composé d’un premier contenu visuel et au moins d’un deuxième contenu visuel ou d’un contenu sonore cohérent en terme d’ambiance.
Avantageusement, le générateur comporte un intégrateur dans un contenu audiovisuel du contenu mixé.
Un autre objet de l’invention est un moteur de recherche amélioré en fonction d’éléments-clés comportant : • un moteur de recherche élémentaire de contenus visuels en fonction d’éléments-clés ; • un générateur automatique de contenus audiovisuel, ledit générateur fournissant au moins un contenu audiovisuel comportant au moins une partie des contenus visuels fournis par le moteur de recherche élémentaire.
Un objet de l’invention est aussi un terminal comportant une interface utilisateur d’assistance à la préparation de voyage apte à transmettre à un moteur de recherche amélioré une information relative à une destination, et à recevoir et reproduire un contenu audiovisuel fourni en réponse par le moteur de recherche amélioré.
Un objet de l’invention est encore un procédé de génération automatique de contenus audiovisuels à partir d’au moins un premier contenu visuel comportant une recherche d’ambiance recherchant au moins un contenu multimédia dans au moins une base de contenus en fonction de données de perception d’au moins un premier contenu visuel et de données de perception des contenus multimédia de ladite au moins une base de contenus, le contenu multimédia fourni par la recherche d’ambiance étant mixé audit au moins un premier contenu visuel, le contenu mixé étant intégré à un contenu audiovisuel.
Avantageusement, la recherche d’ambiance d’au moins un contenu multimédia dans au moins une base de contenus est effectuée en fonction de données d’ambiance d’au moins un premier contenu visuel et de données d’ambiance des contenus multimédia de ladite au moins une base de contenus, les données d’ambiance étant associées à des valeurs prédéfinies de données de perception des contenus en fonction de règles préétablies.
Avantageusement, un des au moins un contenu multimédia est d’un des types de contenus parmi les suivants : • un contenu sonore ; • un deuxième contenu visuel, etc.
Ainsi, le contenu mixé est soit une vidéo, un diaporama, une image sonorisée, une vidéo sonorisée correspondant à l’ambiance du premier contenu visuel.
Avantageusement, les données de perception du contenu multimédia sont au moins une donnée parmi les suivantes : • rythme sonore, • timbre sonore, • fréquence sonore, • donnée(s) de couleurs d’un contenu visuel du contenu multimédia, • couleur dominante, • saturation visuelle, • teinte, • lumière, • rythme d’un contenu vidéo du contenu multimédia, etc.
Avantageusement, la recherche d’ambiance est effectuée en outre en fonction d’au moins une des informations suivantes : • au moins un contexte du premier contenu visuel ; • du genre du contenu multimédia.
Avantageusement, selon une implémentation de l'invention, les différentes étapes du procédé de génération selon l'invention sont mises en œuvre par un logiciel ou programme d'ordinateur, ce logiciel comprenant des instructions logicielles destinées à être exécutées par un processeur de données d'un générateur automatique de contenu audiovisuel faisant, notamment, partie d’un dispositif d’assistance numérique à la préparation de voyage et étant conçu pour commander l'exécution des différentes étapes de ce procédé. L'invention vise donc aussi un programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé de génération lorsque ledit programme est exécuté par un processeur.
Un objet de l’invention est encore un procédé d’assistance numérique à la préparation de voyage comportant une recherche d’ambiance recherchant au moins un contenu multimédia dans au moins une base de contenus en fonction de données de perception d’ au moins un premier contenu visuel et de données de perception des contenus multimédia de ladite au moins une base de contenus, le premier contenu visuel résultant d’une recherche élémentaire en fonction d’une information relative à une destination de voyage, le contenu multimédia fourni par la recherche étant mixé audit au moins un premier contenu visuel, le contenu mixé étant intégré à un contenu audiovisuel.
Avantageusement, le procédé d’assistance comporte : • une saisie d’une information relative à une destination, • une recherche élémentaire d’au moins un premier contenu visuel dans au moins une base de contenus notamment ; • une détermination en fonction des données de perception d’au moins un premier contenu visuel résultant de la recherche élémentaire de données d’ambiance en fonction de règles d’ambiance préétablies ; • la recherche d’ambiance recherchant au moins un contenu multimédia dans au moins une base de contenus est fonction des données d’ambiance associées aux données de perception; • un mixage du contenu multimédia fourni par la recherche d’ambiance avec ledit au moins un contenu visuel en fonction duquel le moteur de recherche d’ambiance effectue sa recherche. • une intégration dans un contenu audiovisuel du contenu mixé.
Avantageusement, selon une implémentation de l'invention, les différentes étapes du procédé d’assistance selon l'invention sont mises en œuvre par un logiciel ou programme d’ordinateur, ce logiciel comprenant des instructions logicielles destinées à être exécutées par un processeur de données d'un dispositif d’assistance et étant conçus pour commander l'exécution des différentes étapes de ce procédé. L'invention vise donc aussi un programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé d’assistance lorsque ledit programme est exécuté par un processeur.
Ces programmes peuvent utiliser n’importe quel langage de programmation et être sous la forme de code source, code objet ou code intermédiaire entre code source et code objet tel que dans une forme partiellement compilée ou dans n’importe quelle autre forme souhaitable.
Les caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description, faite à titre d’exemple, et des figures s’y rapportant qui représentent : - Figure 1, un schéma simplifié d’un générateur automatique de contenu audiovisuel selon l’invention, - Figure 2, un schéma simplifié d’un moteur de recherche amélioré selon l’invention, - Figure 3, un schéma d’architecture simplifié d’assistant de voyage selon l’invention, - Figure 4, un schéma simplifié des procédés de génération automatique de contenu audiovisuel et d’assistant de voyage selon l’invention, - Figure 5, un exemple simplifié de génération automatique de contenu audiovisuel selon l’invention.
La figure 1 illustre un schéma simplifié d’un générateur automatique de contenu audiovisuel selon l’invention.
Le générateur 1 automatique de contenus audiovisuels comporte un moteur de recherche d’ambiance 10. Le moteur de recherche d’ambiance 10 recherche au moins un contenu multimédia cmm dans au moins une base de contenus BDC^-.BDCn en fonction de données de perception d’au moins un contenu visuel cvet de données de perception des contenus multimédia {cmm} de ladite au moins une base de contenus BDC^.-BDCn. Le contenu multimédia cmm fourni par le moteur de recherche d’ambiance 10 est ensuite mixé audit au moins un contenu visuel cv. Puis, le contenu mixé ex est intégré à un contenu audiovisuel cav qui sera fourni par le générateur 1.
En particulier, le moteur de recherche d’ambiance 10 effectue une recherche d’au moins un contenu multimédia cmm d’au moins une base de contenus BDCi...BDCn en fonction de données d’ambiance da d’au moins un premier contenu visuel cv et de données d’ambiance da des contenus multimédia {emmi} de ladite au moins une base de contenus BDC^.-BDCn- Les données d’ambiance da étant associées à des valeurs prédéfinies de données de perception dp des contenus cv, cmm, en fonction de règles préétablies RG.
En particulier, le moteur de recherche d’ambiance 10 envoie une requête de contenu défini par une ou plusieurs données de perception ou données d’ambiance du contenu visuel req_c(cv), directement ou indirectement, aux bases de contenus BDC^.-BDCn- En particulier, la requête de contenu req_c comporte une ou plusieurs valeurs d’une ou plusieurs données de perception dp et/ou une ou plusieurs valeurs d’une ou plusieurs données d’ambiance da préalablement déterminées en fonction du contenu visuel cv. Ainsi, le moteur de recherche d’ambiance 10 récupère, directement ou indirectement, des bases de contenus BDC^-.BDCn au moins un contenu multimédia cmm dont les données de perception dp et/ou les données d’ambiance sont égales à celles indiqués dans la requête de contenu req_c.
Dans un premier mode de réalisation, les valeurs des données de perception et/ou des contenus stockées dans les bases de contenus BDC^.-BDCn sont stockées en association avec les contenus dans les bases de contenus, notamment dans les métadonnées des contenus. Par exemple, lors de l’enregistrement d’un contenu dans une base de contenus, le contenu est analysé pour déterminer les données de perception du contenu et/ou les données d’ambiance qui sont ensuite inscrite notamment dans les métadonnées du contenu avant son enregistrement effectif dans la base de contenu.
Dans ce premier mode de réalisation, le générateur 1 comporte, en particulier, un extracteur analysant le contenu visuel cv pour en extraire des donnes de perception dp telles que des données de couleurs de = g(cv). Cet extracteur est notamment implémenté dans le moteur de recherche d’ambiance 10 ou dans un convertisseur/analyseur d’ambiance.
Dans ce premier mode de réalisation, le générateur 1 comporte, en particulier, un convertisseur 13 de données de perception dp, notamment des données de couleurs de, en données d’ambiance da=h(dc).
Dans un deuxième mode de réalisation, le moteur de recherche d’ambiance 10 effectue sa recherche de contenu dans les bases de contenus BDC^-.BDCn via un analyseur/convertisseur 13. Ainsi, le moteur de recherche 10 envoie une requête de contenu en fonction du contenu visuel req_c(cv) à l’analyseur 13 qui : détermine les données de perception dp du contenu visuel cv, notamment les données de couleurs de du contenu visuel cv, éventuellement convertit ces données de perception dp en données d’ambiance da.
Dans ce deuxième mode de réalisation, l’analyseur 13 lit les contenus des bases de données BDC1...BDCN en effectuant la même analyse, à savoir, pour chaque contenu lut : détermine les données de perception dp du contenu cmm, notamment les données de couleurs c/c du contenu visuel cv, éventuellement convertit ces données de perception dp en données d’ambiance da. L’analyseur 13, dans ce deuxième mode de réalisation, vérifie si les données lues à savoir les données de perception ou d’ambiance du contenu lu, correspondent à celles du contenu visuel. Puis, si les données lues correspondent, renvoie le contenu lu vers le moteur de recherche d’ambiance qui fournira ce contenu multimédia cmm comme résultat de la recherche d’ambiance du contenu visuel cv.
Les données de couleurs d’un contenu visuel sont notamment caractérisées par une ou plusieurs des données techniques suivantes :
Valeur (c'est-à-dire la luminosité de la couleur entre blanc et noir)
Vivacité (relativement au gris)
Ton (pur, chaud, froid, dégradé, rabattu, rompu...)
Nuance (petites différences entre les tons)
Teintes élémentaires Couleurs primaires Couleurs complémentaires, etc.
Lors de la vérification, les données de perception d’un contenu multimédia correspondent aux données de perception du contenu visuel si, par exemple : les données de perception du contenu multimédia sont égales aux données de perception du contenu visuel pour des contenus multimédia de type contenu visuel, les données de perception du contenu multimédia sont associées aux données de perception du contenu visuel notamment au moyen de règles préétablies RG, en particulier si le contenu multimédia n’est pas un contenu multimédia de type contenu visuel ou comporte des données non visuelles (par exemple un contenu audio ou des données audio d’un contenu multimédia), les données d’ambiance du contenu multimédia sont égales aux données d’ambiance du contenu visuel pour des contenus multimédia de type contenu visuel, etc.
Pour des contenus multimédia de type contenu sonore, les données de perception sont notamment l’intensité ou sonie, la fréquence ou hauteur, le timbre ou tonalité, le rythme (c'est-à-dire le support à la combinaison des sons et silence au cours du temps) etc.
En particulier, le générateur 1 comporte un mixeur 11 du contenu multimédia cmm fourni par le moteur de recherche d’ambiance 10 avec ledit au moins un contenu visuel cv en fonction duquel le moteur de recherche d’ambiance 10 effectue sa recherche.
En particulier, le générateur 10 comporte un intégrateur 12 dans un contenu audiovisuel cavdu contenu mixé ex, notamment fourni par le mixeur 11 du générateur 1.
La figure 2 illustre un schéma simplifié d’un moteur de recherche amélioré selon l’invention.
Le moteur de recherche amélioré 2 effectue une recherche en fonction d’éléments-clés ky. Il comporte: • Un moteur de recherche élémentaire 20 de contenus visuels cv en fonction d’éléments-clés ky, • et un générateur 21 automatique de contenus audiovisuels selon l’invention. Le générateur 21 fournit au moins un contenu audiovisuel cav comportant au moins une partie des contenus visuels cv fournis par le moteur de recherche élémentaire 20.
Le moteur de recherche amélioré 2 fournit alors comme résultat de la recherche au moins le contenu audiovisuel cav généré par le générateur automatique 21.
En particulier, le générateur 21 est un générateur automatique de contenu tel que le générateur 1 illustré par la figure 1.
Ainsi, lorsqu’un utilisateur effectue une recherche par éléments-clés ky, il reçoit comme résultat de sa recherche non pas seulement des images et/ou des images hétérogènes en terme d’ambiance mais des images homogènes en terme d’ambiance ainsi qu’éventuellement des contenus sonores, des contenus textuels... construit en un document audiovisuel cav cohérent en terme d’ambiance.
En particulier, le moteur de recherche amélioré 2 reçoit, notamment d’une interface utilisateur (non illustré) ou d’un autre dispositif tel qu’un assistant numérique, au moins un élément-clé ky, tel qu’un mot-clé, une image-clé, un son-clé... L’élément-clé ky est transmis au moteur de recherche élémentaire 20 recherchant dans au moins une base de contenus visuels (non illustrée) au moins un contenu visuel cv, {cv,/,· comportant cet élément-clé /cy soit directement dans les données reproductibles du contenu visuel (l’image par abus de langage), soit dans les données associées au contenu visuel notamment les métadonnées du contenu visuel (données descriptives, données d’auteur, données commentaires textuels ou audio...).
La recherche élémentaire par le moteur de recherche élémentaire 20 est notamment déclenchée par la réception d’un ou une combinaison d’élément(s)-clé(s) ky.
Le moteur de recherche élémentaire 20 fournit comme résultat de la recherche élémentaire au moins un contenu visuel cv, {cv·}·, fonction de l’élément-clé ou de la combinaison d’élément(s)-clé(s) ky.
En particulier, le moteur de recherche amélioré 20 comporte un sélecteur permettant de fournir au générateur 21 un seul, une partie ou la totalité des contenus visuels cv, cvj, cvk, {cvj}j, (cvk}k, {cvj}·, résultants fournit par le moteur de recherche élémentaire 20.
En particulier, le sélecteur comporte : une interface de reproduction 22 fournissant à au moins un éditeur de signal (non illustrés) tels qu’un écran, des haut-parleurs... un signal cv_rpr de reproduction des contenus visuels cv, {cv,/,· fournis par le moteur de recherche élémentaire 20. L’éditeur transforme le signal de reproduction cv_rpr en un signal perceptible par un utilisateur, notamment un signal visible, tel qu’une image, une vidéo et/ou audible, tel qu’un son... et une interface de sélection 23 recevant une information relative à au moins l’un des contenus visuels reproduits cvj,{cvjjj notamment d’un actionneur (écran tactile, clavier, souris, manettes...) ou d’un capteur (interface de saisie kinétique, microphone,...).
Le(s) contenu(s) visuel(s) ainsi sélectionné(s) CVj, {cvj}j, {ον,}, par l’utilisateur sont utilisés comme entrée du générateur 21.
En particulier, le sélecteur comporte un sélecteur automatique 24 d’un seul, d’une partie ou de la totalité des contenus visuels cvk, {cvijk, {cvj, notamment en fonction du contexte cntx de la recherche et/ou du profil de l’utilisateur prf. Par contexte de la recherche est, notamment, entendu des informations relatives au(x) contenu(s) préalablement consulté(s) par l’utilisateur, et/ou service mettant en œuvre le moteur de recherche amélioré, et/ou applications/services mis en œuvre par un terminal (non illustré sur la figure 2) commandant le moteur de recherche amélioré 2.
Ainsi, le générateur 21 recherche en fonction du ou des contenus visuels sélectionnés cvj, cvk, {cvjjj, {cvk}k, {cvji des contenus multimédias cohérents en terme d’ambiance et fournit un contenu audiovisuel cav composé à partir du ou des contenus visuels sélectionnés et du ou des contenu(s) multimédia(s) résultant(s).
La figure 3 illustre un schéma d’architecture simplifié d’assistant de voyage selon l’invention.
Un terminal 6 comporte une interface utilisateur 62 d’assistance à la préparation de voyage apte à transmettre à un moteur de recherche amélioré 432 (notamment tel que le moteur de recherche amélioré de la figure 2) d’un assistant de voyage 43, 63 une information relative à une destination trp_req, et à recevoir et reproduire un contenu audiovisuel cav fourni en réponse par le moteur de recherche amélioré 432.
Dans un premier mode de réalisation de l’assistant de voyage, l’assistant de voyage 43 est implémenté dans un fournisseur de services 4. Le fournisseur de service 4 comportant au moins une interface de connexion (non illustrée) permettant au terminal 6 de se connecter au fournisseur 4, et un processeur mettant en œuvre les étapes d’un procédé d’au moins un service fourni par le fournisseur 4. Eventuellement, le fournisseur 4 comporte un récepteur (non illustré) notamment de requêtes trp_req provenant du terminal 6, et un émetteur (non illustré) notamment de signaux à reproduire, tel que le contenu audiovisuel cav généré par le moteur de recherche amélioré 432. En particulier, le fournisseur comporte des bases de données telles que des bases de contenus BDCh... BDCn, notamment des bases de contenus multimédias, des bases de contenus visuels, etc.
Dans un deuxième mode de réalisation de l’assistant de voyage, l’assistant de voyage 63 est implémenté dans le terminal 6.
Le terminal 6 comporte notamment une interface de reproduction ou éditeur de signaux de reproduction 60 (tel qu’un écran, des haut-parleurs...) notamment connecté à l’interface utilisateur 62 d’assistance à la préparation de voyage 62, nommé par la suite par abus de langage interface de voyage. L’interface de voyage 62 transmet un signal à l’interface de reproduction 60 qui le rend perceptible à l’utilisateur U. Par exemple, l’interface de voyage 62 fournit un signal d’édition de texte comportant soit des questions sur le futur voyage, soit une représentation graphique de cartes, de la mappemonde, un sélection parmi une liste de destination (ville, région, pays...), un moteur de recherche notamment à champs dédiés par exemple destination et/ou budget et/ou date ou période et/ou durée... permettant à l’utilisateur de répondre aux questions au moyen d’une interface de saisie par frappe d’un texte ou capture de la réponse orale ou d’interagir par sélection de réponse proposée ou d’un pays, d’une ville sur la carte...
Le terminal 6 comporte notamment une interface de saisie utilisateur ou actionneur ou capteur 61 (tel qu’un écran tactile, un clavier, une manette, un microphone, une caméra...) permettant à un utilisateur U d’indiquer par exemple des souhaits de voyage, notamment une ou plusieurs destination (ville, pays...) ou type de voyage (randonnées, musées...), etc.
En particulier, l’interface de voyage 62 comporte un requêteur (non illustré) élaborant une requête de voyage trp_req en fonction de données fournies par l’interface de saisie 61. La requête de voyage trp_req est transmise par l’interface de voyage à l’assistant 43, 63 de voyage auquel il est connecté.
Dans le cas du deuxième mode de réalisation, l’interface de voyage 62 peut être implémentée dans l’assistant de voyage 63.
En particulier, l’assistant de voyage 43, 63 comporte au moins une base de contenus BDCni. Le moteur de recherche amélioré 432 utilise au moins l’une des bases de contenus BDC^-.BDCn du fournisseur 4, BDCni de l’assistant 4 ou BDCn2 implémentée hors de l’assistant 43, 63, et du fournisseur 4.
En particulier, l’assistant de voyage 43, 63 comporte un déclencheur 430 recevant une requête de voyage trp_req. Le déclencheur 430 commande directement ou indirectement le moteur de recherche amélioré 432 en fonction de la requête de voyage trp_req. Par exemple, lorsque la requête de voyage trp_req comporte uniquement une demande de l’utilisateur de proposition de voyage sans plus d’information, le déclencheur 430 analyse le contexte cntx dans lequel l’utilisateur a fait sa demande (service(s) en cours d’utilisation, message(s) échangé(s), navigation en cours, etc.), et/ou récupère le profil de l’utilisateur prfu basé par exemple sur au moins un historique de navigation(s), d’échange(s), de service(s) utilisé(s), ainsi qu’éventuellement de statistiques de navigation(s), d’échange(s), de service(s) utilisé(s), etc. Le contexte cntx et/ou le profil prfu permettent à l’analyseur 43, 63 de déterminer au moins un élément-clé ky relatif à un voyage fournit au moteur de recherche amélioré 432.
En particulier, l’assistant de voyage 43, 63 comporte un analyseur 431 recevant directement ou via le déclencheur 430 la requête de voyage trp_req. Ainsi, l’analyseur détermine 431 au moins un élément-clé ky relatif à un voyage directement ou indirectement en fonction de la requête de voyage trp_req. Par exemple, le déclencheur 430 fournit le contexte cntx de la requête voyage et/ou le profil prfu de l’utilisateur requérant à l’analyseur 431 qui détermine alors en fonction du contexte cntx et/ou du profil prfu au moins un élément-clé ky relatif à un voyage. L’analyseur est connecté au moteur de recherche amélioré 432 auquel il fournit cet élément-clé ky.
En particulier, l’utilisateur ayant mis de côté des documents de type lien internet, texte, photos, etc., ces documents sont stockés dans sa bibliothèque personnelle en ligne. L’analyseur 431, en particulier implémentés sous la forme d’« enablers », permet de comprendre le contenu de cette bibliothèque personnelle et de restituer l’information sous forme de liste d’idées de voyage. C’est une autre entrée pour la connaissance de l’utilisateur prfu.
En particulier, l’analyseur 431 transmet à l’interface de voyage 62 des requêtes d’informations supplémentaires req+ soit reproduites par l’interface de reproduction 60 soit traitées directement par un processeur de traitement (non illustré) du terminal 6.
Une requête d’informations supplémentaires req+ est notamment un signal d’édition de texte comportant soit des questions sur le futur voyage, soit une représentation graphique de cartes, de la mappemonde... permettant à l’utilisateur de répondre aux questions au moyen d’une interface de saisie par frappe d’un texte ou capture de la réponse orale ou d’interagir par sélection de réponse proposée ou d’un pays, d’une ville sur la carte...
Une requête d’informations supplémentaires req+ est notamment une requête relative à des données enregistrées par le terminal 6 de l’utilisateur, notamment des photos prises, des données GPS, etc. Le processeur de traitement déterminera par exemple une destination préférée, le type de voyage (sédentaire, nomade...), etc. à partir des données du terminal 6.
La réponse answ+ à la requête d’informations supplémentaires est renvoyée par l’interface de voyage 62 à l’analyseur 431. L’analyseur 431 détermine au moins un élément-clé ky relatif à un voyage en fonction de la réponse answ+ et/ou directement ou indirectement de la requête de voyage trpreq, et/ou du contexte cntx et/ou du prfu.
La figure 4 illustre un schéma simplifié des procédés de génération automatique de contenu audiovisuel et d’assistant de voyage selon l’invention.
Un mode de réalisation est un procédé de génération CGEN automatique de contenus audiovisuels qui génère un contenu audiovisuel cav à partir d’au moins un premier contenu visuel cv, {cvi}j. Le procédé de génération CGEN comporte une recherche d’ambiance ASRCH recherchant au moins un contenu multimédia cmm dans au moins une base de contenus BDCï... BDCn en fonction de données de perception dp d’au moins un premier contenu visuel cv, {cv^et de données de perception dp des contenus multimédia cmm de ladite au moins une base de contenus Βϋ^... BDCN. Le contenu multimédia cmm fourni par la recherche d’ambiance ASRCH est mixé audit au moins un premier contenu visuel cv, {cv},. Le contenu mixé ex est intégré à un contenu audiovisuel cav.
En particulier, la recherche d’ambiance ASRCH d’au moins un contenu multimédia cmm dans au moins une base de contenus est effectuée en fonction de données d’ambiance da d’au moins un premier contenu visuel cv, {cv·}·, et de données d’ambiance da des contenus multimédia cmm de ladite au moins une base de contenus. Les données d’ambiance da sont associées à des valeurs prédéfinies de données de perception dp des contenus en fonction de règles préétablies RG.
En particulier, un des au moins un contenu multimédia cmm est d’un des types de contenus parmi les suivants : • un contenu sonore ; • un deuxième contenu visuel, etc.
En particulier, les données de perception dp du contenu multimédia cmm sont au moins une donnée parmi les suivantes : • rythme sonore, • timbre sonore, • fréquence sonore, • donnée(s) de couleurs d’un contenu visuel du contenu multimédia, • couleur dominante, • saturation visuelle, • teinte, • lumière, • rythme d’un contenu vidéo du contenu multimédia, etc.
En particulier, la recherche d’ambiance ASRCH est effectuée en outre en fonction d’au moins une des informations suivantes : • au moins un contexte du premier contenu visuel ; • du genre du contenu multimédia.
En particulier, le procédé de génération CGEN reçoit au moins un premier contenu visuel cv, cVj à partir duquel il effectue la recherche d’ambiance ASRCH fournissant au moins un contenu multimédia.
En particulier, la recherche d’ambiance ASRCH extrait ou détermine des données de perception d’au moins un premier contenu visuel cv, CVj et recherche dans au moins une base de contenus BDC1... BDCN au moins un contenu multimédia dont au moins une donnée de perception correspond à au moins une des données de perception dp extraites ou déterminées d’au moins un premier contenu visuel cv, cvj. Soit la recherche d’ambiance ARSCH lit les données de perception des contenus des bases de contenus Βϋ^... BDCN, données de perception stockées en association avec ces contenus ou inscrites dans les métadonnées des contenus, soit la recherche d’ambiance ARSCH extrait ou détermine des données de perception des contenus des bases de contenus BDC1... BDCN. La recherche d’ambiance ASRCH vérifie quels sont les contenus cmm des bases de contenus Βϋ^... BDCN dont les données de perception dp correspondent aux données de perception dp du premier contenu visuel cv, cvj.
En particulier, le procédé de génération CGEN comporte une conversion d’ambiance A/P_CNV convertissant au moins les données de perception dp du premier contenu visuel cv, cvj extraites ou déterminées par la recherche d’ambiance ASRCH en données d’ambiance da. Ensuite, soit la recherche d’ambiance ARSCH lit directement les données d’ambiance da des contenus des bases de contenus ΒΟ^... BDCN, données d’ambiance da stockées en association avec ces contenus ou inscrites dans les métadonnées des contenus soit la recherche d’ambiance ARSCH lit les données de perception des contenus des bases de contenus BDCï... BDCN, données de perception dp stockées en association avec ces contenus ou inscrites dans les métadonnées des contenus et la conversion A/PCNV les convertit en données d’ambiance da, soit la recherche d’ambiance ARSCH extrait ou détermine des données de perception des contenus des bases de contenus BDC1... BDCN et la conversion A/P_CNV les convertit en données d’ambiance da. La recherche d’ambiance ASRCH vérifie, alors, quels sont les contenus cmm des bases de contenus BDC,... BDCN dont les données d’ambiance da correspondent aux données d’ambiance da du premier contenu visuel cv, cvt.
En particulier, le procédé de génération CGEN comporte un mixage du ou des contenus multimédias fournis par la recherche d’ambiance ASRCH avec le au moins un premier contenu visuel cv, cvj.
En particulier, le procédé de génération CGEN comporte une intégration du contenu mixé dans un contenu audiovisuel cav.
Un mode de réalisation particulier du procédé de génération CGEN est un programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé de génération CGEN lorsque ledit programme est exécuté par un processeur.
Notamment, le procédé de génération CGEN est intégré dans un procédé de recherche amélioré XRSCH comportant une recherche élémentaire de contenu visuel cv, {cvi} à partir d’élément-clé, tel qu’une information relative à un voyage dstjnf. Au moins un des contenus visuels résultants de la recherche élémentaire ESRCH étant fourni au procédé de génération CGEN, notamment à la recherche d’ambiance ASRCH.
En particulier, le procédé de recherche amélioré comporte une sélection SLCT d’au moins un premier contenu visuel parmi contenus visuels résultants de la recherche élémentaire E SRCH. La sélection SLCT est faite suite à une interaction de l’utilisateur tel qu’un choix et/ou un filtrage, etc., et/ou en fonction de données relatives à l’utilisateur tel que le contexte d’utilisation du moteur de recherche amélioré cntx et/ou le profil de l’utilisateur prfu, etc.
Un mode de réalisation est aussi un procédé d’assistance ASST numérique à la préparation de voyage comportant la recherche d’ambiance ASRCH recherchant au moins un contenu multimédia cmm dans au moins une base de contenus BDCi... BDCN en fonction de données de perception dp d’au moins un premier contenu visuel cv, cvj et de données de perception dp des contenus multimédia cmm de ladite au moins une base de contenus BDCï... BDCN. Le contenu multimédia cmm fourni par la recherche d’ambiance ASRCH est mixé audit au moins un premier contenu visuel cv, {cvi}i. Le contenu mixé ex est intégré à un contenu audiovisuel cav.
En particulier, le procédé d’assistance ASST comporte le procédé de génération CGEN et/ou le procédé de recherche amélioré XRSCH.
En particulier, le procédé d’assistance ASST comporte une réception REC d’une requête de voyage trp_req. Suite à cette requête de voyage trp_req, la réception REC d’une requête de voyage trp_req, notamment, détermine en fonction des données contenues par requête de voyage trp_req et/ou de données de contexte cntx et/ou du profil de l’utilisateur prfUt et/ou de réponses answ+, etc. une information relative aux voyages destjnf constituant un ou des éléments-clés fournis à une recherche élémentaire ESRCH.
En particulier, le procédé d’assistance ASST comporte la recherche élémentaire E_SRCH d’au moins un premier contenu visuel cv, {CVj} dans au moins une base de contenus.
En particulier, le procédé d’assistance ASST comporte une détermination A/P CNV en fonction des données de perception dp d’au moins un premier contenu visuel cv, CVj résultant de la recherche élémentaire E SRCH de données d’ambiance da en fonction de règles d’ambiance préétablies RG. Cette détermination A/P_CNV est notamment une conversion des données de perception dp en données d’ambiance da.
En particulier, le procédé d’assistance ASST comporte la recherche d’ambiance ASRCH recherchant au moins un contenu multimédia cmm dans au moins une base de contenus en fonction des données d’ambiance da associées aux données de perception dp par la détermination A/P_CNV.
En particulier, le procédé d’assistance ASST comporte un mixage MIX du contenu multimédia cmm fourni par la recherche d’ambiance ASRCH avec ledit au moins un contenu visuel cv, CVj en fonction duquel le moteur de recherche d’ambiance ASRCH effectue sa recherche.
En particulier, le procédé d’assistance ASST comporte une intégration INT dans un contenu audiovisuel cav du contenu mixé ex.
Le contenu audiovisuel est soit une image ou une vidéo sonorisée (la vidéo étant constitué par le premier contenu visuel, ou comportant une succession de premier contenus visuels ou une succession de premier contenu(s) visuel(s) et de contenu(s) multimédia(s) fourni(s) par la recherche d’ambiance), soit une vidéo comportant une succession de premier contenu(s) visuel(s) et de contenu(s) multimédia(s) fourni(s) par la recherche d’ambiance, soit une mosaïque sonorisée d’images et/ou de vidéo, constitués par au moins un premier contenu visuel et, éventuellement au moins un contenu multimédia fourni par la recherche d’ambiance.
Un mode de réalisation du procédé d’assistant ASST est un programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé d’assistance ASST lorsque ledit programme est exécuté par un processeur.
La figure 5 illustre un exemple simplifié de génération CGEN automatique de contenu audiovisuel selon l’invention.
Le procédé de génération CGENC illustré par la figure 5 comporte une extraction DC_XTR qui extraits des données de perception, notamment des données de couleurs, du premier contenu visuel cd, par exemple : dc1=6503, dc2=6514, dc3=6258, dc4=6153, dc5=6994.
Le procédé de génération CGENC illustré par la figure 5 comporte en outre une conversion d’ambiance A/P CNV, nommé sur la figure 5 DC/DA_CNV car elle convertit les données de couleurs dc1, dc2, dc3, dc4 et dc5 en données d’ambiance. Les données d’ambiance obtenues sont donc fonction des données de couleurs extraites :da1 =f({dCi}), da2=f({dCj}), da3=f({dck}), da4=f({dC|}) et da5=f({dcq}). La fonction f utilise par exemple une table de règles préétablies telles que la roue des émotions de Robert Plutchick qui relie des données de couleurs de à des émotions. La roue illustrée par la figure 5 propose des couleurs allant du jaune à l’orange pour chaque pétale de la roue en partant de la pétale orienté en haut N et en allant dans le sens des aiguilles d’une montre, et des valeurs allant du foncé au centre de la roue au clair à l’extérieur en passant par des valeurs intermédiaires.
Les données de couleurs peuvent aussi être définies par d’autres données relatives que la génération CGEN utilisera éventuellement comme données d’ambiance, telles qu’une ou plusieurs des données relatives suivantes : température apparente (neutre, froid, chaud) symbolisme sensation psychologique impression effet sur l’œil (avance, recul, enfonce...), etc.
Dans l’exemple de notre roue de la figure 5, aux données de couleurs d’une valeur donnée (couleur + valeur par exemple) sont associées des valeurs d’émotion comme le montre la table ci-après :
Par exemple à la valeur dc1 sont associé les valeurs d’émotion de la pétale bleu 1 entourée à savoir l’étonnement, la surprise, la distraction. A ces valeurs d’émotion sont associées des valeurs d’ambiance. Dans notre exemple aux données de couleurs dc1 (bleu ciel), dc2 (bleu gris nuage), dc3 (noir), dc4 (beige sable), dc5 (noir kaki) sont converties en données d’ambiance de valeurs : da1 = chaleur da2= confort da3=douceur da4=assurance da5=apaisement
Soit la recherche d’ambiance de la génération de contenu audiovisuel recherche directement des contenus multimédia avec ces valeurs d’ambiances, soit comme le montre la figure 5 la génération comporte une conversion de données d’ambiance et données de perception DA/DP_CNV, notamment pour des contenus multimédia autres que des contenus visuels, notamment pour des contenus sonores comme le montre la figure 5. Ainsi, la recherche d’ambiance recherche des contenus sonores dont les données de perception ont les valeurs fournies par la conversion DA/DPCNV
Dans notre exemple, la conversion DA/DP CNV détermine à partir des données d’ambiance da1... da5 deux valeurs de données de perception dpi et dp2. Ces valeurs de données de perception sont notamment un rythme modéré (dpi) et une tonalité mineur (dp2). La recherche d’ambiance recherchera alors les contenus sonores de rythme modéré et de tonalité mineur pour ensuite généré un contenu audiovisuel cav par mixage du contenu visuel cv avec l’un des contenus sonores fournis par la recherche d’ambiance.
Par exemple, la conversion DA/DP CNV utilise une table de conversion telle que la table suivante pour des contenus sonores:
Par poids forts et poids faibles est entendu que la recherche d’ambiance fournira en priorité des contenus respectant les données de perception de poids forts : Soit elle fournira tous les contenus sonores respectant les différentes données de perception de manière ordonnées décroissant, soit uniquement des contenus sonores de données de perception de poids forts si des contenus sonores respectant les données de perception de poids forts sont disponibles, et uniquement des contenus sonores de données de perception de poids faibles sinon.
Dans un mode de réalisation non illustré la génération comporte un seul convertisseur traduisant les données de couleurs en données de perception sonore notamment suivant la table suivantes :
La recherche d’ambiance peut être affinée notamment en utilisant des informations de contexte cntx. En particulier, la génération CG EN comporte une analyse de contexte CNTXNLZ : du contexte du terminal de l’utilisateur (navigation, message, services en cours...) et/ou du contexte de vie (position, lieu, bruits...), et/ou du contexte du contenu visuel cv. La recherche d’ambiance est alors effectuée soit en utilisant directement ces informations soit en déterminant une des données caractéristiques du contenu tel qu’un genre ou type de contenu.
Dans l’exemple de la figure 5, le contexte de la photo, ici une grande place d’une ville, permet de déterminer un genre musical. Ainsi, la recherche d’ambiance recherchera des contenus sonores de rythme modéré et de tonalité mineure et dont le genre musical sera soit propre au pays dans lequel est située cette ville soit aux types de commerces rencontrée sur cette place.
En particulier, le contexte du contenu visuel cv est déterminé par analyse des données utiles du contenu (ici l’image, par exemple par reconnaissance d’image ou de texte dans l’image...) et/ou des données descriptives telles que les métadonnées du contenu comportant notamment le format, l’orientation, la taille, les personne(s) présente(nt) dans le contenu, des données de capture (prise de vue, prise de son...), la localisation, la date de capture ou de création du contenu, les auteur(s) du contenu, le sujet... Le contexte déterminé peut ultérieurement être enregistrée en association avec le contenu notamment inscrit dans les métadonnées du contenu. Ainsi, pour les contenus déjà analysés, la recherche d’ambiance lira simplement le contexte dans les métadonnées du contenu. L'invention vise aussi un support. Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker le(s) programme(s). Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique ou encore un moyen d'enregistrement magnétique, par exemple une disquette ou un disque dur. D'autre part, le support d'informations peut être un support transmissible tel qu'un signal électrique ou optique qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau notamment de type Internet.
Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Dans une autre implémentation, l'invention est mise en œuvre au moyen de composants logiciels et/ou matériels. Dans cette optique le terme module peut correspondre aussi bien à un composant logiciel ou à un composant matériel. Un composant logiciel correspond à un ou plusieurs programmes d'ordinateur, un ou plusieurs sous-programmes d’un programme, ou de manière plus générale à tout élément d’un programme ou d'un logiciel apte à mettre en œuvre une fonction ou un ensemble de fonction selon la description ci-dessous. Un composant matériel correspond à tout élément d'un ensemble matériel (ou hardware) apte à mettre en œuvre une fonction ou un ensemble de fonctions.

Claims (15)

  1. REVENDICATIONS
    1. Générateur automatique de contenus audiovisuels à partir d’au moins un contenu visuel comportant un moteur de recherche d’ambiance, d’au moins un contenu multimédia dans au moins une base de contenus en fonction de données de perception d’au moins un contenu visuel et de données de perception des contenus multimédia de ladite au moins une base de contenus, le contenu multimédia fourni par le moteur de recherche d’ambiance étant mixé audit au moins un contenu visuel, le contenu mixé étant intégré à un contenu audiovisuel.
  2. 2. Générateur automatique de contenus audiovisuel selon la revendication précédente, caractérisé en ce que le moteur de recherche d’ambiance effectue une recherche d’au moins un contenu multimédia dans au moins une base de contenus en fonction de données d’ambiance d’ au moins un premier contenu visuel et de données d’ambiance des contenus multimédia de ladite au moins une base de contenus, les données d’ambiance étant associées à des valeurs prédéfinies de données de perception des contenus en fonction de règles préétablies.
  3. 3. Générateur automatique de contenus audiovisuel selon l’une quelconque des revendications précédentes, caractérisé en ce que le générateur comporte un mixeur du contenu multimédia fourni par le moteur de recherche d’ambiance avec ledit au moins un contenu visuel en fonction duquel le moteur de recherche d’ambiance effectue sa recherche.
  4. 4. Générateur automatique de contenus audiovisuel selon l’une quelconque des revendications précédentes, caractérisé en ce que le générateur comporte un intégrateur dans un contenu audiovisuel du contenu mixé.
  5. 5. Moteur de recherche amélioré en fonction d’éléments-clés comportant : • Un moteur de recherche élémentaire de contenus visuels en fonction d’éléments-clés ; • un générateur automatique de contenus audiovisuel selon l'une quelconque des revendications précédentes, ledit générateur fournissant au moins un contenu audiovisuel comportant au moins une partie des contenus visuels fournis par le moteur de recherche élémentaire.
  6. 6. Terminal comportant une interface utilisateur d’assistance à la préparation de voyage apte à transmettre à un moteur de recherche amélioré selon la revendication 5 une information relative à une destination, et à recevoir et reproduire un contenu audiovisuel fourni en réponse par le moteur de recherche amélioré.
  7. 7. Procédé de génération automatique de contenus audiovisuels à partir d’au moins un premier contenu visuel comportant une recherche d’ambiance recherchant au moins un contenu multimédia dans au moins une base de contenus en fonction de données de perception d’au moins un premier contenu visuel et de données de perception des contenus multimédia de ladite au moins une base de contenus, le contenu multimédia fourni par la recherche d’ambiance étant mixé audit au moins un premier contenu visuel, le contenu mixé étant intégré à un contenu audiovisuel.
  8. 8. Procédé de génération selon la revendication précédente, caractérisé en ce que la recherche d’ambiance d’au moins un contenu multimédia dans au moins une base de contenus est effectuée en fonction de données d’ambiance d’au moins un premier contenu visuel et de données d’ambiance des contenus multimédia de ladite au moins une base de contenus, les données d'ambiance étant associées à des valeurs prédéfinies de données de perception des contenus en fonction de règles préétablies.
  9. 9. Procédé de génération selon l’une quelconque des revendications 7 ou 8, caractérisé en ce qu’un des au moins un contenu multimédia est d'un des types de contenus parmi les suivants : • un contenu sonore ; • un deuxième contenu visuel.
  10. 10. Procédé de génération selon l’une quelconque des revendications 7 à 9, caractérisé en ce que les données de perception du contenu multimédia sont au moins une donnée parmi les suivantes : • rythme sonore, • timbre sonore, • fréquence sonore, • donnée(s) de couleurs d’un contenu visuel du contenu multimédia, • couleur dominante, • saturation visuelle, • teinte, • lumière, • rythme d’un contenu vidéo du contenu multimédia.
  11. 11. Procédé de génération selon l’une quelconque des revendications 7 à 10, caractérisé en ce que la recherche d’ambiance est effectuée en outre en fonction d’au moins une des informations suivantes : • au moins un contexte du premier contenu visuel ; • du genre du contenu multimédia.
  12. 12. Programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé de génération selon l’une quelconque des revendications 7 à 11 lorsque ledit programme est exécuté par un processeur.
  13. 13. Procédé d’assistance numérique à la préparation de voyage comportant une recherche d’ambiance recherchant au moins un contenu multimédia dans au moins une base de contenus en fonction de données de perception d’ au moins un premier contenu visuel et de données de perception des contenus multimédia de ladite au moins une base de contenus, le premier contenu visuel résultant d’une recherche élémentaire en fonction d’une information relative à une destination de voyage, le contenu multimédia fourni par la recherche étant mixé audit au moins un premier contenu visuel, le contenu mixé étant intégré à un contenu audiovisuel.
  14. 14. Procédé d’assistance numérique à la préparation de voyage selon la revendication précédente, caractérisé en ce que le procédé d'assistance comporte : • une réception d’une requête de voyage, • une recherche élémentaire d’au moins un premier contenu visuel dans au moins une base de contenus notamment ; • une détermination en fonction des données de perception d'au moins un premier contenu visuel résultant de la recherche élémentaire de données d’ambiance en fonction de règles d’ambiance préétablies ; • la recherche d’ambiance recherchant au moins un contenu multimédia dans au moins une base de contenus est fonction des données d’ambiance associées aux données de perception; • un mixage du contenu multimédia fourni par la recherche d’ambiance avec ledit au moins un contenu visuel en fonction duquel le moteur de recherche d’ambiance effectue sa recherche. • une intégration dans un contenu audiovisuel du contenu mixé.
  15. 15. Programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé d’assistance selon l’une quelconque des revendications 13 ou 14 lorsque ledit programme est exécuté par un processeur.
FR1560676A 2015-11-06 2015-11-06 Generation automatique de contenu audiovisuel Withdrawn FR3043521A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1560676A FR3043521A1 (fr) 2015-11-06 2015-11-06 Generation automatique de contenu audiovisuel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1560676A FR3043521A1 (fr) 2015-11-06 2015-11-06 Generation automatique de contenu audiovisuel

Publications (1)

Publication Number Publication Date
FR3043521A1 true FR3043521A1 (fr) 2017-05-12

Family

ID=55862852

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1560676A Withdrawn FR3043521A1 (fr) 2015-11-06 2015-11-06 Generation automatique de contenu audiovisuel

Country Status (1)

Country Link
FR (1) FR3043521A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1403789A1 (fr) * 2002-09-24 2004-03-31 France Telecom Procédé de gestion de bases de données multimédia, système et dispositif pour la mise en oeuvre de ce procédé
US20110179452A1 (en) * 2008-07-22 2011-07-21 Peter Dunker Device and Method for Providing a Television Sequence
US20120177345A1 (en) * 2011-01-09 2012-07-12 Matthew Joe Trainer Automated Video Creation Techniques
FR3005181A1 (fr) * 2013-04-30 2014-10-31 France Telecom Generation d'un document multimedia personnalise relatif a un evenement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1403789A1 (fr) * 2002-09-24 2004-03-31 France Telecom Procédé de gestion de bases de données multimédia, système et dispositif pour la mise en oeuvre de ce procédé
US20110179452A1 (en) * 2008-07-22 2011-07-21 Peter Dunker Device and Method for Providing a Television Sequence
US20120177345A1 (en) * 2011-01-09 2012-07-12 Matthew Joe Trainer Automated Video Creation Techniques
FR3005181A1 (fr) * 2013-04-30 2014-10-31 France Telecom Generation d'un document multimedia personnalise relatif a un evenement

Similar Documents

Publication Publication Date Title
KR102058131B1 (ko) 패킷화된 오디오 신호의 변조
US9514437B2 (en) Apparatus and methods for creation, collection, and dissemination of instructional content modules using mobile devices
Faulkner et al. On the identity of technological objects and user innovations in function
Thieberger The Oxford handbook of linguistic fieldwork
KR102010221B1 (ko) 스마트폰 기반 방법들 및 시스템들
Valdovinos Kaye et al. You made this? I made this: Practices of authorship and (mis) attribution on TikTok
US20110078564A1 (en) Converting Text Messages into Graphical Image Strings
Hug et al. Towards a conceptual framework to integrate designerly and scientific sound design methods
Moon et al. Mood lighting system reflecting music mood
FR2908252A1 (fr) Procede de partage interactif temps reel de donnees multimedia serveur et reseau de communication interactif temps reel
FR2830714A1 (fr) Procede automatique d'enrichissement d'image numerique
FR3043521A1 (fr) Generation automatique de contenu audiovisuel
White The ‘work of the eye’in infant research: A visual encounter
EP2208150A1 (fr) Procédé d'organisation de données multimédia
US20220366881A1 (en) Artificial intelligence models for composing audio scores
EP1202237A1 (fr) Procédé pour rendre accessibles des informations préexistantes à des individus souffrant de déficiences visuelle et/ou auditive
EP2136579A1 (fr) Procédé de production de contenus multimédia de géolocalisation, système de gestion comportementale de tels contenus multimédia, et procédé de géoguidage utilisant ces contenus multimédia
EP2156644A2 (fr) Procede de diffusion d'un element complementaire, serveur et terminal correspondants
Huawei Technologies Co., Ltd. HUAWEI AI Open Platform
Westling HDR and the Colorist: How new technology affects professionals in the motion picture industry
EP4128807A1 (fr) Procede et dispositif de personnalisation de contenu multimedia generique
Campbell Digital Stories as Data
Linares AI: a change or paradigm? Authorship and ownership in the film scoring industry
Forrest et al. Viewing I, Daniel Blake in the English Regions: Towards an Understanding of Realism through Audience Interpretation
Macchiavelli Metamorphoses of a Genre: British and Italian Sound Docudrama in Context and Contemporary Production

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20170512

ST Notification of lapse

Effective date: 20170731