FR3020156A1 - Procede d'adaptation d'une representation de contenus musicaux - Google Patents

Procede d'adaptation d'une representation de contenus musicaux Download PDF

Info

Publication number
FR3020156A1
FR3020156A1 FR1453481A FR1453481A FR3020156A1 FR 3020156 A1 FR3020156 A1 FR 3020156A1 FR 1453481 A FR1453481 A FR 1453481A FR 1453481 A FR1453481 A FR 1453481A FR 3020156 A1 FR3020156 A1 FR 3020156A1
Authority
FR
France
Prior art keywords
musical
content
musical content
representation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1453481A
Other languages
English (en)
Other versions
FR3020156B1 (fr
Inventor
Jean-Philippe Alexander
Frereric Sauneuf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR1453481A priority Critical patent/FR3020156B1/fr
Priority to PCT/FR2015/050950 priority patent/WO2015158997A1/fr
Priority to US15/304,441 priority patent/US20170124187A1/en
Priority to EP15718552.1A priority patent/EP3132445A1/fr
Priority to CN201580023192.0A priority patent/CN106463154A/zh
Publication of FR3020156A1 publication Critical patent/FR3020156A1/fr
Application granted granted Critical
Publication of FR3020156B1 publication Critical patent/FR3020156B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • G06F16/639Presentation of query results using playlists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

Le procédé comprend la génération d'une représentation de contenus musicaux centrée sur un premier contenu musical, et une lecture du contenu musical sur lequel la représentation est centrée. Le contenu musical sur lequel la représentation est centrée est lu tant qu'aucune action n'est entreprise par l'utilisateur. Si une action mettant fin à la lecture du contenu musical en cours est entreprise par l'utilisateur, un nouveau contenu musical est lu. Si une action ne mettant pas fin à la lecture du contenu musical en cours est entreprise, l'action est prise en compte. Si la lecture du contenu musical sur lequel la représentation est centrée est terminée, un nouveau contenu musical de la représentation est lu. La représentation est modifiée à chaque nouvelle lecture d'un contenu musical pour être centrée sur le nouveau contenu musical lu.

Description

Procédé d'adaptation d'une représentation de contenus musicaux L'invention concerne l'adaptation d'une représentation de contenus musicaux, en l'espèce des fichiers audio en fonction des souhaits d'un utilisateur, et plus particulièrement la modification d'une représentation de contenus musicaux en fonction des indications d'un utilisateur sur le morceau en cours d'écoute. Une représentation de morceaux de musique correspond à l'organisation d'une pluralité de contenus musicaux stockés dans une base de données. La représentation peut concerner l'intégralité du contenu de la base de données ou une partie seulement des morceaux de musique la base de données. En général, une représentation de contenus musicaux se présente sous la forme d'une arborescence organisée à partir des genres, puis des artistes, puis des albums, puis des morceaux composants un album. Lorsque la représentation englobe un grand nombre de contenus musicaux, de nombreuses manipulations sont souvent nécessaires pour accéder à un morceau de musique. Et lorsque l'utilisateur n'a pas une idée précise du morceau qu'il souhaite écouter, le parcours de l'arborescence complète peut être long et fastidieux. A titre d'exemple, une base de données peut comprendre plus de 500 artistes, plus de 10 albums par artiste ce qui représente plus de 5000 albums, etc.
Cette organisation génère en outre un problème d'insécurité lorsque la base de données à partir de laquelle la représentation est générée est embarquée à bord d'un véhicule automobile en mouvement. En effet, lorsque l'utilisateur conduit le véhicule automobile, les risques d'accident sont accrus dès lors qu'il ne peut garder toute son attention sur la route. Les modes de présentation de classification des données musicales ne sont donc pas optimisés pour un usage en conduite.
Plus le nombre de manipulations d'une interface est grand, plus les risques d'accidents sont élevés. Et ce, quel que soit le type d'interface tactile directe ou indirecte utilisée. Une surface d'interaction directe peut-être une surface telle qu'un écran tactile ou tout autre type de surface d'affichage interactive. Une surface d'interaction indirecte peut être une commande déportée tactile de type pavé tactile, ou « touchpad » en anglais. Dans un cas où l'utilisateur sait exactement ce qu'il souhaite écouter, il pourra utiliser une commande vocale pour formuler directement sa requête, par exemple en prononçant le nom du morceau de musique. C'est le meilleur des cas d'usage, d'un point de vue de la sécurité. En revanche, dans un cas où l'utilisateur ne sait pas spécifiquement ce qu'il cherche, il n' aura pas recours à la reconnaissance vocale ou même à un clavier virtuel pour saisir ou indiquer directement ce qu'il souhaite écouter. Dans ce cas, deux solutions sont généralement proposées par les interfaces : la lecture aléatoire des morceaux de musique de la base de données ou bien le parcours au hasard de l'arborescence l'interface homme machine, notée aussi IHM, pour la partie musicale. Dans le cas de la lecture aléatoire, la probabilité que l'utilisateur apprécie toutes les propositions musicales faites par le système est faible. Il sera alors contraint de passer de manière récurrente au morceau suivant. Dans le cas où l'utilisateur décide de parcourir au hasard l'arborescence, la tâche est alors longue, fastidieuse et dangereuse lorsque l'utilisateur est un conducteur de véhicule automobile. L'invention vise en premier lieu à optimiser la recherche d'un contenu musical lorsque l'utilisateur ne sait pas exactement ce qu'il désire écouter, en tenant compte de ses remarques quant à ses envies du moment. Au lieu d'un classement par genre musical qui complique un classement de morceaux de musique très différents, l'invention a pour but d'organiser une recherche en fonction des vertus attendues des contenus musicaux ou des sensibilités de l'utilisateur, comme par exemple énergisante ou relaxante, ou encore sombre ou positive, etc. Il existe des solutions pour classer les morceaux de musique dans un mode de représentation dit de « nuage musical » dans lequel les morceaux de musique sont rangés en fonction de deux axes précis. Cependant, ces axes ne correspondent généralement pas aux envies de l'utilisateur mais à un genre musical. D'autres paramètres peuvent également être utilisés tels que la date de parution des albums, les noms des artistes par ordre alphabétique, la fréquence d'écoute, etc.... Des axes de ce type n'offrent pas à l'utilisateur une solution de recherche efficace. De tels axes peuvent même donner lieu à des interprétations différentes, à l'instar du genre musical dont l'interprétation peut être subjective. De plus, la classification de la musique est généralement réalisée par un panel d'experts qui écoutent la musique. Cette méthodologie est subjective, faillible et longue. Elle ne permet pas de qualifier de manière rapide les morceaux de musique pour pouvoir les positionner dans le nuage musical. En outre, en cas de renouvellement d'expert, la nouvelle qualification ne sera pas celle qu'aurait réalisée l'ancien expert. Il existe également des systèmes demandant simplement l'utilisateur de déclarer des préférences, et des humeurs. Cependant, les méthodes mises en oeuvre par de tels systèmes sont faillibles car, d'une part, les préférences peuvent varier au cours du temps, que ce soit dans la journée, dans la semaine ou dans un référentiel temporel encore plus large et, d'autre part, il n'est pas possible de déduire des goûts musicaux à partir d'une humeur. L'invention a ainsi, en second lieu, pour but de pallier les inconvénients précités en proposant un procédé automatisé permettant de générer un nuage musical rapidement à partir d'une base de données musicale, sans l'intervention d'experts. L'invention a encore pour but de fournir un système de gestion de l'interaction homme machine via un écran tactile offrant une expérience musicale plus rapide de par l'automatisation de la création de listes d'écoute dans un nuage musical, et permettant ainsi une interface plus sécuritaire pour un usage embarqué à bord d'un véhicule automobile. Selon un aspect de l'invention, il est proposé l'adaptation d'une représentation de contenus musicaux comprenant la génération de la représentation des contenus musicaux centrée sur un premier contenu musical, et une lecture du contenu musical sur lequel la représentation est centrée. Selon une caractéristique de l'invention, le contenu musical sur lequel la représentation est centrée est lu tant qu'aucune action n'est entreprise par l'utilisateur, et le procédé comprend les étapes suivantes : si une action mettant fin à la lecture du contenu musical est entreprise par l'utilisateur, un nouveau contenu musical est lu, si une action ne mettant pas fin à la lecture du morceau en cours est entreprise, l'action est prise en compte, et la lecture du contenu musical continue, - si la lecture du contenu musical sur lequel la représentation est centrée est terminée, un nouveau contenu musical de la représentation est lu, ladite représentation étant modifiée à chaque nouvelle lecture d'un contenu musical pour être centrée sur le nouveau contenu musical lu.
Le procédé offre ainsi une expérience musicale enrichissante en favorisant la création d'un parcours de découverte musicale auto adaptatif demandant le minimum de manipulations de la part de l'utilisateur. L'invention permet ainsi de prendre en compte des choix et des déclarations de l'utilisateur pour affiner la connaissance du système sur l'utilisateur. Le procédé permet en outre de modifier la représentation des contenus musicaux dès la première action de l'utilisateur. Si l'utilisateur n'effectue aucune action, l'enchaînement des morceaux de musique de la représentation, dite aussi nuage musical, est déterminé aléatoirement parmi les morceaux du nuage musical qui n'ont pas encore été lus, une détermination aléatoire du prochain étant réalisée à la fin de chaque lecture de morceau.
Chaque action de l'utilisateur, qu'elle mette fin ou non à la lecture du contenu musical, c'est-à-dire du morceau de musique en cours de lecture, entraîne une modification de la représentation des contenus musicaux. Ces modifications permettent d'adapter l'enchaînement des contenus musicaux de manière à s'adapter en temps réel aux souhaits de l'utilisateur. Le choix des morceaux est alors semi aléatoire étant donné qu'il est fait parmi un groupe de contenus musicaux restreint en tenant compte de paramètres définis par les actions de l'utilisateur qui traduisent ses souhaits. Ainsi, la représentation telle qu'elle a été créée et les modalités d' interaction, c' est-à-dire d' adaptation, permettent à l'utilisateur de ne pas parcourir une arborescence pour écouter et découvrir des contenus musicaux, ou morceaux de musique. En une action de sélection, l'utilisateur peut écouter de la musique, et en une autre action, il peut indiquer qu'il apprécie ou non le contenu musical à l'écoute et influer sur les prochains contenus musicaux qu'il écoutera sans pour autant désigner explicitement le prochain morceau. La réduction du nombre d'interactions entre l'utilisateur et le système mettant en oeuvre le procédé permet d'augmenter la sécurité dans des applications embarquées à bord d'un véhicule automobile.
De préférence, la génération de la représentation des contenus musicaux comprend la génération des composantes acoustiques de chaque contenu musical, ou morceau de musique, contenu dans une base de données musicale, le calcul de la proximité acoustique de chaque contenu musical, et la génération de la représentation organisée selon deux dimensions du contenu musical de la base de données. La génération d'une telle représentation nommée également « nuage musical », permet d'optimiser la représentation obtenue. Les données musicales sont ainsi classées dans un espace à deux dimensions dont les axes n'ont pas de signification fixe, mais une signification variable selon l'utilisateur. Les axes peuvent par exemple être liés à la fréquence de la composante vocale, au nombre de battements par minutes, à la richesse fréquentielle, au type d'instrumentation, ou encore aux variations de niveau sonore.
La génération du nuage musical est réalisée par l'analyse du signal sonore de chaque contenu musical de la base de données musicale. L'analyse peut être faite en temps réel ou bien en temps masqué. Si l'analyse est faite en temps réel, le nuage évolue dans sa forme au fur et à mesure que l'utilisateur ajoute des morceaux. Si elle est faite en temps masqué, cela se fait en tâche de fond, pendant que l'utilisateur écoute la musique mais ne visualise pas le nuage qui sera mis à jour à la prochaine visualisation après ajout de morceaux. L'analyse des caractéristiques du signal sonore de chaque contenu musical permet de déterminer la distance qui sépare chaque contenu musical selon deux axes. Ces axes sont générés automatiquement par une analyse en composante principale. Ainsi, plus un contenu musical est proche d'un autre, plus à l'oreille de l'utilisateur, il semblera similaire. De cette manière, si l'utilisateur apprécie le contenu musical qu'il est en train d'écouter, il sait que les contenus musicaux qui sont proches analytiquement vont lui plaire. De préférence, le nuage musical généré à l'initiation du procédé d'adaptation comprend tous les contenus musicaux de la base de données et est centré sur le dernier contenu musical écouté par l'utilisateur.
L'utilisateur peut avantageusement choisir une action ne mettant pas fin à la lecture du morceau en cours parmi l'indication qu'il aime le contenu musical en cours de lecture, et la requête d'avoir par la suite des contenus musicaux similaires au morceau en cours de lecture.
Les actions ne mettant pas fin à la lecture du contenu musical permettent à l'utilisateur de donner une indication positive sur le type de contenu musical qu'il souhaite ensuite écouter tout en maintenant la lecture contenu musical en cours.
Une telle indication positive provoque la génération d'une zone de lecture à privilégier comprenant le contenu musical en cours de lecture et des contenus musicaux similaires. Une telle indication permet ainsi d'augmenter le nombre de contenus musicaux similaires dans les prochains contenus musicaux à venir, c'est-à-dire d'augmenter la fréquence avec laquelle des contenus musicaux similaires sont lus. Cela tout en évitant de sélectionner un contenu musical similaire au morceau en cours de lecture comme prochain contenu musical à lire juste après le contenu musical en cours de lecture pour lequel l'utilisateur a indiqué qu'il aimait ce contenu musical. Le prochain contenu musical lu sera donc choisi de manière semi-aléatoire parmi un groupe de contenus musicaux comprenant tous les autres contenus musicaux à l'exclusion du contenu musical en cours de lecture et des contenus musicaux similaires, des contenus musicaux lus précédemment, et éventuellement à l'exclusion des contenus musicaux compris dans la zone de lecture musicale à éviter. Le choix est semi aléatoire en ce que les contenus musicaux ont déjà été restreints à partir des indications de l'utilisateur.
La requête pour avoir par la suite des contenus musicaux similaires au contenu musical en cours de lecture provoque la génération d'une liste de lecture avec uniquement des contenus musicaux similaires au contenu musical en cours de lecture, la représentation de lecture étant modifiée pour comprendre uniquement les contenus musicaux de la liste de lecture générée. Cette requête permet à l'utilisateur de demander que les prochains contenus musicaux lus soient des contenus musicaux similaires au contenu musical en cours de lecture. Une telle requête permet de sortir du processus de parcours aléatoire ou semi aléatoire en générant une liste de lecture comprenant un nombre limité de contenus musicaux similaires. Le procédé peut en outre comprendre une étape de mémorisation de la liste de lecture ainsi générée, la mémorisation étant réalisée en réponse à une requête de l'utilisateur.
La liste peut être modifiée en fonction des actions entreprises par l'utilisateur au fur et à mesure de l'écoute des contenus musicaux de la liste. Une liste de lecture peut également être créée à partir d'une sélection par l'utilisateur d'un ensemble de contenus musicaux, l'ensemble étant sélectionné par une action de l'utilisateur sur un écran tactile, l'action pouvant être le traçage d'une zone fermée, telle qu'un cercle, sur l'écran tactile pour délimiter les contenus musicaux à sélectionner, ou bien la sélection de contenus musicaux à l'aide d'un chemin tracé entre les contenus musicaux indiqué à l'écran. De préférence, le premier contenu musical à écouter de la représentation correspond au dernier contenu musical écouté, ou est choisi parmi les derniers contenus musicaux ajoutés à la base de données à partir de laquelle la représentation est générée, ou encore est choisi parmi les contenus musicaux d'une zone de lecture à privilégier. Avantageusement, l'utilisateur peut choisir une action mettant fin à la lecture du contenu musical en cours parmi la demande du contenu musical précédent, la demande du contenu musical suivant, l'indication qu'il n'aime pas le contenu musical en cours de lecture, et/ou la sélection manuelle d'un nouveau contenu musical. De préférence, l'indication par l'utilisateur qu'il n'aime pas le contenu musical en cours de lecture entraîne la génération d'une zone de lecture musicale à éviter comprenant le contenu musical en cours de lecture et des contenus musicaux similaires, l'arrêt de la lecture en cours, la sélection d'un nouveau contenu musical à partir des contenus musicaux contenus dans la représentation et exclus de la zone de lecture musicale à éviter et la lecture du nouveau contenu musical sélectionné.
La zone de lecture musicale à éviter comprend le contenu musical indiqué ainsi que les contenus musicaux similaires. Les contenus musicaux compris dans la zone de lecture musicale à éviter seront signalés comme contenus musicaux à ne pas sélectionner réduisant ainsi le nombre de contenus musicaux sélectionnables.
Les indications que l'utilisateur aime ou n'aime pas un contenu musical sont mémorisées dans une mémoire et comptabilisées au fur et à mesure des indications. Cette comptabilité des indications permet de réduire la probabilité qu'un contenu musical soit lu notamment si à chaque fois est renseignée une indication selon laquelle l'utilisateur n'aime pas le contenu musical, ou inversement d'augmenter la probabilité qu'il soit lu notamment si à chaque fois est renseignée une indication selon laquelle l'utilisateur aime le contenu musical. Selon un autre aspect, il est proposé un système informatique comprenant des moyens configurés pour mettre en oeuvre le procédé tel que défini ci-dessus. Selon encore un autre aspect, il est proposé un produit de programme d'ordinateur chargeable directement dans une mémoire d'un système informatique, comprenant des portions de code logiciel pour l'exécution du procédé tel que défini ci-dessus lorsque ledit programme est exécuté par ledit système informatique. Selon encore un autre aspect, il est proposé un support lisible par un système informatique ayant des instructions exécutables par ordinateur adaptées pour provoquer l'exécution par le système informatique du procédé tel que défini ci-dessus. D'autres avantages et caractéristiques de l'invention apparaîtront à l'examen de la description détaillée d'un mode de mise en oeuvre de l'invention, nullement limitatif, et des dessins annexés, sur lesquels : la figure 1 présente un organigramme d'un procédé d'adaptation d'une représentation d'un groupe de morceaux de musique selon un mode de mise en oeuvre de l'invention ; la figure 2 représente un organigramme d'un procédé de génération de la représentation d'un groupe de morceaux de musique mis en oeuvre dans le procédé illustré sur la figure 1.
Sur la figure 1 est illustré de manière schématique un organigramme d'un procédé d'adaptation d'une représentation d'un contenu musical selon un mode de mise en oeuvre de l'invention. Par contenu musical, on entend notamment un ensemble de fichiers audio par exemple codés, correspondant à ces morceaux de musique. Dans une première étape 100, le procédé d'adaptation est lancé par la sélection d'une commande requérant le lancement d'un nuage musical.
Dans une étape suivante 102, un nuage musical comprenant un nombre K de morceaux de musique issus d'une base de données musicale est généré à partir d'un procédé de génération de la représentation d'un groupe de morceaux de musique tel que présenté sur la figure 2.
Comme illustré sur la figure 2, l'étape 102 comprend, dans une première étape 200, le chargement des K morceaux d'une base de données musicale, et dans une seconde étape 202, la génération des composantes acoustiques de chacun des K morceaux chargés, puis, dans une troisième étape 204, un calcul de la proximité acoustique de chaque morceau chargé, et enfin, dans une quatrième étape 206, la génération de la représentation en nuage musical organisée selon deux dimensions des morceaux de musique. L'analyse des composantes acoustiques du signal sonore de chaque morceau permet de déterminer la distance qui sépare chaque morceau selon deux axes. Ces axes sont générés automatiquement par une analyse en composantes principales. L'analyse en composantes principales, notée ACP, est une méthode d'analyse de données de la famille de la statistique multivariée, qui consiste à transformer des variables corrélées entre elles en de nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées "composantes principales", ou axes principaux. Elle permet en général de réduire le nombre de variables et de rendre l'information moins redondante.
Il s'agit d'une approche à la fois géométrique, les variables étant représentées dans un nouvel espace selon des directions d'inertie maximale, et statistique, la recherche portant sur des axes indépendants expliquant au mieux la variabilité des données.
Comme illustré sur la figure 1, dans une étape suivante 104 du procédé d'adaptation, le nuage musical de K morceaux est modifié pour être centré sur le dernier morceau de musique du groupe de morceaux écouté par l'utilisateur. En variante, le nuage musical pourrait être centré sur un morceau choisi parmi les derniers morceaux ajoutés à la base de données musicale, ou bien sur un morceau choisi parmi la zone de lecture à privilégier. Dans une étape suivante 106, le morceau de musique sur lequel le nuage musical est centré est lu de sorte que l'utilisateur puisse l'écouter. Dans une étape suivante 108, on teste si une action a été entreprise par l'utilisateur. Si aucune action n'est entreprise, la lecture du morceau de musique est poursuivie sans interruption (étape 110). Les étapes 108 et 110 sont répétées tant qu'aucune action n'est entreprise par l'utilisateur, et ce tant que la lecture du morceau de musique n'est pas terminée. Si aucune action n'a été entreprise par l'utilisateur et qu'il est détecté dans une étape 112 que la lecture du morceau est terminée, on vérifie lors d'une étape 114 si une liste de lecture spécifique à laquelle le morceau en cours appartient a été sélectionnée. La liste de lecture comprend un nombre inférieur à K de morceaux de musique. Si une liste de lecture a été sélectionnée initialement, on vérifie, dans une étape 115, si la liste de lecture est terminée. Si elle est terminée, on retourne à l'étape 102 en centrant le nuage musical de K contenu musical sur le dernier morceau de musique lu. En revanche, si le morceau de musique dont la lecture vient de s'achever n'est pas le dernier de la liste de lecture, le morceau suivant de la liste de lecture est sélectionné dans une étape 116, et le morceau ainsi sélectionné est lu dans une étape 118. Le nuage musical est alors modifié, dans une étape 120, de sorte qu'il soit centré sur le nouveau morceau en cours de lecture. Le procédé reprend alors à l'étape 108. Si une liste de lecture n'a pas été sélectionnée, on sélectionne dans une étape 117 un nouveau morceau. La sélection est réalisée de manière semi-aléatoire à partir des morceaux non lus du nuage musical.
Si une action de l'utilisateur est détectée pendant l'étape 108, on détermine dans une étape 122 quelle action a été entreprise par l'utilisateur. Si l'action détectée correspond à une requête du morceau précédent, dans une étape 124, la lecture en cours est interrompue et le morceau précédemment écouté par l'utilisateur est sélectionné. Le procédé passe ensuite à l'étape 118 dans laquelle le morceau sélectionné est lu, et à l'étape 120 dans laquelle le nuage musical est recentré sur le morceau en cours de lecture. Si l'action détectée correspond à une requête du morceau suivant, dans une étape 126, la lecture en cours est interrompue et un autre morceau de musique est choisi de manière semi aléatoire. La sélection est réalisée de manière semi aléatoire car elle est réalisée parmi tous les morceaux de musique du nuage, mais avec la condition que le nouveau morceau soit éloigné, en termes de composantes principales, du morceau qui vient d'être interrompu qu'il soit en dehors d'une zone de lecture à éviter, et qu'il soit préférentiellement dans une zone de lecture à privilégier. Le procédé passe ensuite à l'étape 118 dans laquelle le morceau sélectionné est lu, et à l'étape 120 dans laquelle le nuage musical est recentré sur le morceau en cours de lecture. Si l'action détectée correspond à une indication selon laquelle l'utilisateur n'apprécie pas le morceau de musique en cours de lecture, dans une étape 128, une zone de lecture musicale à éviter est générée. La zone de lecture musicale à éviter comprend le fichier audio en cours de lecture et des morceaux similaires, c'est-à-dire les morceaux les plus proches selon l'analyse des composantes principales. Les morceaux les plus proches seront définis par exemple comme les morceaux ayant moins de 5% d'écart par rapport à une ou plusieurs composantes principales de l'analyse ACP. D'autres définitions sont envisageables également. Dans une étape suivante 130, la lecture du fichier audio en cours est interrompue et un nouveau fichier est sélectionné parmi les contenus musicaux du nuage musical qui sont exclus de la zone de lecture musicale à éviter. Le procédé passe ensuite à l'étape 118 dans laquelle le morceau sélectionné est lu, et à l'étape 120 dans laquelle le nuage musical est recentré sur le morceau en cours de lecture. Si une zone de lecture musicale existe déjà, l'étape 128 comprend l'ajout du morceau en cours de lecture et des morceaux similaires à la zone de lecture musicale à éviter. Si l'action détectée correspond à une indication que l'utilisateur apprécie le morceau de musique en cours de lecture, dans une étape 132, une zone de lecture musicale à privilégier est générée. La zone de lecture musicale à privilégier comprend le morceau en cours de lecture et des morceaux similaires. La lecture du morceau en cours est maintenue, et le procédé retourne à l'étape 108 pour détecter d'éventuelles autres actions entreprises par l'utilisateur ou bien pour détecter la fin du morceau en cours à l'étape 112 si aucune autre action n'est entreprise.
Si l'action détectée correspond à une requête pour avoir par la suite des morceaux similaires au morceau en cours de lecture, dans une étape 134, une liste de lecture spécifique est générée. La liste de lecture spécifique comprend le morceau en cours de lecture et des morceaux similaires au morceau en cours de lecture. Dans une étape suivante 136, le nuage musical est modifié pour correspondre à la liste de lecture spécifique ainsi générée. La lecture du morceau en cours est maintenue, et le procédé retourne à l'étape 108 pour détecter d'éventuelles autres actions entreprises par l'utilisateur ou bien pour détecter la fin du morceau en cours à l'étape 112 si aucune autre action n'est entreprise. Un tel procédé peut être mis en oeuvre par un système électronique ou des moyens logiciels. Le système ou les moyens mettant en oeuvre ce procédé peuvent être embarqués à bord d'un véhicule automobile. L'invention offre ainsi un procédé automatisé, ainsi qu'un système d'interaction avec un utilisateur mettant en oeuvre le procédé, permettant de générer rapidement et de manière automatisée un nuage musical à partir d'une base de données musicale et de créer et d'adapter des listes d'écoute dans le nuage musical à partir des souhaits de l'utilisateur en minimisant les manipulations de l'utilisateur. La réduction du nombre de manipulations permet ainsi de créer une interface plus sécuritaire notamment pour un usage à bord d'un véhicule automobile. Par ailleurs, le procédé mis en oeuvre est le plus pérenne possible de par la prise en compte des choix et des déclarations de l'utilisateur pour affiner la connaissance du système sur l'utilisateur.

Claims (10)

  1. REVENDICATIONS1. Procédé d'adaptation d'une représentation de contenus musicaux comprenant la génération (102) de la représentation des contenus musicaux centrée sur un premier contenu musical, et une lecture (106) du contenu musical sur lequel la représentation est centrée, caractérisé en ce que le contenu musical sur lequel la représentation est centrée est lu tant qu'aucune action n'est entreprise par l'utilisateur, et le procédé comprend les étapes suivantes : si une action mettant fin à la lecture du contenu musical est entreprise par l'utilisateur, un nouveau morceau est lu, si une action ne mettant pas fin à la lecture du contenu musical est entreprise, l'action est prise en compte, et la lecture du contenu musical continue, si la lecture du contenu musical sur lequel la représentation est centrée est terminée un nouveau contenu musical est lu, ladite représentation étant modifiée à chaque nouvelle lecture d'un contenu musical pour être centrée sur le nouveau contenu musical lu.
  2. 2. Procédé selon la revendication 1, dans lequel la génération (102) de la représentation des contenus musicaux comprend la génération (202) des composantes acoustiques de chaque contenu musical contenu dans une base de données musicale, le calcul (204) de la proximité acoustique de chaque contenu musical, et la génération (206) de la représentation organisée selon deux dimensions des contenus musicaux contenus dans la base de données.
  3. 3. Procédé selon l'une des revendications 1 ou 2, dans lequel l'utilisateur a le choix d'une action ne mettant pas fin à la lecture du contenu musical en cours parmi l'indication qu'il aime le contenu musical en cours de lecture et la requête d'avoir par la suite des contenus musicaux similaires au contenu musical en cours de lecture.
  4. 4. Procédé selon la revendication 3, dans lequel l'indication par l'utilisateur qu'il aime le contenu musical en cours de lecture entraîne la génération d'une zone de lecture à privilégier comprenantle contenu musical en cours de lecture et des contenus musicaux similaires.
  5. 5. Procédé selon l'une des revendications 3 ou 4, dans lequel la requête pour avoir par la suite des contenus musicaux similaires au morceau en cours de lecture entraîne la génération d'une liste de lecture avec uniquement des contenus musicaux similaires au contenu musical en cours de lecture, la représentation de lecture étant modifiée pour comprendre uniquement les contenus musicaux de la liste de lecture générée.
  6. 6. Procédé selon l'une des revendications 1 à 5, dans lequel le premier morceau à écouter de la représentation des contenus musicaux correspond au dernier contenu musical écouté, ou bien est choisi parmi les derniers contenus musicaux ajoutés à la base de données à partir de laquelle la représentation est générée, ou bien est choisi parmi les contenus musicaux d'une zone de lecture à privilégier.
  7. 7. Procédé selon l'une des revendications 1 à 6, dans lequel l'utilisateur a le choix d'une action mettant fin à la lecture du contenu musical en cours parmi l'indication qu'il n'aime pas le contenu musical en cours de lecture, la demande du contenu musical précédent, la demande du contenu musical suivant, et/ou la sélection manuelle d'un nouveau contenu musical.
  8. 8. Procédé selon la revendication 7, dans lequel l'indication par l'utilisateur qu'il n'aime pas le contenu musical en cours de lecture entraîne la génération d'une zone de lecture musicale à éviter comprenant le contenu musical en cours de lecture et des contenus musicaux similaires, l'arrêt de la lecture en cours, la sélection d'un nouveau contenu musical à partir des contenus musicaux contenus dans la représentation et exclus de la zone de lecture musicale à éviter, et la lecture du nouveau contenu musical sélectionné.
  9. 9. Système informatique comprenant des moyens configurés pour mettre en oeuvre le procédé selon l'une des revendications 1 à 8.
  10. 10. Produit de programme d'ordinateur chargeable directement dans une mémoire d'un système informatique, comprenant des portions de code logiciel pour l'exécution du procédé selon l'une desrevendications 1 à 8 lorsque ledit programme est exécuté par ledit système informatique.
FR1453481A 2014-04-17 2014-04-17 Procede d'adaptation d'une representation de contenus musicaux Active FR3020156B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR1453481A FR3020156B1 (fr) 2014-04-17 2014-04-17 Procede d'adaptation d'une representation de contenus musicaux
PCT/FR2015/050950 WO2015158997A1 (fr) 2014-04-17 2015-04-09 Procédé d'adaptation d'une représentation de contenu musicaux
US15/304,441 US20170124187A1 (en) 2014-04-17 2015-04-09 Method of adaptation of a representation of musical content
EP15718552.1A EP3132445A1 (fr) 2014-04-17 2015-04-09 Procédé d'adaptation d'une représentation de contenu musicaux
CN201580023192.0A CN106463154A (zh) 2014-04-17 2015-04-09 适配音乐内容的表示的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1453481A FR3020156B1 (fr) 2014-04-17 2014-04-17 Procede d'adaptation d'une representation de contenus musicaux

Publications (2)

Publication Number Publication Date
FR3020156A1 true FR3020156A1 (fr) 2015-10-23
FR3020156B1 FR3020156B1 (fr) 2016-06-03

Family

ID=52003880

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1453481A Active FR3020156B1 (fr) 2014-04-17 2014-04-17 Procede d'adaptation d'une representation de contenus musicaux

Country Status (5)

Country Link
US (1) US20170124187A1 (fr)
EP (1) EP3132445A1 (fr)
CN (1) CN106463154A (fr)
FR (1) FR3020156B1 (fr)
WO (1) WO2015158997A1 (fr)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243592A1 (en) * 2003-05-30 2004-12-02 Bill David S. Personalizing content using an intermediary bridge
EP1489617A1 (fr) * 2003-06-19 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Dispositif et procédé de reproduction de musique
EP1489765A2 (fr) * 2003-06-17 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Système de selection de musique et système de distribution de musique
US20070119288A1 (en) * 2005-11-29 2007-05-31 Victor Company Of Japan, Ltd. Music-piece retrieval and playback apparatus, and related method
EP2120231A1 (fr) * 2007-03-07 2009-11-18 Pioneer Corporation Dispositif et procédé d'inspection de données
WO2013144993A1 (fr) * 2012-03-26 2013-10-03 パイオニア株式会社 Procédé d'affichage, procédé permettant de sélectionner un morceau de musique, dispositif d'affichage, dispositif audio et programme

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7711838B1 (en) * 1999-11-10 2010-05-04 Yahoo! Inc. Internet radio and broadcast method
US7962482B2 (en) * 2001-05-16 2011-06-14 Pandora Media, Inc. Methods and systems for utilizing contextual feedback to generate and modify playlists
JP4296514B2 (ja) * 2006-01-23 2009-07-15 ソニー株式会社 音楽コンテンツ再生装置、音楽コンテンツ再生方法及び音楽コンテンツ再生プログラム
CN102543119A (zh) * 2011-12-31 2012-07-04 北京百纳威尔科技有限公司 基于场景的音乐播放处理方法和音乐播放设备
US9459768B2 (en) * 2012-12-12 2016-10-04 Smule, Inc. Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters
US20150082238A1 (en) * 2013-09-18 2015-03-19 Jianzhong Meng System and method to display and interact with a curve items list
US10129314B2 (en) * 2015-08-18 2018-11-13 Pandora Media, Inc. Media feature determination for internet-based media streaming

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243592A1 (en) * 2003-05-30 2004-12-02 Bill David S. Personalizing content using an intermediary bridge
EP1489765A2 (fr) * 2003-06-17 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Système de selection de musique et système de distribution de musique
EP1489617A1 (fr) * 2003-06-19 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Dispositif et procédé de reproduction de musique
US20070119288A1 (en) * 2005-11-29 2007-05-31 Victor Company Of Japan, Ltd. Music-piece retrieval and playback apparatus, and related method
EP2120231A1 (fr) * 2007-03-07 2009-11-18 Pioneer Corporation Dispositif et procédé d'inspection de données
WO2013144993A1 (fr) * 2012-03-26 2013-10-03 パイオニア株式会社 Procédé d'affichage, procédé permettant de sélectionner un morceau de musique, dispositif d'affichage, dispositif audio et programme

Also Published As

Publication number Publication date
WO2015158997A1 (fr) 2015-10-22
EP3132445A1 (fr) 2017-02-22
US20170124187A1 (en) 2017-05-04
CN106463154A (zh) 2017-02-22
FR3020156B1 (fr) 2016-06-03

Similar Documents

Publication Publication Date Title
JP7136932B2 (ja) ディープラーニングに基づく音域バランシング方法、装置及びシステム
Bogdanov et al. Essentia: an open-source library for sound and music analysis
US9830351B2 (en) System and method for generating a playlist from a mood gradient
US10430024B2 (en) Media item selection using user-specific grammar
US10055493B2 (en) Generating a playlist
US20140114985A1 (en) Personalized media stations
US9098579B2 (en) Automatically selecting thematically representative music
US20150269256A1 (en) System and method for cross-library recommendation
US20160063011A1 (en) Location-based media searching and sharing
US20100332483A1 (en) Content output queue generation
US20090063971A1 (en) Media discovery interface
US20060083119A1 (en) Scalable system and method for predicting hit music preferences for an individual
US20100088327A1 (en) Method, Apparatus, and Computer Program Product for Identifying Media Item Similarities
US20160070702A1 (en) Method and system to enable user related content preferences intelligently on a headphone
US9875245B2 (en) Content item recommendations based on content attribute sequence
US10296959B1 (en) Automated recommendations of audio narrations
FR2903804A1 (fr) Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
FR2974226A1 (fr) Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.
FR3125193A1 (fr) Procédé informatisé de dé-linéarisation audiovisuelle
US20220414381A1 (en) Deep learning system for determining audio recommendations based on video content
Tacchini Serendipitous mentorship in music recommender systems
US20170124601A1 (en) Technologies for distributing digital media content licenses
FR3020156A1 (fr) Procede d'adaptation d'une representation de contenus musicaux
KR101943075B1 (ko) 머신러닝을 이용한 음악 콘텐츠의 메타데이터 자동 태깅 방법
US7254618B1 (en) System and methods for automatic DSP processing

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

CA Change of address

Effective date: 20221121

PLFP Fee payment

Year of fee payment: 10