WO2015158997A1 - Procédé d'adaptation d'une représentation de contenu musicaux - Google Patents

Procédé d'adaptation d'une représentation de contenu musicaux Download PDF

Info

Publication number
WO2015158997A1
WO2015158997A1 PCT/FR2015/050950 FR2015050950W WO2015158997A1 WO 2015158997 A1 WO2015158997 A1 WO 2015158997A1 FR 2015050950 W FR2015050950 W FR 2015050950W WO 2015158997 A1 WO2015158997 A1 WO 2015158997A1
Authority
WO
WIPO (PCT)
Prior art keywords
musical
content
musical content
representation
user
Prior art date
Application number
PCT/FR2015/050950
Other languages
English (en)
Inventor
Jean-Philippe Alexander
Frédéric SAUNEUF
Original Assignee
Renault S.A.S.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault S.A.S. filed Critical Renault S.A.S.
Priority to US15/304,441 priority Critical patent/US20170124187A1/en
Priority to EP15718552.1A priority patent/EP3132445A1/fr
Priority to CN201580023192.0A priority patent/CN106463154A/zh
Publication of WO2015158997A1 publication Critical patent/WO2015158997A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • G06F16/639Presentation of query results using playlists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Definitions

  • the invention relates to the adaptation of a representation of musical contents, in this case audio files according to the wishes of a user, and more particularly the modification of a representation of musical contents according to the indications of a musical content. user on the song being listened to.
  • a representation of music pieces is the organization of a plurality of musical contents stored in a database.
  • the representation may relate to the entire contents of the database or only part of the music pieces in the database.
  • a representation of musical contents is in the form of a tree structure organized from genres, then artists, then albums, then pieces of an album.
  • a database can include more than 500 artists, more than 10 albums per artist, which represents more than 5000 albums, and so on.
  • This organization also generates a problem of insecurity when the database from which the representation is generated is embedded in a moving motor vehicle.
  • a surface of direct interaction may be a surface such as a touch screen or any other type of interactive display surface.
  • An indirect interaction surface may be a tactile remote control type touchpad, or "touchpad” in English.
  • the invention aims first and foremost to optimize the search for a musical content when the user does not know exactly what he wants to listen, taking into account his remarks as to his desires of the moment. Instead of a classification by musical genre which complicates a classification of very different pieces of music, the aim of the invention is to organize a search according to the expected virtues. musical contents or sensitivities of the user, such as, for example, energizing or relaxing, or dark or positive, etc .;
  • these axes do not generally correspond to the desires of the user but to a musical genre.
  • Other parameters can also be used such as the date of publication of the albums, the names of the artists in alphabetical order, the frequency of listening, etc .... Axes of this type do not offer the user a effective search solution.
  • Such axes may even give rise to different interpretations, like the musical genre, the interpretation of which may be subjective.
  • the classification of music is usually done by a panel of experts who listen to the music. This methodology is subjective, fallible and long. It does not allow to quickly qualify the music to be able to position them in the musical cloud. In addition, in the event of the renewal of an expert, the new qualification will not be that which the former expert would have carried out.
  • the invention thus, secondly, aims to overcome the aforementioned drawbacks by proposing an automated method for generating a musical cloud quickly from a musical database, without the intervention of experts.
  • a representation of musical contents comprising the generation of the representation of the musical contents centered on a first musical content, and a reading of the musical content on which the representation is centered.
  • the musical content on which the representation is centered is read as long as no action is taken by the user, and the method comprises the following steps:
  • said representation being modified with each new reading of a musical content to be centered on the new musical content read.
  • the method thus provides a rewarding musical experience by promoting the creation of a self - adaptive musical discovery path that requires the least amount of manipulation on the part of the user.
  • the invention thus makes it possible to take into account the choices and the declarations of the user to refine the knowledge of the system on the user.
  • the method also makes it possible to modify the representation of the musical contents from the first action of the user. If the user does not take any action, the sequence of pieces of The music of the representation, also called musical cloud, is randomly determined among the pieces of the musical cloud that have not yet been read, a random determination of the next being made at the end of each song playback.
  • the representation as it was created and the modalities of interaction allow the user not to browse a tree to listen and discover musical contents, or pieces of music.
  • the user can listen to music, and in another action, he can indicate that he appreciates or not the musical content to listen and influence the next musical contents that he will listen without as explicitly designate the next piece.
  • the generation of the representation of the musical contents comprises the generation of the acoustic components of each musical content, or piece of music, contained in a musical database, the calculation of the acoustic proximity of each musical content, and the generation of the two-dimensional representation of the musical content of the database.
  • the generation of such a representation makes it possible to optimize the representation obtained.
  • the musical data are thus classified in a two-dimensional space whose axes do not have a fixed meaning, but a variable meaning according to the user.
  • the axes can for example be related to the frequency of the voice component, the number of beats per minute, the frequency richness, the type of instrumentation, or the variations in sound level.
  • the generation of the musical cloud is carried out by analyzing the sound signal of each musical content of the musical database.
  • the analysis can be done in real time or in masked time. If the analysis is done in real time, the cloud evolves in its shape as the user adds pieces. If it is done in masked time, it is done in the background, while the user listens to the music but does not visualize the cloud that will be updated at the next visualization after adding pieces.
  • the analysis of the characteristics of the sound signal of each musical content makes it possible to determine the distance that separates each musical content along two axes. These axes are generated automatically by a principal component analysis. Thus, the more musical content is close to another, more to the user 's ear, it will look similar. In this way, if the user appreciates the musical content that he is listening to, he knows that musical contents that are analytically close will please him.
  • the musical cloud generated at the initiation of the adaptation process comprises all the musical contents of the database and is centered on the last musical content listened to by the user.
  • the user can advantageously choose an action that does not end the reading of the current piece, among the indication that he likes the musical content being played, and the request to have musical contents similar to the piece thereafter. during playback.
  • Actions that do not end playback of the music content allow the user to give a positive indication of the type of music content that they wish to listen to while still playing the current music content. Such a positive indication causes the generation of a preferred reading area comprising the musical content being played and similar musical contents.
  • Such an indication thus makes it possible to increase the number of similar musical contents in the next musical contents to come, that is to say to increase the frequency with which similar musical contents are read. This while avoiding selecting music content similar to the currently playing song as the next music content to be played right after the currently playing music content for which the user has indicated that he or she likes that music content.
  • the next musical content read will therefore be selected semi-randomly from a group of musical contents including all the other musical contents excluding music content being played and similar musical contents, musical contents read previously, and possibly excluding musical contents included in the musical reading area to be avoided.
  • the choice is semi random in that the musical contents have already been restricted from the indications of the user.
  • the request to subsequently have musical contents similar to the musical content being played causes the generation of a playlist with only musical contents similar to the musical content being played, the reading representation being modified to include only the musical contents of the generated play list.
  • This request allows the user to request that the next music content read be musical content similar to the music content being played. Such a request makes it possible to exit the random or semi-random process by generating a playlist comprising a limited number of similar musical contents.
  • the method may further comprise a step of storing the reading list thus generated, the storage being performed in response to a request from the user.
  • the list can be modified according to the actions taken by the user as the music contents of the list are being listened to.
  • a playlist can also be created from a user selection of a set of musical contents, the set being selected by user action on a touch screen, the action being traceable. a closed area, such as a circle, on the touch screen to delimit the musical contents to be selected, or the selection of musical contents using a path drawn between the musical contents indicated on the screen. .
  • the first musical content to be listened to in the representation corresponds to the last musical content listened to, or is selected from among the last musical contents added to the database from which the representation is generated, or is chosen from among the musical contents a reading area to privilege.
  • the user can choose an action terminating the playback of the current musical content among the request of the previous musical content, the request for the following musical content, the indication that he does not like the musical content being played. playback, and / or manual selection of new music content.
  • the indication by the user that he does not like the musical content being played results in the generation of a musical reading zone to be avoided comprising the musical content being played and similar musical contents, the stop of the current playback, the selection of new musical content from the musical contents contained in the representation and excluded from the musical reading zone to be avoided and the reading of the new musical content selected.
  • the music playback area to avoid includes the specified music content as well as similar musical content.
  • the musical contents included in the music playback area to be avoided will be marked as music not to be selected, thus reducing the number of selectable musical contents.
  • the indications that the user likes or does not like musical content are stored in a memory and counted as and when indicated. This accounting of the indications makes it possible to reduce the probability of a musical content being read, especially if each time an indication is given that the user does not like the musical content, or conversely to increase the probability that it will be read. especially if each time is indicated an indication that the user likes the musical content.
  • a computer system comprising means configured to implement the method as defined above.
  • a computer program product loadable directly into a memory of a computer system, comprising portions of software code for executing the method as defined above when said program is executed. by said computer system.
  • a readable medium by a computer system having computer executable instructions adapted to cause the computer system to execute the method as defined above.
  • FIG. 1 presents a flowchart of a method of adapting a representation of a group of pieces of music according to an embodiment of the invention
  • FIG. 2 represents a flowchart of a method for generating the representation of a group of music pieces implemented in the method illustrated in FIG. 1.
  • Figure 1 is schematically illustrated a flowchart of a method of adapting a representation of a musical content according to an embodiment of the invention.
  • musical content we mean in particular a set of audio files for example coded, corresponding to these pieces of music.
  • a first step 100 the adaptation process is initiated by the selection of a command requiring the launch of a musical cloud.
  • a musical cloud comprising a number K of music pieces from a musical database is generated from a method of generating the representation of a group of pieces of music as presented on Figure 2.
  • step 102 comprises, in a first step 200, the loading of the K pieces of a musical database, and in a second step 202, the generation of the acoustic components of each of the K pieces loaded. then, in a third step 204, a computation of the acoustic proximity of each loaded piece, and finally, in a fourth step 206, the generation of the musical cloud representation organized according to two dimensions of the pieces of music.
  • the analysis of the acoustic components of the sound signal of each piece makes it possible to determine the distance that separates each piece along two axes. These axes are generated automatically by a principal component analysis.
  • ACP The principal components analysis, denoted ACP, is a method of data analysis of the family of multivariate statistics, which consists in transforming correlated variables into new variables uncorrelated with each other. These new variables are named "principal components", or main axes. It generally reduces the number of variables and makes the information less redundant. It is a geometric approach, the variables being represented in a new space according to maximum inertia directions, and statistically, the research on independent axes explaining at best the variability of the data.
  • the K song musical cloud is changed to focus on the last piece of music in the song group listened to by the user.
  • the musical cloud could be centered on a piece chosen from the last pieces added to the musical database, or on a piece chosen from the reading zone to be privileged.
  • a next step 106 the piece of music on which the musical cloud is centered is played back so that the user can listen to it.
  • a next step 108 it is tested whether an action has been taken by the user.
  • Step 1 10 If no action is taken, playback of the piece of music is continued without interruption (step 1 10). Steps 108 and 110 are repeated as long as no action is taken by the user until the playback of the piece of music is complete.
  • the playlist includes a number less than K of music tracks.
  • a playlist has been selected initially, it is checked, in a step 1 15, if the playlist is complete. If it is complete, return to step 102 by centering the musical cloud of K musical content on the last piece of music played.
  • the next song of the playlist is selected in a step 1 16, and the selected song is played in a step 1 18.
  • the musical cloud is then modified, in a step 120, so that it is centered on the new piece being played.
  • the process then resumes in step 108.
  • a new song is selected in a step 1 17.
  • the selection is made semi-randomly from the unread pieces of the musical cloud.
  • step 108 If a user action is detected during step 108, it is determined in a step 122 what action has been taken by the user.
  • step 124 the current play is interrupted and the piece previously listened to by the user is selected. The process then proceeds to step 1 18 in which the selected song is played, and to step 120 in which the musical cloud is re-centered on the song being played.
  • step 126 the current play is interrupted and another piece of music is selected in a semi random manner.
  • the selection is done semi-randomly because it is performed among all the pieces of music in the cloud, but with the condition that the new piece is removed, in terms of principal components, from the piece that has just been interrupted. outside a reading zone to avoid, and that it is preferentially in a preferred reading area.
  • the process then proceeds to step 1 18 in which the selected song is played, and to step 120 in which the musical cloud is re-centered on the song being played.
  • a music play area to be avoided is generated.
  • the music playback area to avoid includes the audio file in reading lessons and similar pieces, that is, the closest pieces according to the principal component analysis.
  • the nearest pieces will be defined for example as pieces having less than 5% deviation from one or more main components of the PCA analysis. Other definitions can also be envisaged.
  • the playback of the current audio file is interrupted and a new file is selected from the musical contents of the musical cloud that are excluded from the music playing area to be avoided. The process then proceeds to step 1 18 in which the selected song is played, and to step 120 in which the musical cloud is re-centered on the song being played.
  • step 128 includes adding the currently playing song and similar pieces to the music playing area to be avoided.
  • a preferred music playing area is generated.
  • the preferred music playback area includes the song being played and similar songs. Playback of the current song is maintained, and the process returns to step 108 to detect any other actions taken by the user or to detect the end of the current song in step 1 12 if no further action is taken. is undertaken.
  • a specific playlist is generated.
  • the specific playlist includes the song being played and songs that are similar to the song being played.
  • the musical cloud is modified to match the specific playlist generated. Playback of the current song is maintained, and the method returns to step 108 to detect any other actions taken by the user or to detect the end of the current song in step 1 12 if no further action is taken.
  • Such a method can be implemented by an electronic system or software means.
  • the system or means implementing this method can be embedded in a motor vehicle.
  • the invention thus provides an automated method, as well as a system for interaction with a user implementing the method, for quickly and automatically generating a musical cloud from a musical database and creating and adapting playlists in the musical cloud based on the wishes of the user by minimizing the manipulations of the user.
  • the reduction in the number of manipulations thus makes it possible to create a safer interface, particularly for use on board a motor vehicle.
  • the method implemented is the most sustainable possible by taking into account the choices and statements of the user to refine the knowledge of the system on the user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

Le procédé comprend la génération d'une représentation de contenus musicaux centrée sur un premier contenu musical, et une lecture du contenu musical sur lequel la représentation est centrée. Le contenu musical sur lequel la représentation est centrée est lu tant qu'aucune action n'est entreprise par l'utilisateur. Si une action mettant fin à la lecture du contenu musical en cours est entreprise par l'utilisateur, un nouveau contenu musical est lu. Si une action ne mettant pas fin à la lecture du contenu musical en cours est entreprise, l'action est prise en compte. Si la lecture du contenu musical sur lequel la représentation est centrée est terminée, un nouveau contenu musical de la représentation est lu. La représentation est modifiée à chaque nouvelle lecture d'un contenu musical pour être centrée sur le nouveau contenu musical lu.

Description

Procédé d 'adaptation d'une représentation de contenus musicaux
L' invention concerne l' adaptation d' une représentation de contenus musicaux, en l' espèce des fichiers audio en fonction des souhaits d'un utilisateur, et plus particulièrement la modification d'une représentation de contenus musicaux en fonction des indications d'un utilisateur sur le morceau en cours d' écoute.
Une représentation de morceaux de musique correspond à l' organisation d' une pluralité de contenus musicaux stockés dans une base de données. La représentation peut concerner l' intégralité du contenu de la base de données ou une partie seulement des morceaux de musique la base de données.
En général, une représentation de contenus musicaux se présente sous la forme d'une arborescence organisée à partir des genres, puis des artistes, puis des albums, puis des morceaux composants un album.
Lorsque la représentation englobe un grand nombre de contenus musicaux, de nombreuses manipulations sont souvent nécessaires pour accéder à un morceau de musique. Et lorsque l' utilisateur n' a pas une idée précise du morceau qu' il souhaite écouter, le parcours de l' arborescence complète peut être long et fastidieux. A titre d' exemple, une base de données peut comprendre plus de 500 artistes, plus de 10 albums par artiste ce qui représente plus de 5000 albums, etc.
Cette organisation génère en outre un problème d' insécurité lorsque la base de données à partir de laquelle la représentation est générée est embarquée à bord d' un véhicule automobile en mouvement.
En effet, lorsque l' utilisateur conduit le véhicule automobile, les risques d' accident sont accrus dès lors qu' il ne peut garder toute son attention sur la route. Les modes de présentation de classification des données musicales ne sont donc pas optimisés pour un usage en conduite. Plus le nombre de manipulations d'une interface est grand, plus les risques d' accidents sont élevés. Et ce, quel que soit le type d' interface tactile directe ou indirecte utilisée.
Une surface d' interaction directe peut-être une surface telle qu' un écran tactile ou tout autre type de surface d' affichage interactive. Une surface d' interaction indirecte peut être une commande déportée tactile de type pavé tactile, ou « touchpad » en anglais.
Dans un cas où l' utilisateur sait exactement ce qu' il souhaite écouter, il pourra utiliser une commande vocale pour formuler directement sa requête, par exemple en prononçant le nom du morceau de musique. C' est le meilleur des cas d' usage, d' un point de vue de la sécurité.
En revanche, dans un cas où l'utilisateur ne sait pas spécifiquement ce qu' il cherche, il n' aura pas recours à la reconnaissance vocale ou même à un clavier virtuel pour saisir ou indiquer directement ce qu' il souhaite écouter. Dans ce cas, deux solutions sont généralement proposées par les interfaces : la lecture aléatoire des morceaux de musique de la base de données ou bien le parcours au hasard de l' arborescence l' interface homme machine, notée aussi IHM, pour la partie musicale.
Dans le cas de la lecture aléatoire, la probabilité que l' utilisateur apprécie toutes les propositions musicales faites par le système est faible. Il sera alors contraint de passer de manière récurrente au morceau suivant.
Dans le cas où l'utilisateur décide de parcourir au hasard l' arborescence, la tâche est alors longue, fastidieuse et dangereuse lorsque l'utilisateur est un conducteur de véhicule automobile.
L' invention vise en premier lieu à optimiser la recherche d' un contenu musical lorsque l'utilisateur ne sait pas exactement ce qu' il désire écouter, en tenant compte de ses remarques quant à ses envies du moment. Au lieu d' un classement par genre musical qui complique un classement de morceaux de musique très différents, l' invention a pour but d' organiser une recherche en fonction des vertus attendues des contenus musicaux ou des sensibilités de l' utilisateur, comme par exemple énergisante ou relaxante, ou encore sombre ou positive, etc.
Il existe des solutions pour classer les morceaux de musique dans un mode de représentation dit de « nuage musical » dans lequel les morceaux de musique sont rangés en fonction de deux axes précis.
Cependant, ces axes ne correspondent généralement pas aux envies de l' utilisateur mais à un genre musical. D ' autres paramètres peuvent également être utilisés tels que la date de parution des albums, les noms des artistes par ordre alphabétique, la fréquence d' écoute, etc .... Des axes de ce type n' offrent pas à l'utilisateur une solution de recherche efficace. De tels axes peuvent même donner lieu à des interprétations différentes, à l' instar du genre musical dont l' interprétation peut être subjective.
De plus , la classification de la musique est généralement réalisée par un panel d' experts qui écoutent la musique. Cette méthodologie est subjective, faillible et longue. Elle ne permet pas de qualifier de manière rapide les morceaux de musique pour pouvoir les positionner dans le nuage musical. En outre, en cas de renouvellement d' expert, la nouvelle qualification ne sera pas celle qu' aurait réalisée l' ancien expert.
Il existe également des systèmes demandant simplement à l' utilisateur de déclarer des préférences , et des humeurs. Cependant, les méthodes mises en œuvre par de tels systèmes sont faillibles car, d'une part, les préférences peuvent varier au cours du temps, que ce soit dans la journée, dans la semaine ou dans un référentiel temporel encore plus large et, d' autre part, il n' est pas possible de déduire des goûts musicaux à partir d'une humeur.
L' invention a ainsi, en second lieu, pour but de pallier les inconvénients précités en proposant un procédé automatisé permettant de générer un nuage musical rapidement à partir d' une base de données musicale, sans l' intervention d' experts.
L' invention a encore pour but de fournir un système de gestion de l' interaction homme machine via un écran tactile offrant une expérience musicale plus rapide de par l' automatisation de la création de listes d' écoute dans un nuage musical, et permettant ainsi une interface plus sécuritaire pour un usage embarqué à bord d' un véhicule automobile.
Selon un aspect de l' invention, il est proposé l' adaptation d'une représentation de contenus musicaux comprenant la génération de la représentation des contenus musicaux centrée sur un premier contenu musical, et une lecture du contenu musical sur lequel la représentation est centrée.
Selon une caractéristique de l' invention, le contenu musical sur lequel la représentation est centrée est lu tant qu' aucune action n' est entreprise par l' utilisateur, et le procédé comprend les étapes suivantes :
si une action mettant fin à la lecture du contenu musical est entreprise par l' utilisateur, un nouveau contenu musical est lu,
si une action ne mettant pas fin à la lecture du morceau en cours est entreprise, l' action est prise en compte, et la lecture du contenu musical continue,
si la lecture du contenu musical sur lequel la représentation est centrée est terminée, un nouveau contenu musical de la représentation est lu,
ladite représentation étant modifiée à chaque nouvelle lecture d' un contenu musical pour être centrée sur le nouveau contenu musical lu.
Le procédé offre ainsi une expérience musicale enrichissante en favorisant la création d'un parcours de découverte musicale auto adaptatif demandant le minimum de manipulations de la part de l' utilisateur.
L' invention permet ainsi de prendre en compte des choix et des déclarations de l' utilisateur pour affiner la connaissance du système sur l' utilisateur.
Le procédé permet en outre de modifier la représentation des contenus musicaux dès la première action de l' utilisateur. Si l' utilisateur n' effectue aucune action, l' enchaînement des morceaux de musique de la représentation, dite aussi nuage musical, est déterminé aléatoirement parmi les morceaux du nuage musical qui n' ont pas encore été lus, une détermination aléatoire du prochain étant réalisée à la fin de chaque lecture de morceau.
Chaque action de l'utilisateur, qu' elle mette fin ou non à la lecture du contenu musical, c' est-à-dire du morceau de musique en cours de lecture, entraîne une modification de la représentation des contenus musicaux. Ces modifications permettent d' adapter l' enchaînement des contenus musicaux de manière à s ' adapter en temps réel aux souhaits de l'utilisateur. Le choix des morceaux est alors semi aléatoire étant donné qu' il est fait parmi un groupe de contenus musicaux restreint en tenant compte de paramètres définis par les actions de l'utilisateur qui traduisent ses souhaits .
Ainsi, la représentation telle qu' elle a été créée et les modalités d' interaction, c ' est-à-dire d' adaptation, permettent à l' utilisateur de ne pas parcourir une arborescence pour écouter et découvrir des contenus musicaux, ou morceaux de musique. En une action de sélection, l' utilisateur peut écouter de la musique, et en une autre action, il peut indiquer qu' il apprécie ou non le contenu musical à l' écoute et influer sur les prochains contenus musicaux qu' il écoutera sans pour autant désigner explicitement le prochain morceau.
La réduction du nombre d' interactions entre l' utilisateur et le système mettant en œuvre le procédé permet d' augmenter la sécurité dans des applications embarquées à bord d' un véhicule automobile.
De préférence, la génération de la représentation des contenus musicaux comprend la génération des composantes acoustiques de chaque contenu musical, ou morceau de musique, contenu dans une base de données musicale, le calcul de la proximité acoustique de chaque contenu musical, et la génération de la représentation organisée selon deux dimensions du contenu musical de la base de données.
La génération d'une telle représentation nommée également « nuage musical », permet d' optimiser la représentation obtenue. Les données musicales sont ainsi classées dans un espace à deux dimensions dont les axes n' ont pas de signification fixe, mais une signification variable selon l' utilisateur. Les axes peuvent par exemple être liés à la fréquence de la composante vocale, au nombre de battements par minutes, à la richesse fréquentielle, au type d' instrumentation, ou encore aux variations de niveau sonore.
La génération du nuage musical est réalisée par l' analyse du signal sonore de chaque contenu musical de la base de données musicale. L' analyse peut être faite en temps réel ou bien en temps masqué. Si l' analyse est faite en temps réel, le nuage évolue dans sa forme au fur et à mesure que l' utilisateur ajoute des morceaux. Si elle est faite en temps masqué, cela se fait en tâche de fond, pendant que l' utilisateur écoute la musique mais ne visualise pas le nuage qui sera mis à jour à la prochaine visualisation après ajout de morceaux. L' analyse des caractéristiques du signal sonore de chaque contenu musical permet de déterminer la distance qui sépare chaque contenu musical selon deux axes . Ces axes sont générés automatiquement par une analyse en composante principale. Ainsi, plus un contenu musical est proche d' un autre, plus à l' oreille de l' utilisateur, il semblera similaire. De cette manière, si l' utilisateur apprécie le contenu musical qu' il est en train d' écouter, il sait que les contenus musicaux qui sont proches analytiquement vont lui plaire.
De préférence, le nuage musical généré à l' initiation du procédé d' adaptation comprend tous les contenus musicaux de la base de données et est centré sur le dernier contenu musical écouté par l' utilisateur.
L'utilisateur peut avantageusement choisir une action ne mettant pas fin à la lecture du morceau en cours parmi l' indication qu' il aime le contenu musical en cours de lecture, et la requête d' avoir par la suite des contenus musicaux similaires au morceau en cours de lecture.
Les actions ne mettant pas fin à la lecture du contenu musical permettent à l' utilisateur de donner une indication positive sur le type de contenu musical qu' il souhaite ensuite écouter tout en maintenant la lecture contenu musical en cours . Une telle indication positive provoque la génération d'une zone de lecture à privilégier comprenant le contenu musical en cours de lecture et des contenus musicaux similaires.
Une telle indication permet ainsi d' augmenter le nombre de contenus musicaux similaires dans les prochains contenus musicaux à venir, c ' est-à-dire d' augmenter la fréquence avec laquelle des contenus musicaux similaires sont lus. Cela tout en évitant de sélectionner un contenu musical similaire au morceau en cours de lecture comme prochain contenu musical à lire juste après le contenu musical en cours de lecture pour lequel l' utilisateur a indiqué qu' il aimait ce contenu musical.
Le prochain contenu musical lu sera donc choisi de manière semi-aléatoire parmi un groupe de contenus musicaux comprenant tous les autres contenus musicaux à l' exclusion du contenu musical en cours de lecture et des contenus musicaux similaires, des contenus musicaux lus précédemment, et éventuellement à l' exclusion des contenus musicaux compris dans la zone de lecture musicale à éviter.
Le choix est semi aléatoire en ce que les contenus musicaux ont déj à été restreints à partir des indications de l' utilisateur.
La requête pour avoir par la suite des contenus musicaux similaires au contenu musical en cours de lecture provoque la génération d' une liste de lecture avec uniquement des contenus musicaux similaires au contenu musical en cours de lecture, la représentation de lecture étant modifiée pour comprendre uniquement les contenus musicaux de la liste de lecture générée.
Cette requête permet à l' utilisateur de demander que les prochains contenus musicaux lus soient des contenus musicaux similaires au contenu musical en cours de lecture. Une telle requête permet de sortir du processus de parcours aléatoire ou semi aléatoire en générant une liste de lecture comprenant un nombre limité de contenus musicaux similaires.
Le procédé peut en outre comprendre une étape de mémorisation de la liste de lecture ainsi générée, la mémorisation étant réalisée en réponse à une requête de l'utilisateur. La liste peut être modifiée en fonction des actions entreprises par l 'utilisateur au fur et à mesure de l' écoute des contenus musicaux de la liste.
Une liste de lecture peut également être créée à partir d'une sélection par l' utilisateur d' un ensemble de contenus musicaux, l' ensemble étant sélectionné par une action de l' utilisateur sur un écran tactile, l' action pouvant être le traçage d'une zone fermée, telle qu' un cercle, sur l' écran tactile pour délimiter les contenus musicaux à sélectionner, ou bien la sélection de contenus musicaux à l' aide d' un chemin tracé entre les contenus musicaux indiqué à l' écran.
De préférence, le premier contenu musical à écouter de la représentation correspond au dernier contenu musical écouté, ou est choisi parmi les derniers contenus musicaux ajoutés à la base de données à partir de laquelle la représentation est générée, ou encore est choisi parmi les contenus musicaux d' une zone de lecture à privilégier.
Avantageusement, l' utilisateur peut choisir une action mettant fin à la lecture du contenu musical en cours parmi la demande du contenu musical précédent, la demande du contenu musical suivant, l' indication qu' il n' aime pas le contenu musical en cours de lecture, et/ou la sélection manuelle d' un nouveau contenu musical.
De préférence, l' indication par l' utilisateur qu' il n' aime pas le contenu musical en cours de lecture entraîne la génération d' une zone de lecture musicale à éviter comprenant le contenu musical en cours de lecture et des contenus musicaux similaires, l' arrêt de la lecture en cours, la sélection d'un nouveau contenu musical à partir des contenus musicaux contenus dans la représentation et exclus de la zone de lecture musicale à éviter et la lecture du nouveau contenu musical sélectionné.
La zone de lecture musicale à éviter comprend le contenu musical indiqué ainsi que les contenus musicaux similaires . Les contenus musicaux compris dans la zone de lecture musicale à éviter seront signalés comme contenus musicaux à ne pas sélectionner réduisant ainsi le nombre de contenus musicaux sélectionnables. Les indications que l' utilisateur aime ou n' aime pas un contenu musical sont mémorisées dans une mémoire et comptabilisées au fur et à mesure des indications. Cette comptabilité des indications permet de réduire la probabilité qu'un contenu musical soit lu notamment si à chaque fois est renseignée une indication selon laquelle l' utilisateur n' aime pas le contenu musical, ou inversement d' augmenter la probabilité qu' il soit lu notamment si à chaque fois est renseignée une indication selon laquelle l'utilisateur aime le contenu musical.
Selon un autre aspect, il est proposé un système informatique comprenant des moyens configurés pour mettre en œuvre le procédé tel que défini ci-dessus.
Selon encore un autre aspect, il est proposé un produit de programme d' ordinateur chargeable directement dans une mémoire d'un système informatique, comprenant des portions de code logiciel pour l' exécution du procédé tel que défini ci-dessus lorsque ledit programme est exécuté par ledit système informatique.
Selon encore un autre aspect, il est proposé un support lisible par un système informatique ayant des instructions exécutables par ordinateur adaptées pour provoquer l' exécution par le système informatique du procédé tel que défini ci-dessus.
D ' autres avantages et caractéristiques de l' invention apparaîtront à l' examen de la description détaillée d' un mode de mise en œuvre de l' invention, nullement limitatif, et des dessins annexés, sur lesquels :
la figure 1 présente un organigramme d'un procédé d' adaptation d' une représentation d'un groupe de morceaux de musique selon un mode de mise en œuvre de l' invention ;
la figure 2 représente un organigramme d' un procédé de génération de la représentation d' un groupe de morceaux de musique mis en œuvre dans le procédé illustré sur la figure 1. Sur la figure 1 est illustré de manière schématique un organigramme d'un procédé d' adaptation d'une représentation d' un contenu musical selon un mode de mise en œuvre de l' invention.
Par contenu musical, on entend notamment un ensemble de fichiers audio par exemple codés, correspondant à ces morceaux de musique.
Dans une première étape 100, le procédé d' adaptation est lancé par la sélection d' une commande requérant le lancement d'un nuage musical.
Dans une étape suivante 102, un nuage musical comprenant un nombre K de morceaux de musique issus d' une base de données musicale est généré à partir d'un procédé de génération de la représentation d'un groupe de morceaux de musique tel que présenté sur la figure 2.
Comme illustré sur la figure 2, l' étape 102 comprend, dans une première étape 200, le chargement des K morceaux d' une base de données musicale, et dans une seconde étape 202, la génération des composantes acoustiques de chacun des K morceaux chargés, puis, dans une troisième étape 204, un calcul de la proximité acoustique de chaque morceau chargé, et enfin, dans une quatrième étape 206, la génération de la représentation en nuage musical organisée selon deux dimensions des morceaux de musique.
L' analyse des composantes acoustiques du signal sonore de chaque morceau permet de déterminer la distance qui sépare chaque morceau selon deux axes. Ces axes sont générés automatiquement par une analyse en composantes principales.
L' analyse en composantes principales, notée ACP, est une méthode d' analyse de données de la famille de la statistique multi- variée, qui consiste à transformer des variables corrélées entre elles en de nouvelles variables décorrélées les unes des autres . Ces nouvelles variables sont nommées "composantes principales " , ou axes principaux. Elle permet en général de réduire le nombre de variables et de rendre l'information moins redondante. Il s'agit d'une approche à la fois géométrique, les variables étant représentées dans un nouvel espace selon des directions d'inertie maximale, et statistique, la recherche portant sur des axes indépendants expliquant au mieux la variabilité des données.
Comme illustré sur la figure 1 , dans une étape suivante 104 du procédé d' adaptation, le nuage musical de K morceaux est modifié pour être centré sur le dernier morceau de musique du groupe de morceaux écouté par l' utilisateur.
En variante, le nuage musical pourrait être centré sur un morceau choisi parmi les derniers morceaux ajoutés à la base de données musicale, ou bien sur un morceau choisi parmi la zone de lecture à privilégier.
Dans une étape suivante 106, le morceau de musique sur lequel le nuage musical est centré est lu de sorte que l'utilisateur puisse l' écouter.
Dans une étape suivante 108, on teste si une action a été entreprise par l' utilisateur.
Si aucune action n'est entreprise, la lecture du morceau de musique est poursuivie sans interruption (étape 1 10) . Les étapes 108 et 1 10 sont répétées tant qu' aucune action n' est entreprise par l' utilisateur, et ce tant que la lecture du morceau de musique n' est pas terminée.
Si aucune action n' a été entreprise par l' utilisateur et qu' il est détecté dans une étape 1 12 que la lecture du morceau est terminée, on vérifie lors d 'une étape 1 14 si une liste de lecture spécifique à laquelle le morceau en cours appartient a été sélectionnée. La liste de lecture comprend un nombre inférieur à K de morceaux de musique.
Si une liste de lecture a été sélectionnée initialement, on vérifie, dans une étape 1 15 , si la liste de lecture est terminée. Si elle est terminée, on retourne à l' étape 102 en centrant le nuage musical de K contenu musical sur le dernier morceau de musique lu.
En revanche, si le morceau de musique dont la lecture vient de s ' achever n' est pas le dernier de la liste de lecture, le morceau suivant de la liste de lecture est sélectionné dans une étape 1 16, et le morceau ainsi sélectionné est lu dans une étape 1 18.
Le nuage musical est alors modifié, dans une étape 120, de sorte qu' il soit centré sur le nouveau morceau en cours de lecture. Le procédé reprend alors à l' étape 108.
Si une liste de lecture n' a pas été sélectionnée, on sélectionne dans une étape 1 17 un nouveau morceau. La sélection est réalisée de manière semi-aléatoire à partir des morceaux non lus du nuage musical.
Si une action de l' utilisateur est détectée pendant l' étape 108 , on détermine dans une étape 122 quelle action a été entreprise par l' utilisateur.
Si l' action détectée correspond à une requête du morceau précédent, dans une étape 124, la lecture en cours est interrompue et le morceau précédemment écouté par l' utilisateur est sélectionné. Le procédé passe ensuite à l ' étape 1 18 dans laquelle le morceau sélectionné est lu, et à l' étape 120 dans laquelle le nuage musical est recentré sur le morceau en cours de lecture.
Si l' action détectée correspond à une requête du morceau suivant, dans une étape 126, la lecture en cours est interrompue et un autre morceau de musique est choisi de manière semi aléatoire. La sélection est réalisée de manière semi aléatoire car elle est réalisée parmi tous les morceaux de musique du nuage, mais avec la condition que le nouveau morceau soit éloigné, en termes de composantes principales, du morceau qui vient d' être interrompu qu' il soit en dehors d'une zone de lecture à éviter, et qu' il soit préférentiellement dans une zone de lecture à privilégier. Le procédé passe ensuite à l' étape 1 18 dans laquelle le morceau sélectionné est lu, et à l' étape 120 dans laquelle le nuage musical est recentré sur le morceau en cours de lecture.
Si l' action détectée correspond à une indication selon laquelle l' utilisateur n' apprécie pas le morceau de musique en cours de lecture, dans une étape 128 , une zone de lecture musicale à éviter est générée. La zone de lecture musicale à éviter comprend le fichier audio en cours de lecture et des morceaux similaires, c ' est-à-dire les morceaux les plus proches selon l' analyse des composantes principales. Les morceaux les plus proches seront définis par exemple comme les morceaux ayant moins de 5 % d' écart par rapport à une ou plusieurs composantes principales de l' analyse ACP. D ' autres définitions sont envisageables également. Dans une étape suivante 130, la lecture du fichier audio en cours est interrompue et un nouveau fichier est sélectionné parmi les contenus musicaux du nuage musical qui sont exclus de la zone de lecture musicale à éviter. Le procédé passe ensuite à l' étape 1 18 dans laquelle le morceau sélectionné est lu, et à l' étape 120 dans laquelle le nuage musical est recentré sur le morceau en cours de lecture.
Si une zone de lecture musicale existe déj à, l' étape 128 comprend l' ajout du morceau en cours de lecture et des morceaux similaires à la zone de lecture musicale à éviter.
Si l' action détectée correspond à une indication que l' utilisateur apprécie le morceau de musique en cours de lecture, dans une étape 132, une zone de lecture musicale à privilégier est générée. La zone de lecture musicale à privilégier comprend le morceau en cours de lecture et des morceaux similaires . La lecture du morceau en cours est maintenue, et le procédé retourne à l' étape 108 pour détecter d' éventuelles autres actions entreprises par l' utilisateur ou bien pour détecter la fin du morceau en cours à l' étape 1 12 si aucune autre action n' est entreprise.
Si l' action détectée correspond à une requête pour avoir par la suite des morceaux similaires au morceau en cours de lecture, dans une étape 134, une liste de lecture spécifique est générée. La liste de lecture spécifique comprend le morceau en cours de lecture et des morceaux similaires au morceau en cours de lecture. Dans une étape suivante 136, le nuage musical est modifié pour correspondre à la liste de lecture spécifique ainsi générée. La lecture du morceau en cours est maintenue, et le procédé retourne à l' étape 108 pour détecter d' éventuelles autres actions entreprises par l'utilisateur ou bien pour détecter la fin du morceau en cours à l' étape 1 12 si aucune autre action n' est entreprise.
Un tel procédé peut être mis en œuvre par un système électronique ou des moyens logiciels. Le système ou les moyens mettant en œuvre ce procédé peuvent être embarqués à bord d'un véhicule automobile.
L' invention offre ainsi un procédé automatisé, ainsi qu' un système d' interaction avec un utilisateur mettant en œuvre le procédé, permettant de générer rapidement et de manière automatisée un nuage musical à partir d' une base de données musicale et de créer et d' adapter des listes d' écoute dans le nuage musical à partir des souhaits de l' utilisateur en minimisant les manipulations de l' utilisateur. La réduction du nombre de manipulations permet ainsi de créer une interface plus sécuritaire notamment pour un usage à bord d'un véhicule automobile.
Par ailleurs, le procédé mis en œuvre est le plus pérenne possible de par la prise en compte des choix et des déclarations de l' utilisateur pour affiner la connaissance du système sur l' utilisateur.

Claims

REVENDICATIONS
1. Procédé d' adaptation d' une représentation de contenus musicaux comprenant la génération ( 102) de la représentation des contenus musicaux centrée sur un premier contenu musical, et une lecture ( 106) du contenu musical sur lequel la représentation est centrée, caractérisé en ce que le contenu musical sur lequel la représentation est centrée est lu tant qu' aucune action n' est entreprise par l'utilisateur, et le procédé comprend les étapes suivantes :
si une action mettant fin à la lecture du contenu musical est entreprise par l'utilisateur, un nouveau morceau est lu, si une action ne mettant pas fin à la lecture du contenu musical est entreprise, l' action est prise en compte, et la lecture du contenu musical continue,
si la lecture du contenu musical sur lequel la représentation est centrée est terminée un nouveau contenu musical est lu, ladite représentation étant modifiée à chaque nouvelle lecture d' un contenu musical pour être centrée sur le nouveau contenu musical lu.
2. Procédé selon la revendication 1 , dans lequel la génération ( 102) de la représentation des contenus musicaux comprend la génération (202) des composantes acoustiques de chaque contenu musical contenu dans une base de données musicale, le calcul (204) de la proximité acoustique de chaque contenu musical, et la génération (206) de la représentation organisée selon deux dimensions des contenus musicaux contenus dans la base de données .
3. Procédé selon l 'une des revendications 1 ou 2, dans lequel l' utilisateur a le choix d' une action ne mettant pas fin à la lecture du contenu musical en cours parmi l' indication qu' il aime le contenu musical en cours de lecture et la requête d' avoir par la suite des contenus musicaux similaires au contenu musical en cours de lecture.
4. Procédé selon la revendication 3 , dans lequel l' indication par l'utilisateur qu' il aime le contenu musical en cours de lecture entraîne la génération d'une zone de lecture à privilégier comprenant le contenu musical en cours de lecture et des contenus musicaux similaires.
5. Procédé selon l 'une des revendications 3 ou 4, dans lequel la requête pour avoir par la suite des contenus musicaux similaires au morceau en cours de lecture entraîne la génération d' une liste de lecture avec uniquement des contenus musicaux similaires au contenu musical en cours de lecture, la représentation de lecture étant modifiée pour comprendre uniquement les contenus musicaux de la liste de lecture générée.
6. Procédé selon l' une des revendications 1 à 5 , dans lequel le premier morceau à écouter de la représentation des contenus musicaux correspond au dernier contenu musical écouté, ou bien est choisi parmi les derniers contenus musicaux ajoutés à la base de données à partir de laquelle la représentation est générée, ou bien est choisi parmi les contenus musicaux d' une zone de lecture à privilégier.
7. Procédé selon l'une des revendications 1 à 6, dans lequel l' utilisateur a le choix d' une action mettant fin à la lecture du contenu musical en cours parmi l' indication qu' il n' aime pas le contenu musical en cours de lecture, la demande du contenu musical précédent, la demande du contenu musical suivant, et/ou la sélection manuelle d'un nouveau contenu musical.
8. Procédé selon la revendication 7, dans lequel l' indication par l'utilisateur qu' il n' aime pas le contenu musical en cours de lecture entraîne la génération d' une zone de lecture musicale à éviter comprenant le contenu musical en cours de lecture et des contenus musicaux similaires, l' arrêt de la lecture en cours, la sélection d' un nouveau contenu musical à partir des contenus musicaux contenus dans la représentation et exclus de la zone de lecture musicale à éviter, et la lecture du nouveau contenu musical sélectionné.
9. Système informatique comprenant des moyens configurés pour mettre en œuvre le procédé selon l' une des revendications 1 à 8.
10. Produit de programme d' ordinateur chargeable directement dans une mémoire d' un système informatique, comprenant des portions de code logiciel pour l' exécution du procédé selon l'une des revendications 1 à 8 lorsque ledit programme est exécuté par ledit système informatique.
PCT/FR2015/050950 2014-04-17 2015-04-09 Procédé d'adaptation d'une représentation de contenu musicaux WO2015158997A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/304,441 US20170124187A1 (en) 2014-04-17 2015-04-09 Method of adaptation of a representation of musical content
EP15718552.1A EP3132445A1 (fr) 2014-04-17 2015-04-09 Procédé d'adaptation d'une représentation de contenu musicaux
CN201580023192.0A CN106463154A (zh) 2014-04-17 2015-04-09 适配音乐内容的表示的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1453481 2014-04-17
FR1453481A FR3020156B1 (fr) 2014-04-17 2014-04-17 Procede d'adaptation d'une representation de contenus musicaux

Publications (1)

Publication Number Publication Date
WO2015158997A1 true WO2015158997A1 (fr) 2015-10-22

Family

ID=52003880

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2015/050950 WO2015158997A1 (fr) 2014-04-17 2015-04-09 Procédé d'adaptation d'une représentation de contenu musicaux

Country Status (5)

Country Link
US (1) US20170124187A1 (fr)
EP (1) EP3132445A1 (fr)
CN (1) CN106463154A (fr)
FR (1) FR3020156B1 (fr)
WO (1) WO2015158997A1 (fr)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243592A1 (en) * 2003-05-30 2004-12-02 Bill David S. Personalizing content using an intermediary bridge
EP1489617A1 (fr) * 2003-06-19 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Dispositif et procédé de reproduction de musique
EP1489765A2 (fr) * 2003-06-17 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Système de selection de musique et système de distribution de musique
US20070119288A1 (en) * 2005-11-29 2007-05-31 Victor Company Of Japan, Ltd. Music-piece retrieval and playback apparatus, and related method
EP2120231A1 (fr) * 2007-03-07 2009-11-18 Pioneer Corporation Dispositif et procédé d'inspection de données
WO2013144993A1 (fr) * 2012-03-26 2013-10-03 パイオニア株式会社 Procédé d'affichage, procédé permettant de sélectionner un morceau de musique, dispositif d'affichage, dispositif audio et programme

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7711838B1 (en) * 1999-11-10 2010-05-04 Yahoo! Inc. Internet radio and broadcast method
US7962482B2 (en) * 2001-05-16 2011-06-14 Pandora Media, Inc. Methods and systems for utilizing contextual feedback to generate and modify playlists
JP4296514B2 (ja) * 2006-01-23 2009-07-15 ソニー株式会社 音楽コンテンツ再生装置、音楽コンテンツ再生方法及び音楽コンテンツ再生プログラム
CN102543119A (zh) * 2011-12-31 2012-07-04 北京百纳威尔科技有限公司 基于场景的音乐播放处理方法和音乐播放设备
US9459768B2 (en) * 2012-12-12 2016-10-04 Smule, Inc. Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters
US20150082238A1 (en) * 2013-09-18 2015-03-19 Jianzhong Meng System and method to display and interact with a curve items list
US10129314B2 (en) * 2015-08-18 2018-11-13 Pandora Media, Inc. Media feature determination for internet-based media streaming

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243592A1 (en) * 2003-05-30 2004-12-02 Bill David S. Personalizing content using an intermediary bridge
EP1489765A2 (fr) * 2003-06-17 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Système de selection de musique et système de distribution de musique
EP1489617A1 (fr) * 2003-06-19 2004-12-22 Matsuhita Electric Industrial Co., Ltd. Dispositif et procédé de reproduction de musique
US20070119288A1 (en) * 2005-11-29 2007-05-31 Victor Company Of Japan, Ltd. Music-piece retrieval and playback apparatus, and related method
EP2120231A1 (fr) * 2007-03-07 2009-11-18 Pioneer Corporation Dispositif et procédé d'inspection de données
WO2013144993A1 (fr) * 2012-03-26 2013-10-03 パイオニア株式会社 Procédé d'affichage, procédé permettant de sélectionner un morceau de musique, dispositif d'affichage, dispositif audio et programme

Also Published As

Publication number Publication date
EP3132445A1 (fr) 2017-02-22
US20170124187A1 (en) 2017-05-04
CN106463154A (zh) 2017-02-22
FR3020156B1 (fr) 2016-06-03
FR3020156A1 (fr) 2015-10-23

Similar Documents

Publication Publication Date Title
US10430024B2 (en) Media item selection using user-specific grammar
US20180357312A1 (en) Generating a playlist
US9830351B2 (en) System and method for generating a playlist from a mood gradient
US7788586B2 (en) Content output queue generation
US20150269256A1 (en) System and method for cross-library recommendation
US20060083119A1 (en) Scalable system and method for predicting hit music preferences for an individual
US20160063011A1 (en) Location-based media searching and sharing
US20150331943A1 (en) Automatically selecting thematically representative music
US20090063971A1 (en) Media discovery interface
US20100088327A1 (en) Method, Apparatus, and Computer Program Product for Identifying Media Item Similarities
US20160070702A1 (en) Method and system to enable user related content preferences intelligently on a headphone
FR2974226A1 (fr) Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.
US11960538B2 (en) Query system with spoiler prevention
Tacchini Serendipitous mentorship in music recommender systems
US20170124601A1 (en) Technologies for distributing digital media content licenses
WO2015158997A1 (fr) Procédé d'adaptation d'une représentation de contenu musicaux
US7254618B1 (en) System and methods for automatic DSP processing
US20230394080A1 (en) Electronic system for digital and physical media
FR2923043A1 (fr) Procede et systeme de creation automatisee de modeles de reconnaissance de contenu sonore
Lucas et al. Being Bad in Order to Do Well: Deviance Admiration in the Rap/Hip-Hop Music Industry
FR3111004A1 (fr) Procédé d’identification d’un locuteur
TWM457242U (zh) 車載音樂播放裝置
WO2022229563A1 (fr) Caracterisation d'un utilisateur par association d'un son a un element interactif
WO2024091177A1 (fr) Pré-sortie d'enregistrements pour plateformes de diffusion en continu numériques
FR2942057A1 (fr) Procede de recherche iterative de donnees

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15718552

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015718552

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015718552

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15304441

Country of ref document: US