FR2974226A1 - Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur. - Google Patents

Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur. Download PDF

Info

Publication number
FR2974226A1
FR2974226A1 FR1153197A FR1153197A FR2974226A1 FR 2974226 A1 FR2974226 A1 FR 2974226A1 FR 1153197 A FR1153197 A FR 1153197A FR 1153197 A FR1153197 A FR 1153197A FR 2974226 A1 FR2974226 A1 FR 2974226A1
Authority
FR
France
Prior art keywords
audio data
music
ambient music
beat
ambient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1153197A
Other languages
English (en)
Inventor
Olivier Gillet
Elhad Piesczek-Ali
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MXP4
Original Assignee
MXP4
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MXP4 filed Critical MXP4
Priority to FR1153197A priority Critical patent/FR2974226A1/fr
Priority to US13/264,189 priority patent/US20140128160A1/en
Priority to PCT/IB2011/003221 priority patent/WO2012140468A1/fr
Publication of FR2974226A1 publication Critical patent/FR2974226A1/fr
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/021Background music, e.g. for video sequences, elevator music
    • G10H2210/026Background music, e.g. for video sequences, elevator music for games, e.g. videogames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/141Riff, i.e. improvisation, e.g. repeated motif or phrase, automatically added to a piece, e.g. in real time
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Le procédé comporte : en réponse à une requête (R) d'émission d'effet sonore du logiciel de jeu (200), réaliser un envoi à destination d'un dispositif de restitution sonore, de données audio (FX) représentant un effet sonore Le procédé comporte en outre : analyser des données audio (MUS) représentant une musique en cours de restitution, appelée musique ambiante, pour déterminer au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante ; et définir au moins une caractéristique (T, FX , P) de l'envoi à partir de la au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante.

Description

10 La présente invention concerne un procédé de génération d'effet sonore dans un logiciel de jeu, un programme d'ordinateur associé et un système informatique pour exécuter des instructions du programme d'ordinateur.
15 Beaucoup d'utilisateurs de logiciel de jeu préfèrent lire de la musique provenant de leur propre collection de musique plutôt que la musique ambiante initialement prévue avec le logiciel de jeu.
Il existe plusieurs façons pour substituer la musique ambiante 20 initialement prévue dans le logiciel de jeu par une autre musique ambiante. Tout d'abord, le logiciel de jeu peut offrir une option pour utiliser un fichier de musique ambiante (par exemple un fichier au format mp3) de l'utilisateur à la place de la musique ambiante initialement prévue.
25 En variante, les utilisateurs désactivent simplement la musique ambiante initialement prévue, pour la remplacer par de la musique ambiante provenant d'un autre logiciel que le logiciel de jeu, généralement un lecteur multimédia tel que le logiciel VLC ou bien le logiciel foobar2000. 1 2974226 -2- Encore en variante, les utilisateurs désactivent simplement la musique ambiante initialement prévue, pour la remplacer par de la musique ambiante provenant d'une autre source que le système informatique exécutant le jeu, par exemple une chaîne hifi.
Par ailleurs, il a été remarqué que les utilisateurs désactivent également souvent les effets sonores prévus dans le logiciel de jeu, pour la raison qu'ils sont perçus comme dérangeant la musique ambiante qu'ils ont choisie.
De ce fait, l'immersion dans le jeu est moins grande et le plaisir de jouer diminue.
L'invention a pour but de permettre, même dans le cas où un 15 utilisateur utilise sa propre musique ambiante, une immersion satisfaisante dans le jeu en encourageant l'utilisateur à garder les effets sonores prévus.
A cet effet, il est proposé un procédé de génération d'effet sonore dans un logiciel de jeu, comportant : 20 en réponse à une requête d'émission d'effet sonore du logiciel de jeu, réaliser un envoi à destination d'un dispositif de restitution sonore, de données audio représentant un effet sonore, caractérisé en ce qu'il comporte en outre : analyser des données audio représentant une musique en cours 25 de restitution, appelée musique ambiante, pour déterminer au moins une caractéristique de la musique ambiante, - définir au moins une caractéristique de l'envoi à partir de la au moins une caractéristique de la musique ambiante.
30 Dans un mode de réalisation, le procédé comporte, d'une part, pour analyser des données audio représentant la musique ambiante pour déterminer la au moins une caractéristique de la musique ambiante : 10 2974226 -3- - analyser les données audio représentant la musique ambiante pour déterminer des instants où la musique ambiante présente un battement rythmique, et, d'autre part, pour déterminer la au moins une caractéristique de l'envoi à 5 partir de la au moins une caractéristique de la musique ambiante : définir un instant de démarrage de l'envoi à partir des instants où la musique ambiante présente un battement rythmique.
Dans un autre mode de réalisation, le procédé comporte, pour définir 10 l'instant de démarrage de l'envoi à partir des instants où la musique présente un battement rythmique : définir comme l'instant de démarrage de l'envoi un instant suivant le dernier instant où la musique présente un battement rythmique d'un nombre entier de fois l'intervalle de temps moyen séparant les 15 instants où la musique présente un battement rythmique, de préférence une fois cet intervalle de temps moyen.
Dans un autre mode de réalisation, le procédé comporte, d'une part, pour analyser les données audio représentant la musique ambiante pour 20 déterminer la au moins une caractéristique de la musique ambiante : - analyser les données audio représentant la musique ambiante pour déterminer un genre musical de la musique ambiante, et, d'autre part, pour définir la au moins une caractéristique de l'envoi à partir de la au moins une caractéristique de la musique ambiante : 25 sélectionner, parmi plusieurs données audio associées à des genres musicaux différents, les données audio associées au genre de la musique ambiante, et dans lequel les données audio de l'envoi sont issues des données audio sélectionnées. 30 2974226 -4- Dans un autre mode de réalisation, le procédé comporte, d'une part, pour analyser les données audio représentant la musique ambiante pour déterminer la au moins une caractéristique de la musique ambiante : analyser les données audio représentant la musique ambiante 5 pour déterminer une tonalité de la musique ambiante, et, d'autre part, pour déterminer la au moins une caractéristique de l'envoi à partir de la au moins une caractéristique de la musique ambiante : - déterminer une hauteur fréquentielle souhaitée à partir de la tonalité déterminée.
Dans un autre mode de réalisation, le procédé comporte, pour analyser les données audio représentant la musique ambiante pour déterminer une tonalité de la musique ambiante : analyser les données audio représentant la musique ambiante pour déterminer une ligne de basse et une ligne mélodique de la musique ambiante, déterminer la tonalité de la musique ambiante à partir de la ligne de basse et de la ligne mélodique déterminées.
Dans un autre mode de réalisation, le procédé comporte en outre : récupérer des données audio représentant un effet sonore ayant une certaine hauteur fréquentielle, modifier les données audio récupérées afin que l'effet sonore qu'elles représentent ait la hauteur fréquentielle souhaitée, et les données audio de l'envoi sont issues des données audio ainsi modifiées.
Dans un autre mode de réalisation, le procédé comporte en outre : déterminer des paramètres d'un synthétiseur logiciel à partir, d'une part, de la au moins une caractéristique de la musique ambiante et, d'autre part, de relations définies, et mettre en oeuvre le synthétiseur logiciel avec les paramètres 2974226 -5- déterminés, pour qu'il synthétise des données audio d'effet sonore, et les données audio de l'envoi sont issues des données audio ainsi synthétisées. 11 est également proposé un programme d'ordinateur comportant des instructions qui, lorsqu'exécutées par un ordinateur, provoquent la mise en oeuvre par cet ordinateur d'un procédé tel que proposé précédemment.
10 Il est également proposé un système informatique comportant : un dispositif de restitution sonore, un dispositif de stockage sur lequel est enregistré un programme d'ordinateur tel que proposé précédemment, et - une unité centrale de traitement pour exécuter les instructions du 15 programme d'ordinateur.
L'invention sera mieux comprise à l'aide de la description qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins annexés dans lesquels : 20 la figure 1 représente un exemple système informatique mettant en oeuvre l'invention, - la figure 2 représente les blocs d'instruction d'un logiciel de jeu destiné à être mis en oeuvre par le système informatique de la figure 1, et 25 la figure 3 représente les étapes d'un procédé de génération d'effet sonore mis en oeuvre par le système informatique de la figure 1, lorsqu'il exécute les instructions du logiciel de jeu de la figure 2.
30 En référence à la figure 1, un système informatique 100 mettant en oeuvre l'invention comporte tout d'abord une unité centrale 102 dans laquelle 5 2974226 -6- se trouvent une unité centrale de traitement 104, telle qu'un microprocesseur, et un dispositif de stockage 106, tel qu'un disque dur.
Le système informatique 100 comporte en outre une interface 5 homme/machine 108 comprenant des dispositifs d'entrée, par exemple un clavier 110 et une souris 112, et des dispositifs de sortie, par exemple un écran 114 et un dispositif de restitution sonore 118, 120. Ce dernier comporte par exemple une carte son 118 disposée dans l'unité centrale 102 et des enceintes 120 connectées à la carte son 118. 10 Le système informatique 100 comporte en outre un dispositif d'acquisition sonore 122, tel qu'un microphone connecté à la carte son 118. Le dispositif d'acquisition sonore 122 est conçu pour acquérir une source 114 musicale extérieure 124 au système informatique 100, telle qu'une chaîne 15 hifi.
En référence à la figure 2, des données audio FXA, FXB et FXc sont enregistrées dans le dispositif de stockage 106. Les données audio FXA, FXB ou FXc représente un effet sonore et sont associées à des genres musicaux 20 respectifs GA, GB et G.
Un logiciel de jeu 200 permettant à un utilisateur de jouer à un jeu est également enregistré dans le dispositif de stockage 106.
25 Le logiciel de jeu 200 comporte tout d'abord des instructions de jeu 202 conçues pour fournir des informations de jeu à un utilisateur au travers des dispositifs de sortie de l'interface homme/machine 108, les informations de jeu évoluant en fonction de commandes entrées par l'utilisateur au travers des dispositifs d'entrée de l'interface homme/machine 108. 30 Les instructions de jeu 202 sont en outre conçue pour émettre une requête R d'émission d'effet sonore lors de l'exécution du jeu. Par exemple, 2974226 -7- la requête R est émise à chaque action du jeu réalisée par l'utilisateur au travers des dispositifs d'entrée de l'interface homme/machine 108, cette action étant associée à un effet sonore.
5 Le logiciel de jeu 200 comporte en outre des instructions d'analyse d'effet sonore 204.
Les instructions d'analyse d'effet sonore 204 sont tout d'abord conçues pour analyser chaque enregistrement de données audio FXA, FXB et 10 FXc et pour déterminer sa hauteur fréquentielle PA, PB et Pc (« pitch » en anglais).
De préférence, la hauteur fréquentielle correspond à une fréquence fondamentale des données audio, déterminée par exemple au moyen d'un 15 algorithme YIN.
Les instructions d'analyse d'effet sonore 204 sont en outre conçues pour créer des associations, chacune entre les données audio FXA, FXB ou FXc et leur hauteur fréquentielle respective PA, PB ou Pc. 20 Le logiciel de jeu 200 comporte en outre des instructions 206 d'analyse d'une musique en cours de restitution soit par le dispositif de restitution 118, 120, soit par le dispositif de restitution 124 extérieur au système informatique 100. Cette musique sera appelée par la suite musique 25 ambiante.
Les instructions d'analyse de musique ambiante 206 sont tout d'abord conçues pour récupérer des données audio MUS représentant la musique ambiante. Dans le premier cas de remplacement de musique ambiante indiqué en introduction, les instructions d'analyse de musique ambiante 206 sont par 30 2974226 -8- exemple conçues pour accéder directement au fichier de musique indiqué par l'utilisateur dans les options du logiciel de jeu.
Dans le second cas de remplacement de musique ambiante indiqué 5 en introduction, les instructions d'analyse de musique ambiante 206 sont par exemple conçues pour intercepter les mémoires tampon audio d'un système d'exploitation tournant sur le système informatique et dans le cadre duquel s'exécute le logiciel de jeu.
10 Dans le troisième cas de remplacement de musique ambiante indiqué en introduction, les instructions d'analyse de musique ambiante 206 sont par exemple conçues pour utiliser le dispositif d'acquisition sonore 122 pour convertir la musique ambiante en les données audio MUS.
15 Les instructions d'analyse de musique ambiante 206 sont en outre conçues pour analyser les données audio MUS pour déterminer au moins une caractéristique de la musique ambiante.
Plus précisément, dans l'exemple décrit, trois caractéristiques de la 20 musique ambiante sont déterminées.
Ainsi, les instructions d'analyse de musique ambiante 206 sont premièrement conçues pour analyser les données audio MUS pour déterminer des instants, notés BEAT sur la figure 2, où la musique ambiante 25 présente un battement rythmique.
Les instructions d'analyse de musique ambiante 206 sont deuxièmement conçues pour analyser les données audio MUS pour déterminer un genre musical, noté GENRE sur la figure 2, de la musique 30 ambiante. 2974226 -9- Les instructions d'analyse de musique ambiante 206 sont troisièmement conçues pour analyser les données audio MUS pour déterminer une tonalité, notée KEY sur la figure 2, de la musique ambiante. Une tonalité est définie comme l'ensemble d'une tonique et d'un mode. La 5 tonique appartient par exemple à l'une des douze notes de la gamme classique (do, do dièse, ré, ré dièse, mi, fa, fa dièse, sol, sol dièse, la, la dièse, si), et le mode est par exemple choisi entre le mode majeur et le mode mineur harmonique. Il y a alors vingt-quatre tonalités possibles. Pour réaliser l'analyse, les instructions d'analyse de musique ambiante 206 sont par 10 exemple conçues pour analyser les données audio MUS pour déterminer une ligne de basse et une ligne mélodique de la musique ambiante, et pour déterminer la tonalité de la musique à partir de la ligne de basse et de la ligne mélodique.
15 Le logiciel de jeu 200 comporte en outre des instructions de génération d'effet sonore 208.
Les instructions de génération d'effet sonore 208 sont conçues pour, en réponse à l'émission de la requête R, définir au moins une caractéristique 20 d'un envoi de donnée audio, notées FX sur la figure 2, représentant un effet sonore, à destination du dispositif de restitution 118, 120. Cette au moins une caractéristique d'envoi est déterminée à partir de la au moins une caractéristique de musique ambiante déterminée par les instructions d'analyse de musique ambiante 204. 25 Plus précisément, dans l'exemple décrit, les instructions de génération d'effet sonore 208 sont conçues pour définir trois caractéristiques d'envoi à partir de respectivement les trois caractéristiques de musique ambiante : BEAT, GENRE et KEY. Ainsi, les instructions de génération d'effet sonore 208 sont tout d'abord conçues pour définir un instant To de démarrage de l'envoi à partir 30 2974226 -10- des instants BEAT où la musique ambiante présente un battement rythmique. Par exemple, les instructions de génération d'effet sonore 208 sont conçues pour définir cet instant T comme suivant le dernier instant de battement rythmique d'un intervalle de temps égale à un nombre entier de fois 5 l'intervalle de temps moyen séparant les instants de battement rythmique, de préférence une fois cet intervalle de temps moyen.
En outre, les instructions de génération d'effet sonore 208 sont conçues pour sélectionner, parmi les données audio par défaut FXA, FXB et 10 FXc, celles qui sont associées au genre musical GENRE de la musique ambiante, fourni par les instructions 204. Les données audio par défaut sélectionnées seront notées par la suite FX; et leur hauteur fréquentielle P.
En outre, les instructions de génération d'effet sonore 208 sont 15 conçues pour déterminer une hauteur fréquentielle souhaitée P à partir de la tonalité KEY de la musique ambiante MUS fournie par les instructions 204. De préférence, la hauteur fréquentielle souhaitée P est la tonique ou la quinte de la tonalité KEY.
20 En outre, les instructions de génération d'effet sonore 208 sont conçues pour récupérer les données audio par défaut sélectionnées FX; qui, comme indiqué précédemment présentent une hauteur fréquentielle par défaut P;.
25 Les instructions de génération d'effet sonore 208 sont alors conçues pour modifier les données audio par défaut récupérée FX; afin que l'effet sonore qu'elles représentent présente la hauteur fréquentielle souhaitée P.
Les instructions de génération d'effet sonore 208 sont alors conçues 30 pour définir les données audio ainsi sélectionnées et modifiée en tant que données audio FX représentant l'effet sonore souhaité. 2974226 - 11 - Les instructions de génération d'effet sonore 208 sont alors conçues pour réaliser l'envoi présentant les caractéristiques définies précédemment, c'est-à-dire : l'instant TO de démarrage d'envoi, les données audio FX issues de données audio par défaut FX; correspondant au genre de la musique 5 ambiante et présentant la hauteur fréquentielle souhaitée P.
En référence à la figure 3, un exemple de procédé 300 mis en oeuvre par le système informatique 100 des figures 1 et 2 va à présent être décrit.
10 Au cours d'une étape 302, le système informatique 100 reçoit de l'utilisateur, au travers de l'interface homme/machine, une requête d'exécution du logiciel de jeu 200.
Au cours d'une étape 304, en réponse à la réception de la requête, le 15 système informatique 100 lance le logiciel de jeu 200.
Au cours d'une étape 305 d'initialisation du jeu, l'unité de traitement 104 exécutant les instructions d'analyse d'effet sonore 204 analyse les données audio FXA, FXB et FXc, détermine leur hauteur fréquentielle 20 respective PA, PB et Pc, de la manière indiquée en référence à la figure 2, et crée des associations des données audio FXA, FXB et FXc avec leur hauteur fréquentielle respective PA, PB, Pc.
Au cours d'une étape 306, l'unité centrale de traitement 104 exécutant 25 les instructions de jeu 202 fournit des informations de jeu à l'utilisateur au travers des dispositifs de sortie (écran, dispositif de restitution sonore, etc.) l'interface homme/machine 108 en fonction de commandes entrées par l'utilisateur au travers des dispositifs d'entrée (clavier, souris, etc.) de l'interface homme/machine 108. 30 2974226 -12- Parallèlement à l'étape 306, au cours d'une étape 308, l'unité de traitement 104 exécutant les instructions d'analyse de musique ambiante 204 récupère des données audio MUS représentant la musique ambiante.
5 Toujours parallèlement à l'étape 306, au cours d'une étape 310, l'unité de traitement 104 exécutant les instructions d'analyse de musique ambiante 204 analyse les données audio MUS pour déterminer au moins une caractéristique de la musique ambiante, dans l'exemple décrit les trois caractéristiques BEAT, GENRE et KEY indiquées précédemment. 10 Au cours d'une étape 316, l'unité centrale de traitement 104 exécutant les instructions de jeu 202 reçoit une commande de l'utilisateur au travers des dispositifs d'entrée de l'interface homme/machine 108 pour effectuer une action dans le jeu associée à un effet sonore. Au cours d'une étape 318, en réponse à la réception de la commande de l'utilisateur, l'unité centrale de traitement 104 exécutant les instructions de jeu 202 émet une requête R d'émission d'un effet sonore.
20 Au cours d'une étape 320, en réponse à la requête R, l'unité centrale de traitement 104 exécutant les instructions de génération d'effet sonore 208 définit les trois caractéristiques T, FX; et P à partir respectivement des trois caractéristiques BEAT, GENRE et KEY de la musique ambiante déterminées au cours de l'étape 310. 25 Au cours d'une étape 322, l'unité centrale de traitement 104 exécutant les instructions de génération d'effet sonore 208 récupère les données audio par défaut sélectionnées FX; qui, comme indiqué précédemment, représentent un effet sonore ayant la hauteur fréquentielle par défaut P;. Au cours d'une étape 324, l'unité centrale de traitement 104 exécutant les instructions de génération d'effet sonore 208 modifie les données audio 15 30 2974226 -13- par défaut FX; afin que l'effet sonore qu'elles représentent passe de la hauteur fréquentielle P; à la hauteur fréquentielle souhaitée P. Les données audio ainsi modifiée sont notées FX.
5 Au cours d'une étape 326, l'unité centrale de traitement 104 exécutant les instructions de génération d'effet sonore 208 réalise l'envoi à l'instant T, avec les données audio FX qui, d'une part, représentent un effet sonore à la hauteur fréquentielle P et, d'autre part, sont issues des données audio FX; sélectionnées selon le genre de la musique ambiante. 10 Ainsi, l'effet sonore généré s'intègre harmonieusement à la musique ambiante sur plusieurs niveaux : sur un niveau rythmique grâce à l'instant d'envoi To, sur un niveau mélodique grâce à sa hauteur fréquentielle Po, et sur un niveau musical grâce à la sélection des données audio FX; adaptées 15 au genre de la musique ambiante.
Le procédé 300 retourne alors aux étapes 306 et 308.
Il apparaît clairement qu'un programme d'ordinateur et qu'un procédé 20 tels que décrits précédemment permettent une intégration harmonieuse d'effet sonore avec n'importe qu'elle musique ambiante choisie par l'utilisateur, voir même prédéfinie par le logiciel de jeu.
Par ailleurs, l'invention n'est pas limitée aux modes de réalisation 25 décrits précédemment, mais au contraire définie par les revendications qui suivent.
Il apparaîtra en effet à l'homme de l'art que diverses modifications peuvent être apportées aux modes de réalisation décrits ci-dessus, à la 30 lumière de l'enseignement qui vient de lui être divulgué. 2974226 -14- En particulier, les enregistrements des données audio d'effet sonore pourraient être associés à des hauteur fréquentielles en dehors de l'exécution du logiciel de jeu, soit de façon automatique (avec une analyse logicielle) lors du développement du jeu, soit par les musiciens ou ingénieurs 5 du son eux-mêmes. Dans ce cas, l'étape 305 du procédé de la figure 3 peut être supprimée.
En outre, les données audio d'effet sonore pourraient être déclinées non seulement sur les genres musicaux possibles de la musique ambiante, 10 mais également sur des tonalités possibles de la musique ambiante, par exemple sur les vingt-quatre tonalités correspondant aux douze toniques possibles et aux deux modes possibles indiqués précédemment. Ainsi, chaque enregistrement de données audio serait associé, en plus d'un genre, à une tonique et à un mode. Dans ce cas, les instructions de génération 15 d'effet sonore seraient conçues pour sélectionner, parmi les données audio par défaut, celles qui sont non seulement associées au genre musical de la musique ambiante, mais également à sa tonalité. L'étape 322 du procédé de la figure 3 serait adaptée en conséquence. En outre, il ne serait plus nécessaire d'analyser les données audio d'effet sonore pour déterminer leur 20 hauteur fréquentielle, ni de les modifier pour transposer cette dernière, de sorte que les étapes 305 et 324 du procédé de la figure 3 seraient supprimées.
En outre, les instructions de génération d'effet sonore pourraient être 25 conçues pour synthétiser l'effet sonore, c'est-à-dire fournir les données audio correspondant à cet effet sonore à partir d'une synthèse sonore prenant en compte les caractéristiques de la musique ambiante déterminées par les moyens 206, en particulier les caractéristiques KEY, GENRE et BEAT. Il n'y aurait alors plus besoin des enregistrements d'effet sonore ni des moyens 30 d'analyse 204 illustrés sur la figure 2. Par exemple, la synthèse sonore pourrait comprendre, d'une part, un synthétiseur logiciel présentant un certain nombre de paramètres modifiables (par exemple la fréquence 2974226 -15- fondamentale ou la forme d'onde d'un oscillateur, ou bien la fréquence de coupure d'un filtre) et, d'autre part, un ensemble de relations, définies par des expressions mathématiques, entre les paramètres du synthétiseur logiciel et les caractéristiques de la musique ambiante. Ainsi, les étapes 322 5 et 324 du procédé de la figure 3 seraient remplacées par une étape de détermination des paramètres du synthétiseur logiciel à partir, d'une part, des caractéristiques de la musique ambiante KEY et GENRE et, d'autre part, des relations définies, et par une étape de mise en oeuvre du synthétiseur logiciel avec les paramètres déterminés afin qu'il synthétise des données audio 10 d'effet sonore.
Dans les revendications qui suivent, les termes utilisés ne doivent pas être interprétés comme limitant les revendications aux modes de réalisation exposés dans la présente description, mais doivent être interprétés pour y 15 inclure tous les équivalents que les revendications visent à couvrir du fait de leur formulation et dont la prévision est à la portée de l'homme de l'art en appliquant ses connaissances générales à la mise en oeuvre de l'enseignement qui vient de lui être divulgué.

Claims (10)

  1. REVENDICATIONS1. Procédé (300) de génération d'effet sonore dans un logiciel de jeu (200), comportant : en réponse à une requête (R) d'émission d'effet sonore du logiciel de jeu (200), réaliser (326) un envoi à destination d'un dispositif de restitution sonore (118, 120), de données audio (FX) représentant un effet sonore, caractérisé en ce qu'il comporte en outre : analyser (310) des données audio (MUS) représentant une musique en cours de restitution, appelée musique ambiante, pour déterminer au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante, définir (320) au moins une caractéristique (T, FX;, P) de l'envoi à partir de la au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante.
  2. 2. Procédé selon la revendication 1, comportant, d'une part, pour analyser (310) des données audio (MUS) représentant la musique ambiante pour déterminer la au moins une caractéristique (BEAT, GENRE, KEY) de la 20 musique ambiante : analyser les données audio (MUS) représentant la musique ambiante pour déterminer des instants (BEAT) où la musique ambiante présente un battement rythmique, et, d'autre part, pour déterminer (320) la au moins une caractéristique (T, FX;, 25 P) de l'envoi à partir de la au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante : - définir un instant (T) de démarrage de l'envoi à partir des instants (BEAT) où la musique ambiante présente un battement rythmique. 30
  3. 3. Procédé selon la revendication 2, comportant, pour définir l'instant (T) de démarrage de l'envoi à partir des instants (BEAT) où la musique 10 15 2974226 -17- présente un battement rythmique : définir comme l'instant (T) de démarrage de l'envoi un instant suivant le dernier instant où la musique présente un battement rythmique d'un nombre entier de fois l'intervalle de temps 5 moyen séparant les instants (BEAT) où la musique présente un battement rythmique, de préférence une fois cet intervalle de temps moyen.
  4. 4. Procédé selon l'une des revendications 1 à 3, comportant, d'une part, pour analyser (310) les données audio (MUS) représentant la musique ambiante pour déterminer la au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante : analyser les données audio (MUS) représentant la musique ambiante pour déterminer un genre musical (GENRE) de la musique ambiante, et, d'autre part, pour définir (320) la au moins une caractéristique de l'envoi (T, FX;, P) à partir de la au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante : sélectionner, parmi plusieurs données audio (FXA, FXB, FXc) associés à des genres musicaux différents (GA, GB, Gc), les données audio (FX;) associées au genre (GENRE) de la musique ambiante, et dans lequel les données audio (FX) de l'envoi sont issues des données audio sélectionnées (FX;).
  5. 5. Procédé selon l'une des revendications 1 à 4, comportant, d'une part, pour analyser (310) les données audio (MUS) représentant la musique ambiante pour déterminer la au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante : - analyser les données audio (MUS) représentant la musique ambiante pour déterminer une tonalité (KEY) de la musique ambiante, 2974226 -18- et, d'autre part, pour déterminer (320) la au moins une caractéristique (T, FX;, P) de l'envoi à partir de la au moins une caractéristique (BEAT, GENRE, KEY) de la musique ambiante : déterminer une hauteur fréquentielle souhaitée (P) à partir de la tonalité déterminée (KEY).
  6. 6. Procédé selon la revendication 5, comportant, pour analyser les données audio (MUS) représentant la musique ambiante pour déterminer une tonalité (KEY) de la musique ambiante : analyser les données audio (MUS) représentant la musique ambiante .pour déterminer une ligne de basse et une ligne mélodique de la musique ambiante, déterminer la tonalité (KEY) de la musique ambiante à partir de la ligne de basse et de la ligne mélodique déterminées.
  7. 7. Procédé selon la revendication 5 ou 6, comportant en outre : récupérer (322) des données audio (FX;) représentant un effet sonore ayant une certaine hauteur fréquentielle (Pi), modifier les données audio récupérées (FX;) afin que l'effet sonore qu'elles représentent ait la hauteur fréquentielle souhaitée (P), et dans lequel les données audio (FX) de l'envoi sont issues des données audio ainsi modifiées. 25
  8. 8. Procédé selon la revendication 1, 2 ou 3, comportant en outre : déterminer des paramètres d'un synthétiseur logiciel à partir, d'une part, de la au moins une caractéristique (GENRE, KEY) de la musique ambiante et, d'autre part, de relations définies, et 30 - mettre en oeuvre le synthétiseur logiciel avec les paramètres déterminés, pour qu'il synthétise des données audio d'effet sonore, 5 10 15 20 2974226 -19- et dans lequel les données audio (FX) de l'envoi sont issues des données audio ainsi synthétisées.
  9. 9. Programme d'ordinateur (200) comportant des instructions (204, 5 206, 208) qui, lorsqu'exécutées par un ordinateur, provoquent la mise en oeuvre par cet ordinateur d'un procédé selon l'une quelconque des revendications 1 à 8.
  10. 10. Système informatique (100) comportant : 10 un dispositif de restitution sonore (118, 120), - un dispositif de stockage (106) sur lequel est enregistré un programme d'ordinateur (200) selon la revendication 9, et - une unité centrale de traitement (104) pour exécuter les instructions du programme d'ordinateur (200).
FR1153197A 2011-04-12 2011-04-12 Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur. Pending FR2974226A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1153197A FR2974226A1 (fr) 2011-04-12 2011-04-12 Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.
US13/264,189 US20140128160A1 (en) 2011-04-12 2011-10-12 Method and system for generating a sound effect in a piece of game software
PCT/IB2011/003221 WO2012140468A1 (fr) 2011-04-12 2011-10-12 Procédé pour générer un effet sonore dans un élément de logiciel de jeu, programme informatique associé et système de traitement de données pour exécuter des instructions du programme informatique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1153197A FR2974226A1 (fr) 2011-04-12 2011-04-12 Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.

Publications (1)

Publication Number Publication Date
FR2974226A1 true FR2974226A1 (fr) 2012-10-19

Family

ID=45558781

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1153197A Pending FR2974226A1 (fr) 2011-04-12 2011-04-12 Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.

Country Status (3)

Country Link
US (1) US20140128160A1 (fr)
FR (1) FR2974226A1 (fr)
WO (1) WO2012140468A1 (fr)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9192857B2 (en) * 2013-07-23 2015-11-24 Igt Beat synchronization in a game
CN107429853B (zh) 2015-03-25 2019-12-10 株式会社泰克米纳 止回阀及阀芯
US9947170B2 (en) 2015-09-28 2018-04-17 Igt Time synchronization of gaming machines
CN106935236A (zh) * 2017-02-14 2017-07-07 复旦大学 一种钢琴演奏评估方法及系统
US10453434B1 (en) 2017-05-16 2019-10-22 John William Byrd System for synthesizing sounds from prototypes
JP7287826B2 (ja) * 2019-04-22 2023-06-06 任天堂株式会社 音声処理プログラム、音声処理システム、音声処理装置、および音声処理方法
WO2020263073A1 (fr) * 2019-06-28 2020-12-30 Ciscomani Davila Geovani Francesco Dispositif de mesure de consommation électrique bidirectionnel ave un système de surveillance antivol de source d'énergie alternative
EP4105924B1 (fr) * 2021-06-15 2024-04-24 Lemon Inc. Système et procédé de sélection de points dans un signal musical et audio pour le placement d'un effet sonore

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1229513A2 (fr) * 2001-01-22 2002-08-07 Sega Corporation Méthode pour fournir un signal audio et méthode pour générer de la musique d'arrière-plan
US20030070538A1 (en) * 2001-10-11 2003-04-17 Keiichi Sugiyama Audio signal outputting method, audio signal reproduction method, and computer program product
US20040235564A1 (en) * 2003-05-20 2004-11-25 Turbine Entertainment Software Corporation System and method for enhancing the experience of participant in a massively multiplayer game
GB2425730A (en) * 2005-05-03 2006-11-08 Codemasters Software Co Rhythm action game
WO2009036564A1 (fr) * 2007-09-21 2009-03-26 The University Of Western Ontario Moteur de composition de musique flexible
US7674966B1 (en) * 2004-05-21 2010-03-09 Pierce Steven M System and method for realtime scoring of games and other applications
WO2010142297A2 (fr) * 2009-06-12 2010-12-16 Jam Origin Aps Système de jeu de correspondance audio génératif

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1229513A2 (fr) * 2001-01-22 2002-08-07 Sega Corporation Méthode pour fournir un signal audio et méthode pour générer de la musique d'arrière-plan
US20030070538A1 (en) * 2001-10-11 2003-04-17 Keiichi Sugiyama Audio signal outputting method, audio signal reproduction method, and computer program product
US20040235564A1 (en) * 2003-05-20 2004-11-25 Turbine Entertainment Software Corporation System and method for enhancing the experience of participant in a massively multiplayer game
US7674966B1 (en) * 2004-05-21 2010-03-09 Pierce Steven M System and method for realtime scoring of games and other applications
GB2425730A (en) * 2005-05-03 2006-11-08 Codemasters Software Co Rhythm action game
WO2009036564A1 (fr) * 2007-09-21 2009-03-26 The University Of Western Ontario Moteur de composition de musique flexible
WO2010142297A2 (fr) * 2009-06-12 2010-12-16 Jam Origin Aps Système de jeu de correspondance audio génératif

Also Published As

Publication number Publication date
US20140128160A1 (en) 2014-05-08
WO2012140468A1 (fr) 2012-10-18

Similar Documents

Publication Publication Date Title
FR2974226A1 (fr) Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.
CN103959372B (zh) 用于使用呈现高速缓存针对所请求的音符提供音频的系统和方法
EP1116213B1 (fr) Procede et dispositif de generation musicale automatique
US9177540B2 (en) System and method for conforming an audio input to a musical key
US9251776B2 (en) System and method creating harmonizing tracks for an audio input
CA2929213C (fr) Systeme et procede d'amelioration d'une entree audio, adaptation d'une entree audio a une cle musicale et creation de pistes d'harmonisation destinees a une entree audio
US9310959B2 (en) System and method for enhancing audio
US8779268B2 (en) System and method for producing a more harmonious musical accompaniment
US8785760B2 (en) System and method for applying a chain of effects to a musical composition
EP3059886B1 (fr) Production virtuelle d'une composition musicale par application de chaînes d'effets à des pistes instrumentales.
US8364210B2 (en) Method and system of creating customized ringtones
MX2011012749A (es) Sistema y metodo para recibir, analizar y editar audio para crear composiciones musicales.
US8907191B2 (en) Music application systems and methods
US20210027800A1 (en) Method for processing audio, electronic device and storage medium
US20090254206A1 (en) System and method for composing individualized music
CA2843438A1 (fr) Systeme et procede de fourniture de donnees audio pour une note demandee a l'aide d'une memoire cache de dispositif de rendu
FR3061797A1 (fr) Emulation d'au moins un son d'instrument de percussion du type batterie
KR20060116229A (ko) 호출 멜로디를 제공하는 장치 및 방법
US11609948B2 (en) Music streaming, playlist creation and streaming architecture
FR3033442A1 (fr) Dispositif et procede de production numerique d'une oeuvre musicale
WO1993016463A1 (fr) Procede d'orchestration d'elements musicaux et agencement pour la mise en ×uvre de ce procede
WO2003003344A1 (fr) Generateur de type studio comprenant une pluralite de moyens de reproduction sonore
FR2826770A1 (fr) Generateur de type studio destine a produire des sons pouvant etre representes par une partition et procede correspondant