EP1969587A2 - Procede de composition d une uvre musicale par un non-musicien - Google Patents
Procede de composition d une uvre musicale par un non-musicienInfo
- Publication number
- EP1969587A2 EP1969587A2 EP06817623A EP06817623A EP1969587A2 EP 1969587 A2 EP1969587 A2 EP 1969587A2 EP 06817623 A EP06817623 A EP 06817623A EP 06817623 A EP06817623 A EP 06817623A EP 1969587 A2 EP1969587 A2 EP 1969587A2
- Authority
- EP
- European Patent Office
- Prior art keywords
- collection
- accompaniment
- melody
- musical
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/105—Composing aid, e.g. for supporting creation, edition or modification of a piece of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/151—Music Composition or musical creation; Tools or processes therefor using templates, i.e. incomplete musical sections, as a basis for composing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/101—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
- G10H2220/106—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
Abstract
Procédé de composition musicale destiné à un non- musicien, basé sur l'utilisation de mélodies préenregistrées et présentées en banques (7.1) , à associer à des accompagnements orchestraux également préenregistrés, en banques (7.6) . Les accompagnements orchestraux ont d'avance la forme d'un morceau complet sans la mélodie. Une mélodie sélectionnée peut, à l'aide d'un logiciel approprié, se voir associée à un accompagnement choisi, par un procédé de dictée (7.8) qui permet, avec un jeu de repérages, de choisir pour chacune des notes de la mélodie, quelle sera sa durée, et sa position dans l ' accompagnement .
Description
Procédé de composition d'une oeuvre musicale par un non-musicien
Le présent procédé est principalement destiné aux personnes qui, tout en étant fortement attirées par la musique et la composition musicale, ne sont pas douées pour manipuler un clavier musical ni pour recevoir l'enseignement des branches telles que solfège ou harmonie .
Les oeuvres musicales auxquelles est applicable le procédé selon l'invention, sont constituées, et c'est là un cas rencontré fréquemment, d'une mélodie, et d'un accompagnement, ce dernier étant souvent appelé orchestration ou accompagnement orchestral, lorsqu'il comporte plusieurs instruments.
Pour émettre une mélodie, la méthode la plus simple pour la personne intéressée, faute de pouvoir la composer elle-même, est d'en prendre une dans le répertoire du patrimoine musical du passé, -chose licite si son auteur est mort depuis plus de 70 ans et de la copier, quitte à l'adapter quelque peu, comme par exemple lui enlever l'un ou l'autre trait ornemental démodé, ou encore la retravailler. Ces choses faites, elle pourrait, faute de pouvoir l'écrire en musique, la chantonner mentalement.
Un premier, quoique léger, handicap, sera son incompétence à l'enregistrer.
Mais où l'intéressé va rencontrer des handicaps bien plus graves, c'est pour composer l'accompagnement ou
orchestration qui doit aller de pair avec cette mélodie. Ceci du fait de son ignorance du solfège, de l'harmonie, et de la manipulation d'un clavier. Jusqu'ici, il lui fallait confier sa mélodie à un arrangeur compétent, d'où de sérieux inconvénients en matière de délai, de coût, et de partage de paternité. Le handicap en matière de délai n'est pas à sous- estimer car il est fréquent qu'une oeuvre musicale, une chanson par exemple, doive être composée dans l'immédiat, parce, par exemple, la demande ou l'inspiration est momentanée. Il existe également des arrangeurs automatiques auxquels on peut confier sa mélodie pour en obtenir le morceau de musique terminé, mais leur manoeuvre requiert impérativement d'être musicien, ce qui n'est pas le cas pour les utilisateurs du procédé selon l'invention.
Le procédé selon la présente invention, qui fait usage des outils connus et remarquables de l'informatique, permet d'obtenir en un temps court une oeuvre musicale inédite de la longueur de tout un morceau de musique, par exemple d'obtenir au cours de la même journée un morceau de plusieurs minutes. II consiste à faire usage de banques de mélodies et de banques d'accompagnements, ces dernières constituant des collections d'accompagnements orchestraux, lesquels ont une structure de canevas de la longueur de tout un morceau. Cette structure de canevas d'accompagnement orchestral met en oeuvre plusieurs instruments d'accompagnement, une rythmique de préférence associée à celles de notre époque, une introduction et un final.
Ces collections de canevas d'accompagnements orchestraux sont présentées en plusieurs groupes, soit par exemple groupe a, groupe b, groupe c, etc., chacun d'eux sonnant dans une tonalité distincte. Elles sont enregistrées à l'avance dans le logiciel mis à disposition de l'utilisateur, et ce d'une façon facilement audible par lui à l'oreille.
Quant aux banques de mélodies qui sont par ailleurs mises à sa disposition, elles sont regroupées ensemble en groupes ayant chacune une tonalité distincte, et qu'on peut nommer groupe A, groupe B, groupe C, etc. Ces mélodies sont, soit inédites et libres de droits, soit - et ceci en majorité - extraites du patrimoine musical tombé dans le domaine public. Elle peuvent bien sûr également être de reproduction et d'arrangement autorisés directement ou indirectement, par le compositeur.
L'utilisateur est invité à écouter ces mélodies et ces accompagnements orchestraux, à examiner de façon approfondie ceux qu'il préfère, et à faire un choix.
Il lui faudra impérativement, sous peine d'entendre des discordances à l'écoute finale, associer une mélodie, du groupe par exemple "A", à un accompagnement homonyme, soit ici du groupe par exemple "a". Le procédé permet alors l'association et l'enregistrement simultané par l'utilisateur des deux composantes choisies, c'est-à-dire une mélodie et un accompagnement, ceci en effectuant les opérations suivantes avec l'aide du logiciel mis à sa disposition. II doit tout d'abord posséder mentalement, en l'écoutant et en s'en imprégnant, le thème mélodique choisi dans une des banques, qui lui est présenté de
façon audible sous forme de sons ou notes égrenés successivement un à la fois. Il doit inscrire ces notes à l'écran, l'une après l'autre, en les saisissant intuitivement au moyen d'un petit clavier virtuel qui apparaît à l'écran. La chose se fait aisément à l'oreille, avec possibilité de corriger chaque note saisie si, à son avis, elle ne sonne pas agréablement pour lui. Il n'est pas du tout nécessaire que l'utilisateur identifie, au sens musical, quelle note il est en train de taper, et d'ailleurs, il n'est pas nécessaire non plus que les signes successifs qu'il fait apparaître à l'écran et y enregistre pour figurer sa mélodie, représentent les notes de musique dans leur dessin conventionnel. En tout cas, si ces signes ressemblent à des notes de musique, ils n'ont pas d'indication de durée telle que "noire", "blanche", "ronde", etc. L'utilisateur est invité à toucher les notes à l'écran avec la flèche du curseur de souris, pour les entendre sonner, et plus longtemps il touche, plus longtemps sonnera la note. Il peut ainsi avoir un contrôle sur le thème mélodique qu'il enregistre, le modifier en se fiant à ses goûts et inspirations, ceci en supprimant des notes, ou en en rajoutant. Il peut aussi, si le thème mélodique est jugé trop court, le répéter, ou en adjoindre un autre tiré de la même banque, - en particulier s'il veut avoir des "couplets" alternant avec des "refrains" .
Il doit ensuite faire choix, dans la banque homonyme, d'un accompagnement orchestral. II fait jouer ce dernier d'une façon audible, puis revient vers sa mélodie, dont il touche successivement les notes selon les durées qu'il leur juge bonnes, et
ce dans un rythme qu'il estime convenir à celui de l'accompagnement entendu simultanément.
A ce stade il lui est encore loisible d'apporter encore à la mélodie les modifications qu'il pourrait souhaiter, puis de la réécouter à nouveau, toujours en faisant jouer l'accompagnement simultanément.
L'étape suivante consiste à enregistrer simultanément le son de la mélodie et celui de l'accompagnement orchestral, - mais pas n'importe comment. Le système permet en effet à l'utilisateur de véritablement "moduler" sa mélodie en fonction de l'accompagnement qu'il entend. A cette fin, le logiciel met la manoeuvre suivante à sa disposition. Il lance l'écoute de l'accompagnement orchestral et agit sur la souris de telle sorte qu'à chaque clic de souris s'enregistre, et ce audiblement, une note de mélodie, et ce en séquence, en commençant par la première, avec comme caractéristique, que chacun de ces sons successifs de la mélodie est noté par le système comme étant de la durée du clic poussé par l'utilisateur.
Celui-ci maîtrise donc parfaitement la structure finale de son morceau, puisque c'est lui qui a décidé, note par note, comment sera matérialisée sa position vis-à- vis des sons de l'accompagnement, et quelles seront les durées individuelles qu'il donne à chacune des notes qu1 il dicte.
Le morceau une fois enregistré peut se voir rendu visible à l'écran sous forme d'un schéma linéaire affectant la forme d'un ruban pourvu d'unités de temps égales et numérotées en séquences (les "mesures") avec parcours d'un curseur s'y déplaçant au fil de l'écoute du morceau. Ceci permet à l'utilisateur d'améliorer son
oeuvre, de la façon suivante. Lors de l'écoute, il repère le numéro de la mesure où il pourrait avoir entendu deux notes qu'il estime peu heureuses en compatibilité. Pour l'une des deux - et ce sera généralement celle appartenant à l'accompagnement orchestral - il a le souhait de la supprimer ou de l'atténuer. Dans ce but, le logiciel lui permet de faire apparaître à l'écran la structure de 1 ' accompagnement orchestral au niveau de la mesure portant le numéro concerné. Il y voit les instruments qui interviennent, chaque instrument apparaissant accompagné d'un potentiomètre virtuel qui en régit le volume. Il lui suffit alors de baisser celui qui est concerné, et ce pour la durée de la mesure en question à l'exclusion des autres.
Il existe sur le marché des logiciels présentant des fonctions qu'on pourrait penser analogues. Il faut citer notamment "E-Jay", qui permet de juxtaposer une mélodie tirée d'une banque, à un accompagnement tiré d'une autre banque. Par rapport à la présente invention, ce procédé présente des différences notables. Pour les mélodies qu'il offre, et qui ont dès le départ une rythmique imposée, la même qu'à l'accompagnement, il n'est pas permis, lors de l'association (qui n'est pas une dictée note par note) d'en modifier ni la nature de note, ni la durée de note, ni sa position par rapport aux sons de l'accompagnement.
Les figures ci-annexées permettent de mieux comprendre l'exposé de l'invention et en particulier celui de l'exemple qui va suivre.
La Fig.l représente un exemple de ce qui apparaît à l'écran d'ordinateur lorsque l'utilisateur appelle un thème mélodique depuis une des banques, - thème mélodique ici composé de 2 phrases de 7 notes chacune, et représenté à l'écran par 14 repères 2 mis en séquence sur une portée 1.
La Fig.2 représente la même séquence modifié par l'utilisateur pour mieux adapter à son goût les notes de la mélodie appelée. La Pig.3 montre un exemple de la représentation à l'écran de la façon dont se décrit le déroulement de l'accompagnement orchestral. Le curseur mobile 4, trait vertical, y est représenté : il est mobile depuis le départ et se déplace à vitesse uniforme, au fil du déroulement audible de l'accompagnement, sur 32 plages
3 successives et égales, qu'on peut appeler mesures, et numérotées en séquence. L'utilisateur qui écoute jouer l'accompagnement peut à tout instant, identifier par son numéro, au niveau de quelle mesure le jeu sonore est arrivé.
La Fig.4 représente la même chose avec le curseur
4 en position de repos, avant le départ du défilement du jeu sonore de l'accompagnement orchestral.
La Fig.5 représente à nouveau le curseur en cours de route de défilement, ici arrivé en mesure 6. Les mesures qui précèdent se sont vues successivement garnies de repères matérialisant le fait que les notes
de la mélodie ont été, l'une après l'autre, inscrites et enregistrée par-dessus celles de l'accompagnement orchestral .
La Fig.6 montre un exemple de représentation à l'écran de la structure d'un accompagnement orchestral correspondant à une mesure donnée.
La Fig. 7 représente schématiquement une "capture d'écran" censée représenter les possibilités de manoeuvre de l'utilisateur muni de sa souris, au cours des principales opérations qui l'aident à composer.
L'exemple décrit ci-après illustre par un cas concret la description du procédé selon l'invention. L'utilisateur commence par explorer, par audition, les banques de mélodies annexées au logiciel dont il dispose. Elles sont classées en catégories telles que : gaies, sérieuses, nostalgiques, tristes ou autres. A ce stade-ci, le tempo, ou vitesse de jeu de la mélodie, n'est pas encore décidé par l'utilisateur ; il le fera plus tard. En choisissant une mélodie, il note à quel groupe elle appartient : soit par exemple le groupe A. Au moment voulu, il devra choisir un accompagnement du groupe homonyme . Outre l'écoute sonore, l'utilisateur peut, et doit, faire apparaître à l'écran un schéma représentant la séquence des sons du thème mélodique choisi. Supposons qu'il ait choisi une mélodie, extraite du patrimoine folklorique, titrée "Ah vous dirai-je maman". Par une manoeuvre de type banal il fera apparaître à l'écran, une suite de repères 1 sur une portée 2 (fig.l) qui représente la suite des 14 sons concernés (deux séries
de 7) . Le logiciel lui permet, lorsqu'il touche un de ces repères avec la flèche du curseur, de l'entendre sonner. On peut, si l'on veut, appeler ces repères des notes de musique, bien qu'il ne soit pas nécessaire que lesdits repères indiquent la hauteur ou la durée de note. Dans cet exemple-ci, on voit que les hauteurs sont indiquées, et non pas les durées. L'utilisateur peut, par des manoeuvres simples, transférer ces notes une à une dans une fenêtre d'écran dénommée "zone de travail", où il lui est loisible, s'il le désire, de retravailler la mélodie. Un bouton est à sa disposition pour effacer toute "note" indésirable, et, pour en rajouter d'autres, il fera usage d'un petit clavier virtuel situé sur l'écran. Certes étant non-musicien, il n'est pas censé savoir identifier sur un clavier les notes qu'il tape, mais il peut y arriver intuitivement par essais successifs, sans problème. Supposons par exemple qu'il y rajoute encore une "note" : cela donne à l'écran le schéma de la fig.2. Sa mélodie étant considérée comme adoptée en ce qui concerne le choix des sons (mais pas encore leurs durées, ni le rythme du jeu), il la laisse à l'écran, et va explorer auditivement les accompagnements orchestraux dans les banques qui les contiennent, et ici, plus précisément, dans la banque homonyme, "groupe a". Il en choisit un, compte tenu de la mélodie qu'il a en tête, selon son goût. La banque lui donne le choix entre divers styles, et supposons par exemple qu'il choisisse un accompagnement dans le style "chansons- rock". Par une manoeuvre simple, il l'enregistre avec matérialisation à l'écran de son schéma visuel de défilement qui a l'allure de la fig.3.
En lançant le curseur, celui-ci décrit l'entièreté du ruban, jusqu'à la dernière mesure, celle qui porte le n° 32, et le son l'accompagne audiblement, de telle sorte que l'utilisateur dispose d'un système de repérage. Les accompagnements orchestraux dans le cas choisi "chanson-rock" sont construits avec une longueur de 25 à 35 mesures. Le logiciel met à disposition des outils simples permettant de supprimer certaines mesures, ou d'en dédoubler, de changer de place des mesures dédoublées ou non, ou autres manoeuvres de ce genre. L'utilisateur doit aussi assigner un tempo, une vitesse de jeu, de défilement de son accompagnement orchestral. Il le fera en tenant compte de l'allure qu'il veut donner à son morceau : par exemple, pour un morceau nostalgique, il prendra un tempo lent. Il doit aussi prendre en compte la durée de la mélodie dont il dispose pour qu'elle s'adapte à celle de l'accompagnement. Il est fréquent qu'il décide de ne faire jouer la mélodie - ceci fait l'objet de la manoeuvre qui va être décrite ci-dessous - qu'après une ou plusieurs mesures d'accompagnement seul, - et de même à la fin du morceau. C'est entre autres en prévision de cela que les accompagnements ont été élaborés avec une introduction et un final. Dans notre exemple, comme il s'agit d'une chanson, il a une durée de l'ordre de deux minutes.
L'utilisateur doit à présent, à sa façon, "dicter" sa mélodie sur son accompagnement orchestral. Pour ce faire, il lance à l'écran une manoeuvre intitulée "dictée rythmique". Le logiciel met alors en place le curseur du ruban d'accompagnement dans la position de départ (fig.4) et un carré blanc s'installe à l'écran,
dans lequel l'utilisateur est invité à venir pointer sa flèche de curseur de souris. En y cliquant, la première note de la mélodie vient s'enregistrer en superposition à l'accompagnement, et ce au moment exactement décidé par l'utilisateur pour son clic, lorsque, après avoir démarré l'accompagnement, il en suit attentivement son déroulement à l'écran et son déroulement auditif simultané. Par exemple, il peut commencer dès mesure 2, en laissant donc l'accompagnement jouer seul pendant la première mesure. A chaque fois qu'il cliquera, une note de plus viendra s'enregistrer. S'il pousse plus longtemps sur son clic, la note en sera d'autant plus longue. Aidé par le fait que l'accompagnement se déroule en même temps que sa manoeuvre avec la mélodie, c'est donc l'utilisateur et lui seul qui va donner le rythme jugé approprié à son morceau, puisqu'il est maître à la fois du moment où il inscrit une note, et de la durée qu'il lui donne.
La fig.5 montre le curseur en cours de route, arrivé dans la sixième mesure. En regardant attentivement cette figure, on peut voir que l'utilisateur a légèrement modifié le rythme qu'évoquait les séquences précédentes (fig. 1 et 2). Il a, si l'on veut, "swingué" par rapport au rythme régulier dont sont généralement pourvues les mélodies folkloriques. La mesure 5 n'a qu'une seule note, parce qu'il a poussé longuement sur le clic. Et sur la mesure 6, il a cliqué quatre fois, et rapidement.
Cette dictée terminée, le morceau se trouve enregistré "mélodie plus accompagnement". Il lui est loisible de le réécouter, puis de recommencer les manoeuvres, en les améliorant, autant de fois qu'il le
juge bon. On notera qu'à aucun moment il n'a fallu qu'il connaisse ce que sont les notes de musique "du solfège", les portée, et même les "mesures" au sens musical théorique du terme. Certes les signes qui apparaissent à l'écran peuvent avoir la forme de notes de musique, mais cela ne s'impose pas, car il ne s'agit que de repères destinés à aider des manoeuvres qui se font essentiellement "à l'audition".
A présent, il peut se faire qu'à l'audition du morceau, l'utilisateur ou ses proches remarquent l'une ou l'autre discordance entre une note de la mélodie et un son joué à ce moment par l'accompagnement. L'origine en est que, contrairement à la pratique rencontrée le plus souvent jusqu'ici, il n'est pas intervenu d'arrangeur humain, ni non plus d'arrangeur automatique, ayant pris en considération la mélodie pour composer l'arrangement orchestral. L'accompagnement orchestral éta'it préexistant. Certes, il avait été composé dans la même tonalité (ici groupe a) que celle de la mélodie (groupe A) mais, en musique, il peut y avoir des surprises. En outre, l'utilisateur avait la faculté de modifier la mélodie qu'on lui donnait, et il en a peut-être abusé (au demeurant, libre à lui de revenir en arrière sur ce point, s'il le juge bon).
La manoeuvre de correction que permet le présent procédé consiste à noter le numéro de la mesure concernée, et par une manoeuvre simple, de faire apparaître à l'écran quelle est la structure de l'accompagnement orchestral au niveau de ladite mesure. La fig.6 montre schématiquement comment peut se présenter un tel tableau pour la mesure prise en
considération, soit ici celle portant par exemple le numéro 7. Chaque instrument de l ' accompagnement orchestral est sur l'écran accompagné d'un petit potentiomètre dont l'activation permet d'en atténuer ou d'en supprimer le son. Il suffit à l'utilisateur par une écoute attentive, d'identifier celui des instruments responsable de la dissonance. En général il s'agira d'un des instruments solistes de l'accompagnement, et en aucun cas, pour des raisons évidentes, des percussions, qu'il laissera telles quelles .
On peut récapituler le cursus des manoeuvres à effectuer par l'utilisateur pour composer une oeuvre, en examinant la fig. 7. Dans cet exemple en l'occurrence il s'agira de la musique d'une "chanson- rock", accompagnement compris. Il commence, avec le menu déroulant 7.1, par sélectionner un groupe de mélodies, ici le groupe a, puis un titre de mélodie, ici "Ah vous dirai-je maman", qu'il fait apparaître en surbrillance ou en augmentatif. Il poussera ensuite sur les boutons 7.2 et 7.4 et la mélodie sera affichée en 7.3 en même temps qu'elle est entendue, jouée par la machine. Au départ de 7.5 il peut faire glisser des "notes" additionnelles dans la zone de travail
7.3. Il lui est loisible d'en effacer aussi, ceci grâce à la touche d'effacement du clavier d'ordinateur. Les "notes" sont représentées selon leur hauteur audible, mais pas selon leurs durées individuelles. Avec les menus déroulants 7.6 et 7.7 l'utilisateur choisira, d'abord un genre, - ici "Canevas pour chanson-rock, ballads", puis un style, - ici le style 2, dont il a
pris soin de vérifier que c'est un style du groupe A, donc compatible avec une mélodie homonyme. Il fait glisser la ligne de sa sélection sur les portées vierges de la partition intitulée "Ma Composition", qui se trouve en bas d'écran, en 7.9, où apparaît alors le titre de l'accompagnement sélectionné. Ce dernier peut être écouté par une manoeuvre de mise en marche (ici, en l'occurrence, la barre d'espacement du clavier) et à mesure que le son de l'accompagnement est émis, le curseur que l'on voit ici en mesure 6, se déplace concomitamment, décrivant les mesures numérotées successives. A ce stade, n'apparaissent pas encore de notes dans lesdites mesures, l'accompagnement jouant seul, pour que l'utilisateur puisse s'y familiariser. Le stade suivant est celui de la dictée, qui utilise la zone 7.8. En poussant sur le bouton "Dictée", on met en route le défilement audible et visible de l'accompagnement, puis à chaque poussée d'un clic avec la flèche de souris dans le carré blanc, une note sera dictée en "surimpression" sur l'accompagnement. Chaque durée individuelle de note peut être choisie, ceci en proportion de la durée d'enfoncement du clic. Le moment où une note est déposée est également choisi librement. Il en résulte un rythme bien approprié au désir ou plutôt à l'intuition de l'utilisateur. Car en pratique, il "jouera sa dictée" tout-à-fait intuitivement au départ du morceau qu'il se crée mentalement en tête. On remarquera que les notes de mélodie dictées et enregistrées en "surimpression" sur l'accompagnement, s'inscrivent visiblement dans les mesures numérotées. Dans la variante ici illustrée, la machine va même jusqu'à leur dessiner de manière
traditionnelle (rondes, blanches, noires, croches) les valeurs de durées qu'il a dictées intuitivement. Sa mélodie pourra donc, s'il le veut, se voir imprimée avec lisibilité par des tiers.
Claims
1.- Procédé d'assistance à la composition d'une oeuvre musicale avec usage d'un ordinateur, ledit ordinateur comprenant au moins
(a) un logiciel,
(b) en mémoire, plusieurs collections de thèmes mélodiques pré-enregistrés en mode audible (collection A, collection B, collection C, etc..)
(c) en mémoire plusieurs* collections d'accompagnements orchestraux composés à l'avance et pré-enregistrés en mode audible (collection a, collection b, collection c .. ) , chaque accompagnement musical formant le canevas d'un futur morceau de musique, mais ne comportant pas de thème mélodique principal,
les collections h, B, C, etc. ayant chacune été composées en tonalités distinctes, avec la tonalité de collection A la même que celle de la collection a, celle de la collection B la même que celle de la collection b, etc.,
caractérisé en ce que l'utilisateur effectue successivement les opérations suivantes :
- choisir un thème mélodique d'une des collections, l'écouter, l'afficher à l'écran de l'ordinateur sous forme d'une séquence sonore et visuelle, séquence apparaissant sous formes de signes, lesquels peuvent avoir ou non l'aspect de notes de musique imprimée, lesdits signes servant à l'utilisateur de repères, dans le but de se réécouter et pour pouvoir ajouter ou supprimer des signes, éventuellement en revenant en arrière, le logiciel ayant été programmé pour qu'à chaque manoeuvre en vue de l'ajout d'un signe, un son audible est émis et enregistré en même temps que ledit signe apparaît, chaque note étant enregistrée selon sa hauteur musicale, mais pas nécessairement selon sa durée audible, - apporter, éventuellement, d'autres modifications à la mélodie, sur base des manoeuvres décrites ci-dessus, compte tenu que pour entendre sonner une note, il suffit de toucher avec le curseur le signe qui la représente, - choisir un accompagnement orchestral d'une des collections en veillant à ce que le choix porte sur un accompagnement de tonalité compatible avec celui du thème mélodique,
- dicter successivement chacun des sons du thème mélodique, en surimpression sur le son de l'accompagnement orchestral que l'utilisateur fait audiblement se dérouler, dictée consistant à appeler successivement chaque signe, avec le son associé, en veillant à appeler chaque fois la note au bon moment par rapport au rythme de l'accompagnement, ce moment étant évalué en toute liberté par l'utilisateur, chaque note appelée, par ailleurs, s ' enregistrant dans le système, avec l'accompagnement, tout en étant audible, et ajustable en durée pendant la procédure d'appel,
- l'ensemble de la dictée apparaissant à l'écran, schématiquement sous forme d'un ruban numéroté en segments égaux, représentant des mesures musicales, segments dans lesquels s'inscrivent les signes figurant les notes de la mélodie dictée.
2.- Procédé de composition musicale selon revendication 1, caractérisé en outre par la faculté pour l'utilisateur : de repérer à l'écran, en se servant des signes repérant les notes de la mélodie sur le ruban figurant le déroulement numéroté de l'accompagnement, le ou les endroits où un son de la mélodie pourrait, à l'écoute, apparaître en discordance avec un son de l'accompagnement, puis, grâce à ce repérage, de faire apparaître à l'écran quelle est à cet endroit la structure de l'accompagnement, c'est-à-dire 1 ' énumération des instruments d'accompagnement concernés à l'endroit en question, et de pratiquer une manoeuvre d'atténuation ou de suppression, à cet endroit seulement, du son de celui des instruments d'accompagnement qui est considéré comme gênant.
3.- Logiciel pour appliquer le procédé de composition musicale selon l'une des revendications 1 ou 2.
4.- Dispositif et/ou support comprenant un logiciel selon la revendication 3 et des bases de données de mélodies et d'accompagnements selon la revendication 1.
5.- Dispositif d'assistance à la composition d'une oeuvre musicale comprenant un ordinateur, ledit ordinateur comprenant au moins (a) un logiciel, une mémoire comprenant d'une part (b) plusieurs collections de thèmes mélodiques pré-enregistrés en mode audible (collection A, collection B, collection C, etc..) et d'autre part (c) plusieurs collections d'accompagnements orchestraux composés à l'avance et pré-enregistrés en mode audible (collection a, collection b, collection c .. ) , chaque accompagnement musical formant le canevas d'un futur morceau de musique mais ne comportant pas de thème mélodique principal,
les collections A, B, C, etc. ayant chacune été composées en tonalités distinctes, avec la tonalité de collection A la même que celle de la collection a, celle de la collection B la même que celle de la collection b, etc.,
dans lequel le logiciel comprend des moyens pour associer une mélodie sélectionnée à un accompagnement sélectionné en les fusionnant en un morceau de musique enregistrable, et modifiable à volonté,
des moyens étant prévus par le logiciel, via un interface graphique, pour ajouter ou soustraire des notes, ou en modifier les caractéristiques ou la position.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BE200500550 | 2005-11-14 | ||
PCT/BE2006/000123 WO2007053917A2 (fr) | 2005-11-14 | 2006-11-14 | Procede de composition d’une œuvre musicale par un non-musicien |
Publications (1)
Publication Number | Publication Date |
---|---|
EP1969587A2 true EP1969587A2 (fr) | 2008-09-17 |
Family
ID=37882545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP06817623A Withdrawn EP1969587A2 (fr) | 2005-11-14 | 2006-11-14 | Procede de composition d une uvre musicale par un non-musicien |
Country Status (3)
Country | Link |
---|---|
US (1) | US20090272252A1 (fr) |
EP (1) | EP1969587A2 (fr) |
WO (1) | WO2007053917A2 (fr) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101611511B1 (ko) * | 2009-05-12 | 2016-04-12 | 삼성전자주식회사 | 터치스크린을 구비한 휴대 단말기를 이용한 음악 생성 방법 |
WO2014008209A1 (fr) * | 2012-07-02 | 2014-01-09 | eScoreMusic, Inc. | Systèmes et procédés pour affichage, collaboration et annotation de musique |
US8927846B2 (en) * | 2013-03-15 | 2015-01-06 | Exomens | System and method for analysis and creation of music |
US9715870B2 (en) | 2015-10-12 | 2017-07-25 | International Business Machines Corporation | Cognitive music engine using unsupervised learning |
CN106898341B (zh) * | 2017-01-04 | 2021-03-09 | 清华大学 | 一种基于共同语义空间的个性化音乐生成方法及装置 |
CN108806655B (zh) * | 2017-04-26 | 2022-01-07 | 微软技术许可有限责任公司 | 歌曲的自动生成 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4958551A (en) * | 1987-04-30 | 1990-09-25 | Lui Philip Y F | Computerized music notation system |
US4930390A (en) * | 1989-01-19 | 1990-06-05 | Yamaha Corporation | Automatic musical performance apparatus having separate level data storage |
DE4190102B4 (de) * | 1990-01-18 | 2005-04-14 | E-MU Systems, Inc., Scotts Valley | Datenverdichtung von Tondaten |
JP2541074B2 (ja) * | 1992-04-20 | 1996-10-09 | ヤマハ株式会社 | 電子楽器 |
US5495073A (en) * | 1992-05-18 | 1996-02-27 | Yamaha Corporation | Automatic performance device having a function of changing performance data during performance |
US5478967A (en) * | 1993-03-30 | 1995-12-26 | Kabushiki Kaisha Kawai Gakki Seisakusho | Automatic performing system for repeating and performing an accompaniment pattern |
US5665927A (en) * | 1993-06-30 | 1997-09-09 | Casio Computer Co., Ltd. | Method and apparatus for inputting musical data without requiring selection of a displayed icon |
US5602357A (en) * | 1994-12-02 | 1997-02-11 | Yamaha Corporation | Arrangement support apparatus for production of performance data based on applied arrangement condition |
US5663517A (en) * | 1995-09-01 | 1997-09-02 | International Business Machines Corporation | Interactive system for compositional morphing of music in real-time |
US5801694A (en) * | 1995-12-04 | 1998-09-01 | Gershen; Joseph S. | Method and apparatus for interactively creating new arrangements for musical compositions |
IT1282613B1 (it) * | 1996-02-13 | 1998-03-31 | Roland Europ Spa | Apparecchiatura elettronica per la composizione e riproduzione automatica di dati musicali |
US7297856B2 (en) * | 1996-07-10 | 2007-11-20 | Sitrick David H | System and methodology for coordinating musical communication and display |
US6121532A (en) * | 1998-01-28 | 2000-09-19 | Kay; Stephen R. | Method and apparatus for creating a melodic repeated effect |
US6121533A (en) * | 1998-01-28 | 2000-09-19 | Kay; Stephen | Method and apparatus for generating random weighted musical choices |
JP3541706B2 (ja) * | 1998-09-09 | 2004-07-14 | ヤマハ株式会社 | 自動作曲装置および記憶媒体 |
FR2785438A1 (fr) * | 1998-09-24 | 2000-05-05 | Baron Rene Louis | Procede et dispositif de generation musicale |
JP3533974B2 (ja) * | 1998-11-25 | 2004-06-07 | ヤマハ株式会社 | 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体 |
US6169242B1 (en) * | 1999-02-02 | 2001-01-02 | Microsoft Corporation | Track-based music performance architecture |
HU225078B1 (en) * | 1999-07-30 | 2006-06-28 | Sandor Ifj Mester | Method and apparatus for improvisative performance of range of tones as a piece of music being composed of sections |
US6740802B1 (en) * | 2000-09-06 | 2004-05-25 | Bernard H. Browne, Jr. | Instant musician, recording artist and composer |
US6888999B2 (en) * | 2001-03-16 | 2005-05-03 | Magix Ag | Method of remixing digital information |
WO2002077585A1 (fr) * | 2001-03-26 | 2002-10-03 | Sonic Network, Inc. | Systeme et procede de creation et d'arrangement musicaux |
JP4267925B2 (ja) * | 2001-04-09 | 2009-05-27 | ミュージックプレイグラウンド・インコーポレーテッド | 対話型再生によるマルチパートオーディオ演奏を記憶する媒体 |
US6822153B2 (en) * | 2001-05-15 | 2004-11-23 | Nintendo Co., Ltd. | Method and apparatus for interactive real time music composition |
US6483019B1 (en) * | 2001-07-30 | 2002-11-19 | Freehand Systems, Inc. | Music annotation system for performance and composition of musical scores |
ATE515764T1 (de) * | 2001-10-19 | 2011-07-15 | Sony Ericsson Mobile Comm Ab | Midi-komponiervorrichtung |
US7735011B2 (en) * | 2001-10-19 | 2010-06-08 | Sony Ericsson Mobile Communications Ab | Midi composer |
US7223911B2 (en) * | 2001-10-29 | 2007-05-29 | Yamaha Corporation | Portable telephone set with reproducing and composing capability of music |
US6653545B2 (en) * | 2002-03-01 | 2003-11-25 | Ejamming, Inc. | Method and apparatus for remote real time collaborative music performance |
JP4211672B2 (ja) * | 2004-04-28 | 2009-01-21 | ヤマハ株式会社 | 演奏データ作成装置及びプログラム |
US7525036B2 (en) * | 2004-10-13 | 2009-04-28 | Sony Corporation | Groove mapping |
US7297858B2 (en) * | 2004-11-30 | 2007-11-20 | Andreas Paepcke | MIDIWan: a system to enable geographically remote musicians to collaborate |
CA2489256A1 (fr) * | 2004-12-06 | 2006-06-06 | Christoph Both | Systeme et methode a assistance video permettant a des personnes eloignees de jouer ensemble des instruments de musique |
US20060180007A1 (en) * | 2005-01-05 | 2006-08-17 | Mcclinsey Jason | Music and audio composition system |
US7608775B1 (en) * | 2005-01-07 | 2009-10-27 | Apple Inc. | Methods and systems for providing musical interfaces |
US20070028750A1 (en) * | 2005-08-05 | 2007-02-08 | Darcie Thomas E | Apparatus, system, and method for real-time collaboration over a data network |
US7518051B2 (en) * | 2005-08-19 | 2009-04-14 | William Gibbens Redmann | Method and apparatus for remote real time collaborative music performance and recording thereof |
US7853342B2 (en) * | 2005-10-11 | 2010-12-14 | Ejamming, Inc. | Method and apparatus for remote real time collaborative acoustic performance and recording thereof |
US20070137463A1 (en) * | 2005-12-19 | 2007-06-21 | Lumsden David J | Digital Music Composition Device, Composition Software and Method of Use |
US7542273B2 (en) * | 2006-08-25 | 2009-06-02 | Laycock Larry R | Music display and collaboration system |
US7838755B2 (en) * | 2007-02-14 | 2010-11-23 | Museami, Inc. | Music-based search engine |
AU2008229637A1 (en) * | 2007-03-18 | 2008-09-25 | Igruuv Pty Ltd | File creation process, file format and file playback apparatus enabling advanced audio interaction and collaboration capabilities |
JP4306754B2 (ja) * | 2007-03-27 | 2009-08-05 | ヤマハ株式会社 | 楽曲データ自動生成装置及び音楽再生制御装置 |
-
2006
- 2006-11-14 US US12/093,608 patent/US20090272252A1/en not_active Abandoned
- 2006-11-14 EP EP06817623A patent/EP1969587A2/fr not_active Withdrawn
- 2006-11-14 WO PCT/BE2006/000123 patent/WO2007053917A2/fr active Application Filing
Non-Patent Citations (1)
Title |
---|
See references of WO2007053917A3 * |
Also Published As
Publication number | Publication date |
---|---|
US20090272252A1 (en) | 2009-11-05 |
WO2007053917A2 (fr) | 2007-05-18 |
WO2007053917A3 (fr) | 2007-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1969587A2 (fr) | Procede de composition d une uvre musicale par un non-musicien | |
Greenwald | Hip-hop drumming: the rhyme may define, but the groove makes you move | |
Zak III | Bob Dylan and Jimi Hendrix: Juxtaposition and transformation" all along the watchtower" | |
FR2974226A1 (fr) | Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur. | |
Gray | Improvisation and composition in Balinese gendér wayang: music of the moving shadows | |
D'Errico | Behind the beat: technical and practical aspects of instrumental hip-hop composition | |
Rothenbuhler | For-the-record aesthetics and Robert Johnson's blues style as a product of recorded culture | |
CN111223470A (zh) | 音频处理方法、装置及电子设备 | |
FR3038440A1 (fr) | Procede d’extraction et d’assemblage de morceaux d’enregistrements musicaux | |
Minton | Houston Creoles and Zydeco: The emergence of an African American urban popular style | |
EP1395976B1 (fr) | Procede et dispositif d'aide a la composition ou au jeu musical | |
Tsougras | The application of GTTM on 20th century modal music: Research based on the analysis of Yannis Constantinidis's “44 Greek miniatures for piano” | |
Tucker | Mainstreaming Monk: The Ellington Album | |
Manning | Houston Roots and the Texas Gulf Coast Sound Embodied in the Music of Los Skarnales and Nick Gaitan & the Umbrella Man | |
Hoek | ARSC CONFERENCE PAPER: Beyond Bebop: Dial Records and the Library of Contemporary Classics | |
Davidson | Performing" Hurt": Aging, Disability, and Popular Music as Mediated Product and Lived-Experience in Johnny Cash's Final Recordings | |
Cannon | Laughter, Liquor, and Licentiousness: Preservation Through Play in Southern Vietnamese Traditional Music | |
Aittoniemi | Cultural and musical dimensions of Goa trance and early psychedelic trance in Finland | |
Heetderks | Slanted beats, enchanted communities: Pavement's early phrase rhythm as indie narrative | |
Cannon | LAUGHTER, LIQUOR, AND LICENTIOUSNESS | |
Dylan et al. | ALBIN J. ZAK III | |
Crawford | Rethinking the Rhapsody | |
Taylor | Re‐signing Mass Culture: Billy Bragg's “There is Power in a Union” | |
Demers | La prosodie du discourse rapporte. Recherches sociolinguistiques 3 (The Prosody of Reported Discourse. Sociolinguistic Research 3). | |
Lederman | Old Indian and Metis Fiddling in Manitoba: Origins, Structure, and Question of Syncretism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
17P | Request for examination filed |
Effective date: 20080528 |
|
AK | Designated contracting states |
Kind code of ref document: A2 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR |
|
RIN1 | Information on inventor provided before grant (corrected) |
Inventor name: LADYJENSKY, JACQUES |
|
17Q | First examination report despatched |
Effective date: 20080609 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN |
|
18D | Application deemed to be withdrawn |
Effective date: 20100601 |