EP1969587A2 - Procede de composition d une uvre musicale par un non-musicien - Google Patents

Procede de composition d une uvre musicale par un non-musicien

Info

Publication number
EP1969587A2
EP1969587A2 EP06817623A EP06817623A EP1969587A2 EP 1969587 A2 EP1969587 A2 EP 1969587A2 EP 06817623 A EP06817623 A EP 06817623A EP 06817623 A EP06817623 A EP 06817623A EP 1969587 A2 EP1969587 A2 EP 1969587A2
Authority
EP
European Patent Office
Prior art keywords
collection
accompaniment
melody
musical
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP06817623A
Other languages
German (de)
English (en)
Inventor
Jacques Ladyjensky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Structures SPRL
Original Assignee
Continental Structures SPRL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Structures SPRL filed Critical Continental Structures SPRL
Publication of EP1969587A2 publication Critical patent/EP1969587A2/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/151Music Composition or musical creation; Tools or processes therefor using templates, i.e. incomplete musical sections, as a basis for composing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Abstract

Procédé de composition musicale destiné à un non- musicien, basé sur l'utilisation de mélodies préenregistrées et présentées en banques (7.1) , à associer à des accompagnements orchestraux également préenregistrés, en banques (7.6) . Les accompagnements orchestraux ont d'avance la forme d'un morceau complet sans la mélodie. Une mélodie sélectionnée peut, à l'aide d'un logiciel approprié, se voir associée à un accompagnement choisi, par un procédé de dictée (7.8) qui permet, avec un jeu de repérages, de choisir pour chacune des notes de la mélodie, quelle sera sa durée, et sa position dans l ' accompagnement .

Description

Procédé de composition d'une oeuvre musicale par un non-musicien
Le présent procédé est principalement destiné aux personnes qui, tout en étant fortement attirées par la musique et la composition musicale, ne sont pas douées pour manipuler un clavier musical ni pour recevoir l'enseignement des branches telles que solfège ou harmonie .
Les oeuvres musicales auxquelles est applicable le procédé selon l'invention, sont constituées, et c'est là un cas rencontré fréquemment, d'une mélodie, et d'un accompagnement, ce dernier étant souvent appelé orchestration ou accompagnement orchestral, lorsqu'il comporte plusieurs instruments.
Pour émettre une mélodie, la méthode la plus simple pour la personne intéressée, faute de pouvoir la composer elle-même, est d'en prendre une dans le répertoire du patrimoine musical du passé, -chose licite si son auteur est mort depuis plus de 70 ans et de la copier, quitte à l'adapter quelque peu, comme par exemple lui enlever l'un ou l'autre trait ornemental démodé, ou encore la retravailler. Ces choses faites, elle pourrait, faute de pouvoir l'écrire en musique, la chantonner mentalement.
Un premier, quoique léger, handicap, sera son incompétence à l'enregistrer.
Mais où l'intéressé va rencontrer des handicaps bien plus graves, c'est pour composer l'accompagnement ou orchestration qui doit aller de pair avec cette mélodie. Ceci du fait de son ignorance du solfège, de l'harmonie, et de la manipulation d'un clavier. Jusqu'ici, il lui fallait confier sa mélodie à un arrangeur compétent, d'où de sérieux inconvénients en matière de délai, de coût, et de partage de paternité. Le handicap en matière de délai n'est pas à sous- estimer car il est fréquent qu'une oeuvre musicale, une chanson par exemple, doive être composée dans l'immédiat, parce, par exemple, la demande ou l'inspiration est momentanée. Il existe également des arrangeurs automatiques auxquels on peut confier sa mélodie pour en obtenir le morceau de musique terminé, mais leur manoeuvre requiert impérativement d'être musicien, ce qui n'est pas le cas pour les utilisateurs du procédé selon l'invention.
Le procédé selon la présente invention, qui fait usage des outils connus et remarquables de l'informatique, permet d'obtenir en un temps court une oeuvre musicale inédite de la longueur de tout un morceau de musique, par exemple d'obtenir au cours de la même journée un morceau de plusieurs minutes. II consiste à faire usage de banques de mélodies et de banques d'accompagnements, ces dernières constituant des collections d'accompagnements orchestraux, lesquels ont une structure de canevas de la longueur de tout un morceau. Cette structure de canevas d'accompagnement orchestral met en oeuvre plusieurs instruments d'accompagnement, une rythmique de préférence associée à celles de notre époque, une introduction et un final. Ces collections de canevas d'accompagnements orchestraux sont présentées en plusieurs groupes, soit par exemple groupe a, groupe b, groupe c, etc., chacun d'eux sonnant dans une tonalité distincte. Elles sont enregistrées à l'avance dans le logiciel mis à disposition de l'utilisateur, et ce d'une façon facilement audible par lui à l'oreille.
Quant aux banques de mélodies qui sont par ailleurs mises à sa disposition, elles sont regroupées ensemble en groupes ayant chacune une tonalité distincte, et qu'on peut nommer groupe A, groupe B, groupe C, etc. Ces mélodies sont, soit inédites et libres de droits, soit - et ceci en majorité - extraites du patrimoine musical tombé dans le domaine public. Elle peuvent bien sûr également être de reproduction et d'arrangement autorisés directement ou indirectement, par le compositeur.
L'utilisateur est invité à écouter ces mélodies et ces accompagnements orchestraux, à examiner de façon approfondie ceux qu'il préfère, et à faire un choix.
Il lui faudra impérativement, sous peine d'entendre des discordances à l'écoute finale, associer une mélodie, du groupe par exemple "A", à un accompagnement homonyme, soit ici du groupe par exemple "a". Le procédé permet alors l'association et l'enregistrement simultané par l'utilisateur des deux composantes choisies, c'est-à-dire une mélodie et un accompagnement, ceci en effectuant les opérations suivantes avec l'aide du logiciel mis à sa disposition. II doit tout d'abord posséder mentalement, en l'écoutant et en s'en imprégnant, le thème mélodique choisi dans une des banques, qui lui est présenté de façon audible sous forme de sons ou notes égrenés successivement un à la fois. Il doit inscrire ces notes à l'écran, l'une après l'autre, en les saisissant intuitivement au moyen d'un petit clavier virtuel qui apparaît à l'écran. La chose se fait aisément à l'oreille, avec possibilité de corriger chaque note saisie si, à son avis, elle ne sonne pas agréablement pour lui. Il n'est pas du tout nécessaire que l'utilisateur identifie, au sens musical, quelle note il est en train de taper, et d'ailleurs, il n'est pas nécessaire non plus que les signes successifs qu'il fait apparaître à l'écran et y enregistre pour figurer sa mélodie, représentent les notes de musique dans leur dessin conventionnel. En tout cas, si ces signes ressemblent à des notes de musique, ils n'ont pas d'indication de durée telle que "noire", "blanche", "ronde", etc. L'utilisateur est invité à toucher les notes à l'écran avec la flèche du curseur de souris, pour les entendre sonner, et plus longtemps il touche, plus longtemps sonnera la note. Il peut ainsi avoir un contrôle sur le thème mélodique qu'il enregistre, le modifier en se fiant à ses goûts et inspirations, ceci en supprimant des notes, ou en en rajoutant. Il peut aussi, si le thème mélodique est jugé trop court, le répéter, ou en adjoindre un autre tiré de la même banque, - en particulier s'il veut avoir des "couplets" alternant avec des "refrains" .
Il doit ensuite faire choix, dans la banque homonyme, d'un accompagnement orchestral. II fait jouer ce dernier d'une façon audible, puis revient vers sa mélodie, dont il touche successivement les notes selon les durées qu'il leur juge bonnes, et ce dans un rythme qu'il estime convenir à celui de l'accompagnement entendu simultanément.
A ce stade il lui est encore loisible d'apporter encore à la mélodie les modifications qu'il pourrait souhaiter, puis de la réécouter à nouveau, toujours en faisant jouer l'accompagnement simultanément.
L'étape suivante consiste à enregistrer simultanément le son de la mélodie et celui de l'accompagnement orchestral, - mais pas n'importe comment. Le système permet en effet à l'utilisateur de véritablement "moduler" sa mélodie en fonction de l'accompagnement qu'il entend. A cette fin, le logiciel met la manoeuvre suivante à sa disposition. Il lance l'écoute de l'accompagnement orchestral et agit sur la souris de telle sorte qu'à chaque clic de souris s'enregistre, et ce audiblement, une note de mélodie, et ce en séquence, en commençant par la première, avec comme caractéristique, que chacun de ces sons successifs de la mélodie est noté par le système comme étant de la durée du clic poussé par l'utilisateur.
Celui-ci maîtrise donc parfaitement la structure finale de son morceau, puisque c'est lui qui a décidé, note par note, comment sera matérialisée sa position vis-à- vis des sons de l'accompagnement, et quelles seront les durées individuelles qu'il donne à chacune des notes qu1 il dicte.
Le morceau une fois enregistré peut se voir rendu visible à l'écran sous forme d'un schéma linéaire affectant la forme d'un ruban pourvu d'unités de temps égales et numérotées en séquences (les "mesures") avec parcours d'un curseur s'y déplaçant au fil de l'écoute du morceau. Ceci permet à l'utilisateur d'améliorer son oeuvre, de la façon suivante. Lors de l'écoute, il repère le numéro de la mesure où il pourrait avoir entendu deux notes qu'il estime peu heureuses en compatibilité. Pour l'une des deux - et ce sera généralement celle appartenant à l'accompagnement orchestral - il a le souhait de la supprimer ou de l'atténuer. Dans ce but, le logiciel lui permet de faire apparaître à l'écran la structure de 1 ' accompagnement orchestral au niveau de la mesure portant le numéro concerné. Il y voit les instruments qui interviennent, chaque instrument apparaissant accompagné d'un potentiomètre virtuel qui en régit le volume. Il lui suffit alors de baisser celui qui est concerné, et ce pour la durée de la mesure en question à l'exclusion des autres.
Il existe sur le marché des logiciels présentant des fonctions qu'on pourrait penser analogues. Il faut citer notamment "E-Jay", qui permet de juxtaposer une mélodie tirée d'une banque, à un accompagnement tiré d'une autre banque. Par rapport à la présente invention, ce procédé présente des différences notables. Pour les mélodies qu'il offre, et qui ont dès le départ une rythmique imposée, la même qu'à l'accompagnement, il n'est pas permis, lors de l'association (qui n'est pas une dictée note par note) d'en modifier ni la nature de note, ni la durée de note, ni sa position par rapport aux sons de l'accompagnement. Les figures ci-annexées permettent de mieux comprendre l'exposé de l'invention et en particulier celui de l'exemple qui va suivre.
La Fig.l représente un exemple de ce qui apparaît à l'écran d'ordinateur lorsque l'utilisateur appelle un thème mélodique depuis une des banques, - thème mélodique ici composé de 2 phrases de 7 notes chacune, et représenté à l'écran par 14 repères 2 mis en séquence sur une portée 1.
La Fig.2 représente la même séquence modifié par l'utilisateur pour mieux adapter à son goût les notes de la mélodie appelée. La Pig.3 montre un exemple de la représentation à l'écran de la façon dont se décrit le déroulement de l'accompagnement orchestral. Le curseur mobile 4, trait vertical, y est représenté : il est mobile depuis le départ et se déplace à vitesse uniforme, au fil du déroulement audible de l'accompagnement, sur 32 plages
3 successives et égales, qu'on peut appeler mesures, et numérotées en séquence. L'utilisateur qui écoute jouer l'accompagnement peut à tout instant, identifier par son numéro, au niveau de quelle mesure le jeu sonore est arrivé.
La Fig.4 représente la même chose avec le curseur
4 en position de repos, avant le départ du défilement du jeu sonore de l'accompagnement orchestral.
La Fig.5 représente à nouveau le curseur en cours de route de défilement, ici arrivé en mesure 6. Les mesures qui précèdent se sont vues successivement garnies de repères matérialisant le fait que les notes de la mélodie ont été, l'une après l'autre, inscrites et enregistrée par-dessus celles de l'accompagnement orchestral .
La Fig.6 montre un exemple de représentation à l'écran de la structure d'un accompagnement orchestral correspondant à une mesure donnée.
La Fig. 7 représente schématiquement une "capture d'écran" censée représenter les possibilités de manoeuvre de l'utilisateur muni de sa souris, au cours des principales opérations qui l'aident à composer.
L'exemple décrit ci-après illustre par un cas concret la description du procédé selon l'invention. L'utilisateur commence par explorer, par audition, les banques de mélodies annexées au logiciel dont il dispose. Elles sont classées en catégories telles que : gaies, sérieuses, nostalgiques, tristes ou autres. A ce stade-ci, le tempo, ou vitesse de jeu de la mélodie, n'est pas encore décidé par l'utilisateur ; il le fera plus tard. En choisissant une mélodie, il note à quel groupe elle appartient : soit par exemple le groupe A. Au moment voulu, il devra choisir un accompagnement du groupe homonyme . Outre l'écoute sonore, l'utilisateur peut, et doit, faire apparaître à l'écran un schéma représentant la séquence des sons du thème mélodique choisi. Supposons qu'il ait choisi une mélodie, extraite du patrimoine folklorique, titrée "Ah vous dirai-je maman". Par une manoeuvre de type banal il fera apparaître à l'écran, une suite de repères 1 sur une portée 2 (fig.l) qui représente la suite des 14 sons concernés (deux séries de 7) . Le logiciel lui permet, lorsqu'il touche un de ces repères avec la flèche du curseur, de l'entendre sonner. On peut, si l'on veut, appeler ces repères des notes de musique, bien qu'il ne soit pas nécessaire que lesdits repères indiquent la hauteur ou la durée de note. Dans cet exemple-ci, on voit que les hauteurs sont indiquées, et non pas les durées. L'utilisateur peut, par des manoeuvres simples, transférer ces notes une à une dans une fenêtre d'écran dénommée "zone de travail", où il lui est loisible, s'il le désire, de retravailler la mélodie. Un bouton est à sa disposition pour effacer toute "note" indésirable, et, pour en rajouter d'autres, il fera usage d'un petit clavier virtuel situé sur l'écran. Certes étant non-musicien, il n'est pas censé savoir identifier sur un clavier les notes qu'il tape, mais il peut y arriver intuitivement par essais successifs, sans problème. Supposons par exemple qu'il y rajoute encore une "note" : cela donne à l'écran le schéma de la fig.2. Sa mélodie étant considérée comme adoptée en ce qui concerne le choix des sons (mais pas encore leurs durées, ni le rythme du jeu), il la laisse à l'écran, et va explorer auditivement les accompagnements orchestraux dans les banques qui les contiennent, et ici, plus précisément, dans la banque homonyme, "groupe a". Il en choisit un, compte tenu de la mélodie qu'il a en tête, selon son goût. La banque lui donne le choix entre divers styles, et supposons par exemple qu'il choisisse un accompagnement dans le style "chansons- rock". Par une manoeuvre simple, il l'enregistre avec matérialisation à l'écran de son schéma visuel de défilement qui a l'allure de la fig.3. En lançant le curseur, celui-ci décrit l'entièreté du ruban, jusqu'à la dernière mesure, celle qui porte le n° 32, et le son l'accompagne audiblement, de telle sorte que l'utilisateur dispose d'un système de repérage. Les accompagnements orchestraux dans le cas choisi "chanson-rock" sont construits avec une longueur de 25 à 35 mesures. Le logiciel met à disposition des outils simples permettant de supprimer certaines mesures, ou d'en dédoubler, de changer de place des mesures dédoublées ou non, ou autres manoeuvres de ce genre. L'utilisateur doit aussi assigner un tempo, une vitesse de jeu, de défilement de son accompagnement orchestral. Il le fera en tenant compte de l'allure qu'il veut donner à son morceau : par exemple, pour un morceau nostalgique, il prendra un tempo lent. Il doit aussi prendre en compte la durée de la mélodie dont il dispose pour qu'elle s'adapte à celle de l'accompagnement. Il est fréquent qu'il décide de ne faire jouer la mélodie - ceci fait l'objet de la manoeuvre qui va être décrite ci-dessous - qu'après une ou plusieurs mesures d'accompagnement seul, - et de même à la fin du morceau. C'est entre autres en prévision de cela que les accompagnements ont été élaborés avec une introduction et un final. Dans notre exemple, comme il s'agit d'une chanson, il a une durée de l'ordre de deux minutes.
L'utilisateur doit à présent, à sa façon, "dicter" sa mélodie sur son accompagnement orchestral. Pour ce faire, il lance à l'écran une manoeuvre intitulée "dictée rythmique". Le logiciel met alors en place le curseur du ruban d'accompagnement dans la position de départ (fig.4) et un carré blanc s'installe à l'écran, dans lequel l'utilisateur est invité à venir pointer sa flèche de curseur de souris. En y cliquant, la première note de la mélodie vient s'enregistrer en superposition à l'accompagnement, et ce au moment exactement décidé par l'utilisateur pour son clic, lorsque, après avoir démarré l'accompagnement, il en suit attentivement son déroulement à l'écran et son déroulement auditif simultané. Par exemple, il peut commencer dès mesure 2, en laissant donc l'accompagnement jouer seul pendant la première mesure. A chaque fois qu'il cliquera, une note de plus viendra s'enregistrer. S'il pousse plus longtemps sur son clic, la note en sera d'autant plus longue. Aidé par le fait que l'accompagnement se déroule en même temps que sa manoeuvre avec la mélodie, c'est donc l'utilisateur et lui seul qui va donner le rythme jugé approprié à son morceau, puisqu'il est maître à la fois du moment où il inscrit une note, et de la durée qu'il lui donne.
La fig.5 montre le curseur en cours de route, arrivé dans la sixième mesure. En regardant attentivement cette figure, on peut voir que l'utilisateur a légèrement modifié le rythme qu'évoquait les séquences précédentes (fig. 1 et 2). Il a, si l'on veut, "swingué" par rapport au rythme régulier dont sont généralement pourvues les mélodies folkloriques. La mesure 5 n'a qu'une seule note, parce qu'il a poussé longuement sur le clic. Et sur la mesure 6, il a cliqué quatre fois, et rapidement.
Cette dictée terminée, le morceau se trouve enregistré "mélodie plus accompagnement". Il lui est loisible de le réécouter, puis de recommencer les manoeuvres, en les améliorant, autant de fois qu'il le juge bon. On notera qu'à aucun moment il n'a fallu qu'il connaisse ce que sont les notes de musique "du solfège", les portée, et même les "mesures" au sens musical théorique du terme. Certes les signes qui apparaissent à l'écran peuvent avoir la forme de notes de musique, mais cela ne s'impose pas, car il ne s'agit que de repères destinés à aider des manoeuvres qui se font essentiellement "à l'audition".
A présent, il peut se faire qu'à l'audition du morceau, l'utilisateur ou ses proches remarquent l'une ou l'autre discordance entre une note de la mélodie et un son joué à ce moment par l'accompagnement. L'origine en est que, contrairement à la pratique rencontrée le plus souvent jusqu'ici, il n'est pas intervenu d'arrangeur humain, ni non plus d'arrangeur automatique, ayant pris en considération la mélodie pour composer l'arrangement orchestral. L'accompagnement orchestral éta'it préexistant. Certes, il avait été composé dans la même tonalité (ici groupe a) que celle de la mélodie (groupe A) mais, en musique, il peut y avoir des surprises. En outre, l'utilisateur avait la faculté de modifier la mélodie qu'on lui donnait, et il en a peut-être abusé (au demeurant, libre à lui de revenir en arrière sur ce point, s'il le juge bon).
La manoeuvre de correction que permet le présent procédé consiste à noter le numéro de la mesure concernée, et par une manoeuvre simple, de faire apparaître à l'écran quelle est la structure de l'accompagnement orchestral au niveau de ladite mesure. La fig.6 montre schématiquement comment peut se présenter un tel tableau pour la mesure prise en considération, soit ici celle portant par exemple le numéro 7. Chaque instrument de l ' accompagnement orchestral est sur l'écran accompagné d'un petit potentiomètre dont l'activation permet d'en atténuer ou d'en supprimer le son. Il suffit à l'utilisateur par une écoute attentive, d'identifier celui des instruments responsable de la dissonance. En général il s'agira d'un des instruments solistes de l'accompagnement, et en aucun cas, pour des raisons évidentes, des percussions, qu'il laissera telles quelles .
On peut récapituler le cursus des manoeuvres à effectuer par l'utilisateur pour composer une oeuvre, en examinant la fig. 7. Dans cet exemple en l'occurrence il s'agira de la musique d'une "chanson- rock", accompagnement compris. Il commence, avec le menu déroulant 7.1, par sélectionner un groupe de mélodies, ici le groupe a, puis un titre de mélodie, ici "Ah vous dirai-je maman", qu'il fait apparaître en surbrillance ou en augmentatif. Il poussera ensuite sur les boutons 7.2 et 7.4 et la mélodie sera affichée en 7.3 en même temps qu'elle est entendue, jouée par la machine. Au départ de 7.5 il peut faire glisser des "notes" additionnelles dans la zone de travail
7.3. Il lui est loisible d'en effacer aussi, ceci grâce à la touche d'effacement du clavier d'ordinateur. Les "notes" sont représentées selon leur hauteur audible, mais pas selon leurs durées individuelles. Avec les menus déroulants 7.6 et 7.7 l'utilisateur choisira, d'abord un genre, - ici "Canevas pour chanson-rock, ballads", puis un style, - ici le style 2, dont il a pris soin de vérifier que c'est un style du groupe A, donc compatible avec une mélodie homonyme. Il fait glisser la ligne de sa sélection sur les portées vierges de la partition intitulée "Ma Composition", qui se trouve en bas d'écran, en 7.9, où apparaît alors le titre de l'accompagnement sélectionné. Ce dernier peut être écouté par une manoeuvre de mise en marche (ici, en l'occurrence, la barre d'espacement du clavier) et à mesure que le son de l'accompagnement est émis, le curseur que l'on voit ici en mesure 6, se déplace concomitamment, décrivant les mesures numérotées successives. A ce stade, n'apparaissent pas encore de notes dans lesdites mesures, l'accompagnement jouant seul, pour que l'utilisateur puisse s'y familiariser. Le stade suivant est celui de la dictée, qui utilise la zone 7.8. En poussant sur le bouton "Dictée", on met en route le défilement audible et visible de l'accompagnement, puis à chaque poussée d'un clic avec la flèche de souris dans le carré blanc, une note sera dictée en "surimpression" sur l'accompagnement. Chaque durée individuelle de note peut être choisie, ceci en proportion de la durée d'enfoncement du clic. Le moment où une note est déposée est également choisi librement. Il en résulte un rythme bien approprié au désir ou plutôt à l'intuition de l'utilisateur. Car en pratique, il "jouera sa dictée" tout-à-fait intuitivement au départ du morceau qu'il se crée mentalement en tête. On remarquera que les notes de mélodie dictées et enregistrées en "surimpression" sur l'accompagnement, s'inscrivent visiblement dans les mesures numérotées. Dans la variante ici illustrée, la machine va même jusqu'à leur dessiner de manière traditionnelle (rondes, blanches, noires, croches) les valeurs de durées qu'il a dictées intuitivement. Sa mélodie pourra donc, s'il le veut, se voir imprimée avec lisibilité par des tiers.

Claims

Revendications .
1.- Procédé d'assistance à la composition d'une oeuvre musicale avec usage d'un ordinateur, ledit ordinateur comprenant au moins
(a) un logiciel,
(b) en mémoire, plusieurs collections de thèmes mélodiques pré-enregistrés en mode audible (collection A, collection B, collection C, etc..)
(c) en mémoire plusieurs* collections d'accompagnements orchestraux composés à l'avance et pré-enregistrés en mode audible (collection a, collection b, collection c .. ) , chaque accompagnement musical formant le canevas d'un futur morceau de musique, mais ne comportant pas de thème mélodique principal,
les collections h, B, C, etc. ayant chacune été composées en tonalités distinctes, avec la tonalité de collection A la même que celle de la collection a, celle de la collection B la même que celle de la collection b, etc.,
caractérisé en ce que l'utilisateur effectue successivement les opérations suivantes :
- choisir un thème mélodique d'une des collections, l'écouter, l'afficher à l'écran de l'ordinateur sous forme d'une séquence sonore et visuelle, séquence apparaissant sous formes de signes, lesquels peuvent avoir ou non l'aspect de notes de musique imprimée, lesdits signes servant à l'utilisateur de repères, dans le but de se réécouter et pour pouvoir ajouter ou supprimer des signes, éventuellement en revenant en arrière, le logiciel ayant été programmé pour qu'à chaque manoeuvre en vue de l'ajout d'un signe, un son audible est émis et enregistré en même temps que ledit signe apparaît, chaque note étant enregistrée selon sa hauteur musicale, mais pas nécessairement selon sa durée audible, - apporter, éventuellement, d'autres modifications à la mélodie, sur base des manoeuvres décrites ci-dessus, compte tenu que pour entendre sonner une note, il suffit de toucher avec le curseur le signe qui la représente, - choisir un accompagnement orchestral d'une des collections en veillant à ce que le choix porte sur un accompagnement de tonalité compatible avec celui du thème mélodique,
- dicter successivement chacun des sons du thème mélodique, en surimpression sur le son de l'accompagnement orchestral que l'utilisateur fait audiblement se dérouler, dictée consistant à appeler successivement chaque signe, avec le son associé, en veillant à appeler chaque fois la note au bon moment par rapport au rythme de l'accompagnement, ce moment étant évalué en toute liberté par l'utilisateur, chaque note appelée, par ailleurs, s ' enregistrant dans le système, avec l'accompagnement, tout en étant audible, et ajustable en durée pendant la procédure d'appel,
- l'ensemble de la dictée apparaissant à l'écran, schématiquement sous forme d'un ruban numéroté en segments égaux, représentant des mesures musicales, segments dans lesquels s'inscrivent les signes figurant les notes de la mélodie dictée.
2.- Procédé de composition musicale selon revendication 1, caractérisé en outre par la faculté pour l'utilisateur : de repérer à l'écran, en se servant des signes repérant les notes de la mélodie sur le ruban figurant le déroulement numéroté de l'accompagnement, le ou les endroits où un son de la mélodie pourrait, à l'écoute, apparaître en discordance avec un son de l'accompagnement, puis, grâce à ce repérage, de faire apparaître à l'écran quelle est à cet endroit la structure de l'accompagnement, c'est-à-dire 1 ' énumération des instruments d'accompagnement concernés à l'endroit en question, et de pratiquer une manoeuvre d'atténuation ou de suppression, à cet endroit seulement, du son de celui des instruments d'accompagnement qui est considéré comme gênant.
3.- Logiciel pour appliquer le procédé de composition musicale selon l'une des revendications 1 ou 2.
4.- Dispositif et/ou support comprenant un logiciel selon la revendication 3 et des bases de données de mélodies et d'accompagnements selon la revendication 1.
5.- Dispositif d'assistance à la composition d'une oeuvre musicale comprenant un ordinateur, ledit ordinateur comprenant au moins (a) un logiciel, une mémoire comprenant d'une part (b) plusieurs collections de thèmes mélodiques pré-enregistrés en mode audible (collection A, collection B, collection C, etc..) et d'autre part (c) plusieurs collections d'accompagnements orchestraux composés à l'avance et pré-enregistrés en mode audible (collection a, collection b, collection c .. ) , chaque accompagnement musical formant le canevas d'un futur morceau de musique mais ne comportant pas de thème mélodique principal,
les collections A, B, C, etc. ayant chacune été composées en tonalités distinctes, avec la tonalité de collection A la même que celle de la collection a, celle de la collection B la même que celle de la collection b, etc.,
dans lequel le logiciel comprend des moyens pour associer une mélodie sélectionnée à un accompagnement sélectionné en les fusionnant en un morceau de musique enregistrable, et modifiable à volonté,
des moyens étant prévus par le logiciel, via un interface graphique, pour ajouter ou soustraire des notes, ou en modifier les caractéristiques ou la position.
EP06817623A 2005-11-14 2006-11-14 Procede de composition d une uvre musicale par un non-musicien Withdrawn EP1969587A2 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
BE200500550 2005-11-14
PCT/BE2006/000123 WO2007053917A2 (fr) 2005-11-14 2006-11-14 Procede de composition d’une œuvre musicale par un non-musicien

Publications (1)

Publication Number Publication Date
EP1969587A2 true EP1969587A2 (fr) 2008-09-17

Family

ID=37882545

Family Applications (1)

Application Number Title Priority Date Filing Date
EP06817623A Withdrawn EP1969587A2 (fr) 2005-11-14 2006-11-14 Procede de composition d une uvre musicale par un non-musicien

Country Status (3)

Country Link
US (1) US20090272252A1 (fr)
EP (1) EP1969587A2 (fr)
WO (1) WO2007053917A2 (fr)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101611511B1 (ko) * 2009-05-12 2016-04-12 삼성전자주식회사 터치스크린을 구비한 휴대 단말기를 이용한 음악 생성 방법
WO2014008209A1 (fr) * 2012-07-02 2014-01-09 eScoreMusic, Inc. Systèmes et procédés pour affichage, collaboration et annotation de musique
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music
US9715870B2 (en) 2015-10-12 2017-07-25 International Business Machines Corporation Cognitive music engine using unsupervised learning
CN106898341B (zh) * 2017-01-04 2021-03-09 清华大学 一种基于共同语义空间的个性化音乐生成方法及装置
CN108806655B (zh) * 2017-04-26 2022-01-07 微软技术许可有限责任公司 歌曲的自动生成

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4958551A (en) * 1987-04-30 1990-09-25 Lui Philip Y F Computerized music notation system
US4930390A (en) * 1989-01-19 1990-06-05 Yamaha Corporation Automatic musical performance apparatus having separate level data storage
DE4190102B4 (de) * 1990-01-18 2005-04-14 E-MU Systems, Inc., Scotts Valley Datenverdichtung von Tondaten
JP2541074B2 (ja) * 1992-04-20 1996-10-09 ヤマハ株式会社 電子楽器
US5495073A (en) * 1992-05-18 1996-02-27 Yamaha Corporation Automatic performance device having a function of changing performance data during performance
US5478967A (en) * 1993-03-30 1995-12-26 Kabushiki Kaisha Kawai Gakki Seisakusho Automatic performing system for repeating and performing an accompaniment pattern
US5665927A (en) * 1993-06-30 1997-09-09 Casio Computer Co., Ltd. Method and apparatus for inputting musical data without requiring selection of a displayed icon
US5602357A (en) * 1994-12-02 1997-02-11 Yamaha Corporation Arrangement support apparatus for production of performance data based on applied arrangement condition
US5663517A (en) * 1995-09-01 1997-09-02 International Business Machines Corporation Interactive system for compositional morphing of music in real-time
US5801694A (en) * 1995-12-04 1998-09-01 Gershen; Joseph S. Method and apparatus for interactively creating new arrangements for musical compositions
IT1282613B1 (it) * 1996-02-13 1998-03-31 Roland Europ Spa Apparecchiatura elettronica per la composizione e riproduzione automatica di dati musicali
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US6121532A (en) * 1998-01-28 2000-09-19 Kay; Stephen R. Method and apparatus for creating a melodic repeated effect
US6121533A (en) * 1998-01-28 2000-09-19 Kay; Stephen Method and apparatus for generating random weighted musical choices
JP3541706B2 (ja) * 1998-09-09 2004-07-14 ヤマハ株式会社 自動作曲装置および記憶媒体
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
JP3533974B2 (ja) * 1998-11-25 2004-06-07 ヤマハ株式会社 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体
US6169242B1 (en) * 1999-02-02 2001-01-02 Microsoft Corporation Track-based music performance architecture
HU225078B1 (en) * 1999-07-30 2006-06-28 Sandor Ifj Mester Method and apparatus for improvisative performance of range of tones as a piece of music being composed of sections
US6740802B1 (en) * 2000-09-06 2004-05-25 Bernard H. Browne, Jr. Instant musician, recording artist and composer
US6888999B2 (en) * 2001-03-16 2005-05-03 Magix Ag Method of remixing digital information
WO2002077585A1 (fr) * 2001-03-26 2002-10-03 Sonic Network, Inc. Systeme et procede de creation et d'arrangement musicaux
JP4267925B2 (ja) * 2001-04-09 2009-05-27 ミュージックプレイグラウンド・インコーポレーテッド 対話型再生によるマルチパートオーディオ演奏を記憶する媒体
US6822153B2 (en) * 2001-05-15 2004-11-23 Nintendo Co., Ltd. Method and apparatus for interactive real time music composition
US6483019B1 (en) * 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
ATE515764T1 (de) * 2001-10-19 2011-07-15 Sony Ericsson Mobile Comm Ab Midi-komponiervorrichtung
US7735011B2 (en) * 2001-10-19 2010-06-08 Sony Ericsson Mobile Communications Ab Midi composer
US7223911B2 (en) * 2001-10-29 2007-05-29 Yamaha Corporation Portable telephone set with reproducing and composing capability of music
US6653545B2 (en) * 2002-03-01 2003-11-25 Ejamming, Inc. Method and apparatus for remote real time collaborative music performance
JP4211672B2 (ja) * 2004-04-28 2009-01-21 ヤマハ株式会社 演奏データ作成装置及びプログラム
US7525036B2 (en) * 2004-10-13 2009-04-28 Sony Corporation Groove mapping
US7297858B2 (en) * 2004-11-30 2007-11-20 Andreas Paepcke MIDIWan: a system to enable geographically remote musicians to collaborate
CA2489256A1 (fr) * 2004-12-06 2006-06-06 Christoph Both Systeme et methode a assistance video permettant a des personnes eloignees de jouer ensemble des instruments de musique
US20060180007A1 (en) * 2005-01-05 2006-08-17 Mcclinsey Jason Music and audio composition system
US7608775B1 (en) * 2005-01-07 2009-10-27 Apple Inc. Methods and systems for providing musical interfaces
US20070028750A1 (en) * 2005-08-05 2007-02-08 Darcie Thomas E Apparatus, system, and method for real-time collaboration over a data network
US7518051B2 (en) * 2005-08-19 2009-04-14 William Gibbens Redmann Method and apparatus for remote real time collaborative music performance and recording thereof
US7853342B2 (en) * 2005-10-11 2010-12-14 Ejamming, Inc. Method and apparatus for remote real time collaborative acoustic performance and recording thereof
US20070137463A1 (en) * 2005-12-19 2007-06-21 Lumsden David J Digital Music Composition Device, Composition Software and Method of Use
US7542273B2 (en) * 2006-08-25 2009-06-02 Laycock Larry R Music display and collaboration system
US7838755B2 (en) * 2007-02-14 2010-11-23 Museami, Inc. Music-based search engine
AU2008229637A1 (en) * 2007-03-18 2008-09-25 Igruuv Pty Ltd File creation process, file format and file playback apparatus enabling advanced audio interaction and collaboration capabilities
JP4306754B2 (ja) * 2007-03-27 2009-08-05 ヤマハ株式会社 楽曲データ自動生成装置及び音楽再生制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2007053917A3 *

Also Published As

Publication number Publication date
US20090272252A1 (en) 2009-11-05
WO2007053917A2 (fr) 2007-05-18
WO2007053917A3 (fr) 2007-06-28

Similar Documents

Publication Publication Date Title
EP1969587A2 (fr) Procede de composition d une uvre musicale par un non-musicien
Greenwald Hip-hop drumming: the rhyme may define, but the groove makes you move
Zak III Bob Dylan and Jimi Hendrix: Juxtaposition and transformation" all along the watchtower"
FR2974226A1 (fr) Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.
Gray Improvisation and composition in Balinese gendér wayang: music of the moving shadows
D'Errico Behind the beat: technical and practical aspects of instrumental hip-hop composition
Rothenbuhler For-the-record aesthetics and Robert Johnson's blues style as a product of recorded culture
CN111223470A (zh) 音频处理方法、装置及电子设备
FR3038440A1 (fr) Procede d’extraction et d’assemblage de morceaux d’enregistrements musicaux
Minton Houston Creoles and Zydeco: The emergence of an African American urban popular style
EP1395976B1 (fr) Procede et dispositif d'aide a la composition ou au jeu musical
Tsougras The application of GTTM on 20th century modal music: Research based on the analysis of Yannis Constantinidis's “44 Greek miniatures for piano”
Tucker Mainstreaming Monk: The Ellington Album
Manning Houston Roots and the Texas Gulf Coast Sound Embodied in the Music of Los Skarnales and Nick Gaitan & the Umbrella Man
Hoek ARSC CONFERENCE PAPER: Beyond Bebop: Dial Records and the Library of Contemporary Classics
Davidson Performing" Hurt": Aging, Disability, and Popular Music as Mediated Product and Lived-Experience in Johnny Cash's Final Recordings
Cannon Laughter, Liquor, and Licentiousness: Preservation Through Play in Southern Vietnamese Traditional Music
Aittoniemi Cultural and musical dimensions of Goa trance and early psychedelic trance in Finland
Heetderks Slanted beats, enchanted communities: Pavement's early phrase rhythm as indie narrative
Cannon LAUGHTER, LIQUOR, AND LICENTIOUSNESS
Dylan et al. ALBIN J. ZAK III
Crawford Rethinking the Rhapsody
Taylor Re‐signing Mass Culture: Billy Bragg's “There is Power in a Union”
Demers La prosodie du discourse rapporte. Recherches sociolinguistiques 3 (The Prosody of Reported Discourse. Sociolinguistic Research 3).
Lederman Old Indian and Metis Fiddling in Manitoba: Origins, Structure, and Question of Syncretism

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20080528

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: LADYJENSKY, JACQUES

17Q First examination report despatched

Effective date: 20080609

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20100601