WO2021106512A1 - 楽曲生成方法および楽曲生成システム - Google Patents

楽曲生成方法および楽曲生成システム Download PDF

Info

Publication number
WO2021106512A1
WO2021106512A1 PCT/JP2020/041263 JP2020041263W WO2021106512A1 WO 2021106512 A1 WO2021106512 A1 WO 2021106512A1 JP 2020041263 W JP2020041263 W JP 2020041263W WO 2021106512 A1 WO2021106512 A1 WO 2021106512A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
parameter set
parameter
generated
similar
Prior art date
Application number
PCT/JP2020/041263
Other languages
English (en)
French (fr)
Inventor
大智 井芹
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2021106512A1 publication Critical patent/WO2021106512A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Definitions

  • This disclosure relates to a music generation method for generating music.
  • Patent Document 1 discloses a composition support system that generates a musical piece according to a parameter input by a user.
  • the music generated by the composition support system is similar. Therefore, it may not be possible to meet the desire to generate original music. It is also conceivable to compare the generated music with the music generated in the past. Specifically, a configuration is assumed in which acoustic features such as frequency characteristics and volume are compared. However, there is a problem that an excessive processing load or storage capacity is required to compare the acoustic features of the music.
  • the music generation method is a music generation method for generating music according to a parameter set including a plurality of music parameters each representing a condition related to the music, and is a first parameter set and a second parameter set. Determine if the parameter set is similar.
  • the music generation system includes a music generation unit that generates music according to a parameter set including a plurality of music parameters each representing a condition related to the music, and a first parameter set and a second parameter set. It is provided with a determination unit for determining whether or not is similar to.
  • the embodiment of the present invention it is possible to easily determine whether or not the music to be composed is a unique music.
  • FIG. 1 is a block diagram illustrating the configuration of the music generation system 100 according to the first embodiment of the present disclosure.
  • the music generation system 100 is a computer system that generates music in response to an instruction from the user U. Music is generated according to a plurality of conditions related to the music specified by the user U.
  • the music generation system 100 is, for example, a portable information terminal such as a mobile phone or a smartphone, or a portable or stationary information terminal such as a personal computer.
  • the music generation system 100 includes a control device 11, a storage device 12, a display device 13, an operation device 14, and a sound emitting device 15.
  • the storage device 12 in FIG. 1 is a single memory or a plurality of memories composed of a known recording medium such as a magnetic recording medium or a semiconductor recording medium.
  • the storage device 12 stores a program executed by the control device 11 and various data used by the control device 11.
  • the storage device 12 may be configured by combining a plurality of types of recording media. Further, the storage device 12 may be a portable recording medium that can be attached to and detached from the music generation system 100, or an external recording medium (for example, online storage) that the music generation system 100 can communicate with via a communication network.
  • the control device 11 is, for example, a single or a plurality of processors that control each element of the music generation system 100.
  • the control device 11 is one or more types such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or an ASIC (Application Specific Integrated Circuit). It consists of a processor.
  • FIG. 2 is a block diagram illustrating the functional configuration of the control device 11.
  • the control device 11 executes a plurality of tasks according to a program stored in the storage device 12 to generate a plurality of functions (data generation unit 111, conversion unit 112, determination unit 113, music generation unit 114). , Sound source unit 115 and control unit 116) are realized.
  • the function of the control device 11 may be realized by a set (that is, a system) of a plurality of devices, or a part or all of the functions of the control device 11 may be realized by a dedicated electronic circuit.
  • the sound emitting device 15 emits the music generated by the music generation system 100 under the control of the sound source unit 115.
  • a speaker or headphones are used as the sound emitting device 15.
  • the operation device 14 is an input device that receives an instruction from the user U.
  • the operation device 14 is, for example, a touch panel that detects contact with a plurality of controls that can be operated by the user U or a display surface of the display device 13. Specifically, the operation device 14 receives an operation from the user U for designating a plurality of parameters (hereinafter referred to as “input parameters”) P1 relating to the music condition.
  • the display device 13 displays various images under the control of the control unit 116.
  • the display device 13 displays a screen (hereinafter referred to as “operation image”) G for the user U to specify a plurality of input parameters P1.
  • FIG. 3 is a schematic view of the operation image G.
  • the user U specifies each of the plurality of input parameters P1 related to the desired music.
  • Each input parameter P1 is a content that can be understood even by a user U who does not have specialized knowledge for generating a musical piece, for example.
  • FIG. 3 exemplifies an input parameter P1 representing each condition specified for "image of music", "situation in which music is used", "tempo of music", and "length of music”.
  • User U selects, for example, one of a plurality of candidates prepared in advance for each input parameter P1.
  • Examples of the candidate for the input parameter P1 related to the "image” include “light”, “quiet”, “elegant”, “fashionable”, “heavy”, and “brilliant”.
  • Examples of candidates for the input parameter P1 related to the "situation” include “night view”, “southern country”, and “nature”.
  • Examples of the candidate for the input parameter P1 regarding "tempo” include “slow”, "normal”, and “fast”.
  • Examples of the candidate for the input parameter P1 regarding the "length” include “60 seconds", “90 seconds”, “180 seconds”, and the like.
  • the contents that can be specified for the input parameter P1 are not limited to the above examples.
  • “bright”, “dark”, “gentle”, etc. are exemplified as candidates for the input parameter P1 regarding "musical atmosphere”.
  • Examples of the candidate for the input parameter P1 relating to the "pitch of the musical piece” include “high”, “normal”, and “low”.
  • Examples of the candidate for the input parameter P1 relating to the "age” include the "1980s", “1990s", and "2000s”.
  • the input parameter P1 may represent a condition for specifying the attribute of the user U (for example, age or gender), the industry in which the music is used, the type of musical instrument that plays the music, and the like.
  • the input parameter P1 of the first embodiment can be specified not by the technical term of music but by the term used in daily life.
  • a configuration is also adopted in which the user U can specify each input parameter P1 by inputting an arbitrary character.
  • the user U specifies the input parameter P1 by inputting an arbitrary word or sentence.
  • the data generation unit 111 generates input data Da including a plurality of input parameters P1 specified by the user U.
  • FIG. 4 is a schematic diagram of the input data Da. Specifically, the input data Da includes a plurality of input parameters P1 for different conditions.
  • the conversion unit 112 (an example of the acquisition unit) generates the parameter set S used for generating the music. Specifically, the conversion unit 112 converts the input data Da generated by the data generation unit 111 into the parameter set S.
  • FIG. 5 is a schematic diagram of the parameter set S.
  • the parameter set S includes a plurality of parameters (hereinafter referred to as “music parameters”) P2 relating to music conditions.
  • the music parameter P2 represents a more specialized condition than each input parameter P1.
  • the condition represented by the music parameter P2 is a condition that is difficult for the user U who does not have the specialized knowledge to generate the music to understand.
  • a music parameter P2 representing each condition specified for "genre”, “music composition”, “chord progression”, “BPM (Beats Per Minute)", and “number of measures” is illustrated.
  • the music parameter P2 represents more specific conditions related to the music than the input parameter P1.
  • the music parameter P2 is not limited to the above examples.
  • the music parameter P2 may represent conditions such as pitch, type of musical instrument for playing the music, accompaniment pattern, or time signature (4/4, 6/8, ).
  • the music generation system 100 determines whether or not the parameter set S acquired by the conversion unit 112 and the parameter set S used by the music generation system 100 in the past to generate music are similar. Therefore, it is possible to determine whether or not the musical impression of the musical piece to be generated in response to the instruction of the user U is similar to the musical impression of the musical piece generated in the past.
  • the parameter set S generated by the conversion unit 112 is referred to as a "first parameter set”, and the parameter set S used for generating music in the past is referred to as a "second parameter set”.
  • a plurality of second parameter sets are stored in the storage device 12 of FIG. Each second parameter set corresponds to a different piece of music.
  • the second parameter set is stored in the storage device 12 each time a musical piece is generated.
  • the first parameter set is generated according to the input data Da.
  • Each input parameter P1 is directly specified by the user U.
  • each music parameter P2 is set by the conversion unit 112 in consideration of the input parameter P1.
  • the music parameter P2 related to "genre”, “music composition” and “chord progression” is generated according to the input parameter P1 related to "image” and “situation”.
  • the music parameter P2 relating to "BPM” and “number of measures” is generated according to each input parameter P1 relating to "tempo” and "length”.
  • the reference table is a data table in which a first parameter set is registered for each combination of a plurality of input parameters P1 (that is, input data Da).
  • the conversion unit 112 generates a parameter set S corresponding to the input data Da generated by the data generation unit 111 among the plurality of input data Das in the reference table as the first parameter set.
  • a plurality of first parameter sets are registered for one input data Da.
  • the conversion unit 112 probabilistically selects any one of a plurality of first parameter sets corresponding to the input data Da generated by the data generation unit 111 by using a random setting parameter such as a random number. That is, the first parameter set is generated according to the input data Da and the random setting parameters.
  • the method of generating the first parameter set according to the input data Da is arbitrary.
  • a configuration is also adopted in which the first parameter set is generated by inputting the input data Da into a statistical model (for example, a neural network) that has learned the relationship between the input data Da and the first parameter set.
  • the determination unit 113 determines whether or not the first parameter set and the second parameter set are similar. Specifically, the determination unit 113 includes a calculation unit 133 and a processing unit 135.
  • the calculation unit 133 calculates an index (hereinafter referred to as “evaluation value”) indicating the degree of similarity between the first parameter set and the second parameter set.
  • the evaluation value is calculated according to the degree of similarity for each music parameter P2 between the first parameter set and the second parameter set.
  • the similarity between the music parameters P2 of the same type is calculated between the first parameter set and the second parameter set. For example, the total value of the similarity over a plurality of music parameters P2 is calculated as an evaluation value. Therefore, the more similar the first parameter set and the second parameter set are, the larger the evaluation value.
  • the processing unit 135 determines whether or not the first parameter set and the second parameter set are similar according to the evaluation value calculated by the calculation unit 133. Specifically, the processing unit 135 determines that the first parameter set and the second parameter set are dissimilar when the evaluation value is below the threshold value, and when the evaluation value exceeds the threshold value, the first parameter It is determined that the set and the second parameter set are similar. When the evaluation value exceeds the threshold value, the music to be generated according to the first parameter set is similar to the music generated in the past (that is, the music corresponding to the second parameter set). On the other hand, when the evaluation value is below the threshold value, the music to be generated does not resemble the music generated in the past.
  • the threshold is set experimentally or statistically.
  • the determination unit 113 determines whether or not the second parameter set and the first parameter set are similar to each of the plurality of second parameter sets stored in the storage device 12. When it is determined that the first parameter set is dissimilar to any of the plurality of second parameter sets, the music to be generated according to the first parameter set is a plurality of songs generated by the music generation system 100 in the past. It doesn't resemble any of the songs.
  • the music generation unit 114 generates music according to the first parameter set. That is, a musical composition corresponding to a plurality of input parameters P1 specified by the user U is generated. Specifically, music data M representing a music corresponding to the first parameter set is generated.
  • the music data M is, for example, a MIDI (Musical Instrument Digital Interface) format in which instruction data for instructing pronunciation by designating intensity and time data for specifying the time point of pronunciation instructed by each instruction data are arranged in time series.
  • File Standard MIDI File
  • the music generation unit 114 when it is determined that the first parameter set and the second parameter set are dissimilar, the music generation unit 114 generates music according to the first parameter set.
  • the music generation unit 114 when it is determined that the first parameter set is dissimilar to any of the plurality of second parameter sets, a musical piece corresponding to the first parameter set is generated. Therefore, a unique song that does not resemble any of the songs generated in the past by the music generation system 100 is generated.
  • a known automatic composition is arbitrarily adopted for the generation of the music.
  • a plurality of material data representing a portion of a music piece generated in advance is stored in the storage device 12.
  • the music generation unit 114 arranges material data matching one or more music parameters P2 specified by the first parameter set in chronological order. For example, the material data is selected according to the music parameter P2 specified for "genre”, "music composition", or "chord progression”. Then, the music generation unit 114 generates music data M by adjusting each material data according to one or more music parameters P2 specified by the first parameter set. For example, each material data is adjusted according to the music parameter P2 specified for "BPM" and "number of measures".
  • the music generated by the music generation unit 114 is also common.
  • a configuration in which the music data M is generated by inputting the first parameter set into a statistical model (for example, a neural network) that has learned the relationship between the first parameter set and the music data M is also adopted.
  • the control unit 116 presents the music generated by the music generation unit 114 to the user U. Specifically, the control unit 116 causes the display device 13 to display that the music has been generated. After visually recognizing the display of the display device 13, the user U instructs the playback of the music by operating the operation device 14. The control unit 116 plays the music in response to an instruction from the user U. Specifically, the control unit 116 supplies the instruction data to the sound source unit 115 at the timing specified by the time data of the music data M. The sound source unit 115 generates an acoustic signal according to each instruction data of the music data M, and supplies the acoustic signal to the sound emitting device 15.
  • the first parameter set used for generating the music by the music generation unit 114 is stored in the storage device 12 as the second parameter set used for the subsequent determination by the determination unit 113.
  • the music generation unit 114 prohibits the generation of music using the first parameter set.
  • the control unit 116 proposes to the user U to change the input parameter P1. Specifically, the control unit 116 causes the display device 13 to display information indicating that the music cannot be generated because it resembles a music generated in the past and that the user U is prompted to change the input parameter P1.
  • FIG. 6 is a flowchart of the process executed by the control device 11.
  • the process of FIG. 6 is started, for example, triggered by an instruction from the user U.
  • the data generation unit 111 accepts the designation of a plurality of input parameters P1 from the user U (Sa1).
  • the data generation unit 111 generates input data Da including a plurality of input parameters P1 designated by the user U (Sa2).
  • the conversion unit 112 converts the input data Da into a first parameter set including a plurality of music parameters P2 (Sa3).
  • the calculation unit 133 sequentially selects a plurality of second parameter sets stored in the storage device 12 (Sa4). Then, the calculation unit 133 calculates the evaluation value between the selected second parameter set and the first parameter set (Sa5).
  • step Sa4 If there is a second parameter set for which the evaluation value has not been calculated among the plurality of second parameter sets (Sa6: NO), the process proceeds to step Sa4. That is, the processes of steps Sa4 to Sa6 are repeatedly executed until the evaluation values are calculated for all the second parameter sets.
  • the processing unit 135 determines whether or not there is a second parameter set similar to the first parameter set (Sa7). For each of the plurality of second parameter sets, it is determined whether or not they are similar to the first parameter set. Specifically, the processing unit 135 determines that the first parameter set and the second parameter set are dissimilar when the evaluation value is below the threshold value, and when the evaluation value exceeds the threshold value, the first parameter It is determined that the set and the second parameter set are similar.
  • the music generation unit 114 When there is no second parameter set similar to the first parameter set (Sa7: NO), the music generation unit 114 generates music according to the first parameter set (Sa8). That is, the music data M corresponding to the first parameter set is generated.
  • the control unit 116 stores the first parameter set used for generating the music this time in the storage device 12 as the second parameter set used by the determination unit 113 for the subsequent determination (Sa9).
  • the control unit 116 presents the music generated by the music generation unit 114 to the user U (Sa10). For example, the control unit 116 displays that the music has been generated, and plays the music in response to an instruction from the user U. Specifically, the control unit 116 generates an acoustic signal by supplying each instruction data of the music data M to the sound source unit 115. That is, finally, the acoustic signal of the music corresponding to the first parameter set is provided to the user U.
  • step Sa3 the conversion unit 112 generates a first parameter set different from the first parameter set generated in the process of FIG.
  • the control unit 116 calculates the evaluation value between each second parameter set (Sa4-Sa6) and whether or not there is a second parameter set similar to the first parameter set. Judgment (Sa7) is executed. That is, the processes of steps Sa3 to Sa7 are repeatedly executed until a song that does not resemble the previously generated song is generated. By the process of FIG. 6, a musical piece that does not resemble any of the plurality of previously generated songs is generated.
  • the first parameter set for the music to be generated is similar to the second parameter set used for generating the music in the past. Therefore, since it is not necessary to compare the acoustic features of the music, whether the music to be generated and the music generated in the past are similar (that is, whether the music to be generated is a unique music). Whether or not) can be easily determined. That is, it is possible to generate a unique musical piece.
  • the music is generated only when the first parameter set and the second parameter set are not similar, it is possible to generate music that is dissimilar to the music generated in the past. Further, in the first embodiment, the first parameter set and the second parameter set are similar to each other according to the evaluation value according to the similarity of each music parameter P2 between the first parameter set and the second parameter set. Whether or not it is calculated. Therefore, it can be determined whether or not the first parameter set and the second parameter set are similar as a whole.
  • the music parameter P2 When the understanding of the music parameter P2 requires specialized knowledge about the music, for example, in the configuration in which the music parameter P2 is directly specified by the user U, the music parameter P2 is used by the user U who does not have the specialized knowledge. It is difficult to specify. On the other hand, in the first embodiment, since the music parameter P2 is generated from the input parameter P1 specified by the user U, the user U does not have to directly specify the music parameter P2. Therefore, even a user U who does not have specialized knowledge about music can easily generate a desired music.
  • FIG. 7 is a block diagram illustrating the configuration of the content generation system 300 according to the second embodiment.
  • the content generation system 300 generates content C in which the music generated by the music generation system 100 is added to the moving image V imaged by the user U by the terminal device 200.
  • a moving image V used for product introduction, company introduction, tourism PR, etc. is imaged by the terminal device 200 of the user U.
  • the content generation system 300 includes a music generation system 100 and a terminal device 200.
  • the music generation system 100 and the terminal device 200 can communicate with each other via a mobile communication network or a communication network 30 such as the Internet.
  • the terminal device 200 captures the moving image V by the imaging device.
  • the user U inputs information for editing the moving image V (hereinafter referred to as “editing information”) from the terminal device 200.
  • the editing information is, for example, information that specifies a character string or position of a telop to be displayed on the moving image V, information that specifies processing of the moving image V, or the like.
  • the user U specifies an input parameter P1 related to the music to be added to the moving image V.
  • the content of the input parameter P1 and the method of designating the input parameter P1 are the same as those in the first embodiment.
  • the terminal device 200 generates input data Da including a plurality of input parameters P1 and data representing editing information (hereinafter referred to as "editing data") Db. Then, the terminal device 200 transmits the moving image V, the input data Da, and the editing data Db to the music generation system 100. That is, in the second embodiment, the terminal device 200 is equipped with an element that generates input data Da.
  • the music generation system 100 of the second embodiment includes a communication device 16 in addition to the same elements as those of the first embodiment (control device 11, storage device 12, display device 13, operation device 14, and sound emitting device 15). ..
  • the communication device 16 communicates with the terminal device 200 via the communication network 30.
  • FIG. 8 is a block diagram illustrating a functional configuration of the music generation system 100 according to the second embodiment.
  • the control device 11 of the music generation system 100 of the second embodiment also functions as an editorial unit 117 in addition to the conversion unit 112, the determination unit 113, the music generation unit 114, and the sound source unit 115 similar to those of the first embodiment.
  • the music generation system 100 generates the content C according to the moving image V, the input data Da, and the editing data Db transmitted from the terminal device 200.
  • the editorial department 117 edits the moving image V according to the editing data Db.
  • a known image processing technique is arbitrarily used for editing the moving image V.
  • the manager of the music generation system 100 may instruct the music generation system 100 on the specific editing content of the moving image V according to the editing data Db.
  • the music generation system 100 generates the content C by adding a music corresponding to the input data Da to the edited moving image V.
  • the conversion unit 112 generates the first parameter set according to the input data Da transmitted from the terminal device 200.
  • the first parameter set is generated in the same manner as in the first embodiment. Similar to the first embodiment, the determination unit 113 determines whether or not each of the plurality of second parameter sets is similar to the first parameter set. It can be said that each second parameter set stored in the storage device 12 of the second embodiment is a parameter set S used for generating the music included in the content C generated in the past by the content generation system 300.
  • the music generation unit 114 generates music according to the first parameter set when it is determined that the first parameter set and the second parameter set are dissimilar.
  • the sound source unit 115 generates an acoustic signal corresponding to the music data M generated by the music generation unit 114.
  • the editing unit 117 adds the acoustic signal generated by the sound source unit 115 to the edited moving image V to generate the content C.
  • the generated content C is transmitted to the terminal device 200.
  • the same effect as that of the first embodiment is realized in the second embodiment. It is not essential that the user U of the terminal device 200 specifies the input parameter P1.
  • the administrator of the music generation system 100 may specify the input parameter P1 according to the moving image V transmitted from the terminal device 200.
  • the moving image V may be composed of a plurality of scenes.
  • the input parameter P1 is specified for each of a plurality of scenes constituting the moving image V. That is, the content C to which the music is added is generated for each of the plurality of scenes.
  • the conversion unit 112 may acquire the first parameter set according to the image (still image or moving image) captured by the user U, for example. Specifically, the image captured by the user U is analyzed by a known image analysis technique to generate data representing the features of the image (hereinafter referred to as "feature data").
  • feature data data representing the features of the image
  • the storage device 12 stores a feature table in which the parameter set S is associated with each of the plurality of different feature data. Then, the conversion unit 112 acquires the parameter set S corresponding to the generated feature data as the first parameter set among the plurality of parameter sets S registered in the feature table. That is, the data used to generate the first parameter set is not limited to the input data Da.
  • Input data Da including a plurality of input parameters P1 and various other data are used to generate the first parameter set. As understood from the above description, it is not essential for the user U to specify the input parameter P1. Further, the data generation unit 111 may set the input parameter P1 by analyzing the image captured by the user U and generate the input data Da including the input parameter P1.
  • the weight of the similarity of each music parameter P2 to the evaluation value may be set for each music parameter P2.
  • the calculation unit 133 calculates the weighted sum of the degree of similarity over the plurality of music parameters P2 as the evaluation value.
  • the weight of the music parameter P2 which has a large influence on the impression of the finally generated music, is set to a large value.
  • the music parameter P2 relating to "genre”, “music composition”, and “chord progression" tends to have a greater influence on the impression of the music than the music parameter P2 relating to "BPM" and "number of measures".
  • the weight of the similarity of the music parameter P2 can be set according to the property of the music parameter P2. Therefore, it is possible to calculate an evaluation value that accurately reflects the degree of similarity in musical impression between the music corresponding to the first parameter set and the music corresponding to the second parameter set.
  • a music parameter P2 that is not included in the calculation of the evaluation value. For example, it is not necessary to use the similarity of the music parameter P2 regarding “BPM” and “number of measures” in the calculation of the evaluation value.
  • the method for determining whether or not the first parameter set and the second parameter set are similar is not limited to the above examples.
  • the determination unit 113 may determine whether or not the first parameter set and the second parameter set are similar depending on whether or not the music parameters P2 match. For example, when the music parameters P2 of the same type do not match, it is determined that the first parameter set and the second parameter set are dissimilar (that is, different). Specifically, if there is a music parameter P2 that does not match even one of the plurality of music parameters P2 between the first parameter set and the second parameter set, the first parameter set and the second parameter set are used. Is determined to be dissimilar.
  • the generated music is typically the same. As shown in the above example, it is not essential to calculate the evaluation value.
  • a match / mismatch was determined between all of one music parameter P2 of the first parameter set and all of one music parameter P2 of the second parameter set.
  • a match / mismatch may be determined for a part of one music parameter P2 of the first parameter set and a part of one music parameter P2 of the second parameter set.
  • the determination unit 113 determines whether or not the first parameter set and the second parameter set are similar by adding the match / mismatch of one or more specific music parameters P2 among the plurality of music parameters P2. You may. For example, the match / mismatch of the music parameter P2 regarding "genre", "music composition", and "chord progression" is added to the determination of whether or not the first parameter set and the second parameter set are similar.
  • the distance for example, Euclidean distance
  • correlation between the first parameter set and the second parameter set may be calculated as an evaluation value. Good.
  • the music generated by the music generation unit 114 also has a common configuration, but a plurality of music different from each other with respect to the common first parameter set.
  • the configuration in which is generated is also adopted.
  • music data M may be generated according to a first parameter set including music parameter P2 and randomly set setting parameters such as random numbers. According to the above configuration, various music data M can be generated even when the music parameter P2 is common.
  • a configuration for generating a plurality of different songs is also adopted.
  • the conversion unit 112 generates a plurality of different first parameter sets corresponding to one input data Da.
  • a determination similar to that of the second parameter set and generation of music are executed.
  • the control unit 116 presents the generated plurality of music data M to the user U.
  • the user U adopts any one of the plurality of songs presented by the control unit 116.
  • the input data Da is transmitted from the terminal device 200 to the music generation system 100, but the terminal device 200 may generate the first parameter set from the input data Da. That is, the first parameter set is transmitted from the terminal device 200 to the music generation system 100.
  • the communication device 16 of the music generation system 100 receives the first parameter set from the terminal device 200. That is, the communication device 16 of the music generation system 100 functions as an element for acquiring the first parameter set.
  • the data generation unit 111 and the conversion unit 112 are omitted from the music generation system 100.
  • the element for acquiring the first parameter set in the music generation system 100 is comprehensively expressed as the "acquisition unit".
  • the conversion unit 112 of the first embodiment and the second embodiment is an example of the acquisition unit.
  • the communication device 16 that receives the first parameter set corresponds to the acquisition unit.
  • the element that generates the first parameter set representing the plurality of music parameters P2 corresponds to the acquisition unit.
  • the configuration in which the music generation system 100 includes the music generation unit 114 is illustrated, but the music generation unit 114 may be omitted from the music generation system 100.
  • the determination unit 113 of the music generation system 100 determines whether or not the first parameter set and the second parameter set are similar. When it is determined that the first parameter set and the second parameter set are dissimilar, the control unit 116 notifies the terminal device 200 that the music can be generated. Then, the terminal device 200 generates the music data M according to the first parameter set generated by the terminal device 200. When the first parameter set is similar to the second parameter set, the control unit 116 notifies the terminal device 200 that the music cannot be generated. Then, the user U instructs the terminal device 200 to change the input parameter P1.
  • the function of generating the first parameter set (data generation unit 111 and the conversion unit 112) and the function of generating the music data M (music generation unit 114). ) May be omitted from the music generation system 100. That is, it is assumed that the music generation system 100 includes only the determination unit 113 for determining whether or not the first parameter set and the second parameter set are similar.
  • the music data M may be generated by a server device capable of communicating with the music generation system 100. That is, the music generation unit 114 is mounted on the server device and is omitted from the music generation system 100.
  • the degree of similarity between the music data M generated by the music generation unit 114 according to the first parameter set and the music data M generated in the past by the music generation unit 114 is calculated. May be good.
  • the music data M generated in the past is stored in the storage device 12 in association with the second parameter set used for generating the music data M. Further, the music data M generated by the music generation unit 114 according to the first parameter set may be processed and presented to the user U.
  • the input data Da used for generating the music may be stored in the storage device 12 together with the parameter set S.
  • the degree of similarity between the input data Da of the music to be generated and the input data Da used for composition in the past may be added to the calculation of the evaluation value.
  • the user U edits a plurality of input parameters P1 represented by the input data Da used for generating the music in the past, and the input data Da is used by using the edited input parameter P1. May be generated.
  • the input data Da used for generating the music in the past is stored in the storage device 12.
  • the user U selects arbitrary input data Da from a plurality of input data Da stored in the storage device 12.
  • a plurality of input parameters P1 represented by the input data Da selected by the user U are displayed on the operation image G.
  • the user U changes only the input parameter P1 specified for the "situation" among the plurality of input parameters P1 displayed on the operation image G. Then, the input data Da including the changed input parameter P1 is generated.
  • the user U may edit a plurality of music parameters P2 represented by the second parameter set used for generating the music in the past, and generate the music using the edited music parameters P2.
  • step Sa5-step Sa7 of FIG. 6 after calculating the evaluation values for all the second parameter sets, whether or not there is a second parameter set similar to the first parameter set is determined.
  • the process of calculating the evaluation value and the process of determining the similarity with the first parameter set may be sequentially executed for each second parameter set.
  • the change of the input parameter P1 may be presented to the user U when the second parameter set similar to the first parameter set is detected.
  • the conversion unit 112 when there is a second parameter set similar to the first parameter set (Sa7: YES), the conversion unit 112 has a first parameter set different from the generated first parameter set. Was generated. However, as illustrated in FIG. 9, when there is a second parameter set similar to the first parameter set (Sa7: YES), the user U is proposed to change the input parameter P1 by displaying the image of the display device 13. After that (Sa11), the input of the input parameter P1 may be accepted again from the user U (Sa1). The conversion unit 112 generates the first parameter set from the input parameter P1 updated by the user U (Sa2, Sa3).
  • the configuration of the first embodiment in which the first parameter set is changed without requiring the user U to update the input parameter P1 there is an advantage that the load on the user U is reduced.
  • the input parameter P1 to be changed among the plurality of input parameters P1 may be proposed to the user U.
  • the first parameter set is the first.
  • the user U may be proposed to change the input parameter P1 regarding the "image" so that the parameter set and the second parameter set are determined to be dissimilar.
  • the configuration in which the evaluation value increases as the first parameter set and the second parameter set become similar is illustrated, but the relationship between the degree of similarity and the evaluation value is limited to the above examples.
  • the calculation unit 133 may calculate the evaluation value so that the evaluation value decreases as the first parameter set and the second parameter set become similar.
  • the processing unit 135 determines that the first parameter set and the second parameter set are similar when the evaluation value is below the threshold value, and determines that the first parameter set and the second parameter set are similar when the evaluation value exceeds the threshold value. Judge that the set is dissimilar.
  • the determination unit 113 determines that the first parameter set and the second parameter set are dissimilar, and the evaluation value is the threshold value.
  • the evaluation value is the threshold value.
  • the "similar side to the threshold value” means a range on the positive side with respect to the threshold value in a configuration in which the evaluation value increases as the parameter sets are similar, and the evaluation value decreases as the parameter sets are similar. Means the range on the negative side with respect to the threshold value.
  • the "dissimilar side to the threshold value” means a range on the negative side with respect to the threshold value in a configuration in which the evaluation value increases as the parameter sets are similar, and the evaluation value increases as the parameter sets are similar. In a decreasing configuration, it means the range on the positive side of the threshold.
  • the storage destination of the second parameter set is not limited to the storage device 12 of the music generation system 100.
  • a storage device for example, cloud storage
  • the control device 11 executes reading and writing to the storage device via a mobile communication network or a communication network such as the Internet. It is also possible.
  • a storage device is prepared separately from the music generation system 100, a configuration is also adopted in which the second parameter set used by each of the plurality of music generation systems 100 for generating music in the past is stored in the storage device.
  • each music generation system 100 it is determined whether or not the second parameter set used by the plurality of music generation systems 100 for generating music in the past is similar to the first parameter set. Therefore, it is possible to easily determine whether or not the music to be generated by the plurality of music generation systems 100 is similar to the music generated in the past.
  • the type of music generated by the music generation system 100 is arbitrary.
  • the music generation system 100 generates various kinds of music such as a music composed only of melody without singing, a music composed only of the performance sound of an instrument, a music including singing and performance sound, and BGM (background music). Will be done.
  • the threshold value to be compared with the evaluation value may be a variable value.
  • the user U specifies the threshold value by operating the operation device 14. Specifically, the user U specifies a threshold value according to how much different music is desired to be generated from the music generated in the past. For example, when the user U wants to generate a music that is significantly different from the music generated in the past, the threshold value is relatively increased, and when it is not necessary to make the music significantly different from the music generated in the past, the user U may Make the threshold relatively small.
  • the first parameter set relating to the music to be generated is compared with the second parameter set used for generating the music in the past, but the comparison target by the determination unit 113 is as described above. It is not limited to the example of. For example, when the music data M is generated from each of the first input data Da1 and the second input data Da2 in response to the instruction from the user U, the first parameter set and the second input corresponding to the first input data Da1 are generated. It may be compared with the second parameter set corresponding to the data Da2. That is, the second parameter set does not necessarily have to be the parameter set used to generate the past music.
  • the functions of the music generation system 100 illustrated above are realized by the cooperation of one or more processors constituting the control device 11 and the program stored in the storage device 12.
  • the program according to the present disclosure may be provided and installed on a computer in a form stored in a computer-readable recording medium.
  • the recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disc) such as a CD-ROM is a good example, but a known arbitrary such as a semiconductor recording medium or a magnetic recording medium. Recording media in the format of are also included.
  • the non-transient recording medium includes any recording medium except for a transient propagation signal (transitory, propagating signal), and a volatile recording medium is not excluded.
  • the storage device 12 that stores the program in the distribution device corresponds to the above-mentioned non-transient recording medium.
  • the present disclosure can also be specified as an operation method (music generation method) of the music generation system 100 according to each of the above-described forms.
  • the music generation method is a music generation method for generating music according to a parameter set including a plurality of music parameters each representing a condition related to the music, and is a first parameter set. And the second parameter set are similar or not.
  • a parameter set including a plurality of music parameters each representing a condition related to the music, and is a first parameter set.
  • the second parameter set are similar or not.
  • the music generation method further acquires the first parameter set relating to the music to be generated, and in the determination, the acquired parameter set and the music in the past. It is determined whether or not the second parameter set used for generation is similar. In the above aspect, it is determined whether or not the first parameter set for the music to be generated is similar to the second parameter set used for generating the music in the past. Since there is no need to compare songs, it is easy to determine whether the song to be generated and the song generated in the past are similar (that is, whether the song to be generated is a unique song). Can be determined.
  • an evaluation value according to the degree of similarity for each music parameter is calculated between the first parameter set and the second parameter set.
  • the evaluation value is on the dissimilar side with respect to the threshold value
  • whether or not the first parameter set and the second parameter set are similar to each other according to the evaluation value according to the similarity of each music parameter between the first parameter set and the second parameter set. Is calculated. Therefore, it can be determined whether or not the first parameter set and the second parameter set are similar as a whole.
  • the weight regarding the similarity of each music parameter with respect to the evaluation value is set for each music parameter.
  • the weight of the similarity of the music parameters can be set according to the nature of the music parameters.
  • the first parameter set in the acquisition of the first parameter set, is generated according to the input parameter representing the condition specified by the user for the music. Will be done.
  • the first parameter set is generated according to the conditions related to the music specified by the user. Therefore, the user does not have to directly specify the conditions represented by the music parameters included in the first parameter set.
  • the first parameter set in the acquisition of the first parameter set, is generated according to the input parameter and the setting parameter set at random.
  • the first parameter set is generated according to the condition of the music specified by the user and the setting parameter set at random. Therefore, various first parameter sets can be obtained.
  • the music generation system includes a music generation unit that generates music according to a parameter set including a plurality of music parameters each representing a condition related to music, a first parameter set, and a first parameter set. 2 It is provided with a determination unit for determining whether or not the parameter set is similar.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

楽曲に関する条件をそれぞれが表す複数の楽曲パラメータを含むパラメータセットに応じて楽曲を生成する楽曲生成方法であって、第1パラメータセットと第2パラメータセットとの類否を判定する。

Description

楽曲生成方法および楽曲生成システム
 本開示は、楽曲を生成するための楽曲生成方法に関する。
 例えば楽曲を生成するための各種の技術が従来から提案されている。特許文献1には、利用者が入力したパラメータに応じて楽曲を生成する作曲支援システムが開示されている。
日本国特開2007-17578号公報
 例えば利用者が入力するパラメータが類似していると、作曲支援システムにより生成された楽曲が類似する。したがって、独自の楽曲を生成したいという要望に応えられない場合がある。生成された楽曲を過去に生成された楽曲と比較することも考えられる。具体的には、周波数特性および音量等の音響特徴量を比較する構成が想定される。しかし、楽曲の音響特徴量同士の比較には過大な処理負荷または記憶容量が必要であるという問題がある。
 本発明の実施形態によれば、楽曲生成方法は、楽曲に関する条件をそれぞれが表す複数の楽曲パラメータを含むパラメータセットに応じて楽曲を生成する楽曲生成方法であって、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する。
 本発明の実施形態によれば、楽曲生成システムは、楽曲に関する条件をそれぞれが表す複数の楽曲パラメータを含むパラメータセットに応じて楽曲を生成する楽曲生成部と、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する判定部とを具備する。
 本発明の実施形態によれば、作曲すべき楽曲が独自の楽曲であるか否かを簡便に判定することができる。
第1実施形態に係る楽曲生成システムの構成を例示するブロック図である。 制御装置の機能を表すブロック図である。 操作画像の模式図である。 入力データの模式図である。 パラメータセットの模式図である。 制御装置が実行する処理のフローチャートである。 第2実施形態におけるコンテンツ生成システムの構成を例示するブロック図である。 第2実施形態における制御装置の機能を表すブロック図である。 変形例において制御装置が実行する処理のフローチャートである。
A:第1実施形態
 図1は、本開示の第1実施形態に係る楽曲生成システム100の構成を例示するブロック図である。楽曲生成システム100は、利用者Uからの指示に応じて楽曲を生成するコンピュータシステムである。利用者Uにより指定された楽曲に関する複数の条件に応じて楽曲が生成される。楽曲生成システム100は、例えば携帯電話機もしくはスマートフォン等の可搬型の情報端末、またはパーソナルコンピュータ等の可搬型または据置型の情報端末である。具体的には、楽曲生成システム100は、制御装置11と記憶装置12と表示装置13と操作装置14と放音装置15とを具備する。
 図1の記憶装置12は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成された単数または複数のメモリである。記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。なお、記憶装置12は、複数種の記録媒体の組合せにより構成されてもよい。また、記憶装置12は、楽曲生成システム100に対して着脱可能な可搬型の記録媒体、または楽曲生成システム100が通信網を介して通信可能な外部記録媒体(例えばオンラインストレージ)としてもよい。
 制御装置11は、例えば楽曲生成システム100の各要素を制御する単数または複数のプロセッサである。例えば、制御装置11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより構成される。
 図2は、制御装置11の機能的な構成を例示するブロック図である。制御装置11は、記憶装置12に記憶されたプログラムに従って複数のタスクを実行することで、楽曲を生成するための複数の機能(データ生成部111,変換部112,判定部113,楽曲生成部114,音源部115および制御部116)を実現する。なお、複数の装置の集合(すなわちシステム)で制御装置11の機能を実現してもよいし、制御装置11の機能の一部または全部を専用の電子回路で実現してもよい。
 放音装置15は、音源部115による制御のもとで、楽曲生成システム100により生成された楽曲を放音する。例えばスピーカまたはヘッドホンが放音装置15として利用される。操作装置14は、利用者Uからの指示を受付ける入力機器である。操作装置14は、例えば、利用者Uが操作可能な複数の操作子、または、表示装置13の表示面に対する接触を検知するタッチパネルである。具体的には、操作装置14は、楽曲の条件に関する複数のパラメータ(以下「入力パラメータ」という)P1を指定するための操作を利用者Uから受付ける。
 表示装置13(例えば液晶表示パネル)は、制御部116による制御のもとで各種の画像を表示する。例えば、表示装置13は、利用者Uが複数の入力パラメータP1を指定するための画面(以下「操作画像」という)Gを表示する。図3は、操作画像Gの模式図である。利用者Uは、所望する楽曲に関する複数の入力パラメータP1の各々を指定する。各入力パラメータP1は、例えば楽曲を生成するための専門的な知識がない利用者Uにとっても理解可能な内容である。図3には、「楽曲のイメージ」「楽曲が利用されるシチュエーション」「楽曲のテンポ」および「楽曲の長さ」について指定される各条件を表す入力パラメータP1が例示されている。
 利用者Uは、例えば入力パラメータP1毎に事前に用意された複数の候補の何れかを選択する。「イメージ」に関する入力パラメータP1の候補としては、例えば、「軽やか」「静か」「上品な」「おしゃれ」「重厚」または「華麗」等が例示される。「シチュエーション」に関する入力パラメータP1の候補としては、例えば、「夜景」「南国」または「大自然」等が例示される。「テンポ」に関する入力パラメータP1の候補としては、例えば、「ゆっくり」「ふつう」または「はやい」等が例示される。「長さ」に関する入力パラメータP1の候補としては、例えば、「60秒」「90秒」または「180秒」等が例示される。
 なお、入力パラメータP1に指定できる内容は、以上の例示に限定されない。例えば、「楽曲の雰囲気」に関する入力パラメータP1の候補として、「明るい」「暗い」または「おだやか」等が例示される。「楽曲の音高」に関する入力パラメータP1の候補として、「高い」「ふつう」または「低い」等が例示される。「年代」に関する入力パラメータP1の候補として、「1980年代」「1990年代」または「2000年代」等が例示される。また、例えば、利用者Uの属性(例えば年代または性別)、楽曲が使用される業界、または、楽曲を演奏する楽器の種類等について指定する条件を入力パラメータP1が表してもよい。以上の説明から理解される通り、第1実施形態の入力パラメータP1は、音楽の専門用語ではなく、日常的に使用される言葉により指定可能である。なお、利用者Uが任意の文字を入力することで各入力パラメータP1を指定可能な構成も採用される。例えば、利用者Uは、任意の単語または文章を入力することで入力パラメータP1を指定する。
 データ生成部111は、利用者Uが指定した複数の入力パラメータP1を含む入力データDaを生成する。図4は、入力データDaの模式図である。具体的には、入力データDaは、相異なる条件に関する複数の入力パラメータP1を含む。
 変換部112(取得部の一例)は、楽曲の生成に利用されるパラメータセットSを生成する。具体的には、変換部112は、データ生成部111が生成した入力データDaをパラメータセットSに変換する。図5は、パラメータセットSの模式図である。パラメータセットSは、楽曲の条件に関する複数のパラメータ(以下「楽曲パラメータ」という)P2を含む。楽曲パラメータP2は、各入力パラメータP1よりも専門的な条件を表す。言い換えれば、楽曲パラメータP2が表す条件は、楽曲を生成する専門的な知識がない利用者Uにとっては理解が難しい条件である。図5では、「ジャンル」「楽曲構成」「コード進行」「BPM(Beats Per Minute)」および「小節数」について指定される各条件を表す楽曲パラメータP2が例示されている。楽曲パラメータP2は、入力パラメータP1よりも楽曲に関する具体的な条件を表す。なお、楽曲パラメータP2は、以上の例示に限定されない。例えば、音高、楽曲を演奏する楽器の種類、伴奏パターン、または、拍子(4/4,6/8,…)等の条件を楽曲パラメータP2が表してもよい。
 ここで、楽曲を生成する場合、過去に生成された楽曲とは音楽的な印象が類似しない独自の楽曲を生成したいという要望がある。パラメータセットSが類似すると生成される楽曲の音楽的な印象も類似するという傾向がある。典型的には、共通のパラメータセットSを利用して生成された楽曲は同じになる。そこで、楽曲生成システム100は、変換部112が取得したパラメータセットSと、当該楽曲生成システム100が過去に楽曲の生成に利用したパラメータセットSとが類似するか否かを判定する。したがって、利用者Uの指示に応じて生成しようとする楽曲の音楽的な印象が、過去に生成された楽曲の音楽的な印象に類似するか否かを判定することが可能である。
 以下の説明では、変換部112が生成したパラメータセットSを「第1パラメータセット」と表記し、過去に楽曲の生成に利用されたパラメータセットSを「第2パラメータセット」と表記する。図1の記憶装置12には、複数の第2パラメータセットが記憶される。各第2パラメータセットは、相異なる楽曲に対応する。なお、第2パラメータセットは、楽曲が生成されるたびに記憶装置12に記憶される。
 第1実施形態では、上述した通り、入力データDaに応じて第1パラメータセットが生成される。各入力パラメータP1は、利用者Uにより直接的に指定される。それに対して、各楽曲パラメータP2は、入力パラメータP1を加味して変換部112により設定される。
 例えば、「ジャンル」「楽曲構成」および「コード進行」に関する楽曲パラメータP2は、「イメージ」および「シチュエーション」に関する入力パラメータP1に応じて生成される。「BPM」および「小節数」に関する楽曲パラメータP2は、「テンポ」および「長さ」に関する各入力パラメータP1に応じて生成される。
 第1パラメータセットの取得には、例えば記憶装置12に記憶された参照テーブルが利用される。参照テーブルは、複数の入力パラメータP1の組合せ(すなわち入力データDa)毎に第1パラメータセットが登録されたデータテーブルである。具体的には、変換部112は、参照テーブルの複数の入力データDaのうちデータ生成部111が生成した入力データDaに対応するパラメータセットSを、第1パラメータセットとして生成する。第1実施形態の参照テーブルにおいては、1個の入力データDaに対して複数の第1パラメータセットが登録される。変換部112は、データ生成部111が生成した入力データDaに対応する複数の第1パラメータセットの何れかを、例えば乱数等のランダムな設定パラメータを利用して確率的に選択する。すなわち、入力データDaとランダムな設定パラメータとに応じて第1パラメータセットが生成される。
 したがって、第1実施形態においては、利用者Uが指定した各入力パラメータP1が共通する場合でも相異なる多様な第1パラメータセットが生成され得る。なお、入力データDaに応じて第1パラメータセットを生成する方法は任意である。例えば、入力データDaと第1パラメータセットとの間の関係を学習した統計的モデル(例えばニューラルネットワーク)に入力データDaを入力することで第1パラメータセットを生成する構成も採用される。
 判定部113は、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する。具体的には、判定部113は、算定部133と処理部135とを具備する。算定部133は、第1パラメータセットと第2パラメータセットとの間の類似の度合いを表す指標(以下「評価値」という)を算定する。評価値は、第1パラメータセットと第2パラメータセットとの間において楽曲パラメータP2毎の類似度に応じて算定される。第1パラメータセットと第2パラメータセットとの間で、同種の楽曲パラメータP2同士の類似度が算定される。例えば、複数の楽曲パラメータP2にわたる類似度の合計値が評価値として算定される。したがって、第1パラメータセットと第2パラメータセットとが全体として類似するほど評価値が大きくなる。
 処理部135は、算定部133が算定した評価値に応じて、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する。具体的には、処理部135は、評価値が閾値を下回る場合には、第1パラメータセットと第2パラメータセットとが非類似と判定し、評価値が閾値を上回る場合には、第1パラメータセットと第2パラメータセットとが類似すると判定する。評価値が閾値を上回る場合には、第1パラメータセットに応じて生成されるべき楽曲が、過去に生成された楽曲(すなわち第2パラメータセットに応じた楽曲)に類似する。他方、評価値が閾値を下回る場合には、生成しようとする楽曲が過去に生成された楽曲に類似しない。閾値は、実験的または統計的に設定される。
 なお、判定部113は、記憶装置12に記憶された複数の第2パラメータセットの各々について、当該第2パラメータセットと第1パラメータセットとが類似するか否かを判定する。複数の第2パラメータセットのうちの何れにも第1パラメータセットが非類似と判定された場合、第1パラメータセットに応じて生成されるべき楽曲は、過去に楽曲生成システム100が生成した複数の楽曲の何れにも類似しない。
 楽曲生成部114は、第1パラメータセットに応じた楽曲を生成する。すなわち、利用者Uが指定した複数の入力パラメータP1に応じた楽曲が生成される。具体的には、第1パラメータセットに応じた楽曲を表す楽曲データMが生成される。楽曲データMは、例えば、強度を指定して発音を指示する指示データと、各指示データが指示する発音の時点を指定する時間データとが時系列に配列されたMIDI(Musical Instrument Digital Interface)形式のファイル(SMF:Standard MIDI File)である。
 具体的には、楽曲生成部114は、第1パラメータセットと第2パラメータセットとが非類似と判定された場合には、当該第1パラメータセットに応じて楽曲を生成する。第1実施形態では、複数の第2パラメータセットの何れにも第1パラメータセットが非類似と判定された場合に、当該第1パラメータセットに応じた楽曲が生成される。したがって、楽曲生成システム100が過去に生成した楽曲の何れにも類似しない独自の楽曲が生成される。
 楽曲の生成には公知の自動作曲が任意に採用される。例えば、事前に生成された楽曲の部分を表す複数の素材データが記憶装置12に記憶される。楽曲生成部114は、第1パラメータセットにより指定される1以上の楽曲パラメータP2に合致する素材データを時系列に配列する。例えば「ジャンル」「楽曲構成」または「コード進行」について指定された楽曲パラメータP2に応じて素材データが選択される。そして、楽曲生成部114は、第1パラメータセットにより指定される1以上の楽曲パラメータP2に応じて各素材データを調整することで楽曲データMを生成する。例えば、「BPM」および「小節数」について指定された楽曲パラメータP2に応じて各素材データが調整される。第1実施形態においては、第1パラメータセットが共通するならば楽曲生成部114が生成する楽曲も共通する構成を想定する。なお、例えば、第1パラメータセットと楽曲データMとの間の関係を学習した統計的モデル(例えばニューラルネットワーク)に第1パラメータセットを入力することで楽曲データMを生成する構成も採用される。
 制御部116は、楽曲生成部114が生成した楽曲を利用者Uに提示する。具体的には、制御部116は、楽曲が生成されたことを表示装置13に表示させる。利用者Uは、表示装置13の表示を視認したうえで、操作装置14を操作することで楽曲の再生を指示する。制御部116は、利用者Uからの指示に応じて楽曲を再生する。具体的には、制御部116は、楽曲データMの時間データで指定されたタイミングで指示データを音源部115に供給する。音源部115は、楽曲データMの各指示データに応じて音響信号を生成し、当該音響信号を放音装置15に供給する。楽曲生成部114による楽曲の生成に利用された第1パラメータセットは、判定部113による以降の判定に利用される第2パラメータセットとして記憶装置12に記憶される。
 一方で、楽曲生成部114は、第1パラメータセットと第2パラメータセットとが類似すると判定された場合には、当該第1パラメータセットを利用した楽曲の生成を禁止する。第1実施形態では、第1パラメータセットに類似する第2パラメータセットが1つでもある場合には、楽曲は生成されない。第1パラメータセットに応じた楽曲が生成されない場合には、制御部116は、入力パラメータP1の変更を利用者Uに提案する。具体的には、制御部116は、過去に生成された楽曲に類似するため楽曲を生成できないこと、および、入力パラメータP1の変更を利用者Uに対して促す情報を表示装置13に表示させる。
 図6は、制御装置11が実行する処理のフローチャートである。図6の処理は、例えば利用者Uからの指示を契機として開始される。データ生成部111は、複数の入力パラメータP1の指定を利用者Uから受付ける(Sa1)。データ生成部111は、利用者Uが指定した複数の入力パラメータP1を含む入力データDaを生成する(Sa2)。変換部112は、入力データDaを、複数の楽曲パラメータP2を含む第1パラメータセットに変換する(Sa3)。算定部133は、記憶装置12に記憶された複数の第2パラメータセットを順次に選択する(Sa4)。そして、算定部133は、選択した第2パラメータセットと第1パラメータセットとの間における評価値を算定する(Sa5)。
 複数の第2パラメータセットのうち評価値が算定されていない第2パラメータセットがある場合(Sa6:NO)、処理はステップSa4に移行する。すなわち、全ての第2パラメータセットについて評価値が算定されるまで、ステップSa4からステップSa6の処理が繰り返し実行される。
 全ての第2パラメータセットについて評価値が算定された場合(Sa6:YES)、処理部135は、第1パラメータセットに類似する第2パラメータセットがあるか否かを判定する(Sa7)。複数の第2パラメータセットの各々について、第1パラメータセットに類似するか否かが判定される。具体的には、処理部135は、評価値が閾値を下回る場合には、第1パラメータセットと第2パラメータセットとが非類似と判定し、評価値が閾値を上回る場合には、第1パラメータセットと第2パラメータセットとが類似すると判定する。
 第1パラメータセットに類似する第2パラメータセットが1つもない場合(Sa7:NO)、楽曲生成部114は、当該第1パラメータセットに応じて楽曲を生成する(Sa8)。すなわち、第1パラメータセットに応じた楽曲データMが生成される。制御部116は、今回の楽曲の生成に利用された第1パラメータセットを、判定部113が以降の判定に利用する第2パラメータセットとして記憶装置12に記憶する(Sa9)。
 制御部116は、楽曲生成部114により生成された楽曲を利用者Uに提示する(Sa10)。例えば、制御部116は、楽曲が生成されたことを表示するとともに、利用者Uからの指示に応じて楽曲を再生する。具体的には、制御部116は、楽曲データMの各指示データを音源部115に供給することで音響信号を生成する。すなわち、最終的には、第1パラメータセットに応じた楽曲の音響信号が利用者Uに提供される。
 他方、複数の第2パラメータセットのうちの何れかが第1パラメータセットに類似する場合(Sa7:YES)、制御部116は、過去に類似の楽曲が生成されていることを、例えば表示装置13の画像の表示により利用者Uに報知する(Sa11)。第1パラメータセットに類似する第2パラメータセットが存在する場合(Sa7:YES,Sa11)、処理はステップSa3に移行する。ステップSa3において、変換部112は、図6の処理において生成済の第1パラメータセットとは異なる第1パラメータセットを生成する。制御部116は、更新後の第1パラメータセットについて、各第2パラメータセットとの間の評価値の算定(Sa4-Sa6)と、当該第1パラメータセットに類似する第2パラメータセットがあるか否かの判定(Sa7)とを実行する。すなわち、過去に生成した楽曲に類似しない楽曲が生成されるまでステップSa3からステップSa7の処理が繰り返し実行される。図6の処理により、過去に生成した複数の楽曲の何れにも類似しない楽曲が生成される。
 以上の説明から理解される通り、生成しようとする楽曲に関する第1パラメータセットと、過去に楽曲の生成に利用された第2パラメータセットとが類似しているか否かが判定される。したがって、楽曲の音響特徴量同士の比較が不要であるから、生成しようとする楽曲と過去に生成された楽曲とが類似しているか否か(すなわち生成しようとする楽曲が独自の楽曲であるか否か)を簡便に判定することができる。すなわち、独自の楽曲を生成することができる。
 第1パラメータセットと第2パラメータセットとが類似しない場合にのみ楽曲が生成されるから、過去に生成された楽曲に非類似の楽曲を生成することができる。また、第1実施形態では、第1パラメータセットと第2パラメータセットとの間において楽曲パラメータP2毎の類似度に応じた評価値に応じて、第1パラメータセットと第2パラメータセットとが類似するか否かが算定される。したがって、第1パラメータセットと第2パラメータセットとが全体として類似するか否かを判定することができる。
 楽曲パラメータP2の理解に楽曲に関する専門的な知識を必要とする場合、例えば楽曲パラメータP2を利用者Uが直接的に指定する構成では、専門的な知識がない利用者Uにとっては楽曲パラメータP2の指定が困難である。それに対して、第1実施形態では、利用者Uにより指定された入力パラメータP1から楽曲パラメータP2が生成されるから、利用者Uが楽曲パラメータP2を直接的に指定しなくてもよい。したがって、楽曲に関する専門的な知識がない利用者Uでも所望の楽曲を簡便に生成できる。
B:第2実施形態
 第2実施形態を以下に説明する。なお、以下に例示する各構成において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
 図7は、第2実施形態に係るコンテンツ生成システム300の構成を例示するブロック図である。コンテンツ生成システム300は、利用者Uが端末装置200により撮像した動画Vに、楽曲生成システム100で生成した楽曲を付加したコンテンツCを生成する。例えば製品紹介、会社紹介、または、観光PR等に利用される動画Vが利用者Uの端末装置200により撮像される。具体的には、コンテンツ生成システム300は、楽曲生成システム100と端末装置200とを具備する。楽曲生成システム100と端末装置200とは、移動体通信網またはインターネット等の通信網30を介して通信可能である。
 端末装置200は、撮像装置により動画Vを撮像する。利用者Uは、動画Vを編集するための情報(以下「編集情報」という)を端末装置200から入力する。編集情報は、例えば、動画Vに表示するテロップの文字列や位置を指定する情報、または、動画Vの加工を指定する情報等である。また、利用者Uは、動画Vに付加する楽曲に関する入力パラメータP1を指定する。入力パラメータP1の内容および入力パラメータP1を指定する方法は、第1実施形態と同様である。
 端末装置200は、複数の入力パラメータP1を含む入力データDaと、編集情報を表すデータ(以下「編集データ」という)Dbとを生成する。そして、端末装置200は、動画Vと入力データDaと編集データDbとを楽曲生成システム100に送信する。すなわち、第2実施形態では、入力データDaを生成する要素が端末装置200に搭載される。
 第2実施形態の楽曲生成システム100は、第1実施形態と同様の要素(制御装置11,記憶装置12,表示装置13,操作装置14および放音装置15)に加えて通信装置16を具備する。通信装置16は、通信網30を介して端末装置200と通信する。
 図8は、第2実施形態における楽曲生成システム100の機能的な構成を例示するブロック図である。第2実施形態の楽曲生成システム100の制御装置11は、第1実施形態と同様の変換部112と判定部113と楽曲生成部114と音源部115とに加えて、編集部117としても機能する、楽曲生成システム100は、端末装置200から送信された動画Vと入力データDaと編集データDbとに応じてコンテンツCを生成する。
 編集部117は、編集データDbに応じて動画Vを編集する。動画Vの編集には公知の画像処理技術が任意に利用される。なお、楽曲生成システム100の管理者が、動画Vの具体的な編集の内容を編集データDbに応じて楽曲生成システム100に指示してもよい。楽曲生成システム100は、編集後の動画Vに入力データDaに応じた楽曲を付加することでコンテンツCを生成する。
 変換部112は、端末装置200から送信された入力データDaに応じて第1パラメータセットを生成する。第1パラメータセットは第1実施形態と同様の方法で生成される。判定部113は、第1実施形態と同様に、複数の第2パラメータセットの各々と、第1パラメータセットとが類似するか否かを判定する。第2実施形態の記憶装置12に記憶される各第2パラメータセットは、コンテンツ生成システム300が過去に生成したコンテンツCに含まれる楽曲の生成に利用されたパラメータセットSであるとも換言できる。
 楽曲生成部114は、第1実施形態と同様に、第1パラメータセットと第2パラメータセットとが非類似と判定された場合に、当該第1パラメータセットに応じて楽曲を生成する。音源部115は、楽曲生成部114が生成した楽曲データMに応じた音響信号を生成する。そして、編集部117は、編集後の動画Vに、音源部115が生成した音響信号を付加してコンテンツCを生成する。生成したコンテンツCは、端末装置200に送信される。
 第2実施形態においても第1実施形態と同様の効果が実現される。なお、端末装置200の利用者Uが入力パラメータP1を指定することは必須ではない。例えば、楽曲生成システム100の管理者が端末装置200から送信された動画Vに応じて入力パラメータP1を指定してもよい。
 また、動画Vが複数のシーンで構成されてもよい。以上の構成では、動画Vを構成する複数のシーン毎に入力パラメータP1が指定される。すなわち、複数のシーン毎に楽曲が付加されたコンテンツCが生成される。
C:変形例
 以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態では、利用者Uが指定した複数の入力パラメータP1を含む第1パラメータセットを取得する構成を例示したが、第1パラメータセットを取得する方法は以上の例示に限定されない。例えば、利用者Uが楽曲パラメータP2を直接的に指定可能な構成も想定される。
 また、変換部112は、例えば、利用者Uが撮像した画像(静止画または動画)に応じて第1パラメータセットを取得してもよい。具体的には、利用者Uが撮像した画像を公知の画像解析技術により解析し、当該画像の特徴を表すデータ(以下「特徴データ」という)を生成する。記憶装置12には、複数の相異なる特徴データの各々にパラメータセットSが対応付けられた特徴テーブルが記憶される。そして、変換部112は、特徴テーブルに登録された複数のパラメータセットSのうち、生成した特徴データに応じたパラメータセットSを第1パラメータセットとして取得する。すなわち、第1パラメータセットの生成に利用されるデータは入力データDaに限定されない。複数の入力パラメータP1を含む入力データDa、および、その他の各種のデータ(例えば画像を表すデータ)が第1パラメータセットの生成に利用される。以上の説明から理解される通り、利用者Uが入力パラメータP1を指定することは必須ではない。また、データ生成部111は、利用者Uが撮像した画像を解析することで入力パラメータP1を設定し、当該入力パラメータP1を含む入力データDaを生成してもよい。
(2)前述の各形態において、評価値に対する各楽曲パラメータP2の類似度の重みを当該楽曲パラメータP2毎に設定してもよい。具体的には、算定部133は、複数の楽曲パラメータP2にわたる類似度の加重和を評価値として算定する。例えば、最終的に生成される楽曲の印象に対する影響が大きい楽曲パラメータP2の重みが大きい数値に設定される。例えば、「ジャンル」「楽曲構成」および「コード進行」に関する楽曲パラメータP2は、「BPM」および「小節数」に関する楽曲パラメータP2よりも、楽曲の印象に対する影響が大きいという傾向がある。以上の構成によれば、楽曲パラメータP2の性質に応じて楽曲パラメータP2の類似度の重みを設定することができる。したがって、第1パラメータセットに対応する楽曲と第2パラメータセットに対応する楽曲との間で音楽的な印象が類似する度合いを高精度に反映した評価値を算定できる。
 また、複数の楽曲パラメータP2のうち評価値の算定に加味されない楽曲パラメータP2があってもよい。例えば、「BPM」および「小節数」に関する楽曲パラメータP2の類似度を評価値の算定に使用しなくてもよい。
(3)前述の各形態において、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する方法は以上の例示に限定されない。例えば、判定部113は、各楽曲パラメータP2が一致するか否かに応じて、第1パラメータセットと第2パラメータセットとが類似するか否かを判定してもよい。例えば、同種の楽曲パラメータP2が一致しない場合、第1パラメータセットと第2パラメータセットとが非類似(すなわち相違する)と判定される。具体的には、第1パラメータセットと第2パラメータセットとの間において、複数の楽曲パラメータP2のうち1つでも一致しない楽曲パラメータP2がある場合には、第1パラメータセットと第2パラメータセットとが非類似と判定される。一方で、第1パラメータセットと第2パラメータセットとの間において、全ての楽曲パラメータP2が一致する場合には、第1パラメータセットと第2パラメータセットとが類似する(すなわち共通する)と判定される。第1パラメータセットと第2パラメータセットとが共通する場合には、典型的には、生成される楽曲も同じである。以上の例示の通り、評価値を算定することは必須ではない。
 なお、以上の構成において、第1パラメータセットの1個の楽曲パラメータP2の全部と、第2パラメータセットの1個の楽曲パラメータP2の全部との間において一致/不一致を判定した。しかし、例えば、第1パラメータセットの1個の楽曲パラメータP2の一部と、第2パラメータセットの1個の楽曲パラメータP2の一部とについて一致/不一致を判定してもよい。また、判定部113は、複数の楽曲パラメータP2のうち特定の1以上の楽曲パラメータP2の一致/不一致を加味して、第1パラメータセットと第2パラメータセットとが類似するか否かの判定をしてもよい。例えば、「ジャンル」「楽曲構成」および「コード進行」に関する楽曲パラメータP2の一致/不一致が、第1パラメータセットと第2パラメータセットとが類似するか否かの判定に加味される。
 また、第1パラメータセットおよび第2パラメータセットの各々がベクトルで表現される構成においては、第1パラメータセットと第2パラメータセットとの距離(例えばユークリッド距離)または相関を評価値として算定してもよい。
(4)前述の各形態においては、利用者Uが指定した入力パラメータP1が共通する場合でも相異なる第1パラメータセットが生成される構成を例示したが、入力データDaと第1パラメータセットとを1対1に対応させてもよい。例えば、参照テーブルにおいて、1個の入力データDaに対して1個の第1パラメータセットを登録してもよい。
(5)前述の各形態においては、第1パラメータセットが共通するならば楽曲生成部114が生成する楽曲も共通する構成を例示したが、共通の第1パラメータセットに対して相異なる複数の楽曲が生成される構成も採用される。例えば、楽曲パラメータP2を含む第1パラメータセットと、乱数等のランダムに設定される設定パラメータとに応じて、楽曲データMを生成してもよい。以上の構成によれば、楽曲パラメータP2が共通する場合でも多様な楽曲データMを生成することができる。
(6)前述の各形態において、相異なる複数の楽曲を生成する構成も採用される。例えば、変換部112は、1個の入力データDaに対応する相異なる複数の第1パラメータセットを生成する。そして、複数の第1パラメータセットの各々について、第2パラメータセットとの類似の判断と楽曲の生成とが実行される。制御部116は、生成した複数の楽曲データMを利用者Uに提示する。利用者Uは、制御部116により提示された複数の楽曲のうちの何れかを採用する。
(7)第2実施形態においては、端末装置200から楽曲生成システム100に入力データDaを送信したが、端末装置200において入力データDaから第1パラメータセットを生成してもよい。すなわち、第1パラメータセットが端末装置200から楽曲生成システム100に送信される。楽曲生成システム100の通信装置16は、端末装置200から第1パラメータセットを受信する。すなわち、楽曲生成システム100の通信装置16は、第1パラメータセットを取得する要素として機能する。楽曲生成システム100が端末装置200から第1パラメータセットを受信する構成においては、データ生成部111および変換部112が楽曲生成システム100から省略される。
 以上の例示から理解される通り、楽曲生成システム100において第1パラメータセットを取得する要素は、「取得部」として包括的に表現される。例えば、第1実施形態および第2実施形態の変換部112は取得部の一例である。端末装置200から楽曲生成システム100に第1パラメータセットが送信される構成では、第1パラメータセットを受信する通信装置16が取得部に相当する。また、例えば、利用者Uが楽曲パラメータP2を直接的に指定する構成では、複数の楽曲パラメータP2を表す第1パラメータセットを生成する要素が取得部に相当する。
(8)前述の各形態においては、楽曲生成システム100が楽曲生成部114を具備する構成を例示したが、楽曲生成部114を楽曲生成システム100から省略してもよい。例えば、第2実施形態において、楽曲生成システム100の判定部113は、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する。第1パラメータセットと第2パラメータセットが非類似と判定された場合、制御部116は、楽曲の生成が可能なことを端末装置200に通知する。そして、端末装置200は、自身が生成した第1パラメータセットに応じて楽曲データMを生成する。なお、第1パラメータセットが第2パラメータセットに類似する場合、制御部116は、楽曲の生成が不可能なことを端末装置200に通知する。そして、利用者Uは、入力パラメータP1の変更を端末装置200に指示する。
 変形例(7)および変形例(8)の例示から理解される通り、第1パラメータセットを生成する機能(データ生成部111および変換部112)と楽曲データMを生成する機能(楽曲生成部114)とは、楽曲生成システム100から省略され得る。すなわち、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する判定部113のみを楽曲生成システム100が具備する構成も想定される。
(9)利用者Uが使用する情報端末により楽曲生成システム100が実現される第1実施形態の構成において、当該楽曲生成システム100と通信可能なサーバ装置により楽曲データMを生成してもよい。すなわち、楽曲生成部114がサーバ装置に搭載され、楽曲生成システム100からは省略される。
(10)前述の各形態において、楽曲生成部114が第1パラメータセットに応じて生成した楽曲データMと、楽曲生成部114が過去に生成した楽曲データMとの間の類似度を算定してもよい。過去に生成された楽曲データMは、当該楽曲データMの生成に利用された第2パラメータセットに対応付けて記憶装置12に記憶される。また、楽曲生成部114が第1パラメータセットに応じて生成した楽曲データMを加工して利用者Uに提示してもよい。
(11)前述の各形態において、楽曲の生成に利用された入力データDaをパラメータセットSとともに記憶装置12に記憶してもよい。以上の構成においては、生成すべき楽曲の入力データDaと、過去に作曲に利用された入力データDaとの間における類似度を、評価値の算定に加味してもよい。
(12)前述の各形態において、過去に楽曲の生成に利用された入力データDaが表す複数の入力パラメータP1を利用者Uが編集し、当該編集後の入力パラメータP1を利用して入力データDaを生成してもよい。過去に楽曲の生成に利用された入力データDaは記憶装置12に記憶される。例えば、利用者Uは記憶装置12に記憶された複数の入力データDaのうち任意の入力データDaを選択する。利用者Uにより選択された入力データDaが表す複数の入力パラメータP1が操作画像Gに表示される。利用者Uは、例えば、操作画像Gに表示された複数の入力パラメータP1のうち「シチュエーション」について指定される入力パラメータP1をのみを変更する。そして、当該変更後の入力パラメータP1を含む入力データDaが生成される。
 同様に、過去に楽曲の生成に利用された第2パラメータセットが表す複数の楽曲パラメータP2を利用者Uが編集し、当該編集後の楽曲パラメータP2を利用して楽曲を生成してもよい。
(13)前述の各形態では、図6のステップSa5-ステップSa7において、全ての第2パラメータセットについて評価値を算定した後に、第1パラメータセットに類似する第2パラメータセットがあるか否かを判定したが、第2パラメータセット毎に、評価値を算定する処理および第1パラメータセットとの類似を判定する処理を順次に実行してもよい。以上の構成では、第1パラメータセットと類似する第2パラメータセットが検出された時点で、入力パラメータP1の変更を利用者Uに提示してもよい。
(14)前述の各形態においては、第1パラメータセットに類似する第2パラメータセットがある場合(Sa7:YES)に、変換部112が、生成済の第1パラメータセットとは異なる第1パラメータセットを生成した。しかし、図9に例示される通り、第1パラメータセットに類似する第2パラメータセットがある場合(Sa7:YES)に、表示装置13の画像の表示により入力パラメータP1の変更を利用者Uに提案したうえで(Sa11)、入力パラメータP1の入力を利用者Uから改めて受付けてもよい(Sa1)。変換部112は、利用者Uによる更新後の入力パラメータP1から第1パラメータセットを生成する(Sa2,Sa3)。ただし、利用者Uによる入力パラメータP1の更新を必要とせずに第1パラメータセットが変更される第1実施形態の構成によれば、利用者Uの負荷が軽減されるという利点がある。
(15)前述の各形態において、入力パラメータP1の変更を利用者Uに提案する場合において、複数の入力パラメータP1のうち変更すべき入力パラメータP1を利用者Uに提案してもよい。例えば、「イメージ」に関する入力パラメータP1が変更されれば第1パラメータセットが第2パラメータセット(第1パラメータセットと類似と判定された第2パラメータセット)に非類似である場合には、第1パラメータセットと第2パラメータセットとが非類似と判定されるように、当該「イメージ」に関する入力パラメータP1の変更を利用者Uに対して提案してもよい。
(16)前述の各形態においては、第1パラメータセットと第2パラメータセットとが類似するほど評価値が増加する構成を例示したが、類似の度合と評価値との関係は以上の例示に限定されない。例えば、第1パラメータセットと第2パラメータセットとが類似するほど評価値が減少するように、算定部133が評価値を算定してもよい。以上の構成において、処理部135は、評価値が閾値を下回る場合に第1パラメータセットと第2パラメータセットとが類似すると判定し、評価値が閾値を上回る場合に第1パラメータセットと第2パラメータセットとが非類似と判定する。
 以上の例示から理解される通り、判定部113は、評価値が閾値に対して非類似側にある場合に、第1パラメータセットと第2パラメータセットとが非類似と判定し、評価値が閾値に対して類似側にある場合に、第1パラメータセットと第2パラメータセットとが類似すると判定する。「閾値に対して類似側」とは、パラメータセットが類似するほど評価値が増加する構成においては、閾値に対して正側の範囲を意味し、パラメータセットが類似するほど評価値が減少する構成においては、閾値に対して負側の範囲を意味する。また、「閾値に対して非類似側」とは、パラメータセットが類似するほど評価値が増加する構成においては、閾値に対して負側の範囲を意味し、パラメータセットが類似するほど評価値が減少する構成においては、閾値に対して正側の範囲を意味する。
(17)前述の各形態において、第2パラメータセットの記憶先は楽曲生成システム100の記憶装置12には限定されない。例えば、楽曲生成システム100とは別体で記憶装置(例えばクラウドストレージ)を用意し、移動体通信網またはインターネット等の通信網を介して制御装置11が当該記憶装置に対する読出および書込を実行することも可能である。楽曲生成システム100とは別体で記憶装置を用意する場合、複数の楽曲生成システム100のそれぞれが過去に楽曲の生成に利用した第2パラメータセットを当該記憶装置に記憶する構成も採用される。以上の構成では、例えば各楽曲生成システム100において、複数の楽曲生成システム100が過去に楽曲の生成に利用した第2パラメータセットと、第1パラメータセットとが類似するか否かが判定される。したがって、複数の楽曲生成システム100が過去に生成した楽曲に生成しようとする楽曲が類似するか否かを簡便に判定することができる。
(18)前述の各形態において、楽曲生成システム100が生成する楽曲の種類は任意である。例えば、歌唱を含まない旋律のみで構成される楽曲、楽器の演奏音のみで構成される楽曲、歌唱および演奏音を含む楽曲、BGM(background music)等の各種の楽曲が楽曲生成システム100で生成される。
(19)前述の各形態において、評価値と比較する閾値を可変値としてもよい。例えば利用者Uが操作装置14に対する操作により閾値を指定する。具体的には、利用者Uは、過去に生成された楽曲に対してどの程度相違する楽曲の生成を希望するかに応じて閾値を指定する。例えば、利用者Uは、過去に生成された楽曲と大きく相違する楽曲を生成したい場合には、相対的に閾値を大きくし、過去に生成された楽曲とあまり相違させる必要がない場合には、相対的に閾値を小さくする。
(20)前述の各形態においては、生成しようとする楽曲に関する第1パラメータセットと、過去に楽曲の生成に利用された第2パラメータセットとを比較したが、判定部113による比較の対象は以上の例示に限定されない。例えば、利用者Uからの指示に応じた第1入力データDa1および第2入力データDa2の各々から楽曲データMを生成する場合に、第1入力データDa1に対応する第1パラメータセットと第2入力データDa2に対応する第2パラメータセットとを比較してもよい。すなわち、第2パラメータセットが過去の楽曲の生成に利用されたパラメータセットである必要は必ずしもない。
(21)以上に例示した楽曲生成システム100の機能は、前述の通り、制御装置11を構成する単数または複数のプロセッサと記憶装置12に記憶されたプログラムとの協働により実現される。本開示に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記憶装置12が、前述の非一過性の記録媒体に相当する。なお、本開示は、前述の各形態に係る楽曲生成システム100の動作方法(楽曲生成方法)としても特定され得る。
D:付記
 以上に例示した形態から、例えば以下の構成が把握される。
 本開示のひとつの態様(態様1)に係る楽曲生成方法は、楽曲に関する条件をそれぞれが表す複数の楽曲パラメータを含むパラメータセットに応じて楽曲を生成する楽曲生成方法であって、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する。以上の態様においては、第1パラメータセットと第2パラメータセットとが類似しているか否かが判定されるから、楽曲の音響特徴量同士の比較が不要であるという利点がある。
 態様1の具体例(態様2)に係る楽曲生成方法は、さらに、生成しようとする楽曲に関する前記第1パラメータセットを取得し、前記判定においては、前記取得されたパラメータセットと、過去に楽曲の生成に利用した前記第2パラメータセットとが類似するか否かを判定する。以上の態様においては、生成しようとする楽曲に関する第1パラメータセットと、過去に楽曲の生成に利用された第2パラメータセットとが類似しているか否かが判定される。楽曲同士の比較が不要であるから、生成しようとする楽曲と過去に生成された楽曲とが類似しているか否か(すなわち生成しようとする楽曲が独自の楽曲であるか否か)を簡便に判定することができる。
 態様1または態様2の具体例(態様3)において、前記第1パラメータセットと前記第2パラメータセットとが非類似と判定された場合には、当該第1パラメータセットに応じて楽曲を生成し、前記第1パラメータセットと前記第2パラメータセットとが類似すると判定された場合には、当該第1パラメータセットを利用した楽曲の生成を禁止する。以上の態様においては、第1パラメータセットと第2パラメータセットとが類似しない場合にのみ楽曲が生成されるから、過去に生成された楽曲に非類似の楽曲を生成することができる。
 態様1から態様3の何れかの(態様4)において、前記判定においては、前記第1パラメータセットと前記第2パラメータセットとの間において楽曲パラメータ毎の類似度に応じた評価値を算定し、前記評価値が閾値に対して非類似側にある場合には、前記第1パラメータセットと前記第2パラメータセットとが非類似と判定し、前記評価値が前記閾値に対して類似側にある場合には、前記第1パラメータセットと前記第2パラメータセットとが類似すると判定する。以上の態様においては、第1パラメータセットと第2パラメータセットとの間において楽曲パラメータ毎の類似度に応じた評価値に応じて、第1パラメータセットと第2パラメータセットとが類似するか否かが算定される。したがって、第1パラメータセットと第2パラメータセットとが全体として類似するか否かを判定することができる。
 態様4の具体例(態様5)において、前記評価値の算定においては、前記評価値に対する前記各楽曲パラメータの類似度に関する重みを当該楽曲パラメータ毎に設定する。以上の態様においては、楽曲パラメータの性質に応じて楽曲パラメータの類似度の重みを設定することができる。
 態様1から態様5の何れかの具体例(態様6)において、前記第1パラメータセットの取得においては、前記利用者が楽曲について指定した条件を表す入力パラメータに応じて当該第1パラメータセットが生成される。以上の態様においては、利用者により指定された楽曲に関する条件に応じて第1パラメータセットが生成される。したがって、第1パラメータセットに含まれる楽曲パラメータが表す条件を、利用者が直接的に指定しなくてもよい。
 態様6の具体例(態様7)において、前記第1パラメータセットの取得においては、前記入力パラメータと、ランダムに設定される設定パラメータとに応じて当該第1パラメータセットが生成される。以上の態様においては、利用者により指定された楽曲の条件と、ランダムに設定される設定パラメータとに応じて当該第1パラメータセットが生成される。したがって、多様な第1パラメータセットを取得することができる。
 本開示のひとつの態様(態様8)に係る楽曲生成システムは、楽曲に関する条件をそれぞれが表す複数の楽曲パラメータを含むパラメータセットに応じて楽曲を生成する楽曲生成部と、第1パラメータセットと第2パラメータセットとが類似するか否かを判定する判定部とを具備する。
 本出願は、2019年11月29日出願の日本特許出願(特願2019-216228)に基づくものであり、その内容はここに参照として取り込まれる。
11…制御装置、12…記憶装置、13…表示装置、14…操作装置、15…放音装置、30…通信網、100…楽曲生成システム、111…データ生成部、112…変換部、113…判定部、114…楽曲生成部、115…音源部、116…制御部、117…編集部、133…算定部、135…処理部、200…端末装置、300…コンテンツ生成システム、C…コンテンツ、Da…入力データ、Db…編集データ、G…操作画像、M…楽曲データ、P1…入力パラメータ、P2…楽曲パラメータ、PR…観光、S…パラメータセット、U…利用者、V…動画。

Claims (13)

  1.  楽曲に関する条件をそれぞれが表す複数の楽曲パラメータを含むパラメータセットに応じて楽曲を生成する楽曲生成方法であって、
     第1パラメータセットと第2パラメータセットとの類否を判定する、
     楽曲生成方法。
  2.  前記楽曲生成方法は、さらに、
     生成しようとする楽曲に関する前記第1パラメータセットを取得し、
     前記判定においては、前記取得された前記第1パラメータセットと、過去に楽曲の生成に利用した前記第2パラメータセットとの類否を判定する、
     請求項1の楽曲生成方法。
  3.  前記第1パラメータセットと前記第2パラメータセットとが非類似と判定された場合には、当該第1パラメータセットに応じて楽曲を生成する、
     請求項1または請求項2の楽曲生成方法。
  4.  前記第1パラメータセットと前記第2パラメータセットとが類似と判定された場合には、当該第1パラメータセットを利用した楽曲の生成を禁止する、
     請求項1から請求項3のいずれか一項に記載の楽曲生成方法。
  5.  前記判定においては、
     前記第1パラメータセットと前記第2パラメータセットとの間において楽曲パラメータ毎の類似度に応じた評価値を算定し、
     前記評価値が閾値に対して非類似側にある場合には、前記第1パラメータセットと前記第2パラメータセットとが非類似と判定し、
     前記評価値が前記閾値に対して類似側にある場合には、前記第1パラメータセットと前記第2パラメータセットとが類似と判定する、
     請求項1から請求項4のいずれか一項に記載の楽曲生成方法。
  6.  前記評価値は、前記楽曲パラメータ毎の前記類似度の合計値である、
     請求項5の楽曲生成方法。
  7.  前記評価値の算定においては、前記評価値に対する前記各楽曲パラメータの類似度に関する重みを当該楽曲パラメータ毎に設定する、
     請求項5または請求項6の楽曲生成方法。
  8.  前記第1パラメータセットの取得においては、前記利用者が楽曲について指定した条件を表す入力パラメータに応じて当該第1パラメータセットを生成する、
     請求項1から請求項7のいずれか一項に記載の楽曲生成方法。
  9.  前記第1パラメータセットと前記第2パラメータセットとが類似と判定された場合には、前記利用者に前記入力パラメータの変更を提案する、
     請求項8の楽曲生成方法。
  10.  前記第1パラメータセットと前記第2パラメータセットとが類似と判定された場合には、前記第1パラメータセットと前記第2パラメータセットとが非類似と判定されるように、前記利用者に前記入力パラメータの変更を提案する、
     請求項8の楽曲生成方法。
  11.  前記第1パラメータセットの取得においては、前記入力パラメータと、ランダムに設定される設定パラメータとに応じて当該第1パラメータセットが生成される、
     請求項8から請求項10のいずれか一項に記載の楽曲生成方法。
  12.  楽曲に関する条件をそれぞれが表す複数の楽曲パラメータを含むパラメータセットに応じて楽曲を生成する楽曲生成部と、
     第1パラメータセットと第2パラメータセットとの類否を判定する判定部と、
     を具備する楽曲生成システム。
  13.  少なくとも1つのCPUと、
     少なくとも1つのメモリと、
     を具備する請求項12の楽曲生成システム。
PCT/JP2020/041263 2019-11-29 2020-11-04 楽曲生成方法および楽曲生成システム WO2021106512A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019216228A JP7419768B2 (ja) 2019-11-29 2019-11-29 楽曲生成方法および楽曲生成システム
JP2019-216228 2019-11-29

Publications (1)

Publication Number Publication Date
WO2021106512A1 true WO2021106512A1 (ja) 2021-06-03

Family

ID=76087564

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/041263 WO2021106512A1 (ja) 2019-11-29 2020-11-04 楽曲生成方法および楽曲生成システム

Country Status (2)

Country Link
JP (1) JP7419768B2 (ja)
WO (1) WO2021106512A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075422A1 (ja) * 2022-10-06 2024-04-11 ヤマハ株式会社 楽曲生成方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091445A (ja) * 2000-09-20 2002-03-27 Shozo Tanaka 自動作曲装置、自動作曲方法および自動作曲プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2007017578A (ja) * 2005-07-06 2007-01-25 Keiichi Kato 作曲支援システム
JP2015079130A (ja) * 2013-10-17 2015-04-23 ヤマハ株式会社 楽音情報生成装置および楽音情報生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091445A (ja) * 2000-09-20 2002-03-27 Shozo Tanaka 自動作曲装置、自動作曲方法および自動作曲プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2007017578A (ja) * 2005-07-06 2007-01-25 Keiichi Kato 作曲支援システム
JP2015079130A (ja) * 2013-10-17 2015-04-23 ヤマハ株式会社 楽音情報生成装置および楽音情報生成方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075422A1 (ja) * 2022-10-06 2024-04-11 ヤマハ株式会社 楽曲生成方法、およびプログラム

Also Published As

Publication number Publication date
JP2021086060A (ja) 2021-06-03
JP7419768B2 (ja) 2024-01-23

Similar Documents

Publication Publication Date Title
JP6784022B2 (ja) 音声合成方法、音声合成制御方法、音声合成装置、音声合成制御装置およびプログラム
KR102495888B1 (ko) 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법
JP2008139426A (ja) 評価用データのデータ構造、カラオケ装置及び記録媒体
CN111602193A (zh) 用于处理乐曲的演奏的信息处理方法和装置
US20180204588A1 (en) Sound quality determination device, method for the sound quality determination and recording medium
JP2022120188A (ja) 楽曲再生システム、楽曲再生システムの制御方法およびプログラム
JPH09212480A (ja) 雰囲気情報生成装置およびカラオケ装置
WO2021106512A1 (ja) 楽曲生成方法および楽曲生成システム
US10298192B2 (en) Sound processing device and sound processing method
JP2012073349A (ja) カラオケ装置、及び、カラオケシステム
JP4232815B2 (ja) 楽曲加工装置およびプログラム
JP6288197B2 (ja) 評価装置及びプログラム
JP2022075147A (ja) 音響処理システム、音響処理方法およびプログラム
JP6944357B2 (ja) 通信カラオケシステム
JP2013213907A (ja) 評価装置
JP4218066B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP6954780B2 (ja) カラオケ装置
JP2013073091A (ja) 歌詞テロップ表示装置及びプログラム
WO2019239971A1 (ja) 情報処理方法、情報処理装置およびプログラム
JP2007225916A (ja) オーサリング装置、オーサリング方法およびプログラム
JP4218064B2 (ja) カラオケ装置およびカラオケ装置用プログラム
WO2023062865A1 (ja) 情報処理装置および方法、並びにプログラム
JP2019040161A (ja) カラオケ装置
JPWO2019003350A1 (ja) 歌唱音生成装置及び方法、プログラム
JP2007233078A (ja) 評価装置、制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20892234

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20892234

Country of ref document: EP

Kind code of ref document: A1