WO2021060493A1 - 情報処理方法、推定モデル構築方法、情報処理装置、および推定モデル構築装置 - Google Patents
情報処理方法、推定モデル構築方法、情報処理装置、および推定モデル構築装置 Download PDFInfo
- Publication number
- WO2021060493A1 WO2021060493A1 PCT/JP2020/036355 JP2020036355W WO2021060493A1 WO 2021060493 A1 WO2021060493 A1 WO 2021060493A1 JP 2020036355 W JP2020036355 W JP 2020036355W WO 2021060493 A1 WO2021060493 A1 WO 2021060493A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- time
- control data
- sound
- estimation model
- time series
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 20
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000010276 construction Methods 0.000 title claims description 10
- 238000000034 method Methods 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims description 133
- 230000015572 biosynthetic process Effects 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 40
- 238000003786 synthesis reaction Methods 0.000 claims description 37
- 238000010801 machine learning Methods 0.000 claims description 30
- 238000001228 spectrum Methods 0.000 claims description 13
- 239000004615 ingredient Substances 0.000 claims 1
- 239000011295 pitch Substances 0.000 description 83
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000001537 neural effect Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 3
- 238000013179 statistical model Methods 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
- G10L13/0335—Pitch control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/002—Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
- G10H7/006—Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof using two or more algorithms of different types to generate tones, e.g. according to tone color or to processor workload
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/161—Note sequence effects, i.e. sensing, altering, controlling, processing or synthesising a note trigger selection or sequence, e.g. by altering trigger timing, triggered note values, adding improvisation or ornaments or also rapid repetition of the same note onset
- G10H2210/165—Humanizing effects, i.e. causing a performance to sound less machine-like, e.g. by slightly randomising pitch or tempo
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Definitions
- the present disclosure relates to a technique for generating a time series of features related to sounds such as voice or musical tones.
- Non-Patent Document 1 discloses a technique for generating a time series of pitches in a synthetic sound by a neural network.
- An estimation model for estimating the pitch is constructed by machine learning using a plurality of training data including a time series of the pitch.
- the time series of pitch in each of the plurality of training data includes a dynamic component that fluctuates with time (hereinafter referred to as "time fluctuating component").
- time fluctuating component a dynamic component that fluctuates with time
- a time series of pitches in which the time fluctuation component is suppressed tends to be generated. Therefore, there is a limit in generating a high-quality synthetic sound that sufficiently contains a time-varying component.
- attention was paid to the case of generating a time series of pitches but the same problem is assumed in the scene of generating a time series of features other than pitches.
- one aspect of the present disclosure is to generate a high-quality synthetic sound in which the time series of the feature amount appropriately contains a time-varying component.
- the information processing method is synthesized using a first estimation model trained to output a time variation component based on the first control data. Trained to process the first control data of the target synthetic sound to be generated, generate the time-variable component of the target synthetic sound, and output the time series of the feature amount based on the second control data and the time-variable component. Using the second estimation model, the second control data of the target synthetic sound and the time-varying component of the target synthetic sound are processed to generate a time series of the feature amount of the target synthetic sound.
- a time series of feature quantities for training and a time series of time-varying components for training are generated from a reference signal indicating the recorded sound, and the time series of the time-variable components for training are recorded.
- the first control data for training corresponding to the sound and the time series of the time-varying component for training the first control data of the target synthetic sound to be synthesized is processed and the time of the target synthetic sound is processed.
- a first estimation model that outputs fluctuation components is constructed by machine learning, and the second control data for training corresponding to the recorded sound, the time series of time fluctuation components for training, and the time of feature quantities for training Using the sequence, a second estimation model that processes the second control data of the target synthetic sound and the time-varying component of the target synthetic sound and outputs a time series of the feature amount of the target synthetic sound is constructed by machine learning. To do.
- the information processing apparatus uses a first estimation model trained to output a time variation component based on the first control data, and first controls the target synthetic sound to be synthesized. Based on the data, the first generator that generates the time-varying component of the target synthetic sound, and the second estimation model trained to output the time series of the feature amount based on the second control data and the time-varying component. Is provided with a second generation unit that generates a time series of feature quantities of the target synthetic sound based on the second control data of the target synthetic sound and the time-varying component of the target synthetic sound.
- the estimation model construction device includes a generation unit that generates a time series of feature quantities for training and a time series of time-varying components for training from a reference signal indicating a recorded sound, and the recording unit.
- the time of the target synthetic sound based on the first control data of the target synthetic sound to be synthesized by using the first control data for training corresponding to the sound and the time series of the time-varying component for the training.
- the first training unit that builds the first estimation model that outputs the fluctuation component by machine learning, the second control data for training corresponding to the recorded sound, the time series of the time fluctuation component for training, and the training Using the time series of the feature amount of the target synthetic sound, a second estimation model that outputs the time series of the feature amount of the target synthetic sound based on the second control data of the target synthetic sound and the time variation component of the target synthetic sound is obtained. It is equipped with a second training unit constructed by machine learning.
- FIG. 1 is a block diagram illustrating the configuration of the sound synthesizer 100 according to the first embodiment of the present disclosure.
- the sound synthesizer 100 is an information processing device that generates an arbitrary sound (hereinafter referred to as “target sound”) that is a target of synthesis.
- the target sound is, for example, a singing sound that is produced when the singer virtually sings the music, or a musical sound that is produced when the performer virtually plays the music with an instrument.
- the target sound is an example of "sound to be synthesized”.
- the sound synthesizer 100 is realized by a computer system including a control device 11, a storage device 12, and a sound emitting device 13.
- a control device 11 for example, an information terminal such as a mobile phone, a smartphone, or a personal computer is used as the sound synthesizer 100.
- the sound synthesizer 100 may be realized by a set (that is, a system) of a plurality of devices configured as separate bodies from each other.
- the control device 11 is composed of a single or a plurality of processors that control each element of the sound synthesizer 100.
- the control device 11 is one or more types such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or an ASIC (Application Specific Integrated Circuit). It consists of a processor.
- the control device 11 generates an acoustic signal V in the time domain representing the waveform of the target sound.
- the sound emitting device 13 emits a target sound represented by the acoustic signal V generated by the control device 11.
- the sound emitting device 13 is, for example, a speaker or headphones.
- the D / A converter that converts the acoustic signal V from digital to analog and the amplifier that amplifies the acoustic signal V are not shown for convenience. Further, in FIG. 1, a configuration in which the sound emitting device 13 is mounted on the sound synthesizer 100 is illustrated, but the sound emitting device 13 separate from the sound synthesizer 100 is connected to the sound synthesizer 100 by wire or wirelessly. May be good.
- the storage device 12 includes a program executed by the control device 11 (for example, a sound synthesis program G1 and a machine learning program G2) and various data used by the control device 11 (for example, music data D and reference data).
- Q One or more memories that store and.
- the storage device 12 is composed of a known recording medium such as a magnetic recording medium or a semiconductor recording medium.
- the storage device 12 may be configured by combining a plurality of types of recording media.
- a portable recording medium that can be attached to and detached from the sound synthesizer 100, or an external recording medium (for example, online storage) that the sound synthesizer 100 can communicate with may be used as the storage device 12.
- the music data D specifies a time series (that is, a musical score) of the notes that make up the music.
- the music data D is time-series data for designating a pitch and a sounding period for each sounding unit.
- the pronunciation unit is, for example, one note. However, one note may be divided into a plurality of pronunciation units.
- a phoneme for example, a phonetic character
- A1 Synthesis processing unit 20
- the control device 11 functions as the synthesis processing unit 20 of FIG. 3 by executing the sound synthesis program G1.
- the synthesis processing unit 20 generates an acoustic signal V corresponding to the music data D.
- the synthesis processing unit 20 includes a first generation unit 21, a second generation unit 22, a third generation unit 23, a control data generation unit 24, and a signal synthesis unit 25.
- the control data generation unit 24 generates the first control data C1, the second control data C2, and the third control data C3 from the music data D.
- Each control data C (C1, C2, C3) is data that specifies conditions related to the target sound.
- the control data generation unit 24 generates each control data C for each unit period (for example, a frame having a predetermined length) on the time axis.
- the control data C for each unit period specifies, for example, the relationship between the pitch of the notes in the unit period, the start or end of the pronunciation period, and the notes that are in phase with each other (for example, the context of the pitch difference).
- the control data generation unit 24 is composed of an estimation model such as a deep neural network in which the relationship between the music data D and each control data C is learned by machine learning.
- the first generation unit 21 generates the time-varying component X according to the first control data C1.
- the time-varying component X is sequentially generated for each unit period. That is, the first generation unit 21 generates a time series of the time fluctuation component X from the time series of the first control data C1.
- the first control data C1 is also paraphrased as data that specifies the condition of the time fluctuation component X.
- the time-varying component X is a dynamic component that fluctuates with time in the time series of the pitch (fundamental frequency) Y of the target sound. Assuming a stationary component whose temporal fluctuation is slow in the time series of pitch Y, a dynamic component other than the stationary component corresponds to the time fluctuation component X.
- the time-varying component X is a high-frequency component that exceeds a predetermined frequency in the time series of pitch Y.
- the first generation unit 21 may generate a temporal differential value with respect to the time series of pitch Y as a time fluctuation component X.
- the time series of the time fluctuation component X includes both fluctuations as a musical expression such as vibrato and fluctuations (fluctuation components) that are stochastically generated in a singing voice or a musical tone.
- the first estimation model M1 is used to generate the time-varying component X by the first generation unit 21.
- the first estimation model M1 is a statistical model that outputs the time fluctuation component X by inputting the first control data C1. That is, the first estimation model M1 is a trained model in which the relationship between the first control data C1 and the time fluctuation component X is well learned.
- the first estimation model M1 is composed of, for example, a deep neural network.
- the first estimation model M1 is a recurrent neural network (RNN:) in which the time-varying component X generated for each unit period is regressed to the input layer for the generation of the time-varying component X in the immediately following unit period.
- RNN recurrent neural network
- any kind of neural network such as a convolutional neural network (CNN) may be used as the first estimation model M1.
- CNN convolutional neural network
- the first estimation model M1 may include additional elements such as long short-term memory (LSTM).
- the output stage of the first estimation model M1 is provided with an output layer that defines the probability distribution of the time-variable component X and an extraction unit that generates (samples) a random number that follows the probability distribution as the time-variable component X. ..
- the first estimation model M1 includes an artificial intelligence program A1 that causes the control device 11 to execute an operation for generating a time variation component X from the first control data C1, and a plurality of variables W1 (specifically, weighting) applied to the operation. It is realized in combination with the value and bias).
- the artificial intelligence program A1 and the plurality of variables W1 are stored in the storage device 12. Each numerical value of the plurality of variables W1 is set by machine learning.
- the second generation unit 22 generates a pitch Y corresponding to the second control data C2 and the time fluctuation component X.
- Pitch Y is sequentially generated for each unit period. That is, the second generation unit 22 generates a time series of pitch Y from the time series of the second control data C2 and the time series of the time fluctuation component X.
- the time series of pitch Y is a pitch curve including a time-varying component X that dynamically fluctuates on the time axis and a steady-state component that fluctuates slowly with time as compared with the time-varying component X.
- the second control data C2 is also paraphrased as data that specifies the condition of pitch Y.
- the second estimation model M2 is used to generate the pitch Y by the second generation unit 22.
- the second estimation model M2 is a statistical model that outputs the pitch Y by inputting the second control data C2 and the time fluctuation component X. That is, the second estimation model M2 is a trained model in which the relationship between the combination of the second control data C2 and the time fluctuation component X and the pitch Y is well learned.
- the second estimation model M2 is composed of, for example, a deep neural network. Specifically, the second estimation model M2 is composed of any kind of neural network such as a convolutional neural network or a recurrent neural network. The second estimation model M2 may include additional elements such as long short-term memory.
- the output stage of the second estimation model M2 is provided with an output layer that defines a probability distribution of pitch Y and an extraction unit that generates (samples) random numbers according to the probability distribution as pitch Y.
- the second estimation model M2 includes an artificial intelligence program A2 that causes the control device 11 to execute an operation for generating a pitch Y from the second control data C2 and the time fluctuation component X, and a plurality of variables W2 (2) applied to the operation. Specifically, it is realized in combination with a weighted value and a bias).
- the artificial intelligence program A2 and the plurality of variables W2 are stored in the storage device 12. Each numerical value of the plurality of variables W2 is set by machine learning.
- the third generation unit 23 generates the frequency characteristic Z corresponding to the third control data C3 and the pitch Y.
- the frequency characteristic Z is sequentially generated for each unit period. That is, the third generation unit 23 generates a time series of the frequency characteristic Z from the time series of the third control data C3 and the time series of the pitch Y.
- the frequency characteristic Z in the first embodiment is, for example, an amplitude spectrum of a target sound.
- the third control data C3 is also paraphrased as data that specifies the condition of the frequency characteristic Z.
- the third estimation model M3 is used to generate the frequency characteristic Z by the third generation unit 23.
- the third estimation model M3 is a statistical model that generates the frequency characteristic Z according to the third control data C3 and the pitch Y. That is, the third estimation model M3 is a trained model in which the relationship between the combination of the third control data C3 and the pitch Y and the frequency characteristic Z is well learned.
- the third estimation model M3 is composed of, for example, a deep neural network. Specifically, the third estimation model M3 is composed of any kind of neural network such as a convolutional neural network or a recurrent neural network. The third estimation model M3 may include additional elements such as long short-term memory. In the output stage of the third estimation model M3, an output layer that defines the probability distribution of each component (frequency bin) representing the frequency characteristic Z and an extraction that generates (samples) a random number according to the probability distribution as the frequency characteristic Z. The department is installed.
- the third estimation model M3 includes an artificial intelligence program A3 that causes the control device 11 to execute an operation for generating the frequency characteristic Z from the third control data C3 and the pitch Y, and a plurality of variables W3 (specifically) applied to the operation. It is realized in combination with a weighted value and a bias).
- the artificial intelligence program A3 and the plurality of variables W3 are stored in the storage device 12. Each numerical value of the plurality of variables W3 is set by machine learning.
- the signal synthesis unit 25 generates the acoustic signal V from the time series of the frequency characteristic Z generated by the third generation unit 23. Specifically, the signal synthesis unit 25 converts the frequency characteristic Z into a time waveform by an operation including, for example, a discrete inverse Fourier transform, and generates an acoustic signal V by connecting the time waveforms over a plurality of unit periods. The acoustic signal V is supplied to the sound emitting device 13.
- the signal synthesizing unit 25 may include a so-called neural vocoder in which the potential relationship between the time series of the frequency characteristic Z and the acoustic signal V is well learned by machine learning. The signal synthesizing unit 25 uses a neural vocoder to process the time series of the supplied frequency characteristic Z to generate the acoustic signal V.
- FIG. 4 is a flowchart illustrating a specific procedure of the process (hereinafter referred to as “synthesis process”) Sa in which the control device 11 (synthesis processing unit 20) generates the acoustic signal V.
- the synthesis process Sa is started when the user gives an instruction to the sound synthesizer 100.
- the synthesis process Sa is executed every unit period.
- the control data generation unit 24 generates control data C (C1, C2, C3) from the music data D (Sa1).
- the first generation unit 21 generates the time fluctuation component X by processing the first control data C1 using the first estimation model M1 (Sa2).
- the second generation unit 22 generates a pitch Y by processing the second control data C2 and the time fluctuation component X using the second estimation model M2 (Sa3).
- the third generation unit 23 generates the frequency characteristic Z by processing the third control data C3 and the pitch Y using the third estimation model M3 (Sa4).
- the signal synthesis unit 25 generates an acoustic signal V from the frequency characteristic Z (Sa5).
- the first estimation model M1 generates the time variation component X corresponding to the first control data C1
- the second estimation model M2 generates the second control data C2 and the time variation component.
- a pitch Y corresponding to X is generated. Therefore, it is compared with the configuration (hereinafter referred to as "inverse proportion") in which the pitch Y corresponding to the control data is generated by using a single estimation model that learns the relationship between the control data that specifies the target sound and the pitch Y. Therefore, it is possible to generate a time series of pitch Y containing abundant time-varying component X. According to the above configuration, it is possible to generate a target sound containing abundant time-varying component X that is audibly natural.
- A2 Learning processing unit 30
- the control device 11 functions as the learning processing unit 30 of FIG. 5 by executing the machine learning program G2.
- the learning processing unit 30 constructs the first estimation model M1, the second estimation model M2, and the third estimation model M3 by machine learning.
- the learning processing unit 30 includes the numerical values of the plurality of variables W1 in the first estimation model M1, the numerical values of the plurality of variables W2 in the second estimation model M2, and the plurality of values in the third estimation model M3. Set each numerical value of the variable W3 of.
- the storage device 12 stores a plurality of reference data Qs.
- Each of the plurality of reference data Qs is data in which the music data D and the reference signal R correspond to each other.
- the music data D specifies a time series of notes constituting the music.
- the reference signal R of each reference data Q represents the waveform of the sound produced by singing or playing the music represented by the music data D of the reference data Q.
- a voice sung by a specific singer or a musical sound played by a specific performer is recorded in advance, and a reference signal R representing the voice or the musical sound is stored in the storage device 12 together with the music data D.
- the reference signal R may be generated from the voices of a large number of singers or the musical sounds of a large number of performers.
- the learning processing unit 30 includes a first training unit 31, a second training unit 32, a third training unit 33, and a training data preparation unit 34.
- the training data preparation unit 34 prepares a plurality of first training data T1, a plurality of second training data T2, and a plurality of third training data T3.
- Each of the plurality of first training data T1 is known data in which the first control data C1 and the time variation component X are associated with each other.
- Each of the plurality of second training data T2 is known data in which the combination of the second control data C2 and the time variation component Xa and the pitch Y correspond to each other.
- the time-varying component Xa is a component in which a noise component is added to the time-varying component X.
- Each of the plurality of third training data T3 is known data in which the combination of the third control data C3 and the pitch Y and the frequency characteristic Z correspond to each other.
- the training data preparation unit 34 includes a control data generation unit 341, a frequency analysis unit 342, a fluctuation extraction unit 343, and a noise addition unit 344.
- the control data generation unit 341 generates control data C (C1, C2, C3) for each unit period from the music data D of each reference data Q.
- the configuration and operation of the control data generation unit 341 are the same as those of the control data generation unit 24 described above.
- the frequency analysis unit 342 generates a pitch Y and a frequency characteristic Z from the reference signal R of each reference data Q.
- a pitch Y and a frequency characteristic Z are generated for each unit period. That is, the frequency analysis unit 342 generates a time series of the pitch Y of the reference signal R and a time series of the frequency characteristic Z.
- a known analysis technique such as a discrete Fourier transform is arbitrarily adopted for generating the pitch Y and the frequency characteristic Z of the reference signal R.
- the fluctuation extraction unit 343 generates a time fluctuation component X from the pitch Y.
- a time-varying component X is generated for each unit period. That is, the fluctuation extraction unit 343 generates a time series of the time fluctuation component X from the time series of the pitch Y. Specifically, the fluctuation extraction unit 343 calculates the differential value of the pitch Y in the time series as the time fluctuation component X.
- a filter high frequency passing filter
- a filter that extracts a high frequency component exceeding a predetermined frequency as a time fluctuation component X may be adopted as the fluctuation extraction unit 343.
- the noise addition unit 344 generates the time fluctuation component Xa by adding the noise component to the time series of the time fluctuation component X. Specifically, the noise addition unit 344 assigns a random number that follows a predetermined probability distribution such as a normal distribution to the time series of the time fluctuation component X as a noise component. In the configuration in which the noise component is not added to the time series of the time fluctuation component X, the time fluctuation component X that excessively reflects the fluctuation component of the pitch Y in each reference signal R tends to be estimated by the first estimation model M1. There is.
- the noise component is added to the time variation component X (that is, regularization)
- the time variation component X that appropriately reflects the tendency of the variation component of the pitch Y in the reference signal R is first estimated.
- the noise addition unit 344 may be omitted.
- the first training data T1 in which the first control data C1 and the time fluctuation component X (correct answer value) correspond to each other is supplied to the first training unit 31.
- the second training data T2 in which the combination of the second control data C2 and the time fluctuation component X and the pitch Y (correct answer value) correspond to each other is supplied to the second training unit 32.
- the third training data T3 corresponding to the combination of the third control data C3 and the pitch Y and the frequency characteristic Z (correct answer value) is supplied to the third training unit 33.
- the first training unit 31 constructs the first estimation model M1 by supervised machine learning using a plurality of first training data T1s. Specifically, the first training unit 31 has a time-variable component X generated by the provisional first estimation model M1 when the first control data C1 of each first training data T1 is supplied, and the first training. The update of the plurality of variables W1 with respect to the first estimation model M1 is repeated so that the error of the data T1 with the time variation component X is reduced. Therefore, the first estimation model M1 learns the latent relationship between the first control data C1 and the time variation component X in the plurality of first training data T1s. That is, the first estimation model M1 after training by the first training unit 31 outputs a statistically valid time variation component X under the relationship with respect to the unknown first control data C1.
- the second training unit 32 constructs the second estimation model M2 by supervised machine learning using a plurality of second training data T2. Specifically, the second training unit 32 has a pitch Y generated by the provisional second estimation model M2 when the second control data C2 of each second training data T2 and the time fluctuation component X are supplied. The update of a plurality of variables W2 with respect to the second estimation model M2 is repeated so that the error of the second training data T2 from the pitch Y is reduced. Therefore, the second estimation model M2 learns the latent relationship between the combination of the second control data C2 and the time variation component X in the plurality of second training data T2 and the pitch Y. That is, the second estimation model M2 after training by the second training unit 32 obtains a statistically valid pitch Y under the relationship with respect to the combination of the unknown second control data C2 and the time fluctuation component X. Output.
- the third training unit 33 constructs the third estimation model M3 by supervised machine learning using a plurality of third training data T3. Specifically, the third training unit 33 has the frequency characteristic Z generated by the provisional third estimation model M3 when the third control data C3 and the pitch Y of each third training data T3 are supplied, and the corresponding frequency characteristic Z. The update of the plurality of variables W3 with respect to the third estimation model M3 is repeated so that the error of the third training data T3 with the frequency characteristic Z is reduced. Therefore, the third estimation model M3 learns the latent relationship between the combination of the third control data C3 and the pitch Y in the plurality of third training data T3 and the frequency characteristic Z. That is, the third estimation model M3 after training by the third training unit 33 outputs a statistically valid frequency characteristic Z under the relation to the unknown combination of the third control data C3 and the pitch Y. To do.
- FIG. 6 is a flowchart illustrating a specific procedure of a process (hereinafter referred to as “learning process”) Sb in which the control device 11 (learning process unit 30) trains the estimation model M (M1, M2, M3).
- learning process Sb is started when the user gives an instruction to the sound synthesizer 100.
- the learning process Sb is executed every unit period.
- the training data preparation unit 34 generates the first training data T1, the second training data T2, and the third training data T3 from the reference data Q (Sb1). Specifically, the control data generation unit 341 generates the first control data C1, the second control data C2, and the third control data C3 from the music data D (Sb11).
- the frequency analysis unit 342 generates a pitch Y and a frequency characteristic Z from the reference signal R (Sb12).
- the variation extraction unit 343 generates a time variation component X from a time series of pitch Y (Sb13).
- the noise imparting unit 344 generates the time fluctuation component Xa by adding the noise component to the time fluctuation component X (Sb14).
- the first training data T1, the second training data T2, and the third training data T3 are generated.
- the order of the generation of each control data C (Sb11) and the processing related to the reference signal R (Sb12-Sb14) may be reversed.
- the first training unit 31 updates a plurality of variables W1 of the first estimation model M1 by machine learning using the first training data T1 (Sb2).
- the second training unit 32 updates a plurality of variables W2 of the second estimation model M2 by machine learning using the second training data T2 (Sb3).
- the third training unit 33 updates a plurality of variables W3 of the third estimation model M3 by machine learning using the third training data T3 (Sb4).
- the control data and the pitch Y of the reference signal R are made to correspond.
- the estimation model is constructed by machine learning using training data. Since the phases of the fluctuating components in each reference signal R are different, in inverse proportion, the pitch Y in which the fluctuating components are averaged over the plurality of reference signals R is learned. Therefore, for example, the pitch Y tends to change steadily within the sounding period of one note.
- inverse proportion it is difficult to generate a target sound rich in a musical expression such as vibrato or a dynamically fluctuating component such as a stochastic fluctuation component.
- the first estimation model M1 is constructed by the first training data T1 including the first control data C1 and the time variation component X
- the second estimation model M2 is constructed by the second training data T2 including the combination of the data C2 and the time variation component X and the pitch Y.
- FIG. 7 is a block diagram illustrating the configuration of the synthesis processing unit 20 in the second embodiment.
- the time series of the pitch Y generated by the second generation unit 22 is supplied to the signal synthesis unit 25.
- the frequency characteristic Z in the second embodiment is an amplitude spectrum envelope representing an outline of the amplitude spectrum. Amplitude spectrum entrainment is represented, for example, by the mel spectrum or mel cepstrum.
- the signal synthesis unit 25 generates the acoustic signal V from the time series of the frequency characteristic Z and the time series of the pitch Y.
- the signal synthesis unit 25 first generates a spectrum of a wave-tuning structure including a fundamental component corresponding to pitch Y and a plurality of overtone components. Secondly, the signal synthesizer 25 adjusts the intensity of the peaks of the fundamental component and each harmonic component of the spectrum so as to match the spectral envelope represented by the frequency characteristic Z. Third, the signal synthesis unit 25 converts the adjusted spectrum into a time waveform, and generates an acoustic signal V by connecting the time waveforms over a plurality of unit periods.
- the signal synthesizing unit 25 may include a so-called neural vocoder that has acquired the potential relationship between the time series of the frequency characteristic Z and the time series of the pitch Y and the acoustic signal V by machine learning. ..
- the signal synthesizing unit 25 uses a neural vocoder to process the supplied time series of pitch Y and the amplitude spectrum wrapping to generate an acoustic signal V.
- the configuration and operation related to the elements other than the signal synthesizer 25 are the same as those in the first embodiment. Therefore, the same effect as that of the first embodiment is realized in the second embodiment.
- FIG. 8 is a block diagram illustrating the configuration of the synthesis processing unit 20 in the third embodiment.
- the third generation unit 23 and the signal synthesis unit 25 of the first embodiment are replaced with the sound source unit 26.
- the sound source unit 26 is a sound source that generates an acoustic signal V corresponding to the third control data C3 and the pitch Y.
- Various sound source parameters P applied by the sound source unit 26 to generate the acoustic signal V are stored in the storage device 12.
- the sound source unit 26 generates an acoustic signal V corresponding to the third control data C3 and the pitch Y by the sound source processing to which the sound source parameter P is applied.
- various sound sources such as FM (Frequency Modulation) sound sources are used as the sound source unit 26.
- the sound source described in US Pat. No. 7,626,113 or US Pat. No. 4,218,624 is used as the sound source unit 26.
- the sound source unit 26 is realized not only by the control device 11 executing the program, but also by an electronic circuit dedicated to the generation of the acoustic signal V.
- the configuration and operation of the first generation unit 21 and the second generation unit 22 are the same as those in the first embodiment.
- the configuration and operation of the first estimation model M1 and the second estimation model M2 are the same as those in the first embodiment. Therefore, the same effect as that of the first embodiment is realized in the third embodiment.
- the third generation unit 23 and the third estimation model M3 in the first embodiment or the second embodiment may be omitted.
- the first control data C1, the second control data C2, and the third control data C3 are illustrated as individual data, but the first control data C1, the second control data C2, and the third control data C3 are illustrated.
- the data may be common to the control data C3. Further, two of the first control data C1, the second control data C2, and the third control data C3 may be used as common data.
- control data C generated by the control data generation unit 24 is supplied to the first generation unit 21 as the first control data C1 and to the second generation unit 22 as the second control data C2. It may be supplied and supplied to the third generation unit 23 as the third control data C3.
- a modified example based on the first embodiment is shown in FIG. 9, a configuration in which the first control data C1, the second control data C2, and the third control data C3 are shared is the second embodiment. The same applies to the embodiment or the third embodiment.
- control data C generated by the control data generation unit 341 is supplied to the first training unit 31 as the first control data C1 and to the second training unit 32 as the second control data C2. It may be supplied and supplied to the third training unit 33 as the third control data C3.
- the second estimation model M2 generates the pitch Y, but the feature amount generated by the second estimation model M2 is not limited to the pitch Y.
- the second estimation model M2 may generate the volume of the target sound
- the first estimation model M1 may generate the time variation component X in the time series of the volume.
- the second training data T2 and the third training data T3 include the volume of the reference signal R instead of the pitch Y in each of the above-described forms, and the first training data T1 includes a time variation component X relating to the volume. Is done.
- the second estimation model M2 may generate a feature amount (for example, mel cepstrum) representing the timbre of the target sound
- the first estimation model M1 may generate a time-varying component X in the time series of the feature amount.
- the second training data T2 and the third training data T3 include a timbre feature amount instead of the pitch Y in each of the above-described forms
- the first training data T1 includes a time-variable component X relating to the timbre feature amount. Is included.
- the feature quantity is comprehensively expressed as an arbitrary kind of physical quantity representing the acoustic feature
- the pitch Y, the volume, and the timbre are examples of the feature quantity.
- the pitch Y is generated from the time-varying component X of the pitch Y, but the feature amount represented by the time-varying component X generated by the first generation unit 21 and the second generation unit A feature amount of a different type from the feature amount generated by 22 may be used.
- the time-varying component of pitch Y in the target sound tends to correlate with the time-varying component of the volume of the target sound.
- the time-varying component X generated by the first generation unit 21 by the first estimation model M1 may be a time-varying component of volume.
- the second generation unit 22 generates a time series of pitch Y by inputting the second control data C2 and the time fluctuation component X of the volume into the first estimation model M1.
- the first training data T1 includes the first control data C1 and the time-varying component X of the volume.
- the second training data T2 is known data in which the combination of the second control data C2 and the time-varying component Xa of the volume and the pitch Y correspond to each other.
- the first generation unit 21 first controls the target sound by using the first estimation model M1 well trained to output the time fluctuation component X by inputting the first control data C1.
- the feature amount represented by the time-varying component X which is comprehensively expressed as an element for inputting the data C1, is an arbitrary kind of feature amount that correlates with the feature amount generated by the second generation unit 22.
- the sound synthesizer 100 including both the synthesis processing unit 20 and the learning processing unit 30 is illustrated, but the learning processing unit 30 may be omitted from the sound synthesis device 100.
- the present disclosure is also specified as an estimation model construction device including a learning processing unit 30.
- the estimation model building device is also referred to as a machine learning device that builds an estimation model by machine learning. The presence or absence of the synthesis processing unit 20 in the estimation model construction device does not matter, and the presence or absence of the learning processing unit 30 in the sound synthesis device 100 does not matter.
- the sound synthesizer 100 may be realized by a server device that communicates with a terminal device such as a mobile phone or a smartphone. For example, the sound synthesizer 100 generates an acoustic signal V corresponding to the music data D received from the terminal device, and transmits the acoustic signal V to the terminal device. In the configuration in which the control data C (C1, C2, C3) is transmitted from the terminal device, the control data generation unit 24 is omitted from the sound synthesizer 100.
- the functions of the sound synthesizer 100 exemplified above include the programs stored in the storage device 12 and the single or multiple processors constituting the control device 11 (for example, the sound synthesis program G1 and the machine learning program G2). ) Will be realized.
- the program according to the present disclosure may be provided and installed on a computer in a form stored in a computer-readable recording medium.
- the recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disc) such as a CD-ROM is a good example, but a known arbitrary such as a semiconductor recording medium or a magnetic recording medium. Recording media in the format of are also included.
- the non-transient recording medium includes any recording medium other than the transient propagation signal (transitory, propagating signal), and the volatile recording medium is not excluded. Further, in the configuration in which the distribution device distributes the program via the communication network, the storage device that stores the program in the distribution device corresponds to the above-mentioned non-transient recording medium.
- the execution subject of the artificial intelligence software for realizing the estimation model M is not limited to the CPU.
- a processing circuit dedicated to a neural network such as Tensor Processing Unit or Neural Engine, or a DSP (Digital Signal Processor) dedicated to artificial intelligence may execute artificial intelligence software.
- a plurality of types of processing circuits selected from the above examples may cooperate to execute the artificial intelligence software.
- the information processing method is a target synthesis to be synthesized using a first estimation model well trained to output a time variation component based on the first control data.
- a well-trained second that processes the first control data of the sound to generate the time-varying component of the target synthetic sound and outputs a time series of features based on the second control data and the time-varying component. 2
- the estimation model uses the estimation model, the second control data of the target synthetic sound and the time-varying component of the target synthetic sound are processed to generate a time series of the feature amount of the target synthetic sound.
- the first estimation model is used to generate the time-varying component according to the first control data
- the second estimation model is used to generate the feature quantity according to the second control data and the time-varying component.
- a time series is generated. Therefore, a time series of features containing abundant time-varying components can be generated as compared with the case of using a single estimation model in which the relationship between the control data and the features is learned.
- the "time-varying component” is a dynamic component that fluctuates with time in the target synthetic sound to be synthesized.
- a component that fluctuates with time in the time series of the feature amount corresponds to a "time-variable component", but a component that fluctuates with time in a time series of a feature amount different from the feature amount is also a concept of "time-variable component". Included in. For example, assuming a stationary component whose time-varying fluctuation is slow in the time series of the feature quantity, a dynamic component other than the stationary component corresponds to the time-varying component.
- the difference between the first control data and the second control data does not matter.
- the time series of the feature amount indicates at least one of the pitch, volume, and timbre of the target synthetic sound.
- aspect 2 in the generation of the time-variable component, the time-variable component related to the time series of the feature amount of the target synthetic sound is generated.
- the feature amount represented by the time-varying component generated by the first estimation model and the feature amount generated by the second estimation model are the same type of feature amount, the feature generated by the second estimation model Compared with the case where a time-varying component of a feature amount different from the quantity is generated by the first estimation model, a time series of the feature amount that naturally fluctuates audibly can be generated.
- the time-varying component is a differential value of the feature amount with respect to the time series.
- the time-varying component is a component exceeding a predetermined frequency in the time series of the feature amount.
- the third control data of the target synthetic sound and the time series of the feature amount of the target synthetic sound are processed to generate the frequency characteristic of the target synthetic sound.
- the difference between the third control data and the first control data or the second control data does not matter.
- the frequency characteristic of the target synthetic sound is the frequency spectrum of the target synthetic sound or the amplitude spectrum inclusion of the target synthetic sound.
- the information processing method generates an acoustic signal based on the frequency characteristics of the target synthetic sound.
- a time series of feature quantities for training and a time series of time-varying components for training are generated from a reference signal indicating the recorded sound, and the above-mentioned
- the first control data of the target synthetic sound to be synthesized is processed to process the target synthetic sound.
- the first estimation model that outputs the time fluctuation component of is constructed by machine learning, the second control data for training corresponding to the recorded sound, the time series of the time fluctuation component for training, and the feature amount for training.
- Machine learning of a second estimation model that processes the second control data of the target synthetic sound and the time-varying component of the target synthetic sound and outputs the time series of the feature amount of the target synthetic sound using the time series of To build by.
- the first estimation model that processes the first control data and outputs the time fluctuation component
- the second estimation model that processes the second control data and the time fluctuation component and outputs the time series of the feature amount.
- An estimation model is constructed. Therefore, a time series of features containing abundant time-varying components can be generated as compared with the case of constructing a single estimation model in which the relationship between the control data and the features is learned.
- the information processing apparatus is based on the first control data of the target synthetic sound to be synthesized by using the first estimation model well trained to output the time fluctuation component based on the first control data.
- a first generator that generates the time-varying component of the target synthetic sound
- a second estimation model that is well trained to output a time series of features based on the second control data and the time-varying component.
- a second generation unit that generates a time series of feature quantities of the target synthetic sound based on the second control data of the target synthetic sound and the time-varying component of the target synthetic sound is provided.
- the estimation model construction device has a generation unit that generates a time series of feature quantities for training and a time series of time-varying components for training from a reference signal indicating the recorded sound, and the recorded sound. Using the corresponding first control data for training and the time series of the time variation component for training, the time variation component of the target synthetic sound is output based on the first control data of the target synthetic sound to be synthesized.
- the first training unit that builds the first estimation model by machine learning, the second control data for training corresponding to the recorded sound, the time series of time-varying components for training, and the feature quantity for training.
- a second estimation model that outputs the time series of the feature amount of the target synthetic sound based on the second control data of the target synthetic sound and the time fluctuation component of the target synthetic sound is constructed by machine learning. It is equipped with a second training department.
- the program according to aspect 9 is based on the first control data of the target synthetic sound to be synthesized, using a first estimation model well trained to output the time variation component based on the first control data.
- a first generator that produces the time-varying component of the target synthetic sound
- a second estimation model that is well trained to output a time series of features based on the second control data and the time-varying component.
- the computer functions as a second generation unit that generates a time series of feature quantities of the target synthetic sound based on the second control data of the target synthetic sound and the time-varying component of the target synthetic sound.
- the program according to the tenth aspect is a generation unit that generates a time series of feature quantities for training and a time series of time-varying components for training from a reference signal indicating the recorded sound, and a training unit corresponding to the recorded sound.
- First estimation that outputs the time-varying component of the target synthetic sound based on the first control data of the target synthetic sound to be synthesized by using the first control data of The first training unit that builds a model by machine learning, the second control data for training corresponding to the recorded sound, the time series of time-varying components for training, and the time series of feature quantities for training.
- a second estimation model that outputs a time series of feature quantities of the target synthetic sound based on the second control data of the target synthetic sound and the time-varying component of the target synthetic sound is constructed by machine learning. Make the computer function as a training department.
- the information processing method, the estimation model construction method, the information processing device, and the estimation model construction device of the present disclosure can generate a high-quality synthetic sound in which the time series of the feature amount appropriately includes a time-varying component.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
情報処理装置(100)は、第1制御データ(C1)に基づいて時間変動成分(X)を出力するように訓練された第1推定モデル(M1)を用いて、合成されるべき目標合成音の第1制御データ(C1)を処理して、前記目標合成音の時間変動成分(X)を生成する第1生成部(21)と、第2制御データ(C2)と時間変動成分(X)とに基づいて特徴量の時系列を出力するように訓練された第2推定モデル(M2)を用いて、前記目標合成音の第2制御データ(C2)と前記目標合成音の時間変動成分(X)とを処理して、前記目標合成音の特徴量の時系列を生成する第2生成部(22)と、を具備する。
Description
本開示は、音声または楽音等の音に関する特徴量の時系列を生成する技術に関する。
歌唱音声または楽器の演奏音等の任意の音を合成する音合成技術が従来から提案されている。例えば非特許文献1には、合成音における音高の時系列をニューラルネットワークにより生成する技術が開示されている。音高の時系列を含む複数の訓練データを利用した機械学習により、音高を推定するための推定モデルが構築される。
Merlijn Blaauw, Jordi Bonada, "A Neural Parametric Singing Synthesizer Modeling Timbre and Expression from Natural Songs," Applied Sciences 7(12):1313, 2017
複数の訓練データの各々における音高の時系列には時間的に変動する動的成分(以下「時間変動成分」という)が含まれる。しかし、複数の訓練データを利用して構築される推定モデルにおいては、時間変動成分が抑制された音高の時系列が生成される傾向がある。したがって、時間変動成分を充分に含む高音質な合成音を生成するには限界がある。なお、以上の説明では音高の時系列を生成する場合に着目したが、音高以外の特徴量の時系列を生成する場面でも同様の課題が想定される。以上の事情を考慮して、本開示のひとつの態様は、特徴量の時系列が時間変動成分を適切に含む高音質な合成音を生成することを目的とする。
以上の課題を解決するために、本開示のひとつの態様に係る情報処理方法は、第1制御データに基づいて時間変動成分を出力するように訓練された第1推定モデルを用いて、合成されるべき目標合成音の第1制御データを処理して、前記目標合成音の時間変動成分を生成し、第2制御データと時間変動成分とに基づいて特徴量の時系列を出力するように訓練された第2推定モデルを用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とを処理して、前記目標合成音の特徴量の時系列を生成する。
また、本開示のひとつの態様に係る推定モデル構築方法は、収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成し、前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データを処理して前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築し、前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とを処理して前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する。
また、本開示のひとつの態様に係る推定モデル構築方法は、収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成し、前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データを処理して前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築し、前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とを処理して前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する。
本開示のひとつの態様に係る情報処理装置は、第1制御データに基づいて時間変動成分を出力するように訓練された第1推定モデルを用いて、合成されるべき目標合成音の第1制御データに基づき、前記目標合成音の時間変動成分を生成する第1生成部と、第2制御データと時間変動成分とに基づいて特徴量の時系列を出力するように訓練された第2推定モデルを用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて、前記目標合成音の特徴量の時系列を生成する第2生成部と、を具備する。本開示のひとつの態様に係る推定モデル構築装置は、収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成する生成部と、前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データに基づいて前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部と、前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する第2訓練部と、を具備する。
A:第1実施形態
図1は、本開示の第1実施形態に係る音合成装置100の構成を例示するブロック図である。音合成装置100は、合成の目標となる任意の音響(以下「目標音」という)を生成する情報処理装置である。目標音は、例えば、歌唱者が楽曲を仮想的に歌唱することで発音される歌唱音声、または、演奏者が楽器により楽曲を仮想的に演奏することで発音される楽音である。目標音は、「合成されるべき音」の一例である。
図1は、本開示の第1実施形態に係る音合成装置100の構成を例示するブロック図である。音合成装置100は、合成の目標となる任意の音響(以下「目標音」という)を生成する情報処理装置である。目標音は、例えば、歌唱者が楽曲を仮想的に歌唱することで発音される歌唱音声、または、演奏者が楽器により楽曲を仮想的に演奏することで発音される楽音である。目標音は、「合成されるべき音」の一例である。
音合成装置100は、制御装置11と記憶装置12と放音装置13とを具備するコンピュータシステムで実現される。例えば携帯電話機、スマートフォンまたはパーソナルコンピュータ等の情報端末が、音合成装置100として利用される。なお、相互に別体で構成された複数の装置の集合(すなわちシステム)により音合成装置100を実現してもよい。
制御装置11は、音合成装置100の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより構成される。具体的には、制御装置11は、目標音の波形を表す時間領域の音響信号Vを生成する。
放音装置13は、制御装置11が生成した音響信号Vが表す目標音を放音する。放音装置13は、例えばスピーカまたはヘッドホンである。なお、音響信号Vをデジタルからアナログに変換するD/A変換器と、音響信号Vを増幅する増幅器とについては、図示が便宜的に省略されている。また、図1では、放音装置13を音合成装置100に搭載した構成を例示したが、音合成装置100とは別体の放音装置13を有線または無線により音合成装置100に接続してもよい。
記憶装置12は、図2に例示される通り、制御装置11が実行するプログラム(例えば音合成プログラムG1および機械学習プログラムG2)と制御装置11が使用する各種のデータ(例えば楽曲データDおよび参照データQ)とを記憶する単数または複数のメモリである。記憶装置12は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成される。なお、複数種の記録媒体の組合せにより記憶装置12を構成してもよい。また、音合成装置100に着脱可能な可搬型の記録媒体、または、音合成装置100が通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置12として利用してもよい。
楽曲データDは、楽曲を構成する音符の時系列(すなわち楽譜)を指定する。例えば、楽曲データDは、発音単位毎に音高と発音期間とを指定する時系列データである。発音単位は、例えば1個の音符である。ただし、1個の音符を複数の発音単位に区分してもよい。なお、歌唱音声の合成に利用される楽曲データDにおいては、発音単位毎に音韻(例えば発音文字)が指定される。
A1:合成処理部20
制御装置11は、音合成プログラムG1を実行することで図3の合成処理部20として機能する。合成処理部20は、楽曲データDに応じた音響信号Vを生成する。合成処理部20は、第1生成部21と第2生成部22と第3生成部23と制御データ生成部24と信号合成部25とを具備する。
制御装置11は、音合成プログラムG1を実行することで図3の合成処理部20として機能する。合成処理部20は、楽曲データDに応じた音響信号Vを生成する。合成処理部20は、第1生成部21と第2生成部22と第3生成部23と制御データ生成部24と信号合成部25とを具備する。
制御データ生成部24は、第1制御データC1と第2制御データC2と第3制御データC3とを楽曲データDから生成する。各制御データC(C1,C2,C3)は、目標音に関する条件を指定するデータである。制御データ生成部24は、時間軸上の単位期間(例えば所定長のフレーム)毎に各制御データCを生成する。各単位期間の制御データCは、例えば当該単位期間における音符の音高と、発音期間の開始または終了と、相前後する音符との関係(例えば音高差等のコンテキスト)とを指定する。制御データ生成部24は、楽曲データDと各制御データCとの関係を機械学習により学習した深層ニューラルネットワーク等の推定モデルより構成される。
第1生成部21は、第1制御データC1に応じた時間変動成分Xを生成する。時間変動成分Xは単位期間毎に順次に生成される。すなわち、第1生成部21は、第1制御データC1の時系列から時間変動成分Xの時系列を生成する。第1制御データC1は、時間変動成分Xの条件を指定するデータとも換言される。
時間変動成分Xは、目標音の音高(基本周波数)Yの時系列において時間的に変動する動的成分である。音高Yの時系列において時間的な変動が緩慢である定常成分を想定すると、定常成分以外の動的成分が時間変動成分Xに相当する。例えば、時間変動成分Xは、音高Yの時系列において所定の周波数を上回る高域成分である。また、第1生成部21は、音高Yの時系列に関する時間的な微分値を時間変動成分Xとして生成してもよい。時間変動成分Xの時系列は、例えばビブラート等の音楽表現としての変動と、歌唱音声または楽音に確率的に発生する変動(揺らぎ成分)との双方を含む。
第1生成部21による時間変動成分Xの生成には第1推定モデルM1が利用される。第1推定モデルM1は、第1制御データC1を入力として時間変動成分Xを出力する統計的モデルである。すなわち、第1推定モデルM1は、第1制御データC1と時間変動成分Xとの関係をよく学習した訓練済モデルである。
第1推定モデルM1は、例えば深層ニューラルネットワークで構成される。具体的には、第1推定モデルM1は、各単位期間について生成した時間変動成分Xを、直後の単位期間における時間変動成分Xの生成のために入力層に回帰させる再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)である。ただし、畳込ニューラルネットワーク(CNN:Convolutional Neural Network)等の任意の種類のニューラルネットワークを第1推定モデルM1として利用してもよい。第1推定モデルM1は、長短期記憶(LSTM:Long Short-Term Memory)等の付加的な要素を具備してもよい。なお、第1推定モデルM1の出力段には、時間変動成分Xの確率分布を規定する出力層と、当該確率分布に従う乱数を時間変動成分Xとして生成(サンプリング)する抽出部とが設置される。
第1推定モデルM1は、第1制御データC1から時間変動成分Xを生成する演算を制御装置11に実行させる人工知能プログラムA1と、当該演算に適用される複数の変数W1(具体的には加重値およびバイアス)との組合せで実現される。人工知能プログラムA1と複数の変数W1とは記憶装置12に記憶される。複数の変数W1の各々の数値は、機械学習により設定されている。
第2生成部22は、第2制御データC2と時間変動成分Xとに応じた音高Yを生成する。音高Yは単位期間毎に順次に生成される。すなわち、第2生成部22は、第2制御データC2の時系列と時間変動成分Xの時系列とから音高Yの時系列を生成する。音高Yの時系列は、時間軸上で動的に変動する時間変動成分Xと、時間変動成分Xと比較して時間的な変動が緩慢である定常成分とを含むピッチカーブである。第2制御データC2は、音高Yの条件を指定するデータとも換言される。
第2生成部22による音高Yの生成には第2推定モデルM2が利用される。第2推定モデルM2は、第2制御データC2と時間変動成分Xとを入力として音高Yを出力する統計的モデルである。すなわち、第2推定モデルM2は、第2制御データC2および時間変動成分Xの組合せと音高Yとの関係をよく学習した訓練済モデルである。
第2推定モデルM2は、例えば深層ニューラルネットワークで構成される。具体的には、第2推定モデルM2は、例えば畳込ニューラルネットワーク、再帰型ニューラルネットワーク等の何れかの種類のニューラルネットワークにより構成される。第2推定モデルM2は、長短期記憶等の付加的な要素を具備してもよい。なお、第2推定モデルM2の出力段には、音高Yの確率分布を規定する出力層と、当該確率分布に従う乱数を音高Yとして生成(サンプリング)する抽出部とが設置される。
第2推定モデルM2は、第2制御データC2と時間変動成分Xとから音高Yを生成する演算を制御装置11に実行させる人工知能プログラムA2と、当該演算に適用される複数の変数W2(具体的には加重値およびバイアス)との組合せで実現される。人工知能プログラムA2と複数の変数W2とは記憶装置12に記憶される。複数の変数W2の各々の数値は、機械学習により設定されている。
第3生成部23は、第3制御データC3と音高Yとに応じた周波数特性Zを生成する。周波数特性Zは単位期間毎に順次に生成される。すなわち、第3生成部23は、第3制御データC3の時系列と音高Yの時系列とから周波数特性Zの時系列を生成する。第1実施形態における周波数特性Zは、例えば目標音の振幅スペクトルである。第3制御データC3は、周波数特性Zの条件を指定するデータとも換言される。
第3生成部23による周波数特性Zの生成には第3推定モデルM3が利用される。第3推定モデルM3は、第3制御データC3と音高Yとに応じた周波数特性Zを生成する統計的モデルである。すなわち、第3推定モデルM3は、第3制御データC3および音高Yの組合せと周波数特性Zとの関係をよく学習した訓練済モデルである。
第3推定モデルM3は、例えば深層ニューラルネットワークで構成される。具体的には、第3推定モデルM3は、例えば畳込ニューラルネットワーク、再帰型ニューラルネットワーク等の何れかの種類のニューラルネットワークにより構成される。第3推定モデルM3は、長短期記憶等の付加的な要素を具備してもよい。なお、第3推定モデルM3の出力段には、周波数特性Zを表す各成分(周波数ビン)の確率分布を規定する出力層と、当該確率分布に従う乱数を周波数特性Zとして生成(サンプリング)する抽出部とが設置される。
第3推定モデルM3は、第3制御データC3と音高Yとから周波数特性Zを生成する演算を制御装置11に実行させる人工知能プログラムA3と、当該演算に適用される複数の変数W3(具体的には加重値およびバイアス)との組合せで実現される。人工知能プログラムA3と複数の変数W3とは記憶装置12に記憶される。複数の変数W3の各々の数値は、機械学習により設定されている。
信号合成部25は、第3生成部23が生成する周波数特性Zの時系列から音響信号Vを生成する。具体的には、信号合成部25は、例えば離散逆フーリエ変換を含む演算により周波数特性Zを時間波形に変換し、複数の単位期間にわたり時間波形を連結することで音響信号Vを生成する。音響信号Vは放音装置13に供給される。
なお、信号合成部25は、機械学習により、周波数特性Zの時系列と音響信号Vとの間の潜在的な関係をよく学習した、所謂ニューラルボコーダを備えてもよい。信号合成部25は、ニューラルボコーダを用いて、供給された周波数特性Zの時系列を処理して音響信号Vを生成する。
なお、信号合成部25は、機械学習により、周波数特性Zの時系列と音響信号Vとの間の潜在的な関係をよく学習した、所謂ニューラルボコーダを備えてもよい。信号合成部25は、ニューラルボコーダを用いて、供給された周波数特性Zの時系列を処理して音響信号Vを生成する。
図4は、制御装置11(合成処理部20)が音響信号Vを生成する処理(以下「合成処理」という)Saの具体的な手順を例示するフローチャートである。例えば音合成装置100に対する利用者からの指示を契機として合成処理Saが開始される。合成処理Saは単位期間毎に実行される。
制御データ生成部24は、楽曲データDから制御データC(C1,C2,C3)を生成する(Sa1)。第1生成部21は、第1制御データC1を第1推定モデルM1を用いて処理することで時間変動成分Xを生成する(Sa2)。第2生成部22は、第2制御データC2と時間変動成分Xとを第2推定モデルM2を用いて処理することで音高Yを生成する(Sa3)。第3生成部23は、第3制御データC3と音高Yとを第3推定モデルM3を用いて処理することで周波数特性Zを生成する(Sa4)。信号合成部25は、周波数特性Zから音響信号Vを生成する(Sa5)。
以上に説明した通り、第1実施形態においては、第1推定モデルM1により第1制御データC1に応じた時間変動成分Xが生成され、第2推定モデルM2により第2制御データC2と時間変動成分Xとに応じた音高Yが生成される。したがって、目標音を指定する制御データと音高Yとの関係を学習した単体の推定モデルを利用して制御データに応じた音高Yを生成する構成(以下「対比例」という)と比較して、時間変動成分Xを豊富に含む音高Yの時系列を生成できる。以上の構成によれば、聴感的に自然な時間変動成分Xを豊富に含む目標音を生成できる。
A2:学習処理部30
制御装置11は、機械学習プログラムG2を実行することで図5の学習処理部30として機能する。学習処理部30は、第1推定モデルM1と第2推定モデルM2と第3推定モデルM3とを機械学習により構築する。具体的には、学習処理部30は、第1推定モデルM1における複数の変数W1の各々の数値と、第2推定モデルM2における複数の変数W2の各々の数値と、第3推定モデルM3における複数の変数W3の各々の数値とを設定する。
制御装置11は、機械学習プログラムG2を実行することで図5の学習処理部30として機能する。学習処理部30は、第1推定モデルM1と第2推定モデルM2と第3推定モデルM3とを機械学習により構築する。具体的には、学習処理部30は、第1推定モデルM1における複数の変数W1の各々の数値と、第2推定モデルM2における複数の変数W2の各々の数値と、第3推定モデルM3における複数の変数W3の各々の数値とを設定する。
記憶装置12は、複数の参照データQを記憶する。複数の参照データQの各々は、楽曲データDと参照信号Rとを相互に対応させたデータである。楽曲データDは、楽曲を構成する音符の時系列を指定する。各参照データQの参照信号Rは、当該参照データQの楽曲データDが表す楽曲の歌唱または演奏により発音される音の波形を表す。特定の歌唱者が歌唱した音声または特定の演奏者が演奏した楽音が事前に収録され、当該音声または当該楽音を表す参照信号Rが楽曲データDとともに記憶装置12に記憶される。なお、多数の歌唱者の音声または多数の演奏者の楽音から参照信号Rを生成してもよい。
学習処理部30は、第1訓練部31と第2訓練部32と第3訓練部33と訓練データ準備部34とを具備する。訓練データ準備部34は、複数の第1訓練データT1と複数の第2訓練データT2と複数の第3訓練データT3とを準備する。複数の第1訓練データT1の各々は、第1制御データC1と時間変動成分Xとを相互に対応させた既知データである。複数の第2訓練データT2の各々は、第2制御データC2および時間変動成分Xaの組合せと音高Yとを相互に対応させた既知データである。時間変動成分Xaは、時間変動成分Xに対して雑音成分を付加した成分である。複数の第3訓練データT3の各々は、第3制御データC3および音高Yの組合せと周波数特性Zとを相互に対応させた既知データである。
訓練データ準備部34は、制御データ生成部341と周波数解析部342と変動抽出部343と雑音付与部344とを具備する。制御データ生成部341は、各参照データQの楽曲データDから単位期間毎に制御データC(C1,C2,C3)を生成する。制御データ生成部341の構成および動作は、前述の制御データ生成部24と同様である。
周波数解析部342は、各参照データQの参照信号Rから音高Yと周波数特性Zとを生成する。単位期間毎に音高Yと周波数特性Zとが生成される。すなわち、周波数解析部342は、参照信号Rの音高Yの時系列と周波数特性Zの時系列とを生成する。参照信号Rの音高Yおよび周波数特性Zの生成には、離散フーリエ変換等の公知の解析技術が任意に採用される。
変動抽出部343は、音高Yから時間変動成分Xを生成する。単位期間毎に時間変動成分Xが生成される。すなわち、変動抽出部343は、音高Yの時系列から時間変動成分Xの時系列を生成する。具体的には、変動抽出部343は、音高Yの時系列における微分値を時間変動成分Xとして算定する。なお、所定の周波数を上回る高域成分を時間変動成分Xとして抽出するフィルタ(高域通過フィルタ)を変動抽出部343として採用してもよい。
雑音付与部344は、時間変動成分Xの時系列に対して雑音成分を付与することで時間変動成分Xaを生成する。具体的には、雑音付与部344は、例えば正規分布等の所定の確率分布に従う乱数を雑音成分として時間変動成分Xの時系列に付与する。なお、時間変動成分Xの時系列に雑音成分を付与しない構成では、各参照信号Rにおける音高Yの変動成分を過剰に反映した時間変動成分Xが第1推定モデルM1により推定されるという傾向がある。第1実施形態においては、時間変動成分Xに雑音成分が付与(すなわち正則化)されるから、参照信号Rにおける音高Yの変動成分の傾向を適度に反映した時間変動成分Xを第1推定モデルM1により推定できるという利点がある。ただし、参照信号Rの過度な反映が特段の問題とならない場合には、雑音付与部344を省略してもよい。
第1制御データC1と時間変動成分X(正解値)とを対応させた第1訓練データT1が第1訓練部31に供給される。第2制御データC2および時間変動成分Xの組合せと音高Y(正解値)とを対応させた第2訓練データT2が第2訓練部32に供給される。第3制御データC3および音高Yの組合せと周波数特性Z(正解値)とを対応させた第3訓練データT3が第3訓練部33に供給される。
第1訓練部31は、複数の第1訓練データT1を利用した教師あり機械学習により第1推定モデルM1を構築する。具体的には、第1訓練部31は、各第1訓練データT1の第1制御データC1を供給した場合に暫定的な第1推定モデルM1が生成する時間変動成分Xと、当該第1訓練データT1の時間変動成分Xとの誤差が低減されるように、第1推定モデルM1に関する複数の変数W1の更新を反復する。したがって、第1推定モデルM1は、複数の第1訓練データT1における第1制御データC1と時間変動成分Xとの間に潜在する関係を学習する。すなわち、第1訓練部31による訓練後の第1推定モデルM1は、未知の第1制御データC1に対して当該関係のもとで統計的に妥当な時間変動成分Xを出力する。
第2訓練部32は、複数の第2訓練データT2を利用した教師あり機械学習により第2推定モデルM2を構築する。具体的には、第2訓練部32は、各第2訓練データT2の第2制御データC2および時間変動成分Xを供給した場合に暫定的な第2推定モデルM2が生成する音高Yと、当該第2訓練データT2の音高Yとの誤差が低減されるように、第2推定モデルM2に関する複数の変数W2の更新を反復する。したがって、第2推定モデルM2は、複数の第2訓練データT2における第2制御データC2および時間変動成分Xの組合せと音高Yとの間に潜在する関係を学習する。すなわち、第2訓練部32による訓練後の第2推定モデルM2は、未知の第2制御データC2および時間変動成分Xの組合せに対して当該関係のもとで統計的に妥当な音高Yを出力する。
第3訓練部33は、複数の第3訓練データT3を利用した教師あり機械学習により第3推定モデルM3を構築する。具体的には、第3訓練部33は、各第3訓練データT3の第3制御データC3および音高Yを供給した場合に暫定的な第3推定モデルM3が生成する周波数特性Zと、当該第3訓練データT3の周波数特性Zとの誤差が低減されるように、第3推定モデルM3に関する複数の変数W3の更新を反復する。したがって、第3推定モデルM3は、複数の第3訓練データT3における第3制御データC3および音高Yの組合せと周波数特性Zとの間に潜在する関係を学習する。すなわち、第3訓練部33による訓練後の第3推定モデルM3は、未知の第3制御データC3および音高Yの組合せに対して当該関係のもとで統計的に妥当な周波数特性Zを出力する。
図6は、制御装置11(学習処理部30)が推定モデルM(M1,M2,M3)を訓練する処理(以下「学習処理」という)Sbの具体的な手順を例示するフローチャートである。例えば音合成装置100に対する利用者からの指示を契機として学習処理Sbが開始される。学習処理Sbは単位期間毎に実行される。
訓練データ準備部34は、第1訓練データT1と第2訓練データT2と第3訓練データT3とを参照データQから生成する(Sb1)。具体的には、制御データ生成部341は、第1制御データC1と第2制御データC2と第3制御データC3とを楽曲データDから生成する(Sb11)。周波数解析部342は、参照信号Rから音高Yと周波数特性Zとを生成する(Sb12)。変動抽出部343は、音高Yの時系列から時間変動成分Xを生成する(Sb13)。雑音付与部344は、時間変動成分Xに雑音成分を付与することで時間変動成分Xaを生成する(Sb14)。以上の処理により、第1訓練データT1と第2訓練データT2と第3訓練データT3とが生成される。なお、各制御データCの生成(Sb11)と参照信号Rに関する処理(Sb12-Sb14)との順番を逆転してもよい。
第1訓練部31は、第1訓練データT1を利用した機械学習により第1推定モデルM1の複数の変数W1を更新する(Sb2)。第2訓練部32は、第2訓練データT2を利用した機械学習により第2推定モデルM2の複数の変数W2を更新する(Sb3)。第3訓練部33は、第3訓練データT3を利用した機械学習により第3推定モデルM3の複数の変数W3を更新する(Sb4)。以上に説明した学習処理Sbが反復されることで、第1推定モデルM1と第2推定モデルM2と第3推定モデルM3とが構築される。
ところで、目標音の条件を指定する制御データと音高Yとの関係を学習した単体の推定モデルを利用する前述の対比例においては、制御データと参照信号Rの音高Yとを対応させた訓練データを利用した機械学習により当該推定モデルが構築される。各参照信号Rにおける変動成分の位相は相違するから、対比例においては、複数の参照信号Rにわたり変動成分が平均化された音高Yが学習される。したがって、例えば1個の音符の発音期間内においては音高Yが定常的に推移するという傾向がある。以上の説明から理解される通り、対比例においては、例えばビブラート等の音楽表現または確率的な揺らぎ成分等の動的な変動成分を豊富に含む目標音を生成すことは困難である。
以上に説明した対比例とは対照的に、第1実施形態においては、第1制御データC1と時間変動成分Xとを含む第1訓練データT1により第1推定モデルM1が構築され、第2制御データC2および時間変動成分Xの組合せと音高Yとを含む第2訓練データT2により第2推定モデルM2が構築される。以上の構成によれば、時間変動成分Xの傾向と音高Yの傾向とが別個の推定モデルに反映されるから、各参照信号Rにおける動的な変動成分の傾向を適切に反映した時間変動成分Xが第1推定モデルM1により生成される。したがって、対比例と比較して、時間変動成分Xを豊富に含む音高Yの時系列を生成できる。すなわち、聴感的に自然な時間変動成分Xを豊富に含む目標音を生成できる。
B:第2実施形態
第2実施形態について説明する。なお、以下に例示する各形態において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
第2実施形態について説明する。なお、以下に例示する各形態において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図7は、第2実施形態における合成処理部20の構成を例示するブロック図である。第2実施形態の合成処理部20においては、第2生成部22が生成した音高Yの時系列が信号合成部25に供給される。また、第2実施形態における周波数特性Zは、振幅スペクトルの概形を表す振幅スペクトル包絡である。振幅スペクトル包絡は、例えばメルスペクトルまたはメルケプストラムにより表現される。信号合成部25は、周波数特性Zの時系列と音高Yの時系列とから音響信号Vを生成する。具体的には、信号合成部25は、第1に、音高Yに対応する基音成分と複数の倍音成分とを含む調波構造のスペクトルを生成する。第2に、信号合成部25は、当該スペクトルの基音成分および各倍音成分のピークの強度を、周波数特性Zが表すスペクトル包絡に整合するように調整する。第3に、信号合成部25は、調整後のスペクトルを時間波形に変換し、複数の単位期間にわたり時間波形を連結することで音響信号Vを生成する。
なお、信号合成部25は、機械学習により、周波数特性Zの時系列および音高Yの時系列と、音響信号Vとの間の潜在的な関係を習得した、所謂ニューラルボコーダを備えてもよい。信号合成部25は、ニューラルボコーダを用いて、供給された音高Yの時系列と振幅スペクトル包絡とを処理して、音響信号Vを生成する。
なお、信号合成部25は、機械学習により、周波数特性Zの時系列および音高Yの時系列と、音響信号Vとの間の潜在的な関係を習得した、所謂ニューラルボコーダを備えてもよい。信号合成部25は、ニューラルボコーダを用いて、供給された音高Yの時系列と振幅スペクトル包絡とを処理して、音響信号Vを生成する。
信号合成部25以外の要素に関する構成および動作は第1実施形態と同様である。したがって、第2実施形態においても第1実施形態と同様の効果が実現される。
C:第3実施形態
図8は、第3実施形態における合成処理部20の構成を例示するブロック図である。第3実施形態の合成処理部20においては、第1実施形態における第3生成部23および信号合成部25が音源部26に置換される。
図8は、第3実施形態における合成処理部20の構成を例示するブロック図である。第3実施形態の合成処理部20においては、第1実施形態における第3生成部23および信号合成部25が音源部26に置換される。
音源部26は、第3制御データC3と音高Yとに応じた音響信号Vを生成する音源である。音源部26が音響信号Vの生成に適用する各種の音源パラメータPは記憶装置12に記憶される。音源部26は、音源パラメータPを適用した音源処理により、第3制御データC3と音高Yとに応じた音響信号Vを生成する。例えばFM(Frequency Modulation)音源等の各種の音源が音源部26として利用される。米国特許第7626113号または特許第4218624号に記載された音源が音源部26として利用される。なお、音源部26は、制御装置11がプログラムを実行することで実現されるほか、音響信号Vの生成に専用される電子回路でも実現される。
第1生成部21および第2生成部22の構成および動作は第1実施形態と同様である。第1推定モデルM1および第2推定モデルM2の構成および動作も第1実施形態と同様である。したがって、第3実施形態においても第1実施形態と同様の効果が実現される。第3実施形態の例示から理解される通り、第1実施形態または第2実施形態における第3生成部23および第3推定モデルM3は省略され得る。
<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態では、第1制御データC1と第2制御データC2と第3制御データC3とを個別のデータとして例示したが、第1制御データC1と第2制御データC2と第3制御データC3とは共通のデータでもよい。また、第1制御データC1と第2制御データC2と第3制御データC3とのうちの2つを共通のデータとしてもよい。
例えば、図9に例示される通り、制御データ生成部24が生成した制御データCを、第1生成部21に第1制御データC1として供給し、第2生成部22に第2制御データC2として供給し、第3生成部23に第3制御データC3として供給してもよい。なお、図9においては第1実施形態を基礎とした変形例が図示されているが、第1制御データC1と第2制御データC2と第3制御データC3とを共通させる構成は、第2実施形態または第3実施形態においても同様に適用される。
また、図10に例示される通り、制御データ生成部341が生成した制御データCを、第1訓練部31に第1制御データC1として供給し、第2訓練部32に第2制御データC2として供給し、第3訓練部33に第3制御データC3として供給してもよい。
(2)前述の各形態では、第2推定モデルM2が音高Yを生成したが、第2推定モデルM2が生成する特徴量は音高Yに限定されない。例えば、第2推定モデルM2が目標音の音量を生成し、当該音量の時系列における時間変動成分Xを第1推定モデルM1が生成してもよい。第2訓練データT2および第3訓練データT3には、前述の各形態における音高Yに代えて参照信号Rの音量が含まれ、第1訓練データT1には、音量に関する時間変動成分Xが含まれる。
また、例えば第2推定モデルM2が目標音の音色を表す特徴量(例えばメルケプストラム)を生成し、当該特徴量の時系列における時間変動成分Xを第1推定モデルM1が生成してもよい。第2訓練データT2および第3訓練データT3には、前述の各形態における音高Yに代えて音色の特徴量が含まれ、第1訓練データT1には、音色の特徴量に関する時間変動成分Xが含まれる。以上の説明から理解される通り、特徴量は、音響の特徴を表す任意の種類の物理量として包括的に表現され、音高Yと音量と音色とは特徴量の例示である。
(3)前述の各形態においては、音高Yの時間変動成分Xから当該音高Yを生成したが、第1生成部21が生成する時間変動成分Xが表す特徴量と、第2生成部22が生成する特徴量とは別種の特徴量でもよい。例えば、目標音における音高Yの時間変動成分は、当該目標音の音量の時間変動成分に相関するという傾向が想定される。以上の傾向を考慮すると、第1生成部21が第1推定モデルM1により生成する時間変動成分Xは、音量の時間変動成分でもよい。第2生成部22は、第2制御データC2と音量の時間変動成分Xとを第1推定モデルM1に入力することで音高Yの時系列を生成する。第1訓練データT1は、第1制御データC1と音量の時間変動成分Xとを含む。第2訓練データT2は、第2制御データC2および音量の時間変動成分Xaの組合せと音高Yとを相互に対応させた既知データである。以上の例示から理解される通り、第1生成部21は、第1制御データC1を入力として時間変動成分Xを出力するようによく訓練された第1推定モデルM1に、目標音の第1制御データC1を入力する要素として包括的に表現され、時間変動成分Xが表す特徴量は、第2生成部22が生成する特徴量に相関する任意の種類の特徴量である。
(4)前述の各形態においては、合成処理部20および学習処理部30の双方を具備する音合成装置100を例示したが、音合成装置100から学習処理部30を省略してもよい。また、学習処理部30を具備する推定モデル構築装置としても本開示は特定される。推定モデル構築装置は、機械学習により推定モデルを構築する機械学習装置とも換言される。推定モデル構築装置において合成処理部20の有無は不問であり、音合成装置100において学習処理部30の有無は不問である。
(5)携帯電話機またはスマートフォン等の端末装置との間で通信するサーバ装置により音合成装置100を実現してもよい。例えば、音合成装置100は、端末装置から受信した楽曲データDに応じた音響信号Vを生成し、当該音響信号Vを端末装置に送信する。端末装置から制御データC(C1,C2,C3)が送信される構成では、音合成装置100から制御データ生成部24が省略される。
(6)以上に例示した音合成装置100の機能は、前述の通り、制御装置11を構成する単数または複数のプロセッサと記憶装置12に記憶されたプログラム(例えば音合成プログラムG1および機械学習プログラムG2)との協働により実現される。本開示に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記憶装置が、前述の非一過性の記録媒体に相当する。
(7)推定モデルM(M1,M2,M3)を実現するための人工知能ソフトウェアの実行主体はCPUに限定されない。例えば、Tensor Processing UnitもしくはNeural Engine等のニューラルネットワーク専用の処理回路、または、人工知能に専用されるDSP(Digital Signal Processor)が、人工知能ソフトウェアを実行してもよい。また、以上の例示から選択された複数種の処理回路が協働して人工知能ソフトウェアを実行してもよい。
<付記>
以上に例示した形態から、例えば以下の構成が把握される。
以上に例示した形態から、例えば以下の構成が把握される。
本開示のひとつの態様(態様1)に係る情報処理方法は、第1制御データに基づいて時間変動成分を出力するようによく訓練された第1推定モデルを用いて、合成されるべき目標合成音の第1制御データを処理して、前記目標合成音の時間変動成分を生成し、第2制御データと時間変動成分とに基づいて特徴量の時系列を出力するようによく訓練された第2推定モデルを用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とを処理して、前記目標合成音の特徴量の時系列を生成する。以上の態様では、第1推定モデルを利用して第1制御データに応じた時間変動成分が生成され、第2推定モデルを利用して第2制御データと時間変動成分とに応じた特徴量の時系列が生成される。したがって、制御データと特徴量との関係を学習した単体の推定モデルを利用する場合と比較して、時間変動成分を豊富に含む特徴量の時系列を生成できる。
なお、「時間変動成分」は、合成されるべき目標合成音において時間的に変動する動的成分である。特徴量の時系列において時間的に変動する成分が「時間変動成分」に相当するが、当該特徴量とは別種の特徴量の時系列において時間的に変動する成分も「時間変動成分」の概念に包含される。例えば、特徴量の時系列において時間的な変動が緩慢である定常成分を想定すると、定常成分以外の動的成分が時間変動成分に相当する。第1制御データと第2制御データとの異同は不問である。
例えば、前記特徴量の時系列は、前記目標合成音の音高、音量および音色の少なくとも一つを示す。
例えば、前記特徴量の時系列は、前記目標合成音の音高、音量および音色の少なくとも一つを示す。
態様1の具体例(態様2)において、前記時間変動成分の生成においては、前記目標合成音の特徴量の時系列に関する時間変動成分を生成する。以上の態様では、第1推定モデルにより生成される時間変動成分が表す特徴量と第2推定モデルにより生成される特徴量とが同種の特徴量であるから、第2推定モデルにより生成される特徴量とは別種の特徴量の時間変動成分を第1推定モデルにより生成する場合と比較して、聴感的に自然に変動する特徴量の時系列を生成できる。
態様2の具体例(態様3)において、前記時間変動成分は、前記特徴量の時系列に関する微分値である。態様2の他の具体例(態様4)において、前記時間変動成分は、前記特徴量の時系列において所定の周波数を上回る成分である。
態様1から態様3の何れかの具体例(態様5)において、第3制御データと特徴量の時系列とに基づいて周波数特性を出力するようによく訓練された第3推定モデルを用いて、前記目標合成音の第3制御データと前記目標合成音の特徴量の時系列とを処理して前記目標合成音の周波数特性を生成する。第3制御データと第1制御データまたは第2制御データとの異同は不問である。
例えば、前記目標合成音の周波数特性は、前記目標合成音の周波数スペクトル又は前記目標合成音の振幅スペクトル包絡である。
例えば、前記情報処理方法は、前記目標合成音の周波数特性に基づき音響信号を生成する。
例えば、前記目標合成音の周波数特性は、前記目標合成音の周波数スペクトル又は前記目標合成音の振幅スペクトル包絡である。
例えば、前記情報処理方法は、前記目標合成音の周波数特性に基づき音響信号を生成する。
本開示のひとつの態様(態様6)に係る推定モデル構築方法は、収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成し、前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データを処理して前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築し、前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とを処理して前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する。以上の態様においては、第1制御データを処理して時間変動成分を出力する第1推定モデルと、第2制御データと当該時間変動成分とを処理して特徴量の時系列を出力する第2推定モデルとが構築される。したがって、制御データと特徴量との関係を学習した単体の推定モデルを構築する場合と比較して、時間変動成分を豊富に含む特徴量の時系列を生成できる。
態様7に係る情報処理装置は、第1制御データに基づいて時間変動成分を出力するようによく訓練された第1推定モデルを用いて、合成されるべき目標合成音の第1制御データに基づき、前記目標合成音の時間変動成分を生成する第1生成部と、第2制御データと時間変動成分とに基づいて特徴量の時系列を出力するようによく訓練された第2推定モデルを用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて、前記目標合成音の特徴量の時系列を生成する第2生成部と、を具備する。
態様8に係る推定モデル構築装置は、収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成する生成部と、前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データに基づいて前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部と、前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する第2訓練部と、を具備する。
態様9に係るプログラムは、第1制御データに基づいて時間変動成分を出力するようによく訓練された第1推定モデルを用いて、合成されるべき目標合成音の第1制御データに基づき、前記目標合成音の時間変動成分を生成する第1生成部、及び第2制御データと時間変動成分とに基づいて特徴量の時系列を出力するようによく訓練された第2推定モデルを用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて、前記目標合成音の特徴量の時系列を生成する第2生成部としてコンピュータを機能させる。
態様10に係るプログラムは、収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成する生成部、前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データに基づいて前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部、および、前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する第2訓練部としてコンピュータを機能させる。
本出願は、2019年9月26日出願の日本出願(特願2019-175436)に基づくものであり、その内容はここに参照として取り込まれる。
本開示の情報処理方法、推定モデル構築方法、情報処理装置、および推定モデル構築装置は、特徴量の時系列が時間変動成分を適切に含む高音質な合成音を生成することができる。
100…音合成装置
11…制御装置
12…記憶装置
13…放音装置
20…合成処理部
21…第1生成部
22…第2生成部
23…第3生成部
24…制御データ生成部
25…信号合成部
26…音源部
30…学習処理部
31…第1訓練部
32…第2訓練部
33…第3訓練部
34…訓練データ準備部
341…制御データ生成部
342…周波数解析部
343…変動抽出部
344…雑音付与部
M1…第1推定モデル
M2…第2推定モデル
M3…第3推定モデル
11…制御装置
12…記憶装置
13…放音装置
20…合成処理部
21…第1生成部
22…第2生成部
23…第3生成部
24…制御データ生成部
25…信号合成部
26…音源部
30…学習処理部
31…第1訓練部
32…第2訓練部
33…第3訓練部
34…訓練データ準備部
341…制御データ生成部
342…周波数解析部
343…変動抽出部
344…雑音付与部
M1…第1推定モデル
M2…第2推定モデル
M3…第3推定モデル
Claims (11)
- 第1制御データに基づいて時間変動成分を出力するように訓練された第1推定モデルを用いて、合成されるべき目標合成音の第1制御データを処理して、前記目標合成音の時間変動成分を生成し、
第2制御データと時間変動成分とに基づいて特徴量の時系列を出力するように訓練された第2推定モデルを用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とを処理して、前記目標合成音の特徴量の時系列を生成する、
情報処理方法。 - 前記特徴量の時系列は、前記目標合成音の音高、音量および音色の少なくとも一つを示す、
請求項1に記載の情報処理方法。 - 前記時間変動成分の生成においては、前記目標合成音の特徴量の時系列に関する時間変動成分を生成する、
請求項1又は2に記載の情報処理方法。 - 前記時間変動成分は、前記特徴量の時系列に関する微分値である、
請求項3に記載の情報処理方法。 - 前記時間変動成分は、前記特徴量の時系列において所定の周波数を上回る成分である、
請求項3に記載の情報処理方法。 - 第3制御データと特徴量の時系列とに基づいて周波数特性を出力するように訓練された第3推定モデルを用いて、前記目標合成音の第3制御データと前記目標合成音の特徴量の時系列とを処理して前記目標合成音の周波数特性を生成する、
請求項1から請求項5の何れかに記載の情報処理方法。 - 前記目標合成音の周波数特性は、前記目標合成音の周波数スペクトル又は前記目標合成音の振幅スペクトル包絡である、
請求項6に記載の情報処理方法。 - 前記目標合成音の周波数特性に基づき音響信号を生成する、
請求項6又は7に記載の情報処理方法。 - 収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成し、
前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データを処理して前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築し、
前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とを処理して前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する、
推定モデル構築方法。 - 第1制御データに基づいて時間変動成分を出力するように訓練された第1推定モデルを用いて、合成されるべき目標合成音の第1制御データに基づき、前記目標合成音の時間変動成分を生成する第1生成部と、
第2制御データと時間変動成分とに基づいて特徴量の時系列を出力するように訓練された第2推定モデルを用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて、前記目標合成音の特徴量の時系列を生成する第2生成部と、
を具備する情報処理装置。 - 収録された音を示す参照信号から訓練用の特徴量の時系列と訓練用の時間変動成分の時系列を生成する生成部と、
前記収録された音に対応する訓練用の第1制御データと前記訓練用の時間変動成分の時系列とを用いて、合成されるべき目標合成音の第1制御データに基づいて前記目標合成音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部と、
前記収録された音に対応する訓練用の第2制御データ、訓練用の時間変動成分の時系列、および訓練用の特徴量の時系列を用いて、前記目標合成音の第2制御データと前記目標合成音の時間変動成分とに基づいて前記目標合成音の特徴量の時系列を出力する第2推定モデルを機械学習により構築する第2訓練部と、
を具備する推定モデル構築装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202080064952.3A CN114402382A (zh) | 2019-09-26 | 2020-09-25 | 信息处理方法、推定模型构建方法、信息处理装置及推定模型构建装置 |
US17/698,601 US11875777B2 (en) | 2019-09-26 | 2022-03-18 | Information processing method, estimation model construction method, information processing device, and estimation model constructing device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-175436 | 2019-09-26 | ||
JP2019175436A JP7331588B2 (ja) | 2019-09-26 | 2019-09-26 | 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/698,601 Continuation US11875777B2 (en) | 2019-09-26 | 2022-03-18 | Information processing method, estimation model construction method, information processing device, and estimation model constructing device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021060493A1 true WO2021060493A1 (ja) | 2021-04-01 |
Family
ID=75157740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/036355 WO2021060493A1 (ja) | 2019-09-26 | 2020-09-25 | 情報処理方法、推定モデル構築方法、情報処理装置、および推定モデル構築装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11875777B2 (ja) |
JP (1) | JP7331588B2 (ja) |
CN (1) | CN114402382A (ja) |
WO (1) | WO2021060493A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7452162B2 (ja) * | 2020-03-25 | 2024-03-19 | ヤマハ株式会社 | 音信号生成方法、推定モデル訓練方法、音信号生成システム、およびプログラム |
WO2022244818A1 (ja) * | 2021-05-18 | 2022-11-24 | ヤマハ株式会社 | 機械学習モデルを用いた音生成方法および音生成装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013164609A (ja) * | 2013-04-15 | 2013-08-22 | Yamaha Corp | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
WO2019107378A1 (ja) * | 2017-11-29 | 2019-06-06 | ヤマハ株式会社 | 音声合成方法、音声合成装置およびプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4218624A (en) | 1977-05-31 | 1980-08-19 | Schiavone Edward L | Electrical vehicle and method |
WO2004068098A1 (ja) * | 2003-01-30 | 2004-08-12 | Fujitsu Limited | 音声パケット消失隠蔽装置,音声パケット消失隠蔽方法,受信端末および音声通信システム |
JP4218624B2 (ja) | 2004-10-18 | 2009-02-04 | ヤマハ株式会社 | 楽音データ生成方法及び装置 |
JP4124247B2 (ja) * | 2006-07-05 | 2008-07-23 | ヤマハ株式会社 | 楽曲練習支援装置、制御方法及びプログラム |
JP5834449B2 (ja) * | 2010-04-22 | 2015-12-24 | 富士通株式会社 | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
JP6268916B2 (ja) * | 2013-10-24 | 2018-01-31 | 富士通株式会社 | 異常会話検出装置、異常会話検出方法及び異常会話検出用コンピュータプログラム |
JP6798484B2 (ja) * | 2015-05-07 | 2020-12-09 | ソニー株式会社 | 情報処理システム、制御方法、およびプログラム |
CN106571146B (zh) * | 2015-10-13 | 2019-10-15 | 阿里巴巴集团控股有限公司 | 噪音信号确定方法、语音去噪方法及装置 |
JP6733644B2 (ja) * | 2017-11-29 | 2020-08-05 | ヤマハ株式会社 | 音声合成方法、音声合成システムおよびプログラム |
US11361021B2 (en) * | 2019-08-01 | 2022-06-14 | Meta Platform, Inc. | Systems and methods for music related interactions and interfaces |
-
2019
- 2019-09-26 JP JP2019175436A patent/JP7331588B2/ja active Active
-
2020
- 2020-09-25 CN CN202080064952.3A patent/CN114402382A/zh active Pending
- 2020-09-25 WO PCT/JP2020/036355 patent/WO2021060493A1/ja active Application Filing
-
2022
- 2022-03-18 US US17/698,601 patent/US11875777B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013164609A (ja) * | 2013-04-15 | 2013-08-22 | Yamaha Corp | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
WO2019107378A1 (ja) * | 2017-11-29 | 2019-06-06 | ヤマハ株式会社 | 音声合成方法、音声合成装置およびプログラム |
Non-Patent Citations (1)
Title |
---|
NAKAMURA, K. ET AL.: "Singing voice synthesis based on convolutional neural networks", ARXIV PREPRINT, ARXIV:1904.06868V2, 25 June 2019 (2019-06-25), XP081380820, Retrieved from the Internet <URL:http://arxiv.org/pdf/1904.06868.pdf> [retrieved on 20201014] * |
Also Published As
Publication number | Publication date |
---|---|
US11875777B2 (en) | 2024-01-16 |
JP7331588B2 (ja) | 2023-08-23 |
CN114402382A (zh) | 2022-04-26 |
JP2021051251A (ja) | 2021-04-01 |
US20220208175A1 (en) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111542875B (zh) | 声音合成方法、声音合成装置及存储介质 | |
EP3719795B1 (en) | Voice synthesizing method, voice synthesizing apparatus, and computer program | |
WO2020095950A1 (ja) | 情報処理方法および情報処理システム | |
WO2020171033A1 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
US11875777B2 (en) | Information processing method, estimation model construction method, information processing device, and estimation model constructing device | |
JP6737320B2 (ja) | 音響処理方法、音響処理システムおよびプログラム | |
US20210366454A1 (en) | Sound signal synthesis method, neural network training method, and sound synthesizer | |
JP6821970B2 (ja) | 音声合成装置および音声合成方法 | |
US20210350783A1 (en) | Sound signal synthesis method, neural network training method, and sound synthesizer | |
JP7147211B2 (ja) | 情報処理方法および情報処理装置 | |
JP2020166299A (ja) | 音声合成方法 | |
US20230016425A1 (en) | Sound Signal Generation Method, Estimation Model Training Method, and Sound Signal Generation System | |
WO2020241641A1 (ja) | 生成モデル確立方法、生成モデル確立システム、プログラムおよび訓練データ準備方法 | |
JP7107427B2 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
WO2020171035A1 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
US11756558B2 (en) | Sound signal generation method, generative model training method, sound signal generation system, and recording medium | |
WO2023171522A1 (ja) | 音響生成方法、音響生成システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20868909 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20868909 Country of ref document: EP Kind code of ref document: A1 |