WO2021114617A1 - 语音合成方法、装置、计算机设备及计算机可读存储介质 - Google Patents

语音合成方法、装置、计算机设备及计算机可读存储介质 Download PDF

Info

Publication number
WO2021114617A1
WO2021114617A1 PCT/CN2020/098887 CN2020098887W WO2021114617A1 WO 2021114617 A1 WO2021114617 A1 WO 2021114617A1 CN 2020098887 W CN2020098887 W CN 2020098887W WO 2021114617 A1 WO2021114617 A1 WO 2021114617A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
speech
speech synthesis
data sample
server
Prior art date
Application number
PCT/CN2020/098887
Other languages
English (en)
French (fr)
Inventor
吴华
罗幼樵
徐建超
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2021114617A1 publication Critical patent/WO2021114617A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers

Definitions

  • Speech synthesis is widely used in application scenarios such as intelligent reading and intelligent broadcasting. Such as playing the voice according to the text, or playing the preset voice in the specific process.
  • the inventor realizes that how to improve the accuracy and efficiency of speech synthesis has become an urgent problem to be solved.
  • the first obtaining module is configured to obtain the user's voice data sample in the voice server, the text data sample corresponding to the voice data sample, the voice type of the voice data sample, and the text to be synthesized;
  • the second obtaining module is configured to obtain the model parameters of the first speech synthesis model from the cloud server according to the speech type;
  • a training module configured to jointly train the second speech synthesis model using the speech data sample and the text data sample through the speech server and the cloud server to obtain a trained speech synthesis model
  • a third aspect of the present application provides a computer device that includes a processor, and the processor is configured to execute computer-readable instructions stored in a memory to implement the following steps:
  • target speech data is synthesized according to the text to be synthesized.
  • a fourth aspect of the present application provides a computer-readable storage medium having computer-readable instructions stored on the computer-readable storage medium, and when the computer-readable instructions are executed by a processor, the following steps are implemented:
  • Fig. 1 is a flowchart of a speech synthesis method provided by an embodiment of the present application.
  • Fig. 2 is a structural diagram of a speech synthesis device provided by an embodiment of the present application.
  • Fig. 3 is a schematic diagram of a computer device provided by an embodiment of the present application.
  • the speech synthesis method of the present application is applied to one or more computer devices.
  • the computer device is a device that can automatically perform numerical calculation and/or information processing in accordance with pre-set or stored instructions.
  • Its hardware includes, but is not limited to, a microprocessor and an application specific integrated circuit (ASIC) , Programmable Gate Array (Field-Programmable Gate Array, FPGA), Digital Processor (Digital Signal Processor, DSP), embedded equipment, etc.
  • ASIC application specific integrated circuit
  • FPGA Field-Programmable Gate Array
  • DSP Digital Processor
  • embedded equipment etc.
  • This application can be used in many general or special computer system environments or configurations. For example: personal computers, server computers, handheld devices or portable devices, tablet devices, multi-processor systems, microprocessor-based systems, set-top boxes, programmable consumer electronic devices, network PCs, small computers, large computers, including Distributed computing environment for any of the above systems or equipment, etc.
  • This application may be described in the general context of computer-executable instructions executed by a computer, such as a program module.
  • program modules include routines, programs, objects, components, data structures, etc. that perform specific tasks or implement specific abstract data types.
  • This application can also be practiced in distributed computing environments. In these distributed computing environments, tasks are performed by remote processing devices connected through a communication network.
  • program modules can be located in local and remote computer storage media including storage devices.
  • the computer device may be a computing device such as a desktop computer, a notebook, a palmtop computer, and a cloud server.
  • the computer device can interact with the user through a keyboard, a mouse, a remote control, a touch panel, or a voice control device.
  • FIG. 1 is a flowchart of a speech synthesis method provided in Embodiment 1 of the present application.
  • the speech synthesis method is applied to computer equipment for synthesizing speech data according to text.
  • the speech synthesis method specifically includes the following steps. According to different requirements, the order of the steps in the flowchart can be changed, and some can be omitted.
  • the voice server Before acquiring the user's voice data sample in the voice server, the text data sample corresponding to the voice data sample, the voice type of the voice data sample, and the text to be synthesized, the voice server Store the voice data sample, the text data sample, and the voice type in association; store the text to be synthesized in the voice server.
  • the text data sample input by the user, the voice type, and the voice data sample uploaded and entered can be associated and stored in the preset folder of the voice server, such as the text data sample, the voice type input by the user user001, and the upload entry
  • the voice data samples are stored in the folder ".../voiceSer/user001/flow1/".
  • flow1 is the application scenario corresponding to the text to be synthesized.
  • the text data sample, and the voice type in the voice server determine whether the voice data sample is correct; when the voice data sample is correct, in the voice server
  • the voice data sample, the text data sample, and the voice type are stored in association. Specifically, the voice data sample is recognized as the text data to be tested; when the text data to be tested is consistent with the text data sample, the voice data sample is correct; when the text data to be tested is consistent with the text When the data samples are inconsistent, the voice data samples are wrong.
  • receiving the text data sample input by the user through the voice recording interface includes:
  • the obtaining the voice data sample uploaded and entered by the user includes:
  • the voice data sample entered by the user is acquired through a recording device.
  • the voice type includes timbre, sound quality, bit rate, and so on.
  • the hyperparameters of the first speech synthesis model are consistent with the hyperparameters of the second speech model, that is, the structure and the number of neurons of the first speech synthesis model are consistent with the second speech model.
  • model parameters of the first speech synthesis model are model parameters encrypted by a preset encryption algorithm.
  • the first speech synthesis model and the second speech synthesis model are neural network models constructed based on a wavenet network.
  • the wavenet network is an autoregressive network based on CNN (Convolutional Neural Network).
  • the joint training of the second speech synthesis model by the speech server and the cloud server using the speech data sample and the text data sample includes:
  • the voice server uses the voice data sample and the text data sample to locally train the second voice synthesis model, update the parameters of the second voice synthesis model, and obtain updated model parameters.
  • the parameters of the second speech synthesis model can be optimized according to the voice data samples and the text data samples.
  • each voice server connected to the cloud server will also optimize the parameters of the speech synthesis model according to the samples in each voice server. The effect of simultaneously training the speech synthesis model using samples in each speech server is achieved.
  • the cloud server performs aggregation processing on the parameters uploaded by each voice server, and the aggregation processing may be a weighted average of the parameters uploaded by each voice server.
  • the cloud server to aggregate the parameters uploaded by each voice server, it is not necessary to obtain sample data of each voice server, and the data security and data privacy in each voice server are protected.
  • the parameters of the second speech synthesis model may be replaced with the aggregation parameters, so that the speech synthesis model after replacing the parameters (that is, the trained speech synthesis model) can synthesize speech more accurately.
  • the samples may be insufficient or the sample types are similar (such as the same voice, similar text), and the first Secondly, it is difficult to achieve good training effect for the speech synthesis model to be trained alone.
  • the training effects of each speech server can be integrated, and the aggregation parameters can be used in the trained speech synthesis model to improve the training results. The quality of the speech synthesized by the speech synthesis model.
  • the local training of the second speech synthesis model by the speech server using the speech data sample and the text data sample includes:
  • the model parameters of the second speech synthesis model are optimized based on the back propagation algorithm according to the acoustic feature sequence and the intermediate feature sequence.
  • the text parameters of the text data sample include the pitch, prosody, syllable, etc. of the word.
  • the preset text analysis model can analyze the pitch, prosody, syllable and other information of all words contained in the text, and generate corresponding text parameters (which can be expressed in the form of annotated files with context information).
  • the obtained text parameters can be converted into synthesized speech through the speech synthesis model.
  • the preset text analysis model uses the initials and vowels of Mandarin Chinese as the basic unit of speech synthesis, and (based on grammar dictionary and grammar rule library), through text standardization, grammatical analysis, prosody prediction analysis, and character-to-sound conversion, the sentence information and words of the text are obtained in turn.
  • the generating the acoustic feature sequence of the voice data sample according to the voice data sample includes:
  • the acoustic characteristics include the fundamental frequency, energy, and Mel frequency cepstrum coefficients
  • the acoustic features of each voice frame are sorted in time sequence to generate the acoustic feature sequence of the voice data sample.
  • the synthesizing target speech data according to the text to be synthesized based on the trained speech synthesis model includes:
  • the speech synthesis method of the first embodiment uses the model parameters of the first speech synthesis model to initialize the local second speech synthesis model, and the hyperparameters of the first speech synthesis model are consistent with the hyperparameters of the second speech model;
  • the voice server and the cloud server jointly train the second voice synthesis model by using the voice data sample and the text data sample to obtain a trained voice synthesis model, which improves the training of the voice synthesis model effectiveness.
  • target speech data is synthesized according to the text to be synthesized, which improves the accuracy of speech synthesis. Therefore, the present application realizes the synthesis of speech data according to the text, which improves the accuracy and efficiency of speech synthesis.
  • the method further includes:
  • Fig. 2 is a structural diagram of a speech synthesis device provided in the second embodiment of the present application.
  • the speech synthesis device 20 is applied to computer equipment.
  • the speech synthesis device 20 is used for synthesizing speech data according to text.
  • the first obtaining module 201 is configured to obtain a user's voice data sample in a voice server, a text data sample corresponding to the voice data sample, the voice type of the voice data sample, and the text to be synthesized.
  • the voice server Before acquiring the user's voice data sample in the voice server, the text data sample corresponding to the voice data sample, the voice type of the voice data sample, and the text to be synthesized, the voice server Store the voice data sample, the text data sample, and the voice type in association; store the text to be synthesized in the voice server.
  • the associated storage of the voice data sample, the text data sample, and the voice type in the voice server includes:
  • the text data sample input by the user, the voice type, and the uploaded voice data sample are stored in the voice server in association.
  • the text data sample input by the user, the voice type, and the voice data sample uploaded and entered can be associated and stored in the preset folder of the voice server, such as the text data sample, the voice type input by the user user001, and the upload entry
  • the voice data samples are stored in the folder ".../voiceSer/user001/flow1/".
  • flow1 is the application scenario corresponding to the text to be synthesized.
  • receiving the text data sample input by the user through the voice recording interface includes:
  • the obtaining the voice data sample uploaded and entered by the user includes:
  • the voice data sample entered by the user is acquired through a recording device.
  • the second obtaining module 202 is configured to obtain the model parameters of the first speech synthesis model from the cloud server according to the speech type.
  • the voice type includes timbre, sound quality, bit rate, and so on.
  • the voice types also include female voices, male voices, virgin voices, and virgin voices.
  • the obtaining the model parameters of the first speech synthesis model from a cloud server according to the speech type includes:
  • the association relationship between the voice type and the speech synthesis model obtained according to the voice type is "boy-speech synthesis model 002"; the model parameters of the first speech synthesis model (speech synthesis model 002) are obtained from the cloud server according to the association relationship .
  • the voices of different genders and ages are quite different, and different voices can be used to train corresponding speech synthesis models.
  • the frequency of female voices is generally higher than that of male voices, which acoustically corresponds to the difference in fundamental frequency characteristics. Therefore, the model parameters of the first speech synthesis model are obtained from the cloud server according to the voice type, that is, different fundamental frequency characteristic parameters are used for different sound categories, such as the upper and lower limits of the fundamental frequency characteristic.
  • the current user uploads fewer speech data samples.
  • the speech data of other users with the same speech type can be combined as the training data of the speech synthesis model.
  • the initialization module 203 is configured to initialize a local second speech synthesis model with the model parameters of the first speech synthesis model, and the hyperparameters of the first speech synthesis model are consistent with the hyperparameters of the second speech model.
  • the first speech synthesis model may be a speech synthesis model that has been trained for multiple iterations, and the preset condition is not reached, and training needs to be continued.
  • the preset conditions include reaching a convergence condition, reaching a preset number of training times, and reaching a preset synthesis accuracy.
  • the hyperparameters of the first speech synthesis model are consistent with the hyperparameters of the second speech model, that is, the structure and the number of neurons of the first speech synthesis model are consistent with the second speech model.
  • the first speech synthesis model and the second speech synthesis model are neural network models constructed based on a wavenet network.
  • the wavenet network is an autoregressive network based on CNN (Convolutional Neural Network).
  • the training module 204 is configured to jointly train the second speech synthesis model using the speech data sample and the text data sample through the speech server and the cloud server to obtain a trained speech synthesis model.
  • the joint training of the second speech synthesis model by the speech server and the cloud server using the speech data sample and the text data sample includes:
  • the voice server uses the voice data sample and the text data sample to locally train the second voice synthesis model, update the parameters of the second voice synthesis model, and obtain updated model parameters.
  • the parameters of the second speech synthesis model can be optimized according to the voice data samples and the text data samples.
  • each voice server connected to the cloud server will also optimize the parameters of the speech synthesis model according to the samples in each voice server. The effect of simultaneously training the speech synthesis model using samples in each speech server is achieved.
  • the cloud server performs aggregation processing on the parameters uploaded by each voice server, and the aggregation processing may be a weighted average of the parameters uploaded by each voice server.
  • the cloud server to aggregate the parameters uploaded by each voice server, it is not necessary to obtain sample data of each voice server, and the data security and data privacy in each voice server are protected.
  • the parameters of the second speech synthesis model may be replaced with the aggregation parameters, so that the speech synthesis model after replacing the parameters (that is, the trained speech synthesis model) can synthesize speech more accurately.
  • the samples may be insufficient or the sample types are similar (such as the same voice, similar text), and the first Secondly, it is difficult to achieve good training effect for the speech synthesis model to be trained alone.
  • the training effects of each speech server can be integrated, and the aggregation parameters can be used in the trained speech synthesis model to improve the training results. The quality of the speech synthesized by the speech synthesis model.
  • the local training of the second speech synthesis model by the speech server using the speech data sample and the text data sample includes:
  • the model parameters of the second speech synthesis model are optimized based on the back propagation algorithm according to the acoustic feature sequence and the intermediate feature sequence.
  • the text parameters of the text data sample include the pitch, prosody, syllable, etc. of the word.
  • the preset text analysis model can analyze the pitch, prosody, syllable and other information of all words contained in the text, and generate corresponding text parameters (which can be expressed in the form of annotated files with context information).
  • the obtained text parameters can be converted into synthesized speech through the speech synthesis model.
  • the preset text analysis model uses the initials and vowels of Mandarin Chinese as the basic unit of speech synthesis, and (based on grammar dictionary and grammar rule library), through text standardization, grammatical analysis, prosody prediction analysis, and character-to-sound conversion, the sentence information and words of the text are obtained in turn.
  • the final generated text parameters include the characters in the text Monophone labeling of words and context-sensitive labeling.
  • the acoustic characteristics include the fundamental frequency, energy, and Mel frequency cepstrum coefficients
  • the acoustic features of each voice frame are sorted in time sequence to generate the acoustic feature sequence of the voice data sample.
  • the synthesis module 205 is configured to synthesize target speech data according to the text to be synthesized based on the trained speech synthesis model.
  • the target voice data is generated according to the acoustic feature sequence of the target voice data.
  • the speech synthesis device 20 of the second embodiment uses the model parameters of the first speech synthesis model to initialize the local second speech synthesis model, and the hyperparameters of the first speech synthesis model are consistent with the hyperparameters of the second speech model;
  • the second speech synthesis model is jointly trained by the speech server and the cloud server using the speech data sample and the text data sample to obtain a trained speech synthesis model, which improves the training of the speech synthesis model s efficiency.
  • target speech data is synthesized according to the text to be synthesized, which improves the accuracy of speech synthesis. Therefore, the present application realizes the synthesis of speech data according to the text, which improves the accuracy and efficiency of speech synthesis.
  • the speech synthesis device 20 further includes a broadcasting module for synchronizing the target voice data from the voice server to a broadcasting server; controlling the broadcasting server to perform voice broadcasting according to the target voice data .
  • the broadcasting module is further configured to send the to-be-synthesized text and the model parameters of the trained speech synthesis model to the broadcasting server;
  • This embodiment provides a computer-readable storage medium having computer-readable instructions stored thereon.
  • the computer-readable storage medium may be non-volatile or volatile.
  • the steps in the above-mentioned speech synthesis method embodiment are implemented, for example, steps 101-105 shown in FIG. 1:

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)

Abstract

一种语音合成方法、装置、计算机设备及计算机可读存储介质。所述语音合成方法获取语音服务器中用户的语音数据样本、语音数据样本对应的文本数据样本、语音数据样本的语音类型和待合成文本(101);根据语音类型从云服务器获取第一语音合成模型的模型参数(102);用第一语音合成模型的模型参数初始化本地的第二语音合成模型,第一语音合成模型的超参数与第二语音模型的超参数一致(103);通过语音服务器和云服务器用语音数据样本和文本数据样本联合训练第二语音合成模型,得到训练后的语音合成模型(104);基于训练后的语音合成模型,根据待合成文本合成目标语音数据(105)。该方法提升了语音合成的准确率和效率。

Description

语音合成方法、装置、计算机设备及计算机可读存储介质
本申请要求于2020年05月28日提交中国专利局,申请号为202010470714.4申请名称为“语音合成方法、装置、计算机设备及计算机可读存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人工智能技术领域,具体涉及一种语音合成方法、装置、计算机设备及计算机可读存储介质。
背景技术
语音合成被广泛运用于智能阅读、智能播报等应用场景。如根据文本播放语音,或在具体流程中播放预设语音。
发明人意识到如何提升语音合成的准确率和效率成为亟待解决的问题。
发明内容
鉴于以上内容,有必要提出一种语音合成方法、装置、计算机设备及计算机可读存储介质,其可以根据文本合成语音数据。
本申请的第一方面提供一种语音合成方法,所述语音合成方法包括:
获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
本申请的第二方面提供一种语音合成装置,所述语音合成装置包括:
第一获取模块,用于获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
第二获取模块,用于根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
初始化模块,用于用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
训练模块,用于通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
合成模块,用于基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
本申请的第三方面提供一种计算机设备,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机可读指令以实现以下步骤:
获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
本申请的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现以下步骤:
获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
本申请用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型,提升了对所述语音合成模型进行训练的效率。基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据,提升了语音合成的准确率。因此,本申请实现了根据文本合成语音数据,提升了语音合成的准确率和效率。
附图说明
图1是本申请实施例提供的语音合成方法的流程图。
图2是本申请实施例提供的语音合成装置的结构图。
图3是本申请实施例提供的计算机设备的示意图。
具体实施方式
为了能够更清楚地理解本申请的上述目的、特征和优点,下面结合附图和具体实施例对本申请进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本申请,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
优选地,本申请的语音合成方法应用在一个或者多个计算机设备中。所述计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任 何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例一
图1是本申请实施例一提供的语音合成方法的流程图。所述语音合成方法应用于计算机设备,用于根据文本合成语音数据。
所述语音合成方法具体包括以下步骤,根据不同的需求,该流程图中步骤的顺序可以改变,某些可以省略。
101,获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本。
在一具体实施例中,在所述获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本之前,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型;在所述语音服务器中存储所述待合成文本。
具体地,所述在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型包括:
向所述用户提供语音录制界面;
通过所述语音录制界面接收所述用户输入的文本数据样本和语音类型,获取所述用户上传录入的语音数据样本;
将所述用户输入的文本数据样本、语音类型和上传录入的语音数据样本关联存储至所述语音服务器。
可以将所述用户输入的文本数据样本、语音类型和上传录入的语音数据样本关联存储至所述语音服务器的预设文件夹中,如将用户user001用户输入的文本数据样本、语音类型和上传录入的语音数据样本存储在文件夹“…/voiceSer/user001/flow1/”中。其中,flow1为所述待合成文本对应的应用场景。
在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型之前,判断所述语音数据样本是否正确;当所述语音数据样本正确时,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型。具体地,将所述语音数据样本识别为待检验文本数据;当所述待检验文本数据与所述文本数据样本一致时,所述语音数据样本正确;当所述待检验文本数据与所述文本数据样本不一致时,所述语音数据样本错误。
在一具体实施例中,通过所述语音录制界面接收所述用户输入的文本数据样本包括:
通过所述语音录制界面接收所述用户自定义输入的文本数据样本;或者
通过所述语音录制界面接收所述用户从多个预设文本数据样本中选择的目标预设文本数据样本。
在一具体实施例中,所述获取所述用户上传录入的语音数据样本包括:
在所述语音录制界面展现所述文本数据样本;
当所述用户朗读所述文本数据样本时,通过录音设备获取所述用户录入的语音数据样本。
102,根据所述语音类型从云服务器获取第一语音合成模型的模型参数。
所述语音类型包括音色、音质、比特率等。
所述语音类型还包括女声、男声、童声女、童声男等。
在一具体实施例中,所述根据所述语音类型从云服务器获取第一语音合成模型的模型参数包括:
根据所述语音类型获取所述语音类型与语音合成模型的关联关系;
根据所述关联关系从所述云服务器获取所述第一语音合成模型的模型参数。
例如,根据语音类型(男声)获取所语音类型与语音合成模型的关联关系为“男生-语音合成模型002”;根据关联关系从云服务器获取第一语音合成模型(语音合成模型002)的模型参数。
不同性别、年龄的声音区别较大,可以用不同声音训练相应的语音合成模型。比如,女声比男声的频率普遍地高一些,在声学上对应于基频特征上的差异。因此根据所述语音类型从云服务器获取第一语音合成模型的模型参数,即对于不同的声音类别采用不同的基频特征参数,例如基频特征的上、下限。另外,在进行语音合成模型的训练时,当前用户上传的语音数据样本较少,为了提高语音合成模型的准确度,可以结合语音类型一致的其他用户的语音数据作为语音合成模型的训练数据。
103,用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致。
所述第一语音合成模型可以是经过多次迭代训练的语音合成模型,且没有达到预设条件,还需要继续训练。所述预设条件包括达到收敛条件、达到预设训练次数、达到预设合成精度。
所述第一语音合成模型的超参数与所述第二语音模型的超参数一致,即所述第一语音合成模型的结构、神经元数量等与所述第二语音模型一致。
在一具体实施例中,所述第一语音合成模型的模型参数是经过预设加密算法加密后的模型参数。
在一具体实施例中,所述第一语音合成模型和所述第二语音合成模型是基于wavenet网络构建而成的神经网络模型。wavenet网络是一种基于CNN(卷积神经网络)的自回归网络。
104,通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型。
在一具体实施例中,所述通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型包括:
(1)通过所述语音服务器用所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练,更新所述第二语音合成模型的参数,得到更新后的模型参数。
通过本地训练可以根据所述语音数据样本和所述文本数据样本优化所述第二语音合成模型的参数。同时,与所述云服务器相连的各个语音服务器也会根据各个语音服务器中的样本优化语音合成模型的参数。达到了利用各个语音服务器中的样本同时训练语音合成模型的效果。
(2)通过所述语音服务器将所述更新后的模型参数上传至所述云服务器,使所述云服务器对各个语音服务器上传的参数进行聚合处理,得到聚合参数。
所述云服务器对各个语音服务器上传的参数进行聚合处理,聚合处理可以是对各个语音服务器上传的参数进行加权平均。通过所述云服务器对各个语音服务器上传的参数进行聚合处理,可以不用获取各个语音服务器的样本数据,保护了各个语音服务器中的数据安全性及数据隐私。
(3)用所述语音服务器接收所述云服务器下发的所述聚合参数,用所述聚合参数更新所述第二语音合成模型的参数,得到所述训练后的语音合成模型。
具体地,可以用所述聚合参数替换所述第二语音合成模型的参数,使替换参数后的语音合成模型(即所述训练后的语音合成模型)能够更加准确地合成语音。因为通过所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练具有局限性,样本可能不充足或样本类型相近(如相同声音、近似的文本),对所述第二语音合成模型进行单独训练难以达到较好的训练效果。通过用所述聚合参数更新所述第二语音合成模型的参数,可以综合各个语音服务器的训练效果,在所述训练后的语音合成模型中使用所述聚合参数,可以提升通过所述训练后的语音合成模型合成的语音的质量。
在一具体实施例中,所述通过所述语音服务器用所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练包括:
使用预设文本解析模型对所述文本数据样本进行解析,获得所述文本数据样本对应的文本参数;
根据所述语音数据样本生成所述语音数据样本的声学特征序列;
将所述文本数据样本对应的文本参数输入所述第二语音合成模型,通过所述第二语音合成模型计算中间特征序列;
根据所述声学特征序列和所述中间特征序列基于反向传播算法优化所述第二语音合成模型的模型参数。
所述文本数据样本的文本参数包括字词的音调、韵律、音节等。所述预设文本解析模型可以解析文本中所包含的所有字词的音调、韵律、音节等信息,并生成相应的文本参数(可以使用语境信息标注文件的形式表现)。获得的文本参数可以通过语音合成模型转换成合成语音。所述预设文本解析模型以汉语普通话的声韵母为语音合成基元,(基于语法词典、语法规则库)通过文本规范化、语法分析、韵律预测分析、字音转换,依次获得文本的语句信息、词信息、韵律结构信息和每个汉字的声韵母;从而获得文本的语音合成基元(声韵母)的信息以及每个语音合成基元的上下文相关信息,最终生成的文本参数包括了文本中各字词的单音素标注和上下文相关的标注。
在一具体实施例中,所述根据所述语音数据样本生成所述语音数据样本的声学特征序列包括:
将所述语音数据样本切分为多个语音帧;
分别计算各个语音帧的声学特征,声学特征包括基频、能量、梅尔频率倒谱系数;
将各个语音帧的声学特征按时序排序,生成所述语音数据样本的声学特征序列。
105,基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
在一具体实施例中,所述基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据包括:
使用预设文本解析模型对所述待合成文本进行解析,获得所述待合成文本对应的文本参数;
将所述待合成文本对应的文本参数输入所述训练后的语音合成模型,获得所述目标语音数据的声学特征序列;
根据所述目标语音数据的声学特征序列生成所述目标语音数据。
实施例一的语音合成方法用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型,提升了对所述语音合成模型进行训练的效率。基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据,提升了语音合成的准确率。因此,本申请实现了根据文本合成语音数据,提升了语音合成的准确率和效率。
在另一实施例中,所述方法还包括:
将所述目标语音数据从所述语音服务器同步至播报服务器;
控制所述播报服务器根据所述目标语音数据进行语音播报。
在另一实施例中,所述方法还包括:
将所述待合成文本和所述训练后的语音合成模型的模型参数发送至播报服务器;
控制所述播报服务器用本地的语音合成模型,根据所述待合成文本和所述训练后的语音合成模型的模型参数合成所述目标语音数据;
控制所述播报服务器根据所述目标语音数据进行语音播报。
实施例二
图2是本申请实施例二提供的语音合成装置的结构图。所述语音合成装置20应用于计算机设备。所述语音合成装置20用于用于根据文本合成语音数据。
如图2所示,所述语音合成装置20可以包括第一获取模块201、第二获取模块202、初始化模块203、训练模块204、合成模块205。
第一获取模块201,用于获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本。
在一具体实施例中,在所述获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本之前,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型;在所述语音服务器中存储所述待合成文本。
具体地,所述在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型包括:
向所述用户提供语音录制界面;
通过所述语音录制界面接收所述用户输入的文本数据样本和语音类型,获取所述用户上传录入的语音数据样本;
将所述用户输入的文本数据样本、语音类型和上传录入的语音数据样本关联存储至所述语音服务器。
可以将所述用户输入的文本数据样本、语音类型和上传录入的语音数据样本关联存储至所述语音服务器的预设文件夹中,如将用户user001用户输入的文本数据样本、语音类型和上传录入的语音数据样本存储在文件夹“…/voiceSer/user001/flow1/”中。其中,flow1为所述待合成文本对应的应用场景。
在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型之前,判断所述语音数据样本是否正确;当所述语音数据样本正确时,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型。具体地,将所述语音数据样本识别为待检验文本数据;当所述待检验文本数据与所述文本数据样本一致时,所述语音数据样本正确;当所述待检验文本数据与所述文本数据样本不一致时,所述语音数据样本错误。
在一具体实施例中,通过所述语音录制界面接收所述用户输入的文本数据样本包括:
通过所述语音录制界面接收所述用户自定义输入的文本数据样本;或者
通过所述语音录制界面接收所述用户从多个预设文本数据样本中选择的目标预设文本数据样本。
在一具体实施例中,所述获取所述用户上传录入的语音数据样本包括:
在所述语音录制界面展现所述文本数据样本;
当所述用户朗读所述文本数据样本时,通过录音设备获取所述用户录入的语音数据样本。
第二获取模块202,用于根据所述语音类型从云服务器获取第一语音合成模型的模型参数。
所述语音类型包括音色、音质、比特率等。
所述语音类型还包括女声、男声、童声女、童声男等。
在一具体实施例中,所述根据所述语音类型从云服务器获取第一语音合成模型的模型参数包括:
根据所述语音类型获取所述语音类型与语音合成模型的关联关系;
根据所述关联关系从所述云服务器获取所述第一语音合成模型的模型参数。
例如,根据语音类型(男声)获取所语音类型与语音合成模型的关联关系为“男生-语音合成模型002”;根据关联关系从云服务器获取第一语音合成模型(语音合成模型002)的模型参数。
不同性别、年龄的声音区别较大,可以用不同声音训练相应的语音合成模型。比如,女声比男声的频率普遍地高一些,在声学上对应于基频特征上的差异。因此根据所述语音类型从云服务器获取第一语音合成模型的模型参数,即对于不同的声音类别采用不同的基频特征参数,例如基频特征的上、下限。另外,在进行语音合成模型的训练时,当前用户上传的语音数据样本较少,为了提高语音合成模型的准确度,可以结合语音类型一致的其他用户的语音数据作为语音合成模型的训练数据。
初始化模块203,用于用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致。
所述第一语音合成模型可以是经过多次迭代训练的语音合成模型,且没有达到预设条件,还需要继续训练。所述预设条件包括达到收敛条件、达到预设训练次数、达到预设合成精度。
所述第一语音合成模型的超参数与所述第二语音模型的超参数一致,即所述第一语音合成模型的结构、神经元数量等与所述第二语音模型一致。
在一具体实施例中,所述第一语音合成模型的模型参数是经过预设加密算法加密后的模型参数。
在一具体实施例中,所述第一语音合成模型和所述第二语音合成模型是基于wavenet网络构建而成的神经网络模型。wavenet网络是一种基于CNN(卷积神经网络)的自回归网络。
训练模块204,用于通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型。
在一具体实施例中,所述通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型包括:
(1)通过所述语音服务器用所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练,更新所述第二语音合成模型的参数,得到更新后的模型参数。
通过本地训练可以根据所述语音数据样本和所述文本数据样本优化所述第二语音合成模型的参数。同时,与所述云服务器相连的各个语音服务器也会根据各个语音服务器中的样本优化语音合成模型的参数。达到了利用各个语音服务器中的样本同时训练语音合成模型的效果。
(2)通过所述语音服务器将所述更新后的模型参数上传至所述云服务器,使所述云服务器对各个语音服务器上传的参数进行聚合处理,得到聚合参数。
所述云服务器对各个语音服务器上传的参数进行聚合处理,聚合处理可以是对各个语音服务器上传的参数进行加权平均。通过所述云服务器对各个语音服务器上传的参数进行聚合处理,可以不用获取各个语音服务器的样本数据,保护了各个语音服务器中的数据安全性及数据隐私。
(3)用所述语音服务器接收所述云服务器下发的所述聚合参数,用所述聚合参数更新所述第二语音合成模型的参数,得到所述训练后的语音合成模型。
具体地,可以用所述聚合参数替换所述第二语音合成模型的参数,使替换参数后的语音合成模型(即所述训练后的语音合成模型)能够更加准确地合成语音。因为通过所 述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练具有局限性,样本可能不充足或样本类型相近(如相同声音、近似的文本),对所述第二语音合成模型进行单独训练难以达到较好的训练效果。通过用所述聚合参数更新所述第二语音合成模型的参数,可以综合各个语音服务器的训练效果,在所述训练后的语音合成模型中使用所述聚合参数,可以提升通过所述训练后的语音合成模型合成的语音的质量。
在一具体实施例中,所述通过所述语音服务器用所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练包括:
使用预设文本解析模型对所述文本数据样本进行解析,获得所述文本数据样本对应的文本参数;
根据所述语音数据样本生成所述语音数据样本的声学特征序列;
将所述文本数据样本对应的文本参数输入所述第二语音合成模型,通过所述第二语音合成模型计算中间特征序列;
根据所述声学特征序列和所述中间特征序列基于反向传播算法优化所述第二语音合成模型的模型参数。
所述文本数据样本的文本参数包括字词的音调、韵律、音节等。所述预设文本解析模型可以解析文本中所包含的所有字词的音调、韵律、音节等信息,并生成相应的文本参数(可以使用语境信息标注文件的形式表现)。获得的文本参数可以通过语音合成模型转换成合成语音。所述预设文本解析模型以汉语普通话的声韵母为语音合成基元,(基于语法词典、语法规则库)通过文本规范化、语法分析、韵律预测分析、字音转换,依次获得文本的语句信息、词信息、韵律结构信息和每个汉字的声韵母;从而获得文本的语音合成基元(声韵母)的信息以及每个语音合成基元的上下文相关信息,最终生成的文本参数包括了文本中各字词的单音素标注和上下文相关的标注。
在一具体实施例中,所述根据所述语音数据样本生成所述语音数据样本的声学特征序列包括:
将所述语音数据样本切分为多个语音帧;
分别计算各个语音帧的声学特征,声学特征包括基频、能量、梅尔频率倒谱系数;
将各个语音帧的声学特征按时序排序,生成所述语音数据样本的声学特征序列。
合成模块205,用于基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
在一具体实施例中,所述基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据包括:
使用预设文本解析模型对所述待合成文本进行解析,获得所述待合成文本对应的文本参数;
将所述待合成文本对应的文本参数输入所述训练后的语音合成模型,获得所述目标语音数据的声学特征序列;
根据所述目标语音数据的声学特征序列生成所述目标语音数据。
实施例二的语音合成装置20用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型,提升了对所述语音合成模型进行训练的效率。基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据,提升了语音合成的准确率。因此,本申请实现了根据文本合成语音数据,提升了语音合成的准确率和效率。
在另一实施例中,所述语音合成装置20还包括播报模块,用于将所述目标语音数据从所述语音服务器同步至播报服务器;控制所述播报服务器根据所述目标语音数据进行语音播报。
在另一实施例中,所述播报模块还用于将所述待合成文本和所述训练后的语音合成模型的模型参数发送至播报服务器;
控制所述播报服务器用本地的语音合成模型,根据所述待合成文本和所述训练后的语音合成模型的模型参数合成所述目标语音数据;
控制所述播报服务器根据所述目标语音数据进行语音播报。
实施例三
本实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机可读指令,所述计算机可读存储介质可以是非易失性,也可以是易失性。该计算机可读指令被处理器执行时实现上述语音合成方法实施例中的步骤,例如图1所示的步骤101-105:
101,获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
102,根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
103,用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
104,通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
105,基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
或者,该计算机可读指令被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-205:
第一获取模块201,用于获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
第二获取模块202,用于根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
初始化模块203,用于用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
训练模块204,用于通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
合成模块205,用于基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
实施例四
图3为本申请实施例四提供的计算机设备的示意图。所述计算机设备30包括存储器301、处理器302以及存储在所述存储器301中并可在所述处理器302上运行的计算机可读指令303,例如语音合成程序。所述处理器302执行所述计算机可读指令303时实现上述语音合成方法实施例中的步骤,例如图1所示的步骤101-105:
101,获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
102,根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
103,用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
104,通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
105,基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
或者,该计算机可读指令被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-205:
第一获取模块201,用于获取语音服务器中用户的语音数据样本、所述语音数据样 本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
第二获取模块202,用于根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
初始化模块203,用于用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
训练模块204,用于通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
合成模块205,用于基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
示例性的,所述计算机可读指令303可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器301中,并由所述处理器302执行,以完成本方法。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机可读指令303在所述计算机设备30中的执行过程。例如,所述计算机可读指令303可以被分割成图2中的第一获取模块201、第二获取模块202、初始化模块203、训练模块204、合成模块205,各模块具体功能参见实施例二。
所述计算机设备30可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图3仅仅是计算机设备30的示例,并不构成对计算机设备30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机设备30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器302可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器302也可以是任何常规的处理器等,所述处理器302是所述计算机设备30的控制中心,利用各种接口和线路连接整个计算机设备30的各个部分。
所述存储器301可用于存储所述计算机可读指令303,所述处理器302通过运行或执行存储在所述存储器301内的计算机可读指令或模块,以及调用存储在存储器301内的数据,实现所述计算机设备30的各种功能。所述存储器301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备30的使用所创建的数据等。此外,存储器301可以包括硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)或其他非易失性/易失性存储器件。
所述计算机设备30集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是非易失性,也可以是易失性。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机可读指令可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机可读指令的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、只读存储器(ROM)、随机存取存储器(RAM)。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块 的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述语音合成方法的部分步骤。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他模块或步骤,单数不排除复数。系统权利要求中陈述的多个模块或装置也可以由一个模块或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本申请的技术方案而非限制,尽管参照较佳实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,可以对本申请的技术方案进行修改或等同替换,而不脱离本申请技术方案的精神和范围。

Claims (22)

  1. 一种语音合成方法,所述语音合成方法包括:
    获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
    根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
    用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
    通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
    基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
  2. 如权利要求1所述的语音合成方法,其中,在所述获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本之前,所述方法还包括:
    在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型;
    在所述语音服务器中存储所述待合成文本。
  3. 如权利要求2所述的语音合成方法,其中,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型之前,所述方法还包括:
    判断所述语音数据样本是否正确;
    当所述语音数据样本正确时,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型。
  4. 如权利要求1所述的语音合成方法,其中,所述根据所述语音类型从云服务器获取第一语音合成模型的模型参数包括:
    根据所述语音类型获取所述语音类型与语音合成模型的关联关系;
    根据所述关联关系从所述云服务器获取所述第一语音合成模型的模型参数。
  5. 如权利要求1所述的语音合成方法,其中,所述通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型包括:
    通过所述语音服务器用所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练,更新所述第二语音合成模型的参数,得到更新后的模型参数;
    通过所述语音服务器将所述更新后的模型参数上传至所述云服务器,使所述云服务器对各个语音服务器上传的参数进行聚合处理,得到聚合参数;
    用所述语音服务器接收所述云服务器下发的所述聚合参数,用所述聚合参数更新所述第二语音合成模型的参数,得到所述训练后的语音合成模型。
  6. 如权利要求1-5中任一项所述语音合成方法,其中,所述语音合成方法还包括:
    将所述目标语音数据从所述语音服务器同步至播报服务器;
    控制所述播报服务器根据所述目标语音数据进行语音播报。
  7. 如权利要求1-5中任一项所述语音合成方法,其中,所述语音合成方法还包括:
    将所述待合成文本和所述训练后的语音合成模型的模型参数发送至播报服务器;
    控制所述播报服务器用本地的语音合成模型,根据所述待合成文本和所述训练后的语音合成模型的模型参数合成所述目标语音数据;
    控制所述播报服务器根据所述目标语音数据进行语音播报。
  8. 一种语音合成装置,其中,所述语音合成装置包括:
    获取模块,用于获取样本数据和所述样本数据的标识码;
    转化模块,用于将所述样本数据转化为向量,得到所述样本数据的向量表示;
    编码模块,用于对所述向量表示进行编码,得到所述样本数据的特征向量;
    传输模块,用于将所述特征向量和所述标识码传输给数据请求端,使所述数据请求端根据所述标识码查找所述样本数据的标签,根据所述特征向量和所述标签进行语音合成模型训练。
  9. 一种计算机设备,其中,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机可读指令以实现以下步骤:
    第一获取模块,用于获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
    第二获取模块,用于根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
    初始化模块,用于用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
    训练模块,用于通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
    合成模块,用于基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
  10. 如权利要求9所述的计算机设备,其中,在所述获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本之前,所述处理器执行所述存储器中存储的计算机可读指令还用以实现以下步骤:
    在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型;
    在所述语音服务器中存储所述待合成文本。
  11. 如权利要求10所述的计算机设备,其中,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型之前,所述处理器执行所述存储器中存储的计算机可读指令还用以实现以下步骤:
    判断所述语音数据样本是否正确;
    当所述语音数据样本正确时,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型。
  12. 如权利要求9所述的计算机设备,其中,所述处理器执行所述存储器中存储的计算机可读指令以实现所述根据所述语音类型从云服务器获取第一语音合成模型的模型参数时,包括:
    根据所述语音类型获取所述语音类型与语音合成模型的关联关系;
    根据所述关联关系从所述云服务器获取所述第一语音合成模型的模型参数。
  13. 如权利要求9所述的计算机设备,其中,所述处理器执行所述存储器中存储的计算机可读指令以实现所述通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型时,包括:
    通过所述语音服务器用所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练,更新所述第二语音合成模型的参数,得到更新后的模型参数;
    通过所述语音服务器将所述更新后的模型参数上传至所述云服务器,使所述云服务器对各个语音服务器上传的参数进行聚合处理,得到聚合参数;
    用所述语音服务器接收所述云服务器下发的所述聚合参数,用所述聚合参数更新所述第二语音合成模型的参数,得到所述训练后的语音合成模型。
  14. 如权利要求9-13中任一项所述的计算机设备,其中,所述处理器执行所述存储器中存储的计算机可读指令还用以实现以下步骤:
    将所述目标语音数据从所述语音服务器同步至播报服务器;
    控制所述播报服务器根据所述目标语音数据进行语音播报。
  15. 如权利要求9-13中任一项所述的计算机设备,其中,所述处理器执行所述存储器中存储的计算机可读指令还用以实现以下步骤:
    将所述待合成文本和所述训练后的语音合成模型的模型参数发送至播报服务器;
    控制所述播报服务器用本地的语音合成模型,根据所述待合成文本和所述训练后的语音合成模型的模型参数合成所述目标语音数据;
    控制所述播报服务器根据所述目标语音数据进行语音播报。
  16. 一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器执行时实现以下步骤:
    获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本;
    根据所述语音类型从云服务器获取第一语音合成模型的模型参数;
    用所述第一语音合成模型的模型参数初始化本地的第二语音合成模型,所述第一语音合成模型的超参数与所述第二语音模型的超参数一致;
    通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型,得到训练后的语音合成模型;
    基于所述训练后的语音合成模型,根据所述待合成文本合成目标语音数据。
  17. 如权利要求16所述的存储介质,其中,在所述获取语音服务器中用户的语音数据样本、所述语音数据样本对应的文本数据样本、所述语音数据样本的语音类型和待合成文本之前,所述计算机可读指令被所述处理器执行还用以实现以下步骤:
    在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型;
    在所述语音服务器中存储所述待合成文本。
  18. 如权利要求17所述的存储介质,其中,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型之前,所述计算机可读指令被所述处理器执行还用以实现以下步骤:
    判断所述语音数据样本是否正确;
    当所述语音数据样本正确时,在所述语音服务器中关联存储所述语音数据样本、所述文本数据样本、所述语音类型。
  19. 如权利要求16所述的存储介质,其中,所述计算机可读指令被所述处理器执行以实现所述根据所述语音类型从云服务器获取第一语音合成模型的模型参数时,包括:
    根据所述语音类型获取所述语音类型与语音合成模型的关联关系;
    根据所述关联关系从所述云服务器获取所述第一语音合成模型的模型参数。
  20. 如权利要求16所述的存储介质,其中,所述计算机可读指令被所述处理器执行以实现所述通过所述语音服务器和所述云服务器用所述语音数据样本和所述文本数据样本联合训练所述第二语音合成模型时,包括:
    通过所述语音服务器用所述语音数据样本和所述文本数据样本对所述第二语音合成模型进行本地训练,更新所述第二语音合成模型的参数,得到更新后的模型参数;
    通过所述语音服务器将所述更新后的模型参数上传至所述云服务器,使所述云服务器对各个语音服务器上传的参数进行聚合处理,得到聚合参数;
    用所述语音服务器接收所述云服务器下发的所述聚合参数,用所述聚合参数更新所述第二语音合成模型的参数,得到所述训练后的语音合成模型。
  21. 如权利要求16-20中任一项所述的存储介质,其中,所述计算机可读指令被所述处理器执行还用以实现以下步骤:
    将所述目标语音数据从所述语音服务器同步至播报服务器;
    控制所述播报服务器根据所述目标语音数据进行语音播报。
  22. 如权利要求16-20中任一项所述的存储介质,其中,所述计算机可读指令被所述处理器执行还用以实现以下步骤:
    将所述待合成文本和所述训练后的语音合成模型的模型参数发送至播报服务器;
    控制所述播报服务器用本地的语音合成模型,根据所述待合成文本和所述训练后的语音合成模型的模型参数合成所述目标语音数据;
    控制所述播报服务器根据所述目标语音数据进行语音播报。
PCT/CN2020/098887 2020-05-28 2020-06-29 语音合成方法、装置、计算机设备及计算机可读存储介质 WO2021114617A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010470714.4 2020-05-28
CN202010470714.4A CN111696517A (zh) 2020-05-28 2020-05-28 语音合成方法、装置、计算机设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
WO2021114617A1 true WO2021114617A1 (zh) 2021-06-17

Family

ID=72478430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/098887 WO2021114617A1 (zh) 2020-05-28 2020-06-29 语音合成方法、装置、计算机设备及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN111696517A (zh)
WO (1) WO2021114617A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113327577B (zh) * 2021-06-07 2024-01-16 北京百度网讯科技有限公司 语音合成方法、装置和电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130262096A1 (en) * 2011-09-23 2013-10-03 Lessac Technologies, Inc. Methods for aligning expressive speech utterances with text and systems therefor
CN105223851A (zh) * 2015-10-09 2016-01-06 韩山师范学院 基于方言识别的智能插座系统及控制方法
US20160300564A1 (en) * 2013-12-20 2016-10-13 Kabushiki Kaisha Toshiba Text-to-speech device, text-to-speech method, and computer program product
CN109036374A (zh) * 2018-07-03 2018-12-18 百度在线网络技术(北京)有限公司 数据处理方法和装置
CN109272983A (zh) * 2018-10-12 2019-01-25 武汉辽疆科技有限公司 用于亲子教育的双语切换装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110033755A (zh) * 2019-04-23 2019-07-19 平安科技(深圳)有限公司 语音合成方法、装置、计算机设备及存储介质
CN110443126A (zh) * 2019-06-27 2019-11-12 平安科技(深圳)有限公司 模型超参数调整控制方法、装置、计算机设备及存储介质
CN110457476A (zh) * 2019-08-06 2019-11-15 北京百度网讯科技有限公司 用于生成分类模型的方法和装置
CN110751940B (zh) * 2019-09-16 2021-06-11 百度在线网络技术(北京)有限公司 一种生成语音包的方法、装置、设备和计算机存储介质
KR102281600B1 (ko) * 2019-09-19 2021-07-29 엘지전자 주식회사 합성 음성에 대한 보정을 수행하는 인공 지능 장치 및 그 방법
CN110942154B (zh) * 2019-11-22 2021-07-06 深圳前海微众银行股份有限公司 基于联邦学习的数据处理方法、装置、设备及存储介质
WO2021127821A1 (zh) * 2019-12-23 2021-07-01 深圳市优必选科技股份有限公司 语音合成模型的训练方法、装置、计算机设备及存储介质
CN110956948A (zh) * 2020-01-03 2020-04-03 北京海天瑞声科技股份有限公司 端到端的语音合成方法、装置及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130262096A1 (en) * 2011-09-23 2013-10-03 Lessac Technologies, Inc. Methods for aligning expressive speech utterances with text and systems therefor
US20160300564A1 (en) * 2013-12-20 2016-10-13 Kabushiki Kaisha Toshiba Text-to-speech device, text-to-speech method, and computer program product
CN105223851A (zh) * 2015-10-09 2016-01-06 韩山师范学院 基于方言识别的智能插座系统及控制方法
CN109036374A (zh) * 2018-07-03 2018-12-18 百度在线网络技术(北京)有限公司 数据处理方法和装置
CN109272983A (zh) * 2018-10-12 2019-01-25 武汉辽疆科技有限公司 用于亲子教育的双语切换装置

Also Published As

Publication number Publication date
CN111696517A (zh) 2020-09-22

Similar Documents

Publication Publication Date Title
WO2020186778A1 (zh) 错词纠正方法、装置、计算机装置及存储介质
CN111883110B (zh) 语音识别的声学模型训练方法、系统、设备及介质
US11113479B2 (en) Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query
US11741355B2 (en) Training of student neural network with teacher neural networks
CN110136691B (zh) 一种语音合成模型训练方法、装置、电子设备及存储介质
WO2022188734A1 (zh) 一种语音合成方法、装置以及可读存储介质
CN111738016B (zh) 多意图识别方法及相关设备
CN111326136B (zh) 语音处理方法、装置、电子设备及存储介质
KR20210146368A (ko) 숫자 시퀀스에 대한 종단 간 자동 음성 인식
US11610108B2 (en) Training of student neural network with switched teacher neural networks
CN112328761B (zh) 一种意图标签设置方法、装置、计算机设备及存储介质
WO2022178969A1 (zh) 语音对话数据处理方法、装置、计算机设备及存储介质
Wu et al. Research on business English translation framework based on speech recognition and wireless communication
WO2023245389A1 (zh) 歌曲生成方法、装置、电子设备和存储介质
WO2022227190A1 (zh) 语音合成方法、装置、电子设备及存储介质
CN113257220B (zh) 语音合成模型的训练方法、装置、电子设备及存储介质
CN112634866B (zh) 语音合成模型训练和语音合成方法、装置、设备及介质
CN111354343B (zh) 语音唤醒模型的生成方法、装置和电子设备
CN110852075B (zh) 自动添加标点符号的语音转写方法、装置及可读存储介质
CN114207706A (zh) 使用组合的韵律信息经由神经网络生成声学序列
WO2022121179A1 (zh) 语音合成方法、装置、设备及存储介质
CN111653274B (zh) 唤醒词识别的方法、装置及存储介质
CN113822017A (zh) 基于人工智能的音频生成方法、装置、设备及存储介质
CN114882862A (zh) 一种语音处理方法及相关设备
WO2021114617A1 (zh) 语音合成方法、装置、计算机设备及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20899581

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20899581

Country of ref document: EP

Kind code of ref document: A1