CN108847249B - 声音转换优化方法和系统 - Google Patents

声音转换优化方法和系统 Download PDF

Info

Publication number
CN108847249B
CN108847249B CN201810537499.8A CN201810537499A CN108847249B CN 108847249 B CN108847249 B CN 108847249B CN 201810537499 A CN201810537499 A CN 201810537499A CN 108847249 B CN108847249 B CN 108847249B
Authority
CN
China
Prior art keywords
mel
audio signal
frequency spectrum
original
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810537499.8A
Other languages
English (en)
Other versions
CN108847249A (zh
Inventor
俞凯
陈宽
陈博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sipic Technology Co Ltd
Original Assignee
Shanghai Jiaotong University
AI Speech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University, AI Speech Ltd filed Critical Shanghai Jiaotong University
Priority to CN201810537499.8A priority Critical patent/CN108847249B/zh
Publication of CN108847249A publication Critical patent/CN108847249A/zh
Application granted granted Critical
Publication of CN108847249B publication Critical patent/CN108847249B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • G10L2021/0135Voice conversion or morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开声音转换优化方法和系统,方法包括:从原始音频信号中提取原始梅尔频谱特征;将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。本发明提出了一个高品质的音频转换结构,摒弃了声学特征中常用的梅尔倒谱系数和基频F0,转而使用了非常低水平的梅尔频谱图作为声学特征,从而在简化结构和计算的同时还能比现有技术转换出的声音更加自然。

Description

声音转换优化方法和系统
技术领域
本发明属于声音转换技术领域,尤其涉及声音转换优化方法和系统。
背景技术
声音转换(Voice Conversion,VC)是一种技术,用于在保留语言内容的同时,修改源说话人的语音以使其听起来像目标说话人。传统的声音转换技术专注于使用源说话人和目标说话人说相同句子的一些并行数据来开发转换功能。一些转换模型,如高斯混合模型(Gaussian mixture model,GMM),深度神经网络已经被应用于将源说话人的声学特征转换为相应的目标说话人。
转换后的语音的音质对研究人员来说总是很有吸引力。相关技术中转换的语音总会出现失真,例如,过度平滑,缺乏相似性等。在参数化声音转换中,已经提出了几种技术来增强音质,例如,建模附加特征(全局变差,频谱包络)和后滤波。然而,转换后的语音质量仍然不如目标说话人那么自然。
现有技术中,转换模型的实现方法如图1所示,大多是基于梅尔倒谱的语音转换。使用了Mel-cepstrum(Mcep,梅尔倒谱),F0(基频),带非周期性(BAP,Band Aperiodicity)作为声码器的条件训练一个声码器,然后再使用GMM(高斯混合模型,Gaussian MixtureModel)转换原始说话的人的特征,生成目标说话人的特征,最后用训练好的声码器合成声音。
发明人在实现本发明的过程中,发现之所以最后合成的声音不自然,一个重要的因素是用于参数化语音转换的声学特征通常是声码参数(例如,梅尔倒谱,基频F0),当用转换的声码参数产生波形时,其转换可能导致质量失真。
发明内容
本发明实施例提供一种声音转换优化方法、系统及电子设备,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种声音转换优化方法,包括:从原始音频信号中提取原始梅尔频谱特征;将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
第二方面,本发明实施例提供一种声音转换优化系统,包括:提取单元,配置为从原始音频信号中提取原始梅尔频谱特征;映射单元,配置为将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;优化单元,配置为将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的声音转换优化方法的步骤。
第四方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行本发明任一实施例的声音转换优化方法的步骤。
在本申请的方法和系统中,我们提出了一个高品质的音频转换结构,其中,我们摒弃了声学特征中常用的梅尔倒谱系数和基频F0,转而使用了非常低水平的梅尔频谱图作为声学特征,从而在简化结构和计算的同时还能比现有技术转换出的声音更加自然。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术的转换模型的实现方法的示意图;
图2为本发明一实施例提供的一种声音转换优化方法的流程图;
图3为本发明一实施例提供的另一种声音转换优化方法的流程图;
图4a和图4b为本发明一实施例提供的一种对偶方法的原理图;
图5为本发明一实施例提供的一种声音转换优化方法的转换架构图;
图6为本发明一实施例提供的一种声音转换优化系统的转换原理图;
图7为本发明一实施例提供的一种声音转换优化系统的条件WaveNet的体系结构图;
图8为本发明一实施例提供的F0转换语音分布图;
图9为本发明一实施例提供的F0轮廓的一个示例;
图10为本发明一实施例提供的不同说话人转换语音的语义比较结果;
图11为本发明一实施例提供的不同说话人转换语音的自然度比较结果;
图12a和图12b为本发明一实施例提供的不同系统与目标说话人相比较的结果;
图13为本发明一实施例提供的声音转换优化系统的框图;
图14为本发明一实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面,先介绍本申请的实施方式,之后将用实验数据证实本申请的方案与现有技术相比有什么不同,能实现什么有益效果。
请参考图1,其示出了本发明的声音转换优化方法一实施例的流程图,本实施例的声音转换优化方法可以适用于各种变声器等声音转换装置。
最近,一种用WaveNet语音产生模型的高质量的声码器已经被提出。WaveNet是最先进的自然波形生成技术,可以生成高质量的语音波形。其优点之一是WaveNet语音生成模型能够在特定条件下生成波形,如语言信息或声学特征。它已被应用于许多应用,如文本到语音,声音转换和语音声码器。类似于WaveNet声码器,声学特征主要是梅尔频率倒谱系数(Mel-cepstral,Mcep)和基频(F0),它们广泛用于语音声码。WaveNet声码转换语音的音质与STRAIGHT-vocoded语音相当。
如图2所示,步骤201,从原始音频信号中提取原始梅尔频谱特征;
在步骤202中,将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;
在步骤203中,将原始音频信号作为输入,目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
在本实施例中,对于步骤201,本申请的声音转换优化装置只需要提取原始音频信号的原始梅尔频谱特征(Msp,Mel-spectrogram)。之后,对于步骤202,将该原始梅尔频谱特征进行帧对帧映射转换成目标梅尔频谱特征。最后,对于步骤203,将原始音频信号作为一个输入,目标梅尔倒谱特征作为一个条件,将上述输入和条件输入至声码器中以得到转换优化后的音频信号。
本实施例的方法,放弃了现有技术中在进行声音转换时普遍使用的梅尔倒谱系数和基频F0,转而使用了声学特征中非常低水平的梅尔频谱图作为条件,没有了之前F0,BAP转换不够准确的缺陷,从而在简化结构和计算的同时还能比现有技术转换出的声音更加自然。具体改进多少,请参见后续的实验及相关数据,在此不再赘述。
在一些可选的实施例中,上述步骤201包括:对于具有相同文本的原始音频信号和目标音频信号,将来自原始音频信号的原始梅尔频谱特征x=x1,...,xm和来自目标音频信号的的目标梅尔频谱特征y=y1,...,yn对齐到相同长度T;将对齐后的特征序列x=x1,...,xT逐帧转换至y=y1,...,yT以得到目标梅尔频谱特征。从而可以通过上述方式将原始梅尔频谱特征转换成目标梅尔频谱特征。在一些可选的实现中,可以采用GMM或者LSTM NN(LongShort-Term Memory Neural Network,长短时记忆神经网络)。
进一步可选的,原始梅尔频谱特征到目标梅尔频谱特征的训练成本L通过下式获得:
Figure BDA0001678532730000051
其中,Mxy是从原始音频信号到目标音频信号梅尔频谱转换模型。这个L是表示原始梅尔频谱和目标梅尔频谱之间的差距,L越小,表示目标频谱和原始频谱更加相似,模型的预测能力更准确。
在另一些可选的实施例中,声音转换声码器可以采用Wavenet声码器,Wavenet声码器中使用门控激活函数的机制调节梅尔频谱特征,
z=tanh(Wf*i+Vf*c)⊙σ(Wg*i+Vg*c),
其中,*表示卷积运算符,而⊙表示单元乘法运算符。σ()表示一个S形函数,i表示输入,c表示梅尔频谱特征,f和g分别代表滤波器和门,W和V是可学习的权重,z代表一种非线性函数,能够调节模型中的变量。
进一步参考图3,其示出了本发明一实施例提供的另一种声音转换优化方法的流程图,本流程图主要是针对图2中步骤203的细化步骤的流程。
如图3所示,在步骤301中,将目标梅尔频谱特征经过上采样层与原始音频信号对齐;
在步骤302中,使用原始音频信号作为输入,对齐后的目标梅尔频谱特征及与原始音频信号对应的说话人身份信息作为条件;
在步骤303中,将输入和条件输入多个残差网络,并将得到的所有输出相加,经过卷积层得到优化后的音频信号。
在本实施例中,对于步骤301,声音转换优化装置首先将目标梅尔频谱特征经过声码器的上采样层与原始音频信号对齐。之后,对于步骤302,将原始音频信号作为输入,与该原始音频信号对齐后的目标梅尔频谱特征以及与原始音频信号对应的说话人身份信息作为条件,在步骤303中输入至声码器中的多个残差网络(Residual Block)中,然后将经由残差网络后得到的所有输出想加,再经过卷积层得到优化后的音频信号。
本实施例的方法由于使用了声学特征中非常低水平的梅尔频谱图作为声码器的条件,没有了之前F0,BAP转换不够准确的缺陷,可以最终输出的声音更加真实。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
接下来,以一个具体的示例以及实验和实验结果对比分析来论述本发明的实现过程和效果。
本申请背景技术部分提到的基于Mcep的声音转换系统将在后续的实验中将用于与本申请的方案进行比较。不同系统中的Msp和Mcep使用相似的LSTM-RNN神经网络进行帧到帧特征映射的训练。使用STRAIGHT声码器和基于Mcep的WaveNet声码器将转换后的Mcep和F0编码为波形。针对不同系统详细分析了转换波形的F0轮廓,这是语音质量的一个重要因素。人类听众主观地评估自然性,相似性和可理解性。结果表明,使用梅尔频谱特征进行声音转换可以产生高质量的转换语音,尤其是在相似度方面。
发明人发现,在现有技术中,使用了F0作为条件,但是F0的转换并不是特别精确,只是通过线性的拉伸或者通过全局均值方差变换,所以和目标说话人的F0会有较大的差别,同时使用GMM作为转换模型在特征变换上也没有充分利用历史信息,因此转换的特征不够准确。合成的声音和目标说话人的音色不太像,并且在音调上也有比较大的差别。
以往,为了解决这些缺陷,通常都会使用比较大的数据集或者修改转换模型去提高特征的转换精度,但是F0的转换一直都没有较大的变化,而本申请的方案不需要用到F0,直接修改传统方法的特征,使得只需要一种特征就可以完成所有的操作。
在实现本申请的过程中,发明人还曾经尝试过另外的一些方案。对比本申请的最终方案,之前的方案中存在通过修改生成语音的时长来使得合成的语音更加自然。之前的方案在整体设计上与现有的设计方案一致,但是需要首先通过对原始说话人和目标说话人的语音数据做语音识别得到各自的phone(音素)的时长,通过建立每一个phone之间的对应关系,得到每一个phone的时长比例,因此最后我们合成的时候可以根据这个比例对声音的长度进行调整,从而使声音的语速更加接近目标说话人。
在该方案中,我们发现合成的声音会出现中间个别音节没有发出来的问题,因此我们采用了一种对偶学习的方法,具体请参照图4a和图4b。其中,MSE表示最小均方误差。
步骤一:从目标说话人和原始说话人的数据中分别提取特征:声学特征A,声学特征B;
步骤二:设计一种对偶神经网络A→B’→A’,这种网络要求输出的特征A能够得到预测的特征B’,同时预测的特征B’能够通过网络得到预测的特征A’,这样我们可以计算的损失就不仅仅是B和B’,同时还要加上A和A’
步骤三:我们将步骤二种的网络切开成B→A’→B’,这样我们可以保持两个网络参数共享并且在这个网络中以预测的真实特征B作为输入,输出我们的原始真实特征A的预测值,最后还要预测B’。
通过这种对偶网络能够增加训练数据的数量,同时加强网络对特征转换之间的学习能力使得转换的效果更为准确。该方案确实能提高声音的自然度。
但是通过我们的实验结果发现,由于合成的语音中本来就有个别phone发不出来,并且改变时长同样会对发音的准确性产生干扰,而这种方法并不能有效的减少未发出音的数量,虽然有一定的效果但是需要仔细的听,对听音测试的帮助不大,而且过程比较繁琐,因此在最终的版本中我们抛弃了这种方案。
后来,发明人采用了Msp(梅尔频谱,Mel-spectrogram)作为转换特征,没有了之前F0,BAP转换不够准确的缺陷,并且使用了最新的WaveNet模型并采用Msp作为条件,将两者结合在一起形成一个完整的系统。以下,介绍一些与本申请最终方案相关的内容。
首先,介绍并行数据声音转换框架。图1示出了基于Mcep的并行数据声音转换系统的体系结构。原始说话人的声学特征在不同的特征流中被转换为目标说话人。然后将转换后的功能编码为音频信号。这种架构也是一种通用的参数化声音转换框架,其中一些常规处理被特定方法(例如BLSTM NN,WaveNet Vocoder(声码器))所取代。
对于具有相同文本的语音对,来自源扬声器的声学特征x=x1,...,xm和来自目标扬声器的相应声学特征y=y1,...,yn首先被对齐到相同长度T。对齐通常直接由动态时间包裹(Dynamic Time Wrapping,DTW)提供。另外,还有一些技术可以在自动语音识别技术的帮助下获得更准确的特征对齐。对齐的特征序列x=x1,...,xT和y=y1,...,yT然后在不同的方法(例如GMM,LSTM)中被逐帧地转换。如公式(1)所示,训练成本简单地通过均方误差来测量,其中Mxy是从原始音频信号到目标音频信号的Mcep转换模型。F0线性转换,非周期性不转换。
Figure BDA0001678532730000081
我们观察到,转换后语音的清晰度可能会因WaveNet Vocoder而降低。
梅尔频谱转换
梅尔频谱是语音波形的非常低水平的声学呈现。它还没有作为声音转换任务中的声学特征导入,因为之前没有好的梅尔频谱声码器。
如图5所示,我们提出了一个架构来将语音波形与梅尔谱图进行转换。语音波形仅被分析成梅尔谱图。然后按照图6中的体系结构逐帧转换梅尔频谱。与传统的基于Mcep的声音转换相比,F0不需要明确地作为单独的特征流转换。相关技术中已经对F0和持续时间模式进行了参数化,以适当地处理它们的超节段特性,在帧逐步转换过程中没有很好地转换。然而,在所提出的系统中,在转换梅尔频谱的同时,F0被非相干地转换。F0转换的性能将在后续实验中详细分析。
WaveNet声码器
传统的声音转换声码器做出了各种各样的假设,这些假设通常会导致转换语音的声音质量下降。因此,相关技术中提出了一种主要基于Mel倒谱和F0的Wavenet Vocoder来克服这个问题。现有的实验结果也表明,该方案能产生更好的波形。
本申请的基于Msp的WaveNet可以在端到端的文本到语音任务中产生高质量的语音波形。条件WaveNet的体系结构如图7所示。它由一堆扩张的因果卷积层组成,每个层可以并行处理输入向量。两个转置的卷积层被添加用于上采样。此外,在WaveNet中使用门控激活函数的机制可调节声音或语言特征等额外信息:
z=tanh(Wf*i+Vf*c)⊙σ(Wg*i+Vg*c) (2)
其中*表示卷积运算符,而⊙表示单元乘法运算符。σ()表示一个S形函数。i是输入向量,c是像梅尔谱图那样的额外条件特征,并且是说话者身份的一个热点。f和g分别代表滤波器和门。W和V是可学习的权重,,z代表一种非线性函数,能够调节模型中的变量。
实验设置
这些实验使用PyTorch在CMU ARCTIC数据集上进行。数据集中的句子随机分为训练集,开发集和测试集,每个句子有957,107,55个句子。波形以16kHz采样率采样。通过短时傅里叶变换(STFT),使用50ms帧大小,12.5ms帧跳跃和Hann窗口函数提取梅尔频谱。基线系统使用LSTM-RNN声音转换系统。使用基于MLSA(Mel Log Spectrum Approximation,近似对数梅尔频谱)和Mcep的WaveNet声码器将转换后的声学特征编码为语音波形。Mceps在5ms帧移位时被提取。我们使用8位μ律训练了一个与扬声器相关的WaveNet声码器。
对于本申请提出的系统,除了测试集中的话语外,我们在CMU ARCTIC数据集中的所有波形上初步训练了一个与说话人无关的WaveNet声码器。WaveNet网络训练了1000k步,Adam optitimizer(adaptive moment estimation optimizer,自适应矩优化优化器)在4个GTX1080TI上配备了16个小批量(minibatch),它有24层,分为4组。剩余连接和门控层的隐藏单元是512,输出层的跳转连接是256。我们还使用10个混合组件作为物流输出分配的混合物。然后,我们训练了一个基于LSTM网络的转换模型,该网络有两层,隐藏单元为256。在LSTM层之前,我们使用了两个PReLU(Rectified Linear Units,整流线性单位)激活的密集层。我们对源语言和焦点语者应用全局均值-方差变换。确保两个WaveNet声码器都训练有素。在WaveNet声码器可以在训练集上产生令人信服的语音之后,训练过程停止。
F0是影响语音质量的重要声学特征。在基于梅尔谱图的声音转换中,所有声学信息都保持在低级谱图表示中。因此,在梅尔谱图转换过程中,固有地转换F0。我们首先给出转换语音的F0轮廓的评估。
F0轮廓使用WORLD从自然和转换的语音中提取。图9显示了F0轮廓的一个例子,音频从bdl转换为slt。由于bdl和slt具有相似的语速,因此我们可以直接查看它们的F0轮廓。我们可以看到,从Msp转换后的语音的F0轮廓更接近目标语音,即使F0没有明确转换。我们在图8中绘制了F0的分布,我们提出的系统和基于Msp的系统都与目标语音具有接近的均值和标准差。确切地说,基于Msp的系统中的F0是通过源语言和目标语句之间的全局均值-方差变换来传递的。所以可以肯定的是,本申请提出的系统在没有任何先验条件下可以获得更好的F0。
其中,以下两个表格中bdl、rms、clb、slt分别代表四个不同说话人的数据,bdl和rms是男性数据集,clb和slt是女性数据集。
系统 bdl-rms clb-rms bdl-slt clb-slt
MSP-WaveNet 10.18 10.28 9.15 9.1
Mcep-WaveNet 11.22 10.85 11.76 11.06
表1:基频(RMSE)
系统 bdl-rms clb-rms bdl-slt clb-slt
MSP-WaveNet 3.38 3.1 2.63 4.01
Mcep-WaveNet 3.46 3.21 2.71 3.63
表2:有声/无声判定误差比较(%)
表1显示了F0误差的客观测量。在我们评估之前,DTW被用来对准自然目标话语和转换后的话语。我们提出的系统比基于Mcep的系统具有更高的精度。表2列出了清音/浊音(U/V)判决误差。相信所提出的系统能够和基于Mcep的系统以相当精确的速度捕捉U/V信息。
主观测试
所有的主观测试都是在性别上和性别上进行的。在听力测试中,我们使用(clb→slt)作为内部性别对,(bdl→slt)作为跨性别对。测试集中的所有55个句子都用于听力测试。在每个测试中,每个句子都会呈现给至少6个听众。听众都是非母语的人。
自然:我们对语音自然度进行平均评价评分(MOS)评估。经过评估的实验设置如下:
-自然语言(N)
-在自然Msp上的WaveNet-vocoded语音(WNS)
-在自然Mcep上的WaveNet-vocoded语音(WNC)
-转换后的Msp上的WaveNet语音编码语音(WCS)
-WaveNet-vocoded声音转换Mcep(WCC)
-转换后的Mcep上的MLSA语音编码语音(MCC)
其中,以上缩写中第一个字符是指声码器类型(WaveNet/MLSA);第二个字符是指声学特征(Natural/Converted);第三个字符是指声学特征类型(Mel-Spectrogram/Mel-Cepstrum)
清晰度:我们观察到,使用WaveNet声码器(Msp和Mcep)可能会扭曲上下文信息。因此我们还对转换后的语音的可理解性进行了MOS评估。
相似:我们运行偏好测试来评估相似性。将来自两个系统的转换后的语音以随机顺序与来自目标讲话者的相同句子的自然语音一起提供给收听者。听众被要求选择哪个句子听起来更像目标说话人。
实验结果
图11显示了转换语音的自然结果。我们可以看到,WNS比WNC表现更好,这意味着Mel谱图转换在语音自然度上有更高的上限,这可以进一步研究。除此之外,与WCC和MCC相比,WCS实现了更好的性能,这表明基于梅尔谱图的声音转换可以实现良好的自然度。
图10显示了转换语音的可理解性结果。MCC实现比WCS和WCC更好的性能。其中一个原因是MCC可以在所有帧中生成质量稳定的转换语音,另一个原因是WaveNet Vocoder有时会产生嗡嗡声,这可以被视为缺乏WaveNet Vocoder的训练数据。这也可以说明为什么基于Mcep的WaveNet声码器具有与MLSA相似的语音质量MOS的原因,即使具有更高的自然度。
除此之外,我们还可以看到WNS的表现比WNC好得多,这意味着Msp比Mcep包含更多的信息。
图12a和图12b显示了不同系统与目标说话人相比较的结果。其中,图12a示出了bdl到slt的实验结果,图12b示出了clb到slt的实验结果。它显示MspWavenet在性别和跨性别案例上的表现明显优于McepWaveNet和Mcep STAIGHT。
结论和未来的工作
本申请提出了一种声音转换技术,利用LSTM神经网络和基于Mel-spectrogram的WaveNet Vocoder从原始音频信号到目标目标音频信号生成高质量语音。我们不使用STAIGHT的传统特征,而是在所提出的系统的所有流水线中应用梅尔频谱。实验表明,基于Mel-spectrogram的WaveNet Vocoder在自然度,相似度和清晰度方面的性能优于基于Mcep的WaveNet Vocoder在声音转换任务中的性能。
本申请的方案由于直接修改了传统方法的特征,减少了特征的数量,在特征提取的层次上更为方便,同时更加有利于对特征的建模,使得从模型中生成的特征更加准确。另外,由于简化了流程,使的整个建模过程中的损失更少,模型的准确度大大提高,生成的声音在自然度和相似度上都较传统的方案有很大的提升。
请参考图13,其示出了本发明一实施例提供的声音转换优化系统的框图。如图13所示,本发明的声音转换优化系统1300,包括提取单元1310、映射单元1320和优化单元1330。
其中,提取单元1310,配置为从原始音频信号中提取原始梅尔频谱特征;映射单元1320,配置为将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;以及优化单元1330,配置为将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
在一些可选的实施例中,优化单元1330配置为:将所述目标梅尔频谱特征经过上采样层与所述原始音频信号对齐;使用所述原始音频信号作为输入,对齐后的所述目标梅尔频谱特征及与所述原始音频信号对应的说话人身份信息作为条件;将所述输入和所述条件输入多个残差网络,并将得到的所有输出相加,经过卷积层得到优化后的音频信号。
应当理解,图13中记载的诸模块与参考图2和图3中描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征以及相应的技术效果同样适用于图13中的诸模块,在此不再赘述。
值得注意的是,本公开的实施例中的模块并不用于限制本公开的方案,例如提取单元可以描述为从原始音频信号中提取原始梅尔频谱特征的单元。另外,还可以通过硬件处理器来实现相关功能模块,例如提取单元也可以用处理器实现,在此不再赘述。
在另一些实施例中,本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的声音转换优化方法;
作为一种实施方式,本发明的非易失性计算机存储介质存储有计算机可执行指令,计算机可执行指令设置为:
从原始音频信号中提取原始梅尔频谱特征;
将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;
将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的声音转换优化方法对应的程序指令/模块。一个或者多个程序指令存储在非易失性计算机可读存储介质中,当被处理器执行时,执行上述任意方法实施例中的声音转换优化方法。
非易失性计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据声音转换优化装置的使用所创建的数据等。此外,非易失性计算机可读存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,非易失性计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至声音转换优化装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,使计算机执行上述任一项声音转换优化方法。
图14是本发明实施例提供的电子设备的结构示意图,如图14所示,该设备包括:一个或多个处理器1410以及存储器1420,图14中以一个处理器1410为例。声音转换优化方法的设备还可以包括:输入装置1430和输出装置1440。处理器1410、存储器1420、输入装置1430和输出装置1440可以通过总线或者其他方式连接,图14中以通过总线连接为例。存储器1420为上述的非易失性计算机可读存储介质。处理器1410通过运行存储在存储器1420中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例声音转换优化方法。输入装置1430可接收输入的数字或字符信息,以及产生与信息投放装置的用户设置以及功能控制有关的键信号输入。输出装置1440可包括显示屏等显示设备。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
作为一种实施方式,上述电子设备应用于神经网络语言模型中,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够:
从原始音频信号中提取原始梅尔频谱特征;
将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;
将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(4)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种声音转换优化方法,包括:
从原始音频信号中提取原始梅尔频谱特征;
将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;
将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
2.根据权利要求1所述的方法,其中,所述将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号包括:
将所述目标梅尔频谱特征经过上采样层与所述原始音频信号对齐;
使用所述原始音频信号作为输入,对齐后的所述目标梅尔频谱特征及与所述原始音频信号对应的说话人身份信息作为条件;
将所述输入和所述条件输入多个残差网络,并将得到的所有输出相加,经过卷积层得到优化后的音频信号。
3.根据权利要求1所述的方法,其中,所述将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征包括:
对于具有相同文本的所述原始音频信号和目标音频信号,将来自所述原始音频信号的原始梅尔频谱特征x=x1,...,xm和来自所述目标音频信号的目标梅尔频谱特征y=y1,...,yn对齐到相同长度T;
将对齐后的特征序列x=x1,...,xT和y=y1,...,yT逐帧转换以得到所述目标梅尔频谱特征。
4.根据权利要求3所述的方法,其中,所述原始梅尔频谱特征和所述目标梅尔频谱特征之间的差距L通过下式获得:
Figure FDA0002459874150000011
其中,Mxy是从原始音频信号到目标音频信号梅尔频谱转换模型。
5.根据权利要求1-4中任一项所述的方法,其中,所述声音转换声码器为Wavenet声码器,所述Wavenet声码器中使用门控激活函数的机制调节梅尔频谱特征,
z=tanh(Wf*i+Vf*c)⊙σ(Wg*i+Vg*c),
其中,z表示非线性函数,*表示卷积运算符,而⊙表示单元乘法运算符,σ()表示一个S形函数,i表示输入,c表示梅尔频谱特征,f和g分别代表滤波器和门,W和V是可学习的权重。
6.一种声音转换优化系统,包括:
提取单元,配置为从原始音频信号中提取原始梅尔频谱特征;
映射单元,配置为将原始梅尔频谱特征经过帧到帧特征映射得到目标梅尔频谱特征;
优化单元,配置为将所述原始音频信号作为输入,所述目标梅尔频谱特征作为条件,输入声音转换声码器以得到优化后的音频信号。
7.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5任一项所述方法的步骤。
8.一种存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1至5任一项所述方法的步骤。
CN201810537499.8A 2018-05-30 2018-05-30 声音转换优化方法和系统 Active CN108847249B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810537499.8A CN108847249B (zh) 2018-05-30 2018-05-30 声音转换优化方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810537499.8A CN108847249B (zh) 2018-05-30 2018-05-30 声音转换优化方法和系统

Publications (2)

Publication Number Publication Date
CN108847249A CN108847249A (zh) 2018-11-20
CN108847249B true CN108847249B (zh) 2020-06-05

Family

ID=64210089

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810537499.8A Active CN108847249B (zh) 2018-05-30 2018-05-30 声音转换优化方法和系统

Country Status (1)

Country Link
CN (1) CN108847249B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686361B (zh) * 2018-12-19 2022-04-01 达闼机器人有限公司 一种语音合成的方法、装置、计算设备及计算机存储介质
CN109584895B (zh) * 2018-12-24 2019-10-25 龙马智芯(珠海横琴)科技有限公司 语音降噪方法及装置
CN109767778B (zh) * 2018-12-27 2020-07-31 中国人民解放军陆军工程大学 一种融合Bi-LSTM和WaveNet的语音转换方法
CN109887484B (zh) * 2019-02-22 2023-08-04 平安科技(深圳)有限公司 一种基于对偶学习的语音识别与语音合成方法及装置
CN109741761B (zh) * 2019-03-13 2020-09-25 百度在线网络技术(北京)有限公司 声音处理方法和装置
CN111863027B (zh) * 2019-04-24 2024-07-16 北京京东尚科信息技术有限公司 处理音频的方法、装置和系统
CN110600013B (zh) * 2019-09-12 2021-11-02 思必驰科技股份有限公司 非平行语料声音转换数据增强模型训练方法及装置
CN110600046A (zh) * 2019-09-17 2019-12-20 南京邮电大学 基于改进的STARGAN和x向量的多对多说话人转换方法
CN110956971B (zh) * 2019-12-03 2023-08-01 广州酷狗计算机科技有限公司 音频处理方法、装置、终端及存储介质
WO2021127811A1 (zh) * 2019-12-23 2021-07-01 深圳市优必选科技股份有限公司 一种语音合成方法、装置、智能终端及可读介质
CN111161702B (zh) * 2019-12-23 2022-08-26 爱驰汽车有限公司 个性化语音合成方法、装置、电子设备、存储介质
WO2021128256A1 (zh) * 2019-12-27 2021-07-01 深圳市优必选科技股份有限公司 语音转换方法、装置、设备及存储介质
CN111243619B (zh) * 2020-01-06 2023-09-22 平安科技(深圳)有限公司 语音信号分割模型的训练方法、装置和计算机设备
CN111521110B (zh) * 2020-04-26 2021-11-23 湖南工业大学 一种旋转变压器信号包络检测方法
CN111653261A (zh) * 2020-06-29 2020-09-11 北京字节跳动网络技术有限公司 语音合成方法、装置、可读存储介质及电子设备
CN112071322B (zh) * 2020-10-30 2022-01-25 北京快鱼电子股份公司 一种端到端的声纹识别方法、装置、存储介质及设备
CN112382297A (zh) * 2020-11-13 2021-02-19 北京有竹居网络技术有限公司 用于生成音频的方法、装置、设备和介质
CN112562721B (zh) * 2020-11-30 2024-04-16 清华珠三角研究院 一种视频翻译方法、系统、装置及存储介质
CN112634919B (zh) * 2020-12-18 2024-05-28 平安科技(深圳)有限公司 语音转换方法、装置、计算机设备及存储介质
CN112634920B (zh) * 2020-12-18 2024-01-02 平安科技(深圳)有限公司 基于域分离的语音转换模型的训练方法及装置
CN112908302B (zh) * 2021-01-26 2024-03-15 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、装置、设备及可读存储介质
CN113421544B (zh) * 2021-06-30 2024-05-10 平安科技(深圳)有限公司 歌声合成方法、装置、计算机设备及存储介质
CN114023342B (zh) * 2021-09-23 2022-11-11 北京百度网讯科技有限公司 一种语音转换方法、装置、存储介质及电子设备
CN114913877B (zh) * 2022-05-12 2024-07-19 平安科技(深圳)有限公司 一种声韵母发音时长预测方法、结构、终端及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101399044A (zh) * 2007-09-29 2009-04-01 国际商业机器公司 语音转换方法和系统
CN102982809A (zh) * 2012-12-11 2013-03-20 中国科学技术大学 一种说话人声音转换方法
CN103345923A (zh) * 2013-07-26 2013-10-09 电子科技大学 一种基于稀疏表示的短语音说话人识别方法
CN104575495A (zh) * 2013-10-21 2015-04-29 中国科学院声学研究所 一种采用总变化量因子的语种识别方法及系统
CN106486131A (zh) * 2016-10-14 2017-03-08 上海谦问万答吧云计算科技有限公司 一种语音去噪的方法及装置
CN106504741A (zh) * 2016-09-18 2017-03-15 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度神经网络音素信息的语音转换方法
CN106504742A (zh) * 2016-11-14 2017-03-15 海信集团有限公司 合成语音的传输方法、云端服务器和终端设备
CN106683666A (zh) * 2016-12-23 2017-05-17 上海语知义信息技术有限公司 一种基于深度神经网络的领域自适应方法
CN107293302A (zh) * 2017-06-27 2017-10-24 苏州大学 一种用于语音测谎系统中的稀疏谱特征提取方法
CN107705802A (zh) * 2017-09-11 2018-02-16 厦门美图之家科技有限公司 语音转换方法、装置、电子设备及可读存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101399044A (zh) * 2007-09-29 2009-04-01 国际商业机器公司 语音转换方法和系统
CN102982809A (zh) * 2012-12-11 2013-03-20 中国科学技术大学 一种说话人声音转换方法
CN103345923A (zh) * 2013-07-26 2013-10-09 电子科技大学 一种基于稀疏表示的短语音说话人识别方法
CN104575495A (zh) * 2013-10-21 2015-04-29 中国科学院声学研究所 一种采用总变化量因子的语种识别方法及系统
CN106504741A (zh) * 2016-09-18 2017-03-15 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度神经网络音素信息的语音转换方法
CN106486131A (zh) * 2016-10-14 2017-03-08 上海谦问万答吧云计算科技有限公司 一种语音去噪的方法及装置
CN106504742A (zh) * 2016-11-14 2017-03-15 海信集团有限公司 合成语音的传输方法、云端服务器和终端设备
CN106683666A (zh) * 2016-12-23 2017-05-17 上海语知义信息技术有限公司 一种基于深度神经网络的领域自适应方法
CN107293302A (zh) * 2017-06-27 2017-10-24 苏州大学 一种用于语音测谎系统中的稀疏谱特征提取方法
CN107705802A (zh) * 2017-09-11 2018-02-16 厦门美图之家科技有限公司 语音转换方法、装置、电子设备及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Phone-Aware LSTM-RNN for Voice Conversion;Jiahao Lai;《IEEE》;20161231;177-182 *

Also Published As

Publication number Publication date
CN108847249A (zh) 2018-11-20

Similar Documents

Publication Publication Date Title
CN108847249B (zh) 声音转换优化方法和系统
Toda et al. The Voice Conversion Challenge 2016.
US11562764B2 (en) Apparatus, method or computer program for generating a bandwidth-enhanced audio signal using a neural network processor
Tanaka et al. AttS2S-VC: Sequence-to-sequence voice conversion with attention and context preservation mechanisms
WO2020215666A1 (zh) 语音合成方法、装置、计算机设备及存储介质
Tachibana et al. An investigation of noise shaping with perceptual weighting for WaveNet-based speech generation
CN112017644A (zh) 一种声音变换系统、方法及应用
Jemine Real-time voice cloning
Song et al. ExcitNet vocoder: A neural excitation model for parametric speech synthesis systems
CN113112995B (zh) 词声学特征系统、词声学特征系统的训练方法及系统
CN111862934B (zh) 语音合成模型的改进方法和语音合成方法及装置
Paul et al. Enhancing speech intelligibility in text-to-speech synthesis using speaking style conversion
Chen et al. High-quality Voice Conversion Using Spectrogram-Based WaveNet Vocoder.
CN114023300A (zh) 一种基于扩散概率模型的中文语音合成方法
Tanaka et al. A hybrid approach to electrolaryngeal speech enhancement based on noise reduction and statistical excitation generation
EP3906551B1 (en) Method, apparatus and system for hybrid speech synthesis
CN114464162B (zh) 语音合成方法、神经网络模型训练方法、和语音合成模型
CN112634866A (zh) 语音合成模型训练和语音合成方法、装置、设备及介质
Ronanki et al. A Hierarchical Encoder-Decoder Model for Statistical Parametric Speech Synthesis.
CN113963679A (zh) 一种语音风格迁移方法、装置、电子设备及存储介质
Wu et al. Denoising Recurrent Neural Network for Deep Bidirectional LSTM Based Voice Conversion.
Elshamy et al. DNN-based cepstral excitation manipulation for speech enhancement
Zhao et al. Research on voice cloning with a few samples
Luo et al. Emotional Voice Conversion Using Neural Networks with Different Temporal Scales of F0 based on Wavelet Transform.
Bae et al. Hierarchical and multi-scale variational autoencoder for diverse and natural non-autoregressive text-to-speech

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200616

Address after: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Co-patentee after: Shanghai Jiaotong University Intellectual Property Management Co.,Ltd.

Patentee after: AI SPEECH Co.,Ltd.

Address before: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Co-patentee before: SHANGHAI JIAO TONG University

Patentee before: AI SPEECH Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201026

Address after: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee after: AI SPEECH Co.,Ltd.

Address before: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee before: AI SPEECH Co.,Ltd.

Patentee before: Shanghai Jiaotong University Intellectual Property Management Co.,Ltd.

CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee after: Sipic Technology Co.,Ltd.

Address before: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee before: AI SPEECH Co.,Ltd.

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Optimization methods and systems for sound conversion

Effective date of registration: 20230726

Granted publication date: 20200605

Pledgee: CITIC Bank Limited by Share Ltd. Suzhou branch

Pledgor: Sipic Technology Co.,Ltd.

Registration number: Y2023980049433