CN110675853A - 一种基于深度学习的情感语音合成方法及装置 - Google Patents

一种基于深度学习的情感语音合成方法及装置 Download PDF

Info

Publication number
CN110675853A
CN110675853A CN201910850474.8A CN201910850474A CN110675853A CN 110675853 A CN110675853 A CN 110675853A CN 201910850474 A CN201910850474 A CN 201910850474A CN 110675853 A CN110675853 A CN 110675853A
Authority
CN
China
Prior art keywords
information
model
emotion
text information
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910850474.8A
Other languages
English (en)
Other versions
CN110675853B (zh
Inventor
钟雨崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Biying Technology Co ltd
Jiangsu Suning Cloud Computing Co ltd
Original Assignee
Suning Cloud Computing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suning Cloud Computing Co Ltd filed Critical Suning Cloud Computing Co Ltd
Priority to CN201910850474.8A priority Critical patent/CN110675853B/zh
Publication of CN110675853A publication Critical patent/CN110675853A/zh
Priority to PCT/CN2020/096998 priority patent/WO2021047233A1/zh
Priority to CA3154029A priority patent/CA3154029A1/en
Application granted granted Critical
Publication of CN110675853B publication Critical patent/CN110675853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开一种基于深度学习的情感语音合成方法及装置,属于语音合成领域,该方法至少包括如下步骤:提取待处理文本信息及待处理文本信息的前文信息,前文信息包括前文文本信息;为待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息;以情感特征信息及待处理文本信息为输入,通过预先训练的第二模型合成情感语音,该方法能实现在仅获得文本信息的基础上,基于深度学习,实现情感语音的合成,而不需要人工预先对每个声学发音进行标注情感,该方法在缩减人力成本的同时,可进一步降低标注误差,提高情感信息的切合度,丰富对话语音情感,提升合成语音的自然度、流畅度,提高人机交流体验,且适应性较广。

Description

一种基于深度学习的情感语音合成方法及装置
技术领域
本发明涉及语音合成领域,特别涉及一种基于深度学习的情感语音合成方法及装置。
背景技术
当前社会发展,人们希望机器能够代替人工进行一些简单而频繁的工作,例如播报、简单的客服工作。就希望能够与机器进行自然和谐的交流,语音作为人类社会重要的交流方式,很大程度上决定了这种人机自然和谐交流的实现。因此语音合成在情感计算、信号处理领域具有很重要的研究意义。而细腻的情感表达则能够较大地提高合成语音的自然度。
现有做法一般基于标注信息,由人工来对每个语音里的每个声学发音进行标注文字、情感等,或由人工设定各种情感基础频率的均值范围、方差和语音的能量、时长、方差等参数。相当于设定好规格,合成时从中取出来拼接而成。
这种做法相对传统,皆由人工而定,标注人员首先要进行标注的培训,此时标注人员对标注的标准理解不同,就会在标注时对于一句话中的语气理解不同,导致没有统一的标准,标注误差大;情感切合度低的同时,标注内容适应场景也固定死板,不具备多样性,超出应用场景合成的语音情感将非常机械、死板,有比较突出的违和感,并且数据标注阶段人力成本较大。
发明内容
为解决上述技术问题,本发明提供了一种基于深度学习的情感语音合成方法及装置,其能实现不进行人工逐一文字标注情感的情况下进行情感语音的合成。
本发明实施例提供的技术方案如下:
第一方面,提供一种基于深度学习的情感语音合成方法,所述方法至少包括如下步骤:
提取待处理文本信息及所述待处理文本信息的前文信息,所述前文信息包括前文文本信息;
以所述待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息;
以所述情感特征信息及待处理文本信息为输入,通过预先训练的第二模型合成情感语音。
在一些较佳的实施方式中,所述第一模型包括依次连接的第一子模型、第二子模型及第三子模型,所述以所述待处理文本信息及前文信息输入,通过预先构建的第一模型生成情感特征信息,具体包括如下子步骤:
以所述待处理文本信息及前文信息为输入,通过预先训练的第一子模型进行特征提取以获得第一中间输出;
以所述第一中间输出及待处理文本信息为输入,通过预先训练的第二子模型进行特征提取以获得情感类型及第二中间输出;
以所述第二中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第三子模型进行特征提取以获得情感特征信息。
在一些较佳的实施方式中,当所述前文信息还包括前文语音信息时,所述第一模型包括依次连接的第四子模型、第五子模型及第六子模型,所述以所述待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息,具体包括如下子步骤:
以所述待处理文本信息及前文信息为输入,通过预先训练的第四子模型进行特征提取以获得第四中间输出;
以所述第四中间输出及待处理文本信息为输入,通过预先训练的第五子模型进行特征提取以获得第五中间输出;
以所述第五中间输出、待处理文本信息、、情感类型或接收的用户指定情感类型为输入,通过预先训练的第六子模型进行特征提取以获得情感特征信息。
在一些较佳的实施方式中,预先训练所述第二模型时,具体包括如下子步骤:
提取视频样本的视频图像样本、文本信息样本及对话信息样本;
按照预设情感分类,对所述视频图像样本进行标注获得情感标注信息样本;
以所述视频图像样本为输入,以所述情感标注信息样本为输出,训练第三模型,并提取所述第三模型的第三中间输出作为所述视频图像样本的情感信息;
以所述情感信息及文本信息样本为输入,以对话信息样本为输出,训练第二模型。
在一些较佳的实施方式中,预先训练所述第一模型时,具体包括如下子步骤:
提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本;
以所述当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第一子模型,并提取所述第一子模型中间输出的第一中间输出;
以所述第一中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第二子模型,并提取所述第二子模型中间输出的第二中间输出;
以所述第二中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第三子模型。
在一些较佳的实施方式中,预先训练所述第一模型时,具体包括如下子步骤:
提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本及前文语音信息样本;
以所述当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第四子模型,并提取所述第四子模型中间输出的第四中间输出;
以所述第四中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第五子模型,并提取所述第五子模型中间输出的第五中间输出及情感类型;
以所述第五中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第六子模型。
在一些较佳的实施方式中,所述预先训练所述第一模型时,还包括视频样本预处理,其至少包括:
按照预设时间间隔,将所述视频图像样本分为若干段视频图像子样本,并将任一时间间隔内的文本作为当前文本信息样本,将所述任一时间间隔之前的文本作为前文文本信息样本。
另一方面,本发明还提供一种用于执行上述方法的基于深度学习的情感语音合成装置,所述装置至少包括:
提取模块:用于提取待处理文本信息及所述待处理文本信息的前文信息,所述前文信息包括前文文本信息;
情感特征信息生成模块:用于以所述待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息;
情感语音合成模块:用于以所述情感特征信息及待处理文本信息为输入,通过预先训练的第二模型合成情感语音。
在一些较佳的实施方式中,所述第一模型包括依次连接的第一子模型、第二子模型及第三子模型,所述情感特征信息生成模块至少包括:
第一特征提取单元:用于以所述待处理文本信息及前文信息为输入,通过预先训练的第一子模型进行特征提取以获得第一中间输出;
第二特征提取单元:用于以所述第一中间输出及待处理文本信息为输入,通过预先训练的第二子模型进行特征提取以获得情感类型及第二中间输出;
第三特征提取单元::用于以所述第二中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第三子模型进行特征提取以获得情感特征信息。
在一些较佳的实施方式中,当所述前文信息还包括前文语音信息时,所述第一模型包括依次连接的第四子模型、第五子模型及第六子模型,所述情感特征信息获取模块至少包括:
第四特征提取单元:用于以所述待处理文本信息及前文信息为输入,通过预先训练的第四子模型进行特征提取以获得第四中间输出;
第五特征提取单元:用于以所述第四中间输出及待处理文本信息为输入,通过预先训练的第五子模型进行特征提取以获得第五中间输出;
第六特征提取单元:用于以所述第五中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第六子模型进行特征提取以获得情感特征信息。
在一些较佳的实施方式中,所述装置还包括模型训练模块,所述模型训练模块至少包括用于训练所述第二模型的第二模型训练单元,所述第二模型训练单元至少包括:
第一提取子单元:用于提取视频样本的视频图像样本、文本信息样本及对话信息样本;
情感标注子单元:用于按照预设情感分类,对所述视频图像样本进行标注获得情感标注信息样本;
第一训练子单元:用于以所述视频图像样本为输入,以所述情感标注信息样本为输出,训练第三模型,并提取所述第三模型的第三中间输出作为所述视频图像样本的情感信息;
还用于以所述情感信息及文本信息样本为输入,以对话信息样本为输出,训练第二模型。
在一些较佳的实施方式中,所述模型训练模块还包括用于训练所述第一模块的第一模型训练单元,所述第一模型训练单元至少包括:
第二提取子单元:用于提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本;
第二训练子单元:用于以所述当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第一子模型,并提取所述第一子模型中间输出的第一中间输出;
还用于以所述第一中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第二子模型,并提取所述第二子模型中间输出的第二中间输出;
还用于以所述第二中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第三子模型。
在一些较佳的实施方式中,所述模型训练模块还包括用于训练另一第一模型的第三模型训练单元,所述第三模型训练单元至少包括:
第三提取子单元:用于提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本及前文语音信息样本;
第三训练子单元,用于以所述当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第四子模型,并提取所述第四子模型中间输出的第四中间输出;
还用于以所述第四中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第五子模型,并提取所述第五子模型中间输出的第五中间输出及情感类型;
还用于以所述第五中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第六子模型。
在一些较佳的实施方式中,所述第二模型训练单元还包括:
预处理子单元,用于按照预设时间间隔,将所述视频图像样本分为若干段视频图像子样本,并将任一时间间隔内的文本作为当前文本信息样本,将所述任一时间间隔之前的文本作为前文文本信息样本。
本发明的有益效果:
本发明公开一种基于深度学习的情感语音合成方法,其基于提取的待处理文本信息及所述待处理文本信息的前文信息,通过预先构建的第一模型生成情感特征信息,然后根据情感特征信息及待处理文本信息,通过基于视频样本预先训练的第二模型合成情感语音,该方法能实现在仅获得文本信息的基础上,基于深度学习,实现情感语音的合成,而不需要人工预先对每个声学发音进行标注文字、情感,因此,该方法在缩减人力成本的同时,可进一步降低标注误差,提高情感信息的切合度,丰富对话语音情感,提升合成语音的自然度、流畅度,提高人机交流体验;
另外,本发明在训练模型时,首先根据一段视频中相对应的视频图像信息、文本信息及语音信息,通过视频图像获得情感信息,构建基于视频图像的情感语音生成模块,然后基于文本信息,构建以该情感信息为目标的情感语音生成模块,从而实现基于文本信息生成情感语音的目的,因此该方法适用于视频交流场景、语音交流场景、甚至仅具有文本信息的交流场景,适应性较广,进一步提高人机交流体验;
进一步,本发明提供的基于深度学习的情感语音合成方法,在构建语音合成模型(第二模型)时,是基于视频中提取的视频图像样本、相对应的文本信息样本及对话信息样本进行训练的,因此所获得的情感更贴切、所合成的语音情感更准确、自然。
当然,本申请的方案只要实现其中任一技术效果即可。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一中的一种基于深度学习的情感语音合成方法的流程图;
图2是本发明实施例一中一种基于深度学习的情感语音合成方法的逻辑示意图;
图3是本发明实施例一中训练第二模型时的逻辑示意图;
图4是本发明实施例一中训练第一模型时的逻辑示意图;
图5是本发明实施例二中的一种基于深度学习的情感语音合成装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
如图1所示,本实施例提供一种基于深度学习的情感语音合成方法,属于语音合成领域,通过该方法能实现不需要人工标注情感的情况下进行情感语音的合成,且能有效提高合成语音情感的自然度。
结合图1、2所示,该方法包括如下步骤:
S1、提取待处理文本信息及待处理文本信息的前文信息。
具体地,当处理对象为文本对象时,前文信息包括前文文本信息;
当处理对象为语音对象或视频对象时,前文信息包括前文文本信息及前文语音信息。
需要说明的是,该步骤中,在文本对象中提取文本信息、在语音对象中提取文本信息及语音信息、在视频对象中提取文本信息及语音信息,均可通过不同的提取器实现,具体实现方式为本领域常规技术手段,此处不再一一例举。
S2、以待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息。
其中,当处理对象为文本内容时,步骤S2具体包括如下子步骤:
S211、以待处理文本信息及前文信息为输入,通过预先训练的第一子模型进行特征提取以获得第一中间输出;
S212、以第一中间输出及待处理文本信息为输入,通过预先训练的第二子模型进行特征提取以获得情感类型及第二中间输出;
S213、以第二中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第三子模型进行特征提取以获得情感特征信息。
其中,第三子模型的输入口之一为情感控制口,该情感控制口可以输入第二子模型输出的情感类型,也可以输入用户人为设置的情感类型,因此在获取情感特征信息时,可以完全基于模型获得,当模型数据存在准确性问题时,可人为干预调整,由此,进一步提高了所获得情感特征信息的准确性及可靠性。
其中,第一中间输出为第一子模型逻辑判断层的前一层输出特征向量,内容包括第一子模型提取的当前对话基调及当前文本的情感特征。第二中间输出为第二子模型分类层的前一层输出特征向量,内容包括第二子模型结合第一中间输出提取的当前文本的情感特征。
作为另一较优的实施方式,当处理对象为语音内容或视频内容时,步骤S2具体包括如下子步骤:
S221、以待处理文本信息及前文信息为输入,通过预先训练的第四子模型进行特征提取以获得第四中间输出;
S222、以第四中间输出及待处理文本信息为输入,通过预先训练的第五子模型进行特征提取以获得第五中间输出;
S223、以第五中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第六子模型进行特征提取以获得情感特征信息。
其中,第四中间输出为第四子模型逻辑判断层的前一层输出特征向量,内容包括第四子模型从送入的对话语音或视频画面中提取的当前对话基调及当前文本的情感特征。第五中间输出为第五子模型分类层的前一层输出特征向量,内容为第五子模型结合第四中间输出提取的当前文本的情感特征。
经证实,当前文信息包括前文文本信息及前文语音信息,所获得的情感语音特征信息的可信度更高。
S3、以情感特征信息及待处理文本信息为输入,通过预先训练的第二模型合成情感语音。
基于上述步骤S1~S3,可实现以文本信息为基础,合成情感自然的情感语音。
因此,该基于深度学习的情感语音合成方法,其基于提取的待处理文本信息及所述待处理文本信息的前文信息,通过预先构建的第一模型生成情感特征信息,然后根据情感特征信息及待处理文本信息,通过预先训练的第二模型合成情感语音,该方法能实现在仅获得文本信息的基础上,基于深度学习,实现情感语音的合成,而不需要人工预先对每个声学发音进行标注文字、情感,因此,该方法在缩减人力成本的同时,可进一步降低标注误差,提高情感信息的切合度,丰富对话语音情感,提升合成语音的自然度、流畅度,提高人机交流体验。
并且,该采用该方法合成情感语音时,处理对象可以仅为文本,也可以是文本及语音的结合,因此,该方法能基于文本、语音或视频中的任意一种合成情感语音,适用场景广泛。
进一步,该方法还包括模型预训练步骤,用于预先训练第一模型及第二模型。
首先,第二模型的训练过程具体包括如下子步骤:
Sa1、提取视频样本的视频图像样本、文本信息样本及对话信息样本;
Sa2、按照预设情感分类,对视频图像样本进行标注获得情感标注信息样本;
Sa3、以视频图像样本为输入,以情感标注信息样本为输出,训练第三模型,并提取第三模型的第三中间输出作为视频图像样本的情感信息;以情感信息及文本信息样本为输入,以对话信息样本为输出,训练第二模型。
示例性地,第三模型以ResNet-50为基础构建,并搭载交叉熵损失函数,第二模型以Tacotron2为基础构建,并搭载平均方差损失函数和L2距离损失函数。
具体地,如图3所示,第三模型及第二模型前后连接,一起进行训练。在提取到视频图像样本、文本信息样本及对话信息样本后,将视频图像样本送至第三模型输入端(I3),并将第三中间输出(O31)送至第二模型一个输入端(I51),第二模型以文本信息样本为输入(I52),且第三模型及第二模型分别以情感标注信息样本(O32)及对话信息样本(O5)问目标,一起训练第二、三模型,从而获得以截取的第三中间输出(O31)为输入且以对话信息样本(O5)为输出的第二模型,并截取的第三中间输出(O31)为情感信息。
在完成第二模型的训练后,训练第一模型。第一模型可根据适用对象的不同分别构建多组,如适用于文本内容或适用于语音内容或视频内容,所采用的模型并不相同。在接收到待处理对象后,系统可自动判断对象类型,并自动选择适用的第一模型。
当训练仅适用于文本内容的第一模型时,第一模型的训练过程具体包括如下子步骤:
Sb1、提取视频样本的当前文本信息样本及前文信息样本,前文信息样本包括前文文本信息样本;
Sb2、以当前文本信息样本及前文信息样本为输入,且以当前文本信息样本相对前文信息样本的情感是否变化为输出,训练获得第一子模型,并提取第一子模型中间输出的第一中间输出;
Sb3、以第一中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得第二子模型,并提取第二子模型中间输出的第二中间输出;
Sb4、以第二中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以模型三获得的情感信息为输出,训练获得第三子模型。
具体地,如图4所示,第一子模型、第二子模型及第三子模型依次连接,在提取到前文本信息样本及前文文本信息样本后,同时训练所述三个子模型。,
示例性地,其中,第一子模型以Transformer-xl为基础构建,使用LSTM+CNN结构替换其Decoder部分,并作为第一子模型的逻辑判断输出,其输出搭载交叉熵损失函数;第二子模型以Transformer为基础构建,使用LSTM+CNN结构替换其Decoder部分,并作为第二子模型的分类器输出,其输出搭载交叉熵损失函数;第三子模型以StarGAN为基础构建,使用Conv1D网络层替换结构中的Conv2D,其输出搭载平均方差损失函数和L2距离损失函数。
以前文信息样本及当前文本信息样本作为第一模型的两个输入(I11、I12),其中,将当前文本信息样本作为每一子模型的一个输入(I11、I21、I42)。以当前信息样本作为第一子模型的另一输入(I12),并以当前文本信息样本相对前文信息样本的情感是否变化为第一子模型的输出(O12);并截取第一中间输出(O11)作为第二子模型的另一输入(I21),将情感类型(O22)作为第二子模型的输出,并截取第二中间输出(O21)作为第三子模型的另一输入(I41),以模型三获得的情感信息为输出(O4),一起训练上述三个子模型。
当训练适用于语音内容或视频内容的第一模型时,训练过程具体包括如下子步骤:
Sc1、提取视频样本的当前文本信息样本及前文信息样本,前文信息样本包括前文文本信息样本及前文语音信息样本;
Sc2、以当前文本信息样本及前文信息样本为输入,且以当前文本信息样本相对前文信息样本的情感是否变化为输出,训练获得第四子模型,并提取第四子模型中间输出的第四中间输出;
Sc3、以第四中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得第五子模型,并提取第五子模型中间输出的第五中间输出及情感类型;
Sc4、以第五中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以模型三获得的情感信息为输出,训练获得第六子模型。
示例性地,其中,第四子模型以ResNet-50、Transformer-x1为基础构建,舍弃ResNet-50的Dense层,使用ConvLstm2D结构网络层替换ResNet-50中的Conv2D,并将ResNet-50的Pooling层输出融到Transformer-xl的Encoder输出中,使用LSTM+CNN结构替换Transformer-xl的Decoder部分,并作为第四子模型的逻辑判断输出,并搭载交叉熵损失函数;第五子模型以Transformer为基础构建,使用LSTM+CNN结构替换其Decoder部分,并作为第五子模型的分类器输出,其输出搭载交叉熵损失函数;第六子模型以StarGAN为基础构建,使用ConvlD结构网络层替换结构中的Conv2D结构网络层,其输出搭载平均方差损失函数和L2距离损失函数。
第一模型的两个训练方法过程相同,相关输入及输出关系请参照第一种训练过程,具体区别仅在于第二种训练方法中在第四子模型中需再增加前文语音信息样本输入。
因此,本发明在训练模型时,首先根据一段视频中相对应的视频图像信息、文本信息及语音信息,通过视频图像获得情感信息,构建基于视频图像的情感语音生成模块,然后基于文本信息,构建以该情感信息为目标的情感语音生成模块,从而实现基于文本信息生成情感语音的目的,因此该方法适用于视频交流场景、语音交流场景、甚至仅具有文本信息的交流场景,适应性较广,进一步提高人机交流体验。
另外,本实施例提供的基于深度学习的情感语音合成方法,在构建语音合成模型(第二模型)时,是基于视频中提取的视频图像样本、相对应的文本信息样本及对话信息样本进行训练的,因此所获得的情感更贴切、所合成的语音情感更准确、自然。
实施例二
为执行上述实施例一中的一种基于深度学习的情感语音合成方法,本实施例提供一种基于深度学习的情感语音合成装置100。
图5为该基于深度学习的情感语音合成装置100的结构示意图,如图5所示,该装置100至少包括:
提取模块1:用于提取待处理文本信息及所述待处理文本信息的前文信息,前文信息包括前文文本信息;
情感特征信息生成模块2:用于以待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息;
情感语音合成模块3:用于以情感特征信息及待处理文本信息为输入,通过预先训练的第二模型合成情感语音。
在一些较佳的实施方式中,第一模型包括依次连接的第一子模型、第二子模型及第三子模型,情感特征信息生成模块2至少包括:
第一特征提取单元21:用于以待处理文本信息及前文信息为输入,通过预先训练的第一子模型进行特征提取以获得第一中间输出;
第二特征提取单元22:用于以第一中间输出及待处理文本信息为输入,通过预先训练的第二子模型进行特征提取以获得情感类型及第二中间输出;
第三特征提取单元23:用于以第二中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第三子模型进行特征提取以获得情感特征信息。
在一些较佳的实施方式中,当前文信息还包括前文语音信息时,第一模型包括依次连接的第四子模型、第五子模型及第六子模型,情感特征信息获取模块2还包括:
第四特征提取单元21′:用于以待处理文本信息及前文信息为输入,通过预先训练的第四子模型进行特征提取以获得第四中间输出;
第五特征提取单元22′:用于以第四中间输出及待处理文本信息为输入,通过预先训练的第五子模型进行特征提取以获得第五中间输出;
第六特征提取单元23′:用于以第五中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第六子模型进行特征提取以获得情感特征信息。
在一些较佳的实施方式中,该装置还包括模型训练模块4,模型训练模块4至少包括用于训练第二模型的第二模型训练单元41,所述第二模型训练单元41至少包括:
第一提取子单元411:用于提取视频样本的视频图像样本、文本信息样本及对话信息样本;
情感标注子单元412:用于按照预设情感分类,对所述视频图像样本进行标注获得情感标注信息样本;
第一训练子单元413:用于以所述视频图像样本为输入,以所述情感标注信息样本为输出,训练第三模型,并提取所述第三模型的第三中间输出作为所述视频图像样本的情感信息;还用于以所述情感信息及文本信息样本为输入,以对话信息样本为输出,训练第二模型。
在一些较佳的实施方式中,所述模型训练模块还包括用于训练第一模型的第一模型训练单元42,所述第一模型训练单元42至少包括:
第二提取子单元421:用于提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本;
第二训练子单元422:用于以当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第一子模型,并提取所述第一子模型中间输出的第一中间输出;
还用于以所述第一中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第二子模型,并提取所述第二子模型中间输出的第二中间输出;
还用于以所述第二中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第三子模型。
在一些较佳的实施方式中,所述模型训练模块4还包括用于训练另一第一模型的第三模型训练单元43,所述第三模型训练单元43至少包括:
第三提取子单元431:用于提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本及前文语音信息样本;
第三训练子单元432,用于以所述当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第四子模型,并提取所述第四子模型中间输出的第四中间输出;
还用于以所述第四中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第五子模型,并提取所述第五子模型中间输出的第五中间输出及情感类型;
还用于以所述第五中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第六子模型。
在一些较佳的实施方式中,所述第二模型训练单元41还包括:
预处理子单元414,用于按照预设时间间隔,将所述视频图像样本分为若干段视频图像子样本,并将任一时间间隔内的文本作为当前文本信息样本,将所述任一时间间隔之前的文本作为前文文本信息样本。
需要说明的是:上述实施例提供的一种基于深度学习的情感语音合成装置在触发情感语音合成业务时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的一种基于深度学习的情感语音合成装置实施例与方法实施例属于同一构思,即该装置是基于该方法的,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度学习的情感语音合成方法,其特征在于,所述方法至少包括如下步骤:
提取待处理文本信息及所述待处理文本信息的前文信息,所述前文信息包括前文文本信息;
以所述待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息;
以所述情感特征信息及待处理文本信息为输入,通过预先训练的第二模型合成情感语音。
2.根据权利要求1所述的一种基于深度学习的情感语音合成方法,其特征在于,所述第一模型包括依次连接的第一子模型、第二子模型及第三子模型,所述以所述待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息,具体包括如下子步骤:
以所述待处理文本信息及前文信息为输入,通过预先训练的第一子模型进行特征提取以获得第一中间输出;
以所述第一中间输出及待处理文本信息为输入,通过预先训练的第二子模型进行特征提取以获得情感类型及第二中间输出;
以所述第二中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第三子模型进行特征提取以获得情感特征信息。
3.根据权利要求1所述的一种基于深度学习的情感语音合成方法,其特征在于,当所述前文信息还包括前文语音信息时,所述第一模型包括依次连接的第四子模型、第五子模型及第六子模型,所述以所述待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息,具体包括如下子步骤:
以所述待处理文本信息及前文信息为输入,通过预先训练的第四子模型进行特征提取以获得第四中间输出;
以所述第四中间输出及待处理文本信息为输入,通过预先训练的第五子模型进行特征提取以获得第五中间输出;
以所述第五中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第六子模型进行特征提取以获得情感特征信息。
4.根据权利要求2或3所述的一种基于深度学习的情感语音合成方法,其特征在于,预先训练所述第二模型时,具体包括如下子步骤:
提取视频样本的视频图像样本、文本信息样本及对话信息样本;
按照预设情感分类,对所述视频图像样本进行标注获得情感标注信息样本;
以所述视频图像样本为输入,以所述情感标注信息样本为输出,训练第三模型,并提取所述第三模型的第三中间输出作为所述视频图像样本的情感信息;
以所述情感信息及文本信息样本为输入,以对话信息样本为输出,训练第二模型。
5.根据权利要求4所述的一种基于深度学习的情感语音合成方法,其特征在于,预先训练所述第一模型时,具体包括如下子步骤:
提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本;
以所述当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第一子模型,并提取所述第一子模型中间输出的第一中间输出;
以所述第一中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第二子模型,并提取所述第二子模型中间输出的第二中间输出;
以所述第二中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第三子模型。
6.根据权利要求4所述的一种基于深度学习的情感语音合成方法,其特征在于,预先训练所述第一模型时,具体包括如下子步骤:
提取视频样本的当前文本信息样本及前文信息样本,所述前文信息样本包括前文文本信息样本及前文语音信息样本;
以所述当前文本信息样本及前文信息样本为输入,且以所述当前文本信息样本相对所述前文信息样本的情感是否变化为输出,训练获得所述第四子模型,并提取所述第四子模型中间输出的第四中间输出;
以所述第四中间输出及当前文本信息样本为输入,且以情感类型为输出,训练获得所述第五子模型,并提取所述第五子模型中间输出的第五中间输出及情感类型;
以所述第五中间输出、当前文本信息样本、情感类型或接收的用户指定情感类型为输入,且以所述模型三获得的情感信息为输出,训练获得所述第六子模型。
7.根据权利要求5或6所述的一种基于深度学习的情感语音合成方法,其特征在于,所述预先训练所述第二模型时,还包括视频样本预处理,其至少包括:
按照预设时间间隔,将所述视频图像样本分为若干段视频图像子样本,并将任一时间间隔内的文本作为当前文本信息样本,将所述任一时间间隔之前的文本作为前文文本信息样本。
8.一种基于权利要求1~7任意一项所述方法的基于深度学习的情感语音合成装置,其特征在于:所述装置至少包括:
提取模块:用于提取待处理文本信息及所述待处理文本信息的前文信息,所述前文信息包括前文文本信息;
情感特征信息生成模块:用于以所述待处理文本信息及前文信息为输入,通过预先构建的第一模型生成情感特征信息;
情感语音合成模块:用于以所述情感特征信息及待处理文本信息为输入,通过预先训练的第二模型合成情感语音。
9.根据权利要求8所述的一种基于深度学习的情感语音合成装置,其特征在于,所述第一模型包括依次连接的第一子模型、第二子模型及第三子模型,所述情感特征信息生成模块至少包括:
第一特征提取单元:用于以所述待处理文本信息及前文信息为输入,通过预先训练的第一子模型进行特征提取以获得第一中间输出;
第二特征提取单元:用于以所述第一中间输出及待处理文本信息为输入,通过预先训练的第二子模型进行特征提取以获得情感类型及第二中间输出;
第三特征提取单元::用于以所述第二中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第三子模型进行特征提取以获得情感特征信息。
10.根据权利要求8所述的一种基于深度学习的情感语音合成装置,其特征在于,当所述前文信息还包括前文语音信息时,所述第一模型包括依次连接的第四子模型、第五子模型及第六子模型,所述情感特征信息获取模块至少包括:
第四特征提取单元:用于以所述待处理文本信息及前文信息为输入,通过预先训练的第四子模型进行特征提取以获得第四中间输出;
第五特征提取单元:用于以所述第四中间输出及待处理文本信息为输入,通过预先训练的第五子模型进行特征提取以获得第五中间输出;
第六特征提取单元:用于以所述第五中间输出、待处理文本信息、情感类型或接收的用户指定情感类型为输入,通过预先训练的第六子模型进行特征提取以获得情感特征信息。
CN201910850474.8A 2019-09-10 2019-09-10 一种基于深度学习的情感语音合成方法及装置 Active CN110675853B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910850474.8A CN110675853B (zh) 2019-09-10 2019-09-10 一种基于深度学习的情感语音合成方法及装置
PCT/CN2020/096998 WO2021047233A1 (zh) 2019-09-10 2020-06-19 一种基于深度学习的情感语音合成方法及装置
CA3154029A CA3154029A1 (en) 2019-09-10 2020-06-19 Deep learning-based emotional speech synthesis method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910850474.8A CN110675853B (zh) 2019-09-10 2019-09-10 一种基于深度学习的情感语音合成方法及装置

Publications (2)

Publication Number Publication Date
CN110675853A true CN110675853A (zh) 2020-01-10
CN110675853B CN110675853B (zh) 2022-07-05

Family

ID=69077740

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910850474.8A Active CN110675853B (zh) 2019-09-10 2019-09-10 一种基于深度学习的情感语音合成方法及装置

Country Status (3)

Country Link
CN (1) CN110675853B (zh)
CA (1) CA3154029A1 (zh)
WO (1) WO2021047233A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111816212A (zh) * 2020-06-19 2020-10-23 杭州电子科技大学 基于特征集融合的语音情感识别及评价方法
CN112489620A (zh) * 2020-11-20 2021-03-12 北京有竹居网络技术有限公司 语音合成方法、装置、可读介质及电子设备
WO2021047233A1 (zh) * 2019-09-10 2021-03-18 苏宁易购集团股份有限公司 一种基于深度学习的情感语音合成方法及装置
CN113192483A (zh) * 2021-03-22 2021-07-30 联想(北京)有限公司 一种文本转换为语音的方法、装置、存储介质和设备
CN113223493A (zh) * 2020-01-20 2021-08-06 Tcl集团股份有限公司 语音看护方法、装置、系统及存储介质
CN114783406A (zh) * 2022-06-16 2022-07-22 深圳比特微电子科技有限公司 语音合成方法、装置和计算机可读存储介质
CN116825088A (zh) * 2023-08-25 2023-09-29 深圳市国硕宏电子有限公司 一种基于深度学习的会议语音检测方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113421576B (zh) * 2021-06-29 2024-05-24 平安科技(深圳)有限公司 语音转换方法、装置、设备以及存储介质
CN114005446A (zh) * 2021-11-01 2022-02-01 科大讯飞股份有限公司 情感分析方法、相关设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105355193A (zh) * 2015-10-30 2016-02-24 百度在线网络技术(北京)有限公司 语音合成方法和装置
US20180286383A1 (en) * 2017-03-31 2018-10-04 Wipro Limited System and method for rendering textual messages using customized natural voice
CN109523989A (zh) * 2019-01-29 2019-03-26 网易有道信息技术(北京)有限公司 语音合成方法、语音合成装置、存储介质及电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599998B (zh) * 2016-12-01 2019-02-01 竹间智能科技(上海)有限公司 基于情感特征调整机器人回答的方法及系统
CN108172209A (zh) * 2018-01-09 2018-06-15 上海大学 构建语音偶像方法
CN109003624B (zh) * 2018-06-29 2022-02-15 北京百度网讯科技有限公司 情绪识别方法、装置、计算机设备及存储介质
CN110211563B (zh) * 2019-06-19 2024-05-24 平安科技(深圳)有限公司 面向情景及情感的中文语音合成方法、装置及存储介质
CN110675853B (zh) * 2019-09-10 2022-07-05 苏宁云计算有限公司 一种基于深度学习的情感语音合成方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105355193A (zh) * 2015-10-30 2016-02-24 百度在线网络技术(北京)有限公司 语音合成方法和装置
US20180286383A1 (en) * 2017-03-31 2018-10-04 Wipro Limited System and method for rendering textual messages using customized natural voice
CN109523989A (zh) * 2019-01-29 2019-03-26 网易有道信息技术(北京)有限公司 语音合成方法、语音合成装置、存储介质及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
邵艳秋等: "小规模情感数据和大规模中性数据相结合的情感韵律建模研究", 《计算机研究与发展》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021047233A1 (zh) * 2019-09-10 2021-03-18 苏宁易购集团股份有限公司 一种基于深度学习的情感语音合成方法及装置
CN113223493A (zh) * 2020-01-20 2021-08-06 Tcl集团股份有限公司 语音看护方法、装置、系统及存储介质
CN111816212A (zh) * 2020-06-19 2020-10-23 杭州电子科技大学 基于特征集融合的语音情感识别及评价方法
CN111816212B (zh) * 2020-06-19 2022-10-11 杭州电子科技大学 基于特征集融合的语音情感识别及评价方法
CN112489620A (zh) * 2020-11-20 2021-03-12 北京有竹居网络技术有限公司 语音合成方法、装置、可读介质及电子设备
CN113192483A (zh) * 2021-03-22 2021-07-30 联想(北京)有限公司 一种文本转换为语音的方法、装置、存储介质和设备
CN113192483B (zh) * 2021-03-22 2024-02-27 联想(北京)有限公司 一种文本转换为语音的方法、装置、存储介质和设备
CN114783406A (zh) * 2022-06-16 2022-07-22 深圳比特微电子科技有限公司 语音合成方法、装置和计算机可读存储介质
CN116825088A (zh) * 2023-08-25 2023-09-29 深圳市国硕宏电子有限公司 一种基于深度学习的会议语音检测方法及系统
CN116825088B (zh) * 2023-08-25 2023-11-07 深圳市国硕宏电子有限公司 一种基于深度学习的会议语音检测方法及系统

Also Published As

Publication number Publication date
CA3154029A1 (en) 2021-03-18
WO2021047233A1 (zh) 2021-03-18
CN110675853B (zh) 2022-07-05

Similar Documents

Publication Publication Date Title
CN110675853B (zh) 一种基于深度学习的情感语音合成方法及装置
CN112184858B (zh) 基于文本的虚拟对象动画生成方法及装置、存储介质、终端
CN105244026B (zh) 一种语音处理方法及装置
CN107993665B (zh) 多人会话场景中发言人角色确定方法、智能会议方法及系统
CN111048064B (zh) 基于单说话人语音合成数据集的声音克隆方法及装置
CN110782872A (zh) 基于深度卷积循环神经网络的语种识别方法及装置
CN116863038A (zh) 一种文本生成数字人语音及面部动画的方法
CN111508469A (zh) 一种文语转换方法及装置
CN110691258A (zh) 一种节目素材制作方法、装置及计算机存储介质、电子设备
CN103885924A (zh) 一种领域自适应的公开课字幕自动生成系统及方法
CN112184859A (zh) 端到端的虚拟对象动画生成方法及装置、存储介质、终端
CN111508466A (zh) 一种文本处理方法、装置、设备及计算机可读存储介质
CN115147521A (zh) 一种基于人工智能语义分析的角色表情动画的生成方法
Lu et al. Multi-speaker emotional speech synthesis with fine-grained prosody modeling
CN115511994A (zh) 一种快速将真人克隆为二维虚拟数字人的方法
CN117275485B (zh) 一种音视频的生成方法、装置、设备及存储介质
CN112185341A (zh) 基于语音合成的配音方法、装置、设备和存储介质
CN114125506A (zh) 语音审核方法及装置
CN112242134A (zh) 语音合成方法及装置
CN115359778A (zh) 基于说话人情感语音合成模型的对抗与元学习方法
CN110310620B (zh) 基于原生发音强化学习的语音融合方法
CN111312211A (zh) 一种基于过采样技术的方言语音识别系统
Um et al. Facetron: A Multi-Speaker Face-to-Speech Model Based on Cross-Modal Latent Representations
CN113223513A (zh) 语音转换方法、装置、设备和存储介质
CN113299272A (zh) 语音合成模型训练和语音合成方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: No.1-1 Suning Avenue, Xuzhuang Software Park, Xuanwu District, Nanjing, Jiangsu Province, 210000

Patentee after: Jiangsu Suning cloud computing Co.,Ltd.

Country or region after: China

Address before: No.1-1 Suning Avenue, Xuzhuang Software Park, Xuanwu District, Nanjing, Jiangsu Province, 210000

Patentee before: Suning Cloud Computing Co.,Ltd.

Country or region before: China

CP03 Change of name, title or address
TR01 Transfer of patent right

Effective date of registration: 20240204

Address after: Room 3104, Building A5, No. 3 Gutan Avenue, Economic Development Zone, Gaochun District, Nanjing City, Jiangsu Province, 210000

Patentee after: Jiangsu Biying Technology Co.,Ltd.

Country or region after: China

Address before: No.1-1 Suning Avenue, Xuzhuang Software Park, Xuanwu District, Nanjing, Jiangsu Province, 210000

Patentee before: Jiangsu Suning cloud computing Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right