CN113223493A - 语音看护方法、装置、系统及存储介质 - Google Patents

语音看护方法、装置、系统及存储介质 Download PDF

Info

Publication number
CN113223493A
CN113223493A CN202010067039.0A CN202010067039A CN113223493A CN 113223493 A CN113223493 A CN 113223493A CN 202010067039 A CN202010067039 A CN 202010067039A CN 113223493 A CN113223493 A CN 113223493A
Authority
CN
China
Prior art keywords
information
voice
model
tone
audio information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010067039.0A
Other languages
English (en)
Inventor
张嘉鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TCL Corp
TCL Research America Inc
Original Assignee
TCL Research America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TCL Research America Inc filed Critical TCL Research America Inc
Priority to CN202010067039.0A priority Critical patent/CN113223493A/zh
Publication of CN113223493A publication Critical patent/CN113223493A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例适用于人工智能技术领域,公开了一种语音看护方法、装置、系统及计算机可读存储介质,其中,方法包括:获取语音播报触发信息;根据语音播报触发信息,通过语言习惯模仿模型和/或音色模仿模型,生成待播报音频信息;播放待播报音频信息。本申请实施例在获取到语音播报触发信息之后,利用语言习惯模仿模型和音色模仿模型模仿关联用户的语言习惯和音色,使得待播报音频信息的音色和语言习惯与关联用户的音色和语言习惯的相似程度大于一定阈值,以提高语音看护效果。

Description

语音看护方法、装置、系统及存储介质
技术领域
本申请属于人工智能技术领域,尤其涉及一种语音看护方法、装置、系统及计算机可读存储介质。
背景技术
随着社会的不断发展,婴幼儿产品的需求量也在与日俱增。
婴幼儿看护设备是众多婴幼儿产品中的一种。目前,婴幼儿看护设备一般具备婴幼儿生理参数监测功能,或者语音陪护功能。市场上具备语音陪护功能的婴幼儿看护设备一般是根据婴幼儿的语音,播报相应的反馈语音,所播报的反馈语音一般是人为预先录制的。
婴幼儿对父母的声音非常敏感,如果陌生人的声音出现,他们会恐惧,从而抗拒,有可能会一直哭闹,甚至引发不安全的事情发生。从而导致婴幼儿对此类产品的接受度不高,从而无法实现照顾孩子的功能,从而无法有效帮助父母分担压力。也就是说,市场上的语音陪护系统,存在以下两个缺陷:无法根据父母的音色进行语音播报;无法模仿任意父母的语言习惯。同理,作用对象为非婴幼儿的语音看护系统同样存在上述问题。
发明内容
本申请实施例提供一种语音看护方法、装置、系统及计算机可读存储介质,以解决现有语音陪护系统无法根据目标对象的相关用户的声音进行语音播报的问题。
第一方面,本申请实施例提供一种语音看护方法,包括:
获取语音播报触发信息;
根据所述语音播报触发信息,通过语言习惯模仿模型和/或音色模仿模型,生成待播报音频信息;
播放所述待播报音频信息。
可以看出,在获取到语音播报触发信息之后,利用语言习惯模仿模型和音色模仿模型模仿关联用户的语言习惯和音色,使得待播报音频信息的音色和语言习惯与关联用户的音色和语言习惯相同。
示例性地,目标对象为婴幼儿,婴幼儿的关联用户为婴幼儿的父母时,通过本申请实施例提供的方法,可以模仿婴幼儿父母的音色和语言习惯播报相应的音频信息。
结合第一方面,在一种可能的实现方式中,所述语音播报触发信息为目标对象的语音信息;
根据所述语音播报触发信息,通过语言习惯模仿模型和/或所述音色模仿模型,生成待播报音频信息,包括:
将所述语音信息转换为目标文本信息;
根据所述目标文本信息和所述语言习惯模仿模型,获得所述语音信息对应的应答语句信息;
将所述应答语句信息转换为目标音频信息;
将所述目标音频信息输入至所述音色模仿模型,获得所述音色模仿模型输出的待播报音频信息;
所述待播报音频信息的音色和/或语言习惯与目标对象的关联用户的音色和/或语言习惯的相似程度大于或等于预设阈值。
结合第一方面,在一种可能的实现方式中,所述语言习惯模仿模型为包括Transformer-XL模型和RNN生成模型的模型;
根据所述目标文本信息和所述语言习惯模仿模型,获得所述语音信息对应的应答语句信息,包括:
对所述目标文本信息进行编码,获得编码信息,所述编码信息包括每个文字的向量表示、每个文字的位置编码和在每个句子的标签;
将目标编码信息输入至所述Transformer-XL模型,获得所述Transformer-XL模型的输出结果,所述目标编码信息为对所述编码信息执行数据隐藏操作后得到的编码信息;
将所述输出结果和所述标签输入至所述RNN生成模型,获得所述RNN生成模型输出的应答语句信息。
结合第一方面,在一种可能的实现方式中,所述音色模仿模型为生成式对抗网络中的生成器;
将所述目标音频信息输入至所述音色模仿模型,获得所述音色模仿模型输出的待播报音频信息,包括:
将所述目标音频信息输入至所述生成器,以使所述生成器对所述目标音频信息进行傅里叶变换获得语谱图后,再通过卷积层和池化层生成伪语音数据;
获得所述生成器输出的所述伪语音数据,所述伪语音数据为所述待播报音频信息。
结合第一方面,在一种可能的实现方式中,所述音色模仿模型具体为生成式对抗网络中的生成器,所述生成式对抗网络模型包括生成器和判别器;
所述音色模仿模型的训练过程具体包括:
获取非关联用户的语料数据和所述关联用户的语料数据;
将所述关联用户的语料数据和所述非关联用户的语料数据输入至所述判别器,对所述判别器进行训练,获得训练完成的判别器,所述训练完成的判别器的音色判别准确度达到预设数值;
通过所述生成器生成伪语料数据;
将所述伪语料数据输入至所述训练完成的判别器,获得判别结果;
当所述判别结果为一致时,所述生成器训练完成,当所述判别结果为不一致时,返回通过所述生成器生成伪语料数据;将所述伪语料数据输入至所述训练完成的判别器,获得判别结果的步骤。
结合第一方面,在一种可能的实现方式中,其特征在于,所述方法还包括:
采集所述关联用户的对话数据;
使用所述对话数据训练所述语言习惯模仿模型。
结合第一方面,在一种可能的实现方式中,所述获取语音播报触发信息,包括:
定时触发语音播报任务,读取所述语音播报任务对应的所述语音播报触发信息;
或者
监测目标对象的状态;
当所述目标对象的状态符合预设状态时,通过传感器采集所述目标对象的状态信息,所述状态信息为语音播报触发信息。
第二方面,本申请实施例提供一种语音看护系统,包括触发信息采集设备、与所述触发信息采集设备连接的语音看护装置和与所述语音看护装置连接的语音播报设备;
所述触发信息采集设备用于采集语音播报触发信息;
所述语音看护装置用于执行上述第一方面任一项所述的方法。
第三方面,本申请实施例提供一种语音看护装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面任一项所述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面任一项所述的方法。
第五方面,本申请实施例提供一种计算机程序产品,当计算机程序产品在语音看护装置上运行时,使得语音看护装置执行上述第一方面中任一项所述的方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种语音看护方法的流程示意框图;
图2为本申请实施例提供的音色模仿模型的训练过程的流程示意框图;
图3为本申请实施例提供的生成器训练过程示意图;
图4为本申请实施例提供的待播报音频信息生成过程的流程示意框图;
图5为本申请实施例提供的编码器的编码过程示意图;
图6为本申请实施例提供的self-attention模块示意图;
图7为本申请实施例提供的语音看护装置的结构框图;
图8为本申请实施例提供的语音看护装置的结构示意图;
图9为本申请实施例提供的一种语音看护系统的结构示意框图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。
然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的语音看护方法可以应用于手机、平板电脑、可穿戴设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
参见图1,为本申请实施例提供的一种语音看护方法的流程示意框图,该方法可以包括以下步骤:
步骤S101、获取语音播报触发信息。
需要说明的是,上述语音播报触发信息是指用于触发语音播报的信息,即在接收或采集到这类信息之后,则进行语音播报流程。
该语音播报触发信息可以包括主动触发信息和被动触发信息。主动触发一般是用户设置固定的触发任务,在特定时间或地点执行相应任务。例如,看护的目标对象为婴幼儿,用户设置定时触发任务为:晚上十点,播报“宝宝,该上床睡觉”的音频信息。被动触发可以包括状态监测触发和目标对象的语音触发等。目标对象语音触发是指系统采集目标对象的声音后,则触发语音播报流程。状态监测触发是指实时监测目标对象的相关状态,当检测到目标状态后则触发语音播报流程,例如,目标对象为婴幼儿时,通过图像传感器实时采集婴幼儿的图像,当检测到婴幼儿爬上高处时,则触发语音播报流程。又例如,目标对象为婴幼儿时,通过声贝检测装置实时监测婴幼儿的声贝值,当声贝值超过某个阈值时,则认为婴幼儿正在哭闹,触发语音播报流程。
换句话说,在一些实施例中,上述获取语音播报触发信息的过程可以包括:定时触发语音播报任务,读取语音播报任务对应的语音播报触发信息。例如,设定晚上十点进行语音播报,让孩子去睡觉。
在另一些实施例中,上述获取语音播报触发信息的过程可以包括:监测目标对象的状态;当目标对象的状态符合预设状态时,通过传感器采集目标对象的状态信息,状态信息为语音播报触发信息。
上述目标对象的状态可以是任意的,例如,声贝状态和安全状态等。上述预设状态是预先设定的状态,当监测到目标对象处于预设状态时,则采集当前状态下的信息。
其中,上述目标对象是指被看护的对象,其可以为婴幼儿,也可以是非婴幼儿,在此不作限定。
当然,上述语音播报触发信息的获取方式和触发方式不限于上文提及的,在此不作限定。
步骤S102、根据语音播报触发信息,通过语言习惯模仿模型和/或音色模仿模型,生成待播报音频信息。
需要说明的是,上述语音播报触发信息除了可以触发语音播报流程之外,还可以携带着语音播报的相关信息。例如,目标对象为婴幼儿时,当语音播报触发信息为婴幼儿的语音信息时,则可以根据该语音信息生成对应的应答语句,再模仿关联用户的音色和语言习惯播报该应答语句。又例如,当语音播报触发信息为定时语音播报任务对应的信息时,则根据该语音播报触发信息获取到对应的播报文本信息,根据该播报文本信息生成对应的音频信息,再模仿关联用户的音色和语言习惯播报该音频信息。
待播报音频信息的音色和/或语言习惯与目标对象的关联用户的音色和/或语言习惯的相似程度大于或等于预设阈值。该预设阈值可以根据需要进行设定。其中,待播报音频信息的音色和关联用户的音色之间的相似程度大于或等于预设阈值,待播报音频信息的语言习惯和关联用户的语言习惯之间的相似程度大于或等于预设阈值。
上述目标对象的关联用户一般是指目标对象的亲属或监护人,例如,目标对象为婴幼儿时,目标对象的关联用户为婴幼儿的父母、爷爷奶奶或者外公外婆等。通过语言习惯模仿模型可以模仿关联用户的语言习惯,通过音色模仿模型可以模仿关联用户的音色。本申请实施例中,可以单独使用语言习惯模仿模型或者音色模仿模型,也可以使用语言习惯模仿模型和音色模仿模型。相较而言,待播报音频信息的音色和语言习惯与关联用户的音色和语言习惯相同,语音陪护效果更佳。
上述语言习惯模仿模型具体为G-Transformer-XL(Generator by Transformer-XL)模型,该模型可以包括Transformer-XL模型和RNN生成模型。上述音色模仿模型具体为生成式对抗网络的生成器,该生成器具体为全序列卷积神经网络。语言习惯模仿模型和音色模仿模型均是预先训练好的模型。语言习惯模仿模型的训练数据集是基于采集的关联用户的日常对话数据,或者是,关联用户的特定对话数据。音色模仿模型的训练数据集是采集的关联用户的声音数据和陌生人的声音数据。
下面将分别介绍G-Transformer-XL模型和生成器的训练过程。
生成器的训练过程
生成式对抗网络(Generative Adversarial Networks,GAN)包括生成器(Generative Model)和判别器(Discriminative Model)。
参见图2示出的音色模仿模型的训练过程的流程示意框图,音色模仿模型的训练过程可以包括以下步骤:
步骤S201、获取非关联用户的语料数据和关联用户的语料数据。
需要说明的是,上述关联用户可以是指目标对象的关联用户,其一般为目标对象的亲属或监护人,例如,目标对象为婴幼儿时,目标对象的关联用户为婴幼儿的父母。非关联用户是与关联用户相对应的用户,相对于目标对象来说,非关联用户一般是陌生人。
步骤S202、将关联用户的语料数据和非关联用户的语料数据输入至判别器,对判别器进行训练,获得训练完成的判别器,训练完成的判别器的音色判别准确度达到预设数值。
具体地,将大量的关联用户的语料数据和非关联用户的语料数据输入至判别器,训练判别器判别输入的音频数据是否为关联用户的音色的准确度,当判别器的判别准确率达到预设数值时,则可以认为判别器训练完成。
步骤S203、通过生成器生成伪语料数据。
具体地,通过TTS技术,将相应的文本数据转换为音频数据,将音频数据输入至生成器,生成器先对时域的语音信号进行傅里叶变换,得到语音的语谱图,把时间和频率作为输入的两个维度,通过卷积层和池化层的组合,实现对整句语音的建模,生成上述伪语料数据。
步骤S204、将伪语料数据和关联用户的语料数据输入至训练完成的判别器,获得判别结果。
步骤S205、当判别结果为一致时,生成器训练完成,当判别结果为不一致时,返回通过生成器生成伪语料数据;将伪语料数据输入至训练完成的判别器,获得判别结果,即返回上述步骤S204和步骤S205。
具体地,将生成器生成的伪语料数据和关联用户的语料数据输入至训练后的判别器,得到判别器输出的判别结果。当判别结果为一致时,则表明判别器不能区分伪语料数据和关联用户的语料数据,表明此时生成器生成的伪语料数据的音色与关联用户的音色很相似。当判别结果为不一致时,则表明判别器可以区分出伪语料数据和关联用户的语料数据,表明此时生成器生成的伪语料数据的音色与关联用户的音色相差较大,此时,则继续通过生成器生成新的伪语料数据,然后再输入至判别器中进行判别,直到判别器区分不出伪语料数据和关联用户的语料数据。
为了更好地介绍生成器的训练过程,下面将结合图3示出的生成器训练过程示意图进行介绍。
如图3所示,通过生成器生成伪语料数据,将伪语料数据和真实的语料数据输入至训练好的判别器中,该真实的语料数据为父母的声音。判别器输出判别结果,该判别结果具体为“True”或“False”,“True”表示判别器认为输入的伪语料数据的音色和父母声音的音色相同,生成器训练完成。“False”表示判别器认为输入的伪语料数据和父母的声音不相同,继续通过生成器生成新的语料数据,执行上述训练过程。
G-Transformer-XL模型的训练过程
G-Transformer-XL模型具体包括Transformer-XL模型和RNN生成模型。该模型的训练可以是无监督训练,具体可以通过采集关联用户的日常对话数据进行训练,例如,父母在家中的日常对话内容,不需要额外构建对话内容。也就是说,在一些实施例中,上述方法还可以包括:采集关联用户的对话数据;使用对话数据训练语言习惯模仿模型。
需要说明的是,可以基于所采集到的对话数据不断训练语言习惯模仿模型,以不断更新、优化语言习惯模仿模型。例如,当系统处于非触发状态,且采集婴幼儿父母的日常对话数据时,则根据所采集的对话数据进行模型训练。
具体地,通过STT技术将采集的音频信息转换为文本信息,对文本信息进行编码,将编码信息隐藏掉10%的数据后输入至Transformer-XL模型,获得Transformer-XL模型输出的编码向量,再将编码向量和每个句子的<CLS>标签输入至RNN生成模型,生成应答语句。
介绍完G-Transformer-XL模型和生成器的训练过程之后,下面将介绍使用训练好的模型进行声音模仿的过程。
在一些实施例中,语音播报触发信息为婴幼儿语音信息,更具体地,目标对象的语音信息为目标对象的对话数据。
参见图4示出的待播报音频信息生成过程的流程示意框图,上述根据语音播报触发信息,通过语言习惯模仿模型和/或音色模仿模型,生成待播报音频信息的过程可以包括:
步骤S401、将语音信息转换为目标文本信息。
步骤S402、根据目标文本信息和语言习惯模仿模型,获得语音信息对应的应答语句信息。
进一步地,语言习惯模仿模型为包括Transformer-XL模型和RNN生成模型的模型;此时,上述根据目标文本信息和语言习惯模仿模型,获得目标对象的语音信息对应的应答语句信息的过程可以包括:
对目标文本信息进行编码,获得编码信息,编码信息包括每个文字的向量表示、每个文字的位置编码和在每个句子的标签;将目标编码信息输入至Transformer-XL模型,获得Transformer-XL模型的输出结果,目标编码信息为对编码信息执行数据隐藏操作后得到的编码信息;将输出结果和标签输入至RNN生成模型,获得RNN生成模型输出的应答语句信息。
具体过程可以包括两大步骤。
第一步:
通过STT技术将音频信息转换为目标文本信息之后,对目标文本信息进行编码,获得编码信息。编码过程中,用特定维度的向量表示每一个文字,并加入每个文字的位置编码,该位置编码可以表示每个文字在句子中的相对位置,还在每句话的最开始加入<CLS>标签。在对编码信息执行数据隐藏操作后,得到目标编码信息,即编码信息需要mask掉10%的数据用于预测。
将目标编码信息输入至Transformer-XL模型之后,Transformer-XL模型会将输入的数据划分为更短的部分(称为segment),每个segment的Encoder block(由self-attention构建)的输出标记为ht,i,t表示segment中的第t个time step,i表示第t个timestep中的第i个Encoder Block,其具体过程可以参见图5示出的编码器的编码过程示意图。参见图6示出的self-attention模块示意图,将Embedding操作得到向量分别乘以三个不同的矩阵,分别记为Wk,Wv,Wq,得到q,k,v;然后通过softmax归一化操作完成一个self-attention的Multi-Self-Ateention。每个self-attention有各自的Wk,Wv,Wq,将Multi-Self-Ateention的输出结合起来,作为这一个Encoder block的输出。
其中,除了最后一个Encoder block,将h-1,i设置为全零向量,维度和上一个segment的hidden的输出一样。处于第一个segment时,对除了第一个Encoder Block,将h-1,i-1和h0,i-1结合输入到第i个Encoder Block中;对除了最后一个Encoder Block,将每次的输出h0,i做一次备份,用于之后的时刻使用;对任意t(t!=1)时刻,对除了第一个EncoderBlock,将h-1,i-1和ht,i-1结合输入到第i个Encoder Block中;对除了最后一个EncoderBlock,将每次的输出ht,i做一次备份。
输入的编码数据有些字的编码被隐藏掉,故在模型计算中,不能泄露此类数据的信息。在Attention计算出来的向量中,将需要隐藏掉的数值设为负无穷。
最后,将mask掉的字预测出来,取h*,-1表示每个segment的中的任意time step最后一个encoder block的输出,将h*,-1做线性变换后,取softmax归一化,使其变为相加和为一的概率,从而取概率值最高的作为我们的预测。
第二步:
将第一步的输出的<CLS>标签的编码表示为h0,-1,0表示<CLS>位于每个segment的第一个位置,-1表示最后一个encoder block作为第二步RNN生成模型的初始输入。RNN生成模型采用GRU-RNN结构,即用GRU组成序列模型RNN,将h0,-1作为初始状态输入,每一个时刻都将前一时刻的隐状态作为输入和上一时刻的输出预测作为输入,预测结果和第一步的预测步骤相似,从而获得应答语句。
举例来说,目标对象为婴幼儿,婴幼儿音频信息具体为“妈妈,你在哪里”,系统采集到该音频信息之后,则先转换为文本信息,再对文本信息进行编码,然后输入至Transformer-XL模和RNN生成模型,以生成“妈妈,你在哪里”的回答语句。所生成的回答语句的语言习惯与婴幼儿的父母的语言习惯相同。
步骤S403、将应答语句信息转换为目标音频信息。
步骤S404、将目标音频信息输入至音色模仿模型,获得音色模仿模型输出的待播报音频信息。待播报音频信息的音色和/或语言习惯与目标对象的关联用户的音色和/或语言习惯的相似程度大于或等于预设阈值。
具体地,当音色模仿模型为生成式对抗网络中的生成器时,上述将目标音频信息输入至音色模仿模型,获得音色模仿模型输出的待播报音频信息的过程可以包括:
将目标音频信息输入至生成器,以使生成器对目标音频信息进行傅里叶变换获得语谱图后,再通过卷积层和池化层生成伪语音数据;获得生成器输出的伪语音数据,伪语音数据为待播报音频信息。
通过TTS技术将应答语句信息转换为目标音频信息之后,需要使用预先训练的生成器来模仿音色。将目标音频信息输入至生成器,生成器经过一系列的处理,输出生成的伪语音数据,该伪语音数据即为待播报音频信息。
可以理解的是,生成器是预先训练完成的,所生成的伪语音数据的音色与关联用户的音色相同。至此,即可生成音色和语言习惯与关联用户的音色和语言习惯均相同的待播报音频信息。
需要说明的是,上文介绍了生成音色和语言习惯相同的待播报音频信息的具体过程。在其他一些实施例中,也可以仅生成音色或语言习惯相同的待播报音频信息,具体生成过程和上文类似,在此不再赘述。
步骤S103、播放待播报音频信息。
具体地,在生成待播报音频信息之后,可以通过语音播放设备播报该音频信息。
可以看出,在获取到语音播报触发信息之后,利用语言习惯模仿模型和音色模仿模型模仿关联用户的语言习惯和音色,使得待播报音频信息的音色和语言习惯与关联用户的音色和语言习惯相似或相同,以提高语音陪护效果。示例性地,目标对象为婴幼儿,婴幼儿的关联用户为婴幼儿的父母时,通过本申请实施例提供的方法,可以模仿婴幼儿父母的音色和语言习惯播报相应的音频信息。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的语音看护方法,图7示出了本申请实施例提供的语音看护装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图7,该装置包括:
触发信息获取模块71,用于获取语音播报触发信息;
生成模块72,用于根据语音播报触发信息,通过语言习惯模仿模型和/或音色模仿模型,生成待播报音频信息;
播放模块73,用于播放待播报音频信息。
在一种可能的实现方式中,语音播报触发信息为目标对象的语音信息;上述生成模块具体用于:
将语音信息转换为目标文本信息;
根据目标文本信息和语言习惯模仿模型,获得语音信息对应的应答语句信息;
将应答语句信息转换为目标音频信息;
将目标音频信息输入至音色模仿模型,获得音色模仿模型输出的待播报音频信息,待播报音频信息的音色和/或语言习惯与目标对象的关联用户的音色和/或语言习惯的相似程度大于或等于预设阈值。
在一种可能的实现方式中,语言习惯模仿模型为包括Transformer-XL模型和RNN生成模型的模型;
上述生成模块具体用于:
根据目标文本信息和语言习惯模仿模型,获得语音信息对应的应答语句信息,包括:
对目标文本信息进行编码,获得编码信息,编码信息包括每个文字的向量表示、每个文字的位置编码和在每个句子的标签;
将目标编码信息输入至Transformer-XL模型,获得Transformer-XL模型的输出结果,目标编码信息为对编码信息执行数据隐藏操作后得到的编码信息;
将输出结果和标签输入至RNN生成模型,获得RNN生成模型输出的应答语句信息。
在一种可能的实现方式中,音色模仿模型为生成式对抗网络中的生成器;
上述生成模块具体用于:
将目标音频信息输入至音色模仿模型,获得音色模仿模型输出的待播报音频信息,包括:
将目标音频信息输入至生成器,以使生成器对目标音频信息进行傅里叶变换获得语谱图后,再通过卷积层和池化层生成伪语音数据;
获得生成器输出的伪语音数据,伪语音数据为待播报音频信息。
在一种可能的实现方式中,音色模仿模型具体为生成式对抗网络中的生成器,生成式对抗网络模型包括生成器和判别器;
上述装置还包括生成器训练模块,具体用于:
获取非关联用户的语料数据和关联用户的语料数据;
将关联用户的语料数据和非关联用户的语料数据输入至判别器,对判别器进行训练,获得训练完成的判别器,训练完成的判别器的音色判别准确度达到预设数值;
通过生成器生成伪语料数据;
将伪语料数据输入至训练完成的判别器,获得判别结果;
当判别结果为一致时,生成器训练完成,当判别结果为不一致时,返回通过生成器生成伪语料数据;将伪语料数据输入至训练完成的判别器,获得判别结果的步骤。
在一种可能的实现方式中,上述装置还可以包括语言习惯模仿模型训练模块,具体用于:
采集关联用户的对话数据;
使用对话数据训练语言习惯模仿模型。
在一种可能的实现方式中,上述触发信息具体用于:
定时触发语音播报任务,读取语音播报任务对应的语音播报触发信息;
或者,监测目标对象的状态;
当目标对象的状态符合预设状态时,通过传感器采集目标对象的状态信息,状态信息为语音播报触发信息。
需要说明的是,上述语音看护装置与上文的语音看护方法一一对应,相关介绍可参加上文相应内容,在此不再赘述。
上述语音看护装置具有实现上述语音看护方法的功能,该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现,硬件或软件包括一个或多个与上述功能相对应的模块,模块可以是软件和/或硬件。
图8为本申请一实施例提供的语音看护装置的结构示意图。如图8所示,该实施例的语音看护装置8包括:至少一个处理器80、存储器81以及存储在所述存储器81中并可在所述至少一个处理器80上运行的计算机程序82,所述处理器80执行所述计算机程序82时实现上述任意各个方法实施例中的步骤。
所述语音看护装置8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该语音看护装置可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是语音看护装置8的举例,并不构成对语音看护装置8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),该处理器80还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81在一些实施例中可以是所述语音看护装置8的内部存储单元,例如语音看护装置8的硬盘或内存。所述存储器81在另一些实施例中也可以是所述语音看护装置8的外部存储设备,例如所述语音看护装置8上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述语音看护装置8的内部存储单元也包括外部存储设备。所述存储器81用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
需要说明的是,上述装置、单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
参见图9示出的一种语音看护系统的结构示意框图,该系统包括触发信息采集设备91、与所述触发信息采集设备连接的语音看护装置92和与所述语音看护装置连接的语音播报设备93;
所述触发信息采集设备用于采集语音播报触发信息;
所述语音看护装置用于执行上文语音看护方法实施例中任一项所述的方法。或者,该语音看护装置为上述图8示出的装置,或者,该语音看护装置具备图7示出的功能模块。
需要说明的是,上述触发信息采集设备可以包括但不限于视觉捕捉监控器、语音唤醒器、声贝检测器和红外传感器等中的一种或多种。
需要说明的是,上述语音看护装置的相关处理流程请参见上文相应内容,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在语音看护装置上运行时,使得语音看护装置执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置、和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种语音看护方法,其特征在于,包括:
获取语音播报触发信息;
根据所述语音播报触发信息,通过语言习惯模仿模型和/或音色模仿模型,生成待播报音频信息;
播放所述待播报音频信息。
2.如权利要求1所述的方法,其特征在于,所述语音播报触发信息为目标对象的语音信息;
根据所述语音播报触发信息,通过语言习惯模仿模型和/或所述音色模仿模型,生成待播报音频信息,包括:
将所述语音信息转换为目标文本信息;
根据所述目标文本信息和所述语言习惯模仿模型,获得所述语音信息对应的应答语句信息;
将所述应答语句信息转换为目标音频信息;
将所述目标音频信息输入至所述音色模仿模型,获得所述音色模仿模型输出的待播报音频信息;
所述待播报音频信息的音色和/或语言习惯与目标对象的关联用户的音色和/或语言习惯的相似程度大于或等于预设阈值。
3.如权利要求2所述的方法,其特征在于,所述语言习惯模仿模型为包括Transformer-XL模型和RNN生成模型的模型;
根据所述目标文本信息和所述语言习惯模仿模型,获得所述语音信息对应的应答语句信息,包括:
对所述目标文本信息进行编码,获得编码信息,所述编码信息包括每个文字的向量表示、每个文字的位置编码和在每个句子的标签;
将目标编码信息输入至所述Transformer-XL模型,获得所述Transformer-XL模型的输出结果,所述目标编码信息为对所述编码信息执行数据隐藏操作后得到的编码信息;
将所述输出结果和所述标签输入至所述RNN生成模型,获得所述RNN生成模型输出的应答语句信息。
4.如权利要求2所述的方法,其特征在于,所述音色模仿模型为生成式对抗网络中的生成器;
将所述目标音频信息输入至所述音色模仿模型,获得所述音色模仿模型输出的待播报音频信息,包括:
将所述目标音频信息输入至所述生成器,以使所述生成器对所述目标音频信息进行傅里叶变换获得语谱图后,再通过卷积层和池化层生成伪语音数据;
获得所述生成器输出的所述伪语音数据,所述伪语音数据为所述待播报音频信息。
5.如权利要求1所述的方法,其特征在于,所述音色模仿模型具体为生成式对抗网络中的生成器,所述生成式对抗网络模型包括生成器和判别器;
所述音色模仿模型的训练过程具体包括:
获取非关联用户的语料数据和所述关联用户的语料数据;
将所述关联用户的语料数据和所述非关联用户的语料数据输入至所述判别器,对所述判别器进行训练,获得训练完成的判别器,所述训练完成的判别器的音色判别准确度达到预设数值;
通过所述生成器生成伪语料数据;
将所述伪语料数据输入至所述训练完成的判别器,获得判别结果;
当所述判别结果为一致时,所述生成器训练完成,当所述判别结果为不一致时,返回通过所述生成器生成伪语料数据;将所述伪语料数据输入至所述训练完成的判别器,获得判别结果的步骤。
6.如权利要求2所述的方法,其特征在于,所述方法还包括:
采集所述关联用户的对话数据;
使用所述对话数据训练所述语言习惯模仿模型。
7.如权利要求1所述的方法,其特征在于,所述获取语音播报触发信息,包括:
定时触发语音播报任务,读取所述语音播报任务对应的所述语音播报触发信息;
或者
监测目标对象的状态;
当所述目标对象的状态符合预设状态时,通过传感器采集所述目标对象的状态信息,所述状态信息为语音播报触发信息。
8.一种语音看护系统,其特征在于,包括触发信息采集设备、与所述触发信息采集设备连接的语音看护装置和与所述语音看护装置连接的语音播报设备;
所述触发信息采集设备用于采集语音播报触发信息;
所述语音看护装置用于执行上述权利要求1至7任一项所述的方法。
9.一种语音看护装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202010067039.0A 2020-01-20 2020-01-20 语音看护方法、装置、系统及存储介质 Pending CN113223493A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010067039.0A CN113223493A (zh) 2020-01-20 2020-01-20 语音看护方法、装置、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010067039.0A CN113223493A (zh) 2020-01-20 2020-01-20 语音看护方法、装置、系统及存储介质

Publications (1)

Publication Number Publication Date
CN113223493A true CN113223493A (zh) 2021-08-06

Family

ID=77085038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010067039.0A Pending CN113223493A (zh) 2020-01-20 2020-01-20 语音看护方法、装置、系统及存储介质

Country Status (1)

Country Link
CN (1) CN113223493A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115394284A (zh) * 2022-08-23 2022-11-25 平安科技(深圳)有限公司 语音合成方法、系统、设备及存储介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020046899A1 (en) * 2000-09-12 2002-04-25 Yamaha Corporation Music performance information converting method with modification of timbre for emulation
US6928410B1 (en) * 2000-11-06 2005-08-09 Nokia Mobile Phones Ltd. Method and apparatus for musical modification of speech signal
US20130201316A1 (en) * 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
CN104464716A (zh) * 2014-11-20 2015-03-25 北京云知声信息技术有限公司 一种语音播报系统和方法
CN105425953A (zh) * 2015-11-02 2016-03-23 小天才科技有限公司 一种人机交互的方法及系统
CN106373326A (zh) * 2016-08-31 2017-02-01 上海卓易科技股份有限公司 一种基于终端的看护方法及装置
CN107093421A (zh) * 2017-04-20 2017-08-25 深圳易方数码科技股份有限公司 一种语音模拟方法和装置
CN107452400A (zh) * 2017-07-24 2017-12-08 珠海市魅族科技有限公司 语音播报方法及装置、计算机装置和计算机可读存储介质
CN107644637A (zh) * 2017-03-13 2018-01-30 平安科技(深圳)有限公司 语音合成方法和装置
CN107705783A (zh) * 2017-11-27 2018-02-16 北京搜狗科技发展有限公司 一种语音合成方法及装置
CN108073112A (zh) * 2018-01-19 2018-05-25 福建捷联电子有限公司 一种具有角色扮演的智能服务型机器人
CN108461079A (zh) * 2018-02-02 2018-08-28 福州大学 一种面向音色转换的歌声合成方法
CN109936766A (zh) * 2019-01-30 2019-06-25 天津大学 一种基于端到端的水场景音频的生成方法
CN110600000A (zh) * 2019-09-29 2019-12-20 百度在线网络技术(北京)有限公司 语音播报方法、装置、电子设备及存储介质
CN110675853A (zh) * 2019-09-10 2020-01-10 苏宁云计算有限公司 一种基于深度学习的情感语音合成方法及装置

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020046899A1 (en) * 2000-09-12 2002-04-25 Yamaha Corporation Music performance information converting method with modification of timbre for emulation
US6928410B1 (en) * 2000-11-06 2005-08-09 Nokia Mobile Phones Ltd. Method and apparatus for musical modification of speech signal
US20130201316A1 (en) * 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
CN104464716A (zh) * 2014-11-20 2015-03-25 北京云知声信息技术有限公司 一种语音播报系统和方法
CN105425953A (zh) * 2015-11-02 2016-03-23 小天才科技有限公司 一种人机交互的方法及系统
CN106373326A (zh) * 2016-08-31 2017-02-01 上海卓易科技股份有限公司 一种基于终端的看护方法及装置
CN107644637A (zh) * 2017-03-13 2018-01-30 平安科技(深圳)有限公司 语音合成方法和装置
CN107093421A (zh) * 2017-04-20 2017-08-25 深圳易方数码科技股份有限公司 一种语音模拟方法和装置
CN107452400A (zh) * 2017-07-24 2017-12-08 珠海市魅族科技有限公司 语音播报方法及装置、计算机装置和计算机可读存储介质
CN107705783A (zh) * 2017-11-27 2018-02-16 北京搜狗科技发展有限公司 一种语音合成方法及装置
CN108073112A (zh) * 2018-01-19 2018-05-25 福建捷联电子有限公司 一种具有角色扮演的智能服务型机器人
CN108461079A (zh) * 2018-02-02 2018-08-28 福州大学 一种面向音色转换的歌声合成方法
CN109936766A (zh) * 2019-01-30 2019-06-25 天津大学 一种基于端到端的水场景音频的生成方法
CN110675853A (zh) * 2019-09-10 2020-01-10 苏宁云计算有限公司 一种基于深度学习的情感语音合成方法及装置
CN110600000A (zh) * 2019-09-29 2019-12-20 百度在线网络技术(北京)有限公司 语音播报方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘建伟,王园方,罗雄麟: "《深度记忆网络研究进展》", 《计算机学报》, vol. 44, no. 08, pages 1549 - 1589 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115394284A (zh) * 2022-08-23 2022-11-25 平安科技(深圳)有限公司 语音合成方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
US11657230B2 (en) Referring image segmentation
US11087199B2 (en) Context-aware attention-based neural network for interactive question answering
CN112183747A (zh) 神经网络训练的方法、神经网络的压缩方法以及相关设备
CN112418292B (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN113723166A (zh) 内容识别方法、装置、计算机设备和存储介质
CN112837669B (zh) 语音合成方法、装置及服务器
CN112233698A (zh) 人物情绪识别方法、装置、终端设备及存储介质
KR102148378B1 (ko) 기계 학습 모델을 이용한 관심 이벤트의 알림 제공 장치 및 방법
CN114140708A (zh) 视频处理方法、装置及计算机可读存储介质
CN113205820B (zh) 一种用于声音事件检测的声音编码器的生成方法
CN111914076A (zh) 一种基于人机对话的用户画像构建方法、系统、终端及存储介质
CN114339450A (zh) 视频评论生成方法、系统、设备及存储介质
CN109242089B (zh) 递进监督深度学习神经网络训练方法、系统、介质和设备
Sehgal et al. Generating image captions based on deep learning and natural language processing
CN111241820A (zh) 不良用语识别方法、装置、电子装置及存储介质
CN113223493A (zh) 语音看护方法、装置、系统及存储介质
CN114662155A (zh) 面向联邦学习的数据隐私安全机制评估方法、设备及介质
Susaiyah et al. Neural scoring of logical inferences from data using feedback
CN116578738B (zh) 一种基于图注意力和生成对抗网络的图文检索方法和装置
CN115982452A (zh) 一种信息推荐方法、装置、电子设备及存储介质
CN114692022A (zh) 基于时空行为模式的位置预测方法及系统
CN111310460B (zh) 语句的调整方法及装置
CN113568901A (zh) 一种数据处理方法、装置及存储介质
CN112489630A (zh) 一种语音识别方法及设备
CN110716964A (zh) 基于gru网络的新生儿取名方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination