CN113362852A - 一种用户属性识别方法和装置 - Google Patents

一种用户属性识别方法和装置 Download PDF

Info

Publication number
CN113362852A
CN113362852A CN202010142092.2A CN202010142092A CN113362852A CN 113362852 A CN113362852 A CN 113362852A CN 202010142092 A CN202010142092 A CN 202010142092A CN 113362852 A CN113362852 A CN 113362852A
Authority
CN
China
Prior art keywords
voice
segment
preset
attribute
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010142092.2A
Other languages
English (en)
Inventor
杨栋
余涛
刘晓宇
李从兵
崔晓春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tencent Domain Computer Network Co Ltd
Original Assignee
Shenzhen Tencent Domain Computer Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tencent Domain Computer Network Co Ltd filed Critical Shenzhen Tencent Domain Computer Network Co Ltd
Priority to CN202010142092.2A priority Critical patent/CN113362852A/zh
Publication of CN113362852A publication Critical patent/CN113362852A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本申请公开了一种用户属性识别方法和装置;本申请可以获取目标用户的多个具有时序关系的语音片段,对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别;本申请通过改进识别目标用户的属性类别的方法,可以提高用户属性识别的运算速度和结果精确度。

Description

一种用户属性识别方法和装置
技术领域
本申请涉及计算机技术领域,具体涉及一种用户属性识别方法和装置。
背景技术
随着信息技术的迅速发展,网络媒体的发展也越来越多样化和便捷化。不同属性的用户,对网络媒体的需求不一样,在有些情况下,需要获取用户的属性,比如获取用户的年龄和性别等,以便根据用户的属性来提供相应的功能或者内容。例如,对于网络游戏,由于网络游戏可能会影响低龄用户的心智健康的发展,因此,需要限制低龄用户对网络游戏的使用。又例如,对于广告投放的场景,可以根据用户的性别来推荐相应的广告内容。
在目前的相关技术中,一般通过采集用户的图像来对用户的属性进行识别。但是图像往往包括用户一些比较隐私的信息,通过采集用户的图像来获取用户的属性,容易泄露用户的隐私,对用户造成负面的影响。
发明内容
本申请实施例提供一种用户属性识别方法和装置,可以提高用户属性识别的运算速度和结果精确度。
本申请实施例提供一种用户属性识别方法,包括:
获取目标用户的多个具有时序关系的语音片段;
对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征;
基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息;
基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率;
基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率;
基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
相应的,本申请实施例提供一种用户属性识别装置,包括:
获取单元,用于获取目标用户的多个具有时序关系的语音片段;
第一提取单元,用于对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征;
第二提取单元,用于基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息;
预测单元,用于基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率;
融合单元,用于基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率;
确定单元,用于基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
可选的,在本申请的一些实施例中,所述第一提取单元可以包括划分子单元、变换子单元和第一提取子单元,如下:
所述划分子单元,用于将每个语音片段划分为至少一个语音帧;
变换子单元,用于将所述语音帧从时间域变换到频率域,得到所述语音帧的子频谱信息;
第一提取子单元,用于对各个语音片段的语音帧的子频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
可选的,在本申请的一些实施例中,所述第一提取子单元具体可以用于对每个语音片段中的各个语音帧的子频谱信息进行融合,得到每个语音片段的频谱信息;对各个语音片段的频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
可选的,在本申请的一些实施例中,所述第一提取单元可以包括卷积子单元和降维子单元,如下:
所述卷积子单元,用于对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积特征图;
降维子单元,用于对各个语音片段的二维卷积特征图进行降维操作,得到各个语音片段的二维卷积语音特征。
可选的,在本申请的一些实施例中,所述第二提取单元可以包括获取子单元、第二提取子单元、更新子单元和返回子单元,如下:
所述获取子单元,用于获取历史语音片段的历史时序特征;
第二提取子单元,用于基于当前语音片段的二维卷积语音特征和历史语音片段的历史时序特征,提取当前语音片段的时序特征信息;
更新子单元,用于基于当前语音片段的二维卷积语音特征,更新所述历史语音片段的历史时序特征;
返回子单元,用于将下一个语音片段作为新的当前语音片段,返回执行所述获取历史语音片段的历史时序特征的步骤,直到得到各个语音片段的时序特征信息。
可选的,在本申请的一些实施例中,所述第一提取单元具体可以通过二维卷积神经网络对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征;所述第二提取单元具体可以采用循环神经网络,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
可选的,在本申请的一些实施例中,所述用户属性识别装置还可以包括训练单元,如下:
所述训练单元,具体用于获取训练数据,所述训练数据包括样本语音片段,以及所述样本语音片段对应的目标属性类别;通过二维卷积神经网络对所述样本语音片段进行卷积特征提取,得到所述样本语音片段的二维卷积语音特征;采用循环神经网络,基于所述样本语音片段的二维卷积语音特征,提取所述样本语音片段的时序特征信息;基于所述样本语音片段的时序特征信息,预测所述样本语音片段的属性类别为每个预设属性类别的概率;调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件。
其中,可选的,一些实施例中,步骤“调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件”,可以具体包括:
计算预测到的所述样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,其中,所述样本语音片段的属性类别为所述目标属性类别的真实概率为1,所述样本语音片段的属性类别为除所述目标属性类别之外的其他预设属性类别的真实概率为0;
基于所述损失值,调整所述二维卷积神经网络和所述循环神经网络的参数,以使计算得到的损失值小于预设损失值。
可选的,在本申请的一些实施例中,所述属性类别包括年龄段和性别;所述预测单元具体可以用于基于各个语音片段的时序特征信息,预测各个语音片段对应的年龄段为每个预设年龄段的概率,以及对应的性别为每个预设性别的概率。
可选的,在本申请的一些实施例中,所述属性类别包括年龄段和性别;所述融合单元具体可以用于基于所述预设年龄段,对预测到的各个语音片段对应的年龄段的概率进行融合,得到各个预设年龄段对应的融合后概率;基于所述预设性别,对预测到的各个语音片段对应的性别的概率进行融合,得到各个预设性别对应的融合后概率。
可选的,在本申请的一些实施例中,所述属性类别包括年龄段和性别;所述确定单元具体可以用于基于各个预设年龄段对应的融合后概率,从所述预设年龄段中确定所述目标用户对应的目标年龄段;基于各个预设性别对应的融合后概率,从所述预设性别中确定所述目标用户对应的目标性别。
本申请实施例提供的一种电子设备,包括处理器和存储器,所述存储器存储有多条指令,所述处理器加载所述指令,以执行本申请实施例提供的用户属性识别方法中的步骤。
此外,本申请实施例还提供一种存储介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现本申请实施例提供的用户属性识别方法中的步骤。
本申请实施例提供了一种用户属性识别方法和装置,可以获取目标用户的多个具有时序关系的语音片段,对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别;本申请通过改进识别目标用户的属性类别的方法,可以提高用户属性识别的运算速度和结果精确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本申请实施例提供的用户属性识别方法的场景示意图;
图1b是本申请实施例提供的用户属性识别方法的流程图;
图1c是本申请实施例提供的用户属性识别方法的模型示意图;
图1d是本申请实施例提供的用户属性识别方法的另一流程图;
图1e是本申请实施例提供的用户属性识别方法的模型训练图;
图2a是本申请实施例提供的用户属性识别方法的另一流程图;
图2b是本申请实施例提供的用户属性识别方法的另一流程图;
图2c是本申请实施例提供的用户属性识别方法的界面示意图;
图2d是本申请实施例提供的用户属性识别方法的另一界面示意图;
图3a是本申请实施例提供的用户属性识别装置的结构示意图;
图3b是本申请实施例提供的用户属性识别装置的另一结构示意图;
图3c是本申请实施例提供的用户属性识别装置的另一结构示意图;
图3d是本申请实施例提供的用户属性识别装置的另一结构示意图;
图3e是本申请实施例提供的用户属性识别装置的另一结构示意图;
图4是本申请实施例提供的电子设备的结构示意图;
图5是本申请实施例提供的分布式系统100应用于区块链系统的一个可选的结构示意图;
图6是本申请实施例提供的区块结构的一个可选的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种用户属性识别方法和装置。具体地,本申请实施例提供适用于电子设备的用户属性识别装置,该电子设备可以为终端或服务器等设备。
可以理解的是,本实施例的用户属性识别方法可以是在终端上执行的,也可以是在服务器上执行的,还可以是由终端和服务器共同执行的。
参考图1a,以终端和服务器共同执行用户属性识别方法为例。本申请实施例提供的用户属性识别的系统包括终端10和服务器11等;终端10与服务器11之间通过网络连接,比如,通过有线或无线网络连接等,其中,用户属性识别装置可以集成在服务器中。
其中,终端10可以通过语音输入模块获取目标用户的多个具有时序关系的语音片段,并将语音片段发送给服务器11,以便于服务器11基于接收到的目标用户的多个具有时序关系的语音片段,对该语音片段进行处理分析,得到目标用户对应的目标属性类别,再将目标用户对应的目标属性类别返回给终端10。其中,终端10可以包括手机、智能电视、平板电脑、笔记本电脑、或个人计算机(PC,Personal Computer)等。
服务器11,可以用于:获取目标用户的多个具有时序关系的语音片段,对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别,再将确定好的目标用户对应的目标属性类别发送给终端10。其中,服务器11可以是单台服务器,也可以是由多个服务器组成的服务器集群。
上述服务器11确定目标用户对应的目标属性类别的过程,也可以由终端10执行。
本申请实施例提供的用户属性识别方法涉及人工智能(AI,ArtificialIntellegence)领域中的语音技术(Speech Technology)和机器学习(ML,Machine learning)。本申请实施例可以通过改进识别目标用户的属性类别的方法,提高用户属性识别的运算速度和结果精确度。
其中,人工智能(AI,Artificial Intelligence)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。其中,人工智能软件技术主要包括计算机视觉技术、语音技术、自然语言处理技术以及机器学习/深度学习等方向。
其中,语音技术(Speech Technology)的关键技术有自动语音识别技术(ASR,Automatic Speech Recognition)和语音合成技术(TTS,Text-To-Speech)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
实施例一、
本申请实施例将从用户属性识别装置的角度进行描述,该用户属性识别装置具体可以集成在电子设备中,该电子设备可以是服务器,也可以是终端等设备。
本申请实施例的用户属性识别方法可以应用于各种需要识别用户属性的场景中,例如,可以应用于广告投放的场景中,通过本实施例提供的用户属性识别方法,识别用户的年龄和性别等,针对用户的年龄和性别,推荐相应的广告内容,可提升广告投放的精准度。又例如,可以应用于网络游戏中,低龄用户容易沉迷于网络游戏,对心智健康到的发展产生影响,因此,需要限制低龄用户对网络游戏的使用;可以通过本实施例提供的用户属性识别方法,来鉴别低龄用户,进而可以限制低龄用户每天登录网络游戏的时间。又例如,还可以应用于刑侦侦察和证据分析的辅助工具。
如图1b所示,该用户属性识别方法的具体流程如下所述,该用户属性识别方法可以由服务器执行,也可以由终端来执行,本实施例对此不作限制。
101、获取目标用户的多个具有时序关系的语音片段。
本实施例中,目标用户为需要获取属性类别的用户,其中,属性类别可以是年龄和性别等,本实施例对此不作限制。
可选的,可对获取到的目标用户的语音片段可以是经过预处理得到的,即在步骤“获取目标用户的多个具有时序关系的语音片段”之前,可以包括:
获取目标用户的音频信息,所述音频信息包括目标用户的多个具有时序关系的语音片段;
对所述音频信息进行去噪处理,得到所述目标用户的多个具有时序关系的语音片段。
其中,可以先将采集到的目标用户的音频信息以脉冲编码调制(PCM,Pulse CodeModulation)数字格式存储为s,可选的,可以通过语音活性检测器(VAD,Voice ActivityDetection)从该音频信息s中抓取多个包含目标用户的离散语音的语音片段sv,可以将每个语音片段sv根据时序关系分别标为
Figure BDA0002399453400000091
Figure BDA0002399453400000092
Figure BDA0002399453400000093
Figure BDA0002399453400000094
等等,j∈{1,2,3…J}即j可以为自然数1、2、3、4等,代表第j个语音片段,tj表示不同的时间段标号,每个语音片段sv可以为T秒,T可以根据实际需求进行设置,本实施例对此不做限制,比如可以设置为3秒。其中,语音活性检测是检测当前音频信息中是否包含语音信号存在,即对输入信号进行判断,分别对语音信号与各种背景噪声信号两种信号采用不同的处理方法,以将语音信号与各种背景噪声信号区分出来。通过VAD区分语音信号和背景噪声信号,有利于提高用户属性识别装置的抗噪能力,更好地克服环境噪音的干扰。
102、对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
本实施例中,步骤“对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征”,可以包括:
将每个语音片段划分为至少一个语音帧;
将所述语音帧从时间域变换到频率域,得到所述语音帧的子频谱信息;
对各个语音片段的语音帧的子频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
其中,将语音帧从时间域变换到频率域,可以通过采用短时离散傅里叶变换(STDFT,Short Time Discrete Fourier Transform)技术或者短时余弦变换技术(STDCT,Short Time Discrete Cosine Transform)来将语音帧信号时频正交分解,得到语音帧的子频谱信息。
可选的,每个语音片段sv为T秒,可以将T秒的语音片段sv以k毫秒为一帧进行划分,k的值可以根据实际情况进行设置,比如可以设置为10-20毫秒,T秒的语音片段分成N个k毫秒的语音帧,其中,N的取值如式子(1)所示:
Figure BDA0002399453400000095
Figure BDA0002399453400000096
表示取
Figure BDA0002399453400000097
的整数部分的值。
可选的,在一些实施例中,步骤“对各个语音片段的语音帧的子频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征”,可以包括:
对每个语音片段中的各个语音帧的子频谱信息进行融合,得到每个语音片段的频谱信息;
对各个语音片段的频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
其中,对每个语音片段中的各个语音帧的子频谱信息进行融合,具体可以是对对每个语音片段中的各个语音帧的子频谱信息进行拼接,得到每个语音片段的频谱信息。比如,可以按照语音帧的时序关系来进行拼接。
可选的,通过对T秒语音片段进行划分,每个语音片段对应得到N个k毫秒的语音帧,将每个语音片段的N个语音帧从时间域变换到频率域,即将每个语音片段的N个语音帧时频正交分解投射到N个子带(subband)上,各个子带为sn,m,即为每个语音帧对应的子频谱信息。其中,n代表语音帧的序号,例如s1,m代表第一个语音帧,s2,m代表第二个语音帧,sn,m代表第N个语音帧;m可以表示每个子带的大小。再将每个语音片段中的各个语音帧的子频谱信息进行融合,具体可以对每个语音片段中的各个语音帧的子频谱信息sn,m进行拼接,得到时频语谱矩阵,即在T秒内时频域上各个子带的信号可以表示为时频语谱矩阵,如式子(2)所示:
SN×M=[|snm|] (2)
其中,|*|为取模运算,SN×M表示该时频语谱矩阵为N行M列。然后,可以对融合后的SN×M进行特征提取。
可选的,在一些实施例中,步骤“对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征”,可以包括:
对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积特征图;
对各个语音片段的二维卷积特征图进行降维操作,得到各个语音片段的二维卷积语音特征。
其中,可以通过神经网络对各个语音片段进行卷积特征提取,该神经网络可以是卷积神经网络(CNN,Convolutional Neural Networks)、视觉几何组网络(VGGNet,VisualGeometry Group Network)、残差网络(ResNet,Residual Network)和密集连接卷积网络(DenseNet,Dense Convolutional Network)等等,但是应当理解的是,本实施例的神经网络并不仅限于上述列举的几种类型。此外,也可以采用其他机器学习的方法来获取语音片段的特征信息,如梅尔谱,基音等各项声学特征,并不仅限于人工神经网络的方法。
可选的,可以通过对各个语音片段的二维卷积特征图进行池化,来对各个语音片段的二维卷积特征图进行降维。其中,该池化可以包括最大池化(Max-pooling,MaximumPooling)、平均池化(Avg-pooling,Average Pooling)和广义均值池化(GEM-pooling,Generalized-mean Pooling)等。
例如,一些实施例中,步骤“对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征”,可以包括:
通过二维卷积神经网络对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
其中,可以通过二维卷积神经网络作为特征提取器,对子频谱信息融合后的SN×M进行特征提取,来得到各个语音片段的二维卷积语音特征。若音频信息的采样率16000Hz,频率参考值长度为48~96频率点,则每个语音帧约为3至6毫秒。可选的,二维卷积神经网络的卷积滤波器个数可以为16至32个,每个卷积滤波器大小为4*4,卷积层各层可以按照实际需求选择适当的池化大小来对语音片段的二维卷积特征图进行降维,比如可以选择2*4大小的池化层。最后将卷积层的最后一层输出作为特征输出DI,J,DI,J即是语音片段的二维卷积语音特征,DI,J表示I行J列的矩阵,其中,I≤N,J≤M。可以理解的是,以上举例不应理解为对本实施例的限制。
103、基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
本实施例中,步骤“基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息”,可以包括:
获取历史语音片段的历史时序特征;
基于当前语音片段的二维卷积语音特征和历史语音片段的历史时序特征,提取当前语音片段的时序特征信息;
基于当前语音片段的二维卷积语音特征,更新所述历史语音片段的历史时序特征;
将下一个语音片段作为新的当前语音片段,返回执行所述获取历史语音片段的历史时序特征的步骤,直到得到各个语音片段的时序特征信息。
其中,按照语音片段的先后顺序,顺序地将各个语音片段作为当前处理地语音片段。当所处理的语音片段为首个语音片段时,可以仅根据当前语音片段的二维卷积语音特征,来提取当前语音片段的时序特征信息;或者,也可以基于当前语音片段的二维卷积语音特征和历史语音片段的历史时序特征,来提取当前语音片段的时序特征信息,其中,该历史语音片段的历史时序特征可以是随机生成的或预设好的,当提取到首个语音片段的时序特征信息后,还需要基于首个语音片段的二维卷积语音特征,更新该历史语音片段的历史时序特征。当所处理的语音片段不是首个语音片段时,则基于当前语音片段的二维卷积语音特征和历史语音片段的历史时序特征,提取当前语音片段的时序特征信息,在提取当前语音片段的时序特征信息后,还需要对历史语音片段的历史时序特征进行更新,以此不断循环,直到得到各个语音片段的时序特征信息。
可选的,在一些实施例中,步骤“基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息”,可以包括:
采用循环神经网络,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
其中,该循环神经网络(RNN,Recurrent Neural Network)可以是长短期记忆网络(LSTM,Long Short-Term Memory),也可以是双层门控循环神经单元网络(GRU,Gatedrecurrent units)等。LSTM可以通过三个门结构(输入门,遗忘门,输出门),选择性地遗忘部分历史数据,加入部分当前输入数据,最终整合到当前状态并产生输出状态。LSTM比较适合用于对时序数据提取语义特征,在自然语言处理任务中常被用来对上下文信息提取语义特征。GRU是循环神经网络的一种,和LSTM一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。在GRU模型中只有两个门,分别是更新门和重置门;更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多,重置门用于控制忽略前一时刻的状态信息的程度,重置门的值越小,说明忽略得越多。此外GRU相对于LSTM少了一个门函数,因此在参数的数量上也是要少于LSTM的,所以整体上GRU的训练速度要快于LSTM的,能够很大程度上提高训练效率。可选的,一些实施例中,参见图1c,将各个语音片段的频谱信息(即语谱)通过二维卷积神经网络的多层卷积层和池化层,可得到各个语音片段的二维卷积语音特征,其中,语音片段的频谱信息包含频率和时间两个维度的信息。采用循环神经网络,基于各个语音片段的二维卷积语音特征,可以提取各个语音片段的时序特征信息。
可以理解的是,本实施例也可以采用其他机器学习的方法来获取语音片段的时序特征信息,并不仅限于人工神经网络的方法。如还可以通过马尔科夫模型来描述语音片段的时序特征信息。
104、基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率。
其中,可以通过分类器来预测各个语音片段的属性类别。该分类器具体可以是支持向量机(SVM,Support Vector Machine),也可以是循环神经网络、还可以是全连接深度神经网络(DNN,Deep Neual Networks)等等,本实施例对此不做限制。
其中,可以将用户的属性划分为至少两个属性类别。例如,对于用户的性别可以划分为男和女两个属性类别;而对于用户的年龄可以根据实际需要划分为0-9岁,10-14岁,14-18岁和18岁以上四个属性类别。
可选的,在一些实施例中,所述属性类别包括年龄段和性别;步骤“基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率”,可以包括:
基于各个语音片段的时序特征信息,预测各个语音片段对应的年龄段为每个预设年龄段的概率,以及对应的性别为每个预设性别的概率。
其中,预设性别可以分为男和女两个类别;预设年龄段可以按照实际需要进行划分,本实施例对此不作限制,如在网络游戏的具体场景中,预设年龄段可以划分为0-9岁,10-14岁,14-18岁和18岁以上四个预设年龄段。
例如,对于第一个语音片段
Figure BDA0002399453400000141
预测到0-9岁的概率为0.2,10-14岁的概率为0.5,14-18岁的概率为0.2和18岁以上的概率为0.1。对于第二个语音片段
Figure BDA0002399453400000142
预测到0-9岁的概率为0.1,10-14岁的概率为0.5,14-18岁的概率为0.3和18岁以上的概率为0.1……
105、基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率。
可选的,在一些实施例中,步骤“基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率”,可以包括:
对预测到的各个语音片段的相同预设属性类别的概率进行加权平均,得到各个预设属性类别对应的融合后概率。
例如,有J个语音片段
Figure BDA0002399453400000143
j表示不同时间段的语音片段的标号,用户的属性可以划分为I个预设属性类别,i∈{1,2,3…I},i表示不同预设属性类别的标号。对于每个语音片段
Figure BDA0002399453400000144
最终可以得到结果
Figure BDA0002399453400000145
表示对于第j个时间段tj的语音片段
Figure BDA0002399453400000146
属性类别为每个预设属性类别的概率。
其中,对每个预设属性类别的概率进行平滑,可以取各个语音片段在该预设属性类别的概率的均值,即可得到各个预设属性类别对应的融合后概率。即对于第i个预设属性类别,平滑后的概率如式子(3)所示:
Figure BDA0002399453400000147
其中,
Figure BDA0002399453400000148
表示第j个语音片段在第i个预设属性类别的概率,
Figure BDA0002399453400000149
为第i个预设属性类别经过J个语音片段平滑后的概率,即第i个预设属性类别对应的融合后概率。
可选的,在一些实施例中,所述属性类别包括年龄段和性别;步骤“基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率”,可以包括:
基于所述预设年龄段,对预测到的各个语音片段对应的年龄段的概率进行融合,得到各个预设年龄段对应的融合后概率;
基于所述预设性别,对预测到的各个语音片段对应的性别的概率进行融合,得到各个预设性别对应的融合后概率。
例如,总共有3个语音片段,预设年龄段划分为0-9岁,10-14岁,14-18岁和18岁以上四个预设年龄段,对于第一个语音片段
Figure BDA0002399453400000151
预测到0-9岁的概率为0.2,10-14岁的概率为0.5,14-18岁的概率为0.2和18岁以上的概率为0.1;对于第二个语音片段
Figure BDA0002399453400000152
预测到0-9岁的概率为0.1,10-14岁的概率为0.5,14-18岁的概率为0.3和18岁以上的概率为0.1;对第三个语音片段
Figure BDA0002399453400000153
预测到0-9岁的概率为0.2,10-14岁的概率为0.4,14-18岁的概率为0.2和18岁以上的概率为0.2;则对于0-9岁年龄段对应的融合后概率为(0.2+0.1+0.2)/3,10-14岁年龄段对应的融合后概率为(0.5+0.5+0.4)/3,14-18岁年龄段对应的融合后概率为(0.2+0.3+0.2)/3,18岁以上对应的融合后概率为(0.1+0.1+0.2)/3。
又例如,总共有2个语音片段,预设性别划分为男性和女性两个类别,对于第一个语音片段
Figure BDA0002399453400000154
预测到语音片段对应的用户为女性的概率为0.7,为男性的概率为0.3。对于第二个语音片段
Figure BDA0002399453400000155
预测到语音片段对应的用户为女性的概率为0.9,为男性的概率为0.1。则对于目标用户为女性的融合后概率为0.8,为男性的融合后概率为0.2。
106、基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
可选的,一些实施例中,步骤“基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别”,可以包括:
获取各个预设属性类别对应的融合后概率中的最大融合后概率;
将最大融合后概率对应的预设属性类别确定为所述目标用户对应的目标属性类别。
其中,基于步骤105计算到的各个预设属性类别对应的融合后概率
Figure BDA0002399453400000156
从中选取最大的融合后概率,则该最大的融合后概率对应的预设属性类别即为目标属性类别,即计算
Figure BDA0002399453400000161
融合后概率最大对应的第i个属性类别即为目标属性类别。
可选的,在一些实施例中,所述属性类别包括年龄段和性别;步骤“基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别”,可以包括:
基于各个预设年龄段对应的融合后概率,从所述预设年龄段中确定所述目标用户对应的目标年龄段;
基于各个预设性别对应的融合后概率,从所述预设性别中确定所述目标用户对应的目标性别。
其中,可以选取最大融合后概率对应的预设年龄段作为目标年龄段;选取最大融合后概率对应的预设性别作为目标性别。
在一些实施例中,如图1d所示,采用短时正交变换,将目标用户的多个语音片段从时间域变换到频率域,得到各个语音片段的频谱信息,即语谱,再将各个语音片段的频谱信息通过卷积神经网络和循环神经网络进行特征提取,得到各个语音片段的时序特征信息;然后,基于各个语音片段的时序特征信息,可以预测各个语音片段的属性类别为每个预设属性类别的概率,最后,对语音片段的概率进行平滑处理,具体可以基于预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,获取各个预设属性类别对应的融合后概率中的最大融合后概率,将最大融合后概率对应的预设属性类别确定为目标用户对应的目标属性类别。
需要说明的是,本实施例中的二维卷积神经网络和循环神经网络是由多个训练数据训练而成,该训练数据可以包括样本语音片段,以及样本语音片段对应的目标属性类别;该二维卷积神经网络和循环神经网络具体可以由其他设备进行训练后,提供给该用户属性识别装置,或者,也可以由该用户属性识别装置自行进行训练,参见图1e。
若由该用户属性识别装置自行进行训练,则在步骤“通过二维卷积神经网络对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征”之前,该用户属性识别方法还可以包括:
获取训练数据,所述训练数据包括样本语音片段,以及所述样本语音片段对应的目标属性类别;
通过二维卷积神经网络对所述样本语音片段进行卷积特征提取,得到所述样本语音片段的二维卷积语音特征;
采用循环神经网络,基于所述样本语音片段的二维卷积语音特征,提取所述样本语音片段的时序特征信息;
基于所述样本语音片段的时序特征信息,预测所述样本语音片段的属性类别为每个预设属性类别的概率;
调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件。
可选的,一些实施例中,步骤“调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件”,可以包括:
计算预测到的所述样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,其中,所述样本语音片段的属性类别为所述目标属性类别的真实概率为1,所述样本语音片段的属性类别为除所述目标属性类别之外的其他预设属性类别的真实概率为0;
基于所述损失值,调整所述二维卷积神经网络和所述循环神经网络的参数,以使计算得到的损失值小于预设损失值。
其中,预设损失值可以通过实际情况进行设置,本实施例对此不作限制。对于本实施例,可以通过损失函数(Loss function)计算预测到的所述样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,该损失函数可以是交叉熵(CrossEntropy)等等,交叉熵的式子(4)所示:
L=∑-pilog(pi) (4)
其中,L对应为预测到的样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,pi为样本语音片段在第i个预设属性类别的概率。
可选的,如果对虚警概率有要求,可以对上述式子加上乘性约束,以此降低虚警率,如式子(5)所示:
Lmask=∑i-pilog(pi)×∑t,qwtqδ(pq,max(pq)pt) (5)
其中,Lmask为带有乘性约束的样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,δ(*)为狄拉克函数,pq为q类属性类别的概率,pq={p1,p2,…},pt为独热(onehot)编码的标注值。wtq是分类的权重,表示q类属性类别被分类器判为t类属性类别在损失函数中所占的权重。其中,独热(one hot)编码,是采用N位状态寄存器编码N个状态,每个状态都有独立的寄存器位,且这些寄存器位中只有一位有效,即只能有一个状态。one hot编码是分类变量作为二进制向量的表示。它要求将分类值映射到整数值,然后,每个整数值被表示为二进制向量,除了整数的索引之外,它都是零值,它被标记为1。
可选的,在本实施例中,对样本语音片段进行标注,确定样本语音片段对应的目标属性类别,训练过程是先预测出样本语音片段的属性类别为每个预设属性类别的概率,然后,使用反向传播算法对二维卷积神经网络和循环神经网络的参数进行调整,基于预测到的样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,更新二维卷积神经网络和循环神经网络的参数,使预测到的样本语音片段的属性类别为目标属性类别的概率趋近于真实概率1,得到训练好的二维卷积神经网络和循环神经网络,具体地,可以使预测到的样本语音片段的属性类别为目标属性类别的概率高于预设概率,其中,预设概率可以根据实际情况进行设置。
本实施例提供的用户属性识别方法,相比于通过图像和视频识别用户属性类别的方案,链路短,大大减少了计算量,还可以有效防止用户隐私信息泄露,提高终端的信息安全性;且麦克风等录音设备随着智能设备的广泛应用,遍布在每个人的身边,因此本实施例的用户属性识别装置部署较为方便。此外,该用户属性识别装置的识别准确度较高,系统鲁棒性较强。
由上可知,本实施例可以获取目标用户的多个具有时序关系的语音片段,对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别;本申请通过改进识别目标用户的属性类别的方法,可以提高用户属性识别的运算速度和结果精确度。
实施例二、
根据前面实施例所描述的方法,以下将以该用户属性识别装置具体集成在服务器举例作进一步详细说明。
本申请实施例提供一种用户属性识别方法,如图2a所示,该用户属性识别方法的具体流程可以如下:
201、服务器接收终端发送的目标用户的多个具有时序关系的语音片段。
本实施例中,目标用户为需要获取属性类别的用户,其中,属性类别可以是年龄和性别等,本实施例对此不作限制。
202、服务器对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
本实施例中,步骤“服务器对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征”,可以包括:
将每个语音片段划分为至少一个语音帧;
将所述语音帧从时间域变换到频率域,得到所述语音帧的子频谱信息;
对每个语音片段中的各个语音帧的子频谱信息进行融合,得到每个语音片段的频谱信息;
对各个语音片段的频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
其中,将语音帧从时间域变换到频率域,可以通过采用短时离散傅里叶变换(STDFT,Short Time Discrete Fourier Transform)技术或者短时余弦变换技术(STDCT,Short Time Discrete Cosine Transform)来将语音帧信号时频正交分解,得到语音帧的子频谱信息。
其中,对每个语音片段中的各个语音帧的子频谱信息进行融合,具体可以是对对每个语音片段中的各个语音帧的子频谱信息进行拼接,得到每个语音片段的频谱信息。比如,可以按照语音帧的时序关系来进行拼接。
可选的,在一些实施例中,步骤“对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征”,可以包括:
对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积特征图;
对各个语音片段的二维卷积特征图进行降维操作,得到各个语音片段的二维卷积语音特征。
其中,可以通过神经网络对各个语音片段进行卷积特征提取,该神经网络可以是卷积神经网络、视觉几何组网络、残差网络和密集连接卷积网络等等,但是应当理解的是,本实施例的神经网络并不仅限于上述列举的几种类型。此外,也可以采用其他机器学习的方法来获取语音片段的特征信息,如梅尔谱,基音等各项声学特征,并不仅限于人工神经网络的方法。
可选的,可以通过对各个语音片段的二维卷积特征图进行池化,来对各个语音片段的二维卷积特征图进行降维。来对各个语音片段的二维卷积特征图进行降维。
203、服务器基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
本实施例中,步骤“基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息”,可以包括:
获取历史语音片段的历史时序特征;
基于当前语音片段的二维卷积语音特征和历史语音片段的历史时序特征,提取当前语音片段的时序特征信息;
基于当前语音片段的二维卷积语音特征,更新所述历史语音片段的历史时序特征;
将下一个语音片段作为新的当前语音片段,返回执行所述获取历史语音片段的历史时序特征的步骤,直到得到各个语音片段的时序特征信息。
可选的,在一些实施例中,步骤“基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息”,可以包括:
采用循环神经网络,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
其中,该循环神经网络(RNN,Recurrent Neural Network)可以是长短期记忆网络(LSTM,Long Short-Term Memory),也可以是双层门控循环神经单元网络(GRU,Gatedrecurrent units)等。可以理解的是,本实施例也可以采用其他机器学习的方法来获取语音片段的时序特征信息,并不仅限于人工神经网络的方法。
204、服务器基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率。
其中,可以通过分类器来预测各个语音片段的属性类别。该分类器具体可以是支持向量机,也可以是全连接深度神经网络等等,本实施例对此不做限制。
其中,可以将用户的属性划分为至少两个属性类别。例如,对于用户的性别可以划分为男和女两个属性类别;而对于用户的年龄可以根据实际需要划分为0-9岁,10-14岁,14-18岁和18岁以上四个属性类别。
可选的,在一些实施例中,所述属性类别包括年龄段和性别;步骤“基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率”,可以包括:
基于各个语音片段的时序特征信息,预测各个语音片段对应的年龄段为每个预设年龄段的概率,以及对应的性别为每个预设性别的概率。
205、服务器基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率。
可选的,在一些实施例中,步骤“基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率”,可以包括:
对预测到的各个语音片段的相同预设属性类别的概率进行加权平均,得到各个预设属性类别对应的融合后概率。
可选的,在一些实施例中,所述属性类别包括年龄段和性别;步骤“基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率”,可以包括:
基于所述预设年龄段,对预测到的各个语音片段对应的年龄段的概率进行融合,得到各个预设年龄段对应的融合后概率;
基于所述预设性别,对预测到的各个语音片段对应的性别的概率进行融合,得到各个预设性别对应的融合后概率。
206、基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
可选的,一些实施例中,步骤“基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别”,可以包括:
获取各个预设属性类别对应的融合后概率中的最大融合后概率;
将最大融合后概率对应的预设属性类别确定为所述目标用户对应的目标属性类别。
可选的,在一些实施例中,所述属性类别包括年龄段和性别;步骤“基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别”,可以包括:
基于各个预设年龄段对应的融合后概率,从所述预设年龄段中确定所述目标用户对应的目标年龄段;
基于各个预设性别对应的融合后概率,从所述预设性别中确定所述目标用户对应的目标性别。
其中,可以选取最大融合后概率对应的预设年龄段作为目标年龄段;选取最大融合后概率对应的预设性别作为目标性别。
207、服务器将所述目标用户对应的目标属性类别发送给终端。
可选的,本实施例中,参见图2b,具体可以通过终端采集音频信息,所述音频信息包括目标用户的多个语音片段,可以通过语音活性检测器对音频信息进行去噪处理,得到目标用户的多个语音片段,对各个语音片段进行离散时频域变换,将各个语音片段从时间域变换到频率域,得到各个语音片段的频谱信息,对各个语音片段的频谱信息进行特征提取和降维,再将得到的各个语音片段的特征信息输入到分类器中,预测各个语音片段的属性类别为每个预设属性类别的概率,然后,基于预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,其中,目标用户的属性类别可以包括年龄和性别,基于各个预设属性类别对应的融合后概率,从预设属性类别中确定目标用户对应的目标属性类别,该目标属性类别可以包括目标性别和目标年龄。
例如,在一网络游戏的场景中,为保护未成年人,需要限制未成年人每天登陆游戏的时间。比如,可以限制12岁及以下未成年用户每天登陆游戏的时间不能超过1小时,13岁及以上未成年用户每天登陆游戏的时间不能超过2小时,在登陆游戏时,游戏界面可以跳出如图2c所示的弹出框进行说明。在网络游戏中,玩家有时会通过游戏语音对讲功能与队友通话,通话录音被旁路保存,可以通过VAD对该通话录音进行处理,得到玩家的多个语音片段,将这多个语音片段输入本实施例的用户属性识别装置;通过用户属性识别装置提取语音片段的频谱信息,即语谱,再通过神经网络获取语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段对应的年龄段的概率,最后通过平滑多个语音片段的概率,选择概率值最高的年龄段作为该玩家年龄范围。若玩家落入12岁及以下未成年用户的范围,则在游戏界面可以显示如图2d所示的弹窗警告,并限制该玩家的使用时间。
由上可知,本实施例可以通过服务器接收终端发送的目标用户的多个具有时序关系的语音片段,服务器对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别,服务器将所述目标用户对应的目标属性类别发送给终端;本申请通过改进识别目标用户的属性类别的方法,可以提高用户属性识别的运算速度和结果精确度。
实施例三、
为了更好地实施以上方法,本申请实施例还提供一种用户属性识别装置,如图3a所示,该用户属性识别装置可以包括获取单元301、第一提取单元302、第二提取单元303、预测单元304、融合单元305和确定单元306,如下:
(1)获取单元301;
获取单元301,用于获取目标用户的多个具有时序关系的语音片段。
(2)第一提取单元302;
第一提取单元302,用于对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
可选的,在本申请的一些实施例中,所述第一提取单元302可以包括划分子单元3021、变换子单元3022和第一提取子单元3023,参见图3b,如下:
所述划分子单元3021,用于将每个语音片段划分为至少一个语音帧;
变换子单元3022,用于将所述语音帧从时间域变换到频率域,得到所述语音帧的子频谱信息;
第一提取子单元3023,用于对各个语音片段的语音帧的子频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
可选的,在本申请的一些实施例中,所述第一提取子单元3023具体可以用于对每个语音片段中的各个语音帧的子频谱信息进行融合,得到每个语音片段的频谱信息;对各个语音片段的频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
可选的,在本申请的一些实施例中,所述第一提取单元302可以包括卷积子单元3024和降维子单元3025,参见图3c,如下:
所述卷积子单元3024,用于对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积特征图;
降维子单元3025,用于对各个语音片段的二维卷积特征图进行降维操作,得到各个语音片段的二维卷积语音特征。
可选的,在本申请的一些实施例中,所述第一提取单元302具体可以通过二维卷积神经网络对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
(3)第二提取单元303;
第二提取单元303,用于基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
可选的,在本申请的一些实施例中,所述第二提取单元303可以包括获取子单元3031、第二提取子单元3032、更新子单元3033和返回子单元3034,参见图3d,如下:
所述获取子单元3031,用于获取历史语音片段的历史时序特征;
第二提取子单元3032,用于基于当前语音片段的二维卷积语音特征和历史语音片段的历史时序特征,提取当前语音片段的时序特征信息;
更新子单元3033,用于基于当前语音片段的二维卷积语音特征,更新所述历史语音片段的历史时序特征;
返回子单元3034,用于将下一个语音片段作为新的当前语音片段,返回执行所述获取历史语音片段的历史时序特征的步骤,直到得到各个语音片段的时序特征信息。
可选的,在本申请的一些实施例中,所述第二提取单元303具体可以采用循环神经网络,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
(4)预测单元304;
预测单元304,用于基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率。
可选的,在本申请的一些实施例中,所述属性类别包括年龄段和性别;所述预测单元304具体可以用于基于各个语音片段的时序特征信息,预测各个语音片段对应的年龄段为每个预设年龄段的概率,以及对应的性别为每个预设性别的概率。
(5)融合单元305;
融合单元305,用于基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率。
可选的,在本申请的一些实施例中,所述属性类别包括年龄段和性别;所述融合单元305具体可以用于基于所述预设年龄段,对预测到的各个语音片段对应的年龄段的概率进行融合,得到各个预设年龄段对应的融合后概率;基于所述预设性别,对预测到的各个语音片段对应的性别的概率进行融合,得到各个预设性别对应的融合后概率。
(6)确定单元306;
确定单元306,用于基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
可选的,在本申请的一些实施例中,所述属性类别包括年龄段和性别;所述确定单元306具体可以用于基于各个预设年龄段对应的融合后概率,从所述预设年龄段中确定所述目标用户对应的目标年龄段;基于各个预设性别对应的融合后概率,从所述预设性别中确定所述目标用户对应的目标性别。
可选的,在本申请的一些实施例中,所述用户属性识别装置还可以包括训练单元307,参见图3e,如下:
所述训练单元307,具体用于获取训练数据,所述训练数据包括样本语音片段,以及所述样本语音片段对应的目标属性类别;通过二维卷积神经网络对所述样本语音片段进行卷积特征提取,得到所述样本语音片段的二维卷积语音特征;采用循环神经网络,基于所述样本语音片段的二维卷积语音特征,提取所述样本语音片段的时序特征信息;基于所述样本语音片段的时序特征信息,预测所述样本语音片段的属性类别为每个预设属性类别的概率;调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件。
其中,可选的,一些实施例中,步骤“调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件”,可以具体包括:
计算预测到的所述样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,其中,所述样本语音片段的属性类别为所述目标属性类别的真实概率为1,所述样本语音片段的属性类别为除所述目标属性类别之外的其他预设属性类别的真实概率为0;
基于所述损失值,调整所述二维卷积神经网络和所述循环神经网络的参数,以使计算得到的损失值小于预设损失值。
由上可知,本实施例可以通过获取单元301获取目标用户的多个具有时序关系的语音片段,通过第一提取单元302对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,由第二提取单元303提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,通过预测单元304预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,通过融合单元305对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,由确定单元306从所述预设属性类别中确定所述目标用户对应的目标属性类别;本申请通过改进识别目标用户的属性类别的方法,可以提高用户属性识别的运算速度和结果精确度。
实施例四、
本申请实施例还提供一种电子设备,如图4所示,其示出了本申请实施例所涉及的电子设备的结构示意图,具体来讲:
该电子设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图4中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
电子设备还包括给各个部件供电的电源403,优选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该电子设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,电子设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,电子设备中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现各种功能,如下:
获取目标用户的多个具有时序关系的语音片段,对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
由上可知,本实施例可以获取目标用户的多个具有时序关系的语音片段,对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别;本申请通过改进识别目标用户的属性类别的方法,可以提高用户属性识别的运算速度和结果精确度。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种用户属性识别方法中的步骤。例如,该指令可以执行如下步骤:
获取目标用户的多个具有时序关系的语音片段,对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种用户属性识别方法中的步骤,因此,可以实现本申请实施例所提供的任一种用户属性识别方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
本申请实施例涉及的系统可以是由客户端、多个节点(接入网络中的任意形式的电子设备,如服务器、终端)通过网络通信的形式连接形成的分布式系统。
以分布式系统为区块链系统为例,参见图5,图5是本申请实施例提供的分布式系统100应用于区块链系统的一个可选的结构示意图,由多个节点200(接入网络中的任意形式的计算设备,如服务器、用户终端)和客户端300形成,节点之间形成组成的点对点(P2P,Peer To Peer)网络,P2P协议是一个运行在传输控制协议(TCP,Transmiss ion ControlProtocol)协议之上的应用层协议。在分布式系统中,任何机器如服务器、终端都可以加入而成为节点,节点包括硬件层、中间层、操作系统层和应用层。本实施例中,训练后的二维卷积神经网络和循环神经网络等信息,可以通过节点被存储在区域链系统的共享账本中,电子设备(例如终端或服务器)可以基于共享账本存储的记录数据获取训练后的二维卷积神经网络和循环神经网络等信息。
参见图5示出的区块链系统中各节点的功能,涉及的功能包括:
1)路由,节点具有的基本功能,用于支持节点之间的通信。
节点除具有路由功能外,还可以具有以下功能:
2)应用,用于部署在区块链中,根据实际业务需求而实现特定业务,记录实现功能相关的数据形成记录数据,在记录数据中携带数字签名以表示任务数据的来源,将记录数据发送到区块链系统中的其他节点,供其他节点在验证记录数据来源以及完整性成功时,将记录数据添加到临时区块中。
例如,应用实现的业务包括:
2.1)钱包,用于提供进行电子货币的交易的功能,包括发起交易(即,将当前交易的交易记录发送给区块链系统中的其他节点,其他节点验证成功后,作为承认交易有效的响应,将交易的记录数据存入区块链的临时区块中;当然,钱包还支持查询电子货币地址中剩余的电子货币;
2.2)共享账本,用于提供账目数据的存储、查询和修改等操作的功能,将对账目数据的操作的记录数据发送到区块链系统中的其他节点,其他节点验证有效后,作为承认账目数据有效的响应,将记录数据存入临时区块中,还可以向发起操作的节点发送确认。
2.3)智能合约,计算机化的协议,可以执行某个合约的条款,通过部署在共享账本上的用于在满足一定条件时而执行的代码实现,根据实际的业务需求代码用于完成自动化的交易,例如查询买家所购买商品的物流状态,在买家签收货物后将买家的电子货币转移到商户的地址;当然,智能合约不仅限于执行用于交易的合约,还可以执行对接收的信息进行处理的合约。
3)区块链,包括一系列按照产生的先后时间顺序相互接续的区块(Block),新区块一旦加入到区块链中就不会再被移除,区块中记录了区块链系统中节点提交的记录数据。
参见图6,图6是本申请实施例提供的区块结构(Block Structure)一个可选的示意图,每个区块中包括本区块存储交易记录的哈希值(本区块的哈希值)、以及前一区块的哈希值,各区块通过哈希值连接形成区块链。另外,区块中还可以包括有区块生成时的时间戳等信息。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了相关的信息,用于验证其信息的有效性(防伪)和生成下一个区块。
以上对本申请实施例所提供的一种用户属性识别方法和装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种用户属性识别方法,其特征在于,包括:
获取目标用户的多个具有时序关系的语音片段;
对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征;
基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息;
基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率;
基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率;
基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
2.根据权利要求1所述的方法,其特征在于,所述对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,包括:
将每个语音片段划分为至少一个语音帧;
将所述语音帧从时间域变换到频率域,得到所述语音帧的子频谱信息;
对各个语音片段的语音帧的子频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
3.根据权利要求2所述的方法,其特征在于,所述对各个语音片段的语音帧的子频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征,包括:
对每个语音片段中的各个语音帧的子频谱信息进行融合,得到每个语音片段的频谱信息;
对各个语音片段的频谱信息进行卷积特征提取,得到各个语音片段的二维卷积语音特征。
4.根据权利要求1所述的方法,其特征在于,所述对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,包括:
对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积特征图;
对各个语音片段的二维卷积特征图进行降维操作,得到各个语音片段的二维卷积语音特征。
5.根据权利要求1所述的方法,其特征在于,所述基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,包括:
获取历史语音片段的历史时序特征;
基于当前语音片段的二维卷积语音特征和历史语音片段的历史时序特征,提取当前语音片段的时序特征信息;
基于当前语音片段的二维卷积语音特征,更新所述历史语音片段的历史时序特征;
将下一个语音片段作为新的当前语音片段,返回执行所述获取历史语音片段的历史时序特征的步骤,直到得到各个语音片段的时序特征信息。
6.根据权利要求1所述的方法,其特征在于,所述对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征,包括:
通过二维卷积神经网络对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征;
所述基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息,包括:
采用循环神经网络,基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息。
7.根据权利要求6所述的方法,其特征在于,所述通过二维卷积神经网络对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征之前,还包括:
获取训练数据,所述训练数据包括样本语音片段,以及所述样本语音片段对应的目标属性类别;
通过二维卷积神经网络对所述样本语音片段进行卷积特征提取,得到所述样本语音片段的二维卷积语音特征;
采用循环神经网络,基于所述样本语音片段的二维卷积语音特征,提取所述样本语音片段的时序特征信息;
基于所述样本语音片段的时序特征信息,预测所述样本语音片段的属性类别为每个预设属性类别的概率;
调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件。
8.根据权利要求7所述的方法,其特征在于,所述调整所述二维卷积神经网络和所述循环神经网络的参数,以使预测到的所述样本语音片段的属性类别为所述目标属性类别的概率满足预设条件,包括:
计算预测到的所述样本语音片段的属性类别为每个预设属性类别的概率和真实概率之间的损失值,其中,所述样本语音片段的属性类别为所述目标属性类别的真实概率为1,所述样本语音片段的属性类别为除所述目标属性类别之外的其他预设属性类别的真实概率为0;
基于所述损失值,调整所述二维卷积神经网络和所述循环神经网络的参数,以使计算得到的损失值小于预设损失值。
9.根据权利要求1所述的方法,其特征在于,所述属性类别包括年龄段和性别;所述基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率,包括:
基于各个语音片段的时序特征信息,预测各个语音片段对应的年龄段为每个预设年龄段的概率,以及对应的性别为每个预设性别的概率;
所述基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率,包括:
基于所述预设年龄段,对预测到的各个语音片段对应的年龄段的概率进行融合,得到各个预设年龄段对应的融合后概率;
基于所述预设性别,对预测到的各个语音片段对应的性别的概率进行融合,得到各个预设性别对应的融合后概率;
所述基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别,包括:
基于各个预设年龄段对应的融合后概率,从所述预设年龄段中确定所述目标用户对应的目标年龄段;
基于各个预设性别对应的融合后概率,从所述预设性别中确定所述目标用户对应的目标性别。
10.一种用户属性识别装置,其特征在于,包括:
获取单元,用于获取目标用户的多个具有时序关系的语音片段;
第一提取单元,用于对各个语音片段进行卷积特征提取,得到各个语音片段的二维卷积语音特征;
第二提取单元,用于基于各个语音片段的二维卷积语音特征,提取各个语音片段的时序特征信息;
预测单元,用于基于各个语音片段的时序特征信息,预测各个语音片段的属性类别为每个预设属性类别的概率;
融合单元,用于基于所述预设属性类别,对预测到的各个语音片段的概率进行融合,得到各个预设属性类别对应的融合后概率;
确定单元,用于基于各个预设属性类别对应的融合后概率,从所述预设属性类别中确定所述目标用户对应的目标属性类别。
CN202010142092.2A 2020-03-04 2020-03-04 一种用户属性识别方法和装置 Pending CN113362852A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010142092.2A CN113362852A (zh) 2020-03-04 2020-03-04 一种用户属性识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010142092.2A CN113362852A (zh) 2020-03-04 2020-03-04 一种用户属性识别方法和装置

Publications (1)

Publication Number Publication Date
CN113362852A true CN113362852A (zh) 2021-09-07

Family

ID=77523419

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010142092.2A Pending CN113362852A (zh) 2020-03-04 2020-03-04 一种用户属性识别方法和装置

Country Status (1)

Country Link
CN (1) CN113362852A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114333802A (zh) * 2022-01-04 2022-04-12 腾讯科技(深圳)有限公司 语音处理方法、装置、电子设备及计算机可读存储介质
CN114550240A (zh) * 2022-01-28 2022-05-27 北京百度网讯科技有限公司 图像识别的方法、装置、电子设备及存储介质
CN115798517A (zh) * 2023-02-08 2023-03-14 南京邮电大学 基于语音信息特征数据的商品搜索方法及系统
WO2024183583A1 (zh) * 2023-03-06 2024-09-12 维沃移动通信有限公司 语音活动检测方法、装置、电子设备及可读存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114333802A (zh) * 2022-01-04 2022-04-12 腾讯科技(深圳)有限公司 语音处理方法、装置、电子设备及计算机可读存储介质
CN114333802B (zh) * 2022-01-04 2023-06-23 腾讯科技(深圳)有限公司 语音处理方法、装置、电子设备及计算机可读存储介质
CN114550240A (zh) * 2022-01-28 2022-05-27 北京百度网讯科技有限公司 图像识别的方法、装置、电子设备及存储介质
CN115798517A (zh) * 2023-02-08 2023-03-14 南京邮电大学 基于语音信息特征数据的商品搜索方法及系统
WO2024183583A1 (zh) * 2023-03-06 2024-09-12 维沃移动通信有限公司 语音活动检测方法、装置、电子设备及可读存储介质

Similar Documents

Publication Publication Date Title
CN110597991B (zh) 文本分类方法、装置、计算机设备及存储介质
CN108536679B (zh) 命名实体识别方法、装置、设备及计算机可读存储介质
CN111324774B (zh) 一种视频去重方法和装置
CN113362852A (zh) 一种用户属性识别方法和装置
CN112418292B (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN111444340A (zh) 文本分类和推荐方法、装置、设备及存储介质
CN111695415A (zh) 图像识别模型的构建方法、识别方法及相关设备
US11423307B2 (en) Taxonomy construction via graph-based cross-domain knowledge transfer
CN110598070B (zh) 应用类型识别方法及装置、服务器及存储介质
CN113177538B (zh) 一种视频循环识别方法、装置、计算机设备及存储介质
CN116861258B (zh) 模型处理方法、装置、设备及存储介质
CN114330966A (zh) 一种风险预测方法、装置、设备以及可读存储介质
CN111966811A (zh) 意图识别和槽填充方法、装置、可读存储介质及终端设备
CN115130711A (zh) 一种数据处理方法、装置、计算机及可读存储介质
CN114282059A (zh) 视频检索的方法、装置、设备及存储介质
CN111324773A (zh) 一种背景音乐构建方法、装置、电子设备和存储介质
CN115062709A (zh) 模型优化方法、装置、设备、存储介质及程序产品
CN111062019A (zh) 用户攻击检测方法、装置、电子设备
CN114119997A (zh) 图像特征提取模型的训练方法、装置、服务器和存储介质
CN113609866A (zh) 文本标记方法、装置、设备及存储介质
CN112765481B (zh) 一种数据处理方法、装置、计算机及可读存储介质
CN112116441B (zh) 金融风险分类模型的训练方法、分类方法、装置及设备
CN115293872A (zh) 建立风险识别模型的方法及对应装置
CN116226501A (zh) 信息推送方法、装置、计算机设备及存储介质
CN113821498A (zh) 数据的筛选方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination