CN116631436A - 性别识别模型处理方法、装置、计算机设备及存储介质 - Google Patents
性别识别模型处理方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN116631436A CN116631436A CN202310368697.7A CN202310368697A CN116631436A CN 116631436 A CN116631436 A CN 116631436A CN 202310368697 A CN202310368697 A CN 202310368697A CN 116631436 A CN116631436 A CN 116631436A
- Authority
- CN
- China
- Prior art keywords
- gender
- sex
- voice
- model
- mel frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 100
- 239000002131 composite material Substances 0.000 claims abstract description 67
- 238000001514 detection method Methods 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 16
- 239000012634 fragment Substances 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 9
- 150000001875 compounds Chemical class 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 18
- 238000005516 engineering process Methods 0.000 abstract description 13
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例属于人工智能领域,涉及一种性别识别模型处理方法、装置、计算机设备及存储介质,方法包括:获取带有性别标签的训练语音,获取其基频参数和梅尔频率复合特征,梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别;基于基频参数确定假设性别,并根据性别标签、假设性别和预测性别所构成的性别组合类型计算模型损失,以根据模型损失调整模型,直至训练停止得到性别识别模型;将待识别用户的用户语音输入性别识别模型,得到性别识别结果。本申请还涉及区块链技术,训练语音可存储于区块链中。本申请提高了性别识别的准确性。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种性别识别模型处理方法、装置、计算机设备及存储介质。
背景技术
基于语音的性别识别是语音识别中的重要应用。基于语音的性别识别对语音内容不做限制,通过对语音数据进行分析,判断说话人是男性还是女性,然后根据性别识别的结果进行进一步的业务处理。例如在金融保险领域,根据客户语音识别客户的性别,根据性别识别结果构建客户画像、进行身份验证、业务运营等。
现有的性别识别技术中,最常见的是提取语音的梅尔频率倒谱系数(MFCC)并直接训练高斯混合模型(GMM),在性别识别时仅仅依赖梅尔频率倒谱系数,训练过程也较为简单,导致训练得到的高斯混合模型识别准确性较差,性别识别的准确率较低。
发明内容
本申请实施例的目的在于提出一种性别识别模型处理方法、装置、计算机设备及存储介质,以解决性别识别准确性较低的问题。
为了解决上述技术问题,本申请实施例提供一种性别识别模型处理方法,采用了如下所述的技术方案:
获取带有性别标签的训练语音;
获取所述训练语音的基频参数和梅尔频率复合特征,其中,所述梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;
将所述基频参数和所述梅尔频率复合特征输入初始性别识别模型,得到预测性别;
基于所述基频参数确定假设性别,并根据所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型计算模型损失;
根据所述模型损失对所述初始性别识别模型进行调整,直至所述模型损失满足预设的训练停止条件,得到性别识别模型;
获取待识别用户的用户语音,并通过所述性别识别模型对所述用户语音进行性别识别,得到性别识别结果。
为了解决上述技术问题,本申请实施例还提供一种性别识别模型处理装置,采用了如下所述的技术方案:
训练获取模块,用于获取带有性别标签的训练语音;
特征提取模块,用于获取所述训练语音的基频参数和梅尔频率复合特征,其中,所述梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;
性别预测模块,用于将所述基频参数和所述梅尔频率复合特征输入初始性别识别模型,得到预测性别;
损失计算模块,用于基于所述基频参数确定假设性别,并根据所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型计算模型损失;
模型调整模块,用于根据所述模型损失对所述初始性别识别模型进行调整,直至所述模型损失满足预设的训练停止条件,得到性别识别模型;
性别识别模块,用于获取待识别用户的用户语音,并通过所述性别识别模型对所述用户语音进行性别识别,得到性别识别结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
获取带有性别标签的训练语音;
获取所述训练语音的基频参数和梅尔频率复合特征,其中,所述梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;
将所述基频参数和所述梅尔频率复合特征输入初始性别识别模型,得到预测性别;
基于所述基频参数确定假设性别,并根据所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型计算模型损失;
根据所述模型损失对所述初始性别识别模型进行调整,直至所述模型损失满足预设的训练停止条件,得到性别识别模型;
获取待识别用户的用户语音,并通过所述性别识别模型对所述用户语音进行性别识别,得到性别识别结果。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
获取带有性别标签的训练语音;
获取所述训练语音的基频参数和梅尔频率复合特征,其中,所述梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;
将所述基频参数和所述梅尔频率复合特征输入初始性别识别模型,得到预测性别;
基于所述基频参数确定假设性别,并根据所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型计算模型损失;
根据所述模型损失对所述初始性别识别模型进行调整,直至所述模型损失满足预设的训练停止条件,得到性别识别模型;
获取待识别用户的用户语音,并通过所述性别识别模型对所述用户语音进行性别识别,得到性别识别结果。
与现有技术相比,本申请实施例主要有以下有益效果:获取带有性别标签的训练语音,并提取基频参数和梅尔频率复合特征,梅尔频率复合特征包括梅尔频率倒谱系数及其一阶差分参数和二阶差分参数,提取多种语音特征以提高模型输入信息的丰富度,确保性别识别的准确性;将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别;性别标签、假设性别和预测性别构成性别组合类型,性别标签是说话人真实的性别,假设性别是根据基频参数和男性女性语音规律假设的性别,预测性别是模型预测的性别,三者构成的性别组合类型的一致程度决定了训练语音带来的不确定性,并以不同的模型损失确定模型对训练语音的学习程度和注意程度;模型损失用于对初始性别识别模型进行调整,直至模型损失满足预设的训练停止条件,得到性别识别模型,提高了性别识别模型的准确性,从而提高了对用户语音进行性别识别的准确性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的性别识别模型处理方法的一个实施例的流程图;
图3是根据本申请的性别识别模型处理装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的性别识别模型处理方法一般由服务器执行,相应地,性别识别模型处理装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的性别识别模型处理方法的一个实施例的流程图。所述的性别识别模型处理方法,包括以下步骤:
步骤S201,获取带有性别标签的训练语音。
在本实施例中,性别识别模型处理方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式与终端进行通信。需要指出的是,上述无线连接方式可以包括但不限于3G/4G/5G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
具体地,首先获取带有性别标签的训练语音,训练语音可以是对真人进行语音录制得到,性别标签用于记录该人的性别为男性还是女性。
需要强调的是,为进一步保证上述训练语音的私密和安全性,上述训练语音还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
步骤S202,获取训练语音的基频参数和梅尔频率复合特征,其中,梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数。
具体地,提取训练语音的基频参数和梅尔频率复合特征,训练语音可以由不同频率的音频信号(正弦波信号)组成,频率最低的正弦波信号即为基频,基频大小即为基频参数。
梅尔频率复合特征由多种特征数据构成,它可以包括梅尔频率倒谱系数(Mel-Frequency Cepstral Coefficients,MFCCs)及其对应的一阶差分参数和二阶差分参数。
在一个实施例中,在提取梅尔频率倒谱系数时,首先对训练语音进行预处理,预处理包括预加重、分帧和加窗操作。其中,预加重是将待处理音频通过一个高通滤波器,预加重的目的是提升高频部分,使待处理音频的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱。分帧是音频信号处理中的常见操作。在本申请中,每一帧音频信号都可以对应有梅尔频率倒谱系数。加窗操作可以将每一帧乘以汉明窗,以增加帧左端和右端的连续性。
由于音频信号在时域上的变换通常很难看出音频信号的特性,所以通常将它转换为频域上的能量分布来观察,不同的能量分布,就能代表不同音频的特性。所以在乘上汉明窗后,每帧还要经过快速傅里叶变换以得到在频谱上的能量分布。对预处理后的待处理音频进行快速傅里叶变换得到频域表示的待处理音频,并对频域表示的待处理音频的频谱取模平方得到功率谱。
服务器将功率谱输入一组梅尔尺度的三角形滤波器组,然后计算每个滤波器组输出信号的对数能量。再将对数能量代入离散余弦变换,从而得到梅尔频率倒谱系数。梅尔频率倒谱系数可以是24维。
步骤S203,将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别。
其中,初始性别识别模型可以是尚未完成训练的性别识别模型。
具体地,将基频参数和梅尔频率复合特征输出初始性别识别模型,初始性别识别模型基于基频参数和梅尔频率复合特征进行性别预测,得到预测性别。
在一个实施例中,初始性别识别模型可以基于卷积神经网络(ConvolutionalNeural Networks,CNN)构建。基频参数和梅尔频率复合特征被输入初始性别识别模型,经过Dense层之后使用Softmax输出2维的标签,得到预测性别。
步骤S204,基于基频参数确定假设性别,并根据性别标签、假设性别和预测性别所构成的性别组合类型计算模型损失。
具体地,由于男性和女性生理上的区别,男性发出的声音和女性发出的声音存在差异,通常,男性发出的声音音调较低,而女性发出的声音音调较高,音调高低在基频参数上可以有体现,即男性语音的基频参数通常偏低,女性语音的基频参数通常偏高。因此,可以根据基频参数先对说话人进行性别假设,得到假设性别。
至此,得到对于同一段训练语音,得到三个性别相关的信息,分别是性别标签、假设性别和预测性别,它们可以构成性别组合类型。对于不同的性别组合类型,在计算模型损失时有不同的计算方式。
例如,对于一段训练语音,性别标签为男性;其基频参数较低,假设性别为男性;模型输出的预测性别为男性;则有性别组合类型:男性、男性、男性;在该训练语音上,根据基频参数进行的性别假设与男性女性声音特征的规律较为符合,且模型预测正确,该训练语音带来的不确定性较小,模型对该训练语音需要学习的特征较少,其带来的模型损失较小。
对于一段训练语音,性别标签为男性;其基频参数较高,假设性别为女性;模型输出的预测性别为女性;则有性别组合类型:男性、女性、女性;在该训练语音上,根据基频参数进行的性别假设与男性女性声音特征的规律相悖,且模型预测错误,该训练语音带来的不确定性较大,模型对该训练语音需要学习的特征较多,在训练中需要重视该语音样本,且训练语音带来的模型损失较大。
步骤S205,根据模型损失对初始性别识别模型进行调整,直至模型损失满足预设的训练停止条件,得到性别识别模型。
具体地,以减小模型损失为训练目标,根据模型损失调整初始性别识别模型的模型参数,并在参数调整后将训练语音重新输入模型进行迭代训练,直至得到的模型损失满足预设的训练停止条件,则停止训练,得到性别识别模型;其中,训练停止条件可以是模型损失达到收敛。
步骤S206,获取待识别用户的用户语音,并通过性别识别模型对用户语音进行性别识别,得到性别识别结果。
具体地,在应用时,获取待识别用户的用户语音,将用户语音输入训练完毕的性别识别模型,性别识别模型对用户语音进行处理,输出性别识别结果。
本实施例中,获取带有性别标签的训练语音,并提取基频参数和梅尔频率复合特征,梅尔频率复合特征包括梅尔频率倒谱系数及其一阶差分参数和二阶差分参数,提取多种语音特征以提高模型输入信息的丰富度,确保性别识别的准确性;将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别;性别标签、假设性别和预测性别构成性别组合类型,性别标签是说话人真实的性别,假设性别是根据基频参数和男性女性语音规律假设的性别,预测性别是模型预测的性别,三者构成的性别组合类型的一致程度决定了训练语音带来的不确定性,并以不同的模型损失确定模型对训练语音的学习程度和注意程度;模型损失用于对初始性别识别模型进行调整,直至模型损失满足预设的训练停止条件,得到性别识别模型,提高了性别识别模型的准确性,从而提高了对用户语音进行性别识别的准确性。
进一步的,上述步骤S201之前,还可以包括:获取带有性别标签的初始语音;对初始语音进行语音端点检测,得到端点检测结果;根据端点检测结果提取初始语音的人声语音片段,并根据性别标签和人声语音片段得到训练语音。
具体地,获取带有性别标签的初始语音,对初始语音进行语音端点检测(VoiceActivity Detection,VAD),得到端点检测结果,端点检测结果可以记录初始语音中哪些片段包含说话人的声音。
根据端点检测结果从初始语音中提取包含说话人声音的人声语音片段,原有的性别标签将作为人声语音片段的标签,得到训练语音。
本实施例中,对初始语音进行语音端点检测,根据端点检测结果提取初始语音的人声语音片段,并根据性别标签得到训练语音,避免后续模型对所有语音片段进行识别,而只识别包含说话人声音的部分,提高了性别识别的速度。
进一步的,上述步骤S202可以包括:获取训练语音的基频参数和梅尔频率倒谱系数;计算梅尔频率倒谱系数的一阶差分参数,并基于一阶差分参数计算梅尔频率倒谱系数的二阶差分参数;分别给梅尔频率倒谱系数、一阶差分参数和二阶差分参数分配权重;根据带有权重的梅尔频率倒谱系数、一阶差分参数和二阶差分参数构建梅尔频率复合特征。
具体地,在得到训练语音后,先提取训练语音的基频参数pitch和梅尔频率倒谱系数,然后计算梅尔频率倒谱系数的一阶差分,得到一阶差分参数,在得到梅尔频率倒谱系数的一阶差分参数后,再计算梅尔频率倒谱系数的二阶差分,得到二阶差分参数。
本申请中,给梅尔频率倒谱系数、一阶差分参数和二阶差分参数分配权重,权重大小可以预先设定,从而将梅尔频率倒谱系数、一阶差分参数和二阶差分参数的重要程度进行区分。带有权重的梅尔频率倒谱系数、一阶差分参数和二阶差分参数可以组合成梅尔频率复合特征。
本实施例中,获取训练语音的基频参数和梅尔频率倒谱系数,再计算梅尔频率倒谱系数的一阶差分参数和二阶差分参数;分别给梅尔频率倒谱系数、一阶差分参数和二阶差分参数分配权重,以对其重要程度进行区分,带有权重的梅尔频率倒谱系数、一阶差分参数和二阶差分参数可以组合成梅尔频率复合特征;基频参数和梅尔频率复合特征提升了模型输入的丰富度,确保了性别识别的准确性。
进一步的,上述基于基频参数确定假设性别的步骤可以包括:当基频参数属于预设的第一频率区间时,将假设性别设置为男性;当基频参数属于预设的第二频率区间时,将假设性别随机设置为男性或女性;当基频参数属于预设的第三频率区间时,将假设性别设置为女性,其中,第一频率区间、第二频率区间和第三频率区间依次相邻。
具体地,本申请预先设置了第一频率区间、第二频率区间和第三频率区间,三个频率区间在以右为正向的一维坐标系上依次相邻,则可以理解,第一频率区间中的频率点低于第二频率区间中的频率点,第二频率区间中的频率点低于第三频率区间中的频率点。
男性语音的音调通常低于女性,因此,男性语音的基频参数通常低于女性语音的基频参数,但是存在一个区间B,基频参数位于区间B中的语音可能来自男性,也可能来自女性,区间B即为上述的第二频率区间。同时,存在区间A,基频参数位于区间A中的语音有较高概率来自男性,区间A即为上述的第二频率区间;存在区间C,基频参数位于区间C中的语音有较高概率来自女性,区间C即为上述的第三频率区间。
因此,当基频参数属于第一频率区间时,将假设性别设置为男性;当基频参数属于第二频率区间时,将假设性别随机设置为男性或女性;当基频参数属于第三频率区间时,将假设性别设置为女性。
本实施例中,根据基频参数所在的频率区间,确定假设性别,符合男性女性语音特征的客观规律,保证了假设性别的合理性。
进一步的,上述根据性别标签、假设性别和预测性别所构成的性别组合类型计算模型损失的步骤可以包括:确定性别标签、假设性别和预测性别所构成的性别组合类型;根据性别标签和预测性别计算预测误差;获取与性别组合类型相对应的修正因子;根据预测误差和修正因子得到模型损失。
具体地,不同的性别标签、假设性别和预测性别可以构成不同的性别组合类型,例如,性别组合类型“男性、男性、男性”、“男性、男性、女性”、“男性、女性、男性”和“男性、女性、女性”属于不同的性别组合类型。
根据性别标签和预测性别计算预测误差,然后获取与性别类型组合相对应的修正因子,修正因子相当于一种激励,它迫使模型对训练语音做出更准确的预测。预测误差和修正因子共同构成模型损失。
在一个实施例中,不同的性别类型组合具有不同的修正因子,例如,对于性别类型组合“男性、男性、男性”,其假设性别没有偏离男性女性声音特征的规律,预测性别也没有出错,模型在该训练语音上没有表现出大的偏差,其修正因子可以小一些;对于性别类型组合“男性、女性、女性”,其假设性别偏离男性女性声音特征的规律,预测性别也出现错误,模型在该训练语音上没有表现出大的偏差,该训练语音具有较高的学习价值,其修正因子可以大一些。
在一个实施例中,修正因子可以是倍率数值,与预测误差相乘后得到模型损失;或者,修正因子也可以是与预测误差相同纬度的数值型信息,可以与预测误差相加得到模型损失。
本实施例中,确定性别标签、假设性别和预测性别所构成的性别组合类型,根据性别标签和预测性别计算预测误差,并获取额外的、与性别组合类型相对应的修正因子;预测误差和修正因子构成模型损失,同时作用于初始性别识别模型,使得模型更准确地进行性别预测,提高了性别识别的准确性。
进一步的,上述根据性别标签和预测性别计算预测误差的步骤可以包括:按照预设的误差计算方式,根据性别标签和预测性别计算预测子误差,其中,预测子误差的数量多于一个;分别给各预测子误差分配误差权重;根据带有误差权重的各预测子误差计算预测误差。
具体地,本申请中的预测误差可以由多种预测子误差构成,每种预测子误差具有预设的误差计算方式。例如,预测子误差可以是二进制交叉熵损失BCELoss,也可以是均方误差(MSE)。可以给各预测子误差分配误差权重,然后对带有误差权重的各预测子误差进行加权计算,得到预测误差。
本实施例中,计算多个预测子误差,给预测子误差添加误差权重,对带有误差权重的预测子误差进行计算得到预测误差,从而从多个维度对误差进行考量,提高了预测误差计算的准确性。
进一步的,上述步骤S206可以包括:对用户语音进行语音端点检测,得到端点检测结果;根据端点检测结果从用户语音中提取人声语音片段;提取人声语音片段的基频参数和梅尔频率复合特征,其中,梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;将基频参数和梅尔频率复合特征输入性别识别模型,得到性别识别结果。
具体地,在应用时,获取用户语音,对用户语音进行语音端点检测得到端点检测结果。根据端点检测结果从用户语音中提取人声语音片段,然后提取人声语音片段的基频参数和梅尔频率复合特征,其中,梅尔频率复合特征包括人声语音片段的梅尔频率倒谱系数,及其对应的一阶差分参数和二阶差分参数,梅尔频率倒谱系数、一阶差分参数和二阶差分参数可以带有权重。
将基频参数和梅尔频率复合特征输入训练完毕的性别识别模型,可以得到性别识别结果。服务器可以根据性别识别结果继续进行业务处理,例如构建用户画像,基于性别识别结果对用户进行针对性沟通、产品推荐等。
本实施例中,对用户语音进行语音端点检测,得到端点检测结果,根据端点检测结果从用户语音中提取人声语音片段,仅提取人声语音片段的基频参数和梅尔频率复合特征,可以减少计算量,提高性别识别的速度,同时提取多种语音特征,确保了性别识别模型输出的性别识别结果的准确性。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种性别识别模型处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的性别识别模型处理装置300包括:训练获取模块301、特征提取模块302、性别预测模块303、损失计算模块304、模型调整模块305以及性别识别模块306,其中:
训练获取模块301,用于获取带有性别标签的训练语音。
特征提取模块302,用于获取训练语音的基频参数和梅尔频率复合特征,其中,梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数。
性别预测模块303,用于将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别。
损失计算模块304,用于基于基频参数确定假设性别,并根据性别标签、假设性别和预测性别所构成的性别组合类型计算模型损失。
模型调整模块305,用于根据模型损失对初始性别识别模型进行调整,直至模型损失满足预设的训练停止条件,得到性别识别模型。
性别识别模块306,用于获取待识别用户的用户语音,并通过性别识别模型对用户语音进行性别识别,得到性别识别结果。
本实施例中,获取带有性别标签的训练语音,并提取基频参数和梅尔频率复合特征,梅尔频率复合特征包括梅尔频率倒谱系数及其一阶差分参数和二阶差分参数,提取多种语音特征以提高模型输入信息的丰富度,确保性别识别的准确性;将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别;性别标签、假设性别和预测性别构成性别组合类型,性别标签是说话人真实的性别,假设性别是根据基频参数和男性女性语音规律假设的性别,预测性别是模型预测的性别,三者构成的性别组合类型的一致程度决定了训练语音带来的不确定性,并以不同的模型损失确定模型对训练语音的学习程度和注意程度;模型损失用于对初始性别识别模型进行调整,直至模型损失满足预设的训练停止条件,得到性别识别模型,提高了性别识别模型的准确性,从而提高了对用户语音进行性别识别的准确性。
在本实施例的一些可选的实现方式中,性别识别模型处理装置300还可以包括:初始获取模块、端点检测模块以及训练生成模块,其中:
初始获取模块,用于获取带有性别标签的初始语音。
端点检测模块,用于对初始语音进行语音端点检测,得到端点检测结果。
训练生成模块,用于根据端点检测结果提取初始语音的人声语音片段,并根据性别标签和人声语音片段得到训练语音。
本实施例中,对初始语音进行语音端点检测,根据端点检测结果提取初始语音的人声语音片段,并根据性别标签得到训练语音,避免后续模型对所有语音片段进行识别,而只识别包含说话人声音的部分,提高了性别识别的速度。
在本实施例的一些可选的实现方式中,特征提取模块302可以包括:特征获取子模块、差分计算子模块、权重分配子模块以及复合构建子模块,其中:
特征获取子模块,用于获取训练语音的基频参数和梅尔频率倒谱系数。
差分计算子模块,用于计算梅尔频率倒谱系数的一阶差分参数,并基于一阶差分参数计算梅尔频率倒谱系数的二阶差分参数。
权重分配子模块,用于分别给梅尔频率倒谱系数、一阶差分参数和二阶差分参数分配权重。
复合构建子模块,用于根据带有权重的梅尔频率倒谱系数、一阶差分参数和二阶差分参数构建梅尔频率复合特征。
本实施例中,获取训练语音的基频参数和梅尔频率倒谱系数,再计算梅尔频率倒谱系数的一阶差分参数和二阶差分参数;分别给梅尔频率倒谱系数、一阶差分参数和二阶差分参数分配权重,以对其重要程度进行区分,带有权重的梅尔频率倒谱系数、一阶差分参数和二阶差分参数可以组合成梅尔频率复合特征;基频参数和梅尔频率复合特征提升了模型输入的丰富度,确保了性别识别的准确性。
在本实施例的一些可选的实现方式中,损失计算模块304可以包括:第一设置子模块、第二设置子模块以及第三设置子模块,其中:
第一设置子模块,用于当基频参数属于预设的第一频率区间时,将假设性别设置为男性。
第二设置子模块,用于当基频参数属于预设的第二频率区间时,将假设性别随机设置为男性或女性。
第三设置子模块,用于当基频参数属于预设的第三频率区间时,将假设性别设置为女性,其中,第一频率区间、第二频率区间和第三频率区间依次相邻。
本实施例中,根据基频参数所在的频率区间,确定假设性别,符合男性女性语音特征的客观规律,保证了假设性别的合理性。
在本实施例的一些可选的实现方式中,损失计算模块304还可以包括:类型确定子模块、误差计算子模块、因子获取子模块以及损失计算子模块,其中:
类型确定子模块,用于确定性别标签、假设性别和预测性别所构成的性别组合类型。
误差计算子模块,用于根据性别标签和预测性别计算预测误差。
因子获取子模块,用于获取与性别组合类型相对应的修正因子。
损失计算子模块,用于根据预测误差和修正因子得到模型损失。
本实施例中,确定性别标签、假设性别和预测性别所构成的性别组合类型,根据性别标签和预测性别计算预测误差,并获取额外的、与性别组合类型相对应的修正因子;预测误差和修正因子构成模型损失,同时作用于初始性别识别模型,使得模型更准确地进行性别预测,提高了性别识别的准确性。
在本实施例的一些可选的实现方式中,误差计算子模块可以包括:子误差计算单元、权重分配单元以及误差计算单元,其中:
子误差计算单元,用于按照预设的误差计算方式,根据性别标签和预测性别计算预测子误差,其中,预测子误差的数量多于一个。
权重分配单元,用于分别给各预测子误差分配误差权重。
误差计算单元,用于根据带有误差权重的各预测子误差计算预测误差。
本实施例中,计算多个预测子误差,给预测子误差添加误差权重,对带有误差权重的预测子误差进行计算得到预测误差,从而从多个维度对误差进行考量,提高了预测误差计算的准确性。
在本实施例的一些可选的实现方式中,性别识别模块306可以包括:检测子模块、人声提取子模块、特征提取子模块以及性别识别子模块,其中:
检测子模块,用于对用户语音进行语音端点检测,得到端点检测结果。
人声提取子模块,用于根据端点检测结果从用户语音中提取人声语音片段。
特征提取子模块,用于提取人声语音片段的基频参数和梅尔频率复合特征,其中,梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数。
性别识别子模块,用于将基频参数和梅尔频率复合特征输入性别识别模型,得到性别识别结果。
本实施例中,对用户语音进行语音端点检测,得到端点检测结果,根据端点检测结果从用户语音中提取人声语音片段,仅提取人声语音片段的基频参数和梅尔频率复合特征,可以减少计算量,提高性别识别的速度,同时提取多种语音特征,确保了性别识别模型输出的性别识别结果的准确性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如性别识别模型处理方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述性别识别模型处理方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本实施例中提供的计算机设备可以执行上述性别识别模型处理方法。此处性别识别模型处理方法可以是上述各个实施例的性别识别模型处理方法。
本实施例中,获取带有性别标签的训练语音,并提取基频参数和梅尔频率复合特征,梅尔频率复合特征包括梅尔频率倒谱系数及其一阶差分参数和二阶差分参数,提取多种语音特征以提高模型输入信息的丰富度,确保性别识别的准确性;将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别;性别标签、假设性别和预测性别构成性别组合类型,性别标签是说话人真实的性别,假设性别是根据基频参数和男性女性语音规律假设的性别,预测性别是模型预测的性别,三者构成的性别组合类型的一致程度决定了训练语音带来的不确定性,并以不同的模型损失确定模型对训练语音的学习程度和注意程度;模型损失用于对初始性别识别模型进行调整,直至模型损失满足预设的训练停止条件,得到性别识别模型,提高了性别识别模型的准确性,从而提高了对用户语音进行性别识别的准确性。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的性别识别模型处理方法的步骤。
本实施例中,获取带有性别标签的训练语音,并提取基频参数和梅尔频率复合特征,梅尔频率复合特征包括梅尔频率倒谱系数及其一阶差分参数和二阶差分参数,提取多种语音特征以提高模型输入信息的丰富度,确保性别识别的准确性;将基频参数和梅尔频率复合特征输入初始性别识别模型,得到预测性别;性别标签、假设性别和预测性别构成性别组合类型,性别标签是说话人真实的性别,假设性别是根据基频参数和男性女性语音规律假设的性别,预测性别是模型预测的性别,三者构成的性别组合类型的一致程度决定了训练语音带来的不确定性,并以不同的模型损失确定模型对训练语音的学习程度和注意程度;模型损失用于对初始性别识别模型进行调整,直至模型损失满足预设的训练停止条件,得到性别识别模型,提高了性别识别模型的准确性,从而提高了对用户语音进行性别识别的准确性。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种性别识别模型处理方法,其特征在于,包括下述步骤:
获取带有性别标签的训练语音;
获取所述训练语音的基频参数和梅尔频率复合特征,其中,所述梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;
将所述基频参数和所述梅尔频率复合特征输入初始性别识别模型,得到预测性别;
基于所述基频参数确定假设性别,并根据所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型计算模型损失;
根据所述模型损失对所述初始性别识别模型进行调整,直至所述模型损失满足预设的训练停止条件,得到性别识别模型;
获取待识别用户的用户语音,并通过所述性别识别模型对所述用户语音进行性别识别,得到性别识别结果。
2.根据权利要求1所述的性别识别模型处理方法,其特征在于,在所述获取带有性别标签的训练语音的步骤之前,还包括:
获取带有性别标签的初始语音;
对所述初始语音进行语音端点检测,得到端点检测结果;
根据所述端点检测结果提取所述初始语音的人声语音片段,并根据所述性别标签和所述人声语音片段得到训练语音。
3.根据权利要求1所述的性别识别模型处理方法,其特征在于,所述获取所述训练语音的基频参数和梅尔频率复合特征的步骤包括:
获取所述训练语音的基频参数和梅尔频率倒谱系数;
计算所述梅尔频率倒谱系数的一阶差分参数,并基于所述一阶差分参数计算所述梅尔频率倒谱系数的二阶差分参数;
分别给所述梅尔频率倒谱系数、所述一阶差分参数和所述二阶差分参数分配权重;
根据带有权重的所述梅尔频率倒谱系数、所述一阶差分参数和所述二阶差分参数构建梅尔频率复合特征。
4.根据权利要求1所述的性别识别模型处理方法,其特征在于,所述基于所述基频参数确定假设性别的步骤包括:
当所述基频参数属于预设的第一频率区间时,将所述假设性别设置为男性;
当所述基频参数属于预设的第二频率区间时,将所述假设性别随机设置为男性或女性;
当所述基频参数属于预设的第三频率区间时,将所述假设性别设置为女性,其中,所述第一频率区间、所述第二频率区间和所述第三频率区间依次相邻。
5.根据权利要求1所述的性别识别模型处理方法,其特征在于,所述根据所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型计算模型损失的步骤包括:
确定所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型;
根据所述性别标签和所述预测性别计算预测误差;
获取与所述性别组合类型相对应的修正因子;
根据所述预测误差和所述修正因子得到模型损失。
6.根据权利要求5所述的性别识别模型处理方法,其特征在于,所述根据所述性别标签和所述预测性别计算预测误差的步骤包括:
按照预设的误差计算方式,根据所述性别标签和所述预测性别计算预测子误差,其中,预测子误差的数量多于一个;
分别给各预测子误差分配误差权重;
根据带有误差权重的所述各预测子误差计算预测误差。
7.根据权利要求1所述的性别识别模型处理方法,其特征在于,所述通过所述性别识别模型对所述用户语音进行性别识别,得到性别识别结果的步骤包括:
对所述用户语音进行语音端点检测,得到端点检测结果;
根据所述端点检测结果从所述用户语音中提取人声语音片段;
提取所述人声语音片段的基频参数和梅尔频率复合特征,其中,所述梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;
将所述基频参数和所述梅尔频率复合特征输入所述性别识别模型,得到性别识别结果。
8.一种性别识别模型处理装置,其特征在于,包括:
训练获取模块,用于获取带有性别标签的训练语音;
特征提取模块,用于获取所述训练语音的基频参数和梅尔频率复合特征,其中,所述梅尔频率复合特征包括梅尔频率倒谱系数及其对应的一阶差分参数和二阶差分参数;
性别预测模块,用于将所述基频参数和所述梅尔频率复合特征输入初始性别识别模型,得到预测性别;
损失计算模块,用于基于所述基频参数确定假设性别,并根据所述性别标签、所述假设性别和所述预测性别所构成的性别组合类型计算模型损失;
模型调整模块,用于根据所述模型损失对所述初始性别识别模型进行调整,直至所述模型损失满足预设的训练停止条件,得到性别识别模型;
性别识别模块,用于获取待识别用户的用户语音,并通过所述性别识别模型对所述用户语音进行性别识别,得到性别识别结果。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的性别识别模型处理方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的性别识别模型处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310368697.7A CN116631436A (zh) | 2023-04-06 | 2023-04-06 | 性别识别模型处理方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310368697.7A CN116631436A (zh) | 2023-04-06 | 2023-04-06 | 性别识别模型处理方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116631436A true CN116631436A (zh) | 2023-08-22 |
Family
ID=87596236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310368697.7A Pending CN116631436A (zh) | 2023-04-06 | 2023-04-06 | 性别识别模型处理方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116631436A (zh) |
-
2023
- 2023-04-06 CN CN202310368697.7A patent/CN116631436A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107610709B (zh) | 一种训练声纹识别模型的方法及系统 | |
CN110457432B (zh) | 面试评分方法、装置、设备及存储介质 | |
CN112101172B (zh) | 基于权重嫁接的模型融合的人脸识别方法及相关设备 | |
CN107481717B (zh) | 一种声学模型训练方法及系统 | |
CN112489677B (zh) | 基于神经网络的语音端点检测方法、装置、设备及介质 | |
WO2022178969A1 (zh) | 语音对话数据处理方法、装置、计算机设备及存储介质 | |
CN112562691A (zh) | 一种声纹识别的方法、装置、计算机设备及存储介质 | |
CN112466314A (zh) | 情感语音数据转换方法、装置、计算机设备及存储介质 | |
CN112328761B (zh) | 一种意图标签设置方法、装置、计算机设备及存储介质 | |
CN112395390B (zh) | 意图识别模型的训练语料生成方法及其相关设备 | |
CN114358023B (zh) | 智能问答召回方法、装置、计算机设备及存储介质 | |
CN117493830A (zh) | 训练数据质量的评估、评估模型的生成方法、装置及设备 | |
CN113421584B (zh) | 音频降噪方法、装置、计算机设备及存储介质 | |
CN111933154B (zh) | 一种伪冒语音的识别方法、设备及计算机可读存储介质 | |
CN111445922B (zh) | 音频匹配方法、装置、计算机设备及存储介质 | |
CN116703466A (zh) | 基于改进灰狼算法的系统访问量预测方法及其相关设备 | |
CN116777646A (zh) | 基于人工智能的风险识别方法、装置、设备及存储介质 | |
CN113421554B (zh) | 语音关键词检测模型处理方法、装置及计算机设备 | |
CN116542783A (zh) | 基于人工智能的风险评估方法、装置、设备及存储介质 | |
CN113555005B (zh) | 模型训练、置信度确定方法及装置、电子设备、存储介质 | |
CN113035230B (zh) | 认证模型的训练方法、装置及电子设备 | |
CN115242927A (zh) | 客服对象分配方法、装置、计算机设备及存储介质 | |
CN112071331B (zh) | 语音文件修复方法、装置、计算机设备及存储介质 | |
CN115631748A (zh) | 基于语音对话的情感识别方法、装置、电子设备及介质 | |
CN116631436A (zh) | 性别识别模型处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |