CN112002346A - 基于语音的性别年龄识别方法、装置、设备和存储介质 - Google Patents
基于语音的性别年龄识别方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN112002346A CN112002346A CN202010842271.7A CN202010842271A CN112002346A CN 112002346 A CN112002346 A CN 112002346A CN 202010842271 A CN202010842271 A CN 202010842271A CN 112002346 A CN112002346 A CN 112002346A
- Authority
- CN
- China
- Prior art keywords
- gender
- age
- recognition
- target user
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000010586 diagram Methods 0.000 claims abstract description 45
- 238000003062 neural network model Methods 0.000 claims abstract description 36
- 230000035939 shock Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 230000015654 memory Effects 0.000 description 14
- 238000013473 artificial intelligence Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例公开了一种基于语音的性别年龄识别方法、装置、设备和存储介质。该方法包括:获取目标用户发出的语音信号;将所述语音信号转换为声纹特征图;将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。本发明实施例实现了快速准确的实时获取用户的年龄和性别。
Description
技术领域
本发明实施例涉及识别技术,尤其涉及一种基于语音的性别年龄识别方法、装置、设备和存储介质。
背景技术
随着互联网的发展,产品销售方式也都从线下搬到了线上,但是传统的电话销售方式被未被替代,不过也解放了人力,由人工客服转为了AI(Artificial Intelligence,人工智能)客服,基于语义的自动电话销售已经成为行业常态,凭借其对人类语言的强大理解能力,以及海量的商品素材库,能做到实时化对不同电销客户的精准推送,大大降低获客成本,提升用户活跃度,增强变现能力。
电话销售始于预先准备的电销名单,名单相当于用户画像,存在该用户的性别、年龄、喜好等等先验知识,但是现实中存在更换手机号、接听电话的非本人等情况,用户画像就会失效。比如公司对A的画像显示性别为女,自动电销就会为其推送女性化妆用品、生理用品等适合女性的产品,可是A早就注销了这个手机号,现在这个手机号被B买到了,不幸的是B为男性,那么如果仍旧按照之前的画线推送女性用品,必将是一次失败的销售,因此对用户的画像修正的需求大大提高,而为了修正用户画像需要能够快速的实时重新获取用户画像,即用户的年龄和性别。
为了实时获取用户画像,可以采用声音识别的方式,现有技术中采用了传统的MFCC(Mel Frequency Cepstrum Coefficient,梅尔频率倒谱系数)特征,训练GMM-UBM(Gaussian Mixture Mode-Universal Background Model,高斯混合模型-联合背景模型)模型来识别,但其本质是一种生成模型的思想,存在严重的冷启动问题,在训练模型时,有多少个人的数据,就要单独训练多少个GMM-UBM模型,并行化实现不方便,且GMM-UBM模型本质为统计模型,难以捕获到训练数据外的更泛化的特征,除此之外,其抽取特征能力有限,抽取的特征的表征能力不强。
发明内容
本发明实施例提供一种基于语音的性别年龄识别方法、装置、设备和存储介质,以实现快速准确的实时获取用户的年龄和性别。
为达此目的,本发明实施例提供了一种基于语音的性别年龄识别方法,该方法包括:
获取目标用户发出的语音信号;
将所述语音信号转换为声纹特征图;
将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
进一步的,所述将所述语音信号转换为声纹特征图包括:
将所述语音信号分解为谐波信号和冲击波信号;
将所述语音信号、谐波信号和冲击波信号分别转换为第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图;
将所述第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图进行折叠以得到声纹特征图。
进一步的,所述将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别之后包括:
基于所述识别年龄和所述识别性别对预设用户画像进行修正。
进一步的,所述基于所述识别年龄和所述识别性别对预设用户画像进行修正之后包括:
基于修正后的预设用户画像调整针对所述目标用户的通话语音类型。
一方面,本发明实施例还提供了一种基于语音的性别年龄识别装置,该装置包括:
信号获取模块,用于获取目标用户发出的语音信号;
信号转换模块,用于将所述语音信号转换为声纹特征图;
年龄性别获取模块,用于将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别;
进一步的,所述信号转换模块具体用于:
将所述语音信号分解为谐波信号和冲击波信号;
将所述语音信号、谐波信号和冲击波信号分别转换为第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图;
将所述第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图进行折叠以得到声纹特征图。
进一步的,该装置还包括:
画像修正模块,用于基于所述识别年龄和所述识别性别对预设用户画像进行修正。
进一步的,该装置还包括:
语音调整模块,用于基于修正后的预设用户画像调整针对所述目标用户的通话语音类型。
另一方面,本发明实施例还提供了一种计算机设备,该计算机设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例提供的方法。
又一方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例提供的方法。
本发明实施例通过获取目标用户发出的语音信号;将所述语音信号转换为声纹特征图;将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别,解决了不能快速准确的实时获取用户的年龄和性别的问题,实现了实时修正用户画像的效果。
附图说明
图1是本发明实施例一提供的基于语音的性别年龄识别方法的流程示意图;
图2是本发明实施例二提供的基于语音的性别年龄识别方法的流程示意图;
图3是本发明实施例三提供的基于语音的性别年龄识别装置的结构示意图;
图4为本发明实施例四提供的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
此外,术语“第一”、“第二”等可在本文中用于描述各种方向、动作、步骤或元件等,但这些方向、动作、步骤或元件不受这些术语限制。这些术语仅用于将第一个方向、动作、步骤或元件与另一个方向、动作、步骤或元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一模块称为第二模块,且类似地,可将第二模块称为第一模块。第一模块和第二模块两者都是模块,但其不是同一模块。术语“第一”、“第二”等不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。在本发明实施例的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
实施例一
如图1所示,本发明实施例一提供了一种基于语音的性别年龄识别方法,该方法包括:
S110、获取目标用户发出的语音信号。
S120、将所述语音信号转换为声纹特征图。
本实施例中,若需要获取目标用户的年龄和性别,那么只需要获取到目标用户的语音信号,获取到语音信号后,将该语音信号转换为声纹特征图。其中声纹特征图为梅尔能量谱图,梅尔能量谱图是在语谱图(对人的发声系统的一种描述)的基础上用梅尔滤波器组(模拟人的耳蜗)处理之后得到,是对人的听觉系统的描述。梅尔能量谱图能表征人能听到的声音的频率分布,是人通过声音辨别事物的深层特征,利用这种在梅尔频域的分布特性,更适合构建说话人识别系统,语音信号经过这样的转换,语音信号就变为了携带声纹信息的图像,对于单个信号,其梅尔能量谱图是黑白的,可以理解为单通道的特征图。
S130、将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
本实施例中,得到声纹特征图后,就可以将声纹特征图输入至预先训练好的年龄识别神经网络模型以得到目标用户的识别年龄,并将该声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。其中,年龄识别神经网络模型经过大量的样本数据训练,样本数据包括样本用户的语音信号和样本用户的声纹特征图,因此在输入目标用户的声纹特征图后就可以输出目标用户的年龄,而性别识别神经网络模型也相同。
本发明实施例通过获取目标用户发出的语音信号;将所述语音信号转换为声纹特征图;将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别,解决了不能快速准确的实时获取用户的年龄和性别的问题,实现了实时修正用户画像的效果。
实施例二
如图2所示,本发明实施例二提供了一种基于语音的性别年龄识别方法,本发明实施例二是在本发明实施例一的基础上进一步的说明解释,该方法包括:
S210、获取目标用户发出的语音信号。
S220、将所述语音信号分解为谐波信号和冲击波信号。
S230、将所述语音信号、谐波信号和冲击波信号分别转换为第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图。
S240、将所述第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图进行折叠以得到声纹特征图。
本实施例中,因在计算机视觉领域中大多真实场景下的图像都是彩色的,即图像的颜色通道数为3,语音信号通过HPSS(Harmonic Percussive Source Separation,谐波冲击波源分离)可实现对三个颜色通道的模拟。而人类的声音又大致可以分为两类:和声(也就是谐波)和打击声(也就是冲击波)。因此,将语音信号分解为谐波信号和冲击波信号,并将语音信号、谐波信号和冲击波信号分别转换为第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图,最后将第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图进行折叠以得到声纹特征图,以模拟出了RGB图像的三个颜色通道。
S250、将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
本实施例中,所述年龄识别神经网络模型和性别识别神经网络模型包括CNN(Convolutional Neural Networks,卷积神经网络)和RNN(Recurrent Neural Network,循环神经网络)。具体的,声纹特征图输入年龄识别神经网络模型和性别识别神经网络模型后,多层的CNN提取声纹特征图的图特征,经过全连接层FC的拉伸,并与双向的RNN(bi-RNN)连接,对RNN的每个节点输出结果取Softmax(逻辑回归模型)后求均值,即为最终的年龄或性别的输出结果。
进一步的,因对于性别或者年龄,在不同类别下,声音频率分布呈现不同规则,而CNN很适合来捕获这些强特征,但是语音中难免会有噪声存在,作为优选的,RNN采用LSTM(Long Short-Term Memory,长短期记忆网络)模型或GRU(Gate Recurrent Unit,门控循环单元)模型,以解决长期记忆和反向传播中的梯度问题,并在RNN中还加入RNN的Attention机制,可以自动判断出哪些特征是对于识别有用的,哪些是噪声。
S260、基于所述识别年龄和所述识别性别对预设用户画像进行修正。
S270、基于修正后的预设用户画像调整针对所述目标用户的通话语音类型。
本实施例中,该基于语音的性别年龄识别方法可用于AI销售客服的场景中,示例性的,AI销售客服可以预先获取到了目标用户的预设用户画像,但该预设用户画像不一定准确,在目标用户开口说第一句话后,就可以通过此方法获取到目标用户的识别年龄和识别性别,然后基于得到的识别年龄和识别性别对预设用户画像进行修正。若预设用户画像中目标用户为男性,30岁,而目标用户的识别年龄为29岁,识别性别为男性,那么不需要进行修正,直接基于预设用户画像对目标用户进行营销推荐,若目标用户的识别年龄为60岁,识别性别为女性,即识别年龄或识别性别偏离预设用户画像预设范围的时候,则需要对预设用户画像进行修正,同时基于修正后的预设用户画像调整针对目标用户的通话语音类型,例如AI销售客服预先保存了针对不同性别和不同年龄段的通话语音类型,其中通话语音类型包括推销的产品和推销的话术。进行修正后,AI销售客服仅需要将针对30岁男性的通话语音类型切换成针对60岁女性的通话语音类型即可,从而实现快速准确的实时修正用户画像,以提高智能AI自动电话销售的营销效果。
实施例三
如图3所示,本发明实施例三提供了一种基于语音的性别年龄识别装置100,本发明实施例三所提供的基于语音的性别年龄识别装置100可执行本发明任意实施例所提供的基于语音的性别年龄识别方法,具备执行方法相应的功能模块和有益效果。该基于语音的性别年龄识别装置100包括信号获取模块200、信号转换模块300和年龄性别获取模块400。
具体的,信号获取模块200用于获取目标用户发出的语音信号;信号转换模块300用于将所述语音信号转换为声纹特征图;年龄性别获取模块400用于将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
本实施例中,信号转换模块300具体用于将所述语音信号分解为谐波信号和冲击波信号;将所述语音信号、谐波信号和冲击波信号分别转换为第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图;将所述第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图进行折叠以得到声纹特征图。
进一步的,该基于语音的性别年龄识别装置100还包括画像修正模块500和语音调整模块600。画像修正模块500用于基于所述识别年龄和所述识别性别对预设用户画像进行修正。语音调整模块600用于基于修正后的预设用户画像调整针对所述目标用户的通话语音类型。
实施例四
图4为本发明实施例四提供的一种计算机设备12的结构示意图。图4示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图4显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的方法:
获取目标用户发出的语音信号;
将所述语音信号转换为声纹特征图;
将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请所有发明实施例提供的方法:
获取目标用户发出的语音信号;
将所述语音信号转换为声纹特征图;
将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种基于语音的性别年龄识别方法,其特征在于,包括:
获取目标用户发出的语音信号;
将所述语音信号转换为声纹特征图;
将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
2.根据权利要求1所述的方法,其特征在于,所述将所述语音信号转换为声纹特征图包括:
将所述语音信号分解为谐波信号和冲击波信号;
将所述语音信号、谐波信号和冲击波信号分别转换为第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图;
将所述第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图进行折叠以得到声纹特征图。
3.根据权利要求1所述的方法,其特征在于,所述将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别之后包括:
基于所述识别年龄和所述识别性别对预设用户画像进行修正。
4.根据权利要求3所述的方法,其特征在于,所述基于所述识别年龄和所述识别性别对预设用户画像进行修正之后包括:
基于修正后的预设用户画像调整针对所述目标用户的通话语音类型。
5.一种基于语音的性别年龄识别装置,其特征在于,包括:
信号获取模块,用于获取目标用户发出的语音信号;
信号转换模块,用于将所述语音信号转换为声纹特征图;
年龄性别获取模块,用于将所述声纹特征图输入至预先训练好的年龄识别神经网络模型以得到所述目标用户的识别年龄,并将所述声纹特征图输入至预先训练好的性别识别神经网络模型以得到所述目标用户的识别性别。
6.根据权利要求5所述的装置,其特征在于,所述信号转换模块具体用于:
将所述语音信号分解为谐波信号和冲击波信号;
将所述语音信号、谐波信号和冲击波信号分别转换为第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图;
将所述第一梅尔能量谱图、第二梅尔能量谱图和第三梅尔能量谱图进行折叠以得到声纹特征图。
7.根据权利要求5所述的装置,其特征在于,还包括:
画像修正模块,用于基于所述识别年龄和所述识别性别对预设用户画像进行修正。
8.根据权利要求7所述的装置,其特征在于,还包括:
语音调整模块,用于基于修正后的预设用户画像调整针对所述目标用户的通话语音类型。
9.一种计算机设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010842271.7A CN112002346A (zh) | 2020-08-20 | 2020-08-20 | 基于语音的性别年龄识别方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010842271.7A CN112002346A (zh) | 2020-08-20 | 2020-08-20 | 基于语音的性别年龄识别方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112002346A true CN112002346A (zh) | 2020-11-27 |
Family
ID=73472868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010842271.7A Pending CN112002346A (zh) | 2020-08-20 | 2020-08-20 | 基于语音的性别年龄识别方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112002346A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114155845A (zh) * | 2021-12-13 | 2022-03-08 | 中国农业银行股份有限公司 | 服务确定方法、装置、电子设备及存储介质 |
CN115378751A (zh) * | 2021-05-21 | 2022-11-22 | 佛山市顺德区美的电子科技有限公司 | 家电设备的控制方法、家电设备及计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507612A (zh) * | 2017-06-30 | 2017-12-22 | 百度在线网络技术(北京)有限公司 | 一种声纹识别方法及装置 |
CN108281138A (zh) * | 2017-12-18 | 2018-07-13 | 百度在线网络技术(北京)有限公司 | 年龄判别模型训练及智能语音交互方法、设备及存储介质 |
CN110738998A (zh) * | 2019-09-11 | 2020-01-31 | 深圳壹账通智能科技有限公司 | 基于语音的个人信用评估方法、装置、终端及存储介质 |
CN110956966A (zh) * | 2019-11-01 | 2020-04-03 | 平安科技(深圳)有限公司 | 声纹认证方法、装置、介质及电子设备 |
CN111048099A (zh) * | 2019-12-16 | 2020-04-21 | 随手(北京)信息技术有限公司 | 声音源的识别方法、装置、服务器及存储介质 |
CN111312258A (zh) * | 2019-12-16 | 2020-06-19 | 随手(北京)信息技术有限公司 | 用户的身份认证方法、装置、服务器及存储介质 |
-
2020
- 2020-08-20 CN CN202010842271.7A patent/CN112002346A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507612A (zh) * | 2017-06-30 | 2017-12-22 | 百度在线网络技术(北京)有限公司 | 一种声纹识别方法及装置 |
CN108281138A (zh) * | 2017-12-18 | 2018-07-13 | 百度在线网络技术(北京)有限公司 | 年龄判别模型训练及智能语音交互方法、设备及存储介质 |
CN110738998A (zh) * | 2019-09-11 | 2020-01-31 | 深圳壹账通智能科技有限公司 | 基于语音的个人信用评估方法、装置、终端及存储介质 |
CN110956966A (zh) * | 2019-11-01 | 2020-04-03 | 平安科技(深圳)有限公司 | 声纹认证方法、装置、介质及电子设备 |
CN111048099A (zh) * | 2019-12-16 | 2020-04-21 | 随手(北京)信息技术有限公司 | 声音源的识别方法、装置、服务器及存储介质 |
CN111312258A (zh) * | 2019-12-16 | 2020-06-19 | 随手(北京)信息技术有限公司 | 用户的身份认证方法、装置、服务器及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115378751A (zh) * | 2021-05-21 | 2022-11-22 | 佛山市顺德区美的电子科技有限公司 | 家电设备的控制方法、家电设备及计算机可读存储介质 |
CN115378751B (zh) * | 2021-05-21 | 2023-09-08 | 佛山市顺德区美的电子科技有限公司 | 家电设备的控制方法、家电设备及计算机可读存储介质 |
CN114155845A (zh) * | 2021-12-13 | 2022-03-08 | 中国农业银行股份有限公司 | 服务确定方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11380327B2 (en) | Speech communication system and method with human-machine coordination | |
CN109036384B (zh) | 语音识别方法和装置 | |
WO2022095380A1 (zh) | 基于ai的虚拟交互模型生成方法、装置、计算机设备及存储介质 | |
CN109313892B (zh) | 稳健的语言识别方法和系统 | |
CN110808034A (zh) | 语音转换方法、装置、存储介质及电子设备 | |
CN113421547B (zh) | 一种语音处理方法及相关设备 | |
CN114416934B (zh) | 多模态的对话生成模型的训练方法、装置及电子设备 | |
US11900959B2 (en) | Speech emotion recognition method and apparatus | |
CN109102802A (zh) | 用于处理用户话语的系统 | |
CN113129867B (zh) | 语音识别模型的训练方法、语音识别方法、装置和设备 | |
JP2022046731A (ja) | 音声生成方法、装置、電子機器及び記憶媒体 | |
CN112837669B (zh) | 语音合成方法、装置及服务器 | |
WO2023207541A1 (zh) | 一种语音处理方法及相关设备 | |
CN111816162A (zh) | 一种语音变化信息检测方法、模型训练方法以及相关装置 | |
CN112002346A (zh) | 基于语音的性别年龄识别方法、装置、设备和存储介质 | |
CN111653274B (zh) | 唤醒词识别的方法、装置及存储介质 | |
CN111883135A (zh) | 语音转写方法、装置和电子设备 | |
WO2024114303A1 (zh) | 音素识别方法、装置、电子设备及存储介质 | |
CN110827799A (zh) | 用于处理语音信号的方法、装置、设备和介质 | |
CN113948060A (zh) | 一种网络训练方法、数据处理方法及相关设备 | |
CN112434953A (zh) | 一种基于计算机数据处理的客服人员考核方法和装置 | |
CN113314096A (zh) | 语音合成方法、装置、设备和存储介质 | |
CN116561284A (zh) | 智能应答方法、装置、电子设备及介质 | |
CN116434736A (zh) | 语音识别方法、交互方法、系统和设备 | |
CN116089853A (zh) | 电子设备及基于多通路融合的多模态情感分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |