CN110111810B - 基于卷积神经网络的语音人格预测方法 - Google Patents
基于卷积神经网络的语音人格预测方法 Download PDFInfo
- Publication number
- CN110111810B CN110111810B CN201910353936.5A CN201910353936A CN110111810B CN 110111810 B CN110111810 B CN 110111810B CN 201910353936 A CN201910353936 A CN 201910353936A CN 110111810 B CN110111810 B CN 110111810B
- Authority
- CN
- China
- Prior art keywords
- neural network
- personality
- training
- convolutional neural
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 50
- 238000003062 neural network model Methods 0.000 claims abstract description 15
- 238000012795 verification Methods 0.000 claims abstract description 15
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000012360 testing method Methods 0.000 claims abstract description 6
- 238000012804 iterative process Methods 0.000 claims description 3
- 239000012634 fragment Substances 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims 1
- 230000007547 defect Effects 0.000 abstract description 4
- 238000000605 extraction Methods 0.000 abstract description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000010183 spectrum analysis Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/12—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Heart & Thoracic Surgery (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Developmental Disabilities (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于卷积神经网络的语音人格预测方法,包括:步骤S1,建立训练样本集,包括:将语音数据文件转换为语谱图,对被采集人进行大五人格问卷测试,计算每个人格维度分数的平均值和标准差,对符合预设要求的人格维度分数进行标记;步骤S2,训练卷积神经网络模型,包括:采用BP算法训练神经网络模型,在迭代时计算网络误差和更新权重,训练至验证集的正确率不再提高时终止,保存神经网络参数作为神经网络模型;步骤S3,利用卷积神经网络模型对待测语音数据进行人格预测。通过本发明的技术方案,克服了传统方法需要很强的先验知识来辅助提取有区分度特征的缺点,实现了语音特征的自动化提取。
Description
技术领域
本发明涉及计算机应用技术领域,尤其涉及一种基于卷积神经网络的语音人格预测方法。
背景技术
人格是个体在行为上的内部倾向性,代表了人与人之间稳定的行为差别。对人格的准确测评可以在消费、招聘等领域为用户提供精确的个性化服务。语音是人的“听觉面孔”与人格之间存在紧密联系,通过一个人的说话方式和发音特点可以推断他的人格特质。传统的人格测评使用问答方式的人格问卷,步骤不仅较为复杂而且必须依赖用户的配合。
传统方法需要通过提取语音的一些特征,包括声学特征和韵律特征。这些人工特征不能完整反映语音的信息,同时人工特征的设计需要很强的先验知识。这些缺点决定了现有技术在实际系统开发中很难设计出最优的具有区分度的特征,影响了语音预测人格模型性能的进一步提高。
发明内容
针对上述问题中的至少之一,本发明提供了一种基于卷积神经网络的语音人格预测方法,通过对语音进行频谱分析,使用卷积神经网络对语音与大五人格的关系进行建模,实现基于语音的人格特质预测,给出关于开放性、尽责性、外向性、宜人性与神经质五个人格维度强弱的评估,克服了传统方法需要很强的先验知识来辅助提取有区分度特征的缺点,实现了语音特征的自动化提取,具有泛化性强,准确率高的优点。
为实现上述目的,本发明提供了一种基于卷积神经网络的语音人格预测方法,包括:步骤S1,建立训练样本集,所述步骤S1具体包括:步骤S11:采集训练样本语音数据,并将数据文件转换为语谱图;步骤S12:对所述训练样本语音数据的被采集人进行大五人格问卷测试;步骤S13:获取每个被采集人的五个人格维度的分数,并计算每个被采集人的人格维度分数的平均值和标准差;步骤S14:根据所述平均值和标准差将每个符合预设要求的人格维度分数标记为对应的训练数据标签;步骤S2,训练卷积神经网络模型,所述步骤S2具体包括:步骤S21:以单个人格维度的验证集和所述训练样本集采用BP算法训练神经网络模型,并在每次迭代时计算网络误差和更新权重;步骤S22:训练至所述验证集正确率不再提高时终止,并保存神经网络参数作为该人格维度的神经网络模型;步骤S3,利用所述卷积神经网络模型对待测语音数据进行人格预测,所述步骤S3具体包括:步骤S31:将所述待测语音数据转换为语谱图;步骤S32:将所述语谱图输入所述卷积神经网络模型;步骤S33:以所述卷积神经网络模型输出次数最多的人格分类结果作为所述待测语音数据对应被检测人的人格预测结果。
在上述技术方案中,优选地,所述步骤S14中根据所述平均值和标准差将每个符合预设要求的人格维度分数标记为对应的训练数据标签具体包括:将低于对应平均值0.5个标准差的人格维度分数标记为0,将高于对应平均值0.5个标准差的人格维度分数标记为1,将标记后的人格维度分数作为训练数据标签。
在上述技术方案中,优选地,所述卷积神经网络模型类型为ResNet,其迭代过程中采用最小批的方式计算网络误差和更新权重。
在上述技术方案中,优选地,所述步骤S31中将所述待测语音数据转换为语谱图具体包括:将所述待测语音数据按照步移1秒窗长3秒的时间窗进行分割;将分割后的所有待测语音数据片段转换为语谱图。
在上述技术方案中,优选地,所述步骤S21中以单个人格维度的验证集和所述训练样本集采用BP算法训练神经网络模型具体包括:搭建预设层数的神经网络,并将所述神经网络的输入层大小设置为所述语谱图大小;以80%训练样本集对应20%验证集的比例划分所述训练样本语音数据;以所述训练样本集和所述验证集采用BP算法训练神经网络模型。
在上述技术方案中,优选地,采用短时傅里叶变换将数据文件转换为语谱图。
与现有技术相比,本发明的有益效果为:通过对语音进行频谱分析,使用卷积神经网络对语音与大五人格的关系进行建模,实现基于语音的人格特质预测,给出关于开放性、尽责性、外向性、宜人性与神经质五个人格维度强弱的评估,克服了传统方法需要很强的先验知识来辅助提取有区分度特征的缺点,实现了语音特征的自动化提取,具有泛化性强,准确率高的优点。
附图说明
图1为本发明一种实施例公开的基于卷积神经网络的语音人格预测方法的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图对本发明做进一步的详细描述:
如图1所示,根据本发明提供的一种基于卷积神经网络的语音人格预测方法,包括:步骤S1,建立训练样本集,步骤S1具体包括:步骤S11:采集训练样本语音数据,并将.wav格式的语音数据文件经过短时傅里叶变换转换为语谱图;步骤S12:对训练样本语音数据的被采集人进行大五人格问卷测试;步骤S13:获取每个被采集人的五个人格维度的分数,并计算每个被采集人的人格维度分数的平均值和标准差;步骤S14:根据平均值和标准差将每个符合预设要求的人格维度分数标记为对应的训练数据标签;步骤S2,训练卷积神经网络模型,步骤S2具体包括:步骤S21:以单个人格维度的验证集和训练样本集采用BP算法训练神经网络模型,并在每次迭代时计算网络误差和更新权重;步骤S22:训练至验证集的正确率不再提高时终止,并保存神经网络参数作为该人格维度的神经网络模型,对五个人格维度分别训练5个神经网络模型;步骤S3,利用卷积神经网络模型对待测语音数据进行人格预测,步骤S3具体包括:步骤S31:将待测语音数据按照步移1秒窗长3秒的时间窗进行分割并转换为语谱图;步骤S32:将所有语谱图依次输入卷积神经网络模型;步骤S33:获得神经网络模型输出的分类结果,统计每个分类的次数,最终以卷积神经网络模型输出次数最多的人格分类结果作为待测语音数据对应被检测人的人格预测结果。
在上述实施例中,优选地,步骤S14中根据平均值和标准差将每个符合预设要求的人格维度分数标记为对应的训练数据标签具体包括:将低于对应平均值0.5个标准差的人格维度分数标记为0,将高于对应平均值0.5个标准差的人格维度分数标记为1,将标记后的人格维度分数作为训练数据标签。
在上述实施例中,优选地,卷积神经网络模型类型为ResNet,其迭代过程中采用最小批的方式计算网络误差和更新权重。
具体的,通过线下采集的大学生的语音数据对语音与人格的关系进行建模,对上述实施例进行说明,具体实施步骤如下:
(1)通过线下采集的方式收集到198人的说话录音,录音内容包括3段固定文本、10串随机数字、2段开放式问题回答。每人平均录音时长450秒,录音格式PCM.wav,采样率16000Hz,单通道。
(2)对每个说话人进行了大五人格量表测试,获得说话人大五人格各个维度得分。求得每个人格维度得分的平均值及标准差,将得分低于平均值0.5个标准差的数据记为0,高于平均值0.5个标准差的记为1,作为录音数据标签。
(3)对语音文件进行预处理:按照步移1秒窗长3秒的时间窗对每个说话人的语音文件进行分割,形成多个语音段。
(4)对语音进行频谱分析:通过短时傅里叶变换将语音段转换为语谱图。
(5)搭建50层的ResNet网络,神经网络输入层大小为语谱图大小,即(512,300,1),输出层是2个神经元的Softmax层。
(6)对每一个人格维度进行神经网络的训练,以下以一个人格维度为例进行说明。
(7)按照80%训练集20%验证集的比例对数据进行划分;
(8)采用BP算法训练神经网络,每次迭代采用最小批的方式计算网络误差和更新权重,当在验证集上正确率不再提高时终止网络训练,保存神经网络参数。
(9)使用保存的模型对测试语音进行人格预测:
1)将待预测语音文件按照步移1秒窗长3秒的时间窗进行分割并转换为语谱图。
2)将所全部语谱图依次输入神经网络模型,获得神经网络输出的分类结果。
3)统计每个分类的次数,最终以次数最多的分类作为此个语音文件的最终预测结果。
通过上述步骤建立的卷积神经网络模型,对测试语音的人格5个维度的平均预测准确率达到68.9%。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于卷积神经网络的语音人格预测方法,其特征在于,包括:
步骤S1,建立训练样本集,
所述步骤S1具体包括:
步骤S11:采集训练样本语音数据,并将数据文件转换为语谱图;
步骤S12:对所述训练样本语音数据的被采集人进行大五人格问卷测试;
步骤S13:获取每个被采集人的五个人格维度的分数,并计算每个被采集人的人格维度分数的平均值和标准差;
步骤S14:根据所述平均值和标准差将每个符合预设要求的人格维度分数标记为对应的训练数据标签;
步骤S2,训练卷积神经网络模型,
所述步骤S2具体包括:
步骤S21:以单个人格维度的验证集和所述训练样本集采用BP算法训练神经网络模型,并在每次迭代时计算网络误差和更新权重;
步骤S22:训练至所述验证集正确率不再提高时终止,并保存神经网络参数作为该人格维度的神经网络模型;
步骤S3,利用所述卷积神经网络模型对待测语音数据进行人格预测,所述步骤S3具体包括:
步骤S31:将所述待测语音数据转换为语谱图;
步骤S32:将所述语谱图输入所述卷积神经网络模型;
步骤S33:以所述卷积神经网络模型输出次数最多的人格分类结果作为所述待测语音数据对应被检测人的人格预测结果;
所述步骤S21中以单个人格维度的验证集和所述训练样本集采用BP算法训练神经网络模型具体包括:
搭建预设层数的神经网络,并将所述神经网络的输入层大小设置为所述语谱图大小;
以80%训练样本集对应20%验证集的比例划分所述训练样本语音数据;
以所述训练样本集和所述验证集采用BP算法训练神经网络模型。
2.根据权利要求1所述的基于卷积神经网络的语音人格预测方法,其特征在于,所述步骤S14中根据所述平均值和标准差将每个符合预设要求的人格维度分数标记为对应的训练数据标签具体包括:
将低于对应平均值0.5个标准差的人格维度分数标记为0,将高于对应平均值0.5个标准差的人格维度分数标记为1,将标记后的人格维度分数作为训练数据标签。
3.根据权利要求1所述的基于卷积神经网络的语音人格预测方法,其特征在于,所述卷积神经网络模型类型为ResNet,其迭代过程中采用最小批的方式计算网络误差和更新权重。
4.根据权利要求1所述的基于卷积神经网络的语音人格预测方法,其特征在于,所述步骤S31中将所述待测语音数据转换为语谱图具体包括:
将所述待测语音数据按照步移1秒窗长3秒的时间窗进行分割;
将分割后的所有待测语音数据片段转换为语谱图。
5.根据权利要求1所述的基于卷积神经网络的语音人格预测方法,其特征在于,采用短时傅里叶变换将数据文件转换为语谱图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910353936.5A CN110111810B (zh) | 2019-04-29 | 2019-04-29 | 基于卷积神经网络的语音人格预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910353936.5A CN110111810B (zh) | 2019-04-29 | 2019-04-29 | 基于卷积神经网络的语音人格预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110111810A CN110111810A (zh) | 2019-08-09 |
CN110111810B true CN110111810B (zh) | 2020-12-18 |
Family
ID=67487436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910353936.5A Active CN110111810B (zh) | 2019-04-29 | 2019-04-29 | 基于卷积神经网络的语音人格预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110111810B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113804767B (zh) * | 2021-08-16 | 2022-11-04 | 东南大学 | 一种螺栓失效检测方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440864A (zh) * | 2013-07-31 | 2013-12-11 | 湖南大学 | 基于语音的人格特征预测方法 |
CN105243398A (zh) * | 2015-09-08 | 2016-01-13 | 西安交通大学 | 基于线性判别分析准则的改进卷积神经网络性能的方法 |
CN105895110A (zh) * | 2016-06-30 | 2016-08-24 | 北京奇艺世纪科技有限公司 | 一种音频文件的分类方法及装置 |
CN106898350A (zh) * | 2017-01-16 | 2017-06-27 | 华南理工大学 | 一种基于深度学习的智能工业机器人语音交互与控制方法 |
CN108364131A (zh) * | 2018-02-09 | 2018-08-03 | 合不合(厦门)网络科技有限公司 | 利用类神经网络进行人格类型的自动识别与分群的方法 |
CN108399575A (zh) * | 2018-01-24 | 2018-08-14 | 大连理工大学 | 一种基于社交媒体文本的大五人格预测方法 |
CN108470564A (zh) * | 2018-04-03 | 2018-08-31 | 苏州欧孚网络科技股份有限公司 | 根据音频识别人格特征的人工智能方法 |
CN108776932A (zh) * | 2018-05-22 | 2018-11-09 | 深圳壹账通智能科技有限公司 | 用户投资类型的确定方法、存储介质和服务器 |
CN109376784A (zh) * | 2018-10-29 | 2019-02-22 | 四川大学 | 一种人格预测方法及人格预测装置 |
CN109498039A (zh) * | 2018-12-25 | 2019-03-22 | 北京心法科技有限公司 | 人格评估方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10497381B2 (en) * | 2012-05-04 | 2019-12-03 | Xmos Inc. | Methods and systems for improved measurement, entity and parameter estimation, and path propagation effect measurement and mitigation in source signal separation |
-
2019
- 2019-04-29 CN CN201910353936.5A patent/CN110111810B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440864A (zh) * | 2013-07-31 | 2013-12-11 | 湖南大学 | 基于语音的人格特征预测方法 |
CN105243398A (zh) * | 2015-09-08 | 2016-01-13 | 西安交通大学 | 基于线性判别分析准则的改进卷积神经网络性能的方法 |
CN105895110A (zh) * | 2016-06-30 | 2016-08-24 | 北京奇艺世纪科技有限公司 | 一种音频文件的分类方法及装置 |
CN106898350A (zh) * | 2017-01-16 | 2017-06-27 | 华南理工大学 | 一种基于深度学习的智能工业机器人语音交互与控制方法 |
CN108399575A (zh) * | 2018-01-24 | 2018-08-14 | 大连理工大学 | 一种基于社交媒体文本的大五人格预测方法 |
CN108364131A (zh) * | 2018-02-09 | 2018-08-03 | 合不合(厦门)网络科技有限公司 | 利用类神经网络进行人格类型的自动识别与分群的方法 |
CN108470564A (zh) * | 2018-04-03 | 2018-08-31 | 苏州欧孚网络科技股份有限公司 | 根据音频识别人格特征的人工智能方法 |
CN108776932A (zh) * | 2018-05-22 | 2018-11-09 | 深圳壹账通智能科技有限公司 | 用户投资类型的确定方法、存储介质和服务器 |
CN109376784A (zh) * | 2018-10-29 | 2019-02-22 | 四川大学 | 一种人格预测方法及人格预测装置 |
CN109498039A (zh) * | 2018-12-25 | 2019-03-22 | 北京心法科技有限公司 | 人格评估方法及装置 |
Non-Patent Citations (5)
Title |
---|
"Analysis of CNN-based Speech Recognition System using Raw Speech as input";Dimitri;《Isca-speech》;20151231;全文 * |
"Bilingual Word Embedding for Cross-Lingual Personality Recognition Using Convolutional Neural Nets";Farhad Bin Siddique;《INTERSPEECH》;20170824;全文 * |
"Towards Universal End-to-End Affect Recongnition From Multilingual Speech by ConvNets";Drio Bertero;《arXiv》;20150831;全文 * |
"基于多标签学习的社交网络用户人格预测方法研究";郑惠中;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160915;全文 * |
"基于随机森林的语音人格预测方法";张希翔;《计算机工程》;20170630;第43卷(第6期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110111810A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112006697B (zh) | 一种基于语音信号的梯度提升决策树抑郁程度识别系统 | |
CN108737667A (zh) | 语音质检方法、装置、计算机设备及存储介质 | |
CN103559892B (zh) | 口语评测方法及系统 | |
CN109087648A (zh) | 柜台语音监控方法、装置、计算机设备及存储介质 | |
US9087519B2 (en) | Computer-implemented systems and methods for evaluating prosodic features of speech | |
CN110473548B (zh) | 一种基于声学信号的课堂交互网络分析方法 | |
CN109559736A (zh) | 一种基于对抗网络的电影演员自动配音方法 | |
CN109979486B (zh) | 一种语音质量评估方法及装置 | |
CN102623009A (zh) | 一种基于短时分析的异常情绪自动检测和提取方法和系统 | |
US10283142B1 (en) | Processor-implemented systems and methods for determining sound quality | |
CN110992959A (zh) | 一种语音识别方法及系统 | |
CN107767881A (zh) | 一种语音信息的满意度的获取方法和装置 | |
Gold et al. | Issues and opportunities: The application of the numerical likelihood ratio framework to forensic speaker comparison | |
CN114373452A (zh) | 基于深度学习的嗓音异常识别和评价的方法及系统 | |
CN113450830A (zh) | 具有多重注意机制的卷积循环神经网络的语音情感识别方法 | |
CN110797032A (zh) | 一种声纹数据库建立方法及声纹识别方法 | |
CN110111810B (zh) | 基于卷积神经网络的语音人格预测方法 | |
CN114299995A (zh) | 一种用于情绪评估的语言情感识别方法 | |
CN118035411A (zh) | 客服语音质检方法、装置、设备及存储介质 | |
CN109545198A (zh) | 一种基于卷积神经网络的英语口语母语度判断方法 | |
CN114220419A (zh) | 一种语音评价方法、装置、介质及设备 | |
CN116978408B (zh) | 基于语音预训练模型的抑郁症检测方法及系统 | |
CN111489736B (zh) | 座席话术自动评分装置及方法 | |
CN112052686B (zh) | 一种用户交互式教育的语音学习资源推送方法 | |
CN113380418A (zh) | 一种通过对话文本分析识别抑郁症的系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 200040 9th floor, block a, 1256 and 1258 Wanrong Road, Jing'an District, Shanghai Patentee after: Huayuan computing technology (Shanghai) Co.,Ltd. Address before: 200336 9th Floor, 1256 and 1258 Wanrong Road, Jing'an District, Shanghai Patentee before: UNIDT TECHNOLOGY (SHANGHAI) Co.,Ltd. |