CN117409819A - 一种基于人工智能的人体嗓音检测分析方法 - Google Patents
一种基于人工智能的人体嗓音检测分析方法 Download PDFInfo
- Publication number
- CN117409819A CN117409819A CN202311723639.8A CN202311723639A CN117409819A CN 117409819 A CN117409819 A CN 117409819A CN 202311723639 A CN202311723639 A CN 202311723639A CN 117409819 A CN117409819 A CN 117409819A
- Authority
- CN
- China
- Prior art keywords
- voice
- data set
- composite
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 22
- 238000001514 detection method Methods 0.000 title claims abstract description 18
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 34
- 239000002131 composite material Substances 0.000 claims abstract description 33
- 238000003062 neural network model Methods 0.000 claims abstract description 30
- 238000012360 testing method Methods 0.000 claims abstract description 29
- 238000012795 verification Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims abstract description 15
- 230000007547 defect Effects 0.000 claims abstract description 4
- 230000008569 process Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 7
- 208000011293 voice disease Diseases 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 6
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 208000019468 Iatrogenic Disease Diseases 0.000 description 1
- 206010052428 Wound Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Acoustics & Sound (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Fuzzy Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Epidemiology (AREA)
Abstract
本发明公开了一种基于人工智能的人体嗓音检测分析方法,该方法包括S1嗓音数据的采集和预处理;S2、采集数据划分为训练数据集、验证数据集和测试数据集;S3、训练数据集及其标识信息构建复合前馈神经网络模型,输出为不同标识信息对于人体嗓音输出特征量;S4、验证数据集与复合前馈神经网络模型输出比较判断是否匹配,不断更新完善该复合前馈神经网络模型;S5、将测试数据集作为S4步获得的复合前馈神经网络模型输入参数进行测试,从测试嗓音输出特征获得测试嗓音和最佳标识相应最佳特征之间的差异性,从而确定该嗓音的缺陷。本申请的方法实现了对不同人群的嗓音数据进行定量准确分析,并为特定嗓音的形成提出训练针对性。
Description
技术领域
本发明人工智能和大数据结合医学实施应用的交叉技术领域,其将大数据、人工智能、神经网络与人体声学特征实现了融合,具有来说就是一种基于大数据和人工智能实现人体声音分析检测方法。
背景技术
发声是正常人从诞生之日起就具备的一项基本能力。随着年龄的增长,每个人的发声特征都会发生变化,特别是处于疾病状态时,人体的声音通常会发生比较大的变化。从人群来划分,男性和女性在声音的特征上必然有着显著区别;对某些特定职业的人群,发声也是其职业的一种标志,如,歌唱演员、播音节目主持人等。
如果不考虑每个人个体成长所造成的嗓音变化,通常由于创伤、生理疾病、心理疾病以及医源性病因都会导致声音的变化,这种变化可能出现在各年龄层的人群中,尤其是日常生活中需要语言沟通较多的人群,例如教师、医生、 广播员、演员、律师、电话销售员、急救人员、警察等如果声音发声变化将对个人生活造成影响。由于上述各行业,其声音都有着自身的特征,很多期望从属该行业的人群也可能会根据需要进行特定声音的训练以达到特定发声的目的,例如,如果想成为高音、低音歌唱家就必须坚持进行特定的声音训练。在现有的声音训练过程中,通常是通过反复听说来进行听觉上的鉴别来判断训练和声音改变效果的,这种方法具有极大的不确定性,无法定量准确获知发声和标准声音之间的差别,从而导致练习过程进入错误的方向而造成精力上的耗费。
此外,声音从自然物理学角度来分析,其本质就是振动所形成的波。波从数学上最终的决定参数就是振幅,周期,频率,相位,波长等一些列特征参数。因此,不同人群发出的声音不同必然在可以通过这些参数上予以区别和表征,这种声波的表征方式更参数化、准确定量化。人体发声参数化通常可以通过音频采集设备进行收集和分析,这些采集到的音频数据通过数字化,就可以进行对比其差别和影响。随着大数据分析和获取技术的发展,如何将该技术与不同人群的发声相结合,通过数据的分析和检测获得对声音效果影响的各个参数,并根据这些参数来提出特定的训练目标是大数据分析和医学发展的一个重要研究方向。
发明内容
本申请为了实现对不同人群的嗓音数据进行定量准确分析,并为后续特定嗓音的形成提出训练针对性。本申请就是结合嗓音大数据,构建神经网络模型分析获得不同嗓音特征所对应的声音参数特征,从而为特征嗓音和声音参数之间构建起关联。
实现上述发明目的,本申请采用的技术方案为:一种基于人工智能的人体嗓音检测分析方法,该方法包括如下步骤:
S1、人体嗓音数据的采集和预处理;每条嗓音数据根据但不限于年龄、性别、职业进行标识;该嗓音数据预处理所获取的音频参数包括但不限于线性参数、非线性参数、复合参数;其中的线性参数包括但不限于基频、频率微扰、振幅微扰、信噪比、谐噪比;非线性参数包括但不限于频谱收敛比、发散率ROD、非线性频谱能量差比、嗓音类型分布图;复合参数包括但不限于嗓音障碍严重程度指数、嗓音障碍倒谱指数、声学嗓音质量指数和声学呼吸指数;
S2、将S1步的数据划分为训练数据集、验证数据集和测试数据集;这里的训练数据集、验证数据集和测试数据集是动态变化的数据集,根据后续步骤的复合模型训练过程来进行动态改变;
S3、根据S2步中的训练数据集及其标识信息构建复合前馈神经网络模型,该神经网络模型的输出为不同标识信息对于人体嗓音输出特征量;该输出特征量与嗓音的频率参数相对应匹配;
S4、将验证数据集与S3步的复合前馈神经网络模型输出进行比较判断是否匹配,不断更新和扩展训练数据集中的数据完善该复合前馈神经网络模型;
S5、将测试数据集作为S4步获得的复合前馈神经网络模型输入参数进行测试,从测试嗓音输出特征获得测试嗓音和最佳标识相应最佳特征之间的差异性,从而确定该嗓音的缺陷。
上述整个S1-S4步的复合前馈神经网络模型在输入一条嗓音信息后都进行一次网络学习和更新。
该复合前馈神经网络模型在测试使用中仅需输入测试嗓音数据而不再进行标识。
该复合型前馈神经网络应用于人体嗓音检测和分析,根据输出特征量获得特点嗓音特点训练对象和目标。
本申请的技术方案,充分利用了人体嗓音输入的大数据,通过数据训练构建复合前馈神经网络模型,该神经网络模型可以嗓音参数进行分析获的影响嗓音各个状态的特征参数,通过参数比对以明确如果需要获得特点的嗓音特点进行有效训练的特征参数。该方法的神经网络模型提供了一种嗓音检测和分析的特征模型方式,其借助大数据和物理参数给出了生物学特征的判断和分析方法。
附图说明
图1为本申请符合神经网络模型的拓扑结构图;
具体实施方式
为进一步阐述本发明为达成预定发明目的所采取的技术手段及结果,以下以较佳实施例,对依据本发明申请的具体实施方式、技术方案及特征,详细说明如后。下述说明中的多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
本申请公开了一种基于大数据和人工智能实现人体声音分析检测方法,该方法的核心在于首先通过人体嗓音数据的获取,借助人工智能神经网络构建模型;其过程为:S1人体嗓音数据的采集和预处理,每条嗓音数据根据但不限于年龄、性别、职业进行标识;如图1所示,人体嗓音采集原始数据为x1,x2…,Xk,…,Xn,每条原始声音信息经过数据的预处理后又是由一系列特征参数构成的向量矩阵来标志,例如x1中向量矩阵为{x11,x12,……x1p},这里的下标p标识特征向量的个数,特征向量是但不限于线性参数中的基频、频率微扰、振幅微扰、信噪比、谐噪比;非线性参数中的频谱收敛比、发散率ROD、非线性频谱能量差比、嗓音类型分布图,复合参数中的嗓音障碍严重程度指数、嗓音障碍倒谱指数、声学嗓音质量指数和声学呼吸指数,并且该向量可以根据数据预处理获得的参数进行长度的扩展,该向量实际标志了该输入嗓音数据的物理参数特征,每条采集的嗓音数据还包括对该采集者信息予以标识的标识向量X1s,标识向量中的包括了但不现有性别、年龄,性别等信息;经过上述第一步嗓音数据采集和预处理后,每条嗓音数据实际是由相互关联信息向量、音频物理特征向量构成。S2、将S1步的数据划分为训练数据集、验证数据集和测试数据集;这里的训练数据集、验证数据集和测试数据集是动态变化的数据集,根据后续步骤的复合模型训练过程来进行动态改变。如图1所示,将X1…Xn的数据作为训练数据,作为复合前馈型神经网络的训练数据,该网络包括了输入层、隐藏层、输出层,这里给出了三个隐藏层的模型,每个隐藏层各个节点都与下一个隐藏层的所有节点相互关联,假设l层共有M个节点,l+1层共有N个节点,w nm l 是第l层第m个节点到第l+1层第n个节点的权重,b n l+1 是第l+1层第n个节点的偏置,f n l+1 是第l+1层第n个节点的激活函数,则:。本申请的方案中采用标准的sigmoid(x)为激活函数,/>。为了找到最为合适的每层权重和偏置,需要选择合适的损失函数,本申请的复合前馈神经网络模型中,分别采用均方误差函数MSE和交叉熵CE误差函数,其表达式分别为:
这的n表示类别数量、y i 表示第i个类别的真实标签、第i个类别的预测概率值。上述复合前馈型神经网络经过每层计算后根据其误差函数获得最佳的权重和偏置,最终确定每个隐含层的参数,经过模型训练后,输出为标准各个标识对应频谱的最佳人体嗓音输出特征量。上述训练集数据完成训练后,利用验证集数据进行模型判断和验证,如果偏差较大,测扩展训练数据集继续进行多次训练直至与验证集数据集的符合度满足要求。本申请还利用验证数据集中的嗓音数据输入模型进行模型验证和测试,如果测试仍然有偏差,则继续重复上述过程。经过上述训练数据、测试数据,验证数据的多轮模型学习验证后获得最终的复合前馈型神经网络模型。利用该模型输入任意嗓音数据,通过模型输出给出嗓音输出特征与最佳标识相应最佳特征之间的差异性,从而获得该嗓音数据的缺陷物理参数。
任何经过测试和检验的嗓音数据都可以作为一条用于进行训练、测试、验证的数据扩展用于模型构建的嗓音数据库;并且该嗓音数据库在完成检查分析后自动进行一次模型学习过程,从而保证该模型始终处于动态更新中,提升模型的准确性。
以上所述,仅为本发明较佳的具体实施方式;但本发明的保护范围并不局限于此。任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其改进构思加以等同替换或改变,都应涵盖在本发明的保护范围内。
Claims (8)
1.一种基于人工智能的人体嗓音检测分析方法,其特征在于,该方法包括如下步骤:
S1、人体嗓音数据的采集和预处理;每条嗓音数据根据但不限于年龄、性别、职业进行标识;
S2、将S1步的数据划分为训练数据集、验证数据集和测试数据集;
S3、根据S2步中的训练数据集及其标识信息构建复合前馈神经网络模型,该神经网络模型的输出为不同标识信息对于人体嗓音输出特征量;
S4、将验证数据集与S3步的复合前馈神经网络模型输出进行比较判断是否匹配,不断更新和扩展训练数据集中的数据完善该复合前馈神经网络模型;
S5、将测试数据集作为S4步获得的复合前馈神经网络模型输入参数进行测试,从测试嗓音输出特征获得测试嗓音和最佳标识相应最佳特征之间的差异性,从而确定该嗓音的缺陷。
2.根据权利要求1所述的基于人工智能的人体嗓音检测分析方法,其特征在于,S1步的嗓音数据预处理所获取的音频参数包括但不限于线性参数、非线性参数、复合参数。
3.根据权利要求2所述的基于人工智能的人体嗓音检测分析方法,其特征在于,线性参数包括但不限于基频、频率微扰、振幅微扰、信噪比、谐噪比;非线性参数包括但不限于频谱收敛比、发散率ROD、非线性频谱能量差比、嗓音类型分布图;复合参数包括但不限于嗓音障碍严重程度指数、嗓音障碍倒谱指数、声学嗓音质量指数和声学呼吸指数。
4.根据权利要求1所述的基于人工智能的人体嗓音检测分析方法,其特征在于,S2步中的训练数据集、验证数据集和测试数据集是动态变化的数据集,根据步骤S3和S4的复合模型训练过程来变化。
5.根据权利要求1所述的基于人工智能的人体嗓音检测分析方法,其特征在于,S3步训练后的复合前馈神经网络模型的输出特征量与嗓音的频率参数相对应匹配。
6.根据权利要求1所述的基于人工智能的人体嗓音检测分析方法,其特征在于,S1-S4步的复合前馈神经网络模型在输入一条嗓音信息后都进行一次网络学习和更新。
7.根据权利要求1所述的基于人工智能的人体嗓音检测分析方法,其特征在于,该复合前馈神经网络模型在测试使用中仅需输入测试嗓音数据而不在进行标识。
8.根据权利要求1-7任意权利要求所述的基于人工智能的人体嗓音检测分析方法,其特征在于,该复合型前馈神经网络应用于人体嗓音检测和分析,根据输出特征量获得特点嗓音特点训练对象和目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311723639.8A CN117409819A (zh) | 2023-12-15 | 2023-12-15 | 一种基于人工智能的人体嗓音检测分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311723639.8A CN117409819A (zh) | 2023-12-15 | 2023-12-15 | 一种基于人工智能的人体嗓音检测分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117409819A true CN117409819A (zh) | 2024-01-16 |
Family
ID=89494815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311723639.8A Pending CN117409819A (zh) | 2023-12-15 | 2023-12-15 | 一种基于人工智能的人体嗓音检测分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117409819A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117976141A (zh) * | 2024-04-01 | 2024-05-03 | 四川大学华西医院 | 一种基于声学分析算法的嗓音康复分析方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111554325A (zh) * | 2020-05-09 | 2020-08-18 | 陕西师范大学 | 一种嗓音识别方法及系统 |
US20210089909A1 (en) * | 2019-09-25 | 2021-03-25 | Deepmind Technologies Limited | High fidelity speech synthesis with adversarial networks |
CN112633962A (zh) * | 2020-12-03 | 2021-04-09 | 北京道隆华尔软件股份有限公司 | 业务推荐方法、装置、计算机设备和存储介质 |
CN112735480A (zh) * | 2021-01-25 | 2021-04-30 | 杭州电子科技大学 | 一种基于神经网络的声带病变检测装置 |
CN114373452A (zh) * | 2020-10-15 | 2022-04-19 | 华东师范大学 | 基于深度学习的嗓音异常识别和评价的方法及系统 |
-
2023
- 2023-12-15 CN CN202311723639.8A patent/CN117409819A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210089909A1 (en) * | 2019-09-25 | 2021-03-25 | Deepmind Technologies Limited | High fidelity speech synthesis with adversarial networks |
CN111554325A (zh) * | 2020-05-09 | 2020-08-18 | 陕西师范大学 | 一种嗓音识别方法及系统 |
CN114373452A (zh) * | 2020-10-15 | 2022-04-19 | 华东师范大学 | 基于深度学习的嗓音异常识别和评价的方法及系统 |
CN112633962A (zh) * | 2020-12-03 | 2021-04-09 | 北京道隆华尔软件股份有限公司 | 业务推荐方法、装置、计算机设备和存储介质 |
CN112735480A (zh) * | 2021-01-25 | 2021-04-30 | 杭州电子科技大学 | 一种基于神经网络的声带病变检测装置 |
Non-Patent Citations (5)
Title |
---|
R.F.TURKSON;颜伏伍;侯献军;M.K.A.ALI;刘博;: "基于人工神经网络的发动机点火提前角预测模型", 汽车科技, no. 04, 25 July 2016 (2016-07-25) * |
刘思维 等: "嗓音声学分析方法的研究现状", 《临床耳鼻咽喉头颈外科杂志》, 25 November 2022 (2022-11-25), pages 966 - 970 * |
吴媛;丁亚军;钱盛友;胡强;邹孝;: "基于神经网络的艺术嗓音客观评价方法", 电声技术, no. 12, 17 December 2015 (2015-12-17), pages 57 - 60 * |
孙宁;孙劲光;孙宇;: "基于神经网络的语音识别技术研究", 计算机与数字工程, no. 03, 20 March 2006 (2006-03-20) * |
杨小锋: "《嗓音职业病与科学发声训练探索》", 31 December 2021, 重庆大学出版社, pages: 14 - 17 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117976141A (zh) * | 2024-04-01 | 2024-05-03 | 四川大学华西医院 | 一种基于声学分析算法的嗓音康复分析方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Albornoz et al. | Spoken emotion recognition using hierarchical classifiers | |
Kashino et al. | A sound source identification system for ensemble music based on template adaptation and music stream extraction | |
Mohapatra et al. | Systematic Stress Detection in CNN Application | |
CN117409819A (zh) | 一种基于人工智能的人体嗓音检测分析方法 | |
CN106997765B (zh) | 人声音色的定量表征方法 | |
Dong | Application of artificial intelligence software based on semantic web technology in english learning and teaching | |
Coutinho et al. | The use of spatio-temporal connectionist models in psychological studies of musical emotions | |
CN110211594A (zh) | 一种基于孪生网络模型和knn算法的说话人识别方法 | |
CN102880693A (zh) | 一种基于个体发声能力的音乐推荐方法 | |
Hou et al. | Transfer learning for improving singing-voice detection in polyphonic instrumental music | |
Alshehri et al. | Detection and Diagnosis of Learning Disabilities in Children of Saudi Arabia with Artificial Intelligence | |
Du et al. | Dynamic Music emotion recognition based on CNN-BiLSTM | |
Wang et al. | An intelligent music generation based on Variational Autoencoder | |
Roy et al. | Time-based raga recommendation and information retrieval of musical patterns in Indian classical music using neural networks | |
Zhang et al. | Automatic singing evaluation without reference melody using bi-dense neural network | |
CN112233785B (zh) | 一种帕金森症的智能识别方法 | |
CN117672251A (zh) | 一种基于边缘计算的城市声景智慧数字孪生系统 | |
Zwan et al. | System for automatic singing voice recognition | |
Lindenbaum et al. | Musical key extraction using diffusion maps | |
Pratama et al. | Human vocal type classification using MFCC and convolutional neural network | |
Kavitha et al. | Deep Learning based Audio Processing Speech Emotion Detection | |
Shen et al. | Solfeggio Teaching Method Based on MIDI Technology in the Background of Digital Music Teaching | |
Kaarivuo et al. | Exploring emergent soundscape profiles from crowdsourced audio data | |
CN114678039A (zh) | 一种基于深度学习的歌唱评价方法 | |
Yakovenko et al. | Semi-supervised classifying of modelled auditory nerve patterns for vowel stimuli with additive noise |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |