CN109599102A - 识别经络状态的方法及装置 - Google Patents
识别经络状态的方法及装置 Download PDFInfo
- Publication number
- CN109599102A CN109599102A CN201811244411.XA CN201811244411A CN109599102A CN 109599102 A CN109599102 A CN 109599102A CN 201811244411 A CN201811244411 A CN 201811244411A CN 109599102 A CN109599102 A CN 109599102A
- Authority
- CN
- China
- Prior art keywords
- sound
- collaterals
- input voice
- channels
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims description 8
- 238000011946 reduction process Methods 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 8
- 206010044565 Tremor Diseases 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000000378 dietary effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 210000000952 spleen Anatomy 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0364—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
本申请还涉及一种利用语音识别技术来识别人体的经络状态的方法及装置,该方法包括:接收用户的输入语音;对所述输入语音进行预处理;提取经过预处理的所述输入语音的稳定特征;基于特征识别模型对所述稳定特征进行初级分类,以确定一种基础分类音,其中所述基础分类音包括:宫、商、角、徵、羽;基于特征识别模型对所述稳定特征进行次级分类,以确定所述一种基础分类音中的一种次级分类音;根据所述一种次级分类音识别经络状态。凭借本发明的识别人体的经络状态的方法,通过对个体声音进行分类,从而准确地识别出人体经络状态,解决了传统的声音分类完全依靠人为经验来识别的问题。
Description
技术领域
本申请涉及音频处理领域,具体的,涉及识别经络状态的方法及装置。
背景技术
众所周知,人体五脏(脾、肺、肝、心、肾)分别与古典音乐中的五音(宫、商、角、徵、羽)相对应,“五音”中的每一个音又细化为五个音,形成25种音阶,即对应25种脏腑经络状态。“五脏相音”作为判断经络状态的依据,可以提示应当进行何种经络调理和饮食调理,最终对获取的参数进行生理上的调理和评估的目的。
然而传统的声音分类完全依靠专家经验,其难度很大,并且对受试者个体要求很高。随着语音信号处理技术以及模式识别技术的发展,如何语音识别技术对人体的经络状态进行归类是本领域亟待解决的问题。
公开于本申请背景技术部分的信息仅仅旨在加深对本申请的一般背景技术的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。
发明内容
本申请的主要目的在于提供一种利用语音识别技术来识别人体的经络状态的方法及装置。
为了解决上述问题,本申请涉及一种识别经络状态的方法,该方法包括:接收用户的输入语音;对所述输入语音进行预处理;提取经过预处理的所述输入语音的稳定特征;基于特征识别模型对所述稳定特征进行初级分类,以确定一种基础分类音,其中所述基础分类音包括:宫、商、角、徵、羽;基于特征识别模型对所述稳定特征进行次级分类,以确定所述一种基础分类音中的一种次级分类音;根据所述一种次级分类音识别经络状态。
进一步的,所述接收用户的输入语音,可以包括:依次显示第一至第五提示语并且开始接收用户的第一至第五输入语音;当接收到用户的第一至第五输入语音之后,将接收到的第一至第五输入语音识别为第一至第五用户语;将所述第一至第五用户语分别与第一至第五提示语进行对比;将与提示语匹配的用户语整合为一个语音文件,以作为所述输入语音。
更进一步的,所述第一至第五提示语可以分别为:“哆”、“来”、“咪”、“嗦”、“啦”。
进一步的,对所述输入语音进行预处理,包括:对所述输入语音进行降噪处理,并且对降噪处理的输入语音进行语音信号预加重。
更进一步的,所述降噪处理包括去除输入语音中的背景噪音和电流噪音;所述语音信号预加重包括提高高频语音信号。
进一步的,所述提取经过预处理的所述输入语音的稳定特征,可以包括:将所述输入语音的序列通过傅立叶变换转化成频率域特征,以获得信号的功率谱;利用离散余弦变换去除信号的维度之间的相关性,得到样本的24维特征;利用流形学习方法将所述24维特征降为12维特征,以获取所述稳定特征。
进一步的,所述特征识别模型的建立包括:建立所述基础分类音的有向混合高斯图模型;利用贝叶斯图学习算法训练所述有向混合高斯图模型。
本申请还涉及一种识别经络状态的装置,其包括:接收模块,用于接收用户的输入语音;预处理模块,用于对所述输入语音进行预处理;提取模块,用于提取经过预处理的所述输入语音的稳定特征;初级分类模块,用于基于特征识别模型对所述稳定特征进行初级分类,以确定一种基础分类音,其中所述基础分类音包括:宫、商、角、徵、羽;次级分类模块,用于基于特征识别模型对所述稳定特征进行次级分类,以确定所述一种基础分类音中的一种次级分类音;确定模块,用于根据所述一种次级分类音识别经络状态。
此外,本申请一种移动设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时能够实现上面所描述的识别经络状态的方法中的步骤。
进一步的,所述移动设备可以包括:平板电脑、笔记本、可移动式台式机和/或手机。
本申请的有益效果是:凭借本发明的识别人体的经络状态的方法,通过对个体声音进行分类,从而准确地识别出人体经络状态,解决了传统的声音分类完全依靠人为经验来识别的问题。本发明的识别人体的经络状态的利用语音信号处理技术以及模式识别技术,使用现代技术对语音信号进行分类,进而判断个体体质可以降低个体声音分类对专业人员的依赖性,并且起到了积极的作用。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请的实施例的语音获取方法的流程图;
图2为本申请的实施例的提取稳定特征的流程图;
图3为本申请的实施例的第一软件界面的示意图;
图4为本申请的实施例的第二软件界面的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
此外,术语“安装”、“设置”、“设有”、“连接”、“配置为”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。其中,图1为本申请的实施例的语音获取方法的流程图,图2为本申请的实施例的提取稳定特征的流程图,图3为本申请的实施例的第一软件界面的示意图;图4为本申请的实施例的第二软件界面的示意图。
如图1所示,根据本申请的第一实施例的语音获取方法,该方法可以包括步骤S1至步骤S6:
在步骤S1,本申请首先接收用户的输入语音,具体的,具体的,本申请在程序界面的中间显示所述第一提示语,例如,显示“哆”,并且在程序界面的下方开始接收用户的语音,例如,可以开启语音输入按钮并且访问该程序所绑定或匹配的硬件驱动,例如麦克风。
进一步的,为了提高用户的语音识别率和准确率,可以在该第一提示语的下方显示与该第一提示语对应的拼音,例如显示拼音“duo”,如图3所示。
之后,在接收到用户的第一输入语音之后,本申请将接收到的第一输入语音与所述第一提示语进行对比,以判断该第一输入语音与是否与所述第一提示语匹配。具体的,可以将第一输入语音转换为波形数据并且将该波形数据与第一提示语所对应的波形数据进行对比,从而判断所述第一输入语音是否与第一提示语匹配。
如果所述第一输入语音与第一提示语不匹配,本申请则继续执行接收第一输入语音的步骤,既显示第一提示语并且开始接收用户的第一输入语音。
如果所述第一输入语音与第一提示语匹配,本申请开始接收用户的第二输入语音。具体的,本申请在程序界面的中间显示所述第二提示语,例如,显示“来”,并且在程序界面的下方开始接收用户的语音,例如,可以开启语音输入按钮并且访问该程序所绑定或匹配的硬件驱动,例如麦克风。
进一步的,为了提高用户的语音识别率和准确率,可以在该第二提示语的下方显示与该第二提示语对应的拼音,例如显示拼音“lai”。
以此类推,本申请可以依次接收用户的第一至第五输入语音,所述输入语音包括但不限于:“哆”,“来”,“咪”、“嗦”、“啦”。并分别将第一至第五输入语音与第一至第五提示语进行对比,并且将与各个提示语匹配的用户输入语整合为一个语音文件,例如整合成WAV格式的文件,并且将该文件上传至远程服务器,以进行进一步的处理。
之后,在步骤S2,本申请预处理所述输入语音并且消除背景音,由于受到说话人语速等的影响,原始语音信号中包含不存在人声的部分,这些部分不应该对分类结果造成影响,因此本申请需要将噪音从信号中删除。作为一个实施例,本申请采用录音设备获得到的原始语音信号往往受到背景噪音以及设备电流噪声等的影响,对声音信号进行降噪处理。
此外,由于鉴频器输出噪声的功率谱密度随频率的平方而增加(低频噪声小,高频噪声大),造成信号的低频信噪比很大,而高频信噪比明显不足,从而导致高频传输衰弱,使高频传输困难,因此,本申请还对降噪处理的输入语音进行语音信号预加重,预加重的目的是提升高频部分,使信号变得平坦,以便于进行频谱分析或声道参数分析。
所述对语音进行预处理所采取的技术手段是现有过程,采用通用的降噪方法,因此本申请不再做详细描述。
之后,在步骤S3,在所述经过预处理的输入语音中提取稳定特征。
如图2所示,具体的稳定特征的提取步骤可以包括步骤S31至步骤S33,
在步骤S31中,首先抽样得到初步特征,将所述输入语音的序列通过傅立叶变换转化成频率域特征,以获得信号的功率谱,例如,可以在时间空间语音序列中通过傅立叶变换转化成频率域特征,变换成为信号的功率谱,形成的样本示例为[0.1734,0.0673 0.01630.0021 0.0103 0.0088 0.0085 0.00530.0018……0.0113 0.0083 0.0053 0.00850.0088 0.0103 0.0021]。
通过提取与声音具体内容(如读哪些具体的字)无关的一些特征,寻找与人体个体相关(和具体发音无关)的特征,例如声道的形状,它反映在声音的谱特征上,通过对声音进行抽样,在抽样的基础上进行快速傅里叶变换抽取声音的功率谱作为系统特征。
在步骤S32中,利用离散余弦变换去除信号维度之间的相关性,得到样本的24维特征,具体的,可以去除信号维度之间的相关性,得到样本的24维特征描述,形成的24维样本示例为:[7.1433 3.0949-3.3847-0.2416-2.6995 1.674312.5590 0.2138-1.2205-1.78690.1487-0.5694 2.7566-0.8829 3.8074 1.96492.3419-2.8923-1.7200-2.6096-0.3144-0.1092-0.0778 0.0293]。在本申请中,所述24维特征中的“维”指的是不同频率的区间,通过对不同频率区间(有重叠部分,如100-1000,800-1500,1400-2000,)的声音特征进行测试发现,使用24维特征处理后得出的辨识结果与实际人体体质辨识结果吻合度较高,因此本申请优选地采用24维特征。
通过对声音进行抽样,在抽样的基础上进行余弦变换抽取语音能量谱,能够将抽取的语音能量谱作为系统特征。
最后在步骤S33,利用流形学习方法将所述24维特征降为12维,以获取所述稳定特征。也就是说,通过流形(非线性)数据降维的手段进行处理,利用特征抽取手段将24维原始特征降为12维。形成的12维样本示例为:[11.787810.7590-0.6703-5.9906-1.4346-0.518312.3516-0.1463-0.3148-3.4235-0.6919-0.9450]。
通过降维得到稳定特征,特征降维就是用来减少特征维度,去除过拟合现象的方法,提高模型精度。
接下来,再次参见图1,在提取了经过预处理的所述输入语音的稳定特征之后,本申请继续执行步骤S4,本申请基于特征识别模型对所述稳定特征进行初级分类,以确定一种基础分类音,其中所述基础分类音包括:宫、商、角、徵、羽。
具体的,本申请对于每个语音样本(即人的声音),通过上述步骤S3得出的多个特征(大概1000个),对每个特征利用训练好的混合高斯模型(每个五音文件训练一个混合高斯模型)分别计算后验概率,对每个特征(这1000个特征)选取后验概率最大的那个基础分类音,最后统计属于哪个基础分类音的特征数目最多,则将此稳定特征分类为基础分类音,最终得出初级分类结果。所述特征识别模型的建立包括:建立所述基础分类音的有向混合高斯图模型并且利用贝叶斯图学习算法训练所述有向混合高斯图模型,通过采集上千种声音样本,通过对声音样本分析,建立的一套声音样本特征对应经络状态体系的模型。
此外,本申请的将语音信号分类为宫、商、角、徵、羽中的二十五种分类,其中包含5个大类:宫、商、角、徵、羽,每个大类又包含5个小类,每一种小类对应不用的经络状态。如以下表1所示:
表1
由于直接对语音信号进行二十五种分类存在的问题是由于类间距很小,很容易产生同一人语音在多个类之间振动,造成分类结果不稳定。因此,本申请采用先对5个大类进行分类然后再对大类进行分小类的初级分类的策略,采用二次分类,即次级分类的策略,在一定程度上降低了分类的效率,但提升了每次分类类别之间的距离,进而提升了分类的准确性与稳定性。
具体的,可以执行步骤S5,基于特征识别模型对所述稳定特征进行次级分类,以确定所述一种基础分类音中的一种次级分类音。
最后,在步骤S6,根据所述一种次级分类音识别经络状态,具体的,本申请可以根据上述表1对所确认的二十五音进行经络识别,例如“上商”对应的经络为手太阴肺,并且可以对该经络状态进行进一步的解析,此外,还可以显示出该经络状态所容易出现的症状,以使用户进行提前预防,所实现的程序界面如4所示。
此外,本申请还涉及一种识别经络状态的装置,该装置包括:接收模块,用于接收用户的输入语音;预处理模块,用于对所述输入语音进行预处理;提取模块,用于提取经过预处理的所述输入语音的稳定特征;初级分类模块,用于基于特征识别模型对所述稳定特征进行初级分类,以确定一种基础分类音,其中所述基础分类音包括:宫、商、角、徵、羽;次级分类模块,用于基于特征识别模型对所述稳定特征进行次级分类,以确定所述一种基础分类音中的一种次级分类音;确定模块,用于根据所述一种次级分类音识别经络状态。,
另外,本申请还涉及一种手持移动终端,该移动终端包括但不限于:平板电脑、笔记本、可移动式台式机、手机,该移动终端包括有存储器、处理器及存储在存储器上并可在处理器上运行的程序,其中,所述处理器执行所述程序时实现上面所描述的识别经络状态的方法中的任意一个步骤。
本申请所涉及的计算机程序可以存储于计算机可读存储介质中,所述计算机可读存储介质可以包括:能够携带计算机程序代码的任何实体装置、虚拟装置、优盘、移动硬盘、磁碟、光盘、计算机存储器、只读计算机存储器(Read-Only Memory,ROM)、随机存取计算机存储器(Random Access Memory,RAM)、电载波信号、电信信号以及其他软件分发介质等。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均包含在本申请的保护范围之内。
Claims (10)
1.一种识别经络状态的方法,其特征在于,包括:
接收用户的输入语音;
对所述输入语音进行预处理;
提取经过预处理的所述输入语音的稳定特征;
基于特征识别模型对所述稳定特征进行初级分类,以确定一种基础分类音,其中所述基础分类音包括:宫、商、角、徵、羽;
基于特征识别模型对所述稳定特征进行次级分类,以确定所述一种基础分类音中的一种次级分类音;
根据所述一种次级分类音识别经络状态。
2.根据权利要求1所述的识别经络状态的方法,其特征在于,所述接收用户的输入语音,包括:
依次显示第一至第五提示语并且开始接收用户的第一至第五输入语音;
当接收到用户的第一至第五输入语音之后,将接收到的第一至第五输入语音识别为第一至第五用户语;
将所述第一至第五用户语分别与第一至第五提示语进行对比;
将与提示语匹配的用户语整合为一个语音文件,以作为所述输入语音。
3.根据权利要求2所述的识别经络状态的方法,其特征在于,所述第一至第五提示语分别为:“哆”、“来”、“咪”、“嗦”、“啦”。
4.根据权利要求1所述的识别经络状态的方法,其特征在于,对所述输入语音进行预处理,包括:对所述输入语音进行降噪处理,并且对降噪处理的输入语音进行语音信号预加重。
5.根据权利要求4所述的识别经络状态的方法,其特征在于,所述降噪处理包括去除输入语音中的背景噪音和电流噪音;所述语音信号预加重包括提高高频语音信号。
6.根据权利要求1所述的识别经络状态的方法,其特征在于,所述提取经过预处理的所述输入语音的稳定特征,包括:
将所述输入语音的序列通过傅立叶变换转化成频率域特征,以获得信号的功率谱;
利用离散余弦变换去除信号的维度之间的相关性,得到样本的24维特征;
利用流形学习方法将所述24维特征降为12维特征,以获取所述稳定特征。
7.根据权利要求1所述的识别经络状态的方法,其特征在于,所述特征识别模型的建立包括:
建立所述基础分类音的有向混合高斯图模型;
利用贝叶斯图学习算法训练所述有向混合高斯图模型。
8.一种识别经络状态的装置,其特征在于,包括:
接收模块,用于接收用户的输入语音;
预处理模块,用于对所述输入语音进行预处理;
提取模块,用于提取经过预处理的所述输入语音的稳定特征;
初级分类模块,用于基于特征识别模型对所述稳定特征进行初级分类,以确定一种基础分类音,其中所述基础分类音包括:宫、商、角、徵、羽;
次级分类模块,用于基于特征识别模型对所述稳定特征进行次级分类,以确定所述一种基础分类音中的一种次级分类音;
确定模块,用于根据所述一种次级分类音识别经络状态。
9.一种移动设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时能够实现权利要求1至7任意一项所述识别经络状态的方法中的步骤。
10.根据权利要求9所述的移动设备,其特征在于,所述移动设备包括:平板电脑、笔记本、可移动式台式机和/或手机。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811244411.XA CN109599102A (zh) | 2018-10-24 | 2018-10-24 | 识别经络状态的方法及装置 |
US16/661,711 US11410674B2 (en) | 2018-10-24 | 2019-10-23 | Method and device for recognizing state of meridian |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811244411.XA CN109599102A (zh) | 2018-10-24 | 2018-10-24 | 识别经络状态的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109599102A true CN109599102A (zh) | 2019-04-09 |
Family
ID=65957413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811244411.XA Pending CN109599102A (zh) | 2018-10-24 | 2018-10-24 | 识别经络状态的方法及装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11410674B2 (zh) |
CN (1) | CN109599102A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112603266A (zh) * | 2020-12-23 | 2021-04-06 | 新绎健康科技有限公司 | 一种用于获取目标五音特征的方法及系统 |
CN113674757A (zh) * | 2020-05-13 | 2021-11-19 | 富士通株式会社 | 信息处理装置和信息处理方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109599102A (zh) * | 2018-10-24 | 2019-04-09 | 慈中华 | 识别经络状态的方法及装置 |
CN113837512B (zh) * | 2020-06-23 | 2024-08-13 | 中国移动通信集团辽宁有限公司 | 异常用户的识别方法及装置 |
US11948599B2 (en) * | 2022-01-06 | 2024-04-02 | Microsoft Technology Licensing, Llc | Audio event detection with window-based prediction |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1560835A (zh) * | 2004-03-11 | 2005-01-05 | 高也陶 | 二十五音分析仪 |
CN201379567Y (zh) * | 2009-02-11 | 2010-01-13 | 张学海 | 基于数字化医学诊断装置 |
CN102342858A (zh) * | 2010-08-06 | 2012-02-08 | 上海中医药大学 | 中医声诊采集与分析系统 |
CN103976864A (zh) * | 2014-05-22 | 2014-08-13 | 中国人民解放军第306医院 | 声波五行分类法 |
CN204375414U (zh) * | 2014-12-30 | 2015-06-03 | 上海鼎生医疗器械有限公司 | 一种中医声音信息检测装置 |
CN108287815A (zh) * | 2017-12-29 | 2018-07-17 | 重庆小雨点小额贷款有限公司 | 信息录入方法、装置、终端及计算机可读存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5774846A (en) * | 1994-12-19 | 1998-06-30 | Matsushita Electric Industrial Co., Ltd. | Speech coding apparatus, linear prediction coefficient analyzing apparatus and noise reducing apparatus |
US7725314B2 (en) * | 2004-02-16 | 2010-05-25 | Microsoft Corporation | Method and apparatus for constructing a speech filter using estimates of clean speech and noise |
US7457753B2 (en) * | 2005-06-29 | 2008-11-25 | University College Dublin National University Of Ireland | Telephone pathology assessment |
CN101089952B (zh) * | 2006-06-15 | 2010-10-06 | 株式会社东芝 | 噪声抑制、提取特征、训练模型及语音识别的方法和装置 |
US8784311B2 (en) * | 2010-10-05 | 2014-07-22 | University Of Florida Research Foundation, Incorporated | Systems and methods of screening for medical states using speech and other vocal behaviors |
ES2364401B2 (es) * | 2011-06-27 | 2011-12-23 | Universidad Politécnica de Madrid | Método y sistema para la estimación de parámetros fisiológicos de la fonación. |
US8817952B2 (en) * | 2012-12-13 | 2014-08-26 | Avaya Inc. | Method, apparatus, and system for providing real-time PSAP call analysis |
US9697831B2 (en) * | 2013-06-26 | 2017-07-04 | Cirrus Logic, Inc. | Speech recognition |
US10127929B2 (en) * | 2015-08-19 | 2018-11-13 | Massachusetts Institute Of Technology | Assessing disorders through speech and a computational model |
US20190189148A1 (en) * | 2017-12-14 | 2019-06-20 | Beyond Verbal Communication Ltd. | Means and methods of categorizing physiological state via speech analysis in predetermined settings |
CN108565025A (zh) * | 2018-03-22 | 2018-09-21 | 炎黄东方(北京)健康科技有限公司 | 健康管理移动终端、方法及服务器 |
CN109599102A (zh) * | 2018-10-24 | 2019-04-09 | 慈中华 | 识别经络状态的方法及装置 |
-
2018
- 2018-10-24 CN CN201811244411.XA patent/CN109599102A/zh active Pending
-
2019
- 2019-10-23 US US16/661,711 patent/US11410674B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1560835A (zh) * | 2004-03-11 | 2005-01-05 | 高也陶 | 二十五音分析仪 |
CN201379567Y (zh) * | 2009-02-11 | 2010-01-13 | 张学海 | 基于数字化医学诊断装置 |
CN102342858A (zh) * | 2010-08-06 | 2012-02-08 | 上海中医药大学 | 中医声诊采集与分析系统 |
CN103976864A (zh) * | 2014-05-22 | 2014-08-13 | 中国人民解放军第306医院 | 声波五行分类法 |
CN204375414U (zh) * | 2014-12-30 | 2015-06-03 | 上海鼎生医疗器械有限公司 | 一种中医声音信息检测装置 |
CN108287815A (zh) * | 2017-12-29 | 2018-07-17 | 重庆小雨点小额贷款有限公司 | 信息录入方法、装置、终端及计算机可读存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674757A (zh) * | 2020-05-13 | 2021-11-19 | 富士通株式会社 | 信息处理装置和信息处理方法 |
CN112603266A (zh) * | 2020-12-23 | 2021-04-06 | 新绎健康科技有限公司 | 一种用于获取目标五音特征的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20200135228A1 (en) | 2020-04-30 |
US11410674B2 (en) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109599102A (zh) | 识别经络状态的方法及装置 | |
CN110600047B (zh) | 基于Perceptual STARGAN的多对多说话人转换方法 | |
CN110428842A (zh) | 语音模型训练方法、装置、设备及计算机可读存储介质 | |
CN108109613A (zh) | 用于智能对话语音平台的音频训练和识别方法及电子设备 | |
CN107993663A (zh) | 一种基于Android的声纹识别方法 | |
CN107068154A (zh) | 基于声纹识别的身份验证的方法及系统 | |
CN106952649A (zh) | 基于卷积神经网络和频谱图的说话人识别方法 | |
CN107610707A (zh) | 一种声纹识别方法及装置 | |
US11810546B2 (en) | Sample generation method and apparatus | |
CN107507626B (zh) | 一种基于语音频谱融合特征的手机来源识别方法 | |
CN113223536B (zh) | 声纹识别方法、装置及终端设备 | |
CN110164460A (zh) | 歌唱合成方法和装置 | |
CN116153337B (zh) | 合成语音溯源取证方法及装置、电子设备及存储介质 | |
Chakroun et al. | Robust features for text-independent speaker recognition with short utterances | |
CN109545226A (zh) | 一种语音识别方法、设备及计算机可读存储介质 | |
CN109300484B (zh) | 音频对齐方法、装置、计算机设备以及可读存储介质 | |
CN111833907A (zh) | 一种人机交互方法与终端、计算机可读存储介质 | |
CN117037843A (zh) | 一种语音对抗样本生成方法、装置、终端设备及介质 | |
WO2021051533A1 (zh) | 基于地址信息的黑名单识别方法、装置、设备及存储介质 | |
CN116612788A (zh) | 音频数据的情感识别方法、装置、设备及介质 | |
CN113012684B (zh) | 一种基于语音分割的合成语音检测方法 | |
CN110931020B (zh) | 一种语音检测方法及装置 | |
Kanwal et al. | Fake speech detection using VGGish with attention block | |
Ma et al. | Study on feature subspace of archetypal emotions for speech emotion recognition | |
CN114512141B (zh) | 音频分离的方法、装置、设备、存储介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190409 |
|
RJ01 | Rejection of invention patent application after publication |