CN109620154A - 基于深度学习的肠鸣音识别方法及相关装置 - Google Patents
基于深度学习的肠鸣音识别方法及相关装置 Download PDFInfo
- Publication number
- CN109620154A CN109620154A CN201811570064.XA CN201811570064A CN109620154A CN 109620154 A CN109620154 A CN 109620154A CN 201811570064 A CN201811570064 A CN 201811570064A CN 109620154 A CN109620154 A CN 109620154A
- Authority
- CN
- China
- Prior art keywords
- gurgling sound
- gurgling
- frame sequence
- training
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000013135 deep learning Methods 0.000 title claims abstract description 28
- 206010067715 Gastrointestinal sounds abnormal Diseases 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims description 114
- 239000013598 vector Substances 0.000 claims description 104
- 210000005036 nerve Anatomy 0.000 claims description 49
- 238000003062 neural network model Methods 0.000 claims description 48
- 210000002569 neuron Anatomy 0.000 claims description 35
- 239000011159 matrix material Substances 0.000 claims description 28
- 241001269238 Data Species 0.000 claims description 27
- 201000010099 disease Diseases 0.000 claims description 26
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 26
- 239000011248 coating agent Substances 0.000 claims description 18
- 238000000576 coating method Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 210000000936 intestine Anatomy 0.000 claims description 11
- 238000003745 diagnosis Methods 0.000 claims description 9
- 206010011953 Decreased activity Diseases 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 230000007787 long-term memory Effects 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 230000002441 reversible effect Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000006399 behavior Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000004218 nerve net Anatomy 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 206010034674 peritonitis Diseases 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 206010010774 Constipation Diseases 0.000 description 1
- 206010012735 Diarrhoea Diseases 0.000 description 1
- 206010014418 Electrolyte imbalance Diseases 0.000 description 1
- 241001417516 Haemulidae Species 0.000 description 1
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 206010021333 Ileus paralytic Diseases 0.000 description 1
- 201000005081 Intestinal Pseudo-Obstruction Diseases 0.000 description 1
- 206010051399 Mechanical ileus Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000008991 intestinal motility Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 201000007620 paralytic ileus Diseases 0.000 description 1
- 230000000291 postprandial effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/02—Stethoscopes
- A61B7/04—Electric stethoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/42—Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
- A61B5/4222—Evaluating particular parts, e.g. particular organs
- A61B5/4255—Intestines, colon or appendix
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
Abstract
本申请实施例公开了一种基于深度学习的肠鸣音识别方法及相关装置,该方法包括:通过可穿戴设备获取待识别对象的肠鸣音数据,对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列,将语音帧序列输入肠鸣音识别模型进行处理,输出语音帧序列对应的目标肠鸣音类型,肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。采用本申请实施例可识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。
Description
技术领域
本申请涉及肠鸣音识别技术领域,具体涉及一种基于深度学习的肠鸣音识别方法及相关装置。
背景技术
肠鸣音指的是当肠管蠕动时,肠腔内空气和液体随之流动,产生一种断续的气过水声(或咕噜声)。由于正常情况和患病情况的肠鸣音是不同的,因此可以利用肠鸣音辅助医生诊断肠病患者。目前,识别肠鸣音类型通过将待识别对象的肠鸣音特征与肠鸣音类型库进行比对,进而得到待识别对象的肠鸣音类型。由于每个人的肠鸣音存在差别,因此现有的肠鸣音识别方法准确性低。
发明内容
本申请实施例提供一种基于深度学习的肠鸣音识别方法及相关装置,用于识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。
第一方面,本申请实施例提供一种基于深度学习的肠鸣音识别方法,所述方法包括:
通过可穿戴设备获取待识别对象的肠鸣音数据;
对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;
将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
第二方面,本申请实施例提供一种基于深度学习的肠鸣音识别装置,所述装置包括:
获取单元,用于通过可穿戴设备获取待识别对象的肠鸣音数据;
音频处理单元,用于对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;
确定单元,用于将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
第三方面,本申请实施例提供一种服务器,包括处理器、存储器、通信接口,以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面所述的方法中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,上述计算机可读存储介质用于存储计算机程序,上述计算机程序被处理器执行,以实现如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。
可以看出,在本申请实施例中,服务器首先通过可穿戴设备获取待识别对象的肠鸣音数据,然后对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列,最后将语音帧序列输入肠鸣音识别模型进行处理,输出语音帧序列对应的目标肠鸣音类型。这样可识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。
本申请的这些方面或其他方面在以下实施例的描述中会更加简明易懂。
附图说明
为了更清楚地说明本申请实施例或背景技术中的技术方案,下面将对本申请实施例或背景技术中所需要使用的附图进行说明。
图1是本申请实施例提供的第一种基于深度学习的肠鸣音识别方法的流程示意图;
图2是本申请实施例提供的第二种基于深度学习的肠鸣音识别方法的流程示意图;
图3是本申请实施例提供的第三种基于深度学习的肠鸣音识别方法的流程示意图;
图4是本申请实施例提供的一种基于深度学习的肠鸣音识别装置的结构示意图;
图5是本申请实施例提供的一种服务器的结构示意图。
具体实现方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
以下分别进行详细说明。
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
以下,对本申请中的部分用语进行解释说明,以便于本领域技术人员理解。
(1)疾病诊断设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(UserEquipment,UE),移动台(Mobile Station,MS),终端设备(Terminal Device,TD),等等。
(2)服务器,也称伺服器,是提供计算服务的设备。服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似。在网络环境下,根据服务器提供的服务类型不同,分为文件服务器,数据库服务器,应用程序服务器,WEB服务器等。
下面对本申请实施例进行详细介绍。
请参阅图1,图1是本申请实施例提供的第一种基于深度学习的肠鸣音识别方法的流程示意图,该基于深度学习的肠鸣音识别方法包括:
步骤101:服务器通过可穿戴设备获取待识别对象的肠鸣音数据。
其中,可穿戴设备用于采集待识别对象的肠鸣音声音信号,可穿戴设备具有放大肠鸣音和降低环境音的功能。
在一个可能的示例中,服务器通过可穿戴设备获取待识别对象的肠鸣音数据,包括:
服务器向所述可穿戴设备发送请求信息,所述请求信息用于指示所述可穿戴设备反馈所述待识别对象的肠鸣音声音信号,所述肠鸣音声音信号的时长为预设时长范围;
服务器接收所述可穿戴设备针对所述请求信息发送的第一肠鸣音声音信号,所述第一肠鸣音声音信号的时长为第一时长,所述第一时长处于所述预设时长范围;
服务器将所述第一肠鸣音声音信号转换为第一肠鸣音数字信号,所述第一肠鸣音数字信号的时长为所述第一时长;
服务器将所述第一肠鸣音数字信号作为所述肠鸣音数据。
其中,服务器与可穿戴设备具有连接关系。
进一步地,可穿戴设备接收请求信息之后,所述方法还包括:
可穿戴设备采集待识别对象的第一肠鸣音声音信号,第一肠鸣音声音信号的采集时长为第一时长;
可穿戴设备将第一肠鸣音声音信号发送至服务器。
其中,预设时长范围可以为5ms~200ms,第一时长可以为20ms、25ms、30ms、35ms、40ms或者是其他值。
其中,服务器将第一肠鸣音声音信号转换为第一肠鸣音数字信号的实施方式为现有技术,在此不再叙述。
步骤102:服务器对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列。
其中,音频处理操作包括语音去噪操作和音频分段操作。
在一个可能的示例中,服务器对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列,包括:
服务器调用预先存储的语音去噪算法;
服务器根据所述语音去噪算法对所述肠鸣音数据进行语音去噪,得到所述肠鸣音数据对应的第一肠鸣音数据;
服务器对所述第一肠鸣音数据执行音频分段操作,得到所述第一肠鸣音数据对应的至少一个语音帧,每个语音帧的时长为第二时长,所述第二时长小于所述第一时长,所述每个语音帧包括64个频率分量;
服务器将所述至少一个语音帧组成的序列作为所述语音帧序列。
其中,语音去噪算法包括以下至少一种:稀疏分解法、谱减法、小波变换法。
其中,第二时长可以为4ms。
其中,语音帧序列包括语音帧的数量为待识别对象的第一肠鸣音数据的时长与每个语音帧的时长的比值,即第一时长与第二时长的比值。
步骤103:服务器将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
其中,肠鸣音识别模型为完成训练的深度学习的循环神经网络模型,肠鸣音识别模型包括编码器、激活层、解码器、全连接层和分类器。
其中,肠鸣音类型包括肠鸣音正常、肠鸣音活跃、肠鸣音亢进、肠鸣音减弱和肠鸣音消失。
1)肠鸣音正常:正常情况下,肠鸣音每分钟4~5次,其频率、声响和音调变异较大,餐后频繁而明显,休息时稀疏而微弱。
2)肠鸣音活跃:肠蠕动增强,肠鸣音在6~10次/分,称肠鸣音活跃,见于急性胃肠炎、腹泻药后或消化道大出血时。
3)肠鸣音亢进:如次数增多(10次/分以上),音调响亮、高亢,甚至呈叮当声或金属声,称肠鸣音亢进,见于机械性肠梗阻。
4)肠鸣音减弱:肠蠕动减慢、减弱,肠鸣音次数减少,数分钟(3~5分钟)听见一次称肠鸣音减弱,见于老年性便秘、腹膜炎、电解质紊乱(低血钾)、胃肠动力低下等。
5)肠鸣音消失:若持续3~5分钟还未听到肠鸣音,用手指轻叩或搔弹刺激腹部仍听不到肠鸣音,称肠鸣音消失,见于麻痹性肠梗阻或急性腹膜炎。
在一个可能的示例中,服务器将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,包括:
服务器将所述语音帧序列输入所述肠鸣音识别模型;
服务器将所述语音帧序列转换为第一输入向量,以及将所述第一输入向量输入第一神经网络层进行处理,输出所述第一输入向量对应的第二输入向量,所述第一神经网络层包括128个神经元,所述第一神经网络层对应第一权重矩阵;
服务器将所述第二输入向量输入第二神经网络层进行处理,输出所述第二输入向量对应的第三输入向量,所述第二神经网络层包括64个神经元,所述第二神经网络层对应第二权重矩阵;
服务器将所述第三输入向量输入第三神经网络层进行处理,输出所述第三输入向量对应的第四输入向量,所述第三神经网络层包括32个神经元,所述第三神经网络层对应第三权重矩阵;
服务器将所述第四输入向量输入激活层进行处理,输出所述第四输入向量对应的第五输入向量,所述激活层包括32个神经元,所述激活层对应第四权重矩阵;
服务器将所述第五输入向量输入第四神经网络层进行处理,输出所述第五输入向量对应的第六输入向量,所述第四神经网络层包括64个长短期记忆网络单元,所述第四神经网络层对应第五权重矩阵;
服务器将所述第六输入向量输入全连接层进行处理,输出所述第六输入向量对应的输出向量,所述全连接层包括256个激活函数神经元,所述全连接层对应第六权重矩阵;
服务器将所述输出向量输入分类器进行处理,输出所述输出向量对应的所述目标肠鸣音类型。
具体地,服务器将语音帧序列转换为第一输入向量的实施方式可以是:调用服务器预先存储的梅尔频率倒谱系数(Mel Frequency Cepstral Coefficients,MFCC)算法;根据MFCC算法将语音帧序列转化为第一输入向量。
其中,第一神经网络层为编码器的第1个双向循环层,第一神经网络层包括的128个神经元中每个神经元对应一个权重。
其中,第二神经网络层为编码器的第2个双向循环层,第二神经网络层包括的64个神经元中每个神经元对应一个权重。
其中,第三神经网络层为编码器的单向层,第三神经网络层包括的32个神经元中每个神经元对应一个权重。
其中,激活层包括的32个神经元中每个神经元对应一个权重,激活层用于初始化解码器。
其中,第四神经网络层为解码器的单独循环层,第四神经网络层包括的64个长短期记忆网络单元中每个长短期记忆网络单元对应一个权重。
其中,全连接层包括的256个激活函数神经元中每个激活函数神经元对应一个权重。
具体地,服务器将输入向量输入分类器进行处理,输出输出向量对应的目标肠鸣音类型的实施方式可以是:调用分类器预先存储的向量与肠鸣音类型的对应关系;根据向量与肠鸣音类型的对应关系确定目标向量对应的目标肠鸣音类型。
可以看出,在本申请实施例中,服务器首先通过可穿戴设备获取待识别对象的肠鸣音数据,然后对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列,最后将语音帧序列输入肠鸣音识别模型进行处理,输出语音帧序列对应的目标肠鸣音类型。这样可识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。
在一个可能的示例中,服务器将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之前,所述方法还包括:
服务器获取多个第一训练数据和多个肠鸣音类型,每个肠鸣音类型对应一个第一训练数据;
服务器对每个第一训练数据执行音频处理操作,得到所述多个第一训练数据对应的多个第二训练数据;
服务器根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型,所述第一循环神经网络模型为未进行深度学习的循环神经网络模型。
其中,多个第一训练数据的数量大于等于第一阈值,第一阈值可以是可穿戴设备自定义的,也可以是服务器自定义的。
其中,服务器对每个第一训练数据执行音频处理操作,得到多个第一训练数据对应的多个第二训练数据的实施方式与服务器对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列的实施方式是相同的,在此不再叙述。
其中,服务器根据多个第二训练数据、多个肠鸣音类型和第一循环神经网络模型构建肠鸣音识别模型只需要构建一次,无需每次对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列就构建肠鸣音识别模型。
在一个可能的示例中,服务器根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型,包括:
在所述多个第二训练数据的数量为N,所述N为大于1的整数的情况下,服务器将N个第二训练数据中第i个第二训练数据输入所述第一循环神经网络模型进行第i次正向训练,输出肠鸣音类型i;
若所述肠鸣音类型i不同于所述第i个第二训练数据对应的肠鸣音类型,则服务器对第i次正向训练后的第一循环神经网络模型进行反向训练,得到第i次训练后的第一循环神经网络模型;
在将所述第i个第二训练数据输入所述第一循环神经网络模型进行第i次训练结束后,服务器将第(i+1)个第二训练数据输入所述第i次训练后的第一循环神经网络模型进行第(i+1)次训练;
直到i=N,服务器停止训练,得到第N次训练后的第一循环神经网络模型,所述i是初始值为1,以1为间隔的递增函数;
服务器将所述N次训练后的第一循环神经网络模型作为所述肠鸣音识别模型。
具体地,服务器将第(i+1)个第二训练数据输入第i次训练后的第一循环神经网络模型进行第(i+1)次训练的实施方式可以是:将第(i+1)个第二训练数据输入第i次训练后的第一循环神经网络模型进行第(i+1)次正向训练,输出肠鸣音类型j,j=i+1;判断肠鸣音类型j与第(i+1)个第二训练数据对应的肠鸣音类型是否相同;若肠鸣音类型j不同于第(i+1)个第二训练数据对应的肠鸣音类型,则对第(i+1)次正向训练后的第一循环神经网络模型进行反向训练,得到第(i+1)次训练后的第一循环神经网络模型。
在一个可能的示例中,服务器将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之后,所述方法还包括:
服务器判断所述目标肠鸣音类型是否包含于患病肠鸣音类型集,所述患病肠鸣音类型集包括肠鸣音活跃、肠鸣音亢进、肠鸣音减弱、肠鸣音消失;
若所述目标肠鸣音类型包含于所述患病肠鸣音类型集,则服务器根据预先存储的肠鸣音类型与疾病的对应关系确定所述目标肠鸣音类型对应的至少一种目标疾病;
服务器发送所述目标肠鸣音类型和所述至少一种目标疾病至疾病诊断设备。
可见,在本示例中,服务器将待识别对象的目标肠鸣音类型和待识别对象可能患有的至少一种目标疾病发送至疾病诊断设备,有助于辅助医生诊断肠道疾病。
请参阅图2,图2是本申请实施例提供的第二种基于深度学习的肠鸣音识别方法的流程示意图,该基于深度学习的肠鸣音识别方法包括:
步骤201:服务器通过可穿戴设备获取待识别对象的肠鸣音数据。
步骤202:服务器对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列。
步骤203:服务器将所述语音帧序列输入所述肠鸣音识别模型。
步骤204:服务器将所述语音帧序列转换为第一输入向量,以及将所述第一输入向量输入第一神经网络层进行处理,输出所述第一输入向量对应的第二输入向量,所述第一神经网络层包括128个神经元,所述第一神经网络层对应第一权重矩阵。
步骤205:服务器将所述第二输入向量输入第二神经网络层进行处理,输出所述第二输入向量对应的第三输入向量,所述第二神经网络层包括64个神经元,所述第二神经网络层对应第二权重矩阵。
步骤206:服务器将所述第三输入向量输入第三神经网络层进行处理,输出所述第三输入向量对应的第四输入向量,所述第三神经网络层包括32个神经元,所述第三神经网络层对应第三权重矩阵。
步骤207:服务器将所述第四输入向量输入激活层进行处理,输出所述第四输入向量对应的第五输入向量,所述激活层包括32个神经元,所述激活层对应第四权重矩阵。
步骤208:服务器将所述第五输入向量输入第四神经网络层进行处理,输出所述第五输入向量对应的第六输入向量,所述第四神经网络层包括64个长短期记忆网络单元,所述第四神经网络层对应第五权重矩阵。
步骤209:服务器将所述第六输入向量输入全连接层进行处理,输出所述第六输入向量对应的输出向量,所述全连接层包括256个激活函数神经元,所述全连接层对应第六权重矩阵。
步骤210:服务器将所述输出向量输入分类器进行处理,输出所述输出向量对应的所述目标肠鸣音类型。
需要说明的是,图2所示的方法的各个步骤的具体实现过程可参见上述方法所述的具体实现过程,在此不再叙述。
请参阅图3,图3是本申请实施例提供的第三种基于深度学习的肠鸣音识别方法的流程示意图,该基于深度学习的肠鸣音识别方法包括:
步骤301:服务器通过可穿戴设备获取待识别对象的肠鸣音数据。
步骤302:服务器对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列。
步骤303:服务器获取多个第一训练数据和多个肠鸣音类型,每个肠鸣音类型对应一个第一训练数据。
步骤304:服务器对每个第一训练数据执行音频处理操作,得到所述多个第一训练数据对应的多个第二训练数据。
步骤305:在所述多个第二训练数据的数量为N,所述N为大于1的整数的情况下,服务器将N个第二训练数据中第i个第二训练数据输入所述第一循环神经网络模型进行第i次正向训练,输出肠鸣音类型i。
步骤306:若所述肠鸣音类型i不同于所述第i个第二训练数据对应的肠鸣音类型,则服务器对第i次正向训练后的第一循环神经网络模型进行反向训练,得到第i次训练后的第一循环神经网络模型。
步骤307:在将所述第i个第二训练数据输入所述第一循环神经网络模型进行第i次训练结束后,服务器将第(i+1)个第二训练数据输入所述第i次训练后的第一循环神经网络模型进行第(i+1)次训练。
步骤308:直到i=N,服务器停止训练,得到N次训练后的第一循环神经网络模型,所述i是初始值为1,以1为间隔的递增函数。
步骤309:服务器将所述N次训练后的第一循环神经网络模型作为所述肠鸣音识别模型。
步骤310:服务器将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
步骤311:服务器判断所述目标肠鸣音类型是否包含于患病肠鸣音类型集,所述患病肠鸣音类型集包括肠鸣音活跃、肠鸣音亢进、肠鸣音减弱、肠鸣音消失。
步骤312:若所述目标肠鸣音类型包含于所述患病肠鸣音类型集,则服务器根据预先存储的肠鸣音类型与疾病的对应关系确定所述目标肠鸣音类型对应的至少一种目标疾病。
步骤313:服务器发送所述目标肠鸣音类型和所述至少一种目标疾病至疾病诊断设备。
需要说明的是,图3所示的方法的各个步骤的具体实现过程可参见上述方法所述的具体实现过程,在此不再叙述。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,基于深度学习的肠鸣音识别装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对基于深度学习的肠鸣音识别装置进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
请参阅图4,图4是本申请实施例提供的一种基于深度学习的肠鸣音识别装置400的结构示意图,该基于深度学习的肠鸣音识别装置400包括处理单元401、存储单元402和通信单元403,处理单元401包括获取单元、音频处理单元和确定单元,其中:
获取单元,用于通过可穿戴设备获取待识别对象的肠鸣音数据;
音频处理单元,用于对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;
确定单元,用于将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
可见,在本申请实施例中,首先通过可穿戴设备获取待识别对象的肠鸣音数据,然后对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列,最后将语音帧序列输入肠鸣音识别模型进行处理,输出语音帧序列对应的目标肠鸣音类型。这样可识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。
在一个可能的示例中,在通过可穿戴设备获取待识别对象的肠鸣音数据方面,上述获取单元具体用于:
向所述可穿戴设备发送请求信息,所述请求信息用于指示所述可穿戴设备反馈所述待识别对象的肠鸣音声音信号,所述肠鸣音声音信号的时长为预设时长范围;
接收所述可穿戴设备针对所述请求信息发送的第一肠鸣音声音信号,所述第一肠鸣音声音信号的时长为第一时长,所述第一时长处于所述预设时长范围;
将所述第一肠鸣音声音信号转换为第一肠鸣音数字信号,所述第一肠鸣音数字信号的时长为所述第一时长;
将所述第一肠鸣音数字信号作为所述肠鸣音数据。
在一个可能的示例中,在对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列方面,上述音频处理单元具体用于:
调用预先存储的语音去噪算法;
根据所述语音去噪算法对所述肠鸣音数据进行语音去噪,得到所述肠鸣音数据对应的第一肠鸣音数据;
对所述第一肠鸣音数据执行音频分段操作,得到所述第一肠鸣音数据对应的至少一个语音帧,每个语音帧的时长为第二时长,所述第二时长小于所述第一时长,所述每个语音帧包括64个频率分量;
将所述至少一个语音帧组成的序列作为所述语音帧序列。
在一个可能的示例中,在将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型方面,上述确定单元具体用于:
将所述语音帧序列输入所述肠鸣音识别模型;
将所述语音帧序列转换为第一输入向量,以及将所述第一输入向量输入第一神经网络层进行处理,输出所述第一输入向量对应的第二输入向量,所述第一神经网络层包括128个神经元,所述第一神经网络层对应第一权重矩阵;
将所述第二输入向量输入第二神经网络层进行处理,输出所述第二输入向量对应的第三输入向量,所述第二神经网络层包括64个神经元,所述第二神经网络层对应第二权重矩阵;
将所述第三输入向量输入第三神经网络层进行处理,输出所述第三输入向量对应的第四输入向量,所述第三神经网络层包括32个神经元,所述第三神经网络层对应第三权重矩阵;
将所述第四输入向量输入激活层进行处理,输出所述第四输入向量对应的第五输入向量,所述激活层包括32个神经元,所述激活层对应第四权重矩阵;
将所述第五输入向量输入第四神经网络层进行处理,输出所述第五输入向量对应的第六输入向量,所述第四神经网络层包括64个长短期记忆网络单元,所述第四神经网络层对应第五权重矩阵;
将所述第六输入向量输入全连接层进行处理,输出所述第六输入向量对应的输出向量,所述全连接层包括256个激活函数神经元,所述全连接层对应第六权重矩阵;
将所述输出向量输入分类器进行处理,输出所述输出向量对应的所述目标肠鸣音类型。
在一个可能的示例中,将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之前,上述处理单元401还包括:
第一获取单元,用于获取多个第一训练数据和多个肠鸣音类型,每个肠鸣音类型对应一个第一训练数据;
第一音频处理单元,用于对每个第一训练数据执行音频处理操作,得到所述多个第一训练数据对应的多个第二训练数据;
模型训练单元,用于根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型,所述第一循环神经网络模型为未进行深度学习的循环神经网络模型。
在一个可能的示例中,在根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型方面,上述模型训练单元具体用于:
在所述多个第二训练数据的数量为N,所述N为大于1的整数的情况下,将N个第二训练数据中第i个第二训练数据输入所述第一循环神经网络模型进行第i次正向训练,输出肠鸣音类型i;
若所述肠鸣音类型i不同于所述第i个第二训练数据对应的肠鸣音类型,则对第i次正向训练后的第一循环神经网络模型进行反向训练,得到第i次训练后的第一循环神经网络模型;
在将所述第i个第二训练数据输入所述第一循环神经网络模型进行第i次训练结束后,将第(i+1)个第二训练数据输入所述第i次训练后的第一循环神经网络模型进行第(i+1)次训练;
直到i=N,停止训练,得到第N次训练后的第一循环神经网络模型,所述i是初始值为1,以1为间隔的递增函数;
将所述N次训练后的第一循环神经网络模型作为所述肠鸣音识别模型。
在一个可能的示例中,将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之后,上述处理单元401还包括:
判断单元,用于判断所述目标肠鸣音类型是否包含于患病肠鸣音类型集,所述患病肠鸣音类型集包括肠鸣音活跃、肠鸣音亢进、肠鸣音减弱、肠鸣音消失;
第一确定单元,用于若所述目标肠鸣音类型包含于所述患病肠鸣音类型集,则根据预先存储的肠鸣音类型与疾病的对应关系确定所述目标肠鸣音类型对应的至少一种目标疾病;
发送单元,用于发送所述目标肠鸣音类型和所述至少一种目标疾病至疾病诊断设备。
其中,处理单元401可以是处理器或控制器,例如可以是中央处理器(CentralProcessing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),专用集成控制器(Application-Specific Integrated Circuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。存储单元402可以是存储器,通信单元403可以是收发器、收发控制器、射频芯片、通信接口等。
与上述图1、图2和图3所示的实施例一致的,请参阅图5,图5是本申请实施例提供的一种服务器的结构示意图,该服务器包括处理器、存储器、通信接口,以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行以下步骤的指令:
通过可穿戴设备获取待识别对象的肠鸣音数据;
对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;
将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
可见,在本申请实施例中,服务器首先通过可穿戴设备获取待识别对象的肠鸣音数据,然后对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列,最后将语音帧序列输入肠鸣音识别模型进行处理,输出语音帧序列对应的目标肠鸣音类型。这样可识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。
在一个可能的示例中,在通过可穿戴设备获取待识别对象的肠鸣音数据方面,上述程序包括具体用于执行以下步骤的指令:
向所述可穿戴设备发送请求信息,所述请求信息用于指示所述可穿戴设备反馈所述待识别对象的肠鸣音声音信号,所述肠鸣音声音信号的时长为预设时长范围;
接收所述可穿戴设备针对所述请求信息发送的第一肠鸣音声音信号,所述第一肠鸣音声音信号的时长为第一时长,所述第一时长处于所述预设时长范围;
将所述第一肠鸣音声音信号转换为第一肠鸣音数字信号,所述第一肠鸣音数字信号的时长为所述第一时长;
将所述第一肠鸣音数字信号作为所述肠鸣音数据。
在一个可能的示例中,在对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列方面,上述程序包括具体用于执行以下步骤的指令:
调用预先存储的语音去噪算法;
根据所述语音去噪算法对所述肠鸣音数据进行语音去噪,得到所述肠鸣音数据对应的第一肠鸣音数据;
对所述第一肠鸣音数据执行音频分段操作,得到所述第一肠鸣音数据对应的至少一个语音帧,每个语音帧的时长为第二时长,所述第二时长小于所述第一时长,所述每个语音帧包括64个频率分量;
将所述至少一个语音帧组成的序列作为所述语音帧序列。
在一个可能的示例中,在将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型方面,上述程序包括具体用于执行以下步骤的指令:
将所述语音帧序列输入所述肠鸣音识别模型;
将所述语音帧序列转换为第一输入向量,以及将所述第一输入向量输入第一神经网络层进行处理,输出所述第一输入向量对应的第二输入向量,所述第一神经网络层包括128个神经元,所述第一神经网络层对应第一权重矩阵;
将所述第二输入向量输入第二神经网络层进行处理,输出所述第二输入向量对应的第三输入向量,所述第二神经网络层包括64个神经元,所述第二神经网络层对应第二权重矩阵;
将所述第三输入向量输入第三神经网络层进行处理,输出所述第三输入向量对应的第四输入向量,所述第三神经网络层包括32个神经元,所述第三神经网络层对应第三权重矩阵;
将所述第四输入向量输入激活层进行处理,输出所述第四输入向量对应的第五输入向量,所述激活层包括32个神经元,所述激活层对应第四权重矩阵;
将所述第五输入向量输入第四神经网络层进行处理,输出所述第五输入向量对应的第六输入向量,所述第四神经网络层包括64个长短期记忆网络单元,所述第四神经网络层对应第五权重矩阵;
将所述第六输入向量输入全连接层进行处理,输出所述第六输入向量对应的输出向量,所述全连接层包括256个激活函数神经元,所述全连接层对应第六权重矩阵;
将所述输出向量输入分类器进行处理,输出所述输出向量对应的所述目标肠鸣音类型。
在一个可能的示例中,将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之前,上述程序包括具体用于以下步骤的指令:
获取多个第一训练数据和多个肠鸣音类型,每个肠鸣音类型对应一个第一训练数据;
对每个第一训练数据执行音频处理操作,得到所述多个第一训练数据对应的多个第二训练数据;
根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型,所述第一循环神经网络模型为未进行深度学习的循环神经网络模型。
在一个可能的示例中,在根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型方面,上述程序包括具体用于执行以下步骤的指令:
在所述多个第二训练数据的数量为N,所述N为大于1的整数的情况下,将N个第二训练数据中第i个第二训练数据输入所述第一循环神经网络模型进行第i次正向训练,输出肠鸣音类型i;
若所述肠鸣音类型i不同于所述第i个第二训练数据对应的肠鸣音类型,则对第i次正向训练后的第一循环神经网络模型进行反向训练,得到第i次训练后的第一循环神经网络模型;
在将所述第i个第二训练数据输入所述第一循环神经网络模型进行第i次训练结束后,将第(i+1)个第二训练数据输入所述第i次训练后的第一循环神经网络模型进行第(i+1)次训练;
直到i=N,停止训练,得到第N次训练后的第一循环神经网络模型,所述i是初始值为1,以1为间隔的递增函数;
将所述N次训练后的第一循环神经网络模型作为所述肠鸣音识别模型。
在一个可能的示例中,将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之后,上述程序还包括用于执行以下步骤的指令:
判断所述目标肠鸣音类型是否包含于患病肠鸣音类型集,所述患病肠鸣音类型集包括肠鸣音活跃、肠鸣音亢进、肠鸣音减弱、肠鸣音消失;
若所述目标肠鸣音类型包含于所述患病肠鸣音类型集,则根据预先存储的肠鸣音类型与疾病的对应关系确定所述目标肠鸣音类型对应的至少一种目标疾病;
发送所述目标肠鸣音类型和所述至少一种目标疾病至疾病诊断设备。
本申请实施例还提供一种计算机存储介质,该计算机存储介质用于存储计算机程序,上述计算机程序被处理器执行,以实现如上述方法实施例中记载的任一方法的部分或全部步骤。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实现方式及应用范围上均会有改变之处,综上上述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种基于深度学习的肠鸣音识别方法,其特征在于,所述方法包括:
通过可穿戴设备获取待识别对象的肠鸣音数据;
对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;
将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
2.根据权利要求1所述的方法,其特征在于,所述通过可穿戴设备获取待识别对象的肠鸣音数据,包括:
向所述可穿戴设备发送请求信息,所述请求信息用于指示所述可穿戴设备反馈所述待识别对象的肠鸣音声音信号,所述肠鸣音声音信号的时长为预设时长范围;
接收所述可穿戴设备针对所述请求信息发送的第一肠鸣音声音信号,所述第一肠鸣音声音信号的时长为第一时长,所述第一时长处于所述预设时长范围;
将所述第一肠鸣音声音信号转换为第一肠鸣音数字信号,所述第一肠鸣音数字信号的时长为所述第一时长;
将所述第一肠鸣音数字信号作为所述肠鸣音数据。
3.根据权利要求2所述的方法,其特征在于,所述对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列,包括:
调用预先存储的语音去噪算法;
根据所述语音去噪算法对所述肠鸣音数据进行语音去噪,得到所述肠鸣音数据对应的第一肠鸣音数据;
对所述第一肠鸣音数据执行音频分段操作,得到所述第一肠鸣音数据对应的至少一个语音帧,每个语音帧的时长为第二时长,所述第二时长小于所述第一时长,所述每个语音帧包括64个频率分量;
将所述至少一个语音帧组成的序列作为所述语音帧序列。
4.根据权利要求3所述的方法,其特征在于,所述将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,包括:
将所述语音帧序列输入所述肠鸣音识别模型;
将所述语音帧序列转换为第一输入向量,以及将所述第一输入向量输入第一神经网络层进行处理,输出所述第一输入向量对应的第二输入向量,所述第一神经网络层包括128个神经元,所述第一神经网络层对应第一权重矩阵;
将所述第二输入向量输入第二神经网络层进行处理,输出所述第二输入向量对应的第三输入向量,所述第二神经网络层包括64个神经元,所述第二神经网络层对应第二权重矩阵;
将所述第三输入向量输入第三神经网络层进行处理,输出所述第三输入向量对应的第四输入向量,所述第三神经网络层包括32个神经元,所述第三神经网络层对应第三权重矩阵;
将所述第四输入向量输入激活层进行处理,输出所述第四输入向量对应的第五输入向量,所述激活层包括32个神经元,所述激活层对应第四权重矩阵;
将所述第五输入向量输入第四神经网络层进行处理,输出所述第五输入向量对应的第六输入向量,所述第四神经网络层包括64个长短期记忆网络单元,所述第四神经网络层对应第五权重矩阵;
将所述第六输入向量输入全连接层进行处理,输出所述第六输入向量对应的输出向量,所述全连接层包括256个激活函数神经元,所述全连接层对应第六权重矩阵;
将所述输出向量输入分类器进行处理,输出所述输出向量对应的所述目标肠鸣音类型。
5.根据权利要求4所述的方法,其特征在于,所述将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之前,所述方法还包括:
获取多个第一训练数据和多个肠鸣音类型,每个肠鸣音类型对应一个第一训练数据;
对每个第一训练数据执行音频处理操作,得到所述多个第一训练数据对应的多个第二训练数据;
根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型,所述第一循环神经网络模型为未进行深度学习的循环神经网络模型。
6.根据权利要求5所述的方法,其特征在于,所述根据所述多个第二训练数据、所述多个肠鸣音类型和第一循环神经网络模型构建所述肠鸣音识别模型,包括:
在所述多个第二训练数据的数量为N,所述N为大于1的整数的情况下,将N个第二训练数据中第i个第二训练数据输入所述第一循环神经网络模型进行第i次正向训练,输出肠鸣音类型i;
若所述肠鸣音类型i不同于所述第i个第二训练数据对应的肠鸣音类型,则对第i次正向训练后的第一循环神经网络模型进行反向训练,得到第i次训练后的第一循环神经网络模型;
在将所述第i个第二训练数据输入所述第一循环神经网络模型进行第i次训练结束后,将第(i+1)个第二训练数据输入所述第i次训练后的第一循环神经网络模型进行第(i+1)次训练;
直到i=N,停止训练,得到第N次训练后的第一循环神经网络模型,所述i是初始值为1,以1为间隔的递增函数;
将所述N次训练后的第一循环神经网络模型作为所述肠鸣音识别模型。
7.根据权利要求6所述的方法,其特征在于,所述将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型之后,所述方法还包括:
判断所述目标肠鸣音类型是否包含于患病肠鸣音类型集,所述患病肠鸣音类型集包括肠鸣音活跃、肠鸣音亢进、肠鸣音减弱、肠鸣音消失;
若所述目标肠鸣音类型包含于所述患病肠鸣音类型集,则根据预先存储的肠鸣音类型与疾病的对应关系确定所述目标肠鸣音类型对应的至少一种目标疾病;
发送所述目标肠鸣音类型和所述至少一种目标疾病至疾病诊断设备。
8.一种基于深度学习的肠鸣音识别装置,其特征在于,所述装置包括:
获取单元,用于通过可穿戴设备获取待识别对象的肠鸣音数据;
音频处理单元,用于对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;
确定单元,用于将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。
9.一种服务器,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-7任一项所述的方法中的步骤的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,所述计算机程序被处理器执行,以实现如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570064.XA CN109620154A (zh) | 2018-12-21 | 2018-12-21 | 基于深度学习的肠鸣音识别方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570064.XA CN109620154A (zh) | 2018-12-21 | 2018-12-21 | 基于深度学习的肠鸣音识别方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109620154A true CN109620154A (zh) | 2019-04-16 |
Family
ID=66076355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811570064.XA Pending CN109620154A (zh) | 2018-12-21 | 2018-12-21 | 基于深度学习的肠鸣音识别方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109620154A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110141266A (zh) * | 2019-05-07 | 2019-08-20 | 南京大学 | 一种可穿戴体音捕获技术的肠鸣音检测方法 |
CN110179492A (zh) * | 2019-05-08 | 2019-08-30 | 四川新源生物电子科技有限公司 | 基于自适应双阈值的肠鸣音智能识别算法 |
CN110192892A (zh) * | 2019-05-08 | 2019-09-03 | 四川新源生物电子科技有限公司 | 一种无线肠鸣音分析仪 |
CN110432924A (zh) * | 2019-08-06 | 2019-11-12 | 杭州智团信息技术有限公司 | 肠鸣音检测装置、方法和电子设备 |
CN114515137A (zh) * | 2020-11-19 | 2022-05-20 | 纬创资通股份有限公司 | 生理病征识别方法及生理病征感测系统 |
CN116052725A (zh) * | 2023-03-31 | 2023-05-02 | 四川大学华西医院 | 一种基于深度神经网络的细粒度肠鸣音识别方法及装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104305961A (zh) * | 2014-10-20 | 2015-01-28 | 清华大学 | 肠鸣音监测识别系统 |
CN104334075A (zh) * | 2012-04-18 | 2015-02-04 | 高通股份有限公司 | 具有调整通知的生物测定属性异常检测系统 |
CN104887199A (zh) * | 2014-03-07 | 2015-09-09 | 中南大学 | 一种流式健康测量系统 |
US9263036B1 (en) * | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
CN106328150A (zh) * | 2016-08-18 | 2017-01-11 | 北京易迈医疗科技有限公司 | 嘈杂环境下的肠鸣音检测方法、装置及系统 |
CN106600283A (zh) * | 2016-12-16 | 2017-04-26 | 携程旅游信息技术(上海)有限公司 | 识别姓名国籍的方法、系统及判断交易风险的方法、系统 |
CN106776540A (zh) * | 2016-11-23 | 2017-05-31 | 清华大学 | 一种自由化文本生成方法 |
CN107341542A (zh) * | 2016-04-29 | 2017-11-10 | 北京中科寒武纪科技有限公司 | 用于执行循环神经网络和lstm运算的装置和方法 |
CN107396322A (zh) * | 2017-08-28 | 2017-11-24 | 电子科技大学 | 基于路径匹配与编码译码循环神经网络的室内定位方法 |
CN107967920A (zh) * | 2017-11-23 | 2018-04-27 | 哈尔滨理工大学 | 一种改进的自编码神经网络语音增强算法 |
CN207355625U (zh) * | 2017-08-04 | 2018-05-15 | 山西大学 | 一种室外游泳水下定位手环 |
CN108175436A (zh) * | 2017-12-28 | 2018-06-19 | 北京航空航天大学 | 一种肠鸣音智能自动识别方法 |
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108628974A (zh) * | 2018-04-25 | 2018-10-09 | 平安科技(深圳)有限公司 | 舆情信息分类方法、装置、计算机设备和存储介质 |
CN108922622A (zh) * | 2018-07-10 | 2018-11-30 | 平安科技(深圳)有限公司 | 一种动物健康监测方法、装置及计算机可读存储介质 |
-
2018
- 2018-12-21 CN CN201811570064.XA patent/CN109620154A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104334075A (zh) * | 2012-04-18 | 2015-02-04 | 高通股份有限公司 | 具有调整通知的生物测定属性异常检测系统 |
US9263036B1 (en) * | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
CN104887199A (zh) * | 2014-03-07 | 2015-09-09 | 中南大学 | 一种流式健康测量系统 |
CN104305961A (zh) * | 2014-10-20 | 2015-01-28 | 清华大学 | 肠鸣音监测识别系统 |
CN107341542A (zh) * | 2016-04-29 | 2017-11-10 | 北京中科寒武纪科技有限公司 | 用于执行循环神经网络和lstm运算的装置和方法 |
CN106328150A (zh) * | 2016-08-18 | 2017-01-11 | 北京易迈医疗科技有限公司 | 嘈杂环境下的肠鸣音检测方法、装置及系统 |
CN106776540A (zh) * | 2016-11-23 | 2017-05-31 | 清华大学 | 一种自由化文本生成方法 |
CN106600283A (zh) * | 2016-12-16 | 2017-04-26 | 携程旅游信息技术(上海)有限公司 | 识别姓名国籍的方法、系统及判断交易风险的方法、系统 |
CN207355625U (zh) * | 2017-08-04 | 2018-05-15 | 山西大学 | 一种室外游泳水下定位手环 |
CN107396322A (zh) * | 2017-08-28 | 2017-11-24 | 电子科技大学 | 基于路径匹配与编码译码循环神经网络的室内定位方法 |
CN107967920A (zh) * | 2017-11-23 | 2018-04-27 | 哈尔滨理工大学 | 一种改进的自编码神经网络语音增强算法 |
CN108175436A (zh) * | 2017-12-28 | 2018-06-19 | 北京航空航天大学 | 一种肠鸣音智能自动识别方法 |
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108628974A (zh) * | 2018-04-25 | 2018-10-09 | 平安科技(深圳)有限公司 | 舆情信息分类方法、装置、计算机设备和存储介质 |
CN108922622A (zh) * | 2018-07-10 | 2018-11-30 | 平安科技(深圳)有限公司 | 一种动物健康监测方法、装置及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
YI HUANG ET AL: "Fast diagnosis of bowel activities", 《2017 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN)》, 3 July 2017 (2017-07-03), pages 3044 * |
崔天国等: "深度学习:从入门到实战", 31 January 2018, 河南科学技术出版社, pages: 123 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110141266A (zh) * | 2019-05-07 | 2019-08-20 | 南京大学 | 一种可穿戴体音捕获技术的肠鸣音检测方法 |
CN110141266B (zh) * | 2019-05-07 | 2021-04-27 | 南京大学 | 一种可穿戴体音捕获技术的肠鸣音检测方法 |
CN110192892B (zh) * | 2019-05-08 | 2021-12-14 | 四川新源生物电子科技有限公司 | 一种无线肠鸣音分析仪 |
CN110179492A (zh) * | 2019-05-08 | 2019-08-30 | 四川新源生物电子科技有限公司 | 基于自适应双阈值的肠鸣音智能识别算法 |
CN110192892A (zh) * | 2019-05-08 | 2019-09-03 | 四川新源生物电子科技有限公司 | 一种无线肠鸣音分析仪 |
CN110179492B (zh) * | 2019-05-08 | 2021-12-14 | 四川新源生物电子科技有限公司 | 基于自适应双阈值的肠鸣音智能识别算法 |
CN110432924A (zh) * | 2019-08-06 | 2019-11-12 | 杭州智团信息技术有限公司 | 肠鸣音检测装置、方法和电子设备 |
CN110432924B (zh) * | 2019-08-06 | 2021-10-22 | 杭州智团信息技术有限公司 | 肠鸣音检测装置、方法和电子设备 |
CN114515137A (zh) * | 2020-11-19 | 2022-05-20 | 纬创资通股份有限公司 | 生理病征识别方法及生理病征感测系统 |
EP4000528A1 (en) * | 2020-11-19 | 2022-05-25 | Wistron Corporation | Method for recognizing physiological symptom and physiological symptom sensing system |
CN114515137B (zh) * | 2020-11-19 | 2024-04-19 | 纬创资通股份有限公司 | 肠胃病征识别方法及肠胃病征感测系统 |
CN116052725A (zh) * | 2023-03-31 | 2023-05-02 | 四川大学华西医院 | 一种基于深度神经网络的细粒度肠鸣音识别方法及装置 |
CN116052725B (zh) * | 2023-03-31 | 2023-06-23 | 四川大学华西医院 | 一种基于深度神经网络的细粒度肠鸣音识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109620154A (zh) | 基于深度学习的肠鸣音识别方法及相关装置 | |
Stöter et al. | Classification vs. regression in supervised learning for single channel speaker count estimation | |
JP2020528336A (ja) | 心電信号の検出 | |
CN106504768B (zh) | 基于人工智能的电话拨测音频分类方法及装置 | |
CN108269569A (zh) | 语音识别方法和设备 | |
CN110415687A (zh) | 语音处理方法、装置、介质、电子设备 | |
CN110223705A (zh) | 语音转换方法、装置、设备及可读存储介质 | |
CN107545897A (zh) | 对话行为推定方法、对话行为推定装置以及程序 | |
US11423884B2 (en) | Device with convolutional neural network for acquiring multiple intent words, and method thereof | |
CN109887484A (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
CN108009573A (zh) | 一种机器人情绪模型生成方法、情绪模型以及交互方法 | |
CN105895105A (zh) | 语音处理方法及装置 | |
CN108510982A (zh) | 音频事件检测方法、装置及计算机可读存储介质 | |
CN106875940A (zh) | 一种基于神经网络的机器自学习构建知识图谱训练方法 | |
CN110675891A (zh) | 一种基于多层注意力机制的语音分离方法、模块 | |
CN105895082A (zh) | 声学模型训练方法、语音识别方法及装置 | |
CN104536677A (zh) | 具有智能语音交互功能的三维数字人像 | |
CN110580897B (zh) | 音频校验方法、装置、存储介质及电子设备 | |
CN108986804A (zh) | 人机交互处理方法、装置、用户终端、处理服务器及系统 | |
Sharan et al. | Voice command recognition using biologically inspired time-frequency representation and convolutional neural networks | |
CN109584864A (zh) | 图像处理装置和方法 | |
Castro-Garcia et al. | Emergent multilingual language acquisition using developmental networks | |
CN110489519A (zh) | 基于会话预测模型的会话方法及相关产品 | |
CN108806699A (zh) | 语音反馈方法、装置、存储介质及电子设备 | |
CN115358365A (zh) | 实现通用人工智能的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |