CN114464166A - 身体数据监测方法、装置、设备及存储介质 - Google Patents
身体数据监测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114464166A CN114464166A CN202011142842.2A CN202011142842A CN114464166A CN 114464166 A CN114464166 A CN 114464166A CN 202011142842 A CN202011142842 A CN 202011142842A CN 114464166 A CN114464166 A CN 114464166A
- Authority
- CN
- China
- Prior art keywords
- audio
- recognized
- deep learning
- data
- body data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000012544 monitoring process Methods 0.000 title claims abstract description 47
- 238000013136 deep learning model Methods 0.000 claims abstract description 72
- 230000005236 sound signal Effects 0.000 claims abstract description 71
- 238000000605 extraction Methods 0.000 claims abstract description 30
- 238000013135 deep learning Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims description 24
- 238000012806 monitoring device Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 12
- 230000003321 amplification Effects 0.000 claims description 9
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000036541 health Effects 0.000 abstract description 23
- 230000008569 process Effects 0.000 abstract description 11
- 210000002458 fetal heart Anatomy 0.000 description 47
- 210000003754 fetus Anatomy 0.000 description 17
- 230000001605 fetal effect Effects 0.000 description 13
- 210000002216 heart Anatomy 0.000 description 9
- 210000001015 abdomen Anatomy 0.000 description 8
- 208000024891 symptom Diseases 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 230000008175 fetal development Effects 0.000 description 2
- 208000005107 Premature Birth Diseases 0.000 description 1
- 206010036590 Premature baby Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/02—Stethoscopes
- A61B7/04—Electric stethoscopes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Artificial Intelligence (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
本发明涉及深度学习技术领域,公开了一种身体数据监测方法、装置、设备及存储介质,该方法包括:获取待识别声音信号;对所述待识别声音信号进行特征提取,以获取待识别声音特征;根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。通过使用无源器件获取待识别声音的信号,降低了声音信号采集过程中对用户身体的影响,对声音信号进行特征提取,通过身体数据深度学习模型进行特征识别,能够同时分辨多种用户身体发出的声音信号,从而生成对应的识别结果,使得用户可以根据识别结果对身体情况进行判断,使得非专业人士也可以在家中进行身体情况的监测,提升用户身体监测的便利性。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种身体数据监测方法、装置、设备及存储介质。
背景技术
现有技术中,医生或专业人士采用听从诊器进行问诊,获取心脏、肺部、动脉、静脉和其他内脏器官处发出的声音,进行身体状况的监测;非专业人士没有医疗知识储备,想要在家中进行身体状况的监测非常困难。另一方面,现有技术中还采用超声波探测仪器获取身体状况信息,但是超声波辐射能量较大,不宜频繁使用,用户对过量使用多普勒超声带来的危害存在担忧。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种身体数据监测方法、装置、设备及存储介质,旨在解决现有技术胎心监测不便的技术问题。
为实现上述目的,本发明提供一种身体数据监测方法,所述身体数据监测方法包括以下步骤:
获取待识别声音信号;
对所述待识别声音信号进行特征提取,以获取待识别声音特征;
根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
可选地,根据身体数据深度学习模型对待识别声音特征进行识别,以获得用户身体数据的步骤之前,还包括:
获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表;
根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合;
根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型。
可选地,所述获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表的步骤,具体包括:
获取身体音频集合,并提取所述身体音频集合中各段身体音频对应的音频标注数据;
根据所述音频标注数据生成所述身体音频集合对应的音频类型列表。
可选地,所述根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合的步骤,具体包括:
遍历所述音频类型列表中的音频类型,并将遍历到的音频类型作为当前音频类型;
根据所述当前音频类型与所述身体音频集合确定所述当前音频类型对应的目标身体音频;
根据所述目标身体音频生成当前音频类型对应的身体音频子集合。
可选地,所述根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型的步骤,具体包括:
对各身体音频子集合中所有身体音频进行音频特征提取,并根据提取到的音频特征进行深度学习,以生成身体数据深度学习模型。
可选地,所述获取待识别声音信号的步骤,具体包括:
采集待识别声音信号,并对所述待识别声音信号进行模数转换,得到数字化的待识别声音信号。
可选地,所述获取待识别声音信号的步骤之后,还包括:
对所述待识别声音信号进行降噪处理及放大处理。
可选地,所述对所述待识别声音信号进行特征提取,以获取待识别声音特征的步骤,具体包括:
对数字化的待识别声音信号进行特征提取,以获取待识别声音特征。
可选地,所述根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据的步骤,具体包括:
获取身体数据深度学习模型;
将所述待识别声音特征输入所述身体数据深度学习模型进行特征识别;
根据识别结果确定所述待识别声音特征对应的用户身体数据。
可选地,所述根据识别结果确定待识别声音特征对应的目标身体数据的步骤,具体包括:
在识别结果为存在与待识别声音特征匹配的身体音频特征时,获取所述身体音频特征对应的音频标注数据作为用户身体数据。
可选地,所述将所述待识别声音特征输入所述身体数据深度学习模型进行特征识别的步骤之后,还包括:
在识别结果为不存在与所述待识别声音特征匹配的身体音频特征时,确定所述待识别声音特征为非目标音频特征;
调整获取待识别声音信号的位置,并重新执行所述获取待识别声音信号的步骤。
可选地,所述根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据的步骤之后,还包括:
获取预设时间内的用户身体数据,以生成用户身体报告,并对所述用户身体报告进行推送。
此外,为实现上述目的,本发明还提出一种身体数据监测装置,所述身体数据监测装置包括:
检测模块,用于获取待识别声音信号;
提取模块,用于对所述待识别声音信号进行特征提取,以获取待识别声音特征;
识别模块,用于根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
可选地,所述识别模块还用于获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表;
根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合;
根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型。
可选地,所述识别模块还用于获取身体音频集合,并提取所述身体音频集合中各段身体音频对应的音频标注数据;
根据所述音频标注数据生成所述身体音频集合对应的音频类型列表。
可选地,所述识别模块还用于遍历所述音频类型列表中的音频类型,并将遍历到的音频类型作为当前音频类型;
根据所述当前音频类型与所述身体音频集合确定所述当前音频类型对应的目标身体音频;
根据所述目标身体音频生成当前音频类型对应的身体音频子集合。
可选地,所述识别模块还用于对各身体音频子集合中所有身体音频进行音频特征提取,并根据提取到的音频特征进行深度学习,以生成身体数据深度学习模型。
可选地,所述检测模块还用于采集待识别声音信号,并对所述待识别声音信号进行降噪处理及放大处理。
此外,为实现上述目的,本发明还提出一种身体数据监测设备,所述身体数据监测设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的身体数据监测程序,所述身体数据监测程序配置为实现如上文所述的身体数据监测方法的步骤。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有身体数据监测程序,所述身体数据监测程序被处理器执行时实现如上文所述的身体数据监测方法的步骤。
本发明中,获取待识别声音信号;对所述待识别声音信号进行特征提取,以获取待识别声音特征;根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。通过使用无源器件获取待识别声音的信号,降低了声音信号采集过程中对用户身体的影响,对声音信号进行特征提取,通过身体数据深度学习模型进行特征识别,能够同时分辨多种用户身体发出的声音信号,从而生成对应的识别结果,使得用户可以根据识别结果对身体情况进行判断,使得非专业人士也可以在家中进行身体情况的监测,提升用户身体监测的便利性。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的身体数据监测设备的结构示意图;
图2为本发明身体数据监测方法第一实施例的流程示意图;
图3为本发明身体数据监测方法第二实施例的流程示意图;
图4为本发明身体数据监测方法第三实施例的流程示意图;
图5为本发明身体数据监测方法第四实施例的流程示意图;
图6为本发明身体数据监测装置第一实施例的结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的身体数据监测设备结构示意图。
如图1所示,该身体数据监测设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display),可选用户接口1003还可以包括标准的有线接口、无线接口,对于用户接口1003的有线接口在本发明中可为USB接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(Random Access Memory,RAM)存储器,也可以是稳定的存储器(Non-volatileMemory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对身体数据监测设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及身体数据监测程序。
在图1所示的身体数据监测设备中,网络接口1004主要用于连接后台服务器,与所述后台服务器进行数据通信;用户接口1003主要用于连接用户设备;所述身体数据监测设备通过处理器1001调用存储器1005中存储的身体数据监测程序,并执行本发明实施例提供的身体数据监测方法。
基于上述硬件结构,提出本发明身体数据监测方法的实施例。
参照图2,图2为本发明身体数据监测方法第一实施例的流程示意图,提出本发明身体数据监测方法第一实施例。
在第一实施例中,所述身体数据监测方法包括以下步骤:
步骤S10:获取待识别声音信号。
需要说明的是,本发明实施例的执行主体为身体数据监测装置,所述身体数据监测装置包括声音获取模块和声音分析模块、存储器等。其中,所述声音获取模块为无需通电的器件,本发明实施例中以听诊器为所述器件进行说明。
易于理解的是,听诊器包括拾音部分(胸件),传导部分(胶管)及听音部分(耳件),所述拾音部分设置在用户身体部位上需要进行声音采集的部位,所述听音部分接入身体数据监测装置,以将声音信号传输给所述装置。
应当理解的是,由于听诊器为被动接受声音的器件,本身不会发出电磁波或超声波,降低了对人体的辐射,提升了身体数据监测过程中的安全性。
具体实施中,例如:通过本方法获取的身体数据为胎儿心跳数据,则将听诊器的拾音部分放置在孕妇的腹部上,获取到可能为胎儿心跳的待识别声音信号,对所述待识别声音信号进行进一步的分析。
步骤S20:对所述待识别声音信号进行特征提取,以获取待识别声音特征。
需要说明的是,在对待识别声音信号进行提取前还需要将待识别声音信号进行模数转换,得到数字化的待识别声音信号,本发明实施例中后续处理中,所述待识别声音信号均为数字化的待识别声音信号。
应当理解的是,由于采用无需通电的器件进行声音获取,很容易接收到用户身体外的环境中的声音,采集到的声音信号包含杂音,在进行特征提取之前需要对所述待识别声音信号进行音频处理,所述音频处理包括但不限于:降噪、放大、基音频率提取等。
易于理解的是,对所述待识别声音信号进行数字化处理,对数字化的待识别声音信号进行降噪,降噪的方式可以为对所述待识别声音信号进行分段,获取杂音段的声音信号,根据所述杂音段的声音信号进行模型训练,得到杂音模型,根据所述杂音模型对所述待识别声音信号进行检测,屏蔽掉杂音部分只保留用户身体发出的声音。基于上述步骤的举例进行进一步的说明,例如:采集到的“可能为胎儿心跳的待识别声音信号”,其中包含了周围用户说话的杂音等,获取用户说话的杂音,根据所述杂音进行模型训练,基于训练得到的模型屏蔽杂音,仅保留孕妇腹部内的声音信号。
需要说明的是,在得到处理后待识别声音信号时,可以对所述待识别声音信号进行特征提取,所述特征包括但不限于:频率、持续周期、声音振幅等。
步骤S30:根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
易于理解的是,所述身体数据深度学习模型预先进行构建,通过获取大量的身体音频生成身体音频集合,根据所述身体音频集合进行深度学习训练生成身体数据深度学习模型。使得所述身体数据深度学习模型中包含多种身体音频及其对应的特征,可以根据所述音频特征进行身体数据的分类与识别。
具体实施中,可用针对某一身体数据建立专门的身体数据深度学习模型,基于上述举例进一步说明,例如:通过医院采集大量的胎心音频数据,根据所述胎心音频数据进行特征提取与分类,根据提取到的胎心特征进行深度学习训练,得到的身体数据深度学习模型为胎心数据深度学习模型,根据所述胎心数据深度学习模型对“可能为胎心的待识别声音特征”进行检测。
需要说明的是,胎儿在母体内存在自然运动的情况,因而胎心的位置会经常发生变化,在孕妇的腹部的某一个点检测到的声音信号可能为胎心,也可能是该位置较为接近母体的心脏位置,得到的声音信号对应的是母体的心跳声。从孕妇腹部采集到的声音信号也可能不是胎心的声音信号,而是婴儿胎动的声音,如:胎儿踢腿、掰手指发出的细微声音。因而,所述胎心数据深度学习模型对待识别声音信号的特征进行识别后,确认所述待识别声音信号是否是胎心的声音,如果是,则可以进行下一步的步骤,进行胎心的计数等。如果不是胎心的声音,则更改听诊器拾音部分的位置,重新获取待识别声音信号进行识别。
本实施例中,通过使用无源器件获取待识别声音的信号,降低了声音信号采集过程中对用户身体的影响,对声音信号进行特征提取,通过身体数据深度学习模型进行特征识别,能够同时分辨多种用户身体发出的声音信号,从而生成对应的识别结果,使得用户可以根据识别结果对身体情况进行判断,使得非专业人士也可以在家中进行身体情况的监测,提升用户身体监测的便利性。
参照图3,图3为本发明身体数据监测方法第二实施例的流程示意图,基于上述图2所示的第一实施例,提出本发明身体数据监测方法的第二实施例。本实施例基于第一实施例进行说明。
在第二实施例中,步骤S30之前,还包括:
步骤S31:获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表。
需要说明的是,所述身体音频集合可以由专业人士通过专业的医疗数据库进行获取,所述身体音频集合中可以包含但不限于用户身体健康、非健康的音频数据。例如:用户正常的心脏跳动音频与非正常的心脏跳动音频。
应当理解的是,在所述身体音频集合中具有很多音频时,需要对不同的音频进行类型划分,基于上述举例,例如:心脏跳动声音中分类为正常音与非正常音。
进一步地,为了获得准确的音频类型,步骤S31具体包括:获取身体音频集合,并提取所述身体音频集合中各段身体音频对应的音频标注数据;根据所述音频标注数据生成所述身体音频集合对应的音频类型列表。
应当理解的是,身体音频在进行采集时,具有采集时间、采集时长、身体音频对应于何种症状、采集对象的身体健康情况等标注,通过所述音频标注数据可以为所述身体音频数据进行分类。
具体实施中,例如:采集胎儿的心跳音频作为所述身体音频,对应的每段音频具有采集的音频时胎儿的月份、音频的时长、音频对应的胎儿症状(例如:胎位不稳定,胎儿有早产趋势;胎儿发育不良;胎儿营养过剩超重;胎儿发育正常等),上述数据均可以作为音频标注数据,根据所述音频标注数据进行音频类型分类,基于上述数据可以根据胎儿的月份与胎儿症状进行分类,得到的音频类型列表中包括的类型为第34周的正常胎心、第35周的正常胎心;第34周的非正常胎心、第35周的非正常胎心等。
具体实施中,分类基于音频数据的实际需求进行分类,本实施例仅为解释说明。
步骤S32:根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合。
易于理解的是,构建音频类型列表后可以根据音频类型构建子集合,根据子集合进行模型训练,使得模型可以对该种类型的音频进行识别。
进一步地,为了提升模型的检测精度,步骤S32具体包括:遍历所述音频类型列表中的音频类型,并将遍历到的音频类型作为当前音频类型;根据所述当前音频类型与所述身体音频集合确定所述当前音频类型对应的目标身体音频;根据所述目标身体音频生成当前音频类型对应的身体音频子集合。
需要说明的是,本发明实施例中采用遍历的手段进行获取的目的是防止音频类型的混淆,在进行具体分类过程中可以同步进行多个子集合的同时构建,以提升效率。
具体实施中,例如:所述身体音频集合中包含约一千段胎心音频,当前音频类型为第34周的正常胎心,则从身体音频集合中获取对应的音频,将所有音频汇总得到胎心音频子集合。
步骤S33:根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型。
应当理解的是,基于身体音频子集合进行深度学习训练,得到的身体数据深度学习模型可以对所述身体音频子集合对应的特征的音频进行识别,基于所有身体音频子集合分别进行训练,所述身体数据深度学习模型可以识别所有身体音频子集合对应的特征的音频。
进一步地,为了提升身体数据深度学习模型的准确性,步骤S33具体包括:对各身体音频子集合中所有身体音频进行音频特征提取,并根据提取到的音频特征进行深度学习,以生成身体数据深度学习模型。
需要说明的是,所述音频特征包括但不限于声音持续时间、声音频率、声音振幅等,具体实施中,基于上述距离进行进一步说明,例如:胎心音频子集合对应的音频类型为第34周的正常胎心,提取集合中每段胎心声音的振幅、胎心每次跳动的时间间隔,胎心每次跳动的持续时间等特征,对提取的特征进行聚合分析,得到出现频率最高的胎心声音的振幅、胎心每次跳动的时间间隔,胎心每次跳动的持续时间作为提取到的特征,并根据所述特征进行深度学习,对所有的胎心音频子集合进行上述步骤,使得最终得到的模型能够识别各阶段的、各症状的胎心。
本实施例中,通过对音频集合进行进一步的划分,得到音频子集合并进行特征提取,根据提取的特征进行深度学习,使得深度学习模型可以更好的识别各种音频特征,丰富所述深度学习模型的检测类型,使得识别结果更加准确。
参照图4,图4为本发明身体数据监测方法第三实施例的流程示意图,基于上述图2所示的第一实施例和上述图3所示的第二实施例,提出本发明身体数据监测方法的第三实施例。本实施例基于第二实施例进行说明。
在第三实施例中,所述步骤S10具体包括:
步骤S101:采集待识别声音信号,并对所述待识别声音信号进行模数转换,得到数字化的待识别声音信号。
易于理解的是,由于通过无源器件进行声音获取,得到的声音信号是声信号,需要通过身体数据监测装置将其转换为电信号,并进一步将电信号转换为数字化的待识别声音信号,以便进一步的分析与处理。
具体实施中,例如:通过听诊器的拾音部分得到了待识别声音信号(声音信号),将所述待识别声音信号通过听音部分发送麦克风等设备中,使得声音信号转换为电信号,进一步地再将所述电信号转换为声信号。本发明实施例中后续处理中,所述待识别声音信号均为数字化的待识别声音信号。
进一步地,为了提升声音信号的处理效率,步骤S20之前,还包括:
步骤S201:对所述待识别声音信号进行降噪处理及放大处理。
应当理解的是,所述待识别声音信号是通过无源器件直接获取的,没有办法保证声音的纯净性,需要对声音信号进行进一步的处理。
应当理解的是,对于所述数字化的音频信号,降噪的方式可以为对所述待识别声音信号进行分段,获取杂音段的声音信号,根据所述杂音段的声音信号进行模型训练,得到杂音模型,根据所述杂音模型对所述待识别声音信号进行检测,屏蔽掉杂音部分只保留用户身体发出的声音。
易于理解的是,所述放大处理可以通过提升所述待识别声音信号的振幅进行,若降噪处理不够完全,在放大处理后导致杂音一同被放大,也可以再次进行降噪直到噪音不会影响到后续的步骤为止。
步骤S20具体包括:
步骤S202:对数字化的待识别声音信号进行特征提取,以获取待识别声音特征。
需要说明的是,在得到处理后待识别声音信号时,可以对所述待识别声音信号进行特征提取,所述特征包括但不限于:频率、持续周期、声音振幅等。
具体实施中,例如,对“可能为胎儿心跳的待识别声音信号”提取对应的声音振动频率,各声音之间的时间间隔,各段声音持续的时间,将上述特征作为待识别声音特征。
本实施例中,通过对待识别声音信号进行了数字化、降噪、放大等一系列处理,使得待识别声音信号能够提取到更准确的声音特征,排除外部干扰因素,提升识别的准确性。
参照图5,图5为本发明身体数据监测方法第四实施例的流程示意图,基于上述图2所示的第一实施例,提出本发明身体数据监测方法的第四实施例。本实施例基于第一实施例进行说明。
在第四实施例中,所述步骤S30,具体包括:
步骤S301:获取身体数据深度学习模型。
易于理解的是,所述身体数据深度学习模型预先进行构建,通过获取大量的身体音频生成身体音频集合,根据所述身体音频集合进行深度学习训练生成身体数据深度学习模型。使得所述身体数据深度学习模型中包含多种身体音频及其对应的特征,可以根据所述音频特征进行身体数据的分类与识别。
步骤S302:将所述待识别声音特征输入所述身体数据深度学习模型进行特征识别。
应当理解的是,所述身体数据深度学习模型可以对所述待识别声音特征进行特征匹配以获取对应的目标声音特征,将目标声音特征对应的标注数据作为最终得到的识别结果。所述标注数据可以包含但不限于:身体音频对应于何种症状、身体健康情况。
步骤S303:根据识别结果确定所述待识别声音特征对应的用户身体数据。
应当理解的是,所述身体数据深度学习模型也可能存在识别不出的情况,这种情况,所述待识别声音信号可能本身就不对应于用户需要识别的声音信号,或者新种类的声音信号。在所述待识别声音信号为新种类的声音信号时,可以将所述待识别声音信号纳入所述身体音频集合,对所述身体数据深度学习模型进行重新训练;在所述待识别声音信号不属于用户身体声音时,应当重新进行声音信号的获取。
进一步地,为准确获取用户身体数据,步骤S303,具体包括:在识别结果为存在与待识别声音特征匹配的身体音频特征时,获取所述身体音频特征对应的音频标注数据作为用户身体数据。
具体实施中,例如:待识别声音特征与目标身体音频特征匹配成功,将所述身体音频特征对应的采集的音频时胎儿的月份、音频的时长、音频对应的胎儿症状作为胎儿心跳数据。
步骤S302之后,还包括:
步骤S304:在识别结果为不存在与所述待识别声音特征匹配的身体音频特征时,确定所述待识别声音特征为非目标音频特征。
应当理解的是,由于本方法适用于非专业人士居家进行身体数据监测,非专业人士有可能会混淆音频采集的位置,另一方面,由于胎心位置会发生偏移等情况存在,用户可能采集到非目标音频特征,即无效的待识别声音信号,非用户身体对应的声音信号,识别失败;也有可能采集到的声音信号对应的声音过小,在处理过程中被作为杂音丢弃。
步骤S305:调整获取待识别声音信号的位置,并重新执行所述采集待识别声音信号的步骤。
易于理解的是,在识别结果存在问题时,需要重新获取待识别声音信号,由于人体的复杂性,仅一次获取不能很好的找到最佳的待识别声音采集点,可以通过改变获取待识别声音信号的位置进行多次检测,以得到最佳的声音采集点,获取最准确的身体数据。
具体实施中,例如:采集胎心,由于胎儿在母体内的位置会发生改变,因而通过改变获取待识别声音信号的位置,重新获取待识别声音信号;或者,本次获取的识别结果为存在与所述待识别声音特征匹配的身体音频特征,但匹配到的特征显示用户身体状况不佳,重复获取待识别声音信号,以防止本次识别错误。
步骤S303之后,还包括:
步骤S40:获取预设时间内的用户身体数据,以生成用户身体报告,并对所述用户身体报告进行推送。
应当理解的是,确定获取到的待识别声音信号对应于用户身体发出的声音信号时,进一步地可以延长获取所述声音信号的时间,得到预设时间内的用户身体数据,生成对应的报告。
具体实施中,例如:确认获取到待识别声音信号为胎儿心跳以后,可以开始对胎儿心跳进行计数,得到胎儿心跳的周期和频率。根据胎心的周期和频率可以判断胎儿发育情况,健康状态,生成对应的胎儿身体报告。
易于理解的是,身体报告推送可以通过语音、画面等方式进行推送,也可以通过将身体数据监测装置与用户使用的移动终端进行绑定,直接发送到移动终端上便于用户查看。
在本实施例中,在识别结果出现失败时重新进行检测,在识别结果成功时为用户推送对应的报告,提升用户身体监测的准确性和便利性。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有身体数据监测程序,所述身体数据监测程序被处理器执行时实现如上文所述的身体数据监测方法的步骤。
由于本存储介质采用了上述所有实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
此外,参照图6,本发明实施例还提出一种身体数据监测装置,所述身体数据监测装置包括:
检测模块10,用于获取待识别声音信号。
需要说明的是,检测模块10包括无需通电的声音检测器件,本发明实施例中以听诊器为所述器件进行说明。
易于理解的是,听诊器包括拾音部分(胸件),传导部分(胶管)及听音部分(耳件),所述拾音部分设置在用户身体部位上需要进行声音采集的部位,所述听音部分接入身体数据监测装置,以将声音信号传输给所述装置。
应当理解的是,由于听诊器为被动接受声音的器件,本身不会发出电磁波或超声波,降低了对人体的辐射,提升了身体数据监测过程中的安全性。
具体实施中,例如:通过本方法获取的身体数据为胎儿心跳数据,则将听诊器的拾音部分放置在孕妇的腹部上,获取到可能为胎儿心跳的待识别声音信号,对所述待识别声音信号进行进一步的分析。
提取模块20,用于对所述待识别声音信号进行特征提取,以获取待识别声音特征。
需要说明的是,在对待识别声音信号进行提取前还需要将待识别声音信号进行模数转换,得到数字化的待识别声音信号,本发明实施例中后续处理中,所述待识别声音信号均为数字化的待识别声音信号。
应当理解的是,由于采用无需通电的器件进行声音获取,很容易接收到用户身体外的环境中的声音,采集到的声音信号包含杂音,在进行特征提取之前需要对所述待识别声音信号进行音频处理,所述音频处理包括但不限于:降噪、放大、基音频率提取等。
易于理解的是,对所述待识别声音信号进行数字化处理,对数字化的待识别声音信号进行降噪,降噪的方式可以为对所述待识别声音信号进行分段,获取杂音段的声音信号,根据所述杂音段的声音信号进行模型训练,得到杂音模型,根据所述杂音模型对所述待识别声音信号进行检测,屏蔽掉杂音部分只保留用户身体发出的声音。基于上述步骤的举例进行进一步的说明,例如:采集到的“可能为胎儿心跳的待识别声音信号”,其中包含了周围用户说话的杂音等,获取用户说话的杂音,根据所述杂音进行模型训练,基于训练得到的模型屏蔽杂音,仅保留孕妇腹部内的声音信号。
需要说明的是,在得到处理后待识别声音信号时,可以对所述待识别声音信号进行特征提取,所述特征包括但不限于:频率、持续周期、声音振幅等。
识别模块30,用于根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
易于理解的是,所述身体数据深度学习模型预先进行构建,通过获取大量的身体音频生成身体音频集合,根据所述身体音频集合进行深度学习训练生成身体数据深度学习模型。使得所述身体数据深度学习模型中包含多种身体音频及其对应的特征,可以根据所述音频特征进行身体数据的分类与识别。
具体实施中,可用针对某一身体数据建立专门的身体数据深度学习模型,基于上述举例进一步说明,例如:通过医院采集大量的胎心音频数据,根据所述胎心音频数据进行特征提取与分类,根据提取到的胎心特征进行深度学习训练,得到的身体数据深度学习模型为胎心数据深度学习模型,根据所述胎心数据深度学习模型对“可能为胎心的待识别声音特征”进行检测。
需要说明的是,胎儿在母体内存在自然运动的情况,因而胎心的位置会经常发生变化,在孕妇的腹部的某一个点检测到的声音信号可能为胎心,也可能是该位置较为接近母体的心脏位置,得到的声音信号对应的是母体的心跳声。从孕妇腹部采集到的声音信号也可能不是胎心的声音信号,而是婴儿胎动的声音,如:胎儿踢腿、掰手指发出的细微声音。因而,所述胎心数据深度学习模型对待识别声音信号的特征进行识别后,确认所述待识别声音信号是否是胎心的声音,如果是,则可以进行下一步的步骤,进行胎心的计数等。如果不是胎心的声音,则更改听诊器拾音部分的位置,重新获取待识别声音信号进行识别。
本实施例中,通过使用无源器件获取待识别声音的信号,降低了声音信号采集过程中对用户身体的影响,对声音信号进行特征提取,通过身体数据深度学习模型进行特征识别,能够同时分辨多种用户身体发出的声音信号,从而生成对应的识别结果,使得用户可以根据识别结果对身体情况进行判断,使得非专业人士也可以在家中进行身体情况的监测,提升用户身体监测的便利性。
在本发明一实施例中,所述识别模块30还用于获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表;
根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合;
根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型。
在本发明一实施例中,所述识别模块30还用于获取身体音频集合,并提取所述身体音频集合中各段身体音频对应的音频标注数据;
根据所述音频标注数据生成所述身体音频集合对应的音频类型列表。
在本发明一实施例中,所述识别模块30还用于遍历所述音频类型列表中的音频类型,并将遍历到的音频类型作为当前音频类型;
根据所述当前音频类型与所述身体音频集合确定所述当前音频类型对应的目标身体音频;
根据所述目标身体音频生成当前音频类型对应的身体音频子集合。
在本发明一实施例中,所述识别模块30还用于对各身体音频子集合中所有身体音频进行音频特征提取,并根据提取到的音频特征进行深度学习,以生成身体数据深度学习模型。
在本发明一实施例中,所述检测模块20还用于采集待识别声音信号,并对所述待识别声音信号进行模数转换,得到数字化的待识别声音信号。
本发明所述身体数据监测装置的其他实施例或具体实现方式可参照上述各方法实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。在列举了若干装置的单元中,这些装置中的若干个可以是通过同一个硬件项来具体体现。词语第一、第二、以及第三等的使用不表示任何顺序,可将这些词语解释为标识。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器镜像(Read Only Memory image,ROM)/随机存取存储器(Random AccessMemory,RAM)、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
本发明公开了A1、一种身体数据监测方法,所述身体数据监测方法包括以下步骤:
获取待识别声音信号;
对所述待识别声音信号进行特征提取,以获取待识别声音特征;
根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
A2、如A1所述的方法,根据身体数据深度学习模型对待识别声音特征进行识别,以获得用户身体数据的步骤之前,还包括:
获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表;
根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合;
根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型。
A3、如A2所述的方法,所述获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表的步骤,具体包括:
获取身体音频集合,并提取所述身体音频集合中各段身体音频对应的音频标注数据;
根据所述音频标注数据生成所述身体音频集合对应的音频类型列表。
A4、如A3所述的方法,所述根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合的步骤,具体包括:
遍历所述音频类型列表中的音频类型,并将遍历到的音频类型作为当前音频类型;
根据所述当前音频类型与所述身体音频集合确定所述当前音频类型对应的目标身体音频;
根据所述目标身体音频生成当前音频类型对应的身体音频子集合。
A5、如4A所述的方法,所述根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型的步骤,具体包括:
对各身体音频子集合中所有身体音频进行音频特征提取,并根据提取到的音频特征进行深度学习,以生成身体数据深度学习模型。
A6、如A1所述的方法,所述获取待识别声音信号的步骤,具体包括:
采集待识别声音信号,并对所述待识别声音信号进行模数转换,得到数字化的待识别声音信号。
A7、如A6所述的方法,所述获取待识别声音信号的步骤之后,还包括:
对所述待识别声音信号进行降噪处理及放大处理。
A8、如A7所述的方法,所述对所述待识别声音信号进行特征提取,以获取待识别声音特征的步骤,具体包括:
对数字化的待识别声音信号进行特征提取,以获取待识别声音特征。
A9、如A8所述的方法,所述根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据的步骤,具体包括:
获取身体数据深度学习模型;
将所述待识别声音特征输入所述身体数据深度学习模型进行特征识别;
根据识别结果确定所述待识别声音特征对应的用户身体数据。
A10、如A9所述的方法,所述根据识别结果确定待识别声音特征对应的目标身体数据的步骤,具体包括:
在识别结果为存在与待识别声音特征匹配的身体音频特征时,获取所述身体音频特征对应的音频标注数据作为用户身体数据。
A11、如A9所述的方法,所述将所述待识别声音特征输入所述身体数据深度学习模型进行特征识别的步骤之后,还包括:
在识别结果为不存在与所述待识别声音特征匹配的身体音频特征时,确定所述待识别声音特征为非目标音频特征;
调整获取待识别声音信号的位置,并重新执行所述获取待识别声音信号的步骤。
A12、如A1-A11任一项所述的方法,所述根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据的步骤之后,还包括:
获取预设时间内的用户身体数据,以生成用户身体报告,并对所述用户身体报告进行推送。
本发明还公开了B13、一种身体数据监测装置,所述身体数据监测装置包括:
检测模块,用于获取待识别声音信号;
提取模块,用于对所述待识别声音信号进行特征提取,以获取待识别声音特征;
识别模块,用于根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
B14、如B13所述的装置,所述识别模块还用于获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表;
根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合;
根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型。
B15、如B14所述的装置,所述识别模块还用于获取身体音频集合,并提取所述身体音频集合中各段身体音频对应的音频标注数据;
根据所述音频标注数据生成所述身体音频集合对应的音频类型列表。
B16、如B15所述的装置,所述识别模块还用于遍历所述音频类型列表中的音频类型,并将遍历到的音频类型作为当前音频类型;
根据所述当前音频类型与所述身体音频集合确定所述当前音频类型对应的目标身体音频;
根据所述目标身体音频生成当前音频类型对应的身体音频子集合。
B17、如B16所述的装置,所述识别模块还用于对各身体音频子集合中所有身体音频进行音频特征提取,并根据提取到的音频特征进行深度学习,以生成身体数据深度学习模型。
B18、如B17所述的装置,所述检测模块还用于采集待识别声音信号,并对所述待识别声音信号进行模数转换,得到数字化的待识别声音信号。
本发明还公开了C19、一种身体数据监测设备,所述身体数据监测设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的身体数据监测程序,所述身体数据监测程序配置有实现如A1至A12中任一项所述的方法的步骤。
本发明还公开了D20、一种存储介质,所述存储介质上存储有身体数据监测程序,所述身体数据监测程序被处理器执行时实现如A1至A12中任一项所述的方法的步骤。
Claims (10)
1.一种身体数据监测方法,其特征在于,所述身体数据监测方法包括以下步骤:
获取待识别声音信号;
对所述待识别声音信号进行特征提取,以获取待识别声音特征;
根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
2.如权利要求1所述的身体数据监测方法,其特征在于,根据身体数据深度学习模型对待识别声音特征进行识别,以获得用户身体数据的步骤之前,还包括:
获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表;
根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合;
根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型。
3.如权利要求2所述的身体数据监测方法,其特征在于,所述获取身体音频集合,对所述身体音频集合进行分析以生成音频类型列表的步骤,具体包括:
获取身体音频集合,并提取所述身体音频集合中各段身体音频对应的音频标注数据;
根据所述音频标注数据生成所述身体音频集合对应的音频类型列表。
4.如权利要求3所述的身体数据监测方法,其特征在于,所述根据所述音频类型列表与所述获取身体音频集合生成各音频类型对应的身体音频子集合的步骤,具体包括:
遍历所述音频类型列表中的音频类型,并将遍历到的音频类型作为当前音频类型;
根据所述当前音频类型与所述身体音频集合确定所述当前音频类型对应的目标身体音频;
根据所述目标身体音频生成当前音频类型对应的身体音频子集合。
5.如权利要求4所述的身体数据监测方法,其特征在于,所述根据所有身体音频子集合进行深度学习训练,以生成身体数据深度学习模型的步骤,具体包括:
对各身体音频子集合中所有身体音频进行音频特征提取,并根据提取到的音频特征进行深度学习,以生成身体数据深度学习模型。
6.如权利要求1所述的身体数据监测方法,其特征在于,所述获取待识别声音信号的步骤,具体包括:
采集待识别声音信号,并对所述待识别声音信号进行模数转换,得到数字化的待识别声音信号。
7.如权利要求6所述的身体数据监测方法,其特征在于,所述获取待识别声音信号的步骤之后,还包括:
对所述待识别声音信号进行降噪处理及放大处理。
8.一种身体数据监测装置,其特征在于,所述身体数据监测装置包括:
检测模块,用于获取待识别声音信号;
提取模块,用于对所述待识别声音信号进行特征提取,以获取待识别声音特征;
识别模块,用于根据身体数据深度学习模型对所述待识别声音特征进行识别,以获得用户身体数据。
9.一种身体数据监测设备,其特征在于,所述身体数据监测设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的身体数据监测程序,所述身体数据监测程序配置有实现如权利要求1至7中任一项所述的身体数据监测方法的步骤。
10.一种存储介质,其特征在于,所述存储介质上存储有身体数据监测程序,所述身体数据监测程序被处理器执行时实现如权利要求1至7中任一项所述的身体数据监测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011142842.2A CN114464166A (zh) | 2020-10-22 | 2020-10-22 | 身体数据监测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011142842.2A CN114464166A (zh) | 2020-10-22 | 2020-10-22 | 身体数据监测方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114464166A true CN114464166A (zh) | 2022-05-10 |
Family
ID=81404238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011142842.2A Pending CN114464166A (zh) | 2020-10-22 | 2020-10-22 | 身体数据监测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114464166A (zh) |
-
2020
- 2020-10-22 CN CN202011142842.2A patent/CN114464166A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Leng et al. | The electronic stethoscope | |
CN103153175B (zh) | 用于做出脉搏信号波形数据的诊断分类的设备和系统 | |
US9198634B2 (en) | Medical decision support system | |
CN102697520B (zh) | 基于智能识别功能的电子听诊器 | |
JP6929975B6 (ja) | ポータブルセンサデバイスからの心音図データおよび心電図データの分析 | |
US10856811B2 (en) | Automated diagnosis-assisting medical devices utilizing rate/frequency estimation | |
US20150164466A1 (en) | System and method for classifying a heart sound | |
US20120172676A1 (en) | Integrated monitoring device arranged for recording and processing body sounds from multiple sensors | |
JPWO2013089073A1 (ja) | 情報解析装置、電子聴診器、情報解析方法、測定システム、制御プログラム、および、記録媒体 | |
US10172563B2 (en) | Method and system for analyzing noise in an electrophysiology study | |
CN202801659U (zh) | 基于智能识别功能的电子听诊器 | |
JP2001095768A (ja) | ペースメーカが定めたペースの心電図を自動的に検出しかつ解釈する方法および装置 | |
CN112017695A (zh) | 一种自动识别生理声音的系统及方法 | |
JP6435176B2 (ja) | 身体情報取得装置、身体情報取得方法、およびプログラム | |
WO2017159753A1 (ja) | 収縮期心雑音検出装置 | |
CN114464166A (zh) | 身体数据监测方法、装置、设备及存储介质 | |
CN108836312B (zh) | 一种基于人工智能的进行杂波剔除的方法及系统 | |
JP6430144B2 (ja) | 心電波形検出装置、心電波形検出方法、心電波形検出プログラム、及び撮像装置 | |
US20240008750A1 (en) | Diagnosis of respiratory diseases | |
JP2023035888A (ja) | 無線レーダー信号に基づいて心拍データを抽出するための装置及び方法 | |
EP3694416B1 (en) | System for recording chest signals and method using said system | |
EP4255305A1 (en) | Multi-function diagnostic device | |
US10952625B2 (en) | Apparatus, methods and computer programs for analyzing heartbeat signals | |
WO2009053913A1 (en) | Device and method for identifying auscultation location | |
Gogoi | An user friendly electronic stethoscope for heart rate monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |