CN115223704A - 一种纯音听力图的自动识别与判断方法、装置及设备 - Google Patents
一种纯音听力图的自动识别与判断方法、装置及设备 Download PDFInfo
- Publication number
- CN115223704A CN115223704A CN202210201185.7A CN202210201185A CN115223704A CN 115223704 A CN115223704 A CN 115223704A CN 202210201185 A CN202210201185 A CN 202210201185A CN 115223704 A CN115223704 A CN 115223704A
- Authority
- CN
- China
- Prior art keywords
- audiogram
- pure
- hearing
- symbol
- judged
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供一种纯音听力图的自动识别与判断方法,包括:获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图;输入所述标注听力图至Faster‑RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置;通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。本申请基于深度学习技术,采用Faster‑Rcnn模型,实现了对听力图的自动识别并能够全面解读其听力损失类型、程度、在该年龄段相同性别群体中所处的听力水平等,简化了诊断流程,提高了临床诊断听力损失的效率。既满足临床诊断和干预指导需求,又可用于科学研究。
Description
技术领域
本申请涉及医工交叉辅助临床诊断领域,特别是涉及一种纯音听力图的自动识别与判断方法、装置及设备。
背景技术
近年来,随着医工交叉领域的飞速发展,将人工智能技术用于医学图像识别有望成为辅助临床诊断的快速、高效、低成本的方法。如Google Brain团队研发了一种自动检测眼底照片中糖尿病性视网膜病变的算法,经过9963张眼底图像的验证,其灵敏度为97.5%,特异度为93.4%,诊断能力堪比专业医师。Kooi等人设计的独立阅读乳腺钼靶X线照片神经网络模型检测乳腺肿瘤的效能接近临床专家水平。
然而目前,国内外尚没有基于人工智能技术进行听力图识别与临床诊断的产品应用,相关研究也寥寥无几。2020年,Crowson等人尝试基于深度学习方法,采用ResNet-32、ResNet-50、ResNet-101和ResNet-152四个模型和卷积神经网络结构对听力图进行转移学习并比较分类精度,从而判断听力损失类型。而在临床工作中,除听力损失的类型外,更重要的是对于不同听力损失程度,以及不同年龄、性别的听力损失患者来说,听力干预的建议和手段都大不相同。因此,该算法虽能在一定程度上辅助临床诊断,但其仅仅实现了判断听力损失类型的目的,无法获知听力损失的具体程度以及该患者在相应性别、年龄阶段人群中所处于的听力水平,难以应用于指导临床听力干预。
此外,除临床诊断需求,听力学研究者在入组特定听力损失程度的受试者时,往往需要手动输入听力图并计算听力损失,费时费力易出错,而自动识别读取听力图数据并判断听力损失程度的程序能够快速获得受试者的听力图数值信息,大大提高工作效率。因此,无论从临床诊断还是科学研究的角度出发,都亟需一种快速、自动纯音听力图自动识别与判断程序。
我国正步入人口老龄化社会,听力损失人数急剧增长,致残性听力损失人口比例高居全球首位,而其中超过80%的听力损失人群无法得到早期诊断和干预。因此,开发出一种能够快速、自动识别听力图,辅助临床医生诊断听力损失的类型和程度,并为患者提供充分解读的程序对于提高全民听力损失早期检出和干预率的意义重大。
发明内容
鉴于以上所述现有技术的缺点,本申请的目的在于提供一种纯音听力图的自动识别与判断方法、装置及设备,用于解决现有技术中听力学专家资源稀缺,广大基层医疗单位的耳鼻喉科医师无法全面、清晰、正确地解读患者的纯音听力图;无法全面解读其听力损失类型、听力损失程度、该年龄段相同性别所处的听力水平等的技术问题。
为实现上述目的及其他相关目的,本申请提供一种纯音听力图的自动识别与判断方法,所述方法包括:获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图;输入所述标注听力图至Faster-RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置;通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。
于本申请的一实施例中,所述听力数据包括:纯音听力图中符号的类别、纯音的频率值、表征听力级的分贝值、以及听力损失类型、听力损失程度中任意一种或多种组合;其中,所述符号的类别包括:掩蔽或未掩蔽时的左耳气导、掩蔽或未掩蔽时的右耳气导、掩蔽或未掩蔽时的左耳骨导、掩蔽或未掩蔽时的右耳骨导中任意一种或多种组合。
于本申请的一实施例中,所述对纯音听力图中的符号标注相应类别和位置,包括:将获取到的所述纯音听力图采用固定格式分别截取左耳听力图、右耳听力图;通过利用图像标注工具分别对所述纯音听力图中的符号的类别和位置进行标注,以得到标注数据。
于本申请的一实施例中,所述输入所述标注听力图至Faster-RCNN进行训练,包括:将标注数据拆分为训练集和验证集;将训练集输入到Faster-RCNN中进行训练,并分别识别左耳听力图、右耳听力图;利用验证集对所述Faster-RCNN进行验证,当交并比超过预设的判别标准时,得到纯音听力图自动识别模型。
于本申请的一实施例中,所述通过纯音听力图自动识别模型得到所述待判断的纯音听力图中各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,包括:采用固定格式将待判断的纯音听力图分别截取待判断的左耳听力图、待判断的右耳听力图;利用纯音听力图自动识别模型对待判断的左耳听力图、待判断的右耳听力图进行自动识别,以得到分别对应待判断的左耳听力图、待判断的右耳听力图中各符号的类别和位置;根据所述符号在矩阵坐标中的横、纵坐标的位置反推对应的频率值和分贝值;逐行存储待判断的左耳听力图、待判断的右耳听力图中所有符号的类别、频率值及分贝值,以生成两份文本信息。
于本申请的一实施例中,所述根据所述符号在矩阵坐标中的横、纵坐标的位置反推对应的频率值和分贝值,包括:根据所述符号的横坐标位于所述待判断的纯音听力图的横轴的对应刻度范围内,得到对应的频率值;计算所述符号的纵坐标与所述待判断的纯音听力图的纵轴的比例,且等比例放缩以得到对应的分贝值。
于本申请的一实施例中,所述结合各符号的类别生成听力图识别报告,包括:根据所述两份文本信息,以分析得到不同频率下分别对应的左耳的听力损失程度、右耳的听力损失程度;分别计算左耳气导、左耳骨导和右耳气导、右耳骨导的听阈平均值,以分析得到对应的左耳、右耳的听力损失类型和听力损失程度;根据所述两份文本信息中的数据以得到待测者在相同年龄、性别人群中的听力水平。
于本申请的一实施例中,所述分别计算左耳气导、左耳骨导和右耳气导、右耳骨导的听阈平均值,以分析得到对应的左耳、右耳的听力损失类型,包括:计算气导在第一预设频率下的气导听阈平均值;计算骨导在第二预设频率下的骨导听阈平均值;当气导听阈平均值小于预设值时,判断为正常听力;当气导听阈平均值-骨导听阈平均值之差大于等于预设差值,且骨导听阈平均值小于所述预设值时,判断为存在传导性听力损失;当气导听阈平均值-骨导听阈平均值之差小于所述预设差值,且气导听阈平均值大于等于所述预设值时,判断为感音神经性听力损失;当气导听阈平均值-骨导听阈平均值之差大于等于所述预设差值,且骨导听阈平均值大于等于所述预设值时,判断为混合性听力损失。
为实现上述目的及其他相关目的,本申请提供一种纯音听力图的自动识别与判断装置,包括:获取模块,用于获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图;训练模块,用于输入所述标注听力图至Faster-RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置;处理模块,用于通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。
为实现上述目的及其他相关目的,本申请提供一种计算机设备,包括:存储器和处理器;所述存储器用于存储计算机程序;所述处理器用于执行所述存储器存储的计算机程序,以使所述设备执行如上所述的方法。
综上所述,本申请提供的一种纯音听力图的自动识别与判断方法、装置及设备,具有以下有益效果:本申请基于深度学习技术,采用Faster-Rcnn模型,在国际上首次实现了对听力图的自动识别并能够全面解读其听力损失类型、程度、该年龄段相同性别所处的听力水平等。既满足临床诊断和干预指导需求,又可用于科学研究。具体还表现为以下方面:
1)本申请采用深度学习方法直接对听力图进行识别并判断结果,无需人工计算听力损失程度等,简化了诊断流程,提高了临床诊断听力损失的效率。
2)本申请根据听力图信息全面解读个体听力水平,结果一目了然,患者可以更加方便全面地了解其听力状况,减轻了临床医师的压力。
3)本申请对标准听力图识别的准确性高,几乎达到听力学专家水平,使得听力学专家匮乏的基层地区患者也能享受专业的听力诊断资源。
4)本申请将听力图信息数字化,方便留取患者资料及统计分析,提高了临床科研效率。
附图说明
图1显示为本申请于一实施例中的一种纯音听力图的自动识别与判断方法的流程示意图。
图2A显示为本申请于一实施例中获取到的纯音听力图的示意图。
图2B显示为本申请于一实施例中将获取到的纯音听力图采用固定格式分别截取左耳听力图、右耳听力图的示意图。
图3显示为本申请于一实施例中利用图像标注工具得到的标注听力图的示意图。
图4显示为本申请于一实施例中通过纯音听力图自动识别模型进行自动识别的示意图。
图5显示为本申请于一实施例中最终得到的听力图识别报告的示意图。
图6显示为本申请于一实施例中的一种纯音听力图的自动识别与判断装置的模块示意图。
图7显示为本申请于一实施例中的计算机设备的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,在下述描述中,参考附图,附图描述了本申请的若干实施例。应当理解,还可使用其他实施例,并且可以在不背离本申请的精神和范围的情况下进行机械组成、结构、电气以及操作上的改变。下面的详细描述不应该被认为是限制性的,并且本申请的实施例的范围仅由公布的专利的权利要求书所限定。这里使用的术语仅是为了描述特定实施例,而并非旨在限制本申请。空间相关的术语,例如“上”、“下”、“左”、“右”、“下面”、“下方”、“下部”、“上方”、“上部”等,可在文中使用以便于说明图中所示的一个元件或特征与另一元件或特征的关系。
在通篇说明书中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”、“固持”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。应当进一步理解,术语“包含”、“包括”表明存在所述的特征、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和 C;B和C;A、B和C”。仅当元件、功能或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
为了使本发明的目的、技术方案及优点更加清楚明白,通过下述实施例并结合附图,对本发明实施例中的技术方案的进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定发明。
如图1所示,展示为本申请于一实施例中的一种纯音听力图的自动识别与判断方法的流程示意图,所述方法包括以下步骤:
步骤S1:获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图。
于本申请一实施例中,收集2000例或更多的来自2016至2020年间在临床听力中心就诊的18-80岁年龄段男性和女性受诊者的纯音听力图(如图2A所示)及相应的听力数值,所述听力数值包括但不限于左耳气导听阈、右耳气导听阈、左耳骨导听阈、右耳骨导听阈。经过 2名或以上的专业听力师对其进行判断,以得到对应的判断结果,所述判断结果包括听力损失类型、听力损失程度分级、听力水平等。
需说明的是,所述听力损失程度分级采用2021年世界卫生组织WHO发布的最新标准,所述听力损失程度包括:正常听力、轻度听力损失、中度听力损失、中重度听力损失、重度听力损失、极重度听力损失、完全听力损失(全聋)中任意一种或多种组合。所述听力损失类型包括:正常听力、传导性听力损失、感音神经性听力损失、混合性听力损失中任意一种或多种组合。所述听力水平是指受诊者在相同年龄、性别人群中所处的听力范围,根据国际标准ISO7029:2017最新版的数据进行判断。
于本申请一实施例中,上述通过纯音听力图获取的听力数值及经过专业听力师得到的判断结果都属于听力数据。所述听力数据包括:纯音听力图中符号的类别、纯音的频率值、表征听力级的分贝值、以及听力损失类型、听力损失程度中任意一种或多种组合。
其中,所述符号的类别包括:掩蔽或未掩蔽时的左耳气导、掩蔽或未掩蔽时的右耳气导、掩蔽或未掩蔽时的左耳骨导、掩蔽或未掩蔽时的右耳骨导中任意一种或多种组合。
需说明的是,所述符号的类别还包括:无反应时分别对应的左耳气导、右耳气导、左耳骨导、右耳骨导,以及在有助听设备下的左耳听阈、右耳听阈等。
例如,叉表示左耳的气导听阈,圈表示右耳气导听阈,开口向左的尖括号表示左耳骨导听阈,开口向右的表示右耳骨导听阈;左耳掩蔽之后的气导听阈用小正方形来表示,右耳用小三角形表示;左耳掩蔽后的骨导听阈用向左的方括号表示,右耳用向右的方括号表示。
于本申请一实施例中,所述对纯音听力图中的符号标注相应类别和位置,包括:将获取到的所述纯音听力图采用固定格式分别截取左耳听力图、右耳听力图;通过利用图像标注工具分别对所述纯音听力图中的符号的类别和位置进行标注,以得到标注数据。
如图2A所示,展示为本申请于一实施例中获取到的纯音听力图的示意图;如图2B所示,展示为本申请于一实施例中将获取到的纯音听力图采用固定格式分别截取左耳听力图、右耳听力图的示意图。图2B中加粗黑框即为通过采用固定格式分别截取得到的左耳听力图、右耳听力图。
需说明的是,由于临床纯音听力图格式是统一固定的,左、右耳的听力图位置也是固定,因此在相应位置截取即可获得左、右耳对应的听力图。
在一些示例中,通过利用图像标注工具分别对所述纯音听力图中的符号的类别和位置进行标注,以得到标注数据和标注听力图。其中,所述标注听力图是利用图像标注工具对获取的所述纯音听力图中的符号的类别进行框选而得到,如图3所示;所述标注数据是通过图像标注工具自动生成的描述信息,包含听力数据、符号的位置等等,以进行深度学习网络的训练。
需说明的是,所述图像标注工具包括:Labelme、Labelimg、yolo_mark、Vatic、Sloth、 Annotorious、RectLabel、VoTT、images_annotation_programme等等。优选的,本申请使用 Labelimg软件对所述纯音听力图中的符号进行框选并标注其类别,因为该软件支持 Windows.exe运行,支持常用快捷键操作,且该软件最后保存的xml文件格式和ImageNet数据集是一样的。
另外,为了提高训练的准确性,实验对左、右耳听力图都标注了超过200张。得到的标注数据和标注听力图越多,最后训练的深度学习模型越准确。
优选的,本申请选用Faster-RCNN作为进行基于深度学习的目标检测神经网络,因为它的流程更加精简、精度更高、速度更快。
步骤S2:输入所述标注听力图至Faster-RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置。
于本申请一实施例中,所述输入所述标注听力图至Faster-RCNN进行训练,包括:将标注数据拆分为训练集和验证集;将训练集输入到Faster-RCNN中进行训练,并分别识别左耳听力图、右耳听力图;利用验证集对所述Faster-RCNN进行验证,当交并比超过预设的判别标准或满足一定条件的数据占比时,得到纯音听力图自动识别模型。
需说明的是,训练集与验证集中的数据样本可以为9:1,也可以为8:2等,所述训练集中的样本数据最好占所有历史健康数据中的七成以上。本申请以标注数据中的90%作为训练集, 10%作为验证集为例进行进行说明。
需说明的是,交并比(Intersection-over-Union,IoU)是目标检测中常用的一个概念,是指用于目标检测的神经网络(例如,本申请选用的Faster-RCNN)产生的候选框(candidate bound)与原标记框(ground truth bound)的交叠率,即它们的交集与并集的比值。最理想情况是完全重叠,即比值为1。本申请预设的判别标准为0.5,即当IoU>0.5时,训练的准确率已经达到97%,即可输出对应纯音听力图自动识别模型。
步骤S3:通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。
于本申请一实施例中,所述通过纯音听力图自动识别模型得到所述待判断的纯音听力图中各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,又具体包括:
1)采用固定格式将待判断的纯音听力图分别截取待判断的左耳听力图、待判断的右耳听力图;
需说明的是,利用纯音听力图自动识别模型对所述待判断的纯音听力图进行识别时,需要先采用相同格式将待判断的纯音听力图(如图2A所示)分别截取待判断的左耳听力图、待判断的右耳听力图(如图2B所示)。
2)利用纯音听力图自动识别模型对待判断的左耳听力图、待判断的右耳听力图进行自动识别,以得到分别对应待判断的左耳听力图、待判断的右耳听力图中各符号的类别和位置;
需说明的是,将待判断的左耳听力图、待判断的右耳听力图输入到纯音听力图自动识别模型中,Faster-RCNN会自动识别图中的符号,以一个矩形框选出每个图中的符号,该矩形框出了对应符号所处的空间位置(如图4所示);同时,Faster-RCNN也给出了矩形对应的左下角和右上角的点坐标以及符号的类别。
3)根据所述符号在矩阵坐标中的横、纵坐标的位置反推对应的频率值和分贝值;
具体地,根据所述符号的横坐标位于所述待判断的纯音听力图的横轴的对应刻度范围内,得到对应的频率值;计算所述符号的纵坐标与所述待判断的纯音听力图的纵轴的比例,且等比例放缩以得到对应的分贝值。
于本申请一实施例中,利用Faster-RCNN给出的矩形对应的左下角和右上角的点坐标,计算中心点坐标以表征该符号在矩阵坐标中的位置,其中符号对应的横坐标为中心坐标的横坐标,符号对应的纵坐标为中心坐标的纵坐标。
需说明的是,纯音听力图的横、纵坐标轴均是固定间隔划分;其中,横轴表示的频率共有7个有效刻度:125、250、500、1k、2k、4k、8k(单位为Hz);纵轴表示听阈分贝,单位是dBHL。
4)逐行存储待判断的左耳听力图、待判断的右耳听力图中所有符号的类别、频率值及分贝值,以生成两份文本信息。
需说明的是,一份待判断的纯音听力图经过采用固定格式分别截取待判断的左耳听力图、待判断的右耳听力图,以及利用纯音听力图自动识别模型进行自动识别后,最终得到两份TXT 文件,分别逐行存有待判断的左耳听力图、待判断的右耳听力图中所有符号的类别,以及对应的频率值、分贝值。
于本申请一实施例中,所述结合各符号的类别生成如图5所示的听力图识别报告,包括:
(1)根据所述两份文本信息,以分析得到不同频率下分别对应的左耳的听力损失程度、右耳的听力损失程度;
需说明的是,世界卫生组织采用500Hz、1kHz、2kHz、4kHz四个频率点听力损失的平均值,作为划分听力下降等级的依据。在2021年《世界听力报告》中,根据500Hz、1kHz、 2kHz和4kHz的平均听力损失将听损程度分成7个等级:平均听力损失<20分贝为正常, 20~34dB为轻度听力下降,35~49dB为中度听力下降,50~64dB为中重度听力下降, 65~79dB为重度听力下降,80~94dB为极重度听力下降,平均听力损失≥95dB为完全听力丧失/全聋。
(2)分别计算左耳气导、左耳骨导和右耳气导、右耳骨导的听阈平均值,以分析得到对应的左耳、右耳的听力损失类型和听力损失程度;具体包括以下步骤:
a、计算气导在第一预设频率下的气导听阈平均值;
例如,计算气导听阈测试(AC)在第一预设频率:500Hz、1kHz、2kHz、4kHz下的气导听阈平均值(AC-PTA)。
b、计算骨导在第二预设频率下的骨导听阈平均值;
例如,计算骨导听阈测试(BC)在第二预设频率:250Hz、500Hz、1kHz、2kHz、4kHz 下的骨导听阈平均值(BC-PTA)。
c、当气导听阈平均值小于预设值时,判断为正常听力;当气导听阈平均值-骨导听阈平均值之差大于等于预设差值,且骨导听阈平均值小于所述预设值时,判断为存在传导性听力损失;当气导听阈平均值-骨导听阈平均值之差小于所述预设差值,且气导听阈平均值大于等于所述预设值时,判断为感音神经性听力损失;当气导听阈平均值-骨导听阈平均值之差大于等于所述预设差值,且骨导听阈平均值大于等于所述预设值时,判断为混合性听力损失。
例如,所述预设值取20,当AC-PTA<20dB时,判断为正常听力;所述预设差值取15,当(AC-PTA)-(BC-PTA)≥15dB,且BC-PTA<20dB时,判断为存在传导性听力损失;当 (AC-PTA)-(BC-PTA)<15dB,且AC-PTA≥20dB时,判断为感音神经性听力损失;当 (AC-PTA)-(BC-PTA)≥15dB,且BC-PTA≥20dB时,判断为混合性听力损失。
需说明的是,针对左耳听力结果、右耳听力结果的计算步骤相同。
(3)根据所述两份文本信息中的数据以得到待测者在相同年龄、性别人群中的听力水平。
需说明的是,根据ISO 7029:2017中该受诊者的性别、年龄给出听力水平参考图,即受诊者在人群中处于由差到好的10%,25%,50%,75%,90%的听力水平范围。
如图6所示,展示为本申请于一实施例中的一种纯音听力图的自动识别与判断装置的模块示意图。所述一种纯音听力图的自动识别与判断装置600包括:
获取模块610,用于获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图;
训练模块620,用于输入所述标注听力图至Faster-RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置;
处理模块630,用于通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。
应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,处理模块630可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上处理模块630的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital signal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统 (system-on-a-chip,简称SOC)的形式实现。
如图7所示,展示为本申请于一实施例中的计算机设备700的结构示意图。所述计算机设备700包括:存储器710和处理器720;所述存储器710用于存储计算机指令;所述处理器720运行计算机指令实现如图1所述的方法。
在一些实施例中,所述计算机设备700中的所述存储器710和所述处理器720的数量均可以是一或多个,而图7中均以一个为例。
于本申请一实施例中,所述计算机设备700中的处理器720会按照如图1所述的步骤,将一个或多个以应用程序的进程对应的指令加载到存储器710中,并由处理器720来运行存储在存储器710中的应用程序,从而实现如图1所述的方法。
所述存储器710可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。所述存储器710存储有操作系统和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。操作系统可包括各种系统程序,用于实现各种基础业务以及处理基于硬件的任务。
所述处理器720可以是通用处理器,包括中央处理器(Central ProcessingUnit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processor,简称DSP)、专用集成电路(ApplicationSpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field Programmable GateArray,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在一些具体的应用中,所述计算机设备700的各个组件通过总线系统耦合在一起,其中总线系统除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清除说明起见,在图7中将各种总线都成为总线系统。
综上所述,本申请提供了一种纯音听力图的自动识别与判断方法,包括:获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图;输入所述标注听力图至Faster-RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置;通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。
本申请提出一种纯音听力图的自动识别与判断方法,并基于深度学习技术,采用Faster- Rcnn模型,实现了对听力图的自动识别并能够全面解读其听力损失类型、程度、该年龄段相同性别所处的听力水平等,简化了诊断流程,提高了临床诊断听力损失的效率。本申请既满足临床诊断和干预指导需求,又可用于科学研究。
本申请有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (10)
1.一种纯音听力图的自动识别与判断方法,其特征在于,所述方法包括:
获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图;
输入所述标注听力图至Faster-RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置;
通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。
2.根据权利要求1所述的一种纯音听力图的自动识别与判断方法,其特征在于,所述听力数据包括:纯音听力图中符号的类别、纯音的频率值、表征听力级的分贝值、以及听力损失类型、听力损失程度中任意一种或多种组合;
其中,所述符号的类别包括:掩蔽或未掩蔽时的左耳气导、掩蔽或未掩蔽时的右耳气导、掩蔽或未掩蔽时的左耳骨导、掩蔽或未掩蔽时的右耳骨导中任意一种或多种组合。
3.根据权利要求1所述的一种纯音听力图的自动识别与判断方法,其特征在于,所述对纯音听力图中的符号标注相应类别和位置,包括:
将获取到的所述纯音听力图采用固定格式分别截取左耳听力图、右耳听力图;
通过利用图像标注工具分别对所述纯音听力图中的符号的类别和位置进行标注,以得到标注数据。
4.根据权利要求3所述的一种纯音听力图的自动识别与判断方法,其特征在于,所述输入所述标注听力图至Faster-RCNN进行训练,包括:
将标注数据拆分为训练集和验证集;
将训练集输入到Faster-RCNN中进行训练,并分别识别左耳听力图、右耳听力图;
利用验证集对所述Faster-RCNN进行验证,当交并比超过预设的判别标准时,得到纯音听力图自动识别模型。
5.根据权利要求2所述的一种纯音听力图的自动识别与判断方法,其特征在于,所述通过纯音听力图自动识别模型得到所述待判断的纯音听力图中各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,包括:
采用固定格式将待判断的纯音听力图分别截取待判断的左耳听力图、待判断的右耳听力图;
利用纯音听力图自动识别模型对待判断的左耳听力图、待判断的右耳听力图进行自动识别,以得到分别对应待判断的左耳听力图、待判断的右耳听力图中各符号的类别和位置;
根据所述符号在矩阵坐标中的横、纵坐标的位置反推对应的频率值和分贝值;
逐行存储待判断的左耳听力图、待判断的右耳听力图中所有符号的类别、频率值及分贝值,以生成两份文本信息。
6.根据权利要求5所述的一种纯音听力图的自动识别与判断方法,其特征在于,所述根据所述符号在矩阵坐标中的横、纵坐标的位置反推对应的频率值和分贝值,包括:
根据所述符号的横坐标位于所述待判断的纯音听力图的横轴的对应刻度范围内,得到对应的频率值;
计算所述符号的纵坐标与所述待判断的纯音听力图的纵轴的比例,且等比例放缩以得到对应的分贝值。
7.根据权利要求5所述的一种纯音听力图的自动识别与判断方法,其特征在于,所述结合各符号的类别生成听力图识别报告,包括:
根据所述两份文本信息,以分析得到不同频率下分别对应的左耳的听力损失程度、右耳的听力损失程度;
分别计算左耳气导、左耳骨导和右耳气导、右耳骨导的听阈平均值,以分析得到对应的左耳、右耳的听力损失类型和听力损失程度;
根据所述两份文本信息中的数据以得到待测者在相同年龄、性别人群中的听力水平。
8.根据权利要求7所述的一种纯音听力图的自动识别与判断方法,其特征在于,所述分别计算左耳气导、左耳骨导和右耳气导、右耳骨导的听阈平均值,以分析得到对应的左耳、右耳的听力损失类型,包括:
计算气导在第一预设频率下的气导听阈平均值;
计算骨导在第二预设频率下的骨导听阈平均值;
当气导听阈平均值小于预设值时,判断为正常听力;
当气导听阈平均值-骨导听阈平均值之差大于等于预设差值,且骨导听阈平均值小于所述预设值时,判断为存在传导性听力损失;
当气导听阈平均值-骨导听阈平均值之差小于所述预设差值,且气导听阈平均值大于等于所述预设值时,判断为感音神经性听力损失;
当气导听阈平均值-骨导听阈平均值之差大于等于所述预设差值,且骨导听阈平均值大于等于所述预设值时,判断为混合性听力损失。
9.一种纯音听力图的自动识别与判断装置,其特征在于,包括:
获取模块,用于获取纯音听力图及相应的听力数据,并对纯音听力图中的符号标注相应类别和位置,以得到标注听力图;
训练模块,用于输入所述标注听力图至Faster-RCNN进行训练,以供识别待判断的纯音听力图中各符号的类别和位置;
处理模块,用于通过纯音听力图自动识别模型得到待判断的纯音听力图中的各符号的类别和位置,根据各符号的位置反推出相应的分贝值和频率值,并结合各符号的类别生成听力图识别报告。
10.一种计算机设备,其特征在于,所述设备包括:存储器和处理器;
所述存储器用于存储计算机程序;所述处理器用于执行所述存储器存储的计算机程序,以使所述设备执行如权利要求1至8中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210201185.7A CN115223704A (zh) | 2022-03-03 | 2022-03-03 | 一种纯音听力图的自动识别与判断方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210201185.7A CN115223704A (zh) | 2022-03-03 | 2022-03-03 | 一种纯音听力图的自动识别与判断方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115223704A true CN115223704A (zh) | 2022-10-21 |
Family
ID=83606109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210201185.7A Pending CN115223704A (zh) | 2022-03-03 | 2022-03-03 | 一种纯音听力图的自动识别与判断方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115223704A (zh) |
-
2022
- 2022-03-03 CN CN202210201185.7A patent/CN115223704A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hyde et al. | Audiometric accuracy of the click ABR in infants at risk for hearing loss | |
WO2020103683A1 (zh) | 基于脑功能图谱的猴-人跨物种迁移进行精神疾病的个体化预测方法和系统 | |
WO2018236565A1 (en) | METHOD AND SYSTEM FOR MEDICAL IMAGING WITH DYNAMIC SELF-LEARNING | |
CN109859168A (zh) | 一种x射线胸片图像质量确定方法及装置 | |
CN110796661B (zh) | 基于卷积神经网络的真菌显微图像分割检测方法及系统 | |
CN111584065B (zh) | 噪声性听力损失预测及易感人群筛选方法、装置、终端和介质 | |
CN110246135B (zh) | 卵泡监测方法、装置、系统及存储介质 | |
Flamme et al. | Short-term variability of pure-tone thresholds obtained with TDH-39P earphones | |
CN117727468B (zh) | 一种基于云边协同的健康筛查智能分诊系统 | |
CN115223704A (zh) | 一种纯音听力图的自动识别与判断方法、装置及设备 | |
CN113688942A (zh) | 基于深度学习的头侧片腺样体图像自动评估方法和装置 | |
WO2023198224A1 (zh) | 一种精神障碍类磁共振图像初步筛查模型构建方法 | |
Charih et al. | Mining audiograms to improve the interpretability of automated audiometry measurements | |
CN104794706A (zh) | 一种超声图像心肌检测和特征测量方法 | |
CN116936082A (zh) | 一种躯体健康风险的量化评估方法、系统和装置 | |
CN113596692A (zh) | 助听器装配系统和装配助听系统的方法 | |
Larsen et al. | Accelerating psychometric screening tests with Bayesian active differential selection | |
Kauppi et al. | A framework for constructing benchmark databases and protocols for retinopathy in medical image analysis | |
Mirarchi et al. | Data mining techniques for vestibular data classification | |
Duggan et al. | Gamified Crowdsourcing as a Novel Approach to Lung Ultrasound Dataset Labeling | |
KR102564571B1 (ko) | 기계 학습에 기초한 순음청력검사의 자동화 결과 판독 장치 및 방법 | |
TWI768483B (zh) | 用於識別腦白質高信號之方法及裝置 | |
JP2022131264A (ja) | 識別システム、識別方法、コンピュータプログラム及び学習済みモデルの生成方法 | |
Buendía-García et al. | A Computer-based framework to process audiometric signals using the tomatis listening test system | |
Costa et al. | Classification of patients with diabetes by analyzing the patterns of proteins present in saliva using machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |