CN114782407A - 基于卷积神经网络的胎儿超声关键切面识别方法及装置 - Google Patents
基于卷积神经网络的胎儿超声关键切面识别方法及装置 Download PDFInfo
- Publication number
- CN114782407A CN114782407A CN202210561638.7A CN202210561638A CN114782407A CN 114782407 A CN114782407 A CN 114782407A CN 202210561638 A CN202210561638 A CN 202210561638A CN 114782407 A CN114782407 A CN 114782407A
- Authority
- CN
- China
- Prior art keywords
- image data
- training
- neural network
- ultrasonic image
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 78
- 230000001605 fetal effect Effects 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 121
- 238000003062 neural network model Methods 0.000 claims abstract description 20
- 210000003754 fetus Anatomy 0.000 claims abstract description 14
- 238000002604 ultrasonography Methods 0.000 claims description 117
- 230000006870 function Effects 0.000 claims description 63
- 238000013145 classification model Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 15
- 201000010099 disease Diseases 0.000 claims description 12
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000011478 gradient descent method Methods 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 3
- 238000003745 diagnosis Methods 0.000 abstract description 11
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 238000007689 inspection Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 12
- 230000009466 transformation Effects 0.000 description 12
- 230000006872 improvement Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000000354 decomposition reaction Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 4
- 230000002349 favourable effect Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001225 therapeutic effect Effects 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30044—Fetus; Embryo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Public Health (AREA)
- Computational Linguistics (AREA)
- Epidemiology (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Primary Health Care (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Quality & Reliability (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
本发明公开了一种基于卷积神经网络的胎儿超声关键切面识别方法及装置,其中该方法包括:获取包括有胎儿结构切面影像的原始超声图像数据;根据所述原始超声图像数据,确定目标超声图像数据;将所述目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果;所述分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。可见,本发明基于训练好的神经网络模型对超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。
Description
技术领域
本发明涉及医疗影像处理技术领域,尤其涉及一种基于卷积神经网络的胎儿超声关键切面识别方法及装置。
背景技术
随着医疗影像技术的发展,现有的医疗领域在结合生物结构切面信息进行诊断治疗时,开始越来越多地将医疗影像尤其是超声图像引入到诊断治疗过程中,随之而来的,对于超声图像中生物结构切面的类型识别的效率要求也越来越重。现有技术中一般通过医师的肉眼识别生物结构切面的类型,没有考虑到引入神经网络技术对超声图像数据中的生物结构切面的类型实现自动识别,因此现有技术的识别效率低,容易误诊、漏诊。可见,现有技术存在缺陷,亟待解决。
发明内容
本发明所要解决的技术问题在于,提供一种基于卷积神经网络的胎儿超声关键切面识别方法及装置,可以基于训练好的神经网络模型对超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。
为了解决上述技术问题,本发明第一方面公开了一种基于卷积神经网络的胎儿超声关键切面识别方法,所述方法包括:
获取包括有胎儿结构切面影像的原始超声图像数据;
根据所述原始超声图像数据,确定目标超声图像数据;
将所述目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果;所述分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。
作为一种可选的实施方式,在本发明第一方面中,所述根据所述原始超声图像数据,确定目标超声图像数据,包括:
确定所述原始超声图像数据中的敏感信息;
去除所述敏感信息,得到目标超声图像数据。
作为一种可选的实施方式,在本发明第一方面中,所述确定出所述原始超声图像数据中的敏感信息,包括:
确定所述原始超声图像数据的拍摄目的;
根据所述拍摄目的,确定出所述原始超声图像数据中与所述拍摄目的无关的无关数据;
将所述无关数据确定为所述原始超声图像数据中的敏感信息;
和/或,
确定出所述原始超声图像数据中的隐私数据;所述隐私数据包括隐私疾病信息、隐私部位信息和病患个人信息中的至少一种;
将所述隐私数据确定为所述原始超声图像数据中的敏感信息。
作为一种可选的实施方式,在本发明第一方面中,所述分类卷积神经网络模型为在深度学习框架Pytorch下进行开发与测试的卷积神经网络分类模型。
作为一种可选的实施方式,在本发明第一方面中,所述分类卷积神经网络模型,根据以下步骤被训练得到包括:
确定包括有多个标注有切面类型的训练超声图像数据的训练数据集和训练分类模型;所述训练分类模型包括所述分类卷积神经网络模型和损失函数计算层;
将所述训练数据集中的所述训练超声图像数据和所述切面类型的标注以成对标签的形式输入至所述训练分类模型进行训练,并在训练过程中使用随机梯度下降法使得所述损失函数层计算出的损失函数值不断下降,优化所述训练网络模型直至收敛,以得到训练好的所述分类卷积神经网络模型。
作为一种可选的实施方式,在本发明第一方面中,所述损失函数计算层的损失函数为交叉熵代价函数。
作为一种可选的实施方式,在本发明第一方面中,所述在训练过程中使用随机梯度下降法使得所述损失函数层计算出的损失函数值不断下降,优化所述训练网络模型直至收敛,包括:
使用随机梯度下降算法优化所述训练网络模型的模型参数,总计迭代1000轮,初始学习率为0.002,每500轮下降一次学习率,以使所述损失函数层计算出的损失函数值不断下降以使得所述训练网络模型达到最优。
本发明第二方面公开了一种基于卷积神经网络的胎儿超声关键切面识别装置,其包括:
获取模块,用于获取包括有胎儿结构切面影像的原始超声图像数据;
确定模块,用于根据所述原始超声图像数据,确定目标超声图像数据;
识别模块,用于将所述目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果;所述分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。
作为一种可选的实施方式,在本发明第二方面中,所述确定模块根据所述原始超声图像数据,确定目标超声图像数据的具体方式,包括:
确定所述原始超声图像数据中的敏感信息;
去除所述敏感信息,得到目标超声图像数据。
作为一种可选的实施方式,在本发明第二方面中,所述确定模块确定出所述原始超声图像数据中的敏感信息的具体方式,包括:
确定所述原始超声图像数据的拍摄目的;
根据所述拍摄目的,确定出所述原始超声图像数据中与所述拍摄目的无关的无关数据;
将所述无关数据确定为所述原始超声图像数据中的敏感信息;
和/或,
确定出所述原始超声图像数据中的隐私数据;所述隐私数据包括隐私疾病信息、隐私部位信息和病患个人信息中的至少一种;
将所述隐私数据确定为所述原始超声图像数据中的敏感信息。
作为一种可选的实施方式,在本发明第二方面中,所述分类卷积神经网络模型为在深度学习框架Pytorch下进行开发与测试的卷积神经网络分类模型。
作为一种可选的实施方式,在本发明第二方面中,所述装置还包括:训练模块,用于执行以下步骤训练得到所述分类卷积神经网络模型:
确定包括有多个标注有切面类型的训练超声图像数据的训练数据集和训练分类模型;所述训练分类模型包括所述分类卷积神经网络模型和损失函数计算层;
将所述训练数据集中的所述训练超声图像数据和所述切面类型的标注以成对标签的形式输入至所述训练分类模型进行训练,并在训练过程中使用随机梯度下降法使得所述损失函数层计算出的损失函数值不断下降,优化所述训练网络模型直至收敛,以得到训练好的所述分类卷积神经网络模型。
作为一种可选的实施方式,在本发明第二方面中,所述损失函数计算层的损失函数为交叉熵代价函数。
作为一种可选的实施方式,在本发明第二方面中,所述训练模块在训练过程中使用随机梯度下降法使得所述损失函数层计算出的损失函数值不断下降,优化所述训练网络模型直至收敛的具体方式,包括:
使用随机梯度下降算法优化所述训练网络模型的模型参数,总计迭代1000轮,初始学习率为0.002,每500轮下降一次学习率,以使所述损失函数层计算出的损失函数值不断下降以使得所述训练网络模型达到最优。
本发明第三方面公开了另一种基于卷积神经网络的胎儿超声关键切面识别装置,所述装置包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本发明实施例第一方面公开的基于卷积神经网络的胎儿超声关键切面识别方法中的部分或全部步骤。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,获取包括有胎儿结构切面影像的原始超声图像数据;根据所述原始超声图像数据,确定目标超声图像数据;将所述目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果;所述分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。可见,本发明基于训练好的神经网络模型对超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种基于卷积神经网络的胎儿超声关键切面识别方法的流程示意图;
图2是本发明实施例公开的一种基于卷积神经网络的胎儿超声关键切面识别装置的结构示意图;
图3是本发明实施例公开的另一种基于卷积神经网络的胎儿超声关键切面识别装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、装置、产品或端没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或端固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明公开了一种基于卷积神经网络的胎儿超声关键切面识别方法及装置,能够基于训练好的神经网络模型对超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。以下分别进行详细说明。
实施例一
请参阅图1,图1是本发明实施例公开的一种基于卷积神经网络的胎儿超声关键切面识别方法的流程示意图。其中,图1所描述的方法可以应用于相应的影像处理终端、影像处理设备或影像处理服务器中,且该服务器可以是本地服务器,也可以是云服务器。如图1所示,该基于卷积神经网络的胎儿超声关键切面识别方法可以包括以下操作:
101、获取包括有胎儿结构切面影像的原始超声图像数据。
可选的,本发明所述的超声图像数据可以为动态图像,也可以为静态图像,本发明不做限定。可选的,超声图像数据可以为二维影像数据,不仅可以包括灰阶超声图像,而且还可以包括多普勒图,其可以通过超声图像设备向胎儿内部组织结构的某个部位发射超声波,接收并处理超声回波信号而获得,包括有至少一个胎儿结构切面影像。
102、根据原始超声图像数据,确定目标超声图像数据。
可选的,目标超声图像数据可通过数据扩充的方法得到,具体为对原始图像进行放大、平移、旋转和对比度增强操作。其中超声图像的放大操作应该在适当的范围内进行,防止图像放大太多,从而丢失有效的超声图像区域;而平移操作也应注意平移的大小,防止有效区域的丢失;旋转操作主要是沿垂直轴的镜像旋转、旋转90°和180°,通过各种方法将图像的灰度范围拉宽,从而对超声图像进行对比度增强操作。利用上述方法对超声图像进行数据扩充,可以丰富超声图像数据特征的多样性,提高算法的普适性和稳定性。
103、将目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果。
可选的,分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。可选的,训练超声图像数据的标注可以由操作人员如富有经验的医师来完成。可选的,分类卷积神经网络模型为卷积神经网络分类模型,在深度学习框架Pytorch下进行开发与测试。具体的,分类卷积神经网络模型可以基于深度卷积神经网络VGGNet进行搭建,其提出了用基础块代替网络层的思想,在更好地保持图像性质的同时,增加网络深度来保证学习更复杂的模式以提升图像分类与识别的精度和准确率。
可见,实施本发明实施例所描述的方法能够基于训练好的神经网络模型对超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。
作为一种可选的实施方式,上述步骤102中的,根据原始超声图像数据,确定目标超声图像数据,包括:
确定原始超声图像数据中的敏感信息;
去除敏感信息,得到目标超声图像数据。
可选的,对敏感信息进行去除的方式,可以为用设置的固定值替换真值,或是通过对数据值的截断、加密、隐藏等方式使敏感信息脱敏,使其不再具有利用价值,或是用随机数据代替真值,保持替换值的随机性以模拟样本的真实性。
可见,通过该可选的实施方式,可以对原始超声图像数据中的敏感信息进行去除,以得到包括有目标生物结构切面的超声图像数据,从而能够更精确地计算得到目标超声图像数据,减少病患隐私泄露的风险,提高用于后续处理的图像数据的质量,有利于分类卷积神经网络模型实现更好的切面类型识别效果。
作为一种可选的实施方式,上述步骤中的,确定出原始超声图像数据中的敏感信息,包括:
确定原始超声图像数据的拍摄目的;
根据拍摄目的,确定出原始超声图像数据中与拍摄目的无关的无关数据;
将无关数据确定为原始超声图像数据中的敏感信息。
可选的,可以通过检索原始超声图像数据对应的医疗档案,来确定拍摄目的。可选的,拍摄目的可以为治疗目的、诊断目的、研究目的或针对特定病症的诊断目的。
可选的,原始超声图像数据中与拍摄目的无关的无关数据,可以通过算法模型来判断,或是由操作人员来判断。可选的,可以通过包括有多个标注有无关数据的超声图像数据的训练数据集,训练一个分类网络模型,来进行无关数据的判断。
可见,通过该可选的实施方式,可以根据拍摄目的,确定出原始医疗影像数据中与拍摄目的无关的敏感信息,以便于后续对敏感信息进行去除,从而能够更精确地计算得到目标超声图像数据,减少病患隐私泄露的风险,提高用于后续处理的图像数据的质量,有利于分类卷积神经网络模型实现更好的切面类型识别效果。
作为一种可选的实施方式,上述步骤中的,确定出原始超声图像数据中的敏感信息,包括:
确定出原始超声图像数据中的隐私数据;
将隐私数据确定为原始超声图像数据中的敏感信息。
可选的,隐私数据包括隐私疾病信息、隐私部位信息和病患个人信息中的至少一种。可选的,隐私疾病信息和病患个人信息可以通过数据的标签或数据的文本内容来判断,例如:人工建立一个包括有隐私疾病信息或病患个人信息的关键词的小型集合,再对历史超声图像数据中的文本数据进行分词预处理得到多个词语数据,分别计算每一词语数据与小型集合中的关键词之间的欧氏距离,通过设置欧氏距离阈值,将欧氏距离小于阈值的词语数据确定为关键词,加进小型集合形成隐私信息词库。进一步地,可以基于隐私信息词库对原始超声图像数据中的隐私疾病信息和病患个人信息进行识别、确定。例如在后续,可以将原始超声图像数据中的文本数据进行分词处理后得到多个词语数据,并计算每一词语数据与隐私信息词库的所有关键词的相似度,当任一词语数据与任一关键词的相似度超过预设的相似度阈值时,确定该词语数据为隐私疾病信息或病患个人信息,以在后续对其进行清除。
可选的,隐私部位信息可以用于指代原始超声图像数据中属于隐私部位的影像数据,其确定方式可以通过训练好的用于隐私部位识别的图像识别算法模型,例如:获取不同隐私部位的不同角度的切面图像形成预存储图像数据库,将原始超声图像数据输入图像识别模型,以计算原始超声图像数据中的全部或任意部分数据与预存储图像数据库中各个切面图像数据之间的相似度,并根据相似度判断出该原始超声图像数据中属于隐私部位信息的数据,例如当原始超声图像数据的某部分数据与预存储图像数据库中任一切面图像数据之间的相似度超过预设阈值时,判断该部分数据属于隐私部位信息。
可见,通过该可选的实施方式,可以将隐私数据确定为原始超声图像数据中的敏感信息,以便于后续对敏感信息进行去除,从而能够更精确地计算得到目标超声图像数据,减少病患隐私泄露的风险,提高用于后续处理的图像数据的质量,有利于分类卷积神经网络模型实现更好的切面类型识别效果。
作为一种可选的实施方式,分类卷积神经网络模型根据以下步骤被训练得到:
确定包括有多个标注有切面类型的训练超声图像数据的训练数据集和训练分类模型;训练分类模型包括分类卷积神经网络模型和损失函数计算层;
将训练数据集中的训练超声图像数据和切面类型的标注以成对标签的形式输入至训练分类模型进行训练,并在训练过程中使用随机梯度下降法使得损失函数层计算出的损失函数值不断下降,优化训练网络模型直至收敛,以得到训练好的分类卷积神经网络模型。
可选的,损失函数计算层的损失函数为交叉熵代价函数,以衡量训练超声图像数据的切面类型标注的分布和训练网络模型输出的切面类型预测结果的分布之间的相似性。
可见,通过该可选的实施方式,可以将训练数据集中的训练超声图像数据和切面类型的标注以成对标签的形式输入至训练分类模型,并进行训练优化直至收敛,从而精确地训练得到分类卷积神经网络模型,更准确高效地对超声图像数据中的切面信息进行分类。
作为一种可选的实施方式,上述步骤中的,在训练过程中使用随机梯度下降法使得损失函数层计算出的损失函数值不断下降,优化训练网络模型直至收敛,包括:
使用随机梯度下降算法优化训练网络模型的模型参数,总计迭代1000轮,初始学习率为0.002,每500轮下降一次学习率,以使损失函数层计算出的损失函数值不断下降以使得训练网络模型达到最优。
可见,通过该可选的实施方式,可以对训练分类模型进行充分的优化直至收敛,从而更精确地训练得到分类卷积神经网络模型,更准确高效地对超声图像数据中的切面信息进行分类。
作为一种可选的实施方式,在上述步骤103中的,将目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果,包括:
将目标超声图像数据,通过不同变换方式得到多个变换图像数据;
将多个变换图像数据分别输入至训练好的分类卷积神经网络模型,得到多个切面类型分类结果;
根据多个切面类型分类结果,确定最终的目标超声图像数据的切面类型分类结果。
可选的,对目标超声图像数据的变换,应当是在保留目标超声图像数据的原有尺寸下的变换,以防止变换后的图像数据缺失太多的原有细节,可选的,该变换可以是将目标超声图像进行降噪平滑处理,再基于小波阈值去噪方法,通过预设分解层数和小波基函数对处理后的图像对应的信号进行小波分解、量化分解层系数、小波逆换等操作得到变换图像数据,该变换方式可以有效抑制斑点噪声,增强图像数据以更准确地提取超声图像数据的特征。
可选的,对目标超声图像数据的变换,还可以是计算目标超声图像的灰度直方图并进行裁剪得到新的灰度直方图,再通过灰度累计频率和灰度映射函数将新的灰度直方图中每一个灰度级映射到新的灰度级得到变换图像数据。
可选的,对于多个变换图像数据的多个切面类型分类结果,可以为每个变换图像数据赋予相应的权重百分比,将多个切面类型分类结果根据其各自对应的变换图像数据的权重百分比进行加权求和以确定最终的目标超声图像数据的切面类型分类结果。一般来讲,所有变换图像数据的权重百分比的总和应当为1。例如,分类卷积神经网络模型可以为每一变换图像数据输出一个预测切面类型和对应的预测分数,则可以将所有变换图像数据对应的预测分数进行加权计算,再对不同预测切面类型对应的所有加权后的预测分数进行相加,最终将相加预测分数最高的切面类型,确定为最终的目标超声图像数据的切面类型分类结果。具体地,每个变换图像数据的权重百分比,可以与该变换图像数据与目标超声图像数据的相似度成正比,可以计算每一变换图像数据与目标超声图像数据的相似度后确定该权重百分比。
可见,通过该可选的实施方式,能够基于训练好的神经网络模型对目标超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。
实施例二
请参阅图2,图2是本发明实施例公开的一种基于卷积神经网络的胎儿超声关键切面识别装置的结构示意图。其中,图2所描述的装置可以应用于相应的影像处理终端、影像处理设备或影像处理服务器,且该服务器可以是本地服务器,也可以是云服务器,本发明实施例不做限定。如图2所示,该装置可以包括:
获取模块201,用于获取包括有胎儿结构切面影像的原始超声图像数据。
可选的,本发明所述的超声图像数据可以为动态图像,也可以为静态图像,本发明不做限定。可选的,超声图像数据可以为二维影像数据,不仅可以包括灰阶超声图像,而且还可以包括多普勒图,其可以通过超声图像设备向胎儿内部组织结构的某个部位发射超声波,接收并处理超声回波信号而获得,包括有至少一个胎儿结构切面影像。
确定模块202,用于根据原始超声图像数据,确定目标超声图像数据。
可选的,目标超声图像数据可通过数据扩充的方法得到,具体为对原始图像进行放大、平移、旋转和对比度增强操作。其中超声图像的放大操作应该在适当的范围内进行,防止图像放大太多,从而丢失有效的超声图像区域;而平移操作也应注意平移的大小,防止有效区域的丢失;旋转操作主要是沿垂直轴的镜像旋转、旋转90°和180°,通过各种方法将图像的灰度范围拉宽,从而对超声图像进行对比度增强操作。利用上述方法对超声图像进行数据扩充,可以丰富超声图像数据特征的多样性,提高算法的普适性和稳定性。
识别模块203,用于将目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果。
可选的,分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。可选的,训练超声图像数据的标注可以由操作人员如富有经验的医师来完成。可选的,分类卷积神经网络模型为卷积神经网络分类模型,在深度学习框架Pytorch下进行开发与测试。具体的,分类卷积神经网络模型可以基于深度卷积神经网络VGGNet进行搭建,其提出了用基础块代替网络层的思想,在更好地保持图像性质的同时,增加网络深度来保证学习更复杂的模式以提升图像分类与识别的精度和准确率。
可见,实施本发明实施例所描述的装置能够基于训练好的神经网络模型对超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。
作为一种可选的实施方式,确定模块202根据原始超声图像数据,确定目标超声图像数据的具体方式,包括:
确定原始超声图像数据中的敏感信息;
去除敏感信息,得到目标超声图像数据。
可选的,对敏感信息进行去除的方式,可以为用设置的固定值替换真值,或是通过对数据值的截断、加密、隐藏等方式使敏感信息脱敏,使其不再具有利用价值,或是用随机数据代替真值,保持替换值的随机性以模拟样本的真实性。
可见,通过该可选的实施方式,可以对原始超声图像数据中的敏感信息进行去除,以得到包括有目标生物结构切面的超声图像数据,从而能够更精确地计算得到目标超声图像数据,减少病患隐私泄露的风险,提高用于后续处理的图像数据的质量,有利于分类卷积神经网络模型实现更好的切面类型识别效果。
作为一种可选的实施方式,确定模块202确定出原始超声图像数据中的敏感信息的具体方式,包括:
确定原始超声图像数据的拍摄目的;
根据拍摄目的,确定出原始超声图像数据中与拍摄目的无关的无关数据;
将无关数据确定为原始超声图像数据中的敏感信息。
可选的,可以通过检索原始超声图像数据对应的医疗档案,来确定拍摄目的。可选的,拍摄目的可以为治疗目的、诊断目的、研究目的或针对特定病症的诊断目的。
可选的,原始超声图像数据中与拍摄目的无关的无关数据,可以通过算法模型来判断,或是由操作人员来判断。可选的,可以通过包括有多个标注有无关数据的超声图像数据的训练数据集,训练一个分类网络模型,来进行无关数据的判断。
可见,通过该可选的实施方式,可以根据拍摄目的,确定出原始医疗影像数据中与拍摄目的无关的敏感信息,以便于后续对敏感信息进行去除,从而能够更精确地计算得到目标超声图像数据,减少病患隐私泄露的风险,提高用于后续处理的图像数据的质量,有利于分类卷积神经网络模型实现更好的切面类型识别效果。
作为一种可选的实施方式,确定模块202确定出原始超声图像数据中的敏感信息的具体方式,包括:
确定出原始超声图像数据中的隐私数据;
将隐私数据确定为原始超声图像数据中的敏感信息。
可选的,隐私数据包括隐私疾病信息、隐私部位信息和病患个人信息中的至少一种。可选的,隐私疾病信息和病患个人信息可以通过数据的标签或数据的文本内容来判断,例如:人工建立一个包括有隐私疾病信息或病患个人信息的关键词的小型集合,再对历史超声图像数据中的文本数据进行分词预处理得到多个词语数据,分别计算每一词语数据与小型集合中的关键词之间的欧氏距离,通过设置欧氏距离阈值,将欧氏距离小于阈值的词语数据确定为关键词,加进小型集合形成隐私信息词库。进一步地,可以基于隐私信息词库对原始超声图像数据中的隐私疾病信息和病患个人信息进行识别、确定。例如在后续,可以将原始超声图像数据中的文本数据进行分词处理后得到多个词语数据,并计算每一词语数据与隐私信息词库的所有关键词的相似度,当任一词语数据与任一关键词的相似度超过预设的相似度阈值时,确定该词语数据为隐私疾病信息或病患个人信息,以在后续对其进行清除。
可选的,隐私部位信息可以用于指代原始超声图像数据中属于隐私部位的影像数据,其确定方式可以通过训练好的用于隐私部位识别的图像识别算法模型,例如:获取不同隐私部位的不同角度的切面图像形成预存储图像数据库,将原始超声图像数据输入图像识别模型,以计算原始超声图像数据中的全部或任意部分数据与预存储图像数据库中各个切面图像数据之间的相似度,并根据相似度判断出该原始超声图像数据中属于隐私部位信息的数据,例如当原始超声图像数据的某部分数据与预存储图像数据库中任一切面图像数据之间的相似度超过预设阈值时,判断该部分数据属于隐私部位信息。
可见,通过该可选的实施方式,可以将隐私数据确定为原始超声图像数据中的敏感信息,以便于后续对敏感信息进行去除,从而能够更精确地计算得到目标超声图像数据,减少病患隐私泄露的风险,提高用于后续处理的图像数据的质量,有利于分类卷积神经网络模型实现更好的切面类型识别效果。
作为一种可选的实施方式,该装置还包括:训练模块,用于执行以下步骤训练得到分类卷积神经网络模型:
确定包括有多个标注有切面类型的训练超声图像数据的训练数据集和训练分类模型;训练分类模型包括分类卷积神经网络模型和损失函数计算层;
将训练数据集中的训练超声图像数据和切面类型的标注以成对标签的形式输入至训练分类模型进行训练,并在训练过程中使用随机梯度下降法使得损失函数层计算出的损失函数值不断下降,优化训练网络模型直至收敛,以得到训练好的分类卷积神经网络模型。
可选的,损失函数计算层的损失函数为交叉熵代价函数,以衡量训练超声图像数据的切面类型标注的分布和训练网络模型输出的切面类型预测结果的分布之间的相似性。
可见,通过该可选的实施方式,可以将训练数据集中的训练超声图像数据和切面类型的标注以成对标签的形式输入至训练分类模型,并进行训练优化直至收敛,从而精确地训练得到分类卷积神经网络模型,更准确高效地对超声图像数据中的切面信息进行分类。
作为一种可选的实施方式,训练模块在训练过程中使用随机梯度下降法使得损失函数层计算出的损失函数值不断下降,优化训练网络模型直至收敛的具体方式,包括:
使用随机梯度下降算法优化训练网络模型的模型参数,总计迭代1000轮,初始学习率为0.002,每500轮下降一次学习率,以使损失函数层计算出的损失函数值不断下降以使得训练网络模型达到最优。
可见,通过该可选的实施方式,可以对训练分类模型进行充分的优化直至收敛,从而更精确地训练得到分类卷积神经网络模型,更准确高效地对超声图像数据中的切面信息进行分类。
作为一种可选的实施方式,识别模块203将目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果的具体方式,包括:
将目标超声图像数据,通过不同变换方式得到多个变换图像数据;
将多个变换图像数据分别输入至训练好的分类卷积神经网络模型,得到多个切面类型分类结果;
根据多个切面类型分类结果,确定最终的目标超声图像数据的切面类型分类结果。
可选的,对目标超声图像数据的变换,应当是在保留目标超声图像数据的原有尺寸下的变换,以防止变换后的图像数据缺失太多的原有细节,可选的,该变换可以是将目标超声图像进行降噪平滑处理,再基于小波阈值去噪方法,通过预设分解层数和小波基函数对处理后的图像对应的信号进行小波分解、量化分解层系数、小波逆换等操作得到变换图像数据,该变换方式可以有效抑制斑点噪声,增强图像数据以更准确地提取超声图像数据的特征。
可选的,对目标超声图像数据的变换,还可以是计算目标超声图像的灰度直方图并进行裁剪得到新的灰度直方图,再通过灰度累计频率和灰度映射函数将新的灰度直方图中每一个灰度级映射到新的灰度级得到变换图像数据。
可选的,对于多个变换图像数据的多个切面类型分类结果,可以为每个变换图像数据赋予相应的权重百分比,将多个切面类型分类结果根据其各自对应的变换图像数据的权重百分比进行加权求和以确定最终的目标超声图像数据的切面类型分类结果。一般来讲,所有变换图像数据的权重百分比的总和应当为1。例如,分类卷积神经网络模型可以为每一变换图像数据输出一个预测切面类型和对应的预测分数,则可以将所有变换图像数据对应的预测分数进行加权计算,再对不同预测切面类型对应的所有加权后的预测分数进行相加,最终将相加预测分数最高的切面类型,确定为最终的目标超声图像数据的切面类型分类结果。具体地,每个变换图像数据的权重百分比,可以与该变换图像数据与目标超声图像数据的相似度成正比,可以计算每一变换图像数据与目标超声图像数据的相似度后确定该权重百分比。
可见,通过该可选的实施方式,能够基于训练好的神经网络模型对目标超声图像数据中的切面信息进行准确地分类,有利于帮助医生快速对生物结构切面进行分类判断,提高检查效率,减少误诊漏诊率,同时还能促进医疗资源的有效利用,具有较大的实用价值。
实施例三
请参阅图3,图3是本发明实施例公开的又一种基于卷积神经网络的胎儿超声关键切面识别装置的结构示意图。如图3所示,该装置可以包括:
存储有可执行程序代码的存储器301;
与存储器301耦合的处理器302;
处理器302调用存储器301中存储的可执行程序代码,执行本发明实施例一公开的基于卷积神经网络的胎儿超声关键切面识别方法中的部分或全部步骤。
实施例四
本发明实施例公开了一种计算机存储介质,该计算机存储介质存储有计算机指令,该计算机指令被调用时,用于执行本发明实施例一公开的基于卷积神经网络的胎儿超声关键切面识别方法中的部分或全部步骤。
上述对本说明书特定实施例进行了描述,其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,附图中描绘的过程不一定必须按照示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备、非易失性计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书实施例提供的装置、设备、非易失性计算机可读存储介质与方法是对应的,因此,装置、设备、非易失性计算机存储介质也具有与对应方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置、设备、非易失性计算机存储介质的有益技术效果。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field ProgrammableGateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera HardwareDescriptionLanguage)、Confluence、CUPL(Cornell University ProgrammingLanguage)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带式磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后应说明的是:本发明实施例公开的一种生物结构的超声容积影像定位方法及装置所揭露的仅为本发明较佳实施例而已,仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解;其依然可以对前述各项实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应的技术方案的本质脱离本发明各项实施例技术方案的精神和范围。
Claims (10)
1.一种基于卷积神经网络的胎儿超声关键切面识别方法,其特征在于,所述方法包括:
获取包括有胎儿结构切面影像的原始超声图像数据;
根据所述原始超声图像数据,确定目标超声图像数据;
将所述目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果;所述分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。
2.根据权利要求1所述的基于卷积神经网络的胎儿超声关键切面识别方法,其特征在于,所述根据所述原始超声图像数据,确定目标超声图像数据,包括:
确定所述原始超声图像数据中的敏感信息;
去除所述敏感信息,得到目标超声图像数据。
3.根据权利要求2所述的基于卷积神经网络的胎儿超声关键切面识别方法,其特征在于,所述确定出所述原始超声图像数据中的敏感信息,包括:
确定所述原始超声图像数据的拍摄目的;
根据所述拍摄目的,确定出所述原始超声图像数据中与所述拍摄目的无关的无关数据;
将所述无关数据确定为所述原始超声图像数据中的敏感信息;
和/或,
确定出所述原始超声图像数据中的隐私数据;所述隐私数据包括隐私疾病信息、隐私部位信息和病患个人信息中的至少一种;
将所述隐私数据确定为所述原始超声图像数据中的敏感信息。
4.根据权利要求1所述的基于卷积神经网络的胎儿超声关键切面识别方法,其特征在于,所述分类卷积神经网络模型为在深度学习框架Pytorch下进行开发与测试的卷积神经网络分类模型。
5.根据权利要求1所述的基于卷积神经网络的胎儿超声关键切面识别方法,其特征在于,所述分类卷积神经网络模型,根据以下步骤被训练得到:
确定包括有多个标注有切面类型的训练超声图像数据的训练数据集和训练分类模型;所述训练分类模型包括所述分类卷积神经网络模型和损失函数计算层;
将所述训练数据集中的所述训练超声图像数据和所述切面类型的标注以成对标签的形式输入至所述训练分类模型进行训练,并在训练过程中使用随机梯度下降法使得所述损失函数层计算出的损失函数值不断下降,优化所述训练网络模型直至收敛,以得到训练好的所述分类卷积神经网络模型。
6.根据权利要求5所述的基于卷积神经网络的胎儿超声关键切面识别方法,其特征在于,所述损失函数计算层的损失函数为交叉熵代价函数。
7.根据权利要求5所述的基于卷积神经网络的胎儿超声关键切面识别方法,其特征在于,所述在训练过程中使用随机梯度下降法使得所述损失函数层计算出的损失函数值不断下降,优化所述训练网络模型直至收敛,包括:
使用随机梯度下降算法优化所述训练网络模型的模型参数,总计迭代1000轮,初始学习率为0.002,每500轮下降一次学习率,以使所述损失函数层计算出的损失函数值不断下降以使得所述训练网络模型达到最优。
8.一种基于卷积神经网络的胎儿超声关键切面识别装置,其特征在于,所述装置包括:
获取模块,用于获取包括有胎儿结构切面影像的原始超声图像数据;
确定模块,用于根据所述原始超声图像数据,确定目标超声图像数据;
识别模块,用于将所述目标超声图像数据输入训练好的分类卷积神经网络模型,得到切面类型分类结果;所述分类卷积神经网络模型为通过包括有多个标注有切面类型的训练超声图像数据的训练数据集训练得到。
9.一种基于卷积神经网络的胎儿超声关键切面识别装置,其特征在于,所述装置包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行如权利要求1-7任一项所述的基于卷积神经网络的胎儿超声关键切面识别方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机指令,所述计算机指令被调用时,用于执行如权利要求1-7任一项所述的基于卷积神经网络的胎儿超声关键切面识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210561638.7A CN114782407A (zh) | 2022-05-23 | 2022-05-23 | 基于卷积神经网络的胎儿超声关键切面识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210561638.7A CN114782407A (zh) | 2022-05-23 | 2022-05-23 | 基于卷积神经网络的胎儿超声关键切面识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114782407A true CN114782407A (zh) | 2022-07-22 |
Family
ID=82408395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210561638.7A Pending CN114782407A (zh) | 2022-05-23 | 2022-05-23 | 基于卷积神经网络的胎儿超声关键切面识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782407A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110279433A (zh) * | 2018-09-21 | 2019-09-27 | 四川大学华西第二医院 | 一种基于卷积神经网络的胎儿头围自动精确测量方法 |
CN110464380A (zh) * | 2019-09-12 | 2019-11-19 | 李肯立 | 一种对中晚孕期胎儿的超声切面图像进行质量控制的方法 |
CN110555836A (zh) * | 2019-09-05 | 2019-12-10 | 李肯立 | 一种超声图像中胎儿标准切面的自动识别方法和系统 |
CN111481233A (zh) * | 2019-01-28 | 2020-08-04 | 四川大学华西第二医院 | 胎儿颈项透明层厚度测量方法 |
CN112070119A (zh) * | 2020-08-11 | 2020-12-11 | 长沙大端信息科技有限公司 | 超声切面图像质量控制方法、装置和计算机设备 |
CN113487614A (zh) * | 2021-09-08 | 2021-10-08 | 四川大学 | 胎儿超声标准切面图像识别网络模型的训练方法和装置 |
CN114972241A (zh) * | 2022-05-23 | 2022-08-30 | 中山大学附属第一医院 | 基于残差神经网络胎儿超声切面量化质控考核方法及装置 |
-
2022
- 2022-05-23 CN CN202210561638.7A patent/CN114782407A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110279433A (zh) * | 2018-09-21 | 2019-09-27 | 四川大学华西第二医院 | 一种基于卷积神经网络的胎儿头围自动精确测量方法 |
CN111481233A (zh) * | 2019-01-28 | 2020-08-04 | 四川大学华西第二医院 | 胎儿颈项透明层厚度测量方法 |
CN110555836A (zh) * | 2019-09-05 | 2019-12-10 | 李肯立 | 一种超声图像中胎儿标准切面的自动识别方法和系统 |
CN110464380A (zh) * | 2019-09-12 | 2019-11-19 | 李肯立 | 一种对中晚孕期胎儿的超声切面图像进行质量控制的方法 |
CN112070119A (zh) * | 2020-08-11 | 2020-12-11 | 长沙大端信息科技有限公司 | 超声切面图像质量控制方法、装置和计算机设备 |
CN113487614A (zh) * | 2021-09-08 | 2021-10-08 | 四川大学 | 胎儿超声标准切面图像识别网络模型的训练方法和装置 |
CN114972241A (zh) * | 2022-05-23 | 2022-08-30 | 中山大学附属第一医院 | 基于残差神经网络胎儿超声切面量化质控考核方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11562585B2 (en) | Systems and methods for image preprocessing | |
US10482603B1 (en) | Medical image segmentation using an integrated edge guidance module and object segmentation network | |
US9842390B2 (en) | Automatic ground truth generation for medical image collections | |
CN112465834B (zh) | 一种血管分割方法及装置 | |
CN109948680B (zh) | 病历数据的分类方法及系统 | |
CN114758137B (zh) | 超声图像分割方法、装置及计算机可读存储介质 | |
CN111258905B (zh) | 缺陷定位方法、装置和电子设备及计算机可读存储介质 | |
CN114494215A (zh) | 基于Transformer的甲状腺结节检测方法 | |
CN117036894B (zh) | 基于深度学习的多模态数据分类方法、装置及计算机设备 | |
CN112699907B (zh) | 数据融合的方法、装置和设备 | |
Dureja et al. | Integrating CNN along with FAST descriptor for accurate retrieval of medical images with reduced error probability | |
CN113836297B (zh) | 文本情感分析模型的训练方法及装置 | |
Adegun et al. | Deep convolutional network-based framework for melanoma lesion detection and segmentation | |
CN113379770B (zh) | 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置 | |
CN114782407A (zh) | 基于卷积神经网络的胎儿超声关键切面识别方法及装置 | |
CN114972241A (zh) | 基于残差神经网络胎儿超声切面量化质控考核方法及装置 | |
CN116128887A (zh) | 目标器官组织感兴趣区域定位方法、电子设备和存储介质 | |
Szijártó et al. | Design of a Machine Learning System to Predict the Thickness of a Melanoma Lesion in a Non-Invasive Way from Dermoscopic Images | |
CN113408596B (zh) | 病理图像的处理方法、装置、电子设备及可读存储介质 | |
CN116108163B (zh) | 一种文本的匹配方法、装置、设备及存储介质 | |
CN116861855A (zh) | 多模态医疗资源确定方法、装置、计算机设备及存储介质 | |
CN117541793A (zh) | 一种基于非对称u型网络的乳腺癌病灶分割系统 | |
Ahmadova et al. | Improving Pneumonia Diagnosis with RadImageNet: A Deep Transfer Learning Approach | |
Keshavarz et al. | Object Detection for Automated Coronary Artery Using Deep Learning | |
Małek et al. | The Influence of Textural Features on the Differentiation of Coronary Vessel Wall Lesions Visualized on IVUS Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |