CN114723710A - 基于神经网络的超声视频关键帧的检测方法和装置 - Google Patents
基于神经网络的超声视频关键帧的检测方法和装置 Download PDFInfo
- Publication number
- CN114723710A CN114723710A CN202210373002.XA CN202210373002A CN114723710A CN 114723710 A CN114723710 A CN 114723710A CN 202210373002 A CN202210373002 A CN 202210373002A CN 114723710 A CN114723710 A CN 114723710A
- Authority
- CN
- China
- Prior art keywords
- video
- training
- neural network
- ultrasonic
- key frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 88
- 238000002604 ultrasonography Methods 0.000 claims abstract description 61
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 238000007781 pre-processing Methods 0.000 claims abstract description 14
- 239000013598 vector Substances 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 238000013075 data extraction Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 239000000463 material Substances 0.000 abstract description 9
- 238000004364 calculation method Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 210000005240 left ventricle Anatomy 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000016853 telophase Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000004217 heart function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000002861 ventricular Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于神经网络的超声视频关键帧的检测方法和装置,其中,基于神经网络的超声视频关键帧的检测方法包括以下步骤:从数据库中提取超声视频数据集;对超声视频数据集进行预处理以获取超声视频训练集;根据超声视频训练集对神经网络进行训练以获取目标检测模型;根据目标检测模型对待检测超声视频进行检测以获取待检测超声视频的关键帧。根据本发明的基于神经网络的超声视频关键帧的检测方法,能够对超声视频关键帧进行自动检测,无需人工检测,不仅大大提高了检测的准确性,而且操作检测,节省了大量的人力、物力和算力资源。
Description
技术领域
本发明视频关键帧检测技术领域,具体涉及一种基于神经网络的超声视频关键帧的检测方法和基于神经网络的超声视频关键帧的检测装置。
背景技术
目前临床评价一位病人的心脏功能,评估左心室的各项指标占到了很大一部分,例如需要测量得到左心室的长度、体积、射血分数等等。获得这些数据的主要方式有超声心动图、计算机断层扫描成像、核磁共振成像。其中超声心动图利用了超声成像原理,具有低成本、无辐射、可以动态观察的特点,是最常见的选择之一。由于获取上述指标需要多方向观察心脏扩张收缩过程,获取其最大容积和最小容积时刻的三维数据,临床时要求要对心脏的扩张末期和收缩末期视频关键帧进行标注,以进行进一步的数据处理。
相关技术中,对左心室ED、ES关键帧的标注,一般由心电图的输出来预测ES帧,再由医生手动观察B超或者类似的视频数据,手动标注ED帧。这种方法对于医生的专家知识和经验有很高要求,较为繁琐,比较耗时,并且心电图和超声图像常常有大量噪声,有可能因为人为因素出现误差甚至错误。
发明内容
本发明为解决上述技术问题,提供了一种基于神经网络的超声视频关键帧的检测方法,能够对超声视频关键帧进行自动检测,无需人工检测,不仅大大提高了检测的准确性,而且操作检测,节省了大量的人力、物力和算力资源。
本发明采用的技术方案如下:
一种基于神经网络的超声视频关键帧的检测方法,包括以下步骤:从数据库中提取超声视频数据集;对所述超声视频数据集进行预处理以获取超声视频训练集;根据所述超声视频训练集对神经网络进行训练以获取目标检测模型;根据所述目标检测模型对待检测超声视频进行检测以获取所述待检测超声视频的关键帧。
所述对所述超声视频数据集进行预处理以获取超声视频训练集包括:给所述超声视频数据集中的每一帧超声图像添加高斯噪声以获取相应的第一训练图像集;对所述第一训练图像集依次进行旋转、缩放和平移处理以获取第二训练图像集;对所述第二训练图像集进行归一化处理以获取第三训练图像集;对所述第三训练图像集进行图像裁剪处理以获取第四训练图像集,并将所述第四训练图像集融合为所述超声视频训练集。
所述根据所述超声视频训练集对神经网络进行训练以获取目标检测模型,包括:通过特征提取器对所述超声视频训练集进行特征提取以获取相应的500维特征向量;通过过程感应器将所述500维特征向量转化为N维的第一预测值;通过sigmoid层将所述第一预测值映射到0~1之间,以获取N*1维的概率预测值。
所述特征提取器采用以R(2+1)D网络结构为时空卷积模块的VideoResNet框架。
所述过程感应器包括全连接层和LeakyRelu层。
一种基于神经网络的超声视频关键帧的检测装置,包括:数据提取模块,所述数据提取模块用于从数据库中提取超声视频数据集;预处理模块,所述预处理模块用于对所述超声视频数据集进行预处理以获取超声视频训练集;训练模块,所述训练模块用于根据所述超声视频训练集对神经网络进行训练以获取目标检测模型;检测模块,所述检测模块用于根据所述目标检测模型对待检测超声视频进行检测以获取所述待检测超声视频的关键帧。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述的基于神经网络的超声视频关键帧的检测方法。
一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的基于神经网络的超声视频关键帧的检测方法。
本发明的有益效果:
本发明能够对超声视频关键帧进行自动检测,无需人工检测,不仅大大提高了检测的准确性,而且操作检测,节省了大量的人力、物力和算力资源。
附图说明
图1为本发明实施例的基于神经网络的超声视频关键帧的检测方法的流程图;
图2为本发明实施例的基于神经网络的超声视频关键帧的检测装置的方框示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是根据本发明实施例的基于神经网络的超声视频关键帧的检测方法的流程图。
如图1所示,本发明实施例的基于神经网络的超声视频关键帧的检测方法可包括以下步骤:
S1,从数据库中提取超声视频数据集。
具体而言,对于输入任意长宽比的超声心动视频,首先在屏幕中选点框选超声图像范围,依据此范围可以对同种型号的所有设备的所有视频进行统一规格的裁剪。然后对于得到的裁剪后的超声视频,按照病人序号的hash值进行标记,这一步可以方便之后的随机选择,或者交叉验证时的数据集划分,并记录视频的总帧数。将视频缩放为适当大小的长宽,使得视频既不会太大导致需要的储存空间过大,也能控制训练时需要的显存资源,还要使得视频不能太小以丢失关键信息。另外,设计C#或python应用程序,方便标记人员打标,标签统一储存为csv格式,进一步地,可将csv文件的数据载入python后输出为可以直接读取的npz格式文件。由此,能够自动从超声设备的显示设备读取图像,通过针对机器图像裁剪,自动分析提取裁剪过后的视频数据关键信息,能够构建数据库,统一数据关键信息,方便标注人员对视频打标。从而减少工作人员负担,避免产生数据错误。也就是说,在需要获取超声视频数据时,可直接从数据库中调用。
S2,对超声视频数据集进行预处理以获取超声视频训练集。
根据本发明的一个实施例对超声视频数据集进行预处理以获取超声视频训练集包括:给超声视频数据集中的每一帧超声图像添加高斯噪声以获取相应的第一训练图像集;对第一训练图像集依次进行旋转、缩放和平移处理以获取第二训练图像集;对第二训练图像集进行归一化处理以获取第三训练图像集;对第三训练图像集进行图像裁剪处理以获取第四训练图像集,并将第四训练图像集融合为超声视频训练集。
具体而言,首先,在初始化函数中,设置视频最终输出长宽为目标值(建议为128*128),设置数据集的划分(“train”或“test”),并读取每个视频的帧长度、视频标签(groundtruth),保存必要的降采样倍率,计算并记录数据的平均值、方差,记录模型单次预测需要输入的视频长度N,即模型单次预测的输出长度。其次,在获取item的函数中,对于每一个item,首先加入高斯噪声(给超声视频数据集中的每一帧超声图像添加高斯噪声以获取相应的第一训练图像集),将item小角度旋转(±5度)、小比例缩放(±5%)、小范围像素平移(±10pixel)(即对第一训练图像集依次进行旋转、缩放和平移处理以获取第二训练图像集),减去平均值,除以方差实现归一化(即对第二训练图像集进行归一化处理以获取第三训练图像集),将图像裁剪到预期的输出长宽(即对第三训练图像集进行图像裁剪处理以获取第四训练图像集),其中,将视频随机裁剪,保证视频片段长度为N并且至少包含一个关键帧标签,对裁剪得到的视频做降采样(以降采样比率为2为例,每2帧视频只取一帧作为输入),生成裁剪得到的视频的ground truth,规则简单概括为:在人工标签临近threshold范围内,生成一个中心值为1的高斯分布函数的标签,以此作为ground truth。其中,降采样比率不影响输出预测标签的长度,例如N=60,降采样比率为2,那么视频输入最终长度为30,但是模型仍然将预测60帧的每一帧的是关键帧的概率。
其中,ground truth的生成方式为:假设获得视频视频总长度为L,包含K个关键帧,取超参数interval=2,sigma=3,对于每一个关键帧ki的位置为第xi帧,那么视频帧[xi-interval,xi+interval](记为Yi)对应的数值更新为:中心为xi,最大值为1,标准差为sigma的高斯分布函数数值,若ki,kj对应的影响范围Yi,Yj出现重叠,则重叠部分数值取两者中更大的数值,假设选取的视频片段帧序号为[a,b],那么ground truth也截取对应片段。
S3,根据超声视频训练集对神经网络进行训练以获取目标检测模型。
根据本发明的一个实施例,根据超声视频训练集对神经网络进行训练以获取目标检测模型,包括:通过特征提取器对超声视频训练集进行特征提取以获取相应的500维特征向量,其中,特征提取器采用以R(2+1)D网络结构为时空卷积模块的VideoResNet框架;通过过程感应器将500维特征向量转化为N维的第一预测值,其中,过程感应器包括全连接层和LeakyRelu层;通过sigmoid层将第一预测值映射到0~1之间,以获取N*1维的概率预测值。
具体而言,模型以N*(128*128)的视频数据作为输入,首先使用以“R(2+1)D”为时空卷积模块的VideoResNet框架作为视频流的特征提取器(输出为默认的500维特征向量),用来替代3维时空卷积,有更好的时空分离性质。其次,将VideoResNet的输出接入过程感知器(MLP,Multi-layer Perception),过程感知器的主要结构是组合的全连接层和LeakyRelu层,将VideoResNet提取的500特征向量转化为N维的第一预测值。此时,可通过网络最后一层(sigmoid层)将第一预测值映射到0~1之间,最终将得到N*1维网络输出,即每一帧为关键帧的概率预测值(N*1维的概率预测值)。
需要说明的是,在获取模型输出结果后,还可根据BCE损失函数对模型参数进行优化。
S4,根据目标检测模型对待检测超声视频进行检测以获取待检测超声视频的关键帧。
作为一种可能的实施方式,在获取N*1维的概率预测值后,在需要预测帧长度为L的视频时,最少只需要(L//N)+(L%N)次预测,即可实现最快速的预测。
作为另一种可能的实施方式,也可选择一个适当的重叠预测比率A,例如,A=6,那么对于输入视频,将不再以步长为N来依次预测,而是以N/6来预测数值,由于每次的输入截取的片段都不同,可以视为独立的一次预测计算,将得到的带有重叠的预测结果(假设需要预测M次,则有M个(N*1)的片段),将这些结果先除以重叠预测比率A,再求和。得到的结果将会是多次预测结果的平均值,由此,将会很大程度上解决视频开始和结束时预测准确性的抖动问题。也就是说,n(1<n≤A)次不同输入的预测结果,若都认为某一帧很可能为关键帧,那么这一帧为关键帧的可信度将会得到很大的保证。由此,对于任意长度的视频进行预测,得到任意帧为ED或ES关键帧的置信度,从而方便同时标记多个关键帧或者选择有最高置信度的关键帧。
由此,本发明实现了自动标注任意长度的超声心动视频,获取每一帧为ES、ED关键帧的概率的神经网络模型,相对于手工预测,实现了自动化预测,提高了效率,经实验验证保证有很高的鲁棒性和准确率,另外,针对单标签、滑动窗口的神经网络模型,本发明通过拓展标签的方法,加快了网络的收敛,网络的输出更加合理,有更高鲁棒性,通过人工选择“重叠预测比率”来解决设备的性能约束和实际运用对预测速度要求之间的矛盾,增大重叠预测比率来提高预测准确性,降低该比率来减少机器的负担,通过重叠预测来对视频某一帧内容做重复的、具有不同输入的重复验证,提高预测的置信度,适应了医学诊断对于准确率的严格要求,另外,由于特征提取层和MLP层的分离,可以不需要重复训练VideoResNet,而是通过只替换MLP层的方法,来使得模型快速学习到新的预测需求。
综上所述,根据本发明实施例的基于神经网络的超声视频关键帧的检测方法,从数据库中提取超声视频数据集,并对超声视频数据集进行预处理以获取超声视频训练集,以及根据超声视频训练集对神经网络进行训练以获取目标检测模型,并根据目标检测模型对待检测超声视频进行检测以获取待检测超声视频的关键帧。由此,能够对超声视频关键帧进行自动检测,无需人工检测,不仅大大提高了检测的准确性,而且操作检测,节省了大量的人力、物力和算力资源。
对应上述实施例的基于神经网络的超声视频关键帧的检测方法,本发明还提出一种基于神经网络的超声视频关键帧的检测装置。
如图2所示,本发明实施例的基于神经网络的超声视频关键帧的检测装置可包括:数据提取模块100、预处理模块200、训练模块300和检测模块400。
其中,数据提取模块100用于从数据库中提取超声视频数据集;预处理模块200用于对超声视频数据集进行预处理以获取超声视频训练集;训练模块300用于根据超声视频训练集对神经网络进行训练以获取目标检测模型;检测模块400用于根据目标检测模型对待检测超声视频进行检测以获取待检测超声视频的关键帧。
根据本发明的一个实施例,预处理模块200具体用于:给超声视频数据集中的每一帧超声图像添加高斯噪声以获取相应的第一训练图像集;对第一训练图像集依次进行旋转、缩放和平移处理以获取第二训练图像集;对第二训练图像集进行归一化处理以获取第三训练图像集;对第三训练图像集进行图像裁剪处理以获取第四训练图像集,并将第四训练图像集融合为超声视频训练集。
根据本发明的一个实施例,训练模块300具体用于:通过特征提取器对超声视频训练集进行特征提取以获取相应的500维特征向量;通过过程感应器将500维特征向量转化为N维的第一预测值;通过sigmoid层将第一预测值映射到0~1之间,以获取N*1维的概率预测值。
根据本发明的一个实施例,特征提取器采用以R(2+1)D网络结构为时空卷积模块的VideoResNet框架。
根据本发明的一个实施例,过程感应器包括全连接层和LeakyRelu层。
需要说明的是,本发明实施例的基于神经网络的超声视频关键帧的检测装置更具体的实施方式可参照上述基于神经网络的超声视频关键帧的检测方法的实施例,在此不再赘述。
根据本发明实施例的基于神经网络的超声视频关键帧的检测装置,通过数据提取模块从数据库中提取超声视频数据集,以及通过预处理模块对所述超声视频数据集进行预处理以获取超声视频训练集,并通过训练模块根据所述超声视频训练集对神经网络进行训练以获取目标检测模型,以及通过检测模块根据所述目标检测模型对待检测超声视频进行检测以获取所述待检测超声视频的关键帧。由此,能够对超声视频关键帧进行自动检测,无需人工检测,不仅大大提高了检测的准确性,而且操作检测,节省了大量的人力、物力和算力资源。
对应上述实施例,本发明还提出一种计算机设备。
本发明实施例的计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述的基于神经网络的超声视频关键帧的检测方法。
根据本发明实施例的计算机设备,能够对超声视频关键帧进行自动检测,无需人工检测,不仅大大提高了检测的准确性,而且操作检测,节省了大量的人力、物力和算力资源。
对应上述实施例,本发明还提出一种非临时性计算机可读存储介质。
本发明实施例的非临时性计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现上述的基于神经网络的超声视频关键帧的检测方法。
根据本发明实施例的非临时性计算机可读存储介质,能够对超声视频关键帧进行自动检测,无需人工检测,不仅大大提高了检测的准确性,而且操作检测,节省了大量的人力、物力和算力资源。
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。上述提到的存储介质可以是只读存储器,磁盘或光盘等。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于神经网络的超声视频关键帧的检测方法,其特征在于,包括以下步骤:
从数据库中提取超声视频数据集;
对所述超声视频数据集进行预处理以获取超声视频训练集;
根据所述超声视频训练集对神经网络进行训练以获取目标检测模型;
根据所述目标检测模型对待检测超声视频进行检测以获取所述待检测超声视频的关键帧。
2.根据权利要求1所述的基于神经网络的超声视频关键帧的检测方法,其特征在于,所述对所述超声视频数据集进行预处理以获取超声视频训练集包括:
给所述超声视频数据集中的每一帧超声图像添加高斯噪声以获取相应的第一训练图像集;
对所述第一训练图像集依次进行旋转、缩放和平移处理以获取第二训练图像集;
对所述第二训练图像集进行归一化处理以获取第三训练图像集;
对所述第三训练图像集进行图像裁剪处理以获取第四训练图像集,并将所述第四训练图像集融合为所述超声视频训练集。
3.根据权利要求1所述的基于神经网络的超声视频关键帧的检测方法,其特征在于,所述根据所述超声视频训练集对神经网络进行训练以获取目标检测模型,包括:
通过特征提取器对所述超声视频训练集进行特征提取以获取相应的500维特征向量;
通过过程感应器将所述500维特征向量转化为N维的第一预测值;
通过sigmoid层将所述第一预测值映射到0~1之间,以获取N*1维的概率预测值。
4.根据权利要求3所述的基于神经网络的超声视频关键帧的检测方法,其特征在于,
所述特征提取器采用以R(2+1)D网络结构为时空卷积模块的VideoResNet框架。
5.根据权利要求3所述的基于神经网络的超声视频关键帧的检测方法,其特征在于,
所述过程感应器包括全连接层和LeakyRelu层。
6.一种基于神经网络的超声视频关键帧的检测装置,其特征在于,包括:
数据提取模块,所述数据提取模块用于从数据库中提取超声视频数据集;
预处理模块,所述预处理模块用于对所述超声视频数据集进行预处理以获取超声视频训练集;
训练模块,所述训练模块用于根据所述超声视频训练集对神经网络进行训练以获取目标检测模型;
检测模块,所述检测模块用于根据所述目标检测模型对待检测超声视频进行检测以获取所述待检测超声视频的关键帧。
7.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现根据权利要求1-5中任一项所述的基于神经网络的超声视频关键帧的检测方法。
8.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现根据权利要求1-5中任一项所述的基于神经网络的超声视频关键帧的检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210373002.XA CN114723710A (zh) | 2022-04-11 | 2022-04-11 | 基于神经网络的超声视频关键帧的检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210373002.XA CN114723710A (zh) | 2022-04-11 | 2022-04-11 | 基于神经网络的超声视频关键帧的检测方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114723710A true CN114723710A (zh) | 2022-07-08 |
Family
ID=82241932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210373002.XA Pending CN114723710A (zh) | 2022-04-11 | 2022-04-11 | 基于神经网络的超声视频关键帧的检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114723710A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115761381A (zh) * | 2022-12-14 | 2023-03-07 | 安徽鲲隆康鑫医疗科技有限公司 | 超声心动图的分类方法、分类装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147709A (zh) * | 2018-11-02 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 车辆属性模型的训练方法、装置、终端及存储介质 |
CN111493935A (zh) * | 2020-04-29 | 2020-08-07 | 中国人民解放军总医院 | 基于人工智能的超声心动图自动预测识别方法及系统 |
CN112446342A (zh) * | 2020-12-07 | 2021-03-05 | 北京邮电大学 | 关键帧识别模型训练方法、识别方法及装置 |
CN114298144A (zh) * | 2021-11-22 | 2022-04-08 | 国网新源控股有限公司 | 一种基于深度卷积神经网络的水电站设备漏油识别方法 |
-
2022
- 2022-04-11 CN CN202210373002.XA patent/CN114723710A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147709A (zh) * | 2018-11-02 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 车辆属性模型的训练方法、装置、终端及存储介质 |
CN111493935A (zh) * | 2020-04-29 | 2020-08-07 | 中国人民解放军总医院 | 基于人工智能的超声心动图自动预测识别方法及系统 |
CN112446342A (zh) * | 2020-12-07 | 2021-03-05 | 北京邮电大学 | 关键帧识别模型训练方法、识别方法及装置 |
CN114298144A (zh) * | 2021-11-22 | 2022-04-08 | 国网新源控股有限公司 | 一种基于深度卷积神经网络的水电站设备漏油识别方法 |
Non-Patent Citations (1)
Title |
---|
汪雄飞 等: "《深度学习初学者指南》", 北京:机械工业出版社, pages: 45 - 47 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115761381A (zh) * | 2022-12-14 | 2023-03-07 | 安徽鲲隆康鑫医疗科技有限公司 | 超声心动图的分类方法、分类装置 |
CN115761381B (zh) * | 2022-12-14 | 2023-11-07 | 安徽鲲隆康鑫医疗科技有限公司 | 超声心动图的分类方法、分类装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3770850B1 (en) | Medical image identifying method, model training method, and computer device | |
US11593943B2 (en) | RECIST assessment of tumour progression | |
US10607114B2 (en) | Trained generative network for lung segmentation in medical imaging | |
US10304198B2 (en) | Automatic medical image retrieval | |
US10691980B1 (en) | Multi-task learning for chest X-ray abnormality classification | |
US11464491B2 (en) | Shape-based generative adversarial network for segmentation in medical imaging | |
US8913817B2 (en) | Rib suppression in radiographic images | |
US20220012875A1 (en) | Systems and Methods for Medical Image Diagnosis Using Machine Learning | |
US20210082567A1 (en) | Method for supporting viewing of images and apparatus using same | |
CN113888470A (zh) | 基于卷积神经网络和多模态医学影像的诊断方法和装置 | |
WO2022086910A1 (en) | Anatomically-informed deep learning on contrast-enhanced cardiac mri | |
EP3872755A1 (en) | Method for providing airway information | |
CN114723710A (zh) | 基于神经网络的超声视频关键帧的检测方法和装置 | |
CN115049660B (zh) | 心脏解剖学结构特征点的定位方法、定位装置 | |
KR102222816B1 (ko) | 진행성 병변의 미래 영상을 생성하는 방법 및 이를 이용한 장치 | |
CN113658187B (zh) | 结合解剖先验的医学影像分割方法、装置及存储介质 | |
CN112862786B (zh) | Cta影像数据处理方法、装置及存储介质 | |
CN112862785B (zh) | Cta影像数据识别方法、装置及存储介质 | |
CN113409273B (zh) | 一种图像分析方法、装置、设备和介质 | |
CN112634255B (zh) | 脑部病灶检测模型的建立方法、装置以及计算机设备 | |
CN115294023A (zh) | 肝脏肿瘤自动分割方法及装置 | |
CN112862787B (zh) | Cta影像数据处理方法、装置及存储介质 | |
US20230196557A1 (en) | Late Gadolinium Enhancement Analysis for Magnetic Resonance Imaging | |
US20230326604A1 (en) | Automatic clinical workflow that recognizes and analyzes 2d and doppler modality echocardiogram images for automated cardiac measurements and diagnosis of cardiac amyloidosis and hypertrophic cardiomyopathy | |
CN116823829B (zh) | 医疗影像的分析方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220708 |