CN114399485A - 基于残差网络结构的子宫肌瘤目标图像获取方法 - Google Patents

基于残差网络结构的子宫肌瘤目标图像获取方法 Download PDF

Info

Publication number
CN114399485A
CN114399485A CN202210026421.6A CN202210026421A CN114399485A CN 114399485 A CN114399485 A CN 114399485A CN 202210026421 A CN202210026421 A CN 202210026421A CN 114399485 A CN114399485 A CN 114399485A
Authority
CN
China
Prior art keywords
image
target
hysteromyoma
residual error
detection model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210026421.6A
Other languages
English (en)
Inventor
霍彤彤
邓凯贤
李丽欣
叶哲伟
吴蔚
王子毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shunde Hospital Of Southern Medical University (the First People's Hospital Of Shunde)
Tongji Medical College of Huazhong University of Science and Technology
Original Assignee
Shunde Hospital Of Southern Medical University (the First People's Hospital Of Shunde)
Tongji Medical College of Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shunde Hospital Of Southern Medical University (the First People's Hospital Of Shunde), Tongji Medical College of Huazhong University of Science and Technology filed Critical Shunde Hospital Of Southern Medical University (the First People's Hospital Of Shunde)
Priority to CN202210026421.6A priority Critical patent/CN114399485A/zh
Publication of CN114399485A publication Critical patent/CN114399485A/zh
Priority to PCT/CN2022/093810 priority patent/WO2023134097A1/zh
Priority to ZA2022/11365A priority patent/ZA202211365B/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Abstract

本发明适用于医学图像处理技术领域,具体为一种基于残差网络结构的子宫肌瘤目标图像获取方法,包括模型训练和模型应用两个阶段。模型训练包括:S1、在原始样本超声图像上,对包含子宫肌瘤图像的区域以矩形框形式进行病灶目标图像区域标注;S2、将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测;S3、结果进行统一,得到训练好的改进型YOLOv3目标检测模型。应用时将待检测的超声图像输入至训练好的改进型YOLOv3目标检测模型进行检测,得到子宫肌瘤目标图像区域结果。本发明能够提高子宫肌瘤图像区域的获取精度,且检测速度快,对小目标及多目标任务适应性强。

Description

基于残差网络结构的子宫肌瘤目标图像获取方法
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于残差网络结构的子宫肌瘤目标图像获取方法。
背景技术
子宫肌瘤在超声影像数据中常表现呈圆形或椭圆形,边界清晰,子宫肌瘤的超声表现多样,多样性原因包含以下三个方面:首先,子宫肌瘤肿块大小形态复杂;另一方面,由于超声影像成像特殊的成像方式,导致图像中子宫肌瘤目标与背景灰度相近、难以准确划分目标区边界;第三,子宫肌瘤在图像中呈现时,外周往往存在低回声样晕环,且由于影像采集装备及环境的不同导致的图像本身的对比度、色相等差异。子宫超声图像及目标的多样性导致肌瘤目标特征难以提取,增加了目标图像获取的难度。
检测算法选择上,需选取较为“灵活”的算法,以适应多目标及小目标情况下的子宫肌瘤目标区域获取任务,同时算法应对背景的误检率低,且通用性强,目前常见的目标检测算法通常难以兼具以上特点。
因此,针对现有技术不足,提供一种基于残差网络结构的子宫肌瘤目标图像获取方法以克服现有技术不足甚为必要。
发明内容
本发明针对现有技术中存在的超声图像检测精度与速度无法同时兼顾的问题,提供一种基于残差网络结构的子宫肌瘤目标图像获取方法,。
本发明通过以下技术方案来实现:
提供一种基于残差网络结构的子宫肌瘤目标图像获取方法,所述方法包括以下两个阶段:
阶段一,模型训练
S1、在原始样本超声图像上,对包含子宫肌瘤图像的区域以矩形框形式进行病灶目标图像区域标注,得到标准标记结果,标准标记结果包括标准标注图像及标准标记文件;
S2、将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测,得到模型检测结果,模型检测结果包括子宫肌瘤目标图像在图像中的位置、尺寸及数量;
S3、将步骤S2的模型检测结果与步骤S1中的标准标记结果进行统一,得到训练好的改进型YOLOv3目标检测模型;
阶段二,模型应用
将待检测的超声图像输入至训练好的改进型YOLOv3目标检测模型进行检测,得到子宫肌瘤目标图像区域结果。
优选的,上述改进型YOLOv3目标检测模型,设置有ResNet残差学习结构,每个卷积层中依次设置有所述ResNet残差学习结构。
优选的,上述改进型YOLOv3目标检测模型具体是将YOLO v3中的 backbone网络替换为Resnet50。
优选的,上述的改进型YOLOv3目标检测模型,具体的设计的Anchors 尺寸为:[[10,13]、[16,30]、[33,23]、[30,61]、[62,45]、[59,119]、[116, 90]、[156,198]和[373,326]。
优选的,S3中将步骤S2的模型检测结果与步骤S1中的标准标记结果进行统一,具体包括:
计算损失函数,对预测的中心坐标做损失,采用式(1)的损失函数:
Figure RE-GDA0003553323090000021
式(1)计算了相对于预测的边界框位置(x,y)的loss数值;其中λ是一个给定的常数,表示该项损失所占的权重;(x,y)是从训练数据中得到的实际位置,(x^,y^)是预测边界框的位置;该函数计算了每一个网格单元(i=0,...,S2)的每一个边界框预测值(j=0,...,B)的总和;
Figure RE-GDA0003553323090000031
定义如下:如果网格单元i中存在目标,则第j个边界框预测值对该预测有效,
Figure RE-GDA0003553323090000032
如果网格单元i中不存在目标,
Figure RE-GDA0003553323090000033
对每一个网格单元YOLO预测到对应边界框,在训练时,根据哪个预测有最高的实时IOU和GT,来确认其对于预测一个目标有效;
对预测边界框的宽高做损失,具体采用式(2)的损失函数:
Figure RE-GDA0003553323090000034
对预测的类别做损失,具体采用式(3)的损失函数:
Figure RE-GDA0003553323090000035
使用
Figure RE-GDA0003553323090000036
是当网格单元中不存在目标时,不会惩罚分类误差;
对预测的置信度做损失,具体采用式(4)的损失函数:
Figure RE-GDA0003553323090000037
C是置信度得分,
Figure RE-GDA0003553323090000038
是预测边界框与GT框的交叉部分,当在一个网格单元中存在目标时,
Figure RE-GDA0003553323090000039
否则
Figure RE-GDA00035533230900000310
最后,将四部分损失函数加在一起得到总的损失函数:
Figure RE-GDA0003553323090000041
根据总的损失函数不断对改进型YOLOv3目标检测模型进行修改,在修正后达到最终的总的损失函数不再下降时,得到训练好的改进型YOLOv3目标检测模型。
优选的,上述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,通过高年资的医生对包含子宫肌瘤图像的区域以矩形框形式进行病灶目标图像区域标注。
优选的,上述的一种基于残差网络结构的子宫肌瘤目标图像获取方法, S2中将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测前,还包括对标注图像的数据整理;
对标准标注图像进行区域切分处理,仅保留还有肌瘤病灶区的有效图像;
将有效图像进行掩码后分为训练集和测试集,完成对标准标注图像的数据整理;
训练集和测试集用于所述改进型YOLOv3目标检测模型的训练及测试。
优选的,上述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测前,还包括对标注图像的数据增强,包括对图像的随机翻转、扭曲、扩展及裁剪。
优选的,上述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,对图像的随机翻转、扭曲、扩展及裁剪,具体包括:
1)随机缩放,图像尺寸归一化到-0.5~0.5之间;
2)以0.5的概率将图像的色相随机加-18~18、饱和度、亮度及对比度随机增加0.5~1.5;并对图像进行随机左右翻转,随机扭曲;
3)接着对图像进行随机扩展,执行概率为0.5,最大扩展比例为4,用于扩展的填充颜色值为R:123.675,G:116.28,B:103.53;
4)对图像进行随机裁剪,裁剪区域的长宽比为0.5~2,有效的IOU裁剪阈值为0,0.1,0.3,0.5,0.7,0.9,裁剪区域与原始图像的比例为0.3~1。
优选的,上述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,超声图像采用格式均为jpg格式,采集仪器包括东芝300、400、500,西门子、 GE S8 S9的彩色多普勒超声仪,其中数据中包含腹部超声及阴道超声的图像,其中腹部超声检查探头的频率设置为2~7MHz,阴道超声检查探头的频率设置为5~7MHz。
本发明基于残差网络结构的子宫肌瘤目标图像获取方法,通过训练得到训练好的改进型YOLOv3目标检测模型,提高了子宫肌瘤目标图像获取的精准度,同时方法简洁,泛化及应用性强。
附图说明
图1是本发明实施例中所述的ResNet残差学习结构示意图。
图2是本发明实施例中所述的改进型YOLOv3目标检测模型示意图。
图3是本发明实施例中所述的子宫肌瘤检测结果图像。
具体实施方式
下面结合实施例及附图对本发明做进一步详细的描述。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于残差网络结构的子宫肌瘤目标图像获取方法,该方法包括以下两个阶段:
阶段一,模型训练
S1、在原始样本超声图像上,对包含子宫肌瘤图像的区域以矩形框形式进行病灶目标图像区域标注,得到标准标记结果,标准标记结果包括标准标注图像及标准标记文件;
S2、将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测,得到模型检测结果,模型检测结果包括子宫肌瘤目标图像在图像中的位置、尺寸及数量;
S3、将步骤S2的模型检测结果与步骤S1中的标准标记结果进行统一,得到训练好的改进型YOLOv3目标检测模型;
阶段二,模型应用
将待检测的超声图像输入至训练好的改进型YOLOv3目标检测模型进行检测,得到子宫肌瘤目标图像区域结果。
下面详细叙述上述两个阶段的方法过程。
首先,可通过东芝300、400、500,西门子、GE S8 S9的彩色多普勒超声仪采集腹部超声及阴道超声的图像作为样本图像,腹部超声检查探头的频率设置为2~7MHz,阴道超声检查探头的频率设置为5~7MHz。超声图像均转为jpg格式。
进一步地,对不同分辨率下的标准标注图像进行区域切分处理,保留仅还有肌瘤病灶区的有效图像,切分成大小为(W,H)的图像;
进一步地,对大小为(W,H)的输入子宫超声图像,标注子宫肌瘤的外接矩形作为子宫肌瘤检测的Ground Truth,将有效图像进行掩码后分为训练集和测试集,完成对标注图像的数据整理。
接着,将标准标注图像通过改进型YOLOv3目标检测模型进行检测前,还包括对标注图像的数据增强,包括对图像的随机翻转、扭曲、扩展及裁剪,具体包括:
1)随机缩放,图像尺寸归一化到-0.5~0.5之间;
2)以0.5的概率将图像的色相随机加-18~18、饱和度、亮度及对比度随机增加0.5~1.5;并对图像进行随机左右翻转,随机扭曲;
3)接着对图像进行随机扩展,执行概率为0.5,最大扩展比例为4,用于扩展的填充颜色值为R:123.675,G:116.28,B:103.53;
4)对图像进行随机裁剪,裁剪区域的长宽比为0.5~2,有效的IOU裁剪阈值为0,0.1,0.3,0.5,0.7,0.9,裁剪区域与原始图像的比例为0.3~1。
如图1所示,本发明的改进型YOLOv3目标检测模型,设置有ResNet 残差学习结构,每个卷积层中依次设置有所述ResNet残差学习结构。具体是将YOLO v3中的backbone网络替换为Resnet50。
该改进型YOLOv3目标检测模型,通过大量分析子宫肌瘤超声影像数据特点,结合主干网络Resnet50的特有残差结构的特征提取能力,表现在目标检测定位精度方向上优势,以及YOLO v3框架在检测速度及通用性上的优势,将YOLO v3中的原本backbone网络替换为Resnet50,以实现对子宫肌瘤的检测任务,具体的网络结构如图1所示。
本发明应用了包含50层的ResNet50网络,利用特有的残差模块从子宫肌瘤超声影像中学习更复杂的特征表示。与以往的模型相比,该模型具有更好的检测精度。
之后,如图2所示,所述的改进型YOLOv3目标检测模型,依照子宫肌瘤在超声图像中的尺寸特点,设计适应次任务的Anchors尺寸,具体的设计的 Anchors尺寸为:[[10,13],[16,30],[33,23],[30,61],[62,45],[59,119],[116, 90],[156,198],[373,326]]。
接着,将模型检测结果与高年资医生的标记结果GT统一,计算损失函数,对预测的中心坐标做损失,采用式(1)的损失函数:
Figure RE-GDA0003553323090000081
该式计算了相对于预测的边界框位置(x,y)的loss数值。其中λ是一个给定的常数,表示该项损失所占的权重。(x,y)是从训练数据中得到的实际位置,(x^,y^)是预测边界框的位置。该函数计算了每一个网格单元(i=0,...,S2)的每一个边界框预测值(j=0,...,B)的总和。
Figure RE-GDA0003553323090000082
定义如下:如果网格单元i中存在目标,则第j个边界框预测值对该预测有效,
Figure RE-GDA0003553323090000083
如果网格单元i中不存在目标,
Figure RE-GDA0003553323090000084
对每一个网格单元YOLO预测到对个边界框。在训练时,我们对每一个目标只希望有一个边界框预测器。我们根据哪个预测有最高的实时IOU和GT,来确认其对于预测一个目标有效。
进一步地,对预测边界框的宽高做损失具体采用式(2)的损失函数:
Figure RE-GDA0003553323090000085
这是与预测的边界框的宽度和高度相关的损失。因为我们发现,大box 的偏差要小于小box。所以我们采用预测边界框的宽度和高度的平方根的方式,而不是直接预测宽度和高度。
进一步地,对预测的类别做损失,具体采用式(3)的损失函数:
Figure RE-GDA0003553323090000086
使用
Figure RE-GDA0003553323090000087
是当网格单元中不存在目标时,我们不会惩罚分类误差。
进一步地,对预测的置信度做损失具体采用式(4)的损失函数:
Figure RE-GDA0003553323090000091
损失函数与每个边界框预测值的置信度得分相关。C是置信度得分,
Figure RE-GDA0003553323090000092
是预测边界框与GT框的交叉部分。当在一个网格单元中存在目标时,
Figure RE-GDA0003553323090000093
否则
Figure RE-GDA0003553323090000094
此处以及第一部分中出现的λ参数用于损失函数的不同加权部分。这对于提高模型的稳定性是十分关键的。最高惩罚是对于坐标预测(λcoord=5),当没有探测到目标时,有最低的置信度预测惩罚(λnoobj=0.5)。
进一步地,最后,将四部分损失函数加在一起得到总的损失函数:
Figure RE-GDA0003553323090000095
根据总的损失函数不断对改进型YOLOv3目标检测模型进行修改,在修正后达到最终的总的损失函数不再下降时,得到训练好的改进型YOLOv3目标检测模型。
获得训练好的改进型YOLOv3目标检测模型后,后续使用中,只需将待检测的超声图像输入至训练好的改进型YOLOv3目标检测模型进行检测,得到子宫肌瘤目标图像区域结果。图3是本发明的方法对部分超声图像进行处理得到的子宫肌瘤目标图像区域的结果示意图。
本发明设计改进型YOLOv3目标检测模型,并通过训练得到训练好的改进型YOLOv3目标检测模型,通过该模型,可以对超声图像中的子宫肌瘤目标区域进行精确获取,具有方法简洁,泛化及应用性强的特点。

Claims (10)

1.一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,所述方法包括以下两个阶段:
阶段一,模型训练
S1、在原始样本超声图像上,对包含子宫肌瘤图像的区域以矩形框形式进行病灶目标图像区域标注,得到标准标记结果,标准标记结果包括标准标注图像及标准标记文件;
S2、将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测,得到模型检测结果,模型检测结果包括子宫肌瘤目标图像在图像中的位置、尺寸及数量;
S3、将步骤S2的模型检测结果与步骤S1中的标准标记结果进行统一,得到训练好的改进型YOLOv3目标检测模型;
阶段二,模型应用
将待检测的超声图像输入至训练好的改进型YOLOv3目标检测模型进行检测,得到子宫肌瘤目标图像区域结果。
2.根据权利要求1所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,所述改进型YOLOv3目标检测模型,设置有ResNet残差学习结构,每个卷积层中依次设置有所述ResNet残差学习结构。
3.根据权利要求2所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,所述改进型YOLOv3目标检测模型具体是将YOLO v3中的backbone网络替换为Resnet50。
4.根据权利要求3所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,所述的改进型YOLOv3目标检测模型,具体的设计的Anchors尺寸为:[[10,13]、[16,30]、[33,23]、[30,61]、[62,45]、[59,119]、[116,90]、[156,198]和[373,326]。
5.根据权利要求1至4任意一项所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,S3中将步骤S2的模型检测结果与步骤S1中的标准标记结果进行统一,具体包括:
计算损失函数,对预测的中心坐标做损失,采用式(1)的损失函数:
Figure RE-FDA0003553323080000021
式(1)计算了相对于预测的边界框位置(x,y)的loss数值;其中λ是一个给定的常数,表示该项损失所占的权重;(x,y)是从训练数据中得到的实际位置,(x^,y^)是预测边界框的位置;该函数计算了每一个网格单元(i=0,...,S2)的每一个边界框预测值(j=0,...,B)的总和;
Figure RE-FDA0003553323080000022
定义如下:如果网格单元i中存在目标,则第j个边界框预测值对该预测有效,
Figure RE-FDA0003553323080000023
如果网格单元i中不存在目标,
Figure RE-FDA0003553323080000024
对每一个网格单元YOLO预测到对应边界框,在训练时,根据哪个预测有最高的实时IOU和GT,来确认其对于预测一个目标有效;
对预测边界框的宽高做损失,具体采用式(2)的损失函数:
Figure RE-FDA0003553323080000025
对预测的类别做损失,具体采用式(3)的损失函数:
Figure RE-FDA0003553323080000026
使用
Figure RE-FDA0003553323080000027
是当网格单元中不存在目标时,不会惩罚分类误差;
对预测的置信度做损失,具体采用式(4)的损失函数:
Figure RE-FDA0003553323080000028
C是置信度得分,
Figure RE-FDA0003553323080000029
是预测边界框与GT框的交叉部分,当在一个网格单元中存在目标时,
Figure RE-FDA0003553323080000031
否则
Figure RE-FDA0003553323080000032
最后,将四部分损失函数加在一起得到总的损失函数:
Figure RE-FDA0003553323080000033
根据总的损失函数不断对改进型YOLOv3目标检测模型进行修改,在修正后达到最终的总的损失函数不再下降时,得到训练好的改进型YOLOv3目标检测模型。
6.根据权利要求5所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,通过高年资的医生对包含子宫肌瘤图像的区域以矩形框形式进行病灶目标图像区域标注。
7.根据权利要求5所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,S2中将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测前,还包括对标注图像的数据整理;
对标准标注图像进行区域切分处理,仅保留还有肌瘤病灶区的有效图像;
将有效图像进行掩码后分为训练集和测试集,完成对标准标注图像的数据整理;
训练集和测试集用于所述改进型YOLOv3目标检测模型的训练及测试。
8.根据权利要求5所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,将所述标准标注图像通过改进型YOLOv3目标检测模型进行检测前,还包括对标注图像的数据增强,包括对图像的随机翻转、扭曲、扩展及裁剪。
9.根据权利要求8所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,对图像的随机翻转、扭曲、扩展及裁剪,具体包括:
1)随机缩放,图像尺寸归一化到-0.5~0.5之间;
2)以0.5的概率将图像的色相随机加-18~18、饱和度、亮度及对比度随机增加0.5~1.5;并对图像进行随机左右翻转,随机扭曲;
3)接着对图像进行随机扩展,执行概率为0.5,最大扩展比例为4,用于扩展的填充颜色值为R:123.675,G:116.28,B:103.53;
4)对图像进行随机裁剪,裁剪区域的长宽比为0.5~2,有效的IOU裁剪阈值为0,0.1,0.3,0.5,0.7,0.9,裁剪区域与原始图像的比例为0.3~1。
10.根据权利要求5所述的一种基于残差网络结构的子宫肌瘤目标图像获取方法,其特征在于,超声图像采用格式均为jpg格式,采集仪器包括东芝300、400、500,西门子、GE S8S9的彩色多普勒超声仪,其中数据中包含腹部超声及阴道超声的图像,其中腹部超声检查探头的频率设置为2~7MHz,阴道超声检查探头的频率设置为5~7MHz。
CN202210026421.6A 2022-01-11 2022-01-11 基于残差网络结构的子宫肌瘤目标图像获取方法 Pending CN114399485A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210026421.6A CN114399485A (zh) 2022-01-11 2022-01-11 基于残差网络结构的子宫肌瘤目标图像获取方法
PCT/CN2022/093810 WO2023134097A1 (zh) 2022-01-11 2022-05-19 基于残差网络结构的子宫肌瘤目标图像获取方法
ZA2022/11365A ZA202211365B (en) 2022-01-11 2022-10-17 A method for acquiring object image of uterine fibroid based on residual network structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210026421.6A CN114399485A (zh) 2022-01-11 2022-01-11 基于残差网络结构的子宫肌瘤目标图像获取方法

Publications (1)

Publication Number Publication Date
CN114399485A true CN114399485A (zh) 2022-04-26

Family

ID=81231456

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210026421.6A Pending CN114399485A (zh) 2022-01-11 2022-01-11 基于残差网络结构的子宫肌瘤目标图像获取方法

Country Status (3)

Country Link
CN (1) CN114399485A (zh)
WO (1) WO2023134097A1 (zh)
ZA (1) ZA202211365B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023134097A1 (zh) * 2022-01-11 2023-07-20 南方医科大学顺德医院(佛山市顺德区第一人民医院) 基于残差网络结构的子宫肌瘤目标图像获取方法
CN117322865A (zh) * 2023-09-26 2024-01-02 四川大学 基于深度学习的颞下颌关节盘移位mri检查诊断系统
CN117351018A (zh) * 2023-12-05 2024-01-05 北京安吉贝玛健康科技有限公司 一种基于机器视觉的子宫肌瘤检测辅助系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721355B (zh) * 2023-08-09 2023-10-24 江西云眼视界科技股份有限公司 广告牌检测方法、系统、可读存储介质及计算机设备
CN117392545B (zh) * 2023-10-26 2024-02-09 南昌航空大学 一种基于深度学习的sar图像目标检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11244450B2 (en) * 2019-08-19 2022-02-08 The Penn State Research Foundation Systems and methods utilizing artificial intelligence for placental assessment and examination
CN112507929B (zh) * 2020-12-16 2022-05-13 武汉理工大学 一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法
CN114399485A (zh) * 2022-01-11 2022-04-26 南方医科大学顺德医院(佛山市顺德区第一人民医院) 基于残差网络结构的子宫肌瘤目标图像获取方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023134097A1 (zh) * 2022-01-11 2023-07-20 南方医科大学顺德医院(佛山市顺德区第一人民医院) 基于残差网络结构的子宫肌瘤目标图像获取方法
CN117322865A (zh) * 2023-09-26 2024-01-02 四川大学 基于深度学习的颞下颌关节盘移位mri检查诊断系统
CN117351018A (zh) * 2023-12-05 2024-01-05 北京安吉贝玛健康科技有限公司 一种基于机器视觉的子宫肌瘤检测辅助系统
CN117351018B (zh) * 2023-12-05 2024-03-12 北京安吉贝玛健康科技有限公司 一种基于机器视觉的子宫肌瘤检测辅助系统

Also Published As

Publication number Publication date
ZA202211365B (en) 2023-05-31
WO2023134097A1 (zh) 2023-07-20

Similar Documents

Publication Publication Date Title
CN114399485A (zh) 基于残差网络结构的子宫肌瘤目标图像获取方法
CN111325739B (zh) 肺部病灶检测的方法及装置,和图像检测模型的训练方法
JP2021532435A (ja) 目標検出および目標検出ネットワークのトレーニング
US8577125B2 (en) Method and apparatus for image generation
CN111524137B (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
CN109360633B (zh) 医疗影像处理方法及装置、处理设备及存储介质
Zhang et al. Automated semantic segmentation of red blood cells for sickle cell disease
CN111476159A (zh) 一种基于双角回归的检测模型训练、检测方法及装置
CN111368769A (zh) 基于改进锚点框生成模型的船舶多目标检测方法
JPH0638274B2 (ja) 画像認識装置および画像認識方法
CN111429482A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN109146891B (zh) 一种应用于mri的海马体分割方法、装置及电子设备
WO2019215819A1 (ja) 合成開口レーダ画像解析システム、合成開口レーダ画像解析方法および合成開口レーダ画像解析プログラム
CN112215217B (zh) 模拟医师阅片的数字图像识别方法及装置
US11410300B2 (en) Defect inspection device, defect inspection method, and storage medium
CN112215878B (zh) 一种基于surf特征点的x光图像配准方法
CN116228753B (zh) 肿瘤预后评估方法、装置、计算机设备和存储介质
JP2005293334A (ja) テンプレートマッチング装置
JPWO2011138882A1 (ja) テンプレートマッチング処理装置およびテンプレートマッチング処理プログラム
JP2005352543A (ja) テンプレートマッチング装置
JP6018802B2 (ja) 寸法測定装置、及びコンピュータープログラム
CN113762204B (zh) 多方向遥感目标检测方法、装置及计算机设备
CN116433743A (zh) 一种校准图像的方法及装置
CN113537026A (zh) 建筑平面图中的图元检测方法、装置、设备及介质
JP2004240909A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination