CN111626986B - 一种基于深度学习的三维超声腹壁疝补片检测方法及系统 - Google Patents

一种基于深度学习的三维超声腹壁疝补片检测方法及系统 Download PDF

Info

Publication number
CN111626986B
CN111626986B CN202010352775.0A CN202010352775A CN111626986B CN 111626986 B CN111626986 B CN 111626986B CN 202010352775 A CN202010352775 A CN 202010352775A CN 111626986 B CN111626986 B CN 111626986B
Authority
CN
China
Prior art keywords
patch
data
training
image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202010352775.0A
Other languages
English (en)
Other versions
CN111626986A (zh
Inventor
吴俊�
陈思奇
颜光前
孙亮
徐丹
张榆锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yunnan University YNU
Original Assignee
Yunnan University YNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yunnan University YNU filed Critical Yunnan University YNU
Priority to CN202010352775.0A priority Critical patent/CN111626986B/zh
Publication of CN111626986A publication Critical patent/CN111626986A/zh
Application granted granted Critical
Publication of CN111626986B publication Critical patent/CN111626986B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度学习的三维超声腹壁疝补片检测方法及系统,涉及图像处理技术领域,其特征在于,所述方法包括:通过ABUS采集三维超声图像,抽取图像的冠状面数据再进行数据扩增,对扩增的图像数据进行补片标定并拆分获得数据集,通过数据集搭建并训练卷积神经网络输出预测框信息,根据预测框信息选定补片候选区域,再通过NMS算法从补片候选区域中筛选出最终的补片检测结果。该方法对原始图像数据进行了冠状面的提取和数据扩增处理增强了神经网络的识别准确度,提高了神经网络的泛化能力和鲁棒性,降低了网络训练过程中出现拟合的风险,调整网络结构参数,加速网络训练并提高了网络性能,采用NMS进行聚类重构提高了检测的性能和准确性。

Description

一种基于深度学习的三维超声腹壁疝补片检测方法及系统
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于深度学习的三维超声腹壁疝补片检测方法及系统。
背景技术
随着超声成像技术和补片材料的飞速发展,传统的超声检测,如手持超声(HHUS)无法对现今流行的轻量型(LW)补片进行完全可靠的识别,而自动化三维乳腺超声(ABUS)作为现今相对成熟的一种创新超声成像模式,其相对于二维超声能提供更高的诊断精度、更好地病灶尺寸预测、更直观的病灶区域可视化及相邻组织关系,已成功应用于乳腺病变的诊断,同时在腹壁疝诊断方面也获得了学者的关注。但ABUS对每一例患者所产生的数据量都很庞大,人工查阅图像数据极其耗费时间与人力,且不同操作者对图像的解读具有差异性,极易出现对微弱异常区域的漏诊。
发明内容
本发明提供一种基于深度学习的三维超声腹壁疝补片检测方法及系统,通过对采集到的图像数据进行冠状面的提取和数据扩增,再将所得数据制备成数据集进行神经网络模型的搭建,并送入数据进行训练,最后对堆叠的补片候选区进行聚合,输出补片识别区域,完成对腹壁疝补片的智能检测。减少了人工查阅的图像数据量,提高了疝补片检测的效率和准确性。
本发明提供了一种基于深度学习的三维超声腹壁疝补片检测方法,包括:
S1:三维超声图像的获取,通过ABUS采集三维超声腹壁疝补片图像数据。
S2:图像数据扩增,通过图像旋转和镜像对称的方式将提取出来的冠状面数据进行数据扩增。
S3:补片数据标定,对扩充后的冠状面数据进行补片区域标定,并制备训练数据集和测试数据集。
S4:神经网络模型的搭建,将拆分的数据集搭建并训练卷积神经网络。
S5:参数的获取,将拆分的数据集中训练数据集输入到搭建好的卷积神经网络中进行训练,输出网络训练参数,参数信息包括预测框的位置、大小以及置信度。
S6:补片候选区域的选定,设定合适的补片候选区评分阈值Score_Th,将输出的预测框中目标性评分Score低于阈值Score_Th的去掉,将高于阈值的作为补片候选区。
S7:补片候选区的聚类重构,通过NMS算法进行最优目标框的选择,将补片候选区域按照置信度进行降序排列,置信度最大的作为保留框,计算其它补片候选区域与保留框的堆叠率,通过堆叠率进行筛选,筛选结束后将保留框存入补片识别结果,重复上述步骤,最终获得补片检测结果并输出。
优选的,所述图像扩增采用OpenCV对冠状面图像进行旋转和镜像对称的操作,并通过LabelImage对扩充后的图像进行补片数据标定。
优选的,标定的数据以VOC数据集框架的形式,按照9:1的比例将图像数据分割为训练数据集和测试数据集。
优选的,使用COCO数据集的80个识别分类训练好的YOLOV3目标检测网络,通过COCO数据集训练好的网络参数权重和以COCO数据集聚类的到的预置锚框Anchor位置作为补片识别网络的初始权重参数和初始锚框位置参数,将训练验证集按照9:1的比例拆分为训练集与验证集,并将训练集送入网络进行训练,所述初始权重参数为10,所述初始锚框位置参数为100。
优选的,卷积神经网络包括前置网络和目标检测网络,所述前置网络为特征提取网络。
优选的,经网络训练所得到的的参数包括预测框的位置、大小以及置信度,所述置信度的阈值为0.45。
优选的,图像经过网络训练后,对其降采样32倍,并分割为13*13的目标检测区域,采用NMS算法将卷积神经网络的3个YOLO层在图像上输出的预测框进行最优目标框的选择,输出局部最大值预测框。
本发明还提供了一种基于深度学习的三维超声腹壁疝补片检测系统,包括图像采集模块,数据处理模块和筛选输出模块,所述数据处理模块包括图像预处理模块和网络训练模块,能够执行上述方法进行腹壁疝补片的智能化检测。
区别现有技术的情况,本发明的有益效果是:
1、从ABUS获取的三维原始图像数据进行冠状面图像数据提取,并进行补片数据的标定,有利于搭建神经网络的数据集的制备,解决由于设备限制导致直接呈现的图像数据不易观察补片信息。
2、采用OpenCV框架对提取的冠状面图像数据进行旋转和镜像对称的操作完成图像数据扩增,增强了搭建的神经网络的识别准确度,提高了神经网络的泛化能力和鲁棒性,降低了网络训练过程中出现拟合的风险。
3、使用YOLOV3目标检测网络为基础,根据补片类别改变YOLO层的卷积核的个数,并以COCO数据集训练好的网络参数权重和以COCO数据集聚类的到的预置锚框Anchor位置作为补片识别网络的初始权重参数和初始锚框位置参数,加速网络训练并提高网络性能。
4、通过NMS算法进行补片候选区的聚类重构,避免补片候选区出现堆叠和过度聚合,提高了检测的性能和准确性。
附图说明
图1是本发明的流程图;
图2是本发明的一例ABUS补片离体成像结果;
图3是本发明的数据扩增方法及效果示意图;
图4是本发明的一例LabelImage进行补片数据标注的样本示意图及目标补片的数据形式;
图5是本发明的训练数据集VOC格式结构示意图;
图6是本发明的卷积神经网络简化示意图;
图7是本发明的卷积神经网络的预置网络结构示意图;
图8是本发明的卷积神经网络YOLO层的所持度特征检测层;
图9是本发明的各个特征尺度的特征向量示意图;
图10是本发明的补片候选区域堆叠重合情况示意图;
图11是本发明的NMS算法示意图;
图12本发明的卷积神经网络对腹壁疝补片检测输出结果示意图;
具体实施方式
在下面的描述中对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的实施例一提供了一种基于深度学习的三维超声腹壁疝补片检测方法,如图1所示,方法包括步骤S1-步骤S7,各步骤具体如下:
S1:如图2所示,通过ABUS采集三维超声腹壁疝补片的图像数据。
采集到的图像数据大多为横断面序列图像,不易于观察补片的相关信息,需要对采集到的超声图像数据进行冠状面抽取,方便后续的数据标定以及数据集的制备,更好的搭建卷积神经网络。
S2:从ABUS三维原始数据提取出能够直观有效地呈现补片信息的二维冠状面数据后,如图3所示,使用OpenCV将所得到的的冠状面数据进行旋转和镜像对称的操作,将图像数据扩增能够得到1600张样本图像,增强后续搭建的神经网络的识别准确度,并提高网络模型的泛化能力和鲁棒性。
S3:如图4所示,通过LabelImage图像标注工具对步骤S2经图像数据扩充获得的1600张样本图像数据进行补片数据的标定,将标定好的图像数据作为样本数据。
通过Python编写脚本将得到的补片标定数据以VOC数据集的格式按照9:1的比例拆分为训练集和测试集,数据集文件结构如图5所示。
S4:将拆分好的数据集搭建卷积神经网络,并将拆分出的训练集输入用来训练搭建好的神经网络模型。
采用以深度学习框架TensorFlow作为后端的Keras框架来搭建并训练卷积神经网络模型。使用以目标检测网络YOLOV3为基础,将COCO数据集训练的到的网络权重参数和COCO数据集聚类得到的预置锚框位置分别作为补片识别网络的初始权重参数和初始锚框位置参数搭建全卷积神经网络。
将拆分出的训练集w×h×3图像数据整形为416×416×3的统一格式,输入到特征提取网络中。
如图7所示,经过5次下采样后,将输入的图像数据降采样32倍,在网络的第81层得到13×13×18的特征张量,能够进行较大目标的检测。
将第5下采样的输出经过上采样后与第4次下采样的输出进行拼接,则在网络的第93层得到26×26×18的特征张量,能够用来检测普通大小的目标。
将第4次下采样的输出经过上采样之后与第3次想采样的输出进行拼接,则在网络的第105层得到一个52×52×18的特征张量,用来进行较小目标的检测。
S5:将训练集输入卷积神经网络模型中得到特征向量预测框的位置、大小以及置信度。
如图7所示,三个网络层输出的不同特征尺度的特征向量进行融合,能够更好地对多尺度目标进行检测,对检测大小各异的疝补片具有很好的包容性,提高了神经网络检测的泛化能力和准确度。
每个特征张量会产生3个预测框,每个预测框的信息包括4个定位信息,1个置信度C以及类别概率个数,其结构可以表示为3×(4+1+Class),这里只需识别一类补片,将类别概率个数Class设置为1,这样每个特征张量的深度一致,均为18。
S6:根据输出的预测框的信息进行补片联合概率的计算,得到目标性评分Score,并设定评分阈值Score_Th,以目标性评分Score为条件,将所有输出的共10647个预测框信息中目标性评分Score低于评分阈值Score_Th的预测框信息去除,得到的剩余预测框作为补片候选区域。
目标性评分Score计算公式如下所示:
Score=C*Class
所述评分阈值Score_Th设置为0.45。
根据置信度C以及类别概率个数Class的数值,将特征向量整形为3×(4+Score)的形式。
S7:采用NMS算法进行补片候选区域的聚类重构,经重复筛选最终从所述补片候选区域中的到最终的补片检测结果并输出。
如图10所示,步骤S6过程中输出的补片候选区域的数量较多,所述补片候选区会出现堆叠和过度聚合,影响目标检测效果。
如图11所示,通过NMS算法进行所述补片候选区域的重构,具体过程如下:
首先,将步骤S6输出的所有补片候选区域的特征张量按照目标性评分Score的降序进行排列得到补片候选列表,判断当前目标性评分Score最高的特征张量类别作为保留框,计算补片候选列表中其它补片候选区域的特征张量与目标性评分Score最高的特征张量的堆叠率IoU,并设置堆叠率阈值IoU_Th。
堆叠率IoU计算公式如下所示:
Figure BDA0002472426780000051
其中A、B为两个封闭的图形,所述堆叠率阈值IoU_Th设为0.3。
之后,将堆叠率IoU高于堆叠率阈值IoU_Th特征向量的补片候选区域从补片候选列表中去除,同时将当前目标性评分Score最大的特征张量所对应的补片候选区域添加到补片结果输出列表。
最后,按照目标性评分Score降序重新将补片候选列表中补片候选区域的特征张量进行排列,并重复上述步骤,直至补片候选列表中没有特征张量时得到的补片结果输出列表为最终补片检测结果,如图12所示,在输入图像上进行预测框的绘制。
本发明的实施例二提供了一种采用上述方法的基于深度学习的三维超声腹壁疝补片检测系统,包括图像采集模块,数据处理模块和筛选输出模块,所述数据处理模块包括图像预处理模块和网络训练模块,所述图像采集模块通过ABUS采集三维超声腹壁疝补片图像,并抽取图像数据中的冠状面数据,对图片清晰、数据完整的图像进行标定后传输至所述数据预处理模块。
所述数据预处理模块将从所述图像采集模块传输过来的图像数据进行图像平移和镜像旋转的处理操作,将图像数据进行扩增,并将扩增后的图像进行拆分得出训练、验证集和测试集,并将训练集数据输入到所述网络训练模块。
所述网络训练模块以预先训练得到的网络权重参数和预先聚类得到的锚框位置作为神经网络训练的基础参数搭建出卷积神经网络模型,将输入的训练集数据进行神经网络训练得到预测框信息并输入到筛选输出模块。
所述筛选输出模块通过输入的预测框信息选定出补片候选区,再对补片候选区进行聚类重构,筛选出最终的补片检测结果并输出。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。

Claims (8)

1.一种基于深度学习的三维超声腹壁疝补片检测方法,其特征在于,所述方法包括:
S1:通过ABUS采集三维超声腹壁疝补片图像数据;
S2:对采集到的所述三维超声腹壁疝补片图像数据抽取图像中的冠状面,对抽取出的冠状面图像数据进行数据扩充;
S3:选择扩充后的所述冠状面图像数据中图像清晰,数据完整的图像数据进行补片区域标定,利用标定好的超声补片图像数据进行数据集的制备;
S4:以预先训练得到的网络权重参数和预先聚类得到的锚框位置作为神经网络模型的基础参数,并通过制备的所述数据集搭建并训练卷积神经网络模型;
S5:将制备得到的所述数据集输入到搭建的所述卷积神经网络模型中进行网络训练得到三组预测框,并输出所述预测框的信息;
S6:根据所述预测框的信息选定出补片候选区域;
S7:使用NMS算法进行补片候选区的聚类重构,从所述补片候选区域中重复筛选得到最终的补片检测结果并输出。
2.根据权利要求1所述的基于深度学习的三维超声腹壁疝补片检测方法,其特征在于,步骤S2中所述的数据扩充包括图像平移和图像旋转,所述数据扩充进行的图像平移与图像旋转操作均采用OpenCV框架。
3.根据权利要求2所述的基于深度学习的三维超声腹壁疝补片检测方法,其特征在于,步骤S3中所述数据集的制备包括训练验证集和测试集,所述训练验证集与所述测试集是将经过所述数据扩充的超声补片数据进行随机打散并按照9:1的比例拆分得到。
4.根据权利要求3所述的基于深度学习的三维超声腹壁疝补片检测方法,其特征在于,步骤S4中将得到的训练数据集按照9:1的比例拆分为训练集和验证集,基于YOLOV3框架进行参数的调整搭建出卷积神经网络模型,所述卷积神经网络模型包括前置网络和目标检测网络。
5.根据权利要求4所述的基于深度学习的三维超声腹壁疝补片检测方法,其特征在于,步骤S5中经网络训练得到的所述预测框信息包括所述预测框的位置、大小以及置信度。
6.根据权利要求5所述的基于深度学习的三维超声腹壁疝补片检测方法,其特征在于,步骤S6中通过所述预测框的信息计算出目标性评分Score,并以目标性评分作为筛选条件,将所述目标性评分Score低于预先设置的评分阈值的预测框过滤掉来筛选出所述补片候选区域。
7.根据权利要求6所述的基于深度学习的三维超声腹壁疝补片检测方法,其特征在于,步骤7中将筛选出来的所述补片候选区域按照所述目标性评分Score降序进行排列,将所述补片候选区域目标性评分Score最大的作为保留框,计算与所述保留框产生堆叠的其它所述补片候选区域的堆叠率,将堆叠率低于预先设置的堆叠率阈值的所述补片候选区过滤掉,并将所述保留框从对堆叠率高于预先设置的堆叠率阈值的所述补片候选区的列表中删除,并将所述保留框存入补片识别结果列表,重复进行上述步骤直至所述补片候选区的列表为空,然后将所述补片识别结果列表作为补片检测结果输出。
8.一种基于深度学习的三维超声腹壁疝补片检测系统,其特征在于,包括图像采集模块,数据处理模块和筛选输出模块,所述数据处理模块包括图像预处理模块和网络训练模块,其中:
所述图像采集模块:用于接收ABUS采集到的三维超声腹壁疝补片图像,并抽取出冠状面对图片清晰、数据完整的超声图像进行标定,然后将标定好的图像传输到所述数据预处理模块中;
所述数据预处理模块:用于将标定好的图像通过图像平移和图像旋转进行数据扩充,并将扩充后的数据拆分成训练验证集和测试集,并将所述训练验证集拆分为训练集和验证集;
所述网络训练模块:以预先训练得到的网络权重参数和预先聚类得到的锚框位置作为神经网络训练的基础参数,将所述训练集进行神经网络训练获得预测框;
所述筛选输出模块:通过所述网络训练模块输出的所述预测框的置信度进行筛选,从补片候选区域置信度较高的当中筛选出补片检测结果并输出。
CN202010352775.0A 2020-04-29 2020-04-29 一种基于深度学习的三维超声腹壁疝补片检测方法及系统 Expired - Fee Related CN111626986B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010352775.0A CN111626986B (zh) 2020-04-29 2020-04-29 一种基于深度学习的三维超声腹壁疝补片检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010352775.0A CN111626986B (zh) 2020-04-29 2020-04-29 一种基于深度学习的三维超声腹壁疝补片检测方法及系统

Publications (2)

Publication Number Publication Date
CN111626986A CN111626986A (zh) 2020-09-04
CN111626986B true CN111626986B (zh) 2022-06-21

Family

ID=72260657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010352775.0A Expired - Fee Related CN111626986B (zh) 2020-04-29 2020-04-29 一种基于深度学习的三维超声腹壁疝补片检测方法及系统

Country Status (1)

Country Link
CN (1) CN111626986B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132064A (zh) * 2020-09-25 2020-12-25 新希望六和股份有限公司 基于人工智能的识别孕囊数量的方法、装置、设备和介质
CN117274557B (zh) * 2023-11-20 2024-03-26 首都师范大学 三维图像的数据增强方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875409A (zh) * 2017-03-24 2017-06-20 云南大学 一种轻量型切口疝补片三维超声图像特征提取方法
CN110210391A (zh) * 2019-05-31 2019-09-06 合肥云诊信息科技有限公司 基于多尺度卷积神经网络的舌象纹理定量分析方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040073257A1 (en) * 2002-10-09 2004-04-15 Spitz Gregory A. Methods and apparatus for the repair of hernias
WO2011031789A1 (en) * 2009-09-08 2011-03-17 Atrium Medical Corporation Hernia patch

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875409A (zh) * 2017-03-24 2017-06-20 云南大学 一种轻量型切口疝补片三维超声图像特征提取方法
CN110210391A (zh) * 2019-05-31 2019-09-06 合肥云诊信息科技有限公司 基于多尺度卷积神经网络的舌象纹理定量分析方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Automatic Abdominal Hernia Mesh Detection Based on YOLOM;Siqi Chen等;《IEEE Access》;20220308;第10卷;31420-31431 *
Personalized identification of abdominal wall hernia meshes on computed tomography;Tuan D.Pham等;《Computer Methods and Programs in Biomedicine》;20131010;第113卷(第1期);153-161 *
基于ABUS图像的轻量型切口疝补片计算机辅助检测与评估算法;颜光前等;《云南大学学报( 自然科学版)》;20170910;第39卷(第5期);768-779 *
基于改进YOLOv3和迁移学习的轻量型补片目标检测;范博等;《云南大学学报( 自然科学版)》;20220417;第44卷(第3期);1-9 *

Also Published As

Publication number Publication date
CN111626986A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN110097559B (zh) 基于深度学习的眼底图像病灶区域标注方法
CN106056595B (zh) 基于深度卷积神经网络自动识别甲状腺结节良恶性的辅助诊断系统
CN109376636B (zh) 基于胶囊网络的眼底视网膜图像分类方法
CN108830326B (zh) 一种mri图像的自动分割方法及装置
KR101623431B1 (ko) 의료 영상의 병리 진단 분류 장치 및 이를 이용한 병리 진단 시스템
CN111985536B (zh) 一种基于弱监督学习的胃镜病理图像分类方法
CN112381164B (zh) 一种基于多分支注意力机制的超声图像分类方法和装置
CN111340130A (zh) 一种基于深度学习和影像组学的泌尿结石检测分类方法
CN111626986B (zh) 一种基于深度学习的三维超声腹壁疝补片检测方法及系统
CN111553892A (zh) 基于深度学习的肺结节分割计算方法、装置及系统
US20230005140A1 (en) Automated detection of tumors based on image processing
Chen et al. AI-PLAX: AI-based placental assessment and examination using photos
CN111899259A (zh) 一种基于卷积神经网络的前列腺癌组织微阵列分级方法
Cai et al. Identifying architectural distortion in mammogram images via a se-densenet model and twice transfer learning
Sulam et al. Maximizing AUC with Deep Learning for Classification of Imbalanced Mammogram Datasets.
CN113743463A (zh) 一种基于影像数据和深度学习的肿瘤良恶性识别方法和系统
CN117352164A (zh) 基于人工智能的多模态肿瘤检测诊断平台及其处理方法
Ning et al. Multiscale context-cascaded ensemble framework (MsC 2 EF): application to breast histopathological image
CN112085742A (zh) 一种基于上下文注意力的nafld超声视频诊断方法
CN114418999B (zh) 基于病变关注金字塔卷积神经网络的视网膜病变检测系统
Ali et al. Deep learning-based classification of viruses using transmission electron microscopy images
CN115035339A (zh) 一种基于人工智能的膀胱镜图像分类方法
CN113298773A (zh) 基于深度学习的心脏视图识别与左心室检测装置、系统
Dutta et al. Abnormality Detection and Segmentation in Breast Digital Mammography Images Using Neural Network
Kodumuru et al. Diabetic Retinopathy Screening Using CNN (ResNet 18)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220621

CF01 Termination of patent right due to non-payment of annual fee