CN110738231A - 改进S-DNet神经网络模型的乳腺X射线图像的分类方法 - Google Patents

改进S-DNet神经网络模型的乳腺X射线图像的分类方法 Download PDF

Info

Publication number
CN110738231A
CN110738231A CN201910676268.XA CN201910676268A CN110738231A CN 110738231 A CN110738231 A CN 110738231A CN 201910676268 A CN201910676268 A CN 201910676268A CN 110738231 A CN110738231 A CN 110738231A
Authority
CN
China
Prior art keywords
neural network
network model
dnet
improved
mammary gland
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910676268.XA
Other languages
English (en)
Other versions
CN110738231B (zh
Inventor
李化
李延涛
李强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyuan University of Technology
Original Assignee
Taiyuan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyuan University of Technology filed Critical Taiyuan University of Technology
Priority to CN201910676268.XA priority Critical patent/CN110738231B/zh
Publication of CN110738231A publication Critical patent/CN110738231A/zh
Application granted granted Critical
Publication of CN110738231B publication Critical patent/CN110738231B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Evolutionary Computation (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computational Linguistics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于改进S‑DNet神经网络模型的乳腺X射线图像的分类方法,通过对S‑DNet神经网络模型改进,实现乳腺X射线图像的良恶性分类,提出了一种新的神经网络模型,称为S‑DNet神经网络模型。首先通过对图像进行去背景,去除无用的信息;其次,提高了网络模型的准确率;最后进行训练策略确定。通过本发明,不仅可以提高诊断效率,还能为医生提供更加客观、准确的诊断结果,因而具有重要的临床应用价值。

Description

改进S-DNet神经网络模型的乳腺X射线图像的分类方法
技术领域
本发明涉及机器学习技术领域,尤其涉及一种改进S-DNet神经网络模型的乳腺X射线图像的分类方法。
背景技术
乳腺癌是女性健康“第一杀手”,女性乳腺是由皮肤、纤维组织、乳腺腺体和脂肪组成的,乳腺癌是发生在乳腺腺上皮组织的恶性肿瘤。乳腺癌中99%发生在女性,男性仅占1%。根据世界卫生组织国际癌症研究机构(IARC)2013年的报告,2012年全世界有170多万妇女被诊断患有乳腺癌。在同一年诊断的所有癌症中,这一比例约为 11.9%,据报道有522,000例死亡病例。预计到2025年,将会有1930 万新的癌症病例。
随着计算机技术的不断发展,计算机辅助诊断(CAD)技术也在不断的应用在医学领域,同时,计算机辅助诊断技术也应用于乳腺图像上,最具代表性的就是机器学习技术开始运用于乳腺肿瘤分类中。
为了提高乳腺肿瘤的早期发现率,乳腺癌的发现越早越好,越早越有利于提高乳腺癌患者的存活率,在2005年Berry的研究结果中指出,乳腺癌的发现越早,越有利于提高患者的生存几率,越有利于提高患者的病情控制。在美国,查出来的患有乳腺癌的总人口中,只有20%左右的人口是处于乳腺癌中晚期,其余的全部是乳腺癌早期。但是,在我国仅仅只有不到50%的人在查询结果出来之后是在乳腺癌早期,从这一点可以看出我国对于乳腺癌早期检测的不足。如果一个乳腺癌患者能够在早期就发现病变,有很大的几率能够治愈,所以早期的诊断不仅仅会降低治疗疾病的所花费的人力物力,也会提高患者的疾病治愈几率。
发明内容
本发明的目的在于提供一种基于改进S-DNet神经网络模型的乳腺X射线图像的分类方法。
本发明的目的可以通过采用如下的技术措施来实现,设计一种基于改进S-DNet神经网络模型的乳腺X射线图像的分类方法,包括:
获取已标记的乳腺X射线图像,并对其进行图像预处理;
基于DenseNet神经网络模型,构建改进的S-DNet神经网络模型;其中,改进的S-DNet神经网络模型为并列双层结构,第一层为 DenseNet神经网络模型,第二层为普通卷积神经网络;
将预处理后的乳腺X射线图像输入到改进的S-DNet神经网络模型中,对改进的S-DNet神经网络模型进行训练,验证和测试;其中,训练的学习率设定为0.01,迭代次数设定为10次,学习方式采用step 学习方式;
将待分类的乳腺X射线图像输入训练好的改进的S-DNet神经网络模型中,对待分类的乳腺X射线图像进行标记,完成对乳腺X射线图像的分类。
其中,对已标记的乳腺X射线图像进行预处理的步骤中,预处理的方法为去背景,具体包括步骤:
将已标记的乳腺X射线图像的像素点按照行列相加分别放入两个列表X和Y中,X代表行相加列表,Y代表列相加列表,具体公式如下所示:
Figure RE-GDA0002308417600000022
其中,图像左上角为坐标点(1,1),公式中xij表示坐标为(i,j)的点像素值,Xi表示列表X的第i个值,Yj代表列表Y的第j个元素,n 代表图像大小;
在两个列表中选取连续不为0的最大区域,记录下区域起始值索引位置X1以及Y1,记录下末尾值索引位置X2和Y2,计算两个列表起始位置索引与末尾位置索引的差值XL=X2-X1以及YL=Y2-Y1
以(X1,Y1)为左上角坐标,以XL以及YL为长和宽,截取图像,作为去背景后的乳腺X射线图像,其余背景部分全部去除。
其中,在改进的S-DNet神经网络模型中,第一层为DenseNet 神经网络模型,由DenseBlock层和Transition层组成;其中DenseNet 网络总层数采用40层,growth rate k=12,包括3个DenseBlock层和 2个Transition层。
其中,在采用step学习方式的训练过程中,隔预设stepsize改变一次学习率,使学习率呈递减余弦式变化。
其中,在改进的S-DNet神经网络模型的训练的同时,利用Adam 优化器优化S-DNet神经网络模型,以实现S-DNet神经网络模型达到最佳。
其中,在改进的S-DNet神经网络模型的优化训练的同时,利用 Adam算法优化改进的S-DNet神经网络模型,使改进的S-DNet神经网络模型达到最佳,乳腺X射线图像的良恶性分类的准确率最高。
区别于现有技术,本发明的改进S-DNet神经网络模型的乳腺X 射线图像的分类方法,通过对S-DNet神经网络模型改进,实现乳腺 X射线图像的良恶性分类,提出了一种新的神经网络模型,称为 S-DNet神经网络模型。首先通过对图像进行去背景,去除无用的信息;其次,以提高成本以及时间为代价,提高了网络模型的准确率;最后进行训练策略确定。通过本发明,不仅可以提高诊断效率,还能为医生提供更加客观、准确的诊断结果,因而具有重要的临床应用价值。
附图说明
图1为本发明提供的一种改进S-DNet神经网络模型的乳腺X射线图像的分类方法的流程图。
图2为本发供的一种DenseNet神经网络模型的网络结构图。
图3为本发明提供的一种改进的S-DNet神经网络模型的网络结构图。
具体实施方式
下面结合具体实施方式对本发明的技术方案作进一步更详细的描述。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
参阅图1,图1是本发明提供的一种改进S-DNet神经网络模型的乳腺X射线图像的分类方法的流程示意图。该方法的步骤包括:
S110:获取已标记的乳腺X射线图像,并对其进行图像预处理。
其中,预处理的方式为去背景。乳腺图像的像素值很大,而且一般大小不一,一般都是在几千乘以几千的像素值附近,但是一幅乳腺图像中通常背景部分就要占据1/2以上,而且背景里全都是无用信息,对于图像的检测并没有任何的作用,所以需要进行去背景操作。
去背景的操作过程具体包括步骤:
将已标记的乳腺X射线图像的像素点按照行列相加分别放入两个列表X和Y中,X代表行相加列表,Y代表列相加列表,具体公式如下所示:
Figure RE-GDA0002308417600000041
其中,图像左上角为坐标点(1,1),公式中xij表示坐标为(i,j)的点像素值,Xi表示列表X的第i个值,Yj代表列表Y的第j个元素,n 代表图像大小;
在两个列表中选取连续不为0的最大区域,记录下区域起始值索引位置X1以及Y1,记录下末尾值索引位置X2和Y2,计算两个列表起始位置索引与末尾位置索引的差值XL=X2-X1以及YL=Y2-Y1
以(X1,Y1)为左上角坐标,以XL以及YL为长和宽,截取图像,作为去背景后的乳腺X射线图像,其余背景部分全部去除。
S120:基于DenseNet神经网络模型,构建改进的S-DNet神经网络模型;其中,改进的S-DNet神经网络模型为并列双层结构,第一层为DenseNet神经网络模型,第二层为普通卷积神经网络。
图2所示为原始的DenseNet神经网络模型,DenseNet的网络结构主要由DenseBlock层和Transition层组成。为了防止网络结构变得更宽,DenseNet网络总层数采用40层,growth rate k=12,其中包括 3个DenseBlock层和2个Transition层,参数不会太多,同时可以节省计算内存,还能减少过拟合。
改进的DenseNet神经网络模型,称为改进的S-DNet神经网络模型。如图3所示。网络结构很简单,上层是DenseNet网络,下层是普通卷积网络,结合之后虽然时间消耗多了,但是准确率提升。
S130:将预处理后的乳腺X射线图像输入到改进的S-DNet神经网络模型中,对改进的S-DNet神经网络模型进行训练,验证和测试;其中,训练的学习率设定为0.01,迭代次数设定为10次,学习方式采用step学习方式。
已标记好乳腺X射线图像通常从医院的病例库中获取,其数量通常比较小。在本实施例中,对已标记的乳腺X射线图像进行数据集增强,采用前述两种方法,实现对图像数据集的增大。
在常规机器学习过程中,学习率通常初始值设为0.01,同时需要根据实际情况而制定,在本发明中设定设为0.01。然后初始迭代10 个左右的epoch,大体查看一下损失函数以及准确率的变换趋势,若能够减小损失以及增大准确率,就说明初始学习率大体合适,可以多试几次,选择好的初始学习率。
最常见的学习方式是step学习方式,每隔一定的stepsize学习率衰减为原来的十分之一,大体符合训练初期大的学习率的要求,也符合训练后期小学习率的要求。
随着梯度达到高原,训练损失会更难得到改善。鞍点是函数上的导数为零但不是轴上局部极值的点,减少损失的难度来自鞍点,而不是局部最低点。如果训练不会改善损失,我们可根据一些周期函数来改变每次迭代的学习速率。每个Epoch的迭代次数都是固定的。这种方法让学习速率在合理的边界值之间周期变化。这是有益的,因为如果我们卡在鞍点上,提高学习速率可以更快地穿越鞍点。
本发明选用Loshchilov&Hutter提出的预热重启(Warm Restarts) 随机梯度下降并对其进行相应改进,这种方法使用余弦函数作为周期函数,并在每个周期最大值时重新开始学习速率。每隔一定stepsize 改变一次学习率,使学习率呈递减余弦式变化,这种改进在训练后期有着更好的应用。
损失函数一般有均方误差、最大似然误差、最大后验概率、交叉熵损失函数交叉熵函数,均方误差是一种较早的损失函数定义方法,它衡量的是两个分布对应维度的差异性之和,最大似然误差是从概率的角度,求解出能完美拟合训练样例的模型参数theta,使得概率p(y |x,theta)最大化,最大化后验概率,即使得概率p(theta|x,y)最大化,实际上也等价于带正则化项的最大似然概率,它考虑了先验信息,通过对参数值的大小进行约束来防止“过拟合”,交叉熵损失函数,衡量的是两个分布p、q的相似性。本发明选用相对较好的交叉熵损失函数,公式(3)为交叉熵损失函数公式:
Figure RE-GDA0002308417600000061
其中y为期望的输出,a为神经元实际输出。
实际情况中还需要加入正则化以防止过拟合,常见的正则化有 L1正则项以及L2正则项,本发明选用L2正则项,公式(4)为加入 L2正则项构成的目标函数:
Figure RE-GDA0002308417600000062
其中λ为权值衰减,一般设为0.9,本发明中也设为0.9。
在改进的S-DNet神经网络模型训练过程中,还包括对其进行优化的步骤。优化过程中,常见的优化器有SGD、Momentum、Nesterov、 RMSprop、Adam等,其中SGD是最早的一种优化方式,但是SGD 容易收敛到局部最优,并且在某些情况下可能被困在鞍点, Momentum能够在相关方向加速SGD,抑制振荡,从而加快收敛,但是无法自适应提高灵敏度,Nesterov、RMSprop也有一定的缺陷,现在最好的优化方式是Adam优化方式,本发明选取Adam优化方式。
Adam本质上是带有动量项的RMSprop,它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。Adam的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳,本发明选用Adam优化器。
S140:将待分类的乳腺X射线图像输入训练好的改进的S-DNet 神经网络模型中,对待分类的乳腺X射线图像进行标记,完成对乳腺X射线图像的分类。
区别于现有技术,本发明的改进S-DNet神经网络模型的乳腺X 射线图像的分类方法,通过对S-DNet神经网络模型改进,实现乳腺 X射线图像的良恶性分类,提出了一种新的神经网络模型,称为 S-DNet神经网络模型。首先通过对图像进行去背景,去除无用的信息;其次,以提高成本以及时间为代价,提高了网络模型的准确率;最后进行训练策略确定。通过本发明,不仅可以提高诊断效率,还能为医生提供更加客观、准确的诊断结果,因而具有重要的临床应用价值。
以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (5)

1.一种基于改进S-DNet神经网络模型的乳腺X射线图像的分类方法,其特征在于,包括:
获取已标记的乳腺X射线图像,并对其进行图像预处理;
基于DenseNet神经网络模型,构建改进的S-DNet神经网络模型;其中,改进的S-DNet神经网络模型为并列双层结构,第一层为DenseNet神经网络模型,第二层为普通卷积神经网络;
将预处理后的乳腺X射线图像输入到改进的S-DNet神经网络模型中,对改进的S-DNet神经网络模型进行训练,验证和测试;其中,训练的学习率设定为0.01,迭代次数设定为10次,学习方式采用step学习方式;
将待分类的乳腺X射线图像输入训练好的改进的S-DNet神经网络模型中,对待分类的乳腺X射线图像进行标记,完成对乳腺X射线图像的分类。
2.根据权利要求1所述的基于改进S-DNet神经网络模型的乳腺X射线图像的分类方法,其特征在于,对已标记的乳腺X射线图像进行预处理的步骤中,预处理的方法为去背景,具体包括步骤:
将已标记的乳腺X射线图像的像素点按照行列相加分别放入两个列表X和Y中,X代表行相加列表,Y代表列相加列表,具体公式如下所示:
Figure FDA0002143380660000011
其中,图像左上角为坐标点(1,1),公式中xij表示坐标为(i,j)的点像素值,Xi表示列表X的第i个值,Yj代表列表Y的第j个元素,n代表图像大小;
在两个列表中选取连续不为0的最大区域,记录下区域起始值索引位置X1以及Y1,记录下末尾值索引位置X2和Y2,计算两个列表起始位置索引与末尾位置索引的差值XL=X2-X1以及YL=Y2-Y1
以(X1,Y1)为左上角坐标,以XL以及YL为长和宽,截取图像,作为去背景后的乳腺X射线图像,其余背景部分全部去除。
3.根据权利要求1所述的基于改进S-DNet神经网络模型的乳腺X射线图像的分类方法,其特征在于,在改进的S-DNet神经网络模型中,第一层为DenseNet神经网络模型,由DenseBlock层和Transition层组成;其中DenseNet网络总层数采用40层,growth rate k=12,包括3个DenseBlock层和2个Transition层。
4.根据权利要求1所述的基于改进S-DNet神经网络模型的乳腺X射线图像的分类方法,其特征在于,在采用step学习方式的训练过程中,隔预设stepsize改变一次学习率,使学习率呈递减余弦式变化。
5.根据权利要求1所述的改进S-DNet神经网络模型的乳腺X射线图像的分类方法,其特征在于,在改进的S-DNet神经网络模型的训练的同时,利用Adam优化器优化S-DNet神经网络模型,以实现S-DNet神经网络模型达到最佳。
CN201910676268.XA 2019-07-25 2019-07-25 改进S-DNet神经网络模型的乳腺X射线图像的分类方法 Active CN110738231B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910676268.XA CN110738231B (zh) 2019-07-25 2019-07-25 改进S-DNet神经网络模型的乳腺X射线图像的分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910676268.XA CN110738231B (zh) 2019-07-25 2019-07-25 改进S-DNet神经网络模型的乳腺X射线图像的分类方法

Publications (2)

Publication Number Publication Date
CN110738231A true CN110738231A (zh) 2020-01-31
CN110738231B CN110738231B (zh) 2022-12-27

Family

ID=69267682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910676268.XA Active CN110738231B (zh) 2019-07-25 2019-07-25 改进S-DNet神经网络模型的乳腺X射线图像的分类方法

Country Status (1)

Country Link
CN (1) CN110738231B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112546463A (zh) * 2021-02-25 2021-03-26 四川大学 基于深度神经网络的放疗剂量自动预测方法

Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991646A (zh) * 2017-03-28 2017-07-28 福建帝视信息科技有限公司 一种基于密集连接网络的图像超分辨率方法
CN107886514A (zh) * 2017-11-22 2018-04-06 浙江中医药大学 基于深度残差网络的乳腺钼靶图像肿块语义分割方法
CN108182388A (zh) * 2017-12-14 2018-06-19 哈尔滨工业大学(威海) 一种基于图像的运动目标跟踪方法
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108388841A (zh) * 2018-01-30 2018-08-10 浙江大学 基于多特征深度神经网络的宫颈活检区域识别方法及装置
CN108509976A (zh) * 2018-02-12 2018-09-07 北京佳格天地科技有限公司 动物的识别装置和方法
CN108765290A (zh) * 2018-05-29 2018-11-06 天津大学 一种基于改进的稠密卷积神经网络的超分辨率重建方法
CN108830282A (zh) * 2018-05-29 2018-11-16 电子科技大学 一种乳腺x光图像的乳腺肿块信息提取及分类方法
CN108898175A (zh) * 2018-06-26 2018-11-27 北京工业大学 基于深度学习胃癌病理切片的计算机辅助模型构建方法
CN109003229A (zh) * 2018-08-09 2018-12-14 成都大学 基于三维增强深度残差网络的磁共振超分辨率重建方法
CN109064398A (zh) * 2018-07-14 2018-12-21 深圳市唯特视科技有限公司 一种基于残差密集网络的图像超分辨率实现方法
CN109064405A (zh) * 2018-08-23 2018-12-21 武汉嫦娥医学抗衰机器人股份有限公司 一种基于双路径网络的多尺度图像超分辨率方法
CN109509149A (zh) * 2018-10-15 2019-03-22 天津大学 一种基于双通道卷积网络特征融合的超分辨率重建方法
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
CN109583942A (zh) * 2018-11-07 2019-04-05 浙江工业大学 一种基于密集网络的多任务卷积神经网络顾客行为分析方法
CN109685077A (zh) * 2018-12-13 2019-04-26 深圳先进技术研究院 一种乳腺肿块图像识别方法及装置
US20190125193A1 (en) * 2017-10-30 2019-05-02 Terumo Kabushiki Kaisha Diagnostic Method, Method for Validation of Diagnostic Method, and Treatment Method
US20190130562A1 (en) * 2017-11-02 2019-05-02 Siemens Healthcare Gmbh 3D Anisotropic Hybrid Network: Transferring Convolutional Features from 2D Images to 3D Anisotropic Volumes
CN109717891A (zh) * 2018-12-29 2019-05-07 浙江明峰智能医疗科技有限公司 一种基于深度学习的pet散射校正方法
CN109753866A (zh) * 2017-11-03 2019-05-14 西门子保健有限责任公司 机器学习中具有密集特征金字塔网络架构的医学图像对象检测
CN109785249A (zh) * 2018-12-22 2019-05-21 昆明理工大学 一种基于持续性记忆密集网络的图像高效去噪方法
CN109785320A (zh) * 2019-01-28 2019-05-21 太原理工大学 一种采用改进型AlexNet模型对乳腺钼靶X线图像进行分类和识别的方法
CN109902682A (zh) * 2019-03-06 2019-06-18 太原理工大学 一种基于残差卷积神经网络的乳腺x线图像检测方法
CN109919838A (zh) * 2019-01-17 2019-06-21 华南理工大学 基于注意力机制提升轮廓清晰度的超声图像超分辨率重建方法
CN109919005A (zh) * 2019-01-23 2019-06-21 平安科技(深圳)有限公司 牲畜身份识别方法、电子装置及可读存储介质

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991646A (zh) * 2017-03-28 2017-07-28 福建帝视信息科技有限公司 一种基于密集连接网络的图像超分辨率方法
US20190125193A1 (en) * 2017-10-30 2019-05-02 Terumo Kabushiki Kaisha Diagnostic Method, Method for Validation of Diagnostic Method, and Treatment Method
US20190130562A1 (en) * 2017-11-02 2019-05-02 Siemens Healthcare Gmbh 3D Anisotropic Hybrid Network: Transferring Convolutional Features from 2D Images to 3D Anisotropic Volumes
CN109753866A (zh) * 2017-11-03 2019-05-14 西门子保健有限责任公司 机器学习中具有密集特征金字塔网络架构的医学图像对象检测
CN107886514A (zh) * 2017-11-22 2018-04-06 浙江中医药大学 基于深度残差网络的乳腺钼靶图像肿块语义分割方法
CN108182388A (zh) * 2017-12-14 2018-06-19 哈尔滨工业大学(威海) 一种基于图像的运动目标跟踪方法
CN108388841A (zh) * 2018-01-30 2018-08-10 浙江大学 基于多特征深度神经网络的宫颈活检区域识别方法及装置
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108509976A (zh) * 2018-02-12 2018-09-07 北京佳格天地科技有限公司 动物的识别装置和方法
CN108765290A (zh) * 2018-05-29 2018-11-06 天津大学 一种基于改进的稠密卷积神经网络的超分辨率重建方法
CN108830282A (zh) * 2018-05-29 2018-11-16 电子科技大学 一种乳腺x光图像的乳腺肿块信息提取及分类方法
CN108898175A (zh) * 2018-06-26 2018-11-27 北京工业大学 基于深度学习胃癌病理切片的计算机辅助模型构建方法
CN109064398A (zh) * 2018-07-14 2018-12-21 深圳市唯特视科技有限公司 一种基于残差密集网络的图像超分辨率实现方法
CN109003229A (zh) * 2018-08-09 2018-12-14 成都大学 基于三维增强深度残差网络的磁共振超分辨率重建方法
CN109064405A (zh) * 2018-08-23 2018-12-21 武汉嫦娥医学抗衰机器人股份有限公司 一种基于双路径网络的多尺度图像超分辨率方法
CN109509149A (zh) * 2018-10-15 2019-03-22 天津大学 一种基于双通道卷积网络特征融合的超分辨率重建方法
CN109583942A (zh) * 2018-11-07 2019-04-05 浙江工业大学 一种基于密集网络的多任务卷积神经网络顾客行为分析方法
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
CN109685077A (zh) * 2018-12-13 2019-04-26 深圳先进技术研究院 一种乳腺肿块图像识别方法及装置
CN109785249A (zh) * 2018-12-22 2019-05-21 昆明理工大学 一种基于持续性记忆密集网络的图像高效去噪方法
CN109717891A (zh) * 2018-12-29 2019-05-07 浙江明峰智能医疗科技有限公司 一种基于深度学习的pet散射校正方法
CN109919838A (zh) * 2019-01-17 2019-06-21 华南理工大学 基于注意力机制提升轮廓清晰度的超声图像超分辨率重建方法
CN109919005A (zh) * 2019-01-23 2019-06-21 平安科技(深圳)有限公司 牲畜身份识别方法、电子装置及可读存储介质
CN109785320A (zh) * 2019-01-28 2019-05-21 太原理工大学 一种采用改进型AlexNet模型对乳腺钼靶X线图像进行分类和识别的方法
CN109902682A (zh) * 2019-03-06 2019-06-18 太原理工大学 一种基于残差卷积神经网络的乳腺x线图像检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
许强等: "一种改进的卷积神经网络SAR目标识别算法", 《西安电子科技大学学报》 *
闫玉娟等: "基于CRFID和模式识别的跌倒检测系统", 《计算机工程》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112546463A (zh) * 2021-02-25 2021-03-26 四川大学 基于深度神经网络的放疗剂量自动预测方法
CN112546463B (zh) * 2021-02-25 2021-06-01 四川大学 基于深度神经网络的放疗剂量自动预测方法

Also Published As

Publication number Publication date
CN110738231B (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN111798462B (zh) 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法
CN110930416B (zh) 一种基于u型网络的mri图像前列腺分割方法
CN107886514B (zh) 基于深度残差网络的乳腺钼靶图像肿块语义分割方法
CN110675406A (zh) 基于残差双注意力深度网络的ct图像肾脏分割算法
CN105389811B (zh) 一种基于多级阈值分割的多模态医学图像处理方法
CN109727253A (zh) 基于深度卷积神经网络自动分割肺结节的辅助检测方法
CN112767407B (zh) 一种基于级联门控3DUnet模型的CT图像肾脏肿瘤分割方法
Ye et al. Medical image diagnosis of prostate tumor based on PSP-Net+ VGG16 deep learning network
CN112837274A (zh) 一种基于多模态多站点数据融合的分类识别方法
CN114677403A (zh) 基于深度学习注意力机制的肝脏肿瘤图像分割方法
CN110675379A (zh) 一种融合空洞卷积的u形脑肿瘤分割网络
CN113989551A (zh) 一种基于改进ResNet网络的阿尔茨海默病分类方法
CN116863221A (zh) 一种基于cnn与注意力机制的阿尔兹海默症分类方法
CN111784713A (zh) 一种引入注意力机制的u形心脏分割方法
CN112734769B (zh) 基于交互信息引导的深度学习方法的医学图像分割和定量分析方法、计算机设备、存储介质
CN110738231A (zh) 改进S-DNet神经网络模型的乳腺X射线图像的分类方法
CN113744209A (zh) 基于多尺度残差U-net网络的心脏分割方法
CN117237627A (zh) 一种多模态mri脑肿瘤图像分割方法
CN111340829A (zh) 一种改进的dme水肿区域神经网络分割模型的构建方法
Astaraki et al. Fully automatic segmentation of gross target volume and organs-at-risk for radiotherapy planning of nasopharyngeal carcinoma
CN113822858A (zh) 基于残差注意力单元的心脏图像分割方法
CN114693698A (zh) 一种基于神经网络的计算机辅助肺气道分割方法
CN111951286A (zh) 基于u形网络的心室瘢痕分割方法
Morra et al. A neural network approach to unsupervised segmentation of single-channel MR images
CN111784690A (zh) 基于u形神经网络模型的心脏右心室分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant