CN111223162B - 一种用于重建epat图像的深度学习方法及系统 - Google Patents

一种用于重建epat图像的深度学习方法及系统 Download PDF

Info

Publication number
CN111223162B
CN111223162B CN202010008799.4A CN202010008799A CN111223162B CN 111223162 B CN111223162 B CN 111223162B CN 202010008799 A CN202010008799 A CN 202010008799A CN 111223162 B CN111223162 B CN 111223162B
Authority
CN
China
Prior art keywords
layer
neural network
covn
convolutional neural
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010008799.4A
Other languages
English (en)
Other versions
CN111223162A (zh
Inventor
孙正
王新宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North China Electric Power University
Original Assignee
North China Electric Power University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North China Electric Power University filed Critical North China Electric Power University
Priority to CN202010008799.4A priority Critical patent/CN111223162B/zh
Publication of CN111223162A publication Critical patent/CN111223162A/zh
Application granted granted Critical
Publication of CN111223162B publication Critical patent/CN111223162B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种用于重建EPAT图像的深度学习方法及系统,方法包括,构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;建立前向传播的卷积神经网络模型;基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。本发明中的上述方法能够从有限角度扫描采集的光声信号中重建高质量的腔体横截面光吸收能量分布图。

Description

一种用于重建EPAT图像的深度学习方法及系统
技术领域
本发明涉及医学成像领域,特别是涉及一种用于重建EPAT图像的深度学习方法及系统。
背景技术
光声内窥层析成像(Endoscopic photoacoustic tomography,EPAT)将无创的光声层析成像(Photoacoustic tomography,PAT)和内窥检测技术相结合,可对生物腔体组织(如鼻腔、消化道以及动脉血管等)进行功能性成像,显示腔体横截面的形态结构和组织功能成分。受腔道的几何结构、成像导管的机械结构和空间位置以及成像时间等的限制,超声探测器在腔道内有时只能进行有限角度的扫描,采集到不完备的光声信号数据。若采用标准图像重建方法(如滤波反投影和时间反演等)对不完备的光声数据进行图像重建,会导致图像中出现严重的下采样伪影和失真。
发明内容
本发明的目的是提供一种用于重建EPAT图像的深度学习方法及系统,从有限角度扫描采集的光声信号中重建高质量的腔体横截面光吸收能量分布图。
为实现上述目的,本发明提供了如下方案:
一种用于重建EPAT图像的深度学习方法,所述方法包括:
构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
建立前向传播的卷积神经网络模型;
基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
可选的,所述构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集具体包括:
建立腔体横截面积的仿真模型;
对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
通过求解光声波动方程,得到组织中产生的光声信号;
将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
可选的,所述建立前向传播的卷积神经网络模型具体包括:
步骤1:确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
步骤2:初始化卷积神经网络参数;
步骤3:计算卷积神经网络中第k层网络结构单元的输入;
Figure BDA0002356346800000021
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;/>
Figure BDA0002356346800000022
是数据拟合信息;yi是数据集中第i个样本的光声信号;/>
Figure BDA0002356346800000031
是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
步骤4:令卷积次数covn=0,特征通道数channels=16;
步骤5:将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
步骤6:对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
步骤7:令c=c+1,covn=covn+1,channels=channels+2。
步骤8:执行所述步骤6,之后转步骤9。
步骤9:令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1
Figure BDA0002356346800000032
经过covn次卷积后的特征图,mapc2是/>
Figure BDA0002356346800000033
经过covn次卷积后的特征图;/>
Figure BDA0002356346800000034
为第k次迭代输出的光吸收能量分布图像,/>
Figure BDA0002356346800000035
为数据拟合信息;
步骤10:令channels=channels/2,即,使特征图层数量减半;
步骤11:执行所述步骤6,之后转步骤12。
步骤12:令c=c+1,covn=covn+1,channels=1;
步骤13:执行所述步骤6,之后转步骤14;
步骤14:令c=c+1,covn=covn+1,
Figure BDA0002356346800000036
之后利用ReLU函数计算线性激活响应对应的函数值,得到卷积操作的特征图层;
步骤15:令k=k+1,如果k<5,转步骤16,否则返回步骤3;
步骤16:输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
可选的,所述基于所述训练集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型具体包括:
步骤1:令k=0,t=0;k为网络的层序号,t为网络参数梯度累积的修正次数。
步骤2:初始化参数:遍历训练集中所有小批量训练集的次数epoch=0;训练集中小批量训练集的索引I=1;
步骤3:将训练集中的第I组小批量训练集AI中的M个样本输入至搭建好的CNN模型中进行前向传播;
步骤4:通过最小化下式逐层训练网络参数:
Figure BDA0002356346800000037
其中
Figure BDA0002356346800000041
式中,C(W,b)是AI中关于W和b的损失函数;W是网络的权重参数集;b是网络的偏置参数集;θk是第k个网络结构单元的参数;
Figure BDA0002356346800000042
和/>
Figure BDA0002356346800000043
分别是第k次和第k+1次迭代输出的光吸收能量分布图像;/>
Figure BDA0002356346800000044
是仿真的光吸收能量分布图;/>
Figure BDA0002356346800000045
是结构相同、具有不同学习参数θk的神经网络;yi是探测器测量的光声信号;/>
Figure BDA0002356346800000046
是数据拟合信息:
Figure BDA0002356346800000047
步骤5:计算网络输出层各网络参数梯度:
Figure BDA0002356346800000048
其中,Z21是前向传播中第21层网络产生的线性激活响应;W21是第21层网络的权重参数矩阵;b21是第21层网络的偏置参数向量;X20是前向传播中第20层网络的输出,也是第21层的输入;
Figure BDA0002356346800000049
表示矩阵的Hadamard乘法;σ'(Z21)(X20)是ReLU函数的一阶导数;上标T表示求矩阵的转置。
步骤6:计算输出层的误差向量δ21
Figure BDA00023563468000000410
根据δ21递推得到第20层至第2层的误差向量:
Figure BDA00023563468000000411
其中,c=20,19,…,3,2,1;δc是第c层网络的误差向量;
步骤7:计算每一层网络参数的梯度:
Figure BDA00023563468000000412
其中,c=2,3,…,21;Wc是第c层网络的权重参数矩阵;bc是第c层网络的偏置参数向量;Zc是前向传播中第c层网络产生的线性激活响应;Xc-1是前向传播中第c-1层网络的输出;
步骤8:计算Momentum自适应动量指数加权平均数:
Figure BDA00023563468000000413
其中dW是Wc的梯度矩阵,db是bc的梯度向量:
Figure BDA0002356346800000051
式中,VdW和Vdb分别是dW和db的Momentum指数加权平均数,VdW的初始值为0;β1=0.9为一阶矩估计的指数衰减速率;
步骤9:计算RMSprop自适应均方根指数加权平均数:
Figure BDA0002356346800000052
其中,SdW和Sdb分别是dW和db的RMSprop指数加权平均数,SdW的初始值为0;β2=0.999是二阶矩估计的指数衰减速率;
步骤10:令t=t+1,为了避免在最初迭代过程中由于指数加权平均数过小导致网络训练停滞,修正参数:
Figure BDA0002356346800000053
其中,
Figure BDA0002356346800000054
和/>
Figure BDA0002356346800000055
是修正后的Momentum指数加权平均数;/>
Figure BDA0002356346800000056
和/>
Figure BDA0002356346800000057
是修正后的RMSprop指数加权平均数;
步骤11:将Wc和bc沿各自梯度方向进行微调:
Figure BDA0002356346800000058
其中,
Figure BDA0002356346800000059
和/>
Figure BDA00023563468000000510
分别是微调后的权重矩阵和偏置向量;ε=10-8是用于保持数值计算稳定的小常数;α=0.001是学习率。
步骤12:令I=I+1,若I<N+1,则转向步骤2;若I≥N+1,则令epoch=epoch+1,转向步骤13。
步骤13:若epoch<epochmax,则令epoch=epoch+1,转向步骤2;若epoch≥epochmax,则转向步骤14;其中,epochmax是epoch的最大值;
步骤14:令k=k+1,若k<5,则返回步骤2,否则,转向步骤15;
步骤15:确定最终的神经网络模型
Figure BDA0002356346800000061
可选的,所述按照比例划分为训练集、验证集和测试集具体是按照6:2:2进行划分。
本发明另外提供一种用于重建EPAT图像的深度学习系统,所述系统包括:
数据集构造模块,用于构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
卷积神经网络模型建立模块,用于建立前向传播的卷积神经网络模型;
优化模块,用于基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
光吸收能量分布图确定模块,用于将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
可选的,所述数据集构造模块具体包括:
仿真模型建立单元,用于建立腔体横截面积的仿真模型;
数值仿真单元,用于对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
光吸收能量分布图确定单元,用于根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
光声信号确定单元,用于通过求解光声波动方程,得到组织中产生的光声信号;
深度学习数据集确定单元,用于将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
数据集划分单元,用于将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
分组单元,用于将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
可选的,所述卷积神经网络模型建立模块具体包括:
卷积神经网络结构和参数确定单元,用于确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
初始化单元,用于初始化卷积神经网络参数;
计算单元,用于计算卷积神经网络中第k层网络结构单元的输入;
Figure BDA0002356346800000071
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;/>
Figure BDA0002356346800000072
是数据拟合信息;yi是数据集中第i个样本的光声信号;/>
Figure BDA0002356346800000073
是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
第一赋值单元,用于令卷积次数covn=0,特征通道数channels=16;
输入单元,用于将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
卷积单元,用于对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
第二赋值单元,用于令c=c+1,covn=covn+1,channels=channels+2。
第一循环单元,用于执行所述步骤6,之后转步骤9。
第三赋值单元,用于令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1
Figure BDA0002356346800000074
经过covn次卷积后的特征图,mapc2是/>
Figure BDA0002356346800000075
经过covn次卷积后的特征图;/>
Figure BDA0002356346800000076
为第k次迭代输出的光吸收能量分布图像,/>
Figure BDA0002356346800000077
为数据拟合信息;
第四赋值单元,用于令channels=channels/2,即,使特征图层数量减半;
第二循环单元,用于执行所述步骤6,之后转步骤12。
第五赋值单元,用于令c=c+1,covn=covn+1,channels=1;
第三循环单元,用于执行所述步骤6,之后转步骤14;
第六赋值单元,用于令c=c+1,covn=covn+1,
Figure BDA0002356346800000081
之后利用ReLU函数计算线性激活响应对应的函数值,得到卷积操作的特征图层;
第四循环单元,用于令k=k+1,如果k<5,转步骤16,否则返回步骤3;
输出单元,用于输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明采用计算机仿真的方法,建立适用于有限角度EPAT图像重建的深度学习数据集;然后,构建卷积神经网络(convolutional neural network,CNN),并逐层贪婪预训练每一层网络,评估网络性能,进而优化各层网络的超参数;之后,逐层优化网络的全部结构单元,得到优化后的整体网络结构;最后,将有限角度光声信号测量数据输入训练后的CNN,重建腔体横截面上的光吸收能量分布图,大大提高了重建图像的质量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例用于重建EPAT图像的深度学习方法流程图;
图2为本发明实施例腔体横截面积计算机仿真模型;
图3为本发明实施例CNN模型结构示意图;
图4为本发明实施例用于重建EPAT图像的深度学习系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种用于重建EPAT图像的深度学习方法,从有限角度扫描采集的光声信号中重建高质量的腔体横截面光吸收能量分布图。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例用于重建EPAT图像的深度学习方法流程图,如图1所示,所述方法包括:
步骤101:构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集。
具体的,可分为以下四个步骤:
(1)建立腔体横截面的计算机仿真模型
如图2所示,建立腔体横截面积的仿真模型,其中,成像导管位于腔体横截面的中心,周围由内向外依次是管腔、病变组织和腔体壁。以成像导管为坐标原点,将腔体横截面等角度划分为m份,则探测器的第l个测量角度是θl=360(l-1)/m,其中l=1,2,...,m。
(2)对EPAT成像进行前向仿真:
对成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,通过求解扩散近似方程(diffusion equation,DE)得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图。求解光声波动方程,得到组织中产生的光声信号。
(3)构建数据集:
将仿真得到的光声信号作为数据集中样本的输入,将仿真得到的光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集。
(4)划分数据集:
将数据集中的所有样本随机打乱,然后按照6:2:2的比例将数据集划分为训练集(表示为A)、验证集和测试集。把训练集A中的样本平均分成N组,每组是一个小批量训练集,包含M个样本。
步骤102:建立前向传播的卷积神经网络模型。
如图3所示,图3为本发明采用的网络结构单元,具体建立步骤如下:
步骤1:确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
步骤2:初始化卷积神经网络参数;
步骤3:计算卷积神经网络中第k层网络结构单元的输入;
Figure BDA0002356346800000101
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;/>
Figure BDA0002356346800000102
是数据拟合信息;yi是数据集中第i个样本的光声信号;/>
Figure BDA0002356346800000103
是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
步骤4:令卷积次数covn=0,特征通道数channels=16;
步骤5:将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
步骤6:对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
步骤7:令c=c+1,covn=covn+1,channels=channels+2。
步骤8:执行所述步骤6,之后转步骤9。
步骤9:令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1
Figure BDA0002356346800000104
经过covn次卷积后的特征图,mapc2是/>
Figure BDA0002356346800000105
经过covn次卷积后的特征图;/>
Figure BDA0002356346800000106
为第k次迭代输出的光吸收能量分布图像,/>
Figure BDA0002356346800000107
为数据拟合信息;
步骤10:令channels=channels/2,即,使特征图层数量减半;
步骤11:执行所述步骤6,之后转步骤12。
步骤12:令c=c+1,covn=covn+1,channels=1;
步骤13:执行所述步骤6,之后转步骤14;
步骤14:令c=c+1,covn=covn+1,
Figure BDA0002356346800000108
之后利用ReLU函数计算线性激活响应对应的函数值,得到卷积操作的特征图层;
步骤15:令k=k+1,如果k<5,转步骤16,否则返回步骤3;
步骤16:输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
步骤103:基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型。
具体步骤如下:
步骤1:令k=0,t=0;k为网络的层序号,t为网络参数梯度累积的修正次数。
步骤2:初始化参数:遍历训练集中所有小批量训练集的次数epoch=0;训练集中小批量训练集的索引I=1;
步骤3:将训练集中的第I组小批量训练集AI中的M个样本输入至搭建好的CNN模型中进行前向传播;
步骤4:通过最小化下式逐层训练网络参数:
Figure BDA0002356346800000111
其中
Figure BDA0002356346800000112
式中,C(W,b)是AI中关于W和b的损失函数;W是网络的权重参数集;b是网络的偏置参数集;θk是第k个网络结构单元的参数;
Figure BDA0002356346800000113
和/>
Figure BDA0002356346800000114
分别是第k次和第k+1次迭代输出的光吸收能量分布图像;/>
Figure BDA0002356346800000115
是仿真的光吸收能量分布图;/>
Figure BDA0002356346800000116
是结构相同、具有不同学习参数θk的神经网络;yi是探测器测量的光声信号;/>
Figure BDA0002356346800000117
是数据拟合信息:
Figure BDA0002356346800000118
步骤5:计算网络输出层各网络参数梯度:
Figure BDA0002356346800000119
其中,Z21是前向传播中第21层网络产生的线性激活响应;W21是第21层网络的权重参数矩阵;b21是第21层网络的偏置参数向量;X20是前向传播中第20层网络的输出,也是第21层的输入;
Figure BDA00023563468000001110
表示矩阵的Hadamard乘法;σ'(Z21)(X20)是ReLU函数的一阶导数;上标T表示求矩阵的转置。
步骤6:计算输出层的误差向量δ21
Figure BDA00023563468000001111
根据δ21递推得到第20层至第2层的误差向量:
Figure BDA00023563468000001112
其中,c=20,19,…,3,2,1;δc是第c层网络的误差向量;
步骤7:计算每一层网络参数的梯度:
Figure BDA0002356346800000121
其中,c=2,3,…,21;Wc是第c层网络的权重参数矩阵;bc是第c层网络的偏置参数向量;Zc是前向传播中第c层网络产生的线性激活响应;Xc-1是前向传播中第c-1层网络的输出;
步骤8:计算Momentum自适应动量指数加权平均数:
Figure BDA0002356346800000122
其中dW是Wc的梯度矩阵,db是bc的梯度向量:
Figure BDA0002356346800000123
式中,VdW和Vdb分别是dW和db的Momentum指数加权平均数,VdW的初始值为0;β1=0.9为一阶矩估计的指数衰减速率;
步骤9:计算RMSprop自适应均方根指数加权平均数:
Figure BDA0002356346800000124
其中,SdW和Sdb分别是dW和db的RMSprop指数加权平均数,SdW的初始值为0;β2=0.999是二阶矩估计的指数衰减速率;
步骤10:令t=t+1,为了避免在最初迭代过程中由于指数加权平均数过小导致网络训练停滞,修正参数:
Figure BDA0002356346800000125
其中,
Figure BDA0002356346800000129
和/>
Figure BDA0002356346800000126
是修正后的Momentum指数加权平均数;/>
Figure BDA0002356346800000127
和/>
Figure BDA0002356346800000128
是修正后的RMSprop指数加权平均数;
步骤11:将Wc和bc沿各自梯度方向进行微调:
Figure BDA0002356346800000131
其中,
Figure BDA0002356346800000132
和/>
Figure BDA0002356346800000133
分别是微调后的权重矩阵和偏置向量;ε=10-8是用于保持数值计算稳定的小常数;α=0.001是学习率。
步骤12:令I=I+1,若I<N+1,则转向步骤2;若I≥N+1,则令epoch=epoch+1,转向步骤13。
步骤13:若epoch<epochmax,则令epoch=epoch+1,转向步骤2;若epoch≥epochmax,则转向步骤14;其中,epochmax是epoch的最大值;
步骤14:令k=k+1,若k<5,则返回步骤2,否则,转向步骤15;
步骤15:确定最终的神经网络模型
Figure BDA0002356346800000134
步骤104:将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
图4为本发明实施例用于重建EPAT图像的深度学习系统结构示意图,如图4所示,所述系统包括:数据集构造模块201、卷积神经网络模型建立模块202、优化模块203以及光吸收能量分布图确定模块204;
其中,数据集构造模块201用于构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
卷积神经网络模型建立模块202用于建立前向传播的卷积神经网络模型;
优化模块203用于基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
光吸收能量分布图确定模块204用于将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
具体的,所述数据集构造模块具体包括:
仿真模型建立单元,用于建立腔体横截面积的仿真模型;
数值仿真单元,用于对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
光吸收能量分布图确定单元,用于根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
光声信号确定单元,用于通过求解光声波动方程,得到组织中产生的光声信号;
深度学习数据集确定单元,用于将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
数据集划分单元,用于将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
分组单元,用于将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
所述卷积神经网络模型建立模块具体包括:
卷积神经网络结构和参数确定单元,用于确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
初始化单元,用于初始化卷积神经网络参数;
计算单元,用于计算卷积神经网络中第k层网络结构单元的输入;
Figure BDA0002356346800000141
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;/>
Figure BDA0002356346800000142
是数据拟合信息;yi是数据集中第i个样本的光声信号;/>
Figure BDA0002356346800000143
是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
第一赋值单元,用于令卷积次数covn=0,特征通道数channels=16;
输入单元,用于将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
卷积单元,用于对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
第二赋值单元,用于令c=c+1,covn=covn+1,channels=channels+2。
第一循环单元,用于执行所述步骤6,之后转步骤9。
第三赋值单元,用于令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1
Figure BDA0002356346800000151
经过covn次卷积后的特征图,mapc2是/>
Figure BDA0002356346800000152
经过covn次卷积后的特征图;/>
Figure BDA0002356346800000153
为第k次迭代输出的光吸收能量分布图像,/>
Figure BDA0002356346800000154
为数据拟合信息;
第四赋值单元,用于令channels=channels/2,即,使特征图层数量减半;
第二循环单元,用于执行所述步骤6,之后转步骤12。
第五赋值单元,用于令c=c+1,covn=covn+1,channels=1;
第三循环单元,用于执行所述步骤6,之后转步骤14;
第六赋值单元,用于令c=c+1,covn=covn+1,mapc=xik+mapc,之后利用ReLU函数计算线性激活响应对应的函数值,得到卷积操作的特征图层;
第四循环单元,用于令k=k+1,如果k<5,转步骤16,否则返回步骤3;
输出单元,用于输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (4)

1.一种用于重建EPAT图像的深度学习方法,其特征在于,所述方法包括:
构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
建立前向传播的卷积神经网络模型;
基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像;
所述构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集具体包括:
建立腔体横截面积的仿真模型;
对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
通过求解光声波动方程,得到组织中产生的光声信号;
将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本;
所述卷积神经网络模型,其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
所述建立前向传播的卷积神经网络模型具体包括:
步骤1:确定卷积神经网络结构和参数;
步骤2:初始化卷积神经网络参数;
步骤3:计算卷积神经网络中第k层网络结构单元的输入;
Figure FDA0004234987090000021
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;/>
Figure FDA0004234987090000022
是数据拟合信息;yi是数据集中第i个样本的光声信号;/>
Figure FDA0004234987090000023
是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
步骤4:令卷积次数covn=0,特征通道数channels=16;
步骤5:将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
步骤6:对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
步骤7:令c=c+1,covn=covn+1,channels=channels+2;
步骤8:执行所述步骤6,之后转步骤9;
步骤9:令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1
Figure FDA0004234987090000024
经过covn次卷积后的特征图,mapc2是/>
Figure FDA0004234987090000025
经过covn次卷积后的特征图;/>
Figure FDA0004234987090000026
为第k次迭代输出的光吸收能量分布图像,/>
Figure FDA0004234987090000027
为数据拟合信息;
步骤10:令channels=channels/2,即,使特征图层数量减半;
步骤11:执行所述步骤6,之后转步骤12;
步骤12:令c=c+1,covn=covn+1,channels=1;
步骤13:执行所述步骤6,之后转步骤14;
步骤14:令c=c+1,covn=covn+1,
Figure FDA0004234987090000031
之后利用ReLU函数计算线性激活响应对应的函数值,得到卷积操作的特征图层;
步骤15:令k=k+1,如果k<5,转步骤16,否则返回步骤3;
步骤16:输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
2.根据权利要求1所述的用于重建EPAT图像的深度学习方法,其特征在于,所述基于所述训练集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型具体包括:
步骤1:令k=0,t=0;k为网络的层序号,t为网络参数梯度累积的修正次数;
步骤2:初始化参数:遍历训练集中所有小批量训练集的次数epoch=0;训练集中小批量训练集的索引I=1;
步骤3:将训练集中的第I组小批量训练集AI中的M个样本输入至搭建好的CNN模型中进行前向传播;
步骤4:通过最小化下式逐层训练网络参数:
Figure FDA0004234987090000032
其中
Figure FDA0004234987090000033
式中,C(W,b)是AI中关于W和b的损失函数;W是网络的权重参数集;b是网络的偏置参数集;θk是第k个网络结构单元的参数;
Figure FDA0004234987090000034
和/>
Figure FDA0004234987090000035
分别是第k次和第k+1次迭代输出的光吸收能量分布图像;/>
Figure FDA0004234987090000036
是仿真的光吸收能量分布图;/>
Figure FDA0004234987090000037
是结构相同、具有不同学习参数θk的神经网络;yi是探测器测量的光声信号;/>
Figure FDA0004234987090000038
是数据拟合信息:
Figure FDA0004234987090000039
步骤5:计算网络输出层各网络参数梯度:
Figure FDA00042349870900000310
其中,Z21是前向传播中第21层网络产生的线性激活响应;W21是第21层网络的权重参数矩阵;b21是第21层网络的偏置参数向量;X20是前向传播中第20层网络的输出,也是第21层的输入;
Figure FDA0004234987090000041
表示矩阵的Hadamard乘法;σ'(Z21)(X20)是ReLU函数的一阶导数;上标T表示求矩阵的转置;
步骤6:计算输出层的误差向量δ21
Figure FDA0004234987090000042
根据δ21递推得到第20层至第2层的误差向量:
Figure FDA0004234987090000043
其中,c=20,19,…,3,2,1;δc是第c层网络的误差向量;
步骤7:计算每一层网络参数的梯度:
Figure FDA0004234987090000044
其中,c=2,3,...,21;Wc是第c层网络的权重参数矩阵;bc是第c层网络的偏置参数向量;Zc是前向传播中第c层网络产生的线性激活响应;Xc-1是前向传播中第c-1层网络的输出;
步骤8:计算Momentum自适应动量指数加权平均数:
Figure FDA0004234987090000045
其中dW是Wc的梯度矩阵,db是bc的梯度向量:
Figure FDA0004234987090000046
式中,VdW和Vdb分别是dW和db的Momentum指数加权平均数,VdW的初始值为0;β1=0.9为一阶矩估计的指数衰减速率;
步骤9:计算RMSprop自适应均方根指数加权平均数:
Figure FDA0004234987090000047
其中,SdW和Sdb分别是dW和db的RMSprop指数加权平均数,SdW的初始值为0;β2=0.999是二阶矩估计的指数衰减速率;
步骤10:令t=t+1,为了避免在最初迭代过程中由于指数加权平均数过小导致网络训练停滞,修正参数:
Figure FDA0004234987090000051
其中,
Figure FDA0004234987090000052
和/>
Figure FDA0004234987090000053
是修正后的Momentum指数加权平均数;/>
Figure FDA0004234987090000054
和/>
Figure FDA0004234987090000055
是修正后的RMSprop指数加权平均数;
步骤11:将Wc和bc沿各自梯度方向进行微调:
Figure FDA0004234987090000056
其中,
Figure FDA0004234987090000057
和/>
Figure FDA0004234987090000058
分别是微调后的权重矩阵和偏置向量;ε=10-8是用于保持数值计算稳定的小常数;α=0.001是学习率;
步骤12:令I=I+1,若I<N+1,则转向步骤2;若I≥N+1,则令epoch=epoch+1,转向步骤13;
步骤13:若epoch<epochmax,则令epoch=epoch+1,转向步骤2;若epoch≥epochmax,则转向步骤14;其中,epochmax是epoch的最大值;
步骤14:令k=k+1,若k<5,则返回步骤2,否则,转向步骤15;
步骤15:确定最终的神经网络模型
Figure FDA0004234987090000059
3.根据权利要求1所述的用于重建EPAT图像的深度学习方法,其特征在于,所述按照比例划分为训练集、验证集和测试集具体是按照6:2:2进行划分。
4.一种用于重建EPAT图像的深度学习系统,其特征在于,所述系统包括:
数据集构造模块,用于构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
卷积神经网络模型建立模块,用于建立前向传播的卷积神经网络模型;
优化模块,用于基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
光吸收能量分布图确定模块,用于将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像;
所述数据集构造模块具体包括:
仿真模型建立单元,用于建立腔体横截面积的仿真模型;
数值仿真单元,用于对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
光吸收能量分布图确定单元,用于根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
光声信号确定单元,用于通过求解光声波动方程,得到组织中产生的光声信号;
深度学习数据集确定单元,用于将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
数据集划分单元,用于将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
分组单元,用于将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本;
所述卷积神经网络模型,其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
所述卷积神经网络模型建立模块具体包括:
卷积神经网络结构和参数确定单元,用于确定卷积神经网络结构和参数;
初始化单元,用于初始化卷积神经网络参数;
计算单元,用于计算卷积神经网络中第k层网络结构单元的输入;
Figure FDA0004234987090000071
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;/>
Figure FDA0004234987090000072
是数据拟合信息;yi是数据集中第i个样本的光声信号;/>
Figure FDA0004234987090000073
是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
第一赋值单元,用于令卷积次数covn=0,特征通道数channels=16;
输入单元,用于将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
卷积单元,用于对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
第二赋值单元,用于令c=c+1,covn=covn+1,channels=channels+2;
第一循环单元,用于执行所述步骤6,之后转步骤9;
第三赋值单元,用于令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1
Figure FDA0004234987090000074
经过covn次卷积后的特征图,mapc2是/>
Figure FDA0004234987090000075
经过covn次卷积后的特征图;/>
Figure FDA0004234987090000076
为第k次迭代输出的光吸收能量分布图像,/>
Figure FDA0004234987090000077
为数据拟合信息;
第四赋值单元,用于令channels=channels/2,即,使特征图层数量减半;
第二循环单元,用于执行所述步骤6,之后转步骤12;
第五赋值单元,用于令c=c+1,covn=covn+1,channels=1;
第三循环单元,用于执行所述步骤6,之后转步骤14;
第六赋值单元,用于令c=c+1,covn=covn+1,
Figure FDA0004234987090000078
之后利用ReLU函数计算线性激活响应对应的函数值,得到卷积操作的特征图层;
第四循环单元,用于令k=k+1,如果k<5,转步骤16,否则返回步骤3;
输出单元,用于输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
CN202010008799.4A 2020-01-06 2020-01-06 一种用于重建epat图像的深度学习方法及系统 Active CN111223162B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010008799.4A CN111223162B (zh) 2020-01-06 2020-01-06 一种用于重建epat图像的深度学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010008799.4A CN111223162B (zh) 2020-01-06 2020-01-06 一种用于重建epat图像的深度学习方法及系统

Publications (2)

Publication Number Publication Date
CN111223162A CN111223162A (zh) 2020-06-02
CN111223162B true CN111223162B (zh) 2023-06-23

Family

ID=70831250

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010008799.4A Active CN111223162B (zh) 2020-01-06 2020-01-06 一种用于重建epat图像的深度学习方法及系统

Country Status (1)

Country Link
CN (1) CN111223162B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381792B (zh) * 2020-11-13 2023-05-23 中国人民解放军空军工程大学 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法
CN113537460A (zh) * 2021-06-29 2021-10-22 哈尔滨工业大学 一种适用于耀斑预报问题的多线程神经网络模型的构建方法
NL2030687B1 (en) * 2022-01-25 2023-08-04 North China Electric Power Univ Baoding Endoscopic photoacoustic tomographic image reconstruction method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295139A (zh) * 2016-07-29 2017-01-04 姹ゅ钩 一种基于深度卷积神经网络的舌体自诊健康云服务系统
CN108416755A (zh) * 2018-03-20 2018-08-17 南昌航空大学 一种基于深度学习的图像去噪方法及系统
CN110084867A (zh) * 2019-04-24 2019-08-02 河北科技大学 基于cnn和多电极电磁测量的动静脉图像重建方法
CN110189334A (zh) * 2019-05-28 2019-08-30 南京邮电大学 基于注意力机制的残差型全卷积神经网络的医学图像分割方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303979B2 (en) * 2016-11-16 2019-05-28 Phenomic Ai Inc. System and method for classifying and segmenting microscopy images with deep multiple instance learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295139A (zh) * 2016-07-29 2017-01-04 姹ゅ钩 一种基于深度卷积神经网络的舌体自诊健康云服务系统
CN108416755A (zh) * 2018-03-20 2018-08-17 南昌航空大学 一种基于深度学习的图像去噪方法及系统
CN110084867A (zh) * 2019-04-24 2019-08-02 河北科技大学 基于cnn和多电极电磁测量的动静脉图像重建方法
CN110189334A (zh) * 2019-05-28 2019-08-30 南京邮电大学 基于注意力机制的残差型全卷积神经网络的医学图像分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Abe H 等.Focusing light within scattering media for photoacoustic tomography in a limited-view-angle tomography setting.IEEE International Ultrasonics Symposium.2014,第1273-1276. *
仝卫国 ; 李敏霞 ; 张一可 ; .深度学习优化算法研究.计算机科学.2018,(S2),第155-159页. *
段爽 等.声学特性不均匀组织的光声层析图像重建研究进展.生物医学工程学杂志.2019,第36卷(第3期),第486-492页. *
王新宇.基于深度学习的光声内窥成像方法的研究.中国硕士学位论文全文数据库 信息科技 .2022,(第03期),全文. *

Also Published As

Publication number Publication date
CN111223162A (zh) 2020-06-02

Similar Documents

Publication Publication Date Title
CN111223162B (zh) 一种用于重建epat图像的深度学习方法及系统
RU2709437C1 (ru) Способ обработки изображений, устройство обработки изображений и носитель данных
Boink et al. A partially-learned algorithm for joint photo-acoustic reconstruction and segmentation
CN111627082B (zh) 基于滤波反投影算法和神经网络的pet图像重建方法
US12039637B2 (en) Low dose Sinogram denoising and PET image reconstruction method based on teacher-student generator
WO2019200959A1 (zh) 一种基于神经网络的近红外光谱断层成像重建方法
CN109829880A (zh) 一种基于深度学习的ct图像检测方法、装置和控制设备
CN114723842B (zh) 基于深度融合神经网络的稀疏视角ct成像方法和设备
Na et al. Transcranial photoacoustic computed tomography based on a layered back-projection method
CN111956180B (zh) 一种重建光声内窥层析图像的方法
Awasthi et al. Sinogram super-resolution and denoising convolutional neural network (SRCN) for limited data photoacoustic tomography
CN110880196B (zh) 基于深度学习的肿瘤光声图像快速重建方法及装置
US20240249450A1 (en) A pet image reconstruction method based on swin-transformer regularization
CN110473150A (zh) 基于多特征提取的cnn医学ct图像去噪方法
CN117237473A (zh) 一种基于扩散模型的光声断层成像稀疏重建方法
Wang et al. Fluorescence molecular tomography reconstruction of small targets using stacked auto-encoder neural networks
Zuo et al. Spectral crosstalk in photoacoustic computed tomography
CN115868923A (zh) 基于展开式循环神经网络的荧光分子断层成像方法及系统
Dey et al. Score-based Diffusion Models for Photoacoustic Tomography Image Reconstruction
Liu et al. Enhanced Multi-Scale Feature Cross-Fusion Network for Impedance–Optical Dual-Modal Imaging
CN110575202B (zh) 一种基于费马原理的超声ct图像重建方法及系统
CN112085830A (zh) 一种基于机器学习的光学相干血管造影成像方法
CN115859779A (zh) 基于深度学习的高质量实时微波热声成像方法及装置
CN115294300A (zh) 多分支注意力先验参数化有限投影快速荧光断层重建方法
CN115272100A (zh) 基于教师-学生双模型的低剂量spect弦图预处理和图像重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant