CN111223162A - 一种用于重建epat图像的深度学习方法及系统 - Google Patents
一种用于重建epat图像的深度学习方法及系统 Download PDFInfo
- Publication number
- CN111223162A CN111223162A CN202010008799.4A CN202010008799A CN111223162A CN 111223162 A CN111223162 A CN 111223162A CN 202010008799 A CN202010008799 A CN 202010008799A CN 111223162 A CN111223162 A CN 111223162A
- Authority
- CN
- China
- Prior art keywords
- layer
- covn
- neural network
- unit
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013135 deep learning Methods 0.000 title claims description 44
- 238000012549 training Methods 0.000 claims abstract description 87
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 75
- 230000031700 light absorption Effects 0.000 claims abstract description 60
- 238000012360 testing method Methods 0.000 claims abstract description 29
- 238000012795 verification Methods 0.000 claims abstract description 14
- 238000003325 tomography Methods 0.000 claims abstract description 11
- 238000004088 simulation Methods 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 36
- 230000004913 activation Effects 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000001914 filtration Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000009792 diffusion process Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 239000004744 fabric Substances 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000005094 computer simulation Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种用于重建EPAT图像的深度学习方法及系统,方法包括,构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;建立前向传播的卷积神经网络模型;基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。本发明中的上述方法能够从有限角度扫描采集的光声信号中重建高质量的腔体横截面光吸收能量分布图。
Description
技术领域
本发明涉及医学成像领域,特别是涉及一种用于重建EPAT图像的深度学习方法及系统。
背景技术
光声内窥层析成像(Endoscopic photoacoustic tomography,EPAT)将无创的光声层析成像(Photoacoustic tomography,PAT)和内窥检测技术相结合,可对生物腔体组织(如鼻腔、消化道以及动脉血管等)进行功能性成像,显示腔体横截面的形态结构和组织功能成分。受腔道的几何结构、成像导管的机械结构和空间位置以及成像时间等的限制,超声探测器在腔道内有时只能进行有限角度的扫描,采集到不完备的光声信号数据。若采用标准图像重建方法(如滤波反投影和时间反演等)对不完备的光声数据进行图像重建,会导致图像中出现严重的下采样伪影和失真。
发明内容
本发明的目的是提供一种用于重建EPAT图像的深度学习方法及系统,从有限角度扫描采集的光声信号中重建高质量的腔体横截面光吸收能量分布图。
为实现上述目的,本发明提供了如下方案:
一种用于重建EPAT图像的深度学习方法,所述方法包括:
构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
建立前向传播的卷积神经网络模型;
基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
可选的,所述构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集具体包括:
建立腔体横截面积的仿真模型;
对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
通过求解光声波动方程,得到组织中产生的光声信号;
将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
可选的,所述建立前向传播的卷积神经网络模型具体包括:
步骤1:确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
步骤2:初始化卷积神经网络参数;
步骤3:计算卷积神经网络中第k层网络结构单元的输入;
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;是数据拟合信息;yi是数据集中第i个样本的光声信号;是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
步骤4:令卷积次数covn=0,特征通道数channels=16;
步骤5:将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
步骤6:对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
步骤7:令c=c+1,covn=covn+1,channels=channels+2。
步骤8:执行所述步骤6,之后转步骤9。
步骤9:令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1是经过covn次卷积后的特征图,mapc2是经过covn次卷积后的特征图;为第k次迭代输出的光吸收能量分布图像,为数据拟合信息;
步骤10:令channels=channels/2,即,使特征图层数量减半;
步骤11:执行所述步骤6,之后转步骤12。
步骤12:令c=c+1,covn=covn+1,channels=1;
步骤13:执行所述步骤6,之后转步骤14;
步骤15:令k=k+1,如果k<5,转步骤16,否则返回步骤3;
步骤16:输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
可选的,所述基于所述训练集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型具体包括:
步骤1:令k=0,t=0;k为网络的层序号,t为网络参数梯度累积的修正次数。
步骤2:初始化参数:遍历训练集中所有小批量训练集的次数epoch=0;训练集中小批量训练集的索引I=1;
步骤3:将训练集中的第I组小批量训练集AI中的M个样本输入至搭建好的CNN模型中进行前向传播;
步骤4:通过最小化下式逐层训练网络参数:
其中
式中,C(W,b)是AI中关于W和b的损失函数;W是网络的权重参数集;b是网络的偏置参数集;θk是第k个网络结构单元的参数;和分别是第k次和第k+1次迭代输出的光吸收能量分布图像;是仿真的光吸收能量分布图;是结构相同、具有不同学习参数θk的神经网络;yi是探测器测量的光声信号;是数据拟合信息:
步骤5:计算网络输出层各网络参数梯度:
其中,Z21是前向传播中第21层网络产生的线性激活响应;W21是第21层网络的权重参数矩阵;b21是第21层网络的偏置参数向量;X20是前向传播中第20层网络的输出,也是第21层的输入;表示矩阵的Hadamard乘法;σ'(Z21)(X20)是ReLU函数的一阶导数;上标T表示求矩阵的转置。
步骤6:计算输出层的误差向量δ21:
根据δ21递推得到第20层至第2层的误差向量:
其中,c=20,19,…,3,2,1;δc是第c层网络的误差向量;
步骤7:计算每一层网络参数的梯度:
其中,c=2,3,…,21;Wc是第c层网络的权重参数矩阵;bc是第c层网络的偏置参数向量;Zc是前向传播中第c层网络产生的线性激活响应;Xc-1是前向传播中第c-1层网络的输出;
步骤8:计算Momentum自适应动量指数加权平均数:
其中dW是Wc的梯度矩阵,db是bc的梯度向量:
式中,VdW和Vdb分别是dW和db的Momentum指数加权平均数,VdW的初始值为0;β1=0.9为一阶矩估计的指数衰减速率;
步骤9:计算RMSprop自适应均方根指数加权平均数:
其中,SdW和Sdb分别是dW和db的RMSprop指数加权平均数,SdW的初始值为0;β2=0.999是二阶矩估计的指数衰减速率;
步骤10:令t=t+1,为了避免在最初迭代过程中由于指数加权平均数过小导致网络训练停滞,修正参数:
步骤11:将Wc和bc沿各自梯度方向进行微调:
步骤12:令I=I+1,若I<N+1,则转向步骤2;若I≥N+1,则令epoch=epoch+1,转向步骤13。
步骤13:若epoch<epochmax,则令epoch=epoch+1,转向步骤2;若epoch≥epochmax,则转向步骤14;其中,epochmax是epoch的最大值;
步骤14:令k=k+1,若k<5,则返回步骤2,否则,转向步骤15;
可选的,所述按照比例划分为训练集、验证集和测试集具体是按照6:2:2进行划分。
本发明另外提供一种用于重建EPAT图像的深度学习系统,所述系统包括:
数据集构造模块,用于构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
卷积神经网络模型建立模块,用于建立前向传播的卷积神经网络模型;
优化模块,用于基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
光吸收能量分布图确定模块,用于将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
可选的,所述数据集构造模块具体包括:
仿真模型建立单元,用于建立腔体横截面积的仿真模型;
数值仿真单元,用于对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
光吸收能量分布图确定单元,用于根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
光声信号确定单元,用于通过求解光声波动方程,得到组织中产生的光声信号;
深度学习数据集确定单元,用于将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
数据集划分单元,用于将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
分组单元,用于将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
可选的,所述卷积神经网络模型建立模块具体包括:
卷积神经网络结构和参数确定单元,用于确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
初始化单元,用于初始化卷积神经网络参数;
计算单元,用于计算卷积神经网络中第k层网络结构单元的输入;
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;是数据拟合信息;yi是数据集中第i个样本的光声信号;是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
第一赋值单元,用于令卷积次数covn=0,特征通道数channels=16;
输入单元,用于将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
卷积单元,用于对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
第二赋值单元,用于令c=c+1,covn=covn+1,channels=channels+2。
第一循环单元,用于执行所述步骤6,之后转步骤9。
第三赋值单元,用于令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1是经过covn次卷积后的特征图,mapc2是经过covn次卷积后的特征图;为第k次迭代输出的光吸收能量分布图像,为数据拟合信息;
第四赋值单元,用于令channels=channels/2,即,使特征图层数量减半;
第二循环单元,用于执行所述步骤6,之后转步骤12。
第五赋值单元,用于令c=c+1,covn=covn+1,channels=1;
第三循环单元,用于执行所述步骤6,之后转步骤14;
第四循环单元,用于令k=k+1,如果k<5,转步骤16,否则返回步骤3;
输出单元,用于输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明采用计算机仿真的方法,建立适用于有限角度EPAT图像重建的深度学习数据集;然后,构建卷积神经网络(convolutional neural network,CNN),并逐层贪婪预训练每一层网络,评估网络性能,进而优化各层网络的超参数;之后,逐层优化网络的全部结构单元,得到优化后的整体网络结构;最后,将有限角度光声信号测量数据输入训练后的CNN,重建腔体横截面上的光吸收能量分布图,大大提高了重建图像的质量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例用于重建EPAT图像的深度学习方法流程图;
图2为本发明实施例腔体横截面积计算机仿真模型;
图3为本发明实施例CNN模型结构示意图;
图4为本发明实施例用于重建EPAT图像的深度学习系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种用于重建EPAT图像的深度学习方法,从有限角度扫描采集的光声信号中重建高质量的腔体横截面光吸收能量分布图。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例用于重建EPAT图像的深度学习方法流程图,如图1所示,所述方法包括:
步骤101:构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集。
具体的,可分为以下四个步骤:
(1)建立腔体横截面的计算机仿真模型
如图2所示,建立腔体横截面积的仿真模型,其中,成像导管位于腔体横截面的中心,周围由内向外依次是管腔、病变组织和腔体壁。以成像导管为坐标原点,将腔体横截面等角度划分为m份,则探测器的第l个测量角度是θl=360(l-1)/m,其中l=1,2,...,m。
(2)对EPAT成像进行前向仿真:
对成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,通过求解扩散近似方程(diffusion equation,DE)得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图。求解光声波动方程,得到组织中产生的光声信号。
(3)构建数据集:
将仿真得到的光声信号作为数据集中样本的输入,将仿真得到的光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集。
(4)划分数据集:
将数据集中的所有样本随机打乱,然后按照6:2:2的比例将数据集划分为训练集(表示为A)、验证集和测试集。把训练集A中的样本平均分成N组,每组是一个小批量训练集,包含M个样本。
步骤102:建立前向传播的卷积神经网络模型。
如图3所示,图3为本发明采用的网络结构单元,具体建立步骤如下:
步骤1:确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
步骤2:初始化卷积神经网络参数;
步骤3:计算卷积神经网络中第k层网络结构单元的输入;
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;是数据拟合信息;yi是数据集中第i个样本的光声信号;是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
步骤4:令卷积次数covn=0,特征通道数channels=16;
步骤5:将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
步骤6:对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
步骤7:令c=c+1,covn=covn+1,channels=channels+2。
步骤8:执行所述步骤6,之后转步骤9。
步骤9:令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1是经过covn次卷积后的特征图,mapc2是经过covn次卷积后的特征图;为第k次迭代输出的光吸收能量分布图像,为数据拟合信息;
步骤10:令channels=channels/2,即,使特征图层数量减半;
步骤11:执行所述步骤6,之后转步骤12。
步骤12:令c=c+1,covn=covn+1,channels=1;
步骤13:执行所述步骤6,之后转步骤14;
步骤15:令k=k+1,如果k<5,转步骤16,否则返回步骤3;
步骤16:输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
步骤103:基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型。
具体步骤如下:
步骤1:令k=0,t=0;k为网络的层序号,t为网络参数梯度累积的修正次数。
步骤2:初始化参数:遍历训练集中所有小批量训练集的次数epoch=0;训练集中小批量训练集的索引I=1;
步骤3:将训练集中的第I组小批量训练集AI中的M个样本输入至搭建好的CNN模型中进行前向传播;
步骤4:通过最小化下式逐层训练网络参数:
其中
式中,C(W,b)是AI中关于W和b的损失函数;W是网络的权重参数集;b是网络的偏置参数集;θk是第k个网络结构单元的参数;和分别是第k次和第k+1次迭代输出的光吸收能量分布图像;是仿真的光吸收能量分布图;是结构相同、具有不同学习参数θk的神经网络;yi是探测器测量的光声信号;是数据拟合信息:
步骤5:计算网络输出层各网络参数梯度:
其中,Z21是前向传播中第21层网络产生的线性激活响应;W21是第21层网络的权重参数矩阵;b21是第21层网络的偏置参数向量;X20是前向传播中第20层网络的输出,也是第21层的输入;表示矩阵的Hadamard乘法;σ'(Z21)(X20)是ReLU函数的一阶导数;上标T表示求矩阵的转置。
步骤6:计算输出层的误差向量δ21:
根据δ21递推得到第20层至第2层的误差向量:
其中,c=20,19,…,3,2,1;δc是第c层网络的误差向量;
步骤7:计算每一层网络参数的梯度:
其中,c=2,3,…,21;Wc是第c层网络的权重参数矩阵;bc是第c层网络的偏置参数向量;Zc是前向传播中第c层网络产生的线性激活响应;Xc-1是前向传播中第c-1层网络的输出;
步骤8:计算Momentum自适应动量指数加权平均数:
其中dW是Wc的梯度矩阵,db是bc的梯度向量:
式中,VdW和Vdb分别是dW和db的Momentum指数加权平均数,VdW的初始值为0;β1=0.9为一阶矩估计的指数衰减速率;
步骤9:计算RMSprop自适应均方根指数加权平均数:
其中,SdW和Sdb分别是dW和db的RMSprop指数加权平均数,SdW的初始值为0;β2=0.999是二阶矩估计的指数衰减速率;
步骤10:令t=t+1,为了避免在最初迭代过程中由于指数加权平均数过小导致网络训练停滞,修正参数:
步骤11:将Wc和bc沿各自梯度方向进行微调:
步骤12:令I=I+1,若I<N+1,则转向步骤2;若I≥N+1,则令epoch=epoch+1,转向步骤13。
步骤13:若epoch<epochmax,则令epoch=epoch+1,转向步骤2;若epoch≥epochmax,则转向步骤14;其中,epochmax是epoch的最大值;
步骤14:令k=k+1,若k<5,则返回步骤2,否则,转向步骤15;
步骤104:将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
图4为本发明实施例用于重建EPAT图像的深度学习系统结构示意图,如图4所示,所述系统包括:数据集构造模块201、卷积神经网络模型建立模块202、优化模块203以及光吸收能量分布图确定模块204;
其中,数据集构造模块201用于构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
卷积神经网络模型建立模块202用于建立前向传播的卷积神经网络模型;
优化模块203用于基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
光吸收能量分布图确定模块204用于将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
具体的,所述数据集构造模块具体包括:
仿真模型建立单元,用于建立腔体横截面积的仿真模型;
数值仿真单元,用于对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
光吸收能量分布图确定单元,用于根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
光声信号确定单元,用于通过求解光声波动方程,得到组织中产生的光声信号;
深度学习数据集确定单元,用于将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
数据集划分单元,用于将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
分组单元,用于将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
所述卷积神经网络模型建立模块具体包括:
卷积神经网络结构和参数确定单元,用于确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
初始化单元,用于初始化卷积神经网络参数;
计算单元,用于计算卷积神经网络中第k层网络结构单元的输入;
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;是数据拟合信息;yi是数据集中第i个样本的光声信号;是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
第一赋值单元,用于令卷积次数covn=0,特征通道数channels=16;
输入单元,用于将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
卷积单元,用于对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
第二赋值单元,用于令c=c+1,covn=covn+1,channels=channels+2。
第一循环单元,用于执行所述步骤6,之后转步骤9。
第三赋值单元,用于令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1是经过covn次卷积后的特征图,mapc2是经过covn次卷积后的特征图;为第k次迭代输出的光吸收能量分布图像,为数据拟合信息;
第四赋值单元,用于令channels=channels/2,即,使特征图层数量减半;
第二循环单元,用于执行所述步骤6,之后转步骤12。
第五赋值单元,用于令c=c+1,covn=covn+1,channels=1;
第三循环单元,用于执行所述步骤6,之后转步骤14;
第六赋值单元,用于令c=c+1,covn=covn+1,mapc=xik+mapc,之后利用ReLU函数计算线性激活响应对应的函数值,得到卷积操作的特征图层;
第四循环单元,用于令k=k+1,如果k<5,转步骤16,否则返回步骤3;
输出单元,用于输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种用于重建EPAT图像的深度学习方法,其特征在于,所述方法包括:
构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
建立前向传播的卷积神经网络模型;
基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
2.根据权利要求1所述的用于重建EPAT图像的深度学习方法,其特征在于,所述构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集具体包括:
建立腔体横截面积的仿真模型;
对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
通过求解光声波动方程,得到组织中产生的光声信号;
将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
3.根据权利要求1所述的用于重建EPAT图像的深度学习方法,其特征在于,所述建立前向传播的卷积神经网络模型具体包括:
步骤1:确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
步骤2:初始化卷积神经网络参数;
步骤3:计算卷积神经网络中第k层网络结构单元的输入;
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;是数据拟合信息;yi是数据集中第i个样本的光声信号;是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
步骤4:令卷积次数covn=0,特征通道数channels=16;
步骤5:将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
步骤6:对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
步骤7:令c=c+1,covn=covn+1,channels=channels+2。
步骤8:执行所述步骤6,之后转步骤9。
步骤9:令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1是经过covn次卷积后的特征图,mapc2是经过covn次卷积后的特征图;为第k次迭代输出的光吸收能量分布图像,为数据拟合信息;
步骤10:令channels=channels/2,即,使特征图层数量减半;
步骤11:执行所述步骤6,之后转步骤12。
步骤12:令c=c+1,covn=covn+1,channels=1;
步骤13:执行所述步骤6,之后转步骤14;
步骤15:令k=k+1,如果k<5,转步骤16,否则返回步骤3;
步骤16:输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
4.根据权利要求1所述的用于重建EPAT图像的深度学习方法,其特征在于,所述基于所述训练集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型具体包括:
步骤1:令k=0,t=0;k为网络的层序号,t为网络参数梯度累积的修正次数。
步骤2:初始化参数:遍历训练集中所有小批量训练集的次数epoch=0;训练集中小批量训练集的索引I=1;
步骤3:将训练集中的第I组小批量训练集AI中的M个样本输入至搭建好的CNN模型中进行前向传播;
步骤4:通过最小化下式逐层训练网络参数:
其中
式中,C(W,b)是AI中关于W和b的损失函数;W是网络的权重参数集;b是网络的偏置参数集;θk是第k个网络结构单元的参数;和分别是第k次和第k+1次迭代输出的光吸收能量分布图像;是仿真的光吸收能量分布图;是结构相同、具有不同学习参数θk的神经网络;yi是探测器测量的光声信号;是数据拟合信息:
步骤5:计算网络输出层各网络参数梯度:
其中,Z21是前向传播中第21层网络产生的线性激活响应;W21是第21层网络的权重参数矩阵;b21是第21层网络的偏置参数向量;X20是前向传播中第20层网络的输出,也是第21层的输入;表示矩阵的Hadamard乘法;σ'(Z21)(X20)是ReLU函数的一阶导数;上标T表示求矩阵的转置。
步骤6:计算输出层的误差向量δ21:
根据δ21递推得到第20层至第2层的误差向量:
其中,c=20,19,…,3,2,1;δc是第c层网络的误差向量;
步骤7:计算每一层网络参数的梯度:
其中,c=2,3,…,21;Wc是第c层网络的权重参数矩阵;bc是第c层网络的偏置参数向量;Zc是前向传播中第c层网络产生的线性激活响应;Xc-1是前向传播中第c-1层网络的输出;
步骤8:计算Momentum自适应动量指数加权平均数:
其中dW是Wc的梯度矩阵,db是bc的梯度向量:
式中,VdW和Vdb分别是dW和db的Momentum指数加权平均数,VdW的初始值为0;β1=0.9为一阶矩估计的指数衰减速率;
步骤9:计算RMSprop自适应均方根指数加权平均数:
其中,SdW和Sdb分别是dW和db的RMSprop指数加权平均数,SdW的初始值为0;β2=0.999是二阶矩估计的指数衰减速率;
步骤10:令t=t+1,为了避免在最初迭代过程中由于指数加权平均数过小导致网络训练停滞,修正参数:
步骤11:将Wc和bc沿各自梯度方向进行微调:
步骤12:令I=I+1,若I<N+1,则转向步骤2;若I≥N+1,则令epoch=epoch+1,转向步骤13。
步骤13:若epoch<epochmax,则令epoch=epoch+1,转向步骤2;若epoch≥epochmax,则转向步骤14;其中,epochmax是epoch的最大值;
步骤14:令k=k+1,若k<5,则返回步骤2,否则,转向步骤15;
5.根据权利要求1所述的用于重建EPAT图像的深度学习方法,其特征在于,所述按照比例划分为训练集、验证集和测试集具体是按照6:2:2进行划分。
6.一种用于重建EPAT图像的深度学习系统,其特征在于,所述系统包括:
数据集构造模块,用于构造用于有限角度光声内窥层析成像EPAT图像重建的深度学习数据集;所述数据集包括:训练集、验证集和测试集;
卷积神经网络模型建立模块,用于建立前向传播的卷积神经网络模型;
优化模块,用于基于所述训练集、验证集和测试集对所述卷积神经网络模型中的网络参数进行逐层训练、验证和优化,得到优化后的卷积神经网络模型;
光吸收能量分布图确定模块,用于将所述测试集输入至所述优化后的卷积神经网络模型中得到光吸收能量分布图像。
7.根据权利要求6所述的用于重建EPAT图像的深度学习系统,其特征在于,所述数据集构造模块具体包括:
仿真模型建立单元,用于建立腔体横截面积的仿真模型;
数值仿真单元,用于对所述腔体横截面积的仿真模型中成像导管在每个测量角度从横截面中心沿径向发射激光脉冲照射周围组织,以及光子在组织中传播的过程进行数值仿真,得到仿真结果;
光吸收能量分布图确定单元,用于根据所述仿真结果通过求解扩散近似方程得到腔体横截面上各处的光吸收能量密度,进而得到光吸收能量分布图;
光声信号确定单元,用于通过求解光声波动方程,得到组织中产生的光声信号;
深度学习数据集确定单元,用于将仿真得到的所述光声信号作为数据集中样本的输入,将仿真得到的所述光吸收能量分布图作为样本的期望输出,得到适用于有限角度EPAT图像重建的深度学习数据集;
数据集划分单元,用于将所述深度学习数据集中的所有样本随机打乱,按照比例划分为训练集、验证集和测试集;
分组单元,用于将所述训练集A中的样本平均分为N组,每组为一个小批量训练集,包含M个样本。
8.根据权利要求6所述的用于重建EPAT图像的深度学习系统,其特征在于,所述卷积神经网络模型建立模块具体包括:
卷积神经网络结构和参数确定单元,用于确定卷积神经网络结构和参数;其中,卷积操作采用的滤波核尺寸为5×5×T,T为当前层输入的特征图数量,卷积方式采用步长为1的same卷积,网络单元的两个输入图像的滤波核初始数量均为channels=16,激活函数采用线性整流函数ReLU,通过远跳连接将网络单元的初始输入与输出图像进行像素值求和,得到当前层的输出图像;
初始化单元,用于初始化卷积神经网络参数;
计算单元,用于计算卷积神经网络中第k层网络结构单元的输入;
H为EPAT成像的前向算子,即由光吸收能量得到组织产生的光声信号;H*是H的伴随算子;是数据拟合信息;yi是数据集中第i个样本的光声信号;是数据集中第i个样本经过第k次迭代后输出的光吸收能量分布图;i是训练集中的样本序号;
第一赋值单元,用于令卷积次数covn=0,特征通道数channels=16;
输入单元,用于将训练集中N组中的第1组的M个样本输入CNN,作为特征图mapc,即输入图像经第c-1次卷积后产生的特征图层;
卷积单元,用于对mapc通过多个特征通道并行地执行卷积操作,产生多组线性激活响应,计算线性激活响应对应的ReLU函数值,得到卷积操作的特征图层;
第二赋值单元,用于令c=c+1,covn=covn+1,channels=channels+2。
第一循环单元,用于执行所述步骤6,之后转步骤9。
第三赋值单元,用于令c=c+1,covn=covn+1,mapc=mapc1+mapc2,其中mapc1是经过covn次卷积后的特征图,mapc2是经过covn次卷积后的特征图;为第k次迭代输出的光吸收能量分布图像,为数据拟合信息;
第四赋值单元,用于令channels=channels/2,即,使特征图层数量减半;
第二循环单元,用于执行所述步骤6,之后转步骤12。
第五赋值单元,用于令c=c+1,covn=covn+1,channels=1;
第三循环单元,用于执行所述步骤6,之后转步骤14;
第四循环单元,用于令k=k+1,如果k<5,转步骤16,否则返回步骤3;
输出单元,用于输出训练集中N组中的第1组中M个样本的预测图像,此时,c=21。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010008799.4A CN111223162B (zh) | 2020-01-06 | 2020-01-06 | 一种用于重建epat图像的深度学习方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010008799.4A CN111223162B (zh) | 2020-01-06 | 2020-01-06 | 一种用于重建epat图像的深度学习方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111223162A true CN111223162A (zh) | 2020-06-02 |
CN111223162B CN111223162B (zh) | 2023-06-23 |
Family
ID=70831250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010008799.4A Active CN111223162B (zh) | 2020-01-06 | 2020-01-06 | 一种用于重建epat图像的深度学习方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111223162B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381792A (zh) * | 2020-11-13 | 2021-02-19 | 中国人民解放军空军工程大学 | 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法 |
CN113537460A (zh) * | 2021-06-29 | 2021-10-22 | 哈尔滨工业大学 | 一种适用于耀斑预报问题的多线程神经网络模型的构建方法 |
NL2030687B1 (en) * | 2022-01-25 | 2023-08-04 | North China Electric Power Univ Baoding | Endoscopic photoacoustic tomographic image reconstruction method and system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务系统 |
US20180137338A1 (en) * | 2016-11-16 | 2018-05-17 | The Governing Council Of The University Of Toronto | System and method for classifying and segmenting microscopy images with deep multiple instance learning |
CN108416755A (zh) * | 2018-03-20 | 2018-08-17 | 南昌航空大学 | 一种基于深度学习的图像去噪方法及系统 |
CN110084867A (zh) * | 2019-04-24 | 2019-08-02 | 河北科技大学 | 基于cnn和多电极电磁测量的动静脉图像重建方法 |
CN110189334A (zh) * | 2019-05-28 | 2019-08-30 | 南京邮电大学 | 基于注意力机制的残差型全卷积神经网络的医学图像分割方法 |
-
2020
- 2020-01-06 CN CN202010008799.4A patent/CN111223162B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务系统 |
US20180137338A1 (en) * | 2016-11-16 | 2018-05-17 | The Governing Council Of The University Of Toronto | System and method for classifying and segmenting microscopy images with deep multiple instance learning |
CN108416755A (zh) * | 2018-03-20 | 2018-08-17 | 南昌航空大学 | 一种基于深度学习的图像去噪方法及系统 |
CN110084867A (zh) * | 2019-04-24 | 2019-08-02 | 河北科技大学 | 基于cnn和多电极电磁测量的动静脉图像重建方法 |
CN110189334A (zh) * | 2019-05-28 | 2019-08-30 | 南京邮电大学 | 基于注意力机制的残差型全卷积神经网络的医学图像分割方法 |
Non-Patent Citations (4)
Title |
---|
ABE H 等: "Focusing light within scattering media for photoacoustic tomography in a limited-view-angle tomography setting" * |
仝卫国;李敏霞;张一可;: "深度学习优化算法研究" * |
段爽 等: "声学特性不均匀组织的光声层析图像重建研究进展" * |
王新宇: "基于深度学习的光声内窥成像方法的研究" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381792A (zh) * | 2020-11-13 | 2021-02-19 | 中国人民解放军空军工程大学 | 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法 |
CN113537460A (zh) * | 2021-06-29 | 2021-10-22 | 哈尔滨工业大学 | 一种适用于耀斑预报问题的多线程神经网络模型的构建方法 |
NL2030687B1 (en) * | 2022-01-25 | 2023-08-04 | North China Electric Power Univ Baoding | Endoscopic photoacoustic tomographic image reconstruction method and system |
Also Published As
Publication number | Publication date |
---|---|
CN111223162B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110074813B (zh) | 一种超声图像重建方法及系统 | |
CN111223162B (zh) | 一种用于重建epat图像的深度学习方法及系统 | |
CN110051387B (zh) | 一种基于射线理论的超声ct图像重建方法及系统 | |
CN109829880A (zh) | 一种基于深度学习的ct图像检测方法、装置和控制设备 | |
US20120302880A1 (en) | System and method for specificity-based multimodality three- dimensional optical tomography imaging | |
CN114723842B (zh) | 基于深度融合神经网络的稀疏视角ct成像方法和设备 | |
CN111956180B (zh) | 一种重建光声内窥层析图像的方法 | |
Awasthi et al. | Sinogram super-resolution and denoising convolutional neural network (SRCN) for limited data photoacoustic tomography | |
CN112912758A (zh) | 用于对超声信号进行自适应波束形成的方法和系统 | |
Luchies et al. | Training improvements for ultrasound beamforming with deep neural networks | |
CN110473150A (zh) | 基于多特征提取的cnn医学ct图像去噪方法 | |
CN111915733A (zh) | 基于LeNet网络的三维锥束X射线发光断层成像方法 | |
CN115868923B (zh) | 基于展开式循环神经网络的荧光分子断层成像方法及系统 | |
CN115187689A (zh) | 基于Swin-Transformer正则化的PET图像重建方法 | |
CN110610528A (zh) | 基于模型的双约束光声断层图像重建方法 | |
CN113706419B (zh) | 一种图像处理方法和系统 | |
Zuo et al. | Spectral crosstalk in photoacoustic computed tomography | |
CN110575202B (zh) | 一种基于费马原理的超声ct图像重建方法及系统 | |
Liu et al. | Enhanced Multi-Scale Feature Cross-Fusion Network for Impedance–Optical Dual-Modal Imaging | |
CN116630738A (zh) | 一种基于深度卷积稀疏表示重建网络的能谱ct成像方法 | |
CN112085830A (zh) | 一种基于机器学习的光学相干血管造影成像方法 | |
CN115859779A (zh) | 基于深度学习的高质量实时微波热声成像方法及装置 | |
CN115294300A (zh) | 多分支注意力先验参数化有限投影快速荧光断层重建方法 | |
CN115272100A (zh) | 基于教师-学生双模型的低剂量spect弦图预处理和图像重建方法 | |
Ren et al. | High-resolution tomographic reconstruction of optical absorbance through scattering media using neural fields |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |