CN117425920A - 一种图像重建方法、装置、电子设备及存储介质 - Google Patents
一种图像重建方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117425920A CN117425920A CN202380012111.1A CN202380012111A CN117425920A CN 117425920 A CN117425920 A CN 117425920A CN 202380012111 A CN202380012111 A CN 202380012111A CN 117425920 A CN117425920 A CN 117425920A
- Authority
- CN
- China
- Prior art keywords
- data
- encoder
- training
- neural network
- depth neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000003860 storage Methods 0.000 title claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 59
- 238000005259 measurement Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 85
- 230000006870 function Effects 0.000 claims description 48
- 238000004088 simulation Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 17
- 210000004072 lung Anatomy 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本公开属于图像重建的技术领域,涉及一种图像重建方法、装置、电子设备及存储介质。本公开通过变分自编码器深度神经网络对实测数据反演目标函数进行最小化,以得到实测数据反演目标函数的目标隐空间参数,再利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到重建图像。该图像重建方法,包括:获取目标的实测数据;根据实测数据构建以变分自编码器深度神经网络的隐空间参数为未知数的实测数据反演目标函数;利用变分自编码器深度神经网络对实测数据反演目标函数进行最小化,得到目标隐空间参数;利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到目标重建图像。
Description
相关申请的交叉引用
本公开要求享有2022年4月20日提交的名称为“一种图像重建方法、装置、电子设备及存储介质”的中国专利申请CN202210417793.1的优先权,其全部内容通过引用并入本公开中。
本公开属于图像重建技术领域,具体涉及一种图像重建方法、装置、电子设备及存储介质。
电磁数据成像广泛应用于生物医学成像、无损探伤等领域,其通过传感器采集待测物体的电磁场数据,然后通过一定的图像重建方法重构物体内部的电导率或介电常数分布。
在图像重建方面,常见的方法将反演域分解为像素,然后通过最小化仿真数据和测量数据的残差重建离散的电导率或介电常数。像素的数量通常远大于数据的数量,因此这是一个非线性的病态问题,需要依赖先验知识进行合理的重建。
发明内容
本公开提出了一种图像重建方法、装置、电子设备及存储介质。本公开通过变分自编码器深度神经网络对根据实测数据反演目标函数进行最小化,以得到实测数据反演目标函数的目标隐空间参数,再利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到重建图像。
第一方面,本公开提供了一种图像重建方法,包括:获取目标的实测数据;根据所述实测数据构建以变分自编码器深度神经网络的隐空间参数为未知数的实测数据反演目标函数;利用所述变分自编码器深度神经网络对所述实测数据反演目标函数进行最小化,得到目标隐空间参数;以及利用所述变分自编码器深度神经网络对所述目标隐空间参数进行解码,得到目标重建图像。
在一些实施例中,所述变分自编码器深度神经网络包括:解码器和编码器;所述利用所述变分自编码器深度神经网络对所述实测数据反演目标函数进行最小化,得到目标隐空间参数,包括:根据目标设定初始模型;利用所述编码器对所述初始模型进行编码,得到初始模型的编码;利用所述解码器对所述编码进行解码并计算,得到仿真数据;确定所述
仿真数据与所述实测数据之间的差值是否大于第一阈值;在所述差值大于第一阈值的情况下,确定所述编码的更新量;根据所述更新量对所述编码进行更新,并利用继续执行步骤“利用所述解码器对所述编码进行解码并计算,得到仿真数据”;在所述差值小于或等于第一阈值的情况下,将所述编码作为所述目标隐空间参数输出。
在一些实施例中,通过下式确定所述更新量:H(vk)·pk=-g(vk);其中,J为雅克比矩阵,JH为J的共轭转置;I为单位矩阵。
在一些实施例中,所述变分自编码器深度神经网络的训练包括:获取训练数据,并根据所述训练数据构建训练集;根据所述训练集构建变分自编码器深度神经网络;根据所述训练集构建所述变分自编码器深度神经网络的训练函数;以及利用所述训练函数对所述变分自编码器深度神经网络进行训练。
在一些实施例中,所述训练数据包括:图像数据,所述获取训练数据,并根据所述训练数据构建训练集,包括:对所述图像数据进行分割,获得图像数据中的感兴趣目标;对所述感兴趣目标分配训练参数,形成初始训练模型;对所述初始训练模型的不同方位分别进行调整,获得多个变形训练模型,以得到训练集。
在一些实施例中,所述训练函数包括: 其中Q为隐空间变量的长度,L为模型中像素点的个数,为编码器输出的方差向量的第q个分量,为编码器输出的均值向量的第q个分量,ml为编码器输入的第l个分量,为解码器输出的第l个分量,α为调整变分自编码器KL散度的正则化系数。
在一些实施例中,所述实测数据包括以下之一:时序差分电阻抗数据、绝对电阻抗数据和微波数据。
第二方面,本公开提供了一种图像重建装置,包括:第一获取模块,被配置为获取目标的实测数据;第一构建模块,被配置为根据所述实测数据构建以变分自编码器深度神经网络的隐空间参数为未知数的实测数据反演目标函数;第一执行模块,被配置为利用所述变分自编码器深度神经网络对所述实测数据反演目标函数进行最小化,得到目标隐空间参数;以及第二执行模块,被配置为利用所述变分自编码器深度神经网络对所述目标隐空间参数进行解码,得到重建图像。
第三方面,本公开提供了一种电子设备,包括储存器和处理器,所述储存器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面所述的图像重建方法。
第四方面,本公开提供了一种存储介质,该存储介质存储有计算机程序,所述计算机程序能够被一个或多个处理器执行,以实现第一方面所述的图像重建方法。
本公开通过变分自编码器深度神经网络对根据实测数据反演目标函数进行最小化,以得到实测数据反演目标函数的目标隐空间参数,再利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到重建图像。使得在图像重建过程中的未知数大大减少,同时提高了图像重建过程中的计算效率。
通过结合附图阅读下文示例性实施例的详细描述可更好地理解本公开的范围。其中所包括的附图是:
图1为本公开实施例提供的一种图像重建方法的整体流程图;以及
图2为本公开实施例提供的一种图像重建装置的结构框图。
为了使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开作进一步地详细描述,所描述的实施例不应视为对本公开的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
如果本公开中出现的“第一\第二\第三”的类似描述则增加以下的说明,在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本公开实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本公开的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本公开实施例的目的,不是旨在限制本公开。
在图像重建方面,常见的方法所需像素的数量通常远大于数据的数量,因此这是一个非线性的病态问题,需要依赖先验知识进行合理的重建。由于未知数的数量通常为数千或数万,目标函数极小化的过程计算量巨大。此外,反演时利用先验信息的方式不够灵活。解释人员头脑中的先验知识难以用数学形式描述,因此无法约束反演过程,给模型重建和解释带来了挑战。
实施例1
如图1所示,本公开提供了一种图像重建方法,该方法应用于电子设备,电子设备可以服务器、移动终端、计算机、云平台等。本公开实施例提供的设备数据处理所实现的功能可以通过电子设备的处理器调用程序代码来实现,其中,程序代码可以保存在计算机存储介质中,图像重建方法包括步骤S1至步骤S4。
步骤S1:获取目标的实测数据。
本公开中的目标实测数据可以为时序差分电阻抗数据、绝对电阻抗数据和微波数据中的任意一种。
步骤S2:根据实测数据构建以变分自编码器深度神经网络的隐空间参数为未知数的实测数据反演目标函数。
变分自编码器深度神经网络包括有编码器和解码器,其中编码器输出的为隐空间参数,而解码器负责对编码器输出的隐空间参数进行解码。
步骤S3:利用变分自编码器深度神经网络对实测数据反演目标函数进行最小化,得到目标隐空间参数。
在一些实施例中,在步骤S3中,利用变分自编码器深度神经网络对实测数据反演目标函数进行最小化,得到目标隐空间参数包括以下步骤S31至步骤S37。
步骤S31:根据目标设定初始模型。
设置初始模型时需要根据实测数据的种类进行设置。为初始模型预设不同的参数。当实测数据为时序差分电阻抗数据或绝对电阻抗数据时,为初始模型预设电导率。当实测参数为微波数据时,为初始模型预设介电常数。
步骤S32:利用编码器对初始模型进行编码,得到初始模型的编码。
利用变分自编码器深度神经网络的编码器对预设了参数的初始模型进行编码,得到初始模型的编码。
步骤S33:利用解码器对编码进行解码并计算,得到仿真数据。
完成编码后,将编码结果利用变分自编码器深度神经网络的解码器进行解码,解码后会得到预设参数模型,再对预设参数模型进行计算得到仿真数据。
(1)在实测数据为时序差分电阻抗数据时,时序差分电阻抗数据通过下式仿真:
d=A·m,
其中m为离散的电导率变化量,d为根据电导率方程仿真计算出的时序差分电阻抗数据,A为正向建模函数,此处表示为一个矩阵。
离散电导率变化量m可由变分自编码器的解码器D对隐空间变量解码:
m=D(v);
因此,从隐空间变量计算电阻抗数据的过程可用S表示:
d=A·D(v)=S(v)。
(2)在实测数据为绝对电阻抗数据时,绝对电阻抗数据通过下式数值仿真:
d=F(T(m))
其中m为离散的器官电导率,d为根据麦克斯韦方程仿真计算出的绝对电阻抗数据,T为映射函数,用于将器官电导率映射到三角有限元网格上,生成胸腔电导率模型,F为正向建模函数。
器官电导率m可由变分自编码器的解码器D对隐空间变量v解码得到:
m=D(v)
因此,从隐空间变量v计算电压仿真数据的过程可用S表示:
d=F(T(D(v)))=S(v)。
(3)在微波数据反演中,电磁散射数据通过下式数值仿真:
d=F(m);
其中m为离散的介电常数,d为根据麦克斯韦方程仿真计算出的散射场数据,F为正向建模函数。
离散介电常数m可由变分自编码器的解码器D对隐空间变量解码:
m=D(v);
因此,从隐空间变量计算电磁数据的过程可用S表示:
d=F(D(v))=S(v)。
步骤S34:确定仿真数据与实测数据之间的差值是否大于第一阈值。
通过对比仿真数据和实测数据之间的差值确定最终结果是否收敛于第一阈值。
在确定性反演中,反演问题可等同于寻找使以下目标函数最小化的最优参数v:
其中||||表示L2范数,dobs为测量数据,λ为目标函数的正则化系数,用于稳定函数优化过程。
步骤S35:当差值大于第一阈值时,确定编码的更新量。
当结果不能收敛于第一阈值的时候,则需要对编码进行更新,在对编码进行跟新时,需要确定编码的更新量。
确定编码的更新量时,需要通过下式确定更新量:
H(vk)·pk=-g(vk)。
其中,
J为雅克比矩阵,JH为J的共轭转置。I为单位矩阵。
步骤S36:根据更新量对编码进行更新,并利用继续执行步骤利用解码器对编码进行解码并计算,得到仿真数据。
在确定了更新量之后,根据更新量对编码进行更新,并继续对更新后的编码执行步骤S33。
在确定了更新量后,根据下式对编码进行更新,
vk+1=vk+pk。
步骤S37:当差值小于或等于第一阈值时,将编码作为目标隐空间参数输出。
当仿真数据和实测数据之间的差值确定最终结果收敛于第一阈值时,将与仿真数据相对应的编码作为目标隐空间参数输出。
步骤S4:利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到目标重建图像。
得到目标隐空间参数后,利用变分自编码器深度神经网络的解码器对目标隐空间参数进行解码,得到预设参数模型,最终根据预设参数模型得到目标重建图像。
在得到vk+1后,用变分自编码器中的解码器D对其解码,可得介电常数模型/电导率模型为:
mk+1=D(vk+1)。
本公开通过变分自编码器深度神经网络对根据实测数据反演目标函数进行最小化,以得到实测数据反演目标函数的目标隐空间参数,再利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到重建图像。使得在图像重建过程中的未知数大大减少,同时提高了图像重建过程中的计算效率。
在一些实施例中,在训练变分自编码器深度神经网络时所需要的训练包括步骤S51至步骤S54。
步骤S51:获取训练数据,并根据训练数据构建训练集。
训练数据来源于其他成像手段所得到的图像数据,比如CT扫描数据,当然也可以是三维扫描数据得到三维图像数据,根据得到的图像数据来构建训练集。
在一些实施例中,在步骤S51中,获取训练数据并根据训练数据构建训练集包括步骤
S511至步骤S513。
步骤S511:对图像数据进行分割,获得图像数据中的感兴趣目标。
步骤S512:对感兴趣目标分配训练参数,形成初始训练模型。
比如在进行电阻抗图像重建时,分配的训练参数便为目标的电导率,此时便形成初始训练模型。
步骤S513:对初始训练模型的不同方位分别进行调整,获得多个变形训练模型,以得到训练集。
为了增加训练模型数据量,可以通过修改目标的形态来增加训练模型。
比如:通过肺部的图像对变分自编码器深度神经网络进行训练时,先获得由其他探测手段获得的肺部图像,由于不同的探测手段所获得属性不相同,比如通过CT手段获得的肺部图像本身不具备电导率数据以及微波数据。所以需要对获得到的图像进行电导率预设。预设电导率后形成了关于肺部的电阻抗初始训练模型。然后再对形成的初始训练模型进行数据增强,即对肺部图像的肺叶进行随机切除,由于肺叶被切除,会使得整个初始训练模型中的电阻抗发生改变,进而形成了多个变形训练模型,而多个变形训练模型最终得到训练集。
步骤S52:根据训练集构建变分自编码器深度神经网络。
本实施例(时序差分电阻抗成像例)中,设计出来的变分自编码器深度神经网络包括有编码器和解码器。其中编码器的输入和输出的大小为32×48×48。在编码器中,卷积、激活交替应用三次以输出尺寸为4×6×6×32的张量。将张量重排列为向量后,分别应用两个密集层生成均值和方差向量。使用重新参数化方法对高斯分布进行采样。
本例(时序差分电阻抗成像例)中,隐空间变量的长度为32,实现了32/73728=0.043%的压缩率。除通过转置卷积层实现上采样外,解码器的结构与编码器的结构对称。网络使用线性整流函数(ReLU)进行非线性激活。
步骤S53:根据训练集构建变分自编码器深度神经网络的训练函数。
在一些实施例中,训练函数包括:
其中Q为隐空间变量的长度,L为模型中像素点的个数,为编码器输出的方差向量的第q个分量,为编码器输出的均值向量的第q个分量,ml为编码器输入的第l个分量,为解码器输出的第l个分量,α为调整变分自编码器KL散度的正则化系数。
步骤S54:利用训练函数对变分自编码器深度神经网络进行训练。
最后,利用Adam优化算法和训练函数对设计的变分自编码器深度神经网络进行训
练。训练完成后,可得到最优的变分自编码器深度神经网络参数。
本公开通过变分自编码器深度神经网络对根据实测数据反演目标函数进行最小化,以得到实测数据反演目标函数的目标隐空间参数,再利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到重建图像。使得在图像重建过程中的未知数大大减少,同时提高了图像重建过程中的计算效率。
实施例2
基于前述的实施例,本公开实施例提供一种图像重建装置,该装置包括的各模块、以及各模块包括的各单元,可以通过计算机设备中的处理器来实现;当然也可通过逻辑电路实现;在实施的过程中,处理器可以为中央处理器(CPU,Central Processing Unit)、微处理器(MPU,Microprocessor Unit)、数字信号处理器(DSP,Digital Signal Processing)或现场可编程门阵列(FPGA,Field Programmable Gate Array)等。
如图5所示,第二方面提供了一种图像重建装置,包括:第一获取模块1、第一构建模块2、第一执行模块3和第二执行模块4。
第一获取模块1被配置为获取目标的实测数据。第一构建模块2被配置为根据实测数据构建以变分自编码器深度神经网络的隐空间参数为未知数的实测数据反演目标函数。第一执行模块3被配置为利用变分自编码器深度神经网络对实测数据反演目标函数进行最小化,得到目标隐空间参数。第二执行模块4被配置为利用变分自编码器深度神经网络对目标隐空间参数进行解码,得到重建图像。
在一些实施例中,第一执行模块3包括:第一设定模块、第三执行模块、第四执行模块、第一确定模块、第二确定模块、第一输出模块。
第一设定模块被配置为根据目标设定初始模型。第三执行模块被配置为利用编码器对初始模型进行编码,得到初始模型的编码。第四执行模块被配置为利用解码器对编码进行解码并计算,得到仿真数据。第一确定模块被配置为确定仿真数据与实测数据之间的差值是否大于第一阈值。第二确定模块被配置为当差值大于第一阈值时,确定编码的更新量。第一输出模块被配置为当差值小于或等于第一阈值时,将编码作为目标隐空间参数输出。
在一些实施例中,图像重建装置还包括:第二获取模块、第五执行模块、第六执行模块和第七执行模块。
第二获取模块被配置为获取训练数据,并根据训练数据构建训练集。第五执行模块被配置为根据训练集构建变分自编码器深度神经网络。第六执行模块被配置为根据训练集构建变分自编码器深度神经网络的训练函数。第七执行模块被配置为利用训练函数对变分自编码器深度神经网络进行训练。
在一些实施例中,第五执行模块包括:第八执行模块、第九执行模块和第十执行模块。
第八执行模块被配置为对图像数据进行分割,获得图像数据中的感兴趣目标。第九执行模块被配置为对感兴趣目标分配训练参数,形成初始训练模型。第十执行模块对初始训练模型的不同方位分别进行调整,获得多个变形训练模型,以得到训练集。
上述一种图像重建装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于设备中的处理器中,也可以以软件形式存储于处理装置中的存储器中,以便于处理器调用执行以上各个模块对应的操作。需要说明的是,本公开实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
实施例3
第三方面提供了一种电子设备,包括储存器和处理器,储存器存储有计算机程序,处理器执行计算机程序时实现一种图像重建方法的步骤。
实施例4
第四方面提供了一种存储介质,该存储介质存储的计算机程序,能够被一个或多个处理器执行,计算机程序能够用来实现第一方面中任一项图像重建方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本公开所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
应理解,说明书通篇中提到的“一个实施例”或“一些实施例”意味着与实施例有关的特定特征、结构或特性包括在本公开的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本公开的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。上述本公开实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,
而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本公开所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本公开各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本公开上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台控制器执行本公开各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本公开的实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以所述权利要求的保护范围为准。
Claims (10)
- 一种图像重建方法,包括:获取目标的实测数据;根据所述实测数据构建以变分自编码器深度神经网络的隐空间参数为未知数的实测数据反演目标函数;利用所述变分自编码器深度神经网络对所述实测数据反演目标函数进行最小化,得到目标隐空间参数;以及利用所述变分自编码器深度神经网络对所述目标隐空间参数进行解码,得到目标重建图像。
- 根据权利要求1所述的图像重建方法,其中,所述变分自编码器深度神经网络包括:解码器和编码器;所述利用所述变分自编码器深度神经网络对所述实测数据反演目标函数进行最小化,得到目标隐空间参数,包括:根据目标设定初始模型;利用所述编码器对所述初始模型进行编码,得到初始模型的编码;利用所述解码器对所述编码进行解码并计算,得到仿真数据;确定所述仿真数据与所述实测数据之间的差值是否大于第一阈值;在所述差值大于第一阈值的情况下,确定所述编码的更新量;根据所述更新量对所述编码进行更新,并利用继续执行步骤“利用所述解码器对所述编码进行解码并计算,得到仿真数据”;以及在所述差值小于或等于第一阈值的情况下,将所述编码作为所述目标隐空间参数输出。
- 根据权利要求2所述的图像重建方法,其中,通过下式确定所述更新量: H(vk)·pk=-g(vk);其中, J为雅克比矩阵,JH为J的共轭转置;I为单位矩阵。
- 根据权利要求1所述的图像重建方法,其中,所述变分自编码器深度神经网络的训练包括:获取训练数据,并根据所述训练数据构建训练集;根据所述训练集构建变分自编码器深度神经网络;根据所述训练集构建所述变分自编码器深度神经网络的训练函数;以及利用所述训练函数对所述变分自编码器深度神经网络进行训练。
- 根据权利要求4所述的图像重建方法,其中,所述训练数据包括:图像数据,所述 获取训练数据,并根据所述训练数据构建训练集,包括:对所述图像数据进行分割,获得图像数据中的感兴趣目标;对所述感兴趣目标分配训练参数,形成初始训练模型;以及对所述初始训练模型的不同方位分别进行调整,获得多个变形训练模型,以得到训练集。
- 根据权利要求4所述的图像重建方法,其中,所述训练函数包括:其中,Q为隐空间变量的长度,L为模型中像素点的个数,为编码器输出的方差向量的第q个分量,为编码器输出的均值向量的第q个分量,ml为编码器输入的第l个分量,为解码器输出的第l个分量,α为调整变分自编码器KL散度的正则化系数。
- 根据权利要求1所述的图像重建方法,其中,所述实测数据包括以下之一:时序差分电阻抗数据、绝对电阻抗数据和微波数据。
- 一种图像重建装置,包括:第一获取模块,被配置为获取目标的实测数据;第一构建模块,被配置为根据所述实测数据构建以变分自编码器深度神经网络的隐空间参数为未知数的实测数据反演目标函数;第一执行模块,被配置为利用所述变分自编码器深度神经网络对所述实测数据反演目标函数进行最小化,得到目标隐空间参数;以及第二执行模块,被配置为利用所述变分自编码器深度神经网络对所述目标隐空间参数进行解码,得到重建图像。
- 一种电子设备,包括:存储器和处理器,所述存储器上存储有计算机程序,该计算机程序被所述处理器执行时,执行如权利要求1至7任意一项所述的图像重建方法。
- 一种存储介质,所述存储介质存储有计算机程序,所述计算机程序能够被一个或多个处理器执行,以实现如权利要求1至7中任一项所述的图像重建方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210417793 | 2022-04-20 | ||
CN2022104177931 | 2022-04-20 | ||
PCT/CN2023/079245 WO2023202231A1 (zh) | 2022-04-20 | 2023-03-02 | 一种图像重建方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117425920A true CN117425920A (zh) | 2024-01-19 |
Family
ID=88419042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202380012111.1A Pending CN117425920A (zh) | 2022-04-20 | 2023-03-02 | 一种图像重建方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN117425920A (zh) |
WO (1) | WO2023202231A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173543B (zh) * | 2023-11-02 | 2024-02-02 | 天津大学 | 一种肺腺癌和肺结核的混合图像重构方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146988B (zh) * | 2018-06-27 | 2022-08-30 | 南京邮电大学 | 基于vaegan的非完全投影ct图像重建方法 |
CN111584072B (zh) * | 2020-05-12 | 2023-09-19 | 苏州脉康医疗科技有限公司 | 一种适于小样本的神经网络模型训练方法 |
CN112200306B (zh) * | 2020-10-15 | 2022-09-27 | 北京航空航天大学 | 一种基于深度学习的电阻抗成像方法 |
-
2023
- 2023-03-02 CN CN202380012111.1A patent/CN117425920A/zh active Pending
- 2023-03-02 WO PCT/CN2023/079245 patent/WO2023202231A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2023202231A1 (zh) | 2023-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109754402B (zh) | 图像处理方法、图像处理装置以及存储介质 | |
US20180225847A1 (en) | Systems and methods for data and model-driven image reconstruction and enhancement | |
CN113313234A (zh) | 用于图像分割的神经网络系统和方法 | |
US20190073748A1 (en) | Method and Apparatus to Perform Local De-noising of a Scanning Imager Image | |
CN112884819B (zh) | 一种影像配准及神经网络的训练方法、装置和设备 | |
CN108596222B (zh) | 基于反卷积神经网络的图像融合方法 | |
Garduño et al. | Computerized tomography with total variation and with shearlets | |
CN116758093B (zh) | 一种图像分割方法、模型训练方法、装置、设备及介质 | |
CN117425920A (zh) | 一种图像重建方法、装置、电子设备及存储介质 | |
CN114270397A (zh) | 使用电特性断层成像确定流体和组织体积估计的系统和方法 | |
CN114299185A (zh) | 磁共振图像生成方法、装置、计算机设备和存储介质 | |
Lin et al. | Feature-based inversion using variational autoencoder for electrical impedance tomography | |
CN116563096A (zh) | 用于图像配准的形变场的确定方法、装置以及电子设备 | |
CN112884820A (zh) | 一种影像初始配准及神经网络的训练方法、装置和设备 | |
CN117635444A (zh) | 基于辐射差和空间距离的深度补全方法、装置和设备 | |
Wang et al. | Unsupervised Coordinate-Based Neural Network for Electrical Impedance Tomography | |
CN111814316B (zh) | 一种用于地表变量的非均匀性时空分析方法及系统 | |
EP2850596A1 (en) | Method and system for the three-dimensional reconstruction of structures | |
Gong et al. | EIT imaging regularization based on spectral graph wavelets | |
CN117058262A (zh) | 一种磁性纳米粒子成像重建的方法、系统及装置 | |
Gomes et al. | Electrical impedance tomography image reconstruction based on autoencoders and extreme learning machines | |
CN109325140A (zh) | 从图像中提取哈希码的方法、装置及图像检索方法、装置 | |
ABAS et al. | Medical image fusion with convolutional neural network in multiscaletransform domain | |
Martin et al. | A marching-on-frequency-inspired cascaded network for multi-frequency microwave imaging | |
Watzenig et al. | Accelerated Markov chain Monte Carlo sampling in electrical capacitance tomography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |