CN110264536A - 一种在平行束超分重建中计算高低分辨率投影关系的方法 - Google Patents

一种在平行束超分重建中计算高低分辨率投影关系的方法 Download PDF

Info

Publication number
CN110264536A
CN110264536A CN201910511628.0A CN201910511628A CN110264536A CN 110264536 A CN110264536 A CN 110264536A CN 201910511628 A CN201910511628 A CN 201910511628A CN 110264536 A CN110264536 A CN 110264536A
Authority
CN
China
Prior art keywords
resolution
low resolution
low
image
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910511628.0A
Other languages
English (en)
Other versions
CN110264536B (zh
Inventor
温俊海
程志彪
雷丙震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201910511628.0A priority Critical patent/CN110264536B/zh
Publication of CN110264536A publication Critical patent/CN110264536A/zh
Application granted granted Critical
Publication of CN110264536B publication Critical patent/CN110264536B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种在平行束超分重建中计算高低分辨率投影关系的方法,包括如下步骤:针对N各角度,在每个角度下获得一幅高分辨率投影图像与若干幅低分辨率投影图像,高分辨率图像与低分辨率投影图像之间存在几何上的平移关系;将每一角度下高、低分辨投影图像的像素点作为训练集,进行神经网络训练,得到高分辨率投影图像区域块各像素点对低分辨率投影图像中对应像素点的贡献值;根据贡献值及每一角度下高、低分辨率投影图像之间的几何平移关系,计算出偏移量;利用偏移量对实际检测中的低分辨率投影图像进行位移校正,最终得到真实高分辨率图像。本发明在不改变检测器中准直器孔径大小的前提下,能够提高平行束图像的分辨率。

Description

一种在平行束超分重建中计算高低分辨率投影关系的方法
技术领域
本发明涉及一种在平行束超分重建中计算高低分辨率投影关系的方法,属于医学图像重建技术领域。
背景技术
单光子发射计算机断层成像(SPECT)是核医学成像中的一项重要技术,放射性示踪剂通过辐射伽马光子,穿过人体后被检测器检测,最终重建得到断层图像。目前广泛应用在临床上,并成为疾病诊断和治疗中最重要的工具。
超分辨率算法是一种使用多个低分辨率图像生成更高分辨率图像的软件技术,将超分辨率算法与平行束SPECT成像结合,可以在不改变检测器中准直器孔径大小的前提下,有效提高SPECT的成像分辨率,利于对小目标进行检测及重建。以平行光采样为例,在SPECT成像的每个采样角度下,通过在检测器平面内将低分辨率检测器在不同方向平移整数个对应高分辨率像素大小的位移量,采集若干个不同位置的低分辨率投影图像。根据不同位置的低分辨率投影图像可通过对应角度下高分辨率投影图像在检测器平面内向对应方向平移对应位移量后进行降采样操作得到,通过假设待求高分辨率投影图像初值,对应于不同位置的低分辨率投影图像,将待求高分辨率投影图像平移相应的位移量后,进行降采样操作得到低分辨率图像,与对应位置下采集到的低分辨率投影图像比较获得高分辨率投影图像调节权值,乘以调节步长,对高分辨率初值图像进行调节,得到新的高分辨率投影图像初值,并进行下一位置或角度的迭代调节,当满足迭代条件后,获得最终高分辨率投影图像,进而获得高分辨率重建图像。
在实际应用中,低分辨率检测器平移位移量的精度受系统硬件物理参数的限制,无法准确平移整数个高分辨率像素大小的位移量,若在超分辨率算法中忽略该位移误差,将对获得的高分辨率投影图像产生较大的影响,甚至无法得到高分辨率图像。由于系统硬件的改进要受系统复杂度和成本的限制,那么如何通过软件方法获得实际应用中低分辨率检测器平移的真实位移量,成为一个急需解决的问题。
发明内容
有鉴于此,为了解决实际应用中,低分辨率检测器平移位移量的精度受系统硬件物理参数的限制,无法准确平移整数个高分辨率像素大小的位移量的问题,本发明公开的一种在平行束超分重建中计算高低分辨率投影关系的方法,通过投影关系得到低分辨率检测器平移的真实位移偏差,并将位移偏差应用于超分辨率算法中,在不改变检测器中准直器孔径大小的前提下,提高平行束图像的分辨率。
本发明是通过下述技术方案实现的。
一种在平行束超分重建中计算高低分辨率投影关系的方法,包括如下步骤:
步骤一,获得N个角度下的高分辨率投影图像和低分辨率投影图像,在每个角度下获得一幅高分辨率投影图像与若干幅低分辨率投影图像,所述高分辨率图像与所述低分辨率投影图像之间存在几何上的平移关系;
步骤二,将每一角度下高、低分辨投影图像的像素点作为训练集,进行神经网络训练,得到高分辨率投影图像区域块各像素点对低分辨率投影图像中对应像素点的贡献值;
步骤三,根据所述贡献值及每一角度下高、低分辨率投影图像之间的几何平移关系,计算出偏移量;利用所述偏移量对实际检测中的低分辨率投影图像进行位移校正,最终得到真实高分辨率图像。
进一步地,本发明设计三维点源模型,并在其上不同区域随机放置L个模拟伽马放射源。
进一步地,本发明所述L个模拟伽马放射源的位置、形状、强弱互不相同。
进一步地,本发明所述L个模拟伽马放射源像素大小不小于2×2×2,且所述L为5。
进一步地,本发明所述高分辨率投影图像通过投影算法计算获得。
进一步地,本发明所述高分辨率投影图像也可采用X射线照射三维点源模型实物(放射源相应位置换为金属块)获得。
进一步地,本发明采集N个角度下的低分辨率投影图像为:低分辨率检测器绕物体中心进行旋转,每次旋转个角度;在每个旋转角度下,低分辨率检测器在其所在的平面内平移设定偏移量,获得若干幅低分辨率投影图像。
进一步地,本发明优选平移的偏移量为高分辨率投影图像上一个像素大小的距离。
附图说明
图1为低分辨率检测器理想状态下平移示意图;
图2为高分辨率投影图像与理想低分辨率投影图像之间关系示意图;
图3为高分辨率投影图像与实际低分辨率投影图像之间关系示意图;
图4为高分辨率像素点与实际低分辨率像素点之间关系示意图;
图5为神经网络模型示意图;
图6为三维点源模型示意图;
图7为低分辨率图像像素组成示意图;
图8为检测器旋转采集示意图;
图9为三维点源模型投影结果;
图10为高分辨率图像与低分辨率图像间的实际计算关系;
图11为第1个角度下不同方法获得三维点源模型投影结果;
图12为第1个角度下三维点源模型投影图数据走势;
图13为不同方法重建三维点源模型结果;
图14为sheep-logan模型投影示意图;
图15为sheep-logan模型投影结果;
图16为第1个角度下不同方法获得sheep-logan模型投影结果;
图17为第1个角度下sheep-logan模型投影图数据走势;
图18为不同方法重建sheep-logan模型结果。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述。
本发明的设计思想为:在低分辨率检测器硬件确定的情况下,由系统硬件所产生的检测器平移偏差是固定的,由于不同位置的低分辨率投影图像可通过该角度下高分辨率投影图像在检测器平面内平移相应位移量后进行降采样操作得到,因此可以通过寻找高低分辨率投影图像间的实际位移偏差得到低分辨率检测器平移的真实位移量。利用获得的真实位移量对不同位置的穿过人体后被检测器检测到的低分辨率投影图像(断层图像)进行位移校正,更准确地实现超分辨率算法,最终得到真实高分辨率图像。
本发明实施例提供一种在平行束超分重建中计算高低分辨率投影关系的方法,本实施例针对SPECT超分重建,适用于检测器受系统硬件物理参数的限制,检测器无法精确实现平移设定值的前提下,对低分辨率检测器移动距离进行位移校正,具体过程为:
步骤一、获得N个角度下的高分辨率投影图像和低分辨率投影图像,所述高分辨率图像与所述低分辨率投影图像之间存在几何上的平移关系。
本实施例中,可以采取设计三维点源模型的方式,通过不同方法来采集N个角度下的高、低分辨率投影图像,N为低分辨率检测器绕物体旋转的次数。三维点源模型可以为:根据所需的高、低分辨率图像像素的大小,设计一个Sh×Sh×Sh像素大小的三维点源模型,Sh为模型像素个数,三维模型中不同区域随机放置L个形状、强弱不同的模拟伽马放射源,L为伽马放射源个数。
本实施例中,在上述设计的三维点源模型中,在不同区域随机放置L个模拟伽马放射源,优选所放置的模拟伽马放射源图形大小不同、像素强度不同、位置不同,为保证准确寻找点源模型的高低分辨率投影图像之间的位移关系,伽马放射源像素大小不小于2×2×2,个数L进一步优选为5。
本实施例中,获得N个角度下的高分辨率投影图像与低分辨率投影图像,针对高分辨率投影图像的采集,可以通过方法1实现;
方法1高分辨率投影图像采集:假设存在一高分辨率检测器,令高分辨率检测器绕物体中心进行旋转,每次旋转个角度;在每个旋转角度下,由投影公式计算得到一个高分辨率投影图像。或者,还可以通过X射线照射三维点源模型实物(放射源相应位置换为金属块)得到其高分辨率投影图像。
方法2低分辨率投影图像采集:在不改变低分辨率检测器中准直器孔径大小的前提下,低分辨率检测器绕物体中心进行旋转,每次旋转个角度;在每个旋转角度下,将低分辨率检测器在检测器所在平面平移预设位移量,共需平移M次,每次平移后采集单个投影数据,得到M个低分辨率投影图像(M与实际低分辨率图像大小和需获得的高分辨率图像大小有关),记录每次平移到位移量。
本发明实施例中在每个角度下,分别在其所在位置平面采集的低分辨率投影图像个数M,与实际低分辨率投影图像大小,实际高分辨率投影图像大小,需获得的高分辨率投影图像大小有关;若低分辨率检测器大小为Sl×Sl个像素,高分辨率检测器大小与目标获得的高分辨率投影图像大小为Sh×Sh个像素,R为高分辨率图像大小与低分辨率图像大小像素之比,则M、N、R、Sh、Sl可由公式(1)、(2)、(3)给出。
N≥Sh (1)
M≥R×R (3)
步骤二、将每一旋转角度下高、低分辨投影图像的像素点作为训练集,进行神经网络训练,得到高分辨率投影图像区域块各像素点对低分辨率投影图像中对应像素点的“贡献”值;
本实施例中将每次平移的位移量优选为高分辨率图像一个像素大小的距离,单个采样角度下,低分辨率投影图像中一个像素点的值等于高分辨率投影图像中对应区域块内高分辨率像素点值的加和,具体可描述为:
其中,PL(x,y)为低分辨率投影图像中位于(x,y)位置的像素点值,P′H(x',y')为高分辨率投影图像中位于(x',y')位置的像素点的值,(x',y')位于对应高分辨率像素点组成的R×R区域块SR内。
由于低分辨率检测器平移位移量的精度受系统硬件物理参数的限制,检测器平移的位移量很可能不是整数个像素大小,本实施例假设每个低分辨率检测器相对于初始位置的偏移量均为非整数,且与理论值的偏差小于±1,本实施例方法适用但不限于该假设偏差值。
在每个旋转角度下高、低分辨率投影图像之间的位移几何关系,不同位置的低分辨率投影图像可通过该角度下高分辨率投影图像在检测器平面内向对应方向平移预设位移量后进行降采样操作得到,低分辨率投影图像中一个像素点的值等于高分辨率投影图像中对应区域块内高分辨率像素点值的加和,且区域块中各点对低分辨率像素点值均有“贡献”,该“贡献”为[0,1]之间的实数,与图像的偏移量有关。因此根据每个旋转角度下高、低分辨率投影图像之间的位移几何关系,得到低分辨率投影图像中的每个像素点对应于高分辨率投影图像中相应区域块像素点的“贡献”情况,引入神经网络模型计算高分辨率投影图像区域块内各点对低分辨率投影图像中对应像素点的“贡献”值。
具体过程为:
其中,(x',y')位于对应高分辨率像素点组成的(R+2)×(R+2)区域块内,w(x',y')为内各点对低分辨率投影图像像素点的“贡献”,即权系数。
将式(4)写成向量的形式即:
pL=WP′H (6)
其中,pL表示低分辨率图像中的一个像素点;为(R+2)2×1长度的列向量,表示高分辨率图像中区域块内各像素点;为1×(R+2)2的行向量,表示权系数。
引入神经网络模型计算高分辨率投影图像区域块内各点对低分辨率投影图像中对应像素点的“贡献”值,以高分辨率投影图像中区域块的像素点为输入,以对应的低分辨率像素点为参考数据,可以得到一个样本数据。按照这个规则,对于每一个低分辨率像素点,都可以在高分辨率投影图像中找到对应的区域块,这样便得到了一组用于训练感知器的数据集。通过使用随机梯度下降算法迭代优化参数,当达到收敛条件时,即可以训练好的权系数W。包括如下步骤;
输入:设训练集T={(P′H1,pL1),(P′H2,pL2),…,(P′HN,pLN)},其中pLi∈R为低分辨率像素点的值,为对应的高分辨率中区域块内像素点的值;学习率η;输出:预测的低分辨率像素点的值
步骤2.1:随机选取初始值W(0)
步骤2.2:从训练集选取样本(P′Hi,pLi);
步骤2.3:计算感知机的输出与均方误差;
步骤2.4:使用随机梯度下降法更新权系数;
步骤2.5:重复步骤2.2~2.4,直到达到停止条件(最大迭代次数或者误差收敛等);
步骤2.6:网络训练结束时,得到的权系数为一个1×16的行向量,为将其与高分辨率图像区域块内各像素位置对应起来,将其还原成二维矩阵的形式;
步骤三,根据所述“贡献”值及每个旋转角度下高、低分辨率投影图像之间的位移几何关系,计算出所述偏移量;利用所述偏移量对实际检测中的低分辨率投影图像进行位移校正,最终得到真实高分辨率图像。
计算所述偏移量的具体过程为:
以图7中高低分辨率位移关系为例,一个低分辨率投影图像的像素值为对应高分辨率投影图像的4个像素值累加得到,这4个高分辨率像素由原高分辨率图像上一个4×4的区域块内像素插值得到。在插值过程中,低分辨率投影图像中每个点的像素值均由高分辨率投影图像相应区域块中相邻16个点组成,取W中相应区域块得到关系矩阵块SW,SW的各元素可以表示为:
步骤3.1:权系数W由神经网络计算得到,而SW表示的是在插值过程中各高分辨率像素值对低分辨率像素值的贡献,两者在数值上相等,即W=SW;
步骤3.2:计算偏移量(Δx,Δy);
对于更一般的情况,W通常最多只有9个元素为非零值,这9个元素表示高分辨率像素值对低分辨率像素值的贡献。因此,在求出W后,先找到这9个元素对应的有值权系数U,则:
其中,p代表W中第一个非零元素所在行数,q代表W中第一个非零元素所在列数。因此,可以得到计算偏移量(Δx,Δy)的更一般的公式:
由于检测器硬件所产生的偏差是固定的,即检测器每次平移预设位移所产生的位移偏差是固定的,那么,对于高分辨率图像中不同的区域块,其对应位置的像素点对低分辨率图像像素值的贡献是一样的。
本实施例一种计算平行束SPECT超分辨率重建中计算高低分辨率投影关系的方法,超分辨率平行束SPECT重建中,在每个投影角度下,低分辨率检测器在其所在平面内平移固定位移,得到一系列低分辨率投影图像。然后使用超分辨率算法由低分辨投影重建出高分辨率投影。然而在实际应用中,由于受系统硬件物理参数的限制,每个投影角度下低分辨率检测器的平移偏差不可避免;可根据步骤二的处理方法计算高低分辨率投影关系,在检测器硬件条件已知的情况下,低分辨率检测器每次移动固定位移所产生的位移偏差是固定的,根据步骤三的处理方法计算平行束SPECT低分辨率检测器实际平移的位移量;由此能够将该偏移量应用在超分辨率算法中,能够在不改变检测器中准直器孔径大小的前提下,提高SPECT图像的分辨率。
实施例1:
设计128×128×128像素大小的三维点源模型,模型中不同区域随机放置5个像素大小不同的点源图像,设置第一个点源的位置为(35:37,44:46,49:51),大小为3×3×3像素,像素值为1;设置第二个点源的位置为(63:65,64:66,79:81),大小为3×3×3像素,像素值为0.8;设置第三个点源的位置为(15:16,110:111,99:100),大小为2×2×2像素,像素值为0.7;设置第四个点源的位置为(79:81,23:25,34:36),大小为3×3×3像素,像素值为0.5;设置第五个点源的位置为(96:99,64:67,79:82),大小为4×4×4像素,像素值为0.2。图6为三维点源模型示意图。
高分辨率检测器分辨率为128×128个像素,低分辨率检测器分辨率为64×64个像素,目标获得的高分辨率像素为128×128,N=256,M=4,R=2。
低分辨率检测器绕物体旋转的同时,其自身也需在其所在平面进行平移。要求低分辨率检测器平移的位移量设为1个高分辨率投影图像的像素宽度,每个采样角度下,设置每个低分辨率检测器相对于初始位置的偏移量分别为(0,0),(1,0),(0,1),(1,1),如图1所示,其中实线为低分辨率检测器初始位置,虚线为低分辨率检测器平移不同位移量后的到达的位置。对于单个采样角度下得到的4个低分辨率投影图像,与该角度下真实高分辨率投影图像之间的关系示意如图2所示,其中低分辨率投影图像中一个像素点的值等于高分辨率投影图像中对应区域块内高分辨率像素点值的加和,即图中加粗实线方框圈出的区域块。
但在实际平移过程中,低分辨率检测器平移位移量的精度受系统硬件物理参数的限制,检测器平移的位移量很可能不是整数个像素大小。假设每个低分辨率检测器相对于初始位置的偏移量均为非整数,且与理论值的偏差小于±1。以每个采样角度下,设置每个低分辨率检测器相对于初始位置的偏移量分别为(0,0),(0.8,0),(0,1.4),(0.8,1.4)为例说明,如图3所示,其中低分辨率投影图像中一个像素点的值等于高分辨率投影图像中对应区域块内高分辨率像素点值的加和,即图中加粗实线方框圈出新的区域块。
本实例以上述设计为例进行说明,但是并不说明该发明仅限于这些条件,本发明中所涉及的范围仅有权利说明书限定。
本实施例公开的一种寻找平行束SPECT高低分辨率投影位移关系的方法,其具体实施步骤如下:
步骤一、设计三维点源模型,获得256个角度下的高分辨率投影图像与低分辨率投影图像,具体采集方法通过方法1和方法2实现。
方法1高分辨率投影图像采集;假设存在一个高分辨率检测器绕物体中心进行旋转,每次旋转个角度,图8为检测器旋转采集示意图;在每个旋转角度下,利用投影公式得到一个高分辨率投影图像。
方法2低分辨率投影图像采集:在不改变低分辨率检测器中准直器孔径大小的前提下,低分辨率检测器绕物体中心进行旋转,每次旋转个角度;在每个旋转角度下,将低分辨率检测器在检测器所在平面平移预设位移量,共需平移4次,每次平移后采集单个投影数据,得到4个低分辨率投影图像,记录每次平移到位移量。
取第1个旋转角度下的高、低分辨率投影图像为例,如图9所示。
步骤二、根据每个旋转角度下高、低分辨率投影图像之间的位移几何关系,得到低分辨率投影图像中的每个像素点对应于高分辨率投影图像中相应区域块像素点的“贡献”情况,引入神经网络模型计算高分辨率投影图像区域块内各点对低分辨率投影图像中对应像素点的“贡献”值。图5为神经网络模型示意图,输入为高分辨率投影数据,输出为低分辨率投影数据。。
步骤二中每次平移的位移量优选为高分辨率图像一个像素大小的距离,每个采样角度下,设置每个低分辨率检测器相对于初始位置的偏移量分别为(0,0),(1,0),(0,1),(1,1),如图2所示,低分辨率检测器平移位移量的精度受系统硬件物理参数的限制,检测器平移的位移量很可能不是整数个像素大小。设置每个低分辨率检测器相对于初始位置的偏移量分别为(0,0),(0.8,0),(0,1.4),(0.8,1.4),如图3所示。
步骤二所述每个旋转角度下高、低分辨率投影图像之间的位移几何关系,不同位置的低分辨率投影图像可通过该角度下高分辨率投影图像在检测器平面内向对应方向平移预设位移量后进行降采样操作得到,因此低分辨率投影图像中一个像素点的值等于高分辨率投影图像中对应区域块内高分辨率像素点值的加和,且区域块中各点对低分辨率像素点值均有“贡献”,该“贡献”为[0,1]之间的实数,与图像的偏移量有关。图4为高分辨率像素点与实际低分辨率像素点之间关系示意图,灰色区域表示
步骤二所述引入神经网络模型计算高分辨率投影图像区域块内各点对低分辨率投影图像中对应像素点的“贡献”值,以高分辨率投影图像中区域块的像素点为输入,以对应的低分辨率像素点为参考数据,可以得到一个样本数据。按照这个规则,对于每一个低分辨率像素点,都可以在高分辨率投影图像中找到对应的区域块,这样便得到了一组用于训练感知器的数据集。通过使用随机梯度下降算法迭代优化参数,当达到收敛条件时,即可以训练好的权系数W。包括如下步骤;
设训练集T={(P′H1,pL1),(P′H2,pL2),…,(P′HN,pLN)},其中pLi∈R为低分辨率像素点的值,为对应的高分辨率中区域块内像素点的值;学习率η。
步骤2.2:从训练集选取样本(P′Hi,pLi)。
步骤2.3:计算感知机的输出与均方误差Error。
步骤2.4:使用随机梯度下降法更新权系数W。
步骤2.5:重复步骤2.2~2.4,直到达到停止条件(最大迭代次数或者误差收敛等)。
步骤2.6:网络训练结束时,得到权系数W。
步骤三、将该“贡献”值用高、低分辨率投影图像之间的位移偏差表示,计算得到高低分辨率投影图像之间的真实偏移量。
步骤三所述将“贡献”值用高、低分辨率投影图像之间的位移偏差表示,计算得到高低分辨率投影图像之间的真实偏移量,包括如下步骤;
以图7中高低分辨率位移关系为例,一个低分辨率投影图像的像素值为对应高分辨率投影图像的4个像素值累加得到,这4个高分辨率像素由原高分辨率图像上一个4×4的区域块内像素插值得到。在插值过程中,低分辨率投影图像中每个点的像素值均由高分辨率投影图像相应区域块中相邻16个点组成,取W中相应区域块得到关系矩阵块SW。
步骤3.1:权系数W由神经网络计算得到,而SW表示的是在插值过程中各高分辨率像素值对低分辨率像素值的贡献,两者在数值上相等,即W=SW。
步骤3.2:计算偏移量(Δx,Δy)。
对于更一般的情况,W通常最多只有9个元素有值,这9个元素表示高分辨率像素值对低分辨率像素值的贡献。因此,在求出W后,先找到这9个元素对应的有值权系数U。根据对应关系,计算偏移量(Δx,Δy)。图10为高分辨率图像与低分辨率图像间的实际计算偏移量。
根据超分辨率算法,对于每个采样角度下的4幅低分辨率投影图像,利用图10得到的真实偏移量(Δx,Δy),采用超分辨率算法获得相应采用角度下的高分辨率投影图像,这里假设待求高分辨率投影图像像素点初值为0。以第1个采样角度下的投影图像为例,分别将由低分辨率投影图像利用图2所示未校正偏移量得到的未校正高分辨率投影图像、由低分辨率投影图像利用图10中得到的校正偏移量得到的校正高分辨率投影图像与直接投影获得的真实高分辨率投影图像进行比较,如图11所示,各图均为各自迭代参数最优化后的归一化图像。
对图11中不同方法得到的第1个角度下投影结果取第80行、45列的数据绘制曲线,如图12所示。图中实线代表真实高分辨率投影图像,线状虚线代表未校正高分辨率投影图像,带x标记点状虚线代表校正高分辨率投影图像,其中实线与带x标记点状虚线基本吻合,而线状虚线则偏差明显。
利用三维平行滤波反投影算法,将不同方法下得到的高分辨率投影图像进行重建,得到三维重建图像。为便于比较,取重建图第80层、64列、36行切面的二维图像,如图13所示。应用专利方法得到的真实偏移量(Δx,Δy)校正后的重建结果几乎接近于高分辨率重建结果。
实验模拟一个128×128×128像素大小的三维sheep-logan模型验证结果,采用平行束SPECT成像,不考虑光子衰减,在π范围内均匀采集了256个角度,单角度下投影情况如图14所示。
应用步骤一种方法1、方法2得到每个角度下高、低分辨率投影图像,以第1个旋转角度为例图15为sheep-logan模型投影结果。
对于每个旋转角度下的4幅低分辨率投影图像,利用图10计算得到的真实偏移量(Δx,Δy),采用超分辨率算法得到每个旋转角度下的校正高分辨率投影图像,并对应利用图2所示未校正偏移量得到未校正高分辨率投影图像,并与高分辨率投影图像对比,如图16所示。
对图16中不同方法得到的第1个角度下投影结果取第64行、44列的数据绘制曲线,如图17所示。
利用三维平行滤波反投影算法,将不同方法下得到的高分辨率投影图像进行重建,得到三维sheep-logan重建图像。图18所示不同重建图像的第64层、60列、64行切面的二维图像,并绘制切线图比较。
该方法不仅可以用于SPECT超分重建,但该方法可以应用到其他超分重建算法中,如PET超分重建、CT超分重建等。
以上结合具体实施例对本发明的技术方案和具体实施方式作了说明,但这些说明不能被理解为限制了本发明的范围,这些仅是举例说明,可以对这些实施方式做出多种变更或修改,而不背离本发明的原理和实质。本发明的保护范围由随附的权利要求书限定,任何在本发明权利要求基础上的改动都是本发明的保护范围。

Claims (8)

1.一种在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,包括如下步骤:
步骤一,在每个角度下获得一幅高分辨率投影图像与若干幅低分辨率投影图像,获得N个角度下的高分辨率投影图像和低分辨率投影图像,所述高分辨率图像与所述低分辨率投影图像之间存在几何上的平移关系;
步骤二,将每一角度下高、低分辨投影图像的像素点作为训练集,进行神经网络训练,得到高分辨率投影图像区域块各像素点对低分辨率投影图像中对应像素点的贡献值;
步骤三,根据所述贡献值及每一角度下高、低分辨率投影图像之间的几何平移关系,计算出偏移量;利用所述偏移量对实际检测中的低分辨率投影图像进行位移校正,最终得到真实高分辨率图像。
2.根据权利要求1所述在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,设计三维点源模型,并在其不同区域随机放置L个模拟伽马放射源。
3.根据权利要求1所述在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,所述L个模拟伽马放射源的位置、形状、强弱互不相同。
4.根据权利要求3所述在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,所述L个模拟伽马放射源像素大小不小于2×2×2,且所述L为5。
5.根据权利要求1所述在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,所述高分辨率投影图像通过投影算法计算获得。
6.根据权利要求1所述在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,所述高分辨率投影图像也可采用X射线照射三维点源模型实物获得。
7.根据权利要求2所述在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,采集N个角度下的低分辨率投影图像为:低分辨率检测器绕物体中心进行旋转,每次旋转个角度;在每个旋转角度下,低分辨率检测器在其所在的平面内平移设定偏移量,获得若干幅低分辨率投影图像。
8.根据权利要求7所述在平行束超分重建中计算高低分辨率投影关系的方法,其特征在于,所述平移的偏移量为高分辨率投影图像上一个像素大小的距离。
CN201910511628.0A 2019-06-13 2019-06-13 一种在平行束超分重建中计算高低分辨率投影关系的方法 Active CN110264536B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910511628.0A CN110264536B (zh) 2019-06-13 2019-06-13 一种在平行束超分重建中计算高低分辨率投影关系的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910511628.0A CN110264536B (zh) 2019-06-13 2019-06-13 一种在平行束超分重建中计算高低分辨率投影关系的方法

Publications (2)

Publication Number Publication Date
CN110264536A true CN110264536A (zh) 2019-09-20
CN110264536B CN110264536B (zh) 2021-02-05

Family

ID=67918152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910511628.0A Active CN110264536B (zh) 2019-06-13 2019-06-13 一种在平行束超分重建中计算高低分辨率投影关系的方法

Country Status (1)

Country Link
CN (1) CN110264536B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210374548A1 (en) * 2020-06-02 2021-12-02 Sap Se Adaptive high-resolution digital image processing with neural networks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049885A (zh) * 2012-12-08 2013-04-17 新疆公众信息产业股份有限公司 一种利用分析性稀疏表示的超分辨率图像重建方法
US20140193092A1 (en) * 2013-01-09 2014-07-10 Lsi Corporation Superresolution image processing using an invertible sparse matrix
US20160069801A1 (en) * 2014-09-08 2016-03-10 Leeo, Inc. Particulate matter sensor
CN107157505A (zh) * 2017-06-09 2017-09-15 北京理工大学 一种提高锥形束spect成像分辨率的方法
CN108391060A (zh) * 2018-03-26 2018-08-10 华为技术有限公司 一种图像处理方法、图像处理装置和终端
CN108416821A (zh) * 2018-03-08 2018-08-17 山东财经大学 一种深度神经网络的ct图像超分辨重建方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049885A (zh) * 2012-12-08 2013-04-17 新疆公众信息产业股份有限公司 一种利用分析性稀疏表示的超分辨率图像重建方法
US20140193092A1 (en) * 2013-01-09 2014-07-10 Lsi Corporation Superresolution image processing using an invertible sparse matrix
US20160069801A1 (en) * 2014-09-08 2016-03-10 Leeo, Inc. Particulate matter sensor
CN107157505A (zh) * 2017-06-09 2017-09-15 北京理工大学 一种提高锥形束spect成像分辨率的方法
CN108416821A (zh) * 2018-03-08 2018-08-17 山东财经大学 一种深度神经网络的ct图像超分辨重建方法
CN108391060A (zh) * 2018-03-26 2018-08-10 华为技术有限公司 一种图像处理方法、图像处理装置和终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王素玉等: ""一种基于权值矩阵的序列图像超分辨率盲复原算法"", 《电子学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210374548A1 (en) * 2020-06-02 2021-12-02 Sap Se Adaptive high-resolution digital image processing with neural networks
US11488020B2 (en) * 2020-06-02 2022-11-01 Sap Se Adaptive high-resolution digital image processing with neural networks

Also Published As

Publication number Publication date
CN110264536B (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN111492406B (zh) 训练机器学习算法的方法、图像处理系统和图像重建方法
US11670017B2 (en) Systems and methods for reprojection and backprojection via homographic resampling transform
US8971599B2 (en) Tomographic iterative reconstruction
US8897528B2 (en) System and method for iterative image reconstruction
CN109643458A (zh) 用于自动化的正弦图完成、组合及通过组合完成的系统和方法
CN103098095B (zh) 微分相位对比成像中的规则化的相位恢复
CN108511043B (zh) 基于数值模拟的x-ct虚拟数据采集及图像重建方法及系统
CN103961130A (zh) 使得c型臂系统适应以提供三维成像信息的方法
AU2006315013A1 (en) System and method for reconstructing an image by rectilinear trajectory scanning
CN1936958B (zh) 用于从二维投影图像中重建三维图像体积的方法和装置
CN101542240A (zh) C型臂计算机断层成像系统
Wu et al. Spatial-temporal total variation regularization (STTVR) for 4D-CT reconstruction
CN104107065A (zh) 3d图像集在不同空间之间的最佳变换
JPH11326243A (ja) Ctイメ―ジング装置を動作する方法及び走査及びデ―タ収集装置
CN109187591A (zh) 一种x射线超分辨成像方法及其应用
Tang et al. Generative adversarial network-based sinogram super-resolution for computed tomography imaging
CN102488528B (zh) 一种层析成像几何参数的校准方法
Thies et al. Gradient-based geometry learning for fan-beam CT reconstruction
Li et al. Motion correction for robot-based x-ray photon-counting CT at ultrahigh resolution
Li et al. Motion correction via locally linear embedding for helical photon-counting CT
CN110428370A (zh) 一种利用偏心旋转提高锥形束spect成像分辨率的方法
CN110264536A (zh) 一种在平行束超分重建中计算高低分辨率投影关系的方法
JP3913798B2 (ja) 画像再構成処理装置
CN116630460A (zh) 源直线扫描轨迹的探测器行向微分高质量图像重建方法
Pekel et al. Runtime optimization of acquisition trajectories for x-ray computed tomography with a robotic sample holder

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant