CN111862072A - 一种基于ct图像测量腹围的方法 - Google Patents

一种基于ct图像测量腹围的方法 Download PDF

Info

Publication number
CN111862072A
CN111862072A CN202010741397.5A CN202010741397A CN111862072A CN 111862072 A CN111862072 A CN 111862072A CN 202010741397 A CN202010741397 A CN 202010741397A CN 111862072 A CN111862072 A CN 111862072A
Authority
CN
China
Prior art keywords
image
matrix
pixel
points
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010741397.5A
Other languages
English (en)
Inventor
张堃
韩宇
范陆健
朱翊晗
冯文宇
殷佳炜
华亮
李文俊
鲍毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Borazhe Technology Co ltd
Nantong University
Original Assignee
Hangzhou Borazhe Technology Co ltd
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Borazhe Technology Co ltd, Nantong University filed Critical Hangzhou Borazhe Technology Co ltd
Priority to CN202010741397.5A priority Critical patent/CN111862072A/zh
Publication of CN111862072A publication Critical patent/CN111862072A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于CT图像测量腹围的方法,其具体操作方法包括以下步骤:A、图像预处理;B、图像块剪裁操作;C、通过深度学习进行外围曲线分割;D、骨骼化处理;E、边缘连接;F、累加像素点换算腹围,本发明旨在提出一种能够基于CT图像直接获得腹围的方法,该方法首先对CT图像进行预处理,通过深度学习进行外围分割,再对分割结果进行骨骼化处理,最后计算外围像素点个数乘以每个像素点对应的长度便可获得腹围,得出较为准确的实现腹围测算。

Description

一种基于CT图像测量腹围的方法
技术领域
本发明涉及疾病预防检测技术领域,具体为一种基于CT图像测量腹围的方法。
背景技术
随着生活水平的提高,由于饮食不规律、熬夜、遗传等因素都会引发高血压,高血压的危害比较多,最常见的就是对心脏脑血管等造成不可逆的伤害,主要就是引起血管内的内膜损伤,然后成型增大,容易出现动脉硬化,或者是心脏增大,特别是长时间的血压得不到正确的控制,容易出现脑血管意外,通常会发生脑梗塞脑出血等并发症,属于比较危重的问题,再就是引起心脏增大之后会发生心律不齐,或者是心脏肥厚,容易导致心律失常,出现其他的意外,目前最好的方法就是及早发现,及早治疗,腹围常常与一些疾病具有一定的相关性比如高血压,糖尿病等等,腹围对健康至关重要,所以使用一种较为简便的方法测量腹围在临床上具有一定的实际意义,传统的人体腹围测量方法存在精度低和成本高等问题,一些微小的病灶从主观阅片上很可能会造成的漏诊与误诊,所以如何提供一种有效测量腹围的方法是十分必要的。
发明内容
本发明的目的在于提出一种能够帮助影像科医生快速定位病灶,避免了由于主观阅片而可能造成的漏诊与误诊的基于CT图像测量腹围的方法。
为实现上述目的,本发明提供如下技术方案:一种基于CT图像测量腹围的方法,其具体操作方法包括以下步骤:
A、图像预处理;
B、图像块剪裁操作;
C、通过深度学习进行外围曲线分割;
D、骨骼化处理;
E、边缘连接;
F、累加像素点换算腹围。
作为优选,步骤A图像预处理:
a、采用CLAHE算法对图像进行直方图均衡化,CLAHE算法对于某个像素邻域,通过变换函数的斜率计算得到对比度,斜率与该邻域的CDF斜率成正比,计算该邻域的CDF之前,CLAHE会根据指定的阈值对直方图进行裁剪,并将裁剪部分均匀地分布到直方图中。
b、采用伽马变换调整图像整体灰度,伽马变换通过对灰度值进行非线性操作,使处理后图像的灰度值与处理前图像的灰度值之间呈现非线性指数关系,实现灰度拉伸;
伽马变换公式如下:
Iout=cIin γ
其中Iin为处理前图像的灰度值,IOUT为处理后图像的灰度值,c为灰度缩放系数,γ为变换指数。
当γ取不同值时,输入灰度值取0到255并对输入输出灰度值都做归一化为0到1之间,当γ小于1时,伽马变换将提高图像的灰度值,图像视觉上变亮;当γ大于1时,伽马变换将拉低图像灰度值,图像视觉上变暗,这里取γ值为0.5。
c、归一化图像像素值在0到1之间,像素的归一化可以通过将像素值除以图片像素值255;
计算公式如下:
x'=(x-X_min)/(X_max-X_min)
其中x'为归一化结果,x为输入像素值,X_min为所有输入图像像素中的最小值,X_max为所有输入图像像素中的最大值。
作为优选,步骤B图像块剪裁操作:
对于训练集,裁剪时生成一组随机坐标,以这些坐标作为中心点,裁剪大小为48*48的图像块,得到数据集;对应的标准图采用同样的方法进行剪裁,原图剪裁图与标准图剪裁图一一对应。
作为优选,步骤C通过深度学习进行外围曲线分割:
在Unet中加入了R2模块与Attention Augment模块,其中,Unet结构总体呈对称的U型结构,共包含12个单元F1-F12,其中左侧F1-F6为收缩路径,用于特征的提取;右侧F6-F12为扩张路径,用于细节的恢复实现精准预测;
其中R2模块包括了残差学习单元和递归卷积;
a、残差学习单元:假定一个神经网络单元的输入是x,期望输出是H(x),另外定义一个残差映射F(x)=H(x)-x,若把x直接传递给输出,则该神经网络单元要学习的目标就是残差映射F(x)=H(x)-x,残差学习单元由一系列卷积层和一个捷径组成,输入x通过这个捷径传递给残差学习单元的输出,则残差学习单元的输出为z=F(x)+x;
b、递归卷积:假定输入为x,对该输入x进行连续的卷积,且每一次的卷积输出加上当前的输入作为下一次的卷积的输入。
R2模块即将残差学习单元中的普通卷积替换为递归卷积。
Attention Augment本质为通过查询得到一系列键-值对的映射;首先,通过对输入大小为(w,h,cin)的特征图进行1×1卷积输出QKV矩阵,其大小为(w,h,2*dk+dv),其中w、h、2*dk+dV分别表示了矩阵的宽、长与深度,Cin为输入图像序列;再从深度通道上对QKV矩阵进行分割,得到Q、K、V三个矩阵其深度通道大小分别为dk、dk、dv;接着,采用了多头注意力机制的结构,将Q、K、V三个矩阵分别从深度通道上分割为N个相等的矩阵进行后续的计算,这种多头注意力机制将原本单一的attention计算,扩展为较小且并行独立的多个计算,使得模型可以在不同的子空间内学习特征信息。
对于分割好的Q、K、V矩阵在进行扁平化处理生成Flat_Q、Flat_K、Flat_V三个矩阵,即对Q、K、V保持深度通道不变,从长宽方向对其进行压缩到1维,其中前两个矩阵的大小为(w*h,dk),后一个矩阵大小为(w*h,dv);接着,Attention Augment保存了原先Self-Attention的做法使用Flat_Q、Flat_K两矩阵进行矩阵乘法运算,计算出权重矩阵,且在此基础上添加了相对位置嵌入的计算,通过对Q矩阵进行长宽两方向的权重计算得到特征图上每个点的相对位置信息,防止特征位置的变换而降低模型的最终效果。
对于分割好的Q、K、V矩阵在进行扁平化处理生成Flat_Q、Flat_K、Flat_V三个矩阵,即对Q、K、V保持深度通道不变,从长宽方向对其进行压缩到1维,其中前两个矩阵的大小为(w*h,dk),后一个矩阵大小为(w*h,dv);接着,Attention Augment保存了原先Self-Attention的做法使用Flat_Q、Flat_K两矩阵进行矩阵乘法运算,计算出权重矩阵,且在此基础上添加了相对位置嵌入的计算,通过对Q矩阵进行长宽两方向的权重计算得到特征图上每个点的相对位置信息,防止特征位置的变换而降低模型的最终效果。
将注意力特征矩阵O和正常的卷积过程按深度方向进行拼接即可得到AttentionAugment的结果;注意力特征矩阵O的计算公式如下:
Figure BDA0002606843240000041
其中,Q为输入图像数据的查询矩阵,K为输入图像数据的目标矩阵,V为输入图像数据的数值矩阵,SH和SW分别是图像沿着长和宽维数的相对位置对数矩阵,
Figure BDA0002606843240000042
为尺度标度。
作为优选,步骤D骨骼化处理:
循环所有边界点,对每一个边界点,记为中心P1,其邻域的8个点顺时针绕中心点从P1的上方开始分别记为P2,P3...P9,首先标记下来同时满足下列的边界点:
a、2≤N(P1)≤6;
b、S(P1)=1;
c、P2*P4*P6=0;
d、P4*P6*P8=0;
其中N(P1)是P1的相邻点中非零的数量,S(P1)为按照P2,P3...P9排序后像素点的值从0到1变化的次数;
同第一步,仅将前面的条件c改为:P2*P4*P8=0;条件d改为P2*P6*P8=0当对图像中的边界点都执行完后,把标记的点置为背景点;
最后将上面两个步骤作为一次迭代,直至没有点再满足这些要求,这时所得到的图像即为骨骼化后的骨架图。
作为优选,步骤E边缘连接:
将所有的相似点连接起来,以形成根据特定准则满足相同特性像素的一条边缘;
确定边缘像素相似性的两个主要的性质:
a、梯度向量的强度|M(s,t)-M(x,y)|≤E;
b、梯度向量的方向|α(s,t)-α(x,y)|≤A;
其中(x,y)表示一个像素点(s,t)表示以(x,y)为中心的所有的邻域点。E是一个非负门限,A是非负角门限。
如果(s,t)大小和方向准则得到满足,则将(s,t)连接到(x,y),在图像的每个像素点,在图像中的每个位置重复这一操作,当领域的中心从一个像素转移到另一个像素时,这两个相连接点必须记录下来。
作为优选,步骤F累加像素点换算腹围:
累加像素点换算腹围从上至下遍历全图遇到非黑色像素点就累加一次,遍历完成后累加结束,获得最终得到整个腹围的像素点,再将像素点个数乘以每个像素点的长度得到腹围,计算公式如下:
l=n×m
其中l为最终计算得到的腹围,n为非黑色像素点的个数,m为每个像素点的长度。
与现有技术相比,本发明的有益效果是:
(1)本发明提出一种方法直接基于CT图像通过计算机深度学习,进行数字图像处理,非常方便的获得腹围供医生进行疾病诊断,本方法基于先分割后计算的思路,较为准确的实现腹围测算,作为计算机辅助诊断方式,帮助影像科医生快速定位病灶,避免了由于主观阅片而可能造成的漏诊与误诊。
(2)本发明能够准确高效的实现CT图像腹部轮廓的分割;
(3)本发明能够方便有效的实现腹围的测算;
(4)CLAHE是AHE的改进,其改进主要体现在对局部对比度做了限制,有效降低了噪声被放大的程度;
(5)CT原图像数据量不够充足,所以进行图像块剪裁,以扩充训练数据集,获得更加充足可靠地数据;
(6)这里深度学习的网络可以自主选择,这里提供一种方案,但不是唯一,图像外围曲线分割越准确,最终得到的腹围测量也越精确;
(7)骨骼化处理能够将宽度减小到一个像素而不改变原曲线方向、形状和连通性等核心属性。对CT图像外围曲线进行骨骼化操作,会大大减小原图的复杂度,为精确计算像素点提供方便。
附图说明
图1为本发明操作步骤结构示意图;
图2为本发明结构示意图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于CT图像测量腹围的方法,其具体操作方法包括以下步骤:
A、图像预处理;
B、图像块剪裁操作;
C、通过深度学习进行外围曲线分割;
D、骨骼化处理;
E、边缘连接;
F、累加像素点换算腹围。
步骤A图像预处理:
a、采用CLAHE算法对图像进行直方图均衡化,CLAHE算法对于某个像素邻域,通过变换函数的斜率计算得到对比度,斜率与该邻域的CDF斜率成正比,计算该邻域的CDF之前,CLAHE会根据指定的阈值对直方图进行裁剪,并将裁剪部分均匀地分布到直方图中。
b、采用伽马变换调整图像整体灰度,伽马变换通过对灰度值进行非线性操作,使处理后图像的灰度值与处理前图像的灰度值之间呈现非线性指数关系,实现灰度拉伸;
伽马变换公式如下:
Iout=cIin γ
其中Iin为处理前图像的灰度值,IOUT为处理后图像的灰度值,c为灰度缩放系数,γ为变换指数。
当γ取不同值时,输入灰度值取0到255并对输入输出灰度值都做归一化为0到1之间,当γ小于1时,伽马变换将提高图像的灰度值,图像视觉上变亮;当γ大于1时,伽马变换将拉低图像灰度值,图像视觉上变暗,这里取γ值为0.5。
c、归一化图像像素值在0到1之间,像素的归一化可以通过将像素值除以图片像素值255;
计算公式如下:
x'=(x-X_min)/(X_max-X_min)
其中x'为归一化结果,x为输入像素值,X_min为所有输入图像像素中的最小值,X_max为所有输入图像像素中的最大值。
步骤B图像块剪裁操作:
对于训练集,裁剪时生成一组随机坐标,以这些坐标作为中心点,裁剪大小为48*48的图像块,得到数据集;对应的标准图采用同样的方法进行剪裁,原图剪裁图与标准图剪裁图一一对应。
步骤D骨骼化处理:
循环所有边界点,对每一个边界点,记为中心P1,其邻域的8个点顺时针绕中心点从P1的上方开始分别记为P2,P3...P9,首先标记下来同时满足下列的边界点:
a、2≤N(P1)≤6;
b、S(P1)=1;
c、P2*P4*P6=0;
d、P4*P6*P8=0;
其中N(P1)是P1的相邻点中非零的数量,S(P1)为按照P2,P3...P9排序后像素点的值从0到1变化的次数;
同第一步,仅将前面的条件c改为:P2*P4*P8=0;条件d改为P2*P6*P8=0当对图像中的边界点都执行完后,把标记的点置为背景点;
最后将上面两个步骤作为一次迭代,直至没有点再满足这些要求,这时所得到的图像即为骨骼化后的骨架图。
步骤E边缘连接:
将所有的相似点连接起来,以形成根据特定准则满足相同特性像素的一条边缘;
确定边缘像素相似性的两个主要的性质:
a、梯度向量的强度|M(s,t)-M(x,y)|≤E;
b、梯度向量的方向|α(s,t)-α(x,y)|≤A;
其中(x,y)表示一个像素点(s,t)表示以(x,y)为中心的所有的邻域点。E是一个非负门限,A是非负角门限。
如果(s,t)大小和方向准则得到满足,则将(s,t)连接到(x,y),在图像的每个像素点,在图像中的每个位置重复这一操作,当领域的中心从一个像素转移到另一个像素时,这两个相连接点必须记录下来。
步骤F累加像素点换算腹围:
累加像素点换算腹围从上至下遍历全图遇到非黑色像素点就累加一次,遍历完成后累加结束,获得最终得到整个腹围的像素点,再将像素点个数乘以每个像素点的长度得到腹围,计算公式如下:
l=n×m
其中l为最终计算得到的腹围,n为非黑色像素点的个数,m为每个像素点的长度。
上述实施例只是本发明的较佳实施例,并不是对本发明技术方案的限制,只要是不经过创造性劳动即可在上述实施例的基础上实现的技术方案,均应视为落入本发明专利的权利保护范围内。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (7)

1.一种基于CT图像测量腹围的方法,其具体操作方法包括以下步骤:
A、图像预处理;
B、图像块剪裁操作;
C、通过深度学习进行外围曲线分割;
D、骨骼化处理;
E、边缘连接;
F、累加像素点换算腹围。
2.根据权利要求1所述的一种基于CT图像测量腹围的方法,其特征在于:所述根据步骤A图像预处理:
a、采用CLAHE算法对图像进行直方图均衡化,CLAHE算法对于某个像素邻域,通过变换函数的斜率计算得到对比度,斜率与该邻域的CDF斜率成正比,计算该邻域的CDF之前,CLAHE会根据指定的阈值对直方图进行裁剪,并将裁剪部分均匀地分布到直方图中。
b、采用伽马变换调整图像整体灰度,伽马变换通过对灰度值进行非线性操作,使处理后图像的灰度值与处理前图像的灰度值之间呈现非线性指数关系,实现灰度拉伸;
伽马变换公式如下:
Iout=cIin γ
其中Iin为处理前图像的灰度值,IOUT为处理后图像的灰度值,c为灰度缩放系数,γ为变换指数。
当γ取不同值时,输入灰度值取0到255并对输入输出灰度值都做归一化为0到1之间,当γ小于1时,伽马变换将提高图像的灰度值,图像视觉上变亮;当γ大于1时,伽马变换将拉低图像灰度值,图像视觉上变暗,当γ等于1时整体亮度与原图一致,这里取γ值为0.5。
c、归一化图像像素值在0到1之间,像素的归一化可以通过将像素值除以图片像素值255;
计算公式如下:
x'=(x-X_min)/(X_max-X_min)
其中x'为归一化结果,x为输入像素值,X_min为所有输入图像像素中的最小值,X_max为所有输入图像像素中的最大值。
3.根据权利要求1所述的一种基于CT图像测量腹围的方法,其特征在于:所述根据步骤B图像块剪裁操作:
对于训练集,裁剪时生成一组随机坐标,以这些坐标作为中心点,裁剪大小为48*48的图像块,得到数据集;对应的标准图采用同样的方法进行剪裁,原图剪裁图与标准图剪裁图一一对应。
4.根据权利要求1所述的一种基于CT图像测量腹围的方法,其特征在于:所述根据步骤C通过深度学习进行外围曲线分割:
在Unet中加入了R2模块与Attention Augment模块,其中,Unet结构总体呈对称的U型结构,共包含12个单元F1-F12,其中左侧F1-F6为收缩路径,用于特征的提取;右侧F6-F12为扩张路径,用于细节的恢复实现精准预测;
其中R2模块包括了残差学习单元和递归卷积;
a、残差学习单元:假定一个神经网络单元的输入是x,期望输出是H(x),另外定义一个残差映射F(x)=H(x)-x,若把x直接传递给输出,则该神经网络单元要学习的目标就是残差映射F(x)=H(x)-x,残差学习单元由一系列卷积层和一个捷径组成,输入x通过这个捷径传递给残差学习单元的输出,则残差学习单元的输出为z=F(x)+x;
b、递归卷积:假定输入为x,对该输入x进行连续的卷积,且每一次的卷积输出加上当前的输入作为下一次的卷积的输入。
R2模块即将残差学习单元中的普通卷积替换为递归卷积。
Attention Augment本质为通过查询得到一系列键-值对的映射;首先,通过对输入大小为(w,h,cin)的特征图进行1×1卷积输出QKV矩阵,其大小为(w,h,2*dk+dv),其中w、h、2*dk+dV分别表示了矩阵的宽、长与深度,Cin为输入图像序列;再从深度通道上对QKV矩阵进行分割,得到Q、K、V三个矩阵其深度通道大小分别为dk、dk、dv;接着,采用了多头注意力机制的结构,将Q、K、V三个矩阵分别从深度通道上分割为N个相等的矩阵进行后续的计算,这种多头注意力机制将原本单一的attention计算,扩展为较小且并行独立的多个计算,使得模型可以在不同的子空间内学习特征信息。
对于分割好的Q、K、V矩阵在进行扁平化处理生成Flat_Q、Flat_K、Flat_V三个矩阵,即对Q、K、V保持深度通道不变,从长宽方向对其进行压缩到1维,其中前两个矩阵的大小为(w*h,dk),后一个矩阵大小为(w*h,dv);接着,Attention Augment保存了原先Self-Attention的做法使用Flat_Q、Flat_K两矩阵进行矩阵乘法运算,计算出权重矩阵,且在此基础上添加了相对位置嵌入的计算,通过对Q矩阵进行长宽两方向的权重计算得到特征图上每个点的相对位置信息,防止特征位置的变换而降低模型的最终效果。
对于分割好的Q、K、V矩阵在进行扁平化处理生成Flat_Q、Flat_K、Flat_V三个矩阵,即对Q、K、V保持深度通道不变,从长宽方向对其进行压缩到1维,其中前两个矩阵的大小为(w*h,dk),后一个矩阵大小为(w*h,dv);接着,Attention Augment保存了原先Self-Attention的做法使用Flat_Q、Flat_K两矩阵进行矩阵乘法运算,计算出权重矩阵,且在此基础上添加了相对位置嵌入的计算,通过对Q矩阵进行长宽两方向的权重计算得到特征图上每个点的相对位置信息,防止特征位置的变换而降低模型的最终效果。
将注意力特征矩阵O和正常的卷积过程按深度方向进行拼接即可得到AttentionAugment的结果;注意力特征矩阵O的计算公式如下:
Figure FDA0002606843230000041
其中,Q为输入图像数据的查询矩阵,K为输入图像数据的目标矩阵,V为输入图像数据的数值矩阵,SH和SW分别是图像沿着长和宽维数的相对位置对数矩阵,
Figure FDA0002606843230000042
为尺度标度。
5.根据权利要求1所述的一种基于CT图像测量腹围的方法,其特征在于:所述根据步骤D骨骼化处理:
循环所有边界点,对每一个边界点,记为中心P1,其邻域的8个点顺时针绕中心点从P1的上方开始分别记为P2,P3...P9,首先标记下来同时满足下列的边界点:
a、2≤N(P1)≤6;
b、S(P1)=1;
c、P2*P4*P6=0;
d、P4*P6*P8=0;
其中N(P1)是P1的相邻点中非零的数量,S(P1)为按照P2,P3...P9排序后像素点的值从0到1变化的次数;
同第一步,仅将前面的条件c改为:P2*P4*P8=0;条件d改为P2*P6*P8=0当对图像中的边界点都执行完后,把标记的点置为背景点;
最后将上面两个步骤作为一次迭代,直至没有点再满足这些要求,这时所得到的图像即为骨骼化后的骨架图。
6.根据权利要求1所述的一种基于CT图像测量腹围的方法,其特征在于:所述根据步骤E边缘连接:
将所有的相似点连接起来,以形成根据特定准则满足相同特性像素的一条边缘;
确定边缘像素相似性的两个主要的性质:
a、梯度向量的强度|M(s,t)-M(x,y)|≤E;
b、梯度向量的方向|α(s,t)-α(x,y)|≤A;
其中(x,y)表示一个像素点(s,t)表示以(x,y)为中心的所有的邻域点。E是一个非负门限,A是非负角门限。
如果(s,t)大小和方向准则得到满足,则将(s,t)连接到(x,y),在图像的每个像素点,在图像中的每个位置重复这一操作,当领域的中心从一个像素转移到另一个像素时,这两个相连接点记录下来。
7.根据权利要求1所述的一种基于CT图像测量腹围的方法,其特征在于:所述根据步骤F累加像素点换算腹围:
累加像素点换算腹围从上至下遍历全图遇到非黑色像素点就累加一次,遍历完成后累加结束,获得最终得到整个腹围的像素点,再将像素点个数乘以每个像素点的长度得到腹围,计算公式如下:
l=n×m
其中l为最终计算得到的腹围,n为非黑色像素点的个数,m为每个像素点的长度。
CN202010741397.5A 2020-07-29 2020-07-29 一种基于ct图像测量腹围的方法 Pending CN111862072A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010741397.5A CN111862072A (zh) 2020-07-29 2020-07-29 一种基于ct图像测量腹围的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010741397.5A CN111862072A (zh) 2020-07-29 2020-07-29 一种基于ct图像测量腹围的方法

Publications (1)

Publication Number Publication Date
CN111862072A true CN111862072A (zh) 2020-10-30

Family

ID=72948610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010741397.5A Pending CN111862072A (zh) 2020-07-29 2020-07-29 一种基于ct图像测量腹围的方法

Country Status (1)

Country Link
CN (1) CN111862072A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104540453A (zh) * 2012-08-09 2015-04-22 国立大学法人东京大学 超声波诊断系统以及信息处理装置
US20180165808A1 (en) * 2016-06-27 2018-06-14 University Of Central Florida Research Foundation, Inc. System and method for image-based quantification of white and brown adipose tissue at the whole-body, organ and body-region levels
CN110448335A (zh) * 2019-07-11 2019-11-15 暨南大学 一种基于超声图像的胎儿头围全自动测量方法和装置
CN110811691A (zh) * 2014-03-20 2020-02-21 深圳迈瑞生物医疗电子股份有限公司 自动识别测量项的方法、装置及一种超声成像设备
CN110992352A (zh) * 2019-12-13 2020-04-10 北京小白世纪网络科技有限公司 基于卷积神经网络的婴儿头围ct图像自动测量方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104540453A (zh) * 2012-08-09 2015-04-22 国立大学法人东京大学 超声波诊断系统以及信息处理装置
CN110811691A (zh) * 2014-03-20 2020-02-21 深圳迈瑞生物医疗电子股份有限公司 自动识别测量项的方法、装置及一种超声成像设备
US20180165808A1 (en) * 2016-06-27 2018-06-14 University Of Central Florida Research Foundation, Inc. System and method for image-based quantification of white and brown adipose tissue at the whole-body, organ and body-region levels
CN110448335A (zh) * 2019-07-11 2019-11-15 暨南大学 一种基于超声图像的胎儿头围全自动测量方法和装置
CN110992352A (zh) * 2019-12-13 2020-04-10 北京小白世纪网络科技有限公司 基于卷积神经网络的婴儿头围ct图像自动测量方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MD ZAHANGIR ALOM等: "Recurrent Residual Convolutional Neural Network based on U-Net (R2U-Net) for Medical Image Segmentation", ARXIV:1802.06955, pages 192 - 193 *
张堃等: "大视场大规模目标精确检测算法应用研究", 仪器仪表学报, vol. 41, no. 4, pages 1 *

Similar Documents

Publication Publication Date Title
CN110930397B (zh) 一种磁共振图像分割方法、装置、终端设备及存储介质
CN110399929B (zh) 眼底图像分类方法、装置以及计算机可读存储介质
CN110751636B (zh) 一种基于改进型编解码网络的眼底图像视网膜动脉硬化检测方法
CN112258488A (zh) 一种医疗影像病灶分割方法
CN115496771A (zh) 一种基于脑部三维mri图像设计的脑肿瘤分割方法
CN111062947B (zh) 一种基于深度学习的x光胸片病灶定位方法及系统
CN113592794B (zh) 基于混合注意力机制的2d卷积神经网络的脊椎图分割方法
CN113223005B (zh) 一种甲状腺结节自动分割及分级的智能系统
CN113554665A (zh) 一种血管分割方法及装置
WO2020066257A1 (ja) 分類装置、分類方法、プログラム、ならびに、情報記録媒体
CN113989407B (zh) Ct影像中肢体部位识别模型训练方法及系统
CN111242953B (zh) 一种基于条件生成对抗网络的mr图像分割方法及装置
CN113838067B (zh) 肺结节的分割方法和装置、计算设备、可存储介质
CN113012163A (zh) 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质
Eckert et al. Deep learning-based denoising of mammographic images using physics-driven data augmentation
CN114998265A (zh) 一种基于改进U-Net的肝脏肿瘤分割方法
CN116051589A (zh) 一种ct图像中肺实质和肺血管的分割方法及装置
CN111862071B (zh) 一种基于ct图像测量腰1椎体ct值的方法
CN113539402B (zh) 多模态影像自动勾画模型迁移方法
CN111862123B (zh) 一种基于深度学习的ct腹部动脉血管分级识别方法
CN112634308B (zh) 基于不同感受野的鼻咽癌靶区和危及器官的勾画方法
Malik et al. Comparative study of digital image enhancement approaches
CN111862072A (zh) 一种基于ct图像测量腹围的方法
CN108447066B (zh) 胆道图像分割方法、终端、存储介质
CN114494952B (zh) 一种基于感知损失的乳腺mri影像时间序列生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination