CN111047572B - 一种基于Mask RCNN的医学图像中脊柱自动定位方法 - Google Patents

一种基于Mask RCNN的医学图像中脊柱自动定位方法 Download PDF

Info

Publication number
CN111047572B
CN111047572B CN201911264023.2A CN201911264023A CN111047572B CN 111047572 B CN111047572 B CN 111047572B CN 201911264023 A CN201911264023 A CN 201911264023A CN 111047572 B CN111047572 B CN 111047572B
Authority
CN
China
Prior art keywords
vertebral body
positioning
spine
frame
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911264023.2A
Other languages
English (en)
Other versions
CN111047572A (zh
Inventor
曾凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Anke Medical Technology Co ltd
Original Assignee
Nanjing Anke Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Anke Medical Technology Co ltd filed Critical Nanjing Anke Medical Technology Co ltd
Priority to CN201911264023.2A priority Critical patent/CN111047572B/zh
Publication of CN111047572A publication Critical patent/CN111047572A/zh
Application granted granted Critical
Publication of CN111047572B publication Critical patent/CN111047572B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于Mask RCNN的医学图像中脊柱自动定位方法,该方法利用Mask RCNN网络作为脊柱自动定位模型,并在FasterRCNN的最后一层增加一个用于提取倾角的卷积输出支路;用添加了椎体包络框像素坐标、椎体倾角、Mask分类信息的脊柱椎体矢状面CT图像作为训练样本训练脊柱自动定位模型;利用训练好的脊柱自动定位模型预测新输入的脊柱椎体矢状面CT图像中椎体包络框的像素坐标、椎体的中心和倾角。采用本发明所述方法可以实现脊柱自动定位并识别每个椎体的包络框的像素坐标和倾角。

Description

一种基于Mask RCNN的医学图像中脊柱自动定位方法
技术领域
本发明涉及脊柱自动定位技术,尤其是一种基于于Mask RCNN的医学图像中脊柱自动定位方法。
背景技术
近些年CT系统凭借着优秀的图像质量,快速的成像速度,在医学领域有着越来越广泛的应用。CT系统利用精确准直的X射线与灵敏度极高的探测器接收透过人体的信号,扫描采集的数据经过图像重建算法形成断层图像。CT图像在临床上有着广泛的应用,近年来随着多层螺旋CT技术的发展,探测器的排数已经从开始的4排,64排,一直到现在的256排CT。这随之而来带来了海量的数据需要医生来解读,所以计算机辅助分析的工作就变得非常重要。比如在CT对脊柱的扫描中,通常会扫描一个脊柱的定位像,然后一般医生会手动框选每个脊柱的位置和方向,以便于CT系统对各个脊柱沿着脊柱的方向进行扫描。再比如,在脊柱整形外科中,通常需要医生辨别每个脊柱的位置,并按照每个脊柱的空间方向重新生成断层图像,进而诊断病人的脊柱的健康状况,在这个过程中通常需要人工来判读比如弯曲程度和弯曲方向等等信息。
目前的大多数系统中都是基于医生的人工阅片,手动判别每个椎体的范围,位置,和方向。由于人体一共有,33块椎骨,如果全部采用人工标注,会严重影响阅片效率,阅片医生的工作强度大,而且会由于主观的误差存在标记不一致的问题。而且人工阅片通常是通过不同方向的二维视图,很难准确全面的判别三维的空间角度。
虽然目前也有自动分割椎骨的方法,但是这些方法也仅仅是分割整个椎体的区域,还不能直接给出脊柱的和椎体的空间位置关系,最后椎体的方向和位置还需要人工来判读。比如专利201711299213.9提出一种脊柱X线影像的数据处理方法,该方法是针对多个方向的X线的平片图像进行脊柱的识别,无法实现对三维CT扫描图像的自动识别。申请201711315308.5提出一种基于主动轮廓模型的脊柱CT图像自动定位分割方法,该方法能够自动定位椎骨中心和分割初始轮廓位置,进而可以对椎骨进行自动分割,但不能提供每个脊柱的位置和方向等空间位置信息。
发明内容
发明目的:为弥补现有技术的空白,本发明提出一种基于于Mask RCNN的医学图像中脊柱自动定位方法,可以实现脊柱自动定位并识别每个椎体的包络框的像素坐标、椎体的中心和倾角。
技术方案:为实现上述目的,本发明提出一种基于Mask RCNN的医学图像中脊柱自动定位方法,包括步骤:
(1)构建训练样本:选取脊柱椎体矢状面CT图像,为各个图像添加椎体的包络框的像素坐标、倾角、Mask分类信息,得到训练样本;
(2)利用Mask RCNN网络作为脊柱自动定位模型,并在FasterRCNN的最后一层增加一个用于提取倾角的卷积输出支路,即构建好的脊柱自动定位模具有三个卷积输出支路,第一个支路输出候选区域的相关参数,第二个支路输出候选区域为目标的概率值,第三个支路输出候选区域中的倾角值;
(3)利用训练样本训练脊柱自动定位模型;
(4)将新获取的脊柱椎体矢状面CT图像输入训练好的脊柱自动定位模型,得到得到椎体包络框的像素坐标和椎体的倾角。
具体的,训练好的脊柱自动定位模型包括特征提取网络、Mask分支网络、区域生成网络rpn和目标检测器fast-rcnn;其中,
特征提取网络提取原始图像的卷积特征图;
Mask分支网络对输入的原始图像进行骨骼粗提取,得到骨骼mask图;
卷积特征图和骨骼mask图经过一个1×1的卷积核进行卷积后,生成新的卷积特征图;
新的卷积特征图送入区域生成网络,区域生成网络生成椎体包络框候选区域;
目标检测器fast-rcnn中的ROI池化层对椎体包络框候选区域和新的卷积特征图进行ROI池化,得到相同大小的特征图和各个特征图的特征信息,然后将特征信息输入到三个输出全连接层进行回归、分类和倾角提取,得到椎体包络框的像素坐标和倾角。
具体的,所述Mask RCNN网络的损失函数为:
Figure BDA0002310909020000021
Lfastrcnn(Imgin)=Lconf+Lloc
LAng(Angn)=(Angj(n)-Ang Predn)2
其中,Imgin表示输入图像,Lfastrcnn(Imgin)为输入图像Imgin的定位框误差,N为网络预设的预测定位框的总数,j(n)表示某一预测定位框n所对应的真正的椎体定位框的索引,β为权重系数,LAng(Angn)表示第n个椎体的实际角度与预测角度之间的角度差异,式中,Angj(n)表示第n个椎体的实际角度,Ang Predn表示第n个椎体的预测角度;
Lconf为定位框的类别误差损失函数,表达式为:
Figure BDA0002310909020000031
Figure BDA0002310909020000032
Lloc为定位框的坐标损失函数,表达式为:
Figure BDA0002310909020000033
Figure BDA0002310909020000034
Figure BDA0002310909020000035
Figure BDA0002310909020000036
Figure BDA0002310909020000037
其中,Lconf(x,c)表示定位框x为真正的椎体定位框j的损失,cn,j表示softmax层的输入,
Figure BDA0002310909020000038
为softmax层的输出;l表示网络预测的定位框的位置(cx,cy)和尺寸信息(w,h),(cx,cy)表示预测定位框左上角坐标,w表示预测定位框的宽度,h表示预测定位框的高,
Figure BDA0002310909020000039
为预测的定位框的中心位置坐标,
Figure BDA00023109090200000310
表示预测的定位框的宽度,
Figure BDA00023109090200000311
表示预测的定位框的高度;g表示预测框所对应的真实定位框的位置
Figure BDA00023109090200000312
和尺寸信息
Figure BDA00023109090200000313
Figure BDA00023109090200000314
为真实的定位框的中心位置坐标,
Figure BDA00023109090200000315
为真实的定位框的宽度,
Figure BDA00023109090200000316
为真实的定位框的高度。
有益效果:与现有技术相比,本发明具有以下优势:
本发明通过构建一个Mask RCNN神经网络,自动识别出每个椎体的包围框和空间方位角等信息,为医生的诊断提供辅助分析。由于是自动分析识别,整个过程几乎不需要医生过多干预,能够大幅度提高医生诊断的工作效率。
附图说明
图1所示为本发明构建的脊柱自动定位模型图;
图2为本发明涉及的新的卷积特征图生成原理的示例性框图;
图3为训练好的脊柱自动定位模型的输入图像、输出图像对比图。
具体实施方式
下面结合附图和具体实施例对本发明作更进一步的说明。
本发明提出了一种基于Mask RCNN的医学图像中脊柱自动定位方法,包括步骤:
(1)构建训练样本:选取脊柱椎体矢状面CT图像,为各个图像添加椎体的包络框的像素坐标、倾角、Mask分类信息,得到训练样本;
(2)利用Mask RCNN网络作为脊柱自动定位模型,并在FasterRCNN的最后一层增加一个用于提取倾角的卷积输出支路,即构建好的脊柱自动定位模具有三个卷积输出支路,第一个支路输出候选区域的相关参数,第二个支路输出候选区域为目标的概率值,第三个支路输出候选区域中的倾角值;
(3)利用训练样本训练脊柱自动定位模型;
(4)将新获取的脊柱椎体矢状面CT图像输入训练好的脊柱自动定位模型,得到得到椎体包络框的像素坐标和椎体的倾角。
如图1示出了根据本发明的基于Mask RCNN的医学图像中脊柱自动定位方法的实施例所涉及的Mask RCNN神经网络示意性框图,构建好的Mask RCNN神经网络如图1所示,包括特征提取网络、Mask分支网络、区域生成网络rpn和目标检测器fast-rcnn。
原始的FasterRCNN主要包括三个网络:主干网络,RPN网络(区域推荐网络)和回归网络。
主干网络完成对图像特征的提取,并降低图像的维度,通常都是由卷积层+RELU激活层+卷积层+RELU激活层+池化层组成一个模块。然后由几组这样的模块级联而成。主干网络把输入的图像变成卷积特征图featuremap。
FeatureMap输入给RPN网络(通常由几组卷积层+RELU层),featuremap提取区域需要通过每个Anchor点,并对每个Anchor点附近的信息进行提取,通过这些信息提取出候选的物体区域(~6K个候选区域)。
这些候选区域的特性经过ROIP池化层提取相应的特征矩阵,送到后面的回归网络(卷积层,Relu激活层,softmax层),输出特征(包括定位框,和物体的类别)。
但是,原始的FasterRCNN网络,并不是专门为椎体检测开发的。医学图像的分辨率(1024像素左右)要比普通视觉图像(400像素左右)的分辨率高得多,数据量显著提高,每个像素的颜色深度也从RGB图像的8位变成了医学图像的16位甚至32位。而且没有办法进行椎体的角度检测。此外,RPN网络的候选区域会有很大的假阳性,严重影响执行效率和准确率。因此这里对这些不足进行了如下改进。
而由于本发明所要解决的技术问题的特殊性,本方案改进了RPN网络结构,加入了骨组织区域的mask来提高RPN定位框的假阳性,只在有骨骼区域mask有效区域的RPN才有激活输出,这样可以大幅的减少处理区域降低假阳性率,可以有效的提高RPN的效率(可以减低到2百左右)。
同时为了输出倾角并在FasterRCNN的最后一层增加一个用于提取倾角的卷积输出支路,即构建好的脊柱自动定位模具有三个卷积输出支路,第一个支路输出候选区域的相关参数,第二个支路输出候选区域为目标的概率值,第三个支路输出候选区域中的倾角值。
在本实施例构建的Mask RCNN神经网络中,特征提取网络提取原始图像的卷积特征图;Mask分支网络对输入的原始图像进行骨骼粗提取,得到骨骼mask图;如图2所示,卷积特征图和骨骼mask图经过一个1×1的卷积核进行卷积后,生成新的卷积特征图;新的卷积特征图送入区域生成网络,区域生成网络生成椎体包络框候选区域;目标检测器fast-rcnn中的ROI池化层对椎体包络框候选区域和新的卷积特征图进行ROI池化,得到相同大小的特征图和各个特征图的特征信息,然后将特征信息输入到三个输出全连接层进行回归、分类和倾角提取,得到椎体包络框的像素坐标和倾角。
构建好的Mask RCNN神经网络需要利用训练样本进行训练,这个训练过程主要包括区域生成网络和目标检测器fast-rcnn的训练,具体过程为:
1)将样本图像输入到RPN网络,利用随机梯度下降法,分别计算RPN网络中每一层代价函数的梯度值,然后用每一层代价函数的梯度值更新该层的权值;
2)通过反向传播,计算RPN网络中每一层的误差灵敏度,然后用每一层的误差灵敏度更细该层的权值;
3)重复执行步骤1)至2),直至RPN网络中各层的权值不变;转入步骤4);
4)将样本图像和RPN网络的anchor boxes输入到Fast RCNN网络中,通过ROI池化层映射出候选框的特征图,再通过全连接层对CNN层提取出的特征做非线性变换,最后通过损失函数进行联合训练;
所述Mask RCNN模型的损失函数为:
Figure BDA0002310909020000061
Lfastrcnn(Imgin)=Lconf+Lloc
LAng(Angn)=(Angj(n)-Ang Predn)2
其中,Imgin表示输入图像,Lfastrcnn(Imgin)为输入图像Imgin的定位框误差,N为网络预设的预测定位框的总数,j(n)表示某一预测定位框n所对应的真正的椎体定位框的索引,β为权重系数,LAng(Angn)表示第n个椎体的实际角度与预测角度之间的角度差异,式中,Angj(n)表示第n个椎体的实际角度,Ang Predn表示第n个椎体的预测角度;
Lconf为定位框的类别误差损失函数,表达式为:
Figure BDA0002310909020000062
Figure BDA0002310909020000063
Lloc为定位框的坐标损失函数,表达式为:
Figure BDA0002310909020000064
Figure BDA0002310909020000065
Figure BDA0002310909020000066
Figure BDA0002310909020000071
Figure BDA0002310909020000072
其中,Lconf(x,c)表示定位框x为真正的椎体定位框j的损失,cn,j表示softmax层的输入,
Figure BDA0002310909020000073
为softmax层的输出;l表示网络预测的定位框的位置(cx,cy)和尺寸信息(w,h),(cx,cy)表示预测定位框左上角坐标,w表示预测定位框的宽度,h表示预测定位框的高,
Figure BDA0002310909020000074
为预测的定位框的中心位置坐标,
Figure BDA0002310909020000075
表示预测的定位框的宽度,
Figure BDA0002310909020000076
表示预测的定位框的高度;g表示预测框所对应的真实定位框的位置
Figure BDA0002310909020000077
和尺寸信息
Figure BDA0002310909020000078
Figure BDA0002310909020000079
为真实的定位框的中心位置坐标,
Figure BDA00023109090200000710
为真实的定位框的宽度,
Figure BDA00023109090200000711
为真实的定位框的高度;
将新的脊柱椎体矢状面CT图像输入训练好的脊柱自动定位模型,即可得到椎体包络框的像素坐标和倾角,如图3所示。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (2)

1.一种基于Mask RCNN的医学图像中脊柱自动定位方法,其特征在于,包括步骤:
(1)构建训练样本:选取脊柱椎体矢状面CT图像,为各个图像添加椎体的包络框的像素坐标、倾角、Mask分类信息,得到训练样本;
(2)利用Mask RCNN网络作为脊柱自动定位模型,并在FasterRCNN的最后一层增加一个用于提取倾角的卷积输出支路,即构建好的脊柱自动定位模具有三个卷积输出支路,第一个支路输出候选区域的相关参数,第二个支路输出候选区域为目标的概率值,第三个支路输出候选区域中的倾角值;
(3)利用训练样本训练脊柱自动定位模型;
所述训练好的脊柱自动定位模型包括特征提取网络、Mask分支网络、区域生成网络rpn和目标检测器fast-rcnn;其中,
特征提取网络提取原始图像的卷积特征图;
Mask分支网络对输入的原始图像进行骨骼粗提取,得到骨骼mask图;
卷积特征图和骨骼mask图经过一个1×1的卷积核进行卷积后,生成新的卷积特征图;
新的卷积特征图送入区域生成网络,区域生成网络生成椎体包络框候选区域;
目标检测器fast-rcnn中的ROI池化层对椎体包络框候选区域和新的卷积特征图进行ROI池化,得到相同大小的特征图和各个特征图的特征信息,然后将特征信息输入到三个输出全连接层进行回归、分类和倾角提取,得到椎体包络框的像素坐标和倾角;
(4)将新获取的脊柱椎体矢状面CT图像输入训练好的脊柱自动定位模型,得到椎体包络框的像素坐标和椎体的倾角。
2.根据权利要求1所述的一种基于Mask RCNN的医学图像中脊柱自动定位方法,其特征在于,所述Mask RCNN网络的损失函数为:
Figure FDA0004070655390000011
Lfastrcnn(Imgin)=Lconf+Lloc
LAng(Angn)=(Angj(n)-AngPredn)2
其中,Imgin表示输入图像,Lfastrcnn(Imgin)为输入图像Imgin的定位框误差,N为网络预设的预测定位框的总数,j(n)表示某一预测定位框n所对应的真正的椎体定位框的索引,β为权重系数,LAng(Angn)表示第n个椎体的实际角度与预测角度之间的角度差异,式中,Angj(n)表示第n个椎体的实际角度,AngPredn表示第n个椎体的预测角度;
Lconf为定位框的类别误差损失函数,表达式为:
Figure FDA0004070655390000021
Figure FDA0004070655390000022
Lloc为定位框的坐标损失函数,表达式为:
Figure FDA0004070655390000023
Figure FDA0004070655390000024
Figure FDA0004070655390000025
Figure FDA0004070655390000026
Figure FDA0004070655390000027
其中,Lconf(x,c)表示定位框x为真正的椎体定位框j的损失,cn,j表示softmax层的输入,
Figure FDA0004070655390000028
为softmax层的输出;l表示网络预测的定位框的位置(cx,cy)和尺寸信息(w,h),(cx,cy)表示预测定位框左上角坐标,w表示预测定位框的宽度,h表示预测定位框的高,
Figure FDA0004070655390000029
为预测的定位框的中心位置坐标,
Figure FDA00040706553900000210
表示预测的定位框的宽度,
Figure FDA00040706553900000211
表示预测的定位框的高度;g表示预测框所对应的真实定位框的位置
Figure FDA00040706553900000212
和尺寸信息
Figure FDA00040706553900000213
Figure FDA00040706553900000214
为真实的定位框的中心位置坐标,
Figure FDA00040706553900000215
为真实的定位框的宽度,
Figure FDA00040706553900000216
为真实的定位框的高度。
CN201911264023.2A 2019-12-10 2019-12-10 一种基于Mask RCNN的医学图像中脊柱自动定位方法 Active CN111047572B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911264023.2A CN111047572B (zh) 2019-12-10 2019-12-10 一种基于Mask RCNN的医学图像中脊柱自动定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911264023.2A CN111047572B (zh) 2019-12-10 2019-12-10 一种基于Mask RCNN的医学图像中脊柱自动定位方法

Publications (2)

Publication Number Publication Date
CN111047572A CN111047572A (zh) 2020-04-21
CN111047572B true CN111047572B (zh) 2023-04-07

Family

ID=70235595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911264023.2A Active CN111047572B (zh) 2019-12-10 2019-12-10 一种基于Mask RCNN的医学图像中脊柱自动定位方法

Country Status (1)

Country Link
CN (1) CN111047572B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102282A (zh) * 2020-09-11 2020-12-18 中北大学 一种基于Mask RCNN的医学图像中不同节数腰椎的自动识别方法
CN112164447B (zh) * 2020-10-20 2022-09-06 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN112330688A (zh) * 2020-11-02 2021-02-05 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置和计算机设备
CN112465771B (zh) * 2020-11-25 2023-07-25 平安科技(深圳)有限公司 脊柱核磁共振图像的分析方法、装置和计算机设备
CN112861849B (zh) * 2020-12-29 2023-01-10 北京航空航天大学 一种脊柱畸形矫正手术术中组织识别方法
CN112990367A (zh) * 2021-04-25 2021-06-18 杭州晟视科技有限公司 一种图像处理方法、装置、设备以及存储介质
CN113313717B (zh) * 2021-05-18 2022-12-06 哈尔滨理工大学 一种基于深度学习的分节段椎骨ct图像分割方法
CN113256672B (zh) * 2021-05-20 2024-05-28 推想医疗科技股份有限公司 图像处理方法及装置,模型的训练方法及装置,电子设备
CN113436202A (zh) * 2021-05-26 2021-09-24 哈尔滨理工大学 基于Mask R-CNN网络的脊柱CT图像分割系统
CN113052842B (zh) * 2021-05-27 2021-08-27 腾讯科技(深圳)有限公司 脊柱侧弯图像检测模型训练方法、确定方法、装置及设备
CN113781557B (zh) * 2021-08-13 2024-02-06 华中科技大学 一种脊柱标记点定位模型的构建方法及应用
CN115239700A (zh) * 2022-08-22 2022-10-25 北京医准智能科技有限公司 一种脊椎Cobb角测量方法、装置、设备及存储介质
CN115439453B (zh) * 2022-09-13 2023-05-26 北京医准智能科技有限公司 一种脊椎椎体定位方法、装置、电子设备及存储介质
CN115661138B (zh) * 2022-12-13 2023-03-21 北京大学第三医院(北京大学第三临床医学院) 基于dr影像的人体骨骼轮廓检测方法
CN115880281B (zh) * 2023-01-20 2023-05-02 山西省财政税务专科学校 一种脊柱椎体关键点检测及脊柱侧弯识别装置及方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977971A (zh) * 2017-11-09 2018-05-01 哈尔滨理工大学 基于卷积神经网络的椎骨定位的方法
CN108009990A (zh) * 2017-11-30 2018-05-08 北京小米移动软件有限公司 倾斜对象处理方法及装置
CN108230301A (zh) * 2017-12-12 2018-06-29 哈尔滨理工大学 一种基于主动轮廓模型的脊柱ct图像自动定位分割方法
CN109712118A (zh) * 2018-12-11 2019-05-03 武汉三江中电科技有限责任公司 一种基于Mask RCNN的变电站隔离开关检测识别方法
CN109886312B (zh) * 2019-01-28 2023-06-06 同济大学 一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法

Also Published As

Publication number Publication date
CN111047572A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN111047572B (zh) 一种基于Mask RCNN的医学图像中脊柱自动定位方法
US11633169B2 (en) Apparatus for AI-based automatic ultrasound diagnosis of liver steatosis and remote medical diagnosis method using the same
US8724865B2 (en) Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
US20030086596A1 (en) Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
WO2021183765A1 (en) Automated detection of tumors based on image processing
CN111681230A (zh) 脑白质高信号评分系统及其评分方法
CN112102282A (zh) 一种基于Mask RCNN的医学图像中不同节数腰椎的自动识别方法
US11704796B2 (en) Estimating bone mineral density from plain radiograph by assessing bone texture with deep learning
CN111340825A (zh) 一种纵膈淋巴结分割模型的生成方法及系统
CN111325754A (zh) 一种基于ct序列图像的腰椎骨自动定位方法
CN110738633B (zh) 一种机体组织的三维图像处理方法及相关设备
CN116258933A (zh) 基于全局信息感知的医学图像分割装置
CN111918611B (zh) 胸部x线图像的异常显示控制方法、记录介质及装置
CN116309806A (zh) 一种基于CSAI-Grid RCNN的甲状腺超声图像感兴趣区域定位方法
CN112734740B (zh) 训练目标检测模型的方法、目标检测的方法及其装置
CN116758087B (zh) 一种腰椎ct骨窗侧隐窝间隙检测方法及装置
CN117636116A (zh) 一种ct图像数据智能融合mri数据的方法
CN116309647B (zh) 颅脑病灶图像分割模型构建方法、图像分割方法及设备
CN113729747B (zh) 一种球形金属标记的锥束ct金属伪影去除系统及去除方法
CN112967295B (zh) 一种基于残差网络和注意力机制的图像处理方法及系统
CN115439423A (zh) 一种基于ct图像的识别方法、装置、设备及存储介质
Qian et al. Attention-based Shape-Deformation Networks for Artifact-Free Geometry Reconstruction of Lumbar Spine from MR Images
CN117351489B (zh) 面向全身pet/ct扫描的头颈肿瘤靶区的勾画系统
CN115147378B (zh) 一种ct图像分析提取方法
CN112215814B (zh) 基于3dhog辅助卷积神经网络的前列腺图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant