CN114240844A - 一种医学图像中无监督的关键点定位和目标检测方法 - Google Patents
一种医学图像中无监督的关键点定位和目标检测方法 Download PDFInfo
- Publication number
- CN114240844A CN114240844A CN202111391310.7A CN202111391310A CN114240844A CN 114240844 A CN114240844 A CN 114240844A CN 202111391310 A CN202111391310 A CN 202111391310A CN 114240844 A CN114240844 A CN 114240844A
- Authority
- CN
- China
- Prior art keywords
- image
- network
- displacement
- key point
- displacement network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及的是一种三维医学图像中无监督的关键点定位与目标检测方法,属于图像检测技术领域。本发明是通过以下技术方案实现的:首先利用一组未标记的图像,训练一个位移网络来预测同一幅三维图像中任意两个子区域的相对偏移量。得到位移网络的训练结果后,针对一幅新图像,该网络以一个初始位置处的子区域与参考图像中关键点处的子区域作为输入,预测该图像中的初始位置到目标位置的偏移量,从而实现关键点的定位。本发明进一步通过将物体边界框的检测任务转化成六个极端点的定位,实现无监督的目标物体检测。本发明能解决现有的医学图像中的目标检测算法需要大量人工标注的问题,有效降低了标注成本,提高了无监督目标检测算法的性能。
Description
技术领域
本发明属于图像分析技术领域。
背景技术
在三维医学图像分析中,关键点的定位和目标检测对于计算机辅助诊断、治疗方案优化有着十分重要的作用。关键点的定位是从图像中准确地找到某个解剖关键点的位置,三维目标检测是从图像中找到该物体的一个边界框,通常可以通过该物体上的多个的关键点进行定位实现。近年来,深度学习通过对大量含标注的医学图像进行学习,可以有效提取包含在医学图像大数据中的知识,得到较高精度的关键点定位和目标检测的结果,为基于医学图像的计算机辅助诊断系统提供了新的方法。
目前的深度学习方法的成功主要依赖于从大量有标注的三维医学图像中进行训练。然而,对三维医学图像的标注十分困难,由于医学图像中对比度低、个体差异较大,普通人难以完成精确的标注,从而需要专业的医生来完成标注。由于专业医生的稀缺,对成千上万幅大规模医学图像的标注具有高昂的时间和人力成本,因此极大地限制了深度学习医学图像处理算法的开发和应用。
为了减少对标注数据的依赖,诸如半监督、弱监督、自监督与无监督的方法愈发吸引人们的关注。半监督方法允许只对一部分图像(如50%的图像)进行标注,可以大大减少标注量,然而对于大规模三维医学图像来说,该方法需要的标注的绝对数量仍然十分庞大。弱监督方法允许标注者对一幅图像只提供图像级别的标签,如一幅图像中是否包含某个物体(如肝脏),而不用提供该物体的具体位置信息,可大大减少标注成本。然而,不同病人的腹部医学图像中往往都含有肝脏,仅靠图像级别的标签难以获取目标的准确位置,这类方法的精度受到很大限制。自监督方法是一种特殊的半监督方法,该方法在无标注的数据上先通过辅助任务的学习,再通过一部分标注数据,将学习能力迁移到目标任务上。无监督算法在训练阶段无需人工标注,一般通过对训练数据聚类,以找到数据中的分布模式,然而由于监督信号的缺乏,该方法也难以取得满意的性能。
对目前的这些降低医学图像的标注成本的方法进行考察发现,尽管半监督、弱监督方法可以显著减少图像的标注量,但他们的标注量仍然巨大,未完全降低图像的标注成本。而现有的基于聚类的无监督方法在缺少监督的情况下性能受到很大限制,难以用于实际场景。此外,经典的模板匹配方法也是一种标注成本低的方法,该方法通过一个标注的模板,在目标图像中进行遍历搜索,找到与模板最相似的一块区域作为定位、检测结果,虽然该方法简便易行,但遍历操作十分耗时,且性能十分取决于相似性的定义,在医学图像中关键点定位的应用中,也难以取得稳定的效果。为此,需要更有效的方法来实现在不利用图像数据的标注的情况下,得到较高精度的关键点定位的结果。
发明内容
本发明的目的在于克服现有三维医学图像中关键点定位和目标检测算法的不足,针对现有基于深度学习的目标检测方法依赖人工标注的问题,提出一种无监督的高性能关键点定位算法。该方法在训练阶段无需对目标关键点进行任何类型的标注,并且在推理阶段可以通过单个含标注的参考图像来定位其他图像中的目标关键点。本发明提出一种自监督学习任务,在无标注的数据上,通过一个神经网络学习同一幅三维医学图像中任意两个图像块的相对位置。在预测阶段,利用参考图像中所标注的关键点,应用该神经网络预测目标图像中该点的对应的位置。本发明还提出了一种由粗到细的框架,可以通过多次移动定位位置与多次选取初始化位置来进一步提高性能。在关键点定位的基础上,本发明可以进一步定位三维图像中物体在各个坐标轴方向的极端点,从而实现目标物体的检测。
本发明技术方案为一种医学图像中无监督的关键点定位方法,该方法包括:
步骤1:训练数据和参考图像的收集
收集一批包含该目标的三维医学图像,从这些图像中选择一个或多个作为参考图像;
步骤2:位移网络的搭建
设在训练集中的一幅三维图像中,xq与xs表示大小为D×H×W的两块子区域,其中xq称为查询图像块,xs称为参考图像块,D,H和W分别表示该三维图像块在z,y和x方向上的大小;设xq与xs的中心点分别为cq和cs,使用一个位移网络来预测从xq的中心点cq到xs的中心cs在三维空间中的物理位移;cq到xs的真实位移通过图像的层间距e、cq与cs在图像中的坐标计算得到:
设位移网络的参数为θ,其预测结果表示为dqs=f(θ;xq,xs),该位移网络预测结果的损失函数Lp为:
步骤3:位移网络的训练
对位移网络针对大尺度和小尺度分别训练一个模型,分别用于粗略定位和精细定位,这两个模型分别记为位移网络-L和位移网络-S;
训练位移网络-L的过程如下:将公式3中的参数r设置成一个大于设定阈值的数r=r0,例如三维图像中任意两个像素间的最远物理距离;从同一幅训练图像中的整个图像范围内随机抽取两个大小为D×H×W的图像块组成一对图像块,设每次迭代过程的一个批次包含随机提取P对图像块,其中第i对的两个图像块分别表示为xqi和xsi,该批次的损失函数为:
其中Lp的定义如公式2所示,利用公式4中的损失函数迭代训练,直到损失函数收敛;
针对位移网络-S的训练过程与位移网络-L的训练过程类似,不同的是采用局部范围内的图像块进训练:将公式3中的参数r设置成一个小于设定阈值的数r=r1,从同一幅训练图像中的局部范围内随机抽取两个大小为D×H×W的图像块组成一对图像块,具体操作为:先从整个图像范围内随机选择一个D×H×W的图像块作为xqi,再随机选择一个与xqi的距离小于r1的同样大小的图像块作为xsi;在每次迭代过程中的一个批次包含P对这样的图像块,然后利用公式4中的损失函数进行迭代更新,直到损失函数收敛,从而得到训练好的位移网络-S模型;训练后的位移网络-L和位移网络-S的模型参数分别记为θ0和θ1;
步骤4:基于位移网络位-L和位移网络-S的关键点定位
对于一幅参考图像中给定的关键点,以该点为中心,取大小为D×H×W的图像块作为参考图像块x′s;对于一幅新图像,通过位移网络-L和位移网络-S由粗到细逐渐找到该图像中对应的关键点的位置cq,具体过程如下:
a)从当前的待处理图像中选取一个初始位置c0,以c0为中心取一个大小为D×H×W的图像块xq0作为查询图像块,将xq0和x′s作为粗略位移网络位移网络-L的输入,得到其输出位移向量记为d0=f(θ0;xq0,x′s),利用c0和d0得到一个新的位置c1=c0+d0;
b)在当前待处理图像中,以c1为中心取一个大小为D×H×W的图像块xq1作为查询图像块,仍然以x′s作为参考图像块,将xq1和x′s作为精细位移网络-S的输入,得到其输出位移向量记为d1=f(θ1;xq1,x′s),利用c1和d1得到一个新的位置c2=c1+d1;将c2作为当前图像中关键点的检测结果,即cq=c2。
进一步的,所述位移网络的结构为以下两种方案中的一种:
方案一:位移网络由两个共享权重的分支组成,每个分支都由一个编码器和N个级联的全连接层组成,其中编码器包含M个级联的卷积块,每个卷积块包含一个卷积单元和一个下采样层,最后一个全连接层输出一个长度为3的向量;位移网络中的第一个分支以xs作为输入,输出记为ps,第二个分支以xq作为输入,输出记为pq,则dqs的计算方法方式如下:
dqs=f(θ;xq,xs)=r·tanh(pq-ps) 公式3
其中r是一个预定义的缩放系数;
方案二:位移网络由包含一个编码器和N个级联的全连接层的主干网络组成,其中编码器包含M个级联的卷积块,每个卷积块包含一个卷积单元和一个下采样层;最后一个全连接层输出一个长度为3的向量;将xq与xs拼接成一个双通道的图像,结果记为位移网络以作为输入,其输出直接作为dqs。
进一步的,所述步骤4中,当三维图像的尺寸和背景区域的均匀度大于设定的对应阈值时,预测结果会受到初始位置c0的影响,为获得更稳定的关键点定位结果,则对a-c的步骤重复K次,每次以不同的c0的值进行关键点定位,从而得到K个定位结果cq1,cq2,…,cqK,取其平均值作为最终的关键点定位结果:
当三维图像的尺寸和背景区域的均匀度小于等于设定的对应阈值时,且目标关键点周围的对比度大于设定阈值,仅使用位移网络-L的预测结果就已经比较准确,直接将c1作为关键点的定位结果,即cq=c1;
当三维图像的尺寸和背景区域的均匀度小于等于设定的对应阈值时,且目标关键点周围的对比度小于等于设定阈值,使用了位移网络-L和位移网络-S这两步联合的预测结果得到的c2可能仍然不够精确,则再将c1赋值成c2,重复一次b中的预测步骤,得到更精细的结果。
进一步的,所述采用上述关键点定位方法的目标检测方法,采用上述关键点定位方法分别定位出目标物体的6个极端点,分别为最左边、最右边、最上面、最下面、最前面、最后面的点,以这6个检测出的点所限定的边界框,作为对应的目标物体的检测结果。
本发明能解决现有的医学图像中的目标检测算法需要大量人工标注的问题,有效降低了标注成本,提高了无监督目标检测算法的性能。
附图说明
图1为本发明中位移网络位移网络的结构图;
图2为本发明中基于参考图像的关键点定位过程;
图3为本发明中将边界框检测转化为6个极端点定位的示意图;
图4为本发明与其他方法在CT图像中脑干的检测中的比较;实线表示金标准,虚线表示算法的检测结果。
具体实施方式
结合本发明的内容,提供以下在头颈部CT图像中关键点定位和目标检测的实施例,本实施例在CPU为Intel(R)Core(TM)i7-6850K 3.60GHz GPU为Nvidia GTX1080Ti内存为32.0GB的计算机中实现,编程语言为Python。
步骤1、训练数据收集和预处理
收集一批患者的头颈部三维CT图像,经过预处理将这些图像的分辨率重采样为1mm×1mm×1mm,并经过剪裁去除头颈部以外的背景区域。将其中的一例图像作为参考图像,标记出检测的目标物体如脑干的6个三维极端点作为关键点,即最左边、最右边、最上面、最下面、最前面和最后面的点,这6个关键点所限定的边界框记为该参考图像中目标物体的边界框。其他图像作为未标注的训练集;
步骤2、位移网络的搭建
设在训练集中的一幅三维图像中,xq与xs表示大小为D×H×W的两块子区域,其中xq称为查询图像块,xs称为参考图像块,D,H和W分别表示该三维图像块在在z,y和x方向上的大小。设xq与xs的中心点分别为cq和cs,使用一个位移网络(位移网络)来预测从xq的中心点cq到xs的中心cs在三维空间中的物理位移;cq到xs的真实位移可以通过图像的层间距e和cq与cs在图像中的坐标计算得到:
设位移网络位移网络的参数为θ,其预测结果可以表示为dqs=f(θ;xq,xs),该网络预测结果的损失函数Lp为:
在本实施例中,位移网络由两个共享权重的分支组成,每个分支包含一个编码器和N个全连接层组成,其中编码器包含M个卷积块,每个卷几块包含一个卷积单元和一个下采样层。最后一个全连接层输出一个长度为3的向量。位移网络中的第一个分支以xs作为输入,输出记为ps,位移网络中的第二个分支以xq作为输入,输出记为pq,则dqs的计算方法方式如下:
dqs=f(θ;xq,xs)=r·tanh(pq-ps) 公式3
其中r是一个预定义的缩放系数。
步骤3、位移网络的训练
对位移网络针对大尺度和小尺度分别训练一个模型,分别用于粗略定位和精细定位,这两个模型分别记为位移网络-L和位移网络-S。
训练位移网络-L的过程如下:将公式3中的参数r设置成一个较大的数r=r0,例如三维图像中任意两个像素间的最远物理距离。从同一幅训练图像中在整个图像范围内随机抽取两个大小为D×H×W的图像块组成一对图像块,设每次迭代过程的一个批次包含随机提取P对图像块,其中第i对的两个图像块分别表示为xqi和xsi,该批次的损失函数为:
其中Lp的定义如公式2所示。利用公式4中的损失函数迭代训练,直到损失函数收敛。
针对位移网络-S的训练过程与位移网络-L的训练过程类似,不同的是采用局部范围内的图像块进训练:将公式3中的参数r设置成一个较小的数r=r1,从同一幅训练图像中在局部范围内随机抽取两个大小为D×H×W的图像块组成一对图像块,具体操作为:先从整个图像范围内随机选择一个D×H×W的图像块作为xqi,再随机选择一个与xqi的距离小于r1的同样大小的图像块作为xsi。在每次迭代过程中的一个批次包含P对这样的图像块,然后利用公式4中的损失函数进行迭代更新,直到损失函数收敛,从而得到训练好的位移网络-S模型。训练后的位移网络-L和位移网络-S的模型参数分别记为θ0和θ1。
步骤4、在测试图像上的目标检测
训练完成后,利用步骤1中的参考图像中标记的6个极端点(最左边、最右边、最上面、最下面、最前面、最后面的点),分别以这6个点作为参考点,利用步骤3中的位移网络位移网络-L和位移网络-S实现新图像中对应的6个关键点的定位,以这6个检测出的点所限定的边界框,作为对应的目标物体的检测结果。具体地,每一个关键点的定位过程如下:
对于参考图像中给定的某个关键点,以该点为中心,取大小为D×H×W的图像块作为参考图像块x′s。对于一幅新图像,通过位移网络位移网络-L和位移网络-S由粗到细逐渐找到该图像中对应的关键点的位置cq,流程包括:
a)从当前的待处理图像中选取一个初始位置c0(例如随机选取),以c0为中心取一个大小为D×H×W的图像块xq0作为查询图像块,将xq0和x′s作为粗略位移网络-L的输入,得到其输出位移向量记为d0=f(θ0;xq0,x′s),利用c0和d0得到一个新的位置c1=c0+d0。
b)在当前待处理图像中,以c1为中心取一个大小为D×H×W的图像块xq1作为查询图像块,仍然以x′s作为参考图像块,将xq1和x′s作为精细位移网络-S的输入,得到其输出位移向量记为d1=f(θ1;xq1,x′s),利用c1和d1得到一个新的位置c2=c1+d1。将c2作为当前图像中关键点的检测结果,即cq=c2。
为获得更稳定的关键点定位结果,对a-c的步骤重复K次,每次以不同的c0的值进行关键点定位,从而得到K个定位结果cq1,cq2,…,cqK,取其平均值作为最终的关键点定位结果:
图4是本发明方法对一幅CT图像中脑干检测与其他方法的对比。其中封闭实线为目标物体边界框金标准,圆点为极端点金标准,封闭虚线为边界框定位结果。可以看到本发明方法的目标检测的结果和边界框金标准较为接近。其他方法的检测结果与金标准边界框存在较大偏差。
Claims (4)
1.一种医学图像中无监督的关键点定位方法,该方法包括:
步骤1:训练数据和参考图像的收集
收集一批包含该目标的三维医学图像,从这些图像中选择一个或多个作为参考图像;
步骤2:位移网络的搭建
设在训练集中的一幅三维图像中,xq与xs表示大小为D×H×W的两块子区域,其中xq称为查询图像块,xs称为参考图像块,D,H和W分别表示该三维图像块在z,y和x方向上的大小;设xq与xs的中心点分别为cq和cs,使用一个位移网络来预测从xq的中心点cq到xs的中心cs在三维空间中的物理位移;cq到xs的真实位移通过图像的层间距e、cq与cs在图像中的坐标计算得到:
其中‖·‖2表示向量的L2范数,°表示向量对应元素相乘;
设位移网络的参数为θ,其预测结果表示为dqs=f(θ;xq,xs),该位移网络预测结果的损失函数Lp为:
步骤3:位移网络的训练
对位移网络针对大尺度和小尺度分别训练一个模型,分别用于粗略定位和精细定位,这两个模型分别记为位移网络-L和位移网络-S;
训练位移网络-L的过程如下:将公式3中的参数r设置成一个大于设定阈值的数r=r0,从同一幅训练图像中的整个图像范围内随机抽取两个大小为D×H×W的图像块组成一对图像块,设每次迭代过程的一个批次包含随机提取P对图像块,其中第i对的两个图像块分别表示为xqi和xsi,该批次的损失函数为:
其中Lp的定义如公式2所示,利用公式4中的损失函数迭代训练,直到损失函数收敛;
针对位移网络-S的训练过程与位移网络-L的训练过程类似,不同的是采用局部范围内的图像块进训练:将公式3中的参数r设置成一个小于设定阈值的数r=r1,从同一幅训练图像中的局部范围内随机抽取两个大小为D×H×W的图像块组成一对图像块,具体操作为:先从整个图像范围内随机选择一个D×H×W的图像块作为xqi,再随机选择一个与xqi的距离小于r1的同样大小的图像块作为xsi;在每次迭代过程中的一个批次包含P对这样的图像块,然后利用公式4中的损失函数进行迭代更新,直到损失函数收敛,从而得到训练好的位移网络-S模型;训练后的位移网络-L和位移网络-S的模型参数分别记为θ0和θ1;
步骤4:基于位移网络位-L和位移网络-S的关键点定位
对于一幅参考图像中给定的关键点,以该点为中心,取大小为D×H×W的图像块作为参考图像块x′s;对于一幅新图像,通过位移网络-L和位移网络-S由粗到细逐渐找到该图像中对应的关键点的位置cq,具体过程如下:
a)从当前的待处理图像中选取一个初始位置c0,以c0为中心取一个大小为D×H×W的图像块xq0作为查询图像块,将xq0和x′s作为粗略位移网络位移网络-L的输入,得到其输出位移向量记为d0=f(θ0;xq0,x′s),利用c0和d0得到一个新的位置c1=c0+d0;
b)在当前待处理图像中,以c1为中心取一个大小为D×H×W的图像块xq1作为查询图像块,仍然以x′s作为参考图像块,将xq1和x′s作为精细位移网络-S的输入,得到其输出位移向量记为d1=f(θ1;xq1,x′s),利用c1和d1得到一个新的位置c2=c1+d1;将c2作为当前图像中关键点的检测结果,即cq=c2。
2.如权利要求1所述的一种医学图像中无监督的关键点定位方法,其特征在于,所述位移网络的结构为以下两种方案中的一种:
方案一:位移网络由两个共享权重的分支组成,每个分支都由一个编码器和N个级联的全连接层组成,其中编码器包含M个级联的卷积块,每个卷积块包含一个卷积单元和一个下采样层,最后一个全连接层输出一个长度为3的向量;位移网络中的第一个分支以xs作为输入,输出记为ps,第二个分支以xq作为输入,输出记为pq,则dqs的计算方法方式如下:
dqs=f(θ;xq,xs)=r·tanh(pq-ps) 公式3
其中r是一个预定义的缩放系数;
3.如权利要求1所述的一种医学图像中无监督的关键点定位方法,其特征在于,所述步骤4中,当三维图像的尺寸和背景区域的均匀度大于设定的对应阈值时,预测结果会受到初始位置c0的影响,为获得更稳定的关键点定位结果,则对a-c的步骤重复K次,每次以不同的c0的值进行关键点定位,从而得到K个定位结果cq1,cq2,…,cqK,取其平均值作为最终的关键点定位结果:
当三维图像的尺寸和背景区域的均匀度小于等于设定的对应阈值时,且目标关键点周围的对比度大于设定阈值,仅使用位移网络-L的预测结果就已经比较准确,直接将c1作为关键点的定位结果,即cq=c1;
当三维图像的尺寸和背景区域的均匀度小于等于设定的对应阈值时,且目标关键点周围的对比度小于等于设定阈值,使用了位移网络-L和位移网络-S这两步联合的预测结果得到的c2可能仍然不够精确,则再将c1赋值成c2,重复一次b中的预测步骤,得到更精细的结果。
4.一种采用权利要求1、或2、或3所述的关键点定位方法的目标检测方法,采用上述关键点定位方法分别定位出目标物体的6个极端点,分别为最左边、最右边、最上面、最下面、最前面、最后面的点,以这6个检测出的点所限定的边界框,作为对应的目标物体的检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111391310.7A CN114240844B (zh) | 2021-11-23 | 2021-11-23 | 一种医学图像中无监督的关键点定位和目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111391310.7A CN114240844B (zh) | 2021-11-23 | 2021-11-23 | 一种医学图像中无监督的关键点定位和目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114240844A true CN114240844A (zh) | 2022-03-25 |
CN114240844B CN114240844B (zh) | 2023-03-14 |
Family
ID=80750441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111391310.7A Active CN114240844B (zh) | 2021-11-23 | 2021-11-23 | 一种医学图像中无监督的关键点定位和目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114240844B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062574A (zh) * | 2017-12-31 | 2018-05-22 | 厦门大学 | 一种基于特定类别空间约束的弱监督目标检测方法 |
CN108229381A (zh) * | 2017-12-29 | 2018-06-29 | 湖南视觉伟业智能科技有限公司 | 人脸图像生成方法、装置、存储介质和计算机设备 |
CN108710868A (zh) * | 2018-06-05 | 2018-10-26 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测系统及方法 |
CN108764048A (zh) * | 2018-04-28 | 2018-11-06 | 中国科学院自动化研究所 | 人脸关键点检测方法及装置 |
CN109977918A (zh) * | 2019-04-09 | 2019-07-05 | 华南理工大学 | 一种基于无监督域适应的目标检测定位优化方法 |
CN110503112A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 一种增强特征学习的小目标检测及识别方法 |
CN111028212A (zh) * | 2019-12-02 | 2020-04-17 | 上海联影智能医疗科技有限公司 | 关键点检测方法、装置、计算机设备和存储介质 |
CN111476757A (zh) * | 2020-03-10 | 2020-07-31 | 西北大学 | 一种冠脉斑块数据检测方法、系统、存储介质、终端 |
CN111862201A (zh) * | 2020-07-17 | 2020-10-30 | 北京航空航天大学 | 一种基于深度学习的空间非合作目标相对位姿估计方法 |
US20200356812A1 (en) * | 2019-05-10 | 2020-11-12 | Moley Services Uk Limited | Systems and methods for automated training of deep-learning-based object detection |
CN113450328A (zh) * | 2021-06-29 | 2021-09-28 | 汕头大学 | 基于改进神经网络的医学图像关键点检测方法及系统 |
-
2021
- 2021-11-23 CN CN202111391310.7A patent/CN114240844B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229381A (zh) * | 2017-12-29 | 2018-06-29 | 湖南视觉伟业智能科技有限公司 | 人脸图像生成方法、装置、存储介质和计算机设备 |
CN108062574A (zh) * | 2017-12-31 | 2018-05-22 | 厦门大学 | 一种基于特定类别空间约束的弱监督目标检测方法 |
CN108764048A (zh) * | 2018-04-28 | 2018-11-06 | 中国科学院自动化研究所 | 人脸关键点检测方法及装置 |
CN108710868A (zh) * | 2018-06-05 | 2018-10-26 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测系统及方法 |
CN109977918A (zh) * | 2019-04-09 | 2019-07-05 | 华南理工大学 | 一种基于无监督域适应的目标检测定位优化方法 |
US20200356812A1 (en) * | 2019-05-10 | 2020-11-12 | Moley Services Uk Limited | Systems and methods for automated training of deep-learning-based object detection |
CN110503112A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 一种增强特征学习的小目标检测及识别方法 |
CN111028212A (zh) * | 2019-12-02 | 2020-04-17 | 上海联影智能医疗科技有限公司 | 关键点检测方法、装置、计算机设备和存储介质 |
CN111476757A (zh) * | 2020-03-10 | 2020-07-31 | 西北大学 | 一种冠脉斑块数据检测方法、系统、存储介质、终端 |
CN111862201A (zh) * | 2020-07-17 | 2020-10-30 | 北京航空航天大学 | 一种基于深度学习的空间非合作目标相对位姿估计方法 |
CN113450328A (zh) * | 2021-06-29 | 2021-09-28 | 汕头大学 | 基于改进神经网络的医学图像关键点检测方法及系统 |
Non-Patent Citations (6)
Title |
---|
DONGYANG KUANG等: "FAIM – A ConvNet Method for Unsupervised 3D Medical Image Registration" * |
LU WANG等: "Annotation-Efficient Learning for Medical Image Segmentation Based on Noisy Pseudo Labels and Adversarial Learning" * |
RAN GU等: "Domain Composition and Attention for Unseen-Domain Generalizable Medical Image Segmentation" * |
WENHUI LEI等: "One-shot Weakly-Supervised Segmentation in Medical Images" * |
梁浩: "基于视觉注意力引导的视频目标分割算法研究" * |
沈红彬: "基于深度学习的目标定位与跟踪技术的研究及应用" * |
Also Published As
Publication number | Publication date |
---|---|
CN114240844B (zh) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111476292B (zh) | 医学图像分类处理人工智能的小样本元学习训练方法 | |
Wickramasinghe et al. | Voxel2mesh: 3d mesh model generation from volumetric data | |
CN110337669B (zh) | 一种用于多标签分割医学图像中的解剖结构的管线方法 | |
CN110674866A (zh) | 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法 | |
CN112560656A (zh) | 一种联合注意力机制端到端训练的行人多目标跟踪方法 | |
Wang et al. | Fully contextual network for hyperspectral scene parsing | |
CN110838108A (zh) | 基于医疗图像的预测模型构建方法、预测方法及装置 | |
CN111340816A (zh) | 一种基于双u型网络框架的图像分割方法 | |
CN113706487A (zh) | 基于自监督特征小样本学习的多器官分割方法 | |
Zhao et al. | Deep adaptive log-demons: diffeomorphic image registration with very large deformations | |
Yonekura et al. | Improving the generalization of disease stage classification with deep CNN for glioma histopathological images | |
CN113298036A (zh) | 一种无监督视频目标分割的方法 | |
CN113628197A (zh) | 一种基于对比学习的弱监督全切片组织病理图像分类方法 | |
Mishra et al. | Medical image retrieval using self-organising map on texture features | |
CN115294086A (zh) | 医学影像分割方法、分割模型训练方法、介质及电子设备 | |
Song et al. | Classifying tongue images using deep transfer learning | |
CN112750131B (zh) | 基于尺度和序列关系的骨盆核磁共振图像肌肉骨骼分割方法 | |
Xu et al. | Automatic segmentation of low-grade glioma in MRI image based on UNet++ model | |
CN114240844B (zh) | 一种医学图像中无监督的关键点定位和目标检测方法 | |
Mhatre et al. | Cotton leaves disease detection and cure using deep learning | |
CN109558883B (zh) | 叶片特征提取方法及装置 | |
CN116310335A (zh) | 一种基于Vision Transformer的翼状胬肉病灶区域的分割方法 | |
CN115937590A (zh) | 一种并联融合CNN和Transformer的皮肤病图像分类方法 | |
Li et al. | Deformable medical image registration based on unsupervised generative adversarial network integrating dual attention mechanisms | |
Elif et al. | Accurate myocardial pathology segmentation with residual u-net |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |