CN113476033B - 基于深度神经网络的前列腺增生目标区域自动生成方法 - Google Patents

基于深度神经网络的前列腺增生目标区域自动生成方法 Download PDF

Info

Publication number
CN113476033B
CN113476033B CN202110948251.2A CN202110948251A CN113476033B CN 113476033 B CN113476033 B CN 113476033B CN 202110948251 A CN202110948251 A CN 202110948251A CN 113476033 B CN113476033 B CN 113476033B
Authority
CN
China
Prior art keywords
prostate
slice
dimensional
contour
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110948251.2A
Other languages
English (en)
Other versions
CN113476033A (zh
Inventor
凌青
刘继红
陈特儒
郭小林
赵兴炜
陶波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji Hospital Affiliated To Tongji Medical College Of Huazhong University Of Science & Technology
Original Assignee
Tongji Hospital Affiliated To Tongji Medical College Of Huazhong University Of Science & Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji Hospital Affiliated To Tongji Medical College Of Huazhong University Of Science & Technology filed Critical Tongji Hospital Affiliated To Tongji Medical College Of Huazhong University Of Science & Technology
Priority to CN202110948251.2A priority Critical patent/CN113476033B/zh
Publication of CN113476033A publication Critical patent/CN113476033A/zh
Application granted granted Critical
Publication of CN113476033B publication Critical patent/CN113476033B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/43Detecting, measuring or recording for evaluating the reproductive systems
    • A61B5/4375Detecting, measuring or recording for evaluating the reproductive systems for evaluating the male reproductive system
    • A61B5/4381Prostate evaluation or disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Fuzzy Systems (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Reproductive Health (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了一种基于深度神经网络的前列腺增生目标区域自动生成方法,包括如下步骤:1)在术前获取良性前列腺增生病人的核磁共振图像,并进行切片和数据预处理;2)获得切片在水平面的中间带和周边带的生理轮廓分图像;3)完成前列腺生理轮廓的三维分割,同时生成前列腺生理结构的三维点云模型;4)基于前列腺中央带切片建立虚拟人工势场,并对关键方向进行加强保护,得到安全系数在切片上的分布,进而得到合理的目标区域;5)对包含目标区域轮廓的前列腺切片进行三维重建,最终得到三维的良性前列腺增生手术目标模型。本发明方法可以实现对前列腺和BPH目标区域的三维重建,提高BPH手术的安全性和效率具有推动作用。

Description

基于深度神经网络的前列腺增生目标区域自动生成方法
技术领域
本发明涉及医学图像处理的技术领域,具体涉及一种基于深度神经网络的前列腺增生目标区域自动生成方法。
背景技术
良性前列腺前列腺(BPH)是中老年男性最常见的症状性疾病之一。随着年龄的增长,前列腺的中央带腺体将缓慢增殖,这将限制尿流的流速并阻塞尿道。BPH可以引起下尿路症状(LUTS),包括排尿不畅,排尿频繁,后遗症运球,排尿夜尿不完全等症状,严重影响了老年人的正常生活。随着人类社会的老龄化,BPH和LUTS的发生率和患病率迅速增加。BPH在30多岁的男性中占8%,在50多岁的男性中占50%,随着男性达到80岁以上,这一数字将增加到大于80%。治疗BPH的最有效方法是进行手术,以去除多余的中央腺体组织。经尿道前列腺电切术(TURP)是BPH(金标准)的标准手术范例,这是通过使用医用标准内窥镜通过尿道完成的,并且通过锋利的解剖或电灼术将前列腺组织切成碎片。尽管TURP的手术范例具有微创性,但它可能导致大量组织出血和较长的导管插入时间。BPH越来越多地采用切割和凝血的结合,经尿道激光前列腺切除术(TULP)越来越多。TULP是一种新的外科手术方法,它使用大功率激光作用于前列腺组织,以直接蒸发包含目标发色团的腺体组织。
但是,BPH对临床医生是极具挑战性的。由于内窥镜在到达前列腺之前必须穿过许多尿道软组织,因此外科医生的可操作性受到极大限制。同时,手术的安全性一直是一个令人担忧的问题。因为医生只能通过连接到内窥镜的摄像头查看前列腺内部,所以医生的视野和感知受到很大限制。感知匮乏使外科医生难以判断手术的当前状态和区分手术区域的边界,这极大地增加了手术培训的成本。即使是训练有素的临床医生也需要依靠自己的经验来判断手术的安全性,这很容易损坏附近的组织并给患者带来相关的并发症。位于尿道深处、视野有限,缺乏感知手段和较长的手术时间已成为BPH手术的主要挑战。随着计算机技术和人工智能技术的发展,使用基于深度学习的手术导航技术来对手术进行建模,对手术边界进行相应的保护,扩大医生的视野,提高手术的效率和安全性,并提高手术的自动化程度,是BPH手术发展的大势所趋。
核磁共振成像(MRI)是目前最精确,最清晰的前列腺医学成像方法。目前,有许多方法可以在MRI图像下自动分割前列腺。从分割的目的出发,MRI下前列腺的分割方法可分为全前列腺分割和前列腺分区分割两种。整个前列腺分割是指从相应的MRI切片识别整个前列腺的轮廓。有数字图像处理分割方法,如基于边缘的,基于区域的,基于聚类的或混合方法。随着人工智能的发展,基于深度学习的分割方法由于其鲁棒性和易用性已成为分割的主流。已经提出了一系列经典的医学图像分割方法,例如FCN,U-net等。后来,改进了基于FCN和U-net的方法和基于生成对抗网络的方法使得分割的结果越来越好。与整个前列腺分割相比,前列腺分区分割是一个相对较小的研究领域。它不仅可以识别前列腺,还可以识别前列腺中的不同解剖结构。与整个前列腺分割相似,它也可以分为经典的数字图像处理方法和基于深度学习的方法。尽管目前有很多方法,但是这些方法仅限于识别前列腺的轮廓,而没有对BPH手术区域进行分割。对于BPH手术,必须考虑一些必要的安全限制,因此手术量与前列腺状况不同。同时,由于深度学习方法的准确性和鲁棒性比医生的经验差,因此外科手术区域需要由外科医生轻松修改。截至目前,尚没有方法可以在MRI图像下自动重建BPH的目标区域。
发明内容
本发明的目的在于克服上述背景技术的不足,提供一种基于深度神经网络的前列腺增生目标区域自动生成方法,该方法可以实现对前列腺和BPH目标区域的三维重建,有利于对BPH手术导航的发展,提高BPH手术的安全性和效率具有推动作用。
为实现上述目的,本发明所设计的一种基于深度神经网络的前列腺增生目标区域自动生成方法,包括如下步骤:
1)在术前获取良性前列腺增生病人的核磁共振图像,并进行切片和数据预处理;
2)将核磁共振图像的切片输入预先训练好的卷积神经网络,获得切片在水平面的中间带和周边带的生理轮廓分图像;
3)将中间带和周边带的生理轮廓分图像输入前列腺统计学模型,基于精阜判别准则得到精阜所在的切片位置,完成前列腺生理轮廓的三维分割,同时生成前列腺生理结构的三维点云模型;
4)基于前列腺中央带切片建立虚拟人工势场,并对关键方向进行加强保护,得到安全系数在切片上的分布,进而得到合理的目标区域;
5)对包含目标区域轮廓的前列腺切片进行三维重建,最终得到三维的良性前列腺增生手术目标模型。
进一步地,所述步骤1)中,在术前获取良性前列腺增生病人的核磁共振图像为T2权重MRI图像,切片为水平面切面,层间距≤4mm;数据预处理包括读入三维图像矩阵、调整分辨率以及图像灰度值归一化处理。
进一步地,所述步骤2)中,所述卷积神经网络为全卷积网络,所述全卷积网络具有收缩部分的左侧和扩展部分的右侧;所述收缩部分为卷积神经网络体系结构,具有卷积层(3×3内核)、激活功能单元(ReLU)和下采样池化层(2×2最大池化,步幅=2);每次下采样操作后,功能通道的数量将增加一倍。扩展部分的右侧几乎与左侧对称,所述扩展部分使用向上卷积来组合来自收缩路径的特征和空间信息。
进一步地,所述步骤2)中,采用的卷积神经网络的最后一层使用softmax函数来保持多重分类的效果;切片图像被馈送到网络,通过路径传播,获得输出的分割图像,其损失函数为多分类的Dice损失函数,如下所示:
Figure GDA0003553828560000041
式中,X(i)为切片上第i类生理结构的预测的区域轮廓,Y(i)为人工标注的第i类生理结构的真值轮廓,n为结构分类的总数目。
进一步地,所述步骤3)中,精阜位置判别函数P(v)为:
Figure GDA0003553828560000042
式中,S(v)为切片中的中间带的面积;S(v+k)是下一个切片中的中间带的面积;v为当前切片所在的无量纲位置;k为目前切片和下一切片之间的无量纲距离;D(v)为统计学模型得到的精阜可能性分布函数。精阜位置判别函数为当前切片精阜可能性分布函数的值与中间带面积相对变化率的乘积。
进一步地,所述步骤4)中,虚拟人工势场基于目前前列腺切片周边带和中间带的点云轮廓建立,吸引势Uatt的公式如下:
Figure GDA0003553828560000043
式中,
Figure GDA0003553828560000044
为目前前列腺切片重心位置到中间带边缘轮廓的距离,r为计算点到重心位置的距离;
排斥势Urep的公式如下:
Figure GDA0003553828560000045
式中,n为计算点感兴趣区域内的前列腺边界点云的总数目,ρ(i)为计算点到边界计算点i的距离;k(i)为所在计算点i的权重系数;i为当前的边界计算点。
进一步地,所述步骤4)中,总势能Uart的计算公式如下:
Uart=Uatt+Urep
式中,Uatt为吸引势,Urep为排斥势。
进一步地,所述步骤4)中,对关键方向进行加强保护,加强保护为对权重因子k的调节:
Figure GDA0003553828560000051
式中,k(θ)为加强保护之后的安全权重系数;函数h(·)为阶跃函数;β为用于调整影响距离的参数,θ为计算点所在的方向;k为初始设置的权重系数。
进一步地,关键方向为在前列腺中部轴向剖面中5-7点和11-1点方向,尿道为环形腔道结构,在前列腺中部轴向剖面中,5-7点指圆环正下方及两旁约1cm构成的弧形区域,11-1点指圆环正上方及两旁约1cm构成弧形区域。
再进一步地,所述步骤5)中,对前列腺切片进行三维重建采用抛物线拟合方法,以减少层与层之间的不连续性。
更进一步地,所述步骤5)中,重建得到的三维良性前列腺增生手术目标模型的坐标系的原点在前列腺的中心点,x轴为冠状轴,y轴为矢状轴,z轴为垂直轴。
与现有技术相比,本发明具有如下优点:
其一,本发明将深度神经网络和前列腺生理统计学模型相结合,可以对前列腺进行分区的三维的分割,得到前列腺的不同生理结构的三维模型。
其二,本发明通过引入设计的虚拟人工势场,可以实现前列腺切片的安全评价,并实现对特殊方向的保护作用,得到合适的良性前列腺增生手术区域。
其三,本发明可实现对前列腺和BPH手术区域的三维重建,对BPH手术导航的发展,提高BPH手术的安全性和效率具有推动作用。
附图说明
图1为本发明的方法流程图;
图2(a)前列腺MRI图像水平面切片,(b)前列腺中央带和外周带标签;
图3为本发明的卷积神经网络结构图;
图4为本发明的虚拟人工势场构建示意图。
具体实施方式
下面结合实施案例详细说明本发明的实施情况,但它们并不构成对本发明的限定,仅作举例而已。同时通过说明本发明的优点将变得更加清楚和容易理解。
本发明公开了一种基于深度神经网络的核磁共振图像良性前列腺增生手术区域自动生成方法。包括数据获取阶段,神经网络推理阶段,人工势场建立阶段以及手术区域三维重建阶段。数据获取阶段包括数据的获取和预处理等。网络推理阶段包括网络结构设计和损失函数选择,人工势场建立包括人工势场的建立和特殊区域保护,手术区域三维重建阶段使用层间抛物线插值方法对手术区域进行整体的三维模型重建。
本发明所设计的一种基于深度神经网络的前列腺增生目标区域自动生成方法,包括如下步骤:
1)在术前获取良性前列腺增生病人的核磁共振图像,并进行切片和数据预处理;本发明实施例采用Python平台基于Keras库和Matlab平台实现,调用医学图像读取函数,输入前列腺MRI图像文件名和该图像对应的分割图文件名,分别读入大小为H×W×D的矩阵X和Y中,矩阵X中各元素为前列腺MRI图像的像素值,矩阵Y中各元素为该元素对应的类别,H为前列腺MRI图像的长,W为前列腺MRI图像的宽,D为前列腺MRI图像的切片数,为了方便模型训练,我们对图像切片进行了预处理,将所有切片的大小调整为256像素×256像素,同时将图像灰度都归一化到0-255之间。
2)将核磁图像切片输入预先训练好的卷积神经网络,获得切片在水平面的中间带和周边带的生理轮廓分图像。所述卷积神经网络为全卷积网络,该网络具有收缩部分的左侧和扩展部分的右侧。收缩部分是典型的卷积神经网络体系结构,具有卷积层(3×3内核),激活功能单元(ReLU),然后是下采样池化层(2×2最大池化,步幅=2)。每次下采样操作后,功能通道的数量将增加一倍。扩展的右侧几乎与左侧对称,使用向上卷积来组合来自收缩路径的特征和空间信息。网络的最后一层使用softmax函数来保持多重分类的效果。切片图像被馈送到网络,通过路径传播,获得输出的分割图像。其损失函数为多分类的Dice损失函数,如下所示:
Figure GDA0003553828560000071
式中,X(i)为切片上第i类生理结构的预测的区域轮廓,Y(i)为人工标注的第i类生理结构的真值轮廓,n为结构分类的总数目。在本实施例中,总类数有背景、中央带、周边带三类。
本实施例中,步骤2)的具体操作为将前列腺MRI图像矩阵X的每一片切片H×W输入到训练好的神经网络(如图2所示)里面,最终得到预测的前列腺切片轮廓矩阵H’×W’。此时的前列腺切片轮廓矩阵尚未进行轴线方向的分割。
3)将中间带和周边带的生理轮廓分图像输入前列腺统计学模型,基于精阜判别准则得到精阜所在的切片位置,完成前列腺生理轮廓的三维分割,同时生成前列腺生理结构的三维点云模型。
本实施例中,步骤3)的具体操作为将前列腺的每一片切片按照原来的顺序排序,送入精阜位置判别函数中,所用到的精阜统计学模型由前列腺的生理结构和实际病人的调查情况得出。精阜位置判别函数P(v)为:
Figure GDA0003553828560000072
其中,S(v)为切片中的中间带的面积,S(v+k)为下一个切片中的中间带的面积,v为当前切片所在的无量纲位置;k为目前切片和下一切片之间的无量纲距离。D(v)为统计学模型得到的精阜可能性分布函数。精阜位置判别函数为当前切片精阜可能性分布函数的值与中间带面积相对变化率的乘积。由上述函数判断精阜的精确位置,至此完成前列腺的三维分割。
4)基于前列腺中央带切片建立虚拟人工势场,并对关键方向(5-7点,11-1点)进行加强保护,尿道为环形腔道结构,在前列腺中部轴向剖面中,5-7点指圆环正下方及两旁约1cm构成的弧形区域,11-1点指圆环正上方及两旁约1cm构成弧形区域,得到安全系数在切片上的分布,进而得到合理的目标区域。虚拟人工势场基于目前前列腺切片周边带和中间带的点云轮廓建立。吸引势Uatt的公式如下:
Figure GDA0003553828560000081
式中,
Figure GDA0003553828560000082
为目前前列腺切片重心位置到中间带边缘轮廓的距离,r为计算点到重心位置的距离;
排斥势Urep的公式如下:
Figure GDA0003553828560000083
式中,n为计算点感兴趣区域内的前列腺边界点云的总数目,ρ(i)为计算点到边界计算点i的距离;k(i)为所在计算点i的权重系数;;i为当前的边界计算点。
总势能Uart的计算公式如下:
Uart=Uatt+Urep
式中,Uatt为吸引势,Urep为排斥势。
对关键方向进行加强保护,关键方向为(5-7点,11-1点),加强保护为对权重因子k的调节:
Figure GDA0003553828560000084
式中,k(θ)为加强保护之后的安全权重系数;函数h(·)为阶跃函数;β为用于调整影响距离的参数,θ为计算点所在的方向;k为初始设置的权重系数。
本实施例中,步骤4)的具体操作为,使用步骤2)和步骤3)确立的包含中间带的MRI切片的预测轮廓矩阵H’×W’作为输入,进行该切片的虚拟势场的构建,虚拟势场输出得到切片的安全系数的分布,医生通过选择安全系数的阈值可以得到手术的区域矩阵I×J。
5)对包含手术区域轮廓的前列腺切片进行三维重建,最终得到三维的良性前列腺增生手术目标模型。重建得到的三维良性前列腺增生手术目标模型的坐标系的原点在前列腺的中心点,x轴为冠状轴,y轴为矢状轴,z轴为垂直轴。
本实施例中,步骤5)的具体操作为,将包含手术区域矩阵I×J的切片按照步骤2)中得到的序列进行三维排序,得到三维手术区域矩阵I×J×K,其中I为矩阵的高度,J为矩阵的宽度,K的矩阵的切片数。最终基于抛物线拟合对层间的矩阵进行拟合,得到密集的三维良性前列腺增生手术矩阵I×J×K’。
具体实施时,可采用软件方式实现流程的自动运行。运行流程的装置也应当在本发明的保护范围内。
以下通过试验来验证本发明的有益效果:
本试验采用的数据集为Promise 12数据集的一部分,Promise 12数据集有50份前腺MRI图像作训练集,30份前列腺MRI图像作测试集,本次实验使用了其中的30例作为训练集,10例作为测试集,这些前列腺MRI图像采集于不同的医院、不同的设备、使用了不同的协议,图像的长宽有512×512、384×384、320×320、256×256四个类别,切片数从17到54不等,体素间距从0.27×0.27×2.2(mm)到0.75×0.75×4(mm)不等,包含了各种情况下产生的前列腺MRI图像。
BPH手术区域分割方法评价指标采用Dice系数(DSC)和平均边界距离(ABD)来表述。Dice系数是一种集合相似度度量函数,用于衡量预测的分割图和真实的分割图之间的重叠度,其范围为0-1,0表示预测的分割图和真实的分割图之间完全没有重叠,1表示预测的分割图和真实的分割图完全重叠。ABD表示两个表面轮廓之间的平均距离,单位为mm。目标区域的真值由专业的手术医生给出。实验的结果如下表1所示:
表1
Figure GDA0003553828560000101
从上表中可以看出,本发明提出的方法对目标区域分割精度可以达到0.867,可以取得良好的分割结果,同时,和医生分割表面的平均边界距离为1.229mm,说明了本方法的有效性。
以上,仅为本发明的具体实施方式,应当指出,任何熟悉本领域的技术人员在本发明所揭示的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内,其余未详细说明的为现有技术。

Claims (9)

1.一种基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:包括如下步骤:
1)在术前获取良性前列腺增生病人的核磁共振图像,并进行切片和数据预处理;
2)将核磁共振图像的切片输入预先训练好的卷积神经网络,获得切片在水平面的中间带和周边带的生理轮廓分图像;
3)将中间带和周边带的生理轮廓分图像输入前列腺统计学模型,基于精阜判别准则得到精阜所在的切片位置,完成前列腺生理轮廓的三维分割,同时生成前列腺生理结构的三维点云模型;
4)基于前列腺中央带切片建立虚拟人工势场,并对关键方向进行加强保护,得到安全系数在切片上的分布,进而得到合理的目标区域;
5)对包含目标区域轮廓的前列腺切片进行三维重建,最终得到三维的良性前列腺增生手术目标模型;
其中,所述步骤4)中,虚拟人工势场基于目前前列腺切片周边带和中间带的点云轮廓建立,吸引势Uatt的公式如下:
Figure FDA0003553828550000011
式中,
Figure FDA0003553828550000012
为目前前列腺切片重心位置到中间带边缘轮廓的距离,r为计算点到重心位置的距离;
排斥势Urep的公式如下:
Figure FDA0003553828550000013
式中,n为计算点感兴趣区域内的前列腺边界点云的总数目,ρ(i)为计算点到边界计算点i的距离;k(i)为所在计算点i的权重系数;k为权重因子;i为当前的边界计算点。
2.根据权利要求1所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤1)中,在术前获取良性前列腺增生病人的核磁共振图像为T2权重MRI图像,切片为水平面切面,层间距≤4mm;数据预处理包括读入三维图像矩阵、调整分辨率以及图像灰度值归一化处理。
3.根据权利要求1所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤2)中,所述卷积神经网络为全卷积网络,所述全卷积网络具有收缩部分的左侧和扩展部分的右侧;所述收缩部分为卷积神经网络体系结构,具有卷积层、激活功能单元和下采样池化层;所述扩展部分使用向上卷积来组合来自收缩路径的特征和空间信息。
4.根据权利要求1所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤2)中,采用的卷积神经网络的最后一层使用softmax函数来保持多重分类的效果;切片图像被馈送到网络,通过路径传播,获得输出的分割图像,其损失函数为多分类的Dice损失函数,如下所示:
Figure FDA0003553828550000021
式中,X(i)为切片上第i类生理结构的预测的区域轮廓,Y(i)为人工标注的第i类生理结构的真值轮廓,n为结构分类的总数目。
5.根据权利要求1所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤3)中,精阜位置判别函数P(v)为:
Figure FDA0003553828550000022
式中,S(v)为切片中的中间带的面积;S(v+k)是下一个切片中的中间带的面积;v为当前切片所在的无量纲位置;k为目前切片和下一切片之间的无量纲距离;D(v)为统计学模型得到的精阜可能性分布函数。
6.根据权利要求1所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤4)中,总势能Uart的计算公式如下:
Uart=Uatt+Urep
式中,Uatt为吸引势,Urep为排斥势。
7.根据权利要求1所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤4)中,对关键方向进行加强保护,加强保护为对权重因子k的调节:
Figure FDA0003553828550000031
式中,k(θ)为加强保护之后的安全权重系数;函数h(·)为阶跃函数;β为用于调整影响距离的参数,θ为计算点所在的方向;k为初始设置的权重系数。
8.根据权利要求1所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤5)中,对前列腺切片进行三维重建采用抛物线拟合方法。
9.根据权利要求8所述的基于深度神经网络的前列腺增生目标区域自动生成方法,其特征在于:所述步骤5)中,重建得到的三维良性前列腺增生手术目标模型的坐标系的原点在前列腺的中心点,x轴为冠状轴,y轴为矢状轴,z轴为垂直轴。
CN202110948251.2A 2021-08-18 2021-08-18 基于深度神经网络的前列腺增生目标区域自动生成方法 Active CN113476033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110948251.2A CN113476033B (zh) 2021-08-18 2021-08-18 基于深度神经网络的前列腺增生目标区域自动生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110948251.2A CN113476033B (zh) 2021-08-18 2021-08-18 基于深度神经网络的前列腺增生目标区域自动生成方法

Publications (2)

Publication Number Publication Date
CN113476033A CN113476033A (zh) 2021-10-08
CN113476033B true CN113476033B (zh) 2022-06-07

Family

ID=77946856

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110948251.2A Active CN113476033B (zh) 2021-08-18 2021-08-18 基于深度神经网络的前列腺增生目标区域自动生成方法

Country Status (1)

Country Link
CN (1) CN113476033B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989349B (zh) * 2021-10-25 2022-11-25 北京百度网讯科技有限公司 图像生成方法、图像处理模型的训练方法、图像处理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9208572B2 (en) * 2013-09-20 2015-12-08 General Electric Company Systems and methods for image segmentation using a deformable atlas
EP3923237A1 (en) * 2017-02-22 2021-12-15 The United States of America as represented by The Secretary Department of Health and Human Services Detection of prostate cancer in multi-parametric mri using random forest
CN107582058A (zh) * 2017-10-19 2018-01-16 武汉大学 一种磁共振前列腺灌注图像的智能诊断恶性肿瘤的方法
CN107886510A (zh) * 2017-11-27 2018-04-06 杭州电子科技大学 一种基于三维全卷积神经网络的前列腺mri分割方法
US11170508B2 (en) * 2018-01-03 2021-11-09 Ramot At Tel-Aviv University Ltd. Systems and methods for the segmentation of multi-modal image data
RU2681508C1 (ru) * 2018-05-16 2019-03-06 Федеральное государственное бюджетное учреждение "Ростовский научно-исследовательский онкологический институт" Министерства здравоохранения Российской Федерации Способ визуализации эффективности лечения доброкачественной гиперплазии предстательной железы
CN108765427A (zh) * 2018-05-17 2018-11-06 北京龙慧珩医疗科技发展有限公司 一种前列腺图像分割方法
CN109636813B (zh) * 2018-12-14 2020-10-30 中南民族大学 前列腺磁共振图像的分割方法及系统
CA3074064A1 (en) * 2019-03-01 2020-09-01 The Regents Of The University Of California Systems, methods, and media for automatically segmenting and diagnosing prostate lesions using multi-parametric magnetic resonance imaging data
CN110188792B (zh) * 2019-04-18 2023-09-08 万达信息股份有限公司 前列腺mri三维图像的图像特征获取方法
CN112545479B (zh) * 2019-09-26 2022-08-16 北京赛迈特锐医疗科技有限公司 在mpMRI上分割前列腺和精囊分带解剖的系统及方法
CN110930416B (zh) * 2019-11-25 2022-05-06 宁波大学 一种基于u型网络的mri图像前列腺分割方法
CN112425568A (zh) * 2020-12-11 2021-03-02 上海市计划生育科学研究所 一种建立具有emt特征的良性前列腺增生bph犬模型的方法

Also Published As

Publication number Publication date
CN113476033A (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
CN112489047B (zh) 一种基于深度学习的盆骨及其动脉血管的多层级分割方法
CN113506334B (zh) 基于深度学习的多模态医学图像融合方法及系统
Hambarde et al. Prostate lesion segmentation in MR images using radiomics based deeply supervised U-Net
Lin et al. Computer-aided kidney segmentation on abdominal CT images
Nikan et al. PWD-3DNet: a deep learning-based fully-automated segmentation of multiple structures on temporal bone CT scans
WO2021238438A1 (zh) 肿瘤图像的处理方法和装置、电子设备、存储介质
CN109166105A (zh) 人工智能医学影像的肿瘤恶性风险分层辅助诊断系统
CN113450294A (zh) 多模态医学图像配准融合方法、装置及电子设备
CN110464459A (zh) 基于ct-mri融合的介入计划导航系统及其导航方法
CN113239755A (zh) 一种基于空谱融合深度学习的医学高光谱图像分类方法
CN113744272A (zh) 一种基于深度神经网络的脑动脉自动勾画方法
CN116797612B (zh) 基于弱监督深度活动轮廓模型的超声图像分割方法及装置
CN113476033B (zh) 基于深度神经网络的前列腺增生目标区域自动生成方法
CN113192069A (zh) 三维断层扫描图像中树状结构的语义分割方法和装置
Peng et al. H-SegMed: a hybrid method for prostate segmentation in TRUS images via improved closed principal curve and improved enhanced machine learning
CN116563533A (zh) 基于目标位置先验信息的医学图像分割方法及系统
John et al. Prostate cancer prediction from multiple pretrained computer vision model
WO2024169353A1 (zh) 一种基于区域窄带传播的锥束ct影像靶区智能勾画方法
Fooladgar et al. Uncertainty-aware deep ensemble model for targeted ultrasound-guided prostate biopsy
Vineeth et al. Skin cancer detection using deep learning
CN116778138B (zh) 一种肺结节定位系统
Chen et al. An automatic prostate surgical region reconstruction method based on multilevel learning
Sadikine et al. Semi-overcomplete convolutional auto-encoder embedding as shape priors for deep vessel segmentation
CN115568941A (zh) 一种肿瘤消融路径评价方法
Eidheim et al. Segmentation of liver vessels as seen in MR and CT images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant