CN112529839B - 一种核磁共振图像中颈动脉血管中心线的提取方法及系统 - Google Patents

一种核磁共振图像中颈动脉血管中心线的提取方法及系统 Download PDF

Info

Publication number
CN112529839B
CN112529839B CN202011225935.1A CN202011225935A CN112529839B CN 112529839 B CN112529839 B CN 112529839B CN 202011225935 A CN202011225935 A CN 202011225935A CN 112529839 B CN112529839 B CN 112529839B
Authority
CN
China
Prior art keywords
detection
network
feature map
training set
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011225935.1A
Other languages
English (en)
Other versions
CN112529839A (zh
Inventor
辛景民
张璞
武佳懿
郑南宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202011225935.1A priority Critical patent/CN112529839B/zh
Publication of CN112529839A publication Critical patent/CN112529839A/zh
Priority to PCT/CN2021/118869 priority patent/WO2022095612A1/zh
Application granted granted Critical
Publication of CN112529839B publication Critical patent/CN112529839B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Pathology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Vascular Medicine (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了一种核磁共振图像中颈动脉血管中心线的提取方法及系统,所述方法用于非疾病诊断目的,包括以下步骤:步骤1,获取若干受试者颈动脉的T1加权MRI图像组成训练集;将训练集中每张T1加权MRI图像的颈动脉区域进行标注,获得标注后的训练集;步骤2,将步骤1获得的标注后的训练集输入特征图提取网络,获得训练集中每张T1加权MRI图像的3种尺度的特征图;步骤3,将训练集中的每张T1加权MRI图像的3种尺度的特征图输入检测网络,对检测网络进行训练,获得训练好的检测网络。本发明将多层次网络信息进行融合,形成多尺度监测信息,能够大大提高颈动脉血管中心线提取的准确性。

Description

一种核磁共振图像中颈动脉血管中心线的提取方法及系统
技术领域
本发明属于图像处理、深度学习技术领域,特别涉及一种核磁共振图像中颈动脉血管中心线的提取方法及系统。
背景技术
颈动脉粥样硬化是进行性全身性疾病,其特征是动脉粥样硬化斑块的形成,表现为血管壁增厚导致狭窄,血管壁结构改变导致卒中;颈动脉的中心线可以描述血管的拓扑结构,是血管几何结构三维重建的基础。因此,颈动脉血管中心线的提取对早期发现颈动脉粥样硬化和预防心血管疾病有非常重要的意义。
高分辨率核磁共振成像(high-resolution magnetic resonance imaging,HRMRI)作为表征颈动脉病理的现代成像技术,可获得颈动脉的横截面图像,并检测到早期颈动脉血管异常。血管中心线的提取是通过在MRI图像上检测颈动脉血管区域来完成的。放射科医生在MRI图像中逐层检测颈动脉是一项繁琐且重现性低的任务;因此,在MRI图像中自动地检测颈动脉血管可以减轻医生工作量,加快医生对疾病地诊断过程。
现有的方法大多为半自动地提取血管中心线,这些方法多基于最小路径法和回溯法,依赖于图像的分辨率以及血管拓扑结构的复杂度,很难在低质量的图像中(例如:含伪影、噪声等图像)对结构复杂的血管进行定位,进一步导致对血管中心线的提取不准确。现有这些方法大多都依赖于后续的校正,例如对提取中心线的细化或利用梯度场的修正,这会导致计算度复杂,处理时间较长。此外,由于严重病变的动脉和颈动脉分叉附近的腔和外壁边界的形状不同寻常,血管中心线的准确定位本身就是一项具有挑战性的工作,上述的传统方法很难在分析颈动脉粥样硬化中得到很好的应用。
综上,现有颈动脉血管中心线提取方法过于复杂地使用了一些传统的处理方法,导致提取中心线的精度不高以及速度过慢,亟需一种新的基于深度学习的核磁共振图像中颈动脉血管中心线提取方法。
发明内容
本发明的目的在于提供一种核磁共振图像中颈动脉血管中心线的提取方法及系统,以解决上述存在的一个或多个技术问题。本发明能够克服上述现有技术中存在的较难在低质量的图像中对结构复杂的血管进行定位,提取中心线的精度不高以及速度过慢的缺点。本发明将多层次网络信息进行融合,形成多尺度监测信息,能够大大提高颈动脉血管中心线提取的准确性。
为达到上述目的,本发明采用以下技术方案:
本发明的一种核磁共振图像中颈动脉血管中心线的提取方法,用于非疾病诊断目的,包括以下步骤:
步骤1,获取若干受试者颈动脉的T1加权MRI图像组成训练集;将训练集中每张T1加权MRI图像的颈动脉区域进行标注,获得标注后的训练集;
步骤2,将步骤1获得的标注后的训练集输入特征图提取网络,获得训练集中每张T1加权MRI图像的3种尺度的特征图;
步骤3,将训练集中的每张T1加权MRI图像的3种尺度的特征图输入检测网络,对检测网络进行训练,获得训练好的检测网络;基于所述训练好的检测网络,实现核磁共振图像中颈动脉血管中心线的提取。
本发明的进一步改进在于,步骤2中,所述特征图提取网络为Darknet-53。
本发明的进一步改进在于,步骤3中,对检测网络进行训练的过程中:
所述检测网络包括若干个卷积和上采样操作;输入3种尺度上的特征图,将特征图进行sigmoid激活,得到坐标偏移值输出和置信度输出;根据输出联合得到检测损失函数,通过检测损失函数优化预设次数初始检测结果得到最终的检测结果,完成训练。
本发明的进一步改进在于,步骤3中,根据输出联合得到检测损失函数的步骤包括:将坐标偏移值输出、置信度输出、K-means聚类得到的9种先验框结合计算得到检测损失函数;
根据K-means聚类得到的9种先验框的大小的具体方法包括:
(1)对T1加权的MRI图像训练集进行聚类,得到先验框的尺寸与数量;其中,距离函数为:
d(box,centroid)=1-IOU(box,centroid),
式中,d(box,centroid)为两个边框之间的距离;IOU(box,centroid)为预测的边框与真实的边框之间的交并比;
(2)将聚类得到的N种尺寸的先验框分配给M种尺度的特征图。
本发明的进一步改进在于,为最小尺度的特征图分配最大尺寸的三个先验框,最大尺度的特征图分配最小尺寸的三个先验框,为中间尺度的特征图分配中间尺寸的三个先验框;其中,当目标物的中心点落入某个网格内时,这个网格生成的三个先验框中与目标检测框的IOU值最大的先验框负责这个目标的检测。
本发明的进一步改进在于,步骤3中,得到坐标偏移值输出和置信度输出的具体步骤包括:
1)对特征图提取网络输出的特征图进行连续的六次3x3卷积操作得到尺度一上的输出16×16×3×(4+1);其中,16×16是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;
2)对尺度一的倒数第二个卷积操作进行2倍上采样操作后与特征图提取网络的倒数第二个残差块的输出进行级联,再进行连续的六次3x3卷积操作得到尺度二上的输出32×32×3×(4+1);其中32×32是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;
3)对尺度二的倒数第二个卷积操作进行2倍上采样操作后与特征图提取网络的倒数第三个残差块的输出进行级联,再进行连续的六次3x3卷积操作得到尺度三上的输出64×64×3×(4+1),其中64×64是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度。
本发明的进一步改进在于,步骤3中,检测损失函数为:
Ltotal=-λcoordL1-L2noobjL3
式中,L1表示坐标预测损失函数;L2表示包含目标物的检测框的置信度损失;L3表示不包含目标物的检测框的置信度损失;λcoord为坐标预测损失权重;λnoobj为不包含目标的检测框的置信度损失权重;
Figure BDA0002763655320000041
Figure BDA0002763655320000042
Figure BDA0002763655320000043
其中:
Figure BDA0002763655320000044
通过判断第i个网格中的第j个检测框是否负责这个目标进行设置;xi,yi,wi,hi表示网络预测边界框的坐标偏移值;
Figure BDA0002763655320000045
表示真实边界框的坐标偏移值;
Figure BDA0002763655320000046
Figure BDA0002763655320000047
其中:
Figure BDA0002763655320000048
表示网络预测目标置信度;Ci表示真实的目标置信度值。
本发明的一种核磁共振图像中颈动脉血管中心线的提取系统,包括:
训练集获取模块,用于获取若干受试者颈动脉的T1加权MRI图像组成训练集;将训练集中每张T1加权MRI图像的颈动脉区域进行标注,获得标注后的训练集;
特征图获取模块,用于将训练集获取模块获得的标注后的训练集输入特征图提取网络,获得训练集中每张T1加权MRI图像的3种尺度的特征图;
检测网络训练及提取模块,用于将训练集中的每张T1加权MRI图像的3种尺度的特征图输入检测网络,对检测网络进行训练,获得训练好的检测网络;基于所述训练好的检测网络,实现核磁共振图像中颈动脉血管中心线的提取。
本发明的进一步改进在于,检测网络训练及提取模块中,对检测网络进行训练的过程中:
所述检测网络包括若干个卷积和上采样操作;输入3种尺度上的特征图,将特征图进行sigmoid激活,得到坐标偏移值输出和置信度输出;根据输出联合得到检测损失函数,通过检测损失函数优化预设次数初始检测结果得到最终的检测结果,完成训练;
其中,检测损失函数为:
Ltotal=-λcoordL1-L2noobjL3
式中,L1表示坐标预测损失函数;L2表示包含目标物的检测框的置信度损失;L3表示不包含目标物的检测框的置信度损失;λcoord为坐标预测损失权重;λnoobj为不包含目标的检测框的置信度损失权重;
Figure BDA0002763655320000051
Figure BDA0002763655320000052
Figure BDA0002763655320000053
其中:
Figure BDA0002763655320000054
通过判断第i个网格中的第j个检测框是否负责这个目标进行设置;xi,yi,wi,hi表示网络预测边界框的坐标偏移值;
Figure BDA0002763655320000055
表示真实边界框的坐标偏移值;
Figure BDA0002763655320000056
Figure BDA0002763655320000057
其中:
Figure BDA0002763655320000058
表示网络预测目标置信度;Ci表示真实的目标置信度值。
本发明的进一步改进在于,检测网络训练及提取模块中,根据输出联合得到检测损失函数的步骤包括:将坐标偏移值输出、置信度输出、K-means聚类得到的9种先验框结合计算得到检测损失函数;
根据K-means聚类得到的9种先验框的大小的具体方法包括:
(1)对T1加权的MRI图像训练集进行聚类,得到先验框的尺寸与数量;其中,距离函数为:
d(box,centroid)=1-IOU(box,centroid),
式中,d(box,centroid)为两个边框之间的距离;IOU(box,centroid)为预测的边框与真实的边框之间的交并比;
(2)将聚类得到的N种尺寸的先验框分配给M种尺度的特征图。
与现有技术相比,本发明具有以下有益效果:
本发明能够克服上述现有技术中存在的较难在低质量的图像中对结构复杂的血管进行定位,提取中心线的精度不高以及速度过慢的缺点。本发明将多层次网络信息进行融合,形成多尺度监测信息,能够大大提高颈动脉血管中心线提取的准确性。本检测方法不需要分析血管形态,仅仅需要把原始的颈动脉切片序列输入检测网络即可得到检测结果,很好地使用了深度神经网络,解决了深度学习如何利用于动脉血管的检测的问题,可以做到自动血管检测,在今后可为医生提供检测建议,使用方便,操作简单,实用性极强。
本发明通过对颈动脉血管核磁共振图像进行聚类,得到先验框,通过利用特征图提取网络得到颈动脉血管核磁共振图像的特征图,结合先验框和特征图,建立颈动脉血管检测网络,进而提高检测性能,检测神经网络通过利用低层网络信息生成了多种尺度上的预测结果,将低层网络信息和高层网络信息融合,增加了语义信息,提高了检测的准确率;其中,低层网络信息从T1加权MRI图像中学习几何细节信息,从特征图提取网络获得低层血管特征图,而高层网络信息从特征图中学习语义信息,增大感受野,类似于深度监督的网络,来自多个尺度的多个深度反馈即损失函数,作为一个综合评分,用于“引导”检测网络的训练。此外,
本发明中,通过检测神经网络检测核磁共振图像中颈动脉的切片序列得到坐标预测和置信度预测,采用坐标与置信度的同时预测。首先,通过聚类得到了后续检测网络生成的标定框信息,用于多尺度预测,增强网络的检测效果。其次,通过生成检测框的偏移值,克服了检测网络预测坐标值时不稳定的问题,融合了图像的聚类信息,提升了检测精度。另外,通过设计新的检测损失函数来监督网络学习,通过应用检测损失函数来制定网络中检测分支和分类分支的关系,通过一个端到端的网络,能够自动地从T1加权MRI图像中检测出颈动脉血管,基于高精度的检测结果,可以通过检测结果快捷定位出颈动脉血管的中心点,构建血管中心线模型,使用方便,操作简单,实用性极强。
本发明在英伟达Titan 2080ti,keras环境下在T1加权的MRI图像测试集上进行测试时,检测一张颈动脉图像平均仅需0.38ms,检测速度快;在T1加权的MRI图像测试集上,检测框与真实边界框的平均IOU(交并比)可达62.57%,精度较高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面对实施例或现有技术描述中所需要使用的附图做简单的介绍;显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中,检测神经网络的示意图;
图2是本发明实施例中,从T1加权MRI图像中获取标注框的示意图;
图3是本发明实施例的方法得到的T1加权MRI图像相应的检测诊断结果示意图;
图4是本发明实施例的方法得到的颈动脉血管中心线模型示意图。
具体实施方式
为使本发明实施例的目的、技术效果及技术方案更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述;显然,所描述的实施例是本发明一部分实施例。基于本发明公开的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的其它实施例,都应属于本发明保护的范围。
本发明通过对颈动脉血管核磁共振图像进行聚类,得到先验框,通过利用特征图提取网络得到颈动脉血管核磁共振图像的特征图,结合先验框和特征图,建立颈动脉血管检测网络,进而提高检测性能,检测神经网络通过利用低层网络信息生成了三种尺度上的预测结果,将低层网络信息和高层网络信息融合,增加了语义信息,提高了检测的准确率,其中,低层网络信息从T1加权MRI图像中学习几何细节信息,从特征图提取网络获得低层血管特征图,而高层网络信息从特征图中学习语义信息,增大感受野,类似于深度监督的网络,来自三个尺度的三个深度反馈即损失函数,作为一个综合评分,用于“引导”检测网络的训练。此外,本检测方法不需要分析血管形态,仅仅需要把原始的颈动脉切片序列输入检测网络即可得到检测结果,很好地使用了深度神经网络,解决了深度学习如何利用于动脉血管的检测的问题,可以做到自动血管检测,在今后可为医生提供检测建议,使用方便,操作简单,实用性极强。进一步的,通过检测神经网络检测核磁共振图像中颈动脉的切片序列得到坐标预测和置信度预测,采用坐标与置信度的同时预测,首先,通过聚类得到了后续检测网络生成的标定框信息,用于多尺度预测,增强网络的检测效果。其次,通过生成检测框的偏移值,克服了检测网络预测坐标值时不稳定的问题,融合了图像的聚类信息,提升了检测精度。另外,通过设计新的的检测损失函数来监督网络学习,通过应用检测损失函数来制定网络中检测分支和分类分支的关系,通过一个端到端的网络,能够自动地从T1加权MRI图像中检测出颈动脉血管,基于高精度的检测结果,可以通过检测结果快捷定位出颈动脉血管的中心点,构建血管中心线模型,使用方便,操作简单,实用性极强。
参见图1,本发明实施例的一种基于深度学习的核磁共振图像中颈动脉血管中心线提取方法,用于非医疗诊断目的,主要用于建模、教学或人工智能研究等,具体地说,主要用于探究深度学习方法在医学图像中的普适性,推动人工智能在医学图像中的应用,包括以下步骤:
S1:从T1加权MRI图像的每层切片上均选取标注区域Ground Truth,同时在训练中加入K-means聚类得到的九种先验框,将标注完成的MRI图像输入的特征图提取网络中。
其中,S1中根据K-means聚类得到的九种先验框的大小的具体方法为:
R1:通过距离函数如下述公式所示,对数据集进行聚类,得到先验框的尺寸与数量:
d(box,centroid)=1-IOU(box,centroid)
其中:d(box,centroid)为两个边框之间的距离;IOU(box,centroid)为预测的边框与真实的边框之间的交并比;
R2:将聚类得到的9种尺寸的先验框分配给三种尺寸的特征图,为最小的特征图分配最大尺寸的三个先验框,最大的特征图分配最小尺寸的三个先验框,依次类推。当目标物的中心点落入某个网格内时,这个网格生成的三个先验框中与目标检测框的IOU(交并比)值最大的先验框负责这个目标的检测。
S2:通过特征图提取网络对颈动脉血管图进行若干个残差组件的操作,得到提取到的特征图;每个残差组件包括若干个残差块,每个残差块操作包括连续的两次1x1和3x3卷积操作和一次3x3的步长为2的卷积操作;每次卷积操作均包括依次进行的卷积、批次归一化和线性校正。
S3:通过后续的检测网络对特征图进行若干个卷积和上采样操作,得到三种尺度上的特征图,将特征图进行sigmoid激活,得到坐标偏移值输出和置信度输出;根据输出联合构造检测损失函数,通过检测损失函数优化预设次数初始检测结果得到最终的检测结果。
检测损失函数为:
Ltotal=-λcoordL1-L2noobjL3
其中:L1表示坐标预测损失函数;L2表示包含目标物的检测框的置信度损失;L3表示不包含目标物的检测框的置信度损失;λcoord为坐标预测损失权重,取值为4;λnoobj为不包含目标的检测框的置信度损失权重,取值为0.4。L1通过下述公式得到,
Figure BDA0002763655320000101
Figure BDA0002763655320000102
Figure BDA0002763655320000103
其中:
Figure BDA0002763655320000104
取值为1,通过判断第i个网格中的第j个检测框是否负责这个目标进行设置;xi,yi,wi,hi表示网络预测边界框的坐标偏移值;
Figure BDA0002763655320000105
表示真实边界框的坐标偏移值。L2和L3通过下述公式得到,
Figure BDA0002763655320000106
Figure BDA0002763655320000107
其中:
Figure BDA0002763655320000108
表示网络预测目标置信度;Ci表示真实的目标置信度值。
其中,S3中得到三种尺度上的坐标输出和置信度输出的具体方法为:
R1:对特征图提取网络输出的特征图进行连续的六次3x3卷积操作得到尺度一上的输出16×16×3×(4+1),其中16×16是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;
R2:对尺度一的倒数第二个卷积操作进行2倍上采样操作后与特征图提取网络的倒数第二个残差块的输出进行级联,再进行连续的六次3x3卷积操作得到尺度二上的输出32×32×3×(4+1),其中32×32是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;
R3:对尺度二的倒数第二个卷积操作进行2倍上采样操作后与特征图提取网络的倒数第三个残差块的输出进行级联,再进行连续的六次3x3卷积操作得到尺度三上的输出64×64×3×(4+1),其中64×64是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;
S4:根据检测结果对血管中心点进行提取,连接每个切片的中心点得到血管中心线。
下面详细介绍本发明基于深度学习的核磁共振图像中颈动脉血管中心线提取的具体原理和设计思路:
本发明提出的一种基于深度学习的核磁共振图像中颈动脉血管中心线提取,包括多尺度预测的检测神经网络,同时本发明在网络中加入了检测损失函数对检测神经网络进行约束。具体分为以下几个部分:
构建特征图提取网络。用一个经过修改的Darknet网络融合残差网络作为特征图提取网络的主体,其中包括多个连续的残差块,共有53个卷积层。
与传统的Darknet网络相比,本发明提出的网络结构有以下三方面的不同:
(i)每个卷积层(Conv)后面是一个批次归一化(BN)和一个线性校正单元(ReLU),这里将其称为一个复合层(Conv—BN—ReLU),是构成网络的小组件。
(ii)网络中使用了多个连续的卷积核大小为3×3和1×1的复合层组合成的残差块(Res block),防止由于网络使用过多的卷积层产生的退化现象,这与之前的工作类似。
(iii)网络分别使用1个、2个、8个、8个和4个残差块在一起组成了残差组件,是构成网络的大组件。(iv)由于主要信息集中在图像中心,所以在每一个残差组件前的卷积层中都采用填充操作。因此,残差组件之前的每一个核为2×2的上采样(Upsampling)步骤都恢复到上一层残差组件中对应的特征图的大小,从而实现不裁剪的拼接操作。
采集特征图提取网络的输入。根据医生对512×512像素的T1加权MRI图像切片中颈动脉区域的标定,生成标注区域Ground Truth。由于疾病多发于颈内动脉,只对颈总动脉会分叉后的颈内动脉进行标注,忽略颈外动脉。在训练过程中加入先验框。先验框是由K-means聚类生成的9种尺寸大小的框,用于为网络预先设定检测框的大小尺寸。本发明中,K-means通过距离函数如下述公式对数据集进行聚类,得到先验框的尺寸与数量:
d(box,centroid)=1-IOU(box,centroid)
其中:d(box,centroid)为两个边框之间的距离;IOU(box,centroid)为预测的边框与真实的边框之间的交并比。将聚类得到的9种尺寸的先验框分配给三种尺寸的特征图,由于最小的特征图具有最大的感受野,因此为其分配最大的检验框,以此类推为三种尺度的特征图分配先验框,如表1所示。
表1
Figure BDA0002763655320000121
在神经网络中,目标所在的真实边框的中心点落在哪一个网格上,则这个网格负责这个目标的预测。每个网格分配有三个先验框,通过判断当前先验框与目标真实边框之间的交并比(IOU)是否是最高的,若是,则将其分配为预测此目标物。因此,每个网格最多只预测一个先验边框。一般情况下,图像中的每个目标的检测只分配给一个网格,则部分先验边框没有匹配到目标所在的真实边框,在损失函数的计算中,只计算其置信度带来的损失,而与真实边框匹配的先验边框则计算坐标误差和置信度误差。
构建检测神经网络。为了进一步有效地利用低层网络中的几何空间信息和高层网络中的语义信息,本发明开发了三个具有相同结构的但输出尺度不同的分支网络来学习所提出的特征图提取网络中的特征。其中分支网络一是对特征图提取网络输出的特征图进行连续的五次复合层(Conv-BN-ReLU)操作以及一次3×3卷积操作得到尺度一上的输出16×16×3×(4+1),其中16×16是指预测输出的特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;分支网络二对分支网络一的倒数第二个复合层操作进行2倍上采样操作后与特征图提取网络的倒数第二个残差块的输出进行级联(Concatenate),再进行连续的五次复合层(Conv-BN-ReLU)操作以及一次3×3卷积操作得到尺度二上的输出32×32×3×(4+1),其中32×32是指预测输出的特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;分支网络三是对尺度二的倒数第二个复合层操作进行2倍上采样操作后与特征图提取网络的倒数第三个残差组件的输出进行级联(Concatenate),再进行连续的五次复合层(Conv-BN-ReLU)操作以及一次3×3卷积操作得到尺度三上的输出64×64×3×(4+1),其中64×64是指预测输出的特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度。由于部分MRI图像中血管壁厚度仅为2或3个像素,因此在网络中选取的卷积核大小大多数为3×3,步长为1对图像进行处理,三个分支网络的最后都由一个sigmoid激活的神经元组成,用来生成检测颈动脉的检测框概率和置信度概率。
从三个分支网络输出得到的边界框坐标的偏移值计算为:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002763655320000131
Figure BDA0002763655320000132
其中:tx、ty、tw、th为边界框偏移值;bx、by、bw、bh是最终得到的边界框实际的坐标;cx、cy是当前网格相对于输出特征图左上角的偏移值;pw、ph为预设的先验框映射到输出的特征图上的宽和高,即对聚类得到的先验框进行比例变换(即除以32);σ(·)是在每个边界框偏移值处计算的sigmoid激活函数,是对预测的偏移值进行归一化操作。
通过检测神经网络检测颈动脉血管。利用构建的特征图提取网络和检测网络,将512×512像素的T1加权MRI图像切片输入整个网络中,结合用于最小化输出层置信度和层检测框误差的层权值的损失函数,得到颈动脉血管的检测结果。通过特征图提取网络对MRI图像进行卷积操作得到血管特征图,检测神经网络包含三个输出尺度不同的分支网络,将三个分支网络合并输出最终的预测结果,从而加强对低层网络特征和高层网络特征的融合。进一步生成检测框坐标和置信度两种输出,并利用损失为“引导”特征流学习提供深度监控。
除此之外,针对检测神经网络的损失函数,将神经网络的总体损失Ltotal定义为:
Ltotal=-λcoordL1-L2noobjL3
其中:L1表示坐标预测损失函数;L2表示包含目标物的检测框的置信度损失;L3表示不包含目标物的检测框的置信度损失;λcoord为坐标预测损失权重,取值为5;λnoobj为不包含目标的检测框的置信度损失权重,取值为0.5。由于不包含目标的检测框的置信度的真实值为0,相比于较少的包含目标物的检测框,不包含目标的检测框对网络损失的贡献更大,导致网络的不稳定和分散,因此减少不包含目标的检测框的置信度的损失权重。L1通过下述公式得到,
Figure BDA0002763655320000141
Figure BDA0002763655320000142
Figure BDA0002763655320000143
其中:为了增加小检测框预测的准确度,对检测框宽高损失做平方根误差。
Figure BDA0002763655320000144
取值为1,通过判断第i个网格中的第j个检测框是否负责这个目标进行设置;xi,yi,wi,hi表示网络预测边界框的坐标偏移值;
Figure BDA0002763655320000145
表示真实边界框的坐标偏移值;2-wi×hi相当于比例系数,当wi、hi越小的时候代表检测框的面积越小,2-wi×hi越大,小目标的检测权重越大。L2和L3通过下述公式得到,
Figure BDA0002763655320000151
Figure BDA0002763655320000152
其中:
Figure BDA0002763655320000153
表示网络预测目标置信度;Ci表示真实的目标置信度值。根据检测神经网络对颈动脉血管的检测结果,对检测框的中心点进行提取,对T1加权的颈动脉MRI图像切片的中心点进行连接,得到颈动脉血管中心线。
本发明提出的神经网络(包括基础神经网络和检测神经网络)与其他现有方法比较,可以更好地实现颈动脉血管的检测和血管中心线的三维建模。数据集包含1057个受试者的T1加权颈动脉MRI图像,涵盖了动脉粥样硬化和健康动脉的广泛范围,培养了一个具有良好可推广性的健壮的深度学习模型。本发明提出的网络可以用于临床试验,帮助放射科医生摆脱枯燥乏味的阅读任务,比如筛查性检查,快速将正常颈动脉与动脉粥样硬化动脉分开,并绘制出血管中心线拓扑模型。
参见图2,为某受试者T1加权的颈动脉MRI图像的16张切片图以及每张图对应的颈动脉外轮廓示意图:其中第1行代表的是T1加权的颈动脉MRI图像的16张切片图;第二行代表的是每张切片图对应的颈动脉外轮廓。
参见图3,为由本发明所提出的深度学习神经网络根据某受试者的左侧颈动脉T1加权MRI图像得到的相应的检测结果:图中红色的框表示的是利用所提出的深度学习神经网络得到的相应的颈动脉检测结果,由于数据集中分别包含左侧颈动脉和右侧颈动脉的MRI图像,因此在检测时,会部分检测到受试者的右侧颈动脉。
参见图4,为根据某受试者左侧颈动脉T1加权的MRI图像的检测结果得到的血管中心线三维图:红色的点代表每层颈动脉切片图的中心点,黑色的线圈部分表示每层颈动脉切片图的颈动脉外轮廓,黑色的虚线代表颈动脉血管的中心线。
与传统的半自动的颈动脉中心线提取方法不同,提出了一种高效且全自动的血管中心线提取方法,实现T1加权的MRI图像上颈动脉血管的检测,使用特征图提取网络中的复合层来学习每个CNN分层流的层次特征,另外,通过将卷积核大小不同的复合层组合在一起形成残差块,设计新的残差组合来防止网络发生退化,增强网络的学习能力,最后,得到颈动脉血管的特征图。将输出的颈动脉的特征图到检测神经网络,通过引入的检测神经网络以预测T1加权MRI图像上的颈动脉检测框和置信度。为了利用低层网络和高层网络的特征进行预测,构建三个相同结构不同尺度的分支网络,分别对不同层次的网络输出进行处理,得到不同尺度上的坐标和置信度输出。类似于深度监督的网络,来自三个流的两个额外的深度反馈(即,损失)用于“引导”早期流特征学习。本发明提出的深度学习神经网络是一个整体和端到端网络,克服了传统方法面对庞大的数据集检测速度缓慢的问题,可以在测试数据集上实现有前途的检测性能,包括来自与训练数据集相同的来源的不可见主体。本发明深度学习神经网络对二维颈动脉血管区域进行检测,并对颈动脉血管中心线进行提取,其中利用多分支网络对不同层次网络信息进行融合,自动检测颈动脉血管区域,使用方便,操作简单,实用性极强。
本发明公开了一种基于深度学习的核磁共振图像中的颈动脉血管中心线的提取,包括以下步骤:S1:从T1加权MRI图像的每层切片上均选取标注区域,同时在训练中加入K-means聚类得到的九种先验框,将标注完成的MRI图像输入的特征图提取网络中;S2:通过特征图提取网络对颈动脉血管图进行若干个残差组件的操作,得到提取到的特征图;S3:通过检测网络得到三种尺度上的特征图,将特征图进行sigmoid激活,得到坐标偏移值输出和置信度输出,通过检测损失函数优化预设次数初始检测结果得到最终的检测结果;S4:根据检测结果对血管中心点进行提取,连接每个切片的中心点得到血管中心线。本发明将多层次网络信息进行融合,形成多尺度监测信息,大大提高了颈动脉血管中心线提取的准确性。
以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员依然可以对本发明的具体实施方式进行修改或者等同替换,这些未脱离本发明精神和范围的任何修改或者等同替换,均在申请待批的本发明的权利要求保护范围之内。

Claims (5)

1.一种核磁共振图像中颈动脉血管中心线的提取方法,用于非疾病诊断目的,其特征在于,包括以下步骤:
步骤1,获取若干受试者颈动脉的T1加权MRI图像组成训练集;将训练集中每张T1加权MRI图像的颈动脉区域进行标注,获得标注后的训练集;
步骤2,将步骤1获得的标注后的训练集输入特征图提取网络,获得训练集中每张T1加权MRI图像的3种尺度的特征图;
步骤3,将训练集中的每张T1加权MRI图像的3种尺度的特征图输入检测网络,对检测网络进行训练,获得训练好的检测网络;基于所述训练好的检测网络,实现核磁共振图像中颈动脉血管中心线的提取;
其中,步骤3中,对检测网络进行训练的过程中:所述检测网络包括若干个卷积和上采样操作;输入3种尺度上的特征图,将特征图进行sigmoid激活,得到坐标偏移值输出和置信度输出;根据输出联合得到检测损失函数,通过检测损失函数优化预设次数初始检测结果得到最终的检测结果,完成训练;步骤3中,根据输出联合得到检测损失函数的步骤包括:将坐标偏移值输出、置信度输出、K-means聚类得到的9种先验框结合计算得到检测损失函数;
根据K-means聚类得到的9种先验框的大小的具体方法包括:
(1)对T1加权的MRI图像训练集进行聚类,得到先验框的尺寸与数量;其中,距离函数为:
d(box,centroid)=1-IOU(box,centroid),
式中,d(box,centroid)为两个边框之间的距离;IOU(box,centroid)为预测的边框与真实的边框之间的交并比;
(2)将聚类得到的N种尺寸的先验框分配给M种尺度的特征图;
步骤3中,检测损失函数为:
Ltotal=-λcoordL1-L2noobjL3
式中,L1表示坐标预测损失函数;L2表示包含目标物的检测框的置信度损失;L3表示不包含目标物的检测框的置信度损失;λcoord为坐标预测损失权重;λnoobj为不包含目标的检测框的置信度损失权重;
Figure FDA0004103789450000021
Figure FDA0004103789450000022
Figure FDA0004103789450000023
其中:
Figure FDA0004103789450000024
通过判断第i个网格中的第j个检测框是否负责这个目标进行设置;xi,yi,wi,hi表示网络预测边界框的坐标偏移值;
Figure FDA0004103789450000025
表示真实边界框的坐标偏移值;
Figure FDA0004103789450000026
Figure FDA0004103789450000027
其中:
Figure FDA0004103789450000028
表示网络预测目标置信度;Ci表示真实的目标置信度值。
2.根据权利要求1所述的一种核磁共振图像中颈动脉血管中心线的提取方法,其特征在于,步骤2中,所述特征图提取网络为Darknet-53。
3.根据权利要求1所述的一种核磁共振图像中颈动脉血管中心线的提取方法,其特征在于,为最小尺度的特征图分配最大尺寸的三个先验框,最大尺度的特征图分配最小尺寸的三个先验框,为中间尺度的特征图分配中间尺寸的三个先验框;其中,当目标物的中心点落入某个网格内时,这个网格生成的三个先验框中与目标检测框的IOU值最大的先验框负责这个目标的检测。
4.根据权利要求3所述的一种核磁共振图像中颈动脉血管中心线的提取方法,其特征在于,步骤3中,得到坐标偏移值输出和置信度输出的具体步骤包括:
1)对特征图提取网络输出的特征图进行连续的六次3x3卷积操作得到尺度一上的输出16×16×3×(4+1);其中,16×16是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;
2)对尺度一的倒数第二个卷积操作进行2倍上采样操作后与特征图提取网络的倒数第二个残差块的输出进行级联,再进行连续的六次3x3卷积操作得到尺度二上的输出32×32×3×(4+1);其中32×32是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度;
3)对尺度二的倒数第二个卷积操作进行2倍上采样操作后与特征图提取网络的倒数第三个残差块的输出进行级联,再进行连续的六次3x3卷积操作得到尺度三上的输出64×64×3×(4+1),其中64×64是指特征图大小,3是指为每张特征图分配的三种先验框,4是指边界框偏移值,1是指目标预测置信度。
5.一种核磁共振图像中颈动脉血管中心线的提取系统,其特征在于,包括:
训练集获取模块,用于获取若干受试者颈动脉的T1加权MRI图像组成训练集;将训练集中每张T1加权MRI图像的颈动脉区域进行标注,获得标注后的训练集;
特征图获取模块,用于将训练集获取模块获得的标注后的训练集输入特征图提取网络,获得训练集中每张T1加权MRI图像的3种尺度的特征图;
检测网络训练及提取模块,用于将训练集中的每张T1加权MRI图像的3种尺度的特征图输入检测网络,对检测网络进行训练,获得训练好的检测网络;基于所述训练好的检测网络,实现核磁共振图像中颈动脉血管中心线的提取;
检测网络训练及提取模块中,对检测网络进行训练的过程中:
所述检测网络包括若干个卷积和上采样操作;输入3种尺度上的特征图,将特征图进行sigmoid激活,得到坐标偏移值输出和置信度输出;根据输出联合得到检测损失函数,通过检测损失函数优化预设次数初始检测结果得到最终的检测结果,完成训练;
其中,检测损失函数为:
Ltotal=-λcoordL1-L2noobjL3
式中,L1表示坐标预测损失函数;L2表示包含目标物的检测框的置信度损失;L3表示不包含目标物的检测框的置信度损失;λcoord为坐标预测损失权重;λnoobj为不包含目标的检测框的置信度损失权重;
Figure FDA0004103789450000041
Figure FDA0004103789450000042
Figure FDA0004103789450000043
其中:
Figure FDA0004103789450000044
通过判断第i个网格中的第j个检测框是否负责这个目标进行设置;xi,yi,wi,hi表示网络预测边界框的坐标偏移值;
Figure FDA0004103789450000045
表示真实边界框的坐标偏移值;
Figure FDA0004103789450000046
Figure FDA0004103789450000047
其中:
Figure FDA0004103789450000048
表示网络预测目标置信度;Ci表示真实的目标置信度值;
检测网络训练及提取模块中,根据输出联合得到检测损失函数的步骤包括:将坐标偏移值输出、置信度输出、K-means聚类得到的9种先验框结合计算得到检测损失函数;
根据K-means聚类得到的9种先验框的大小的具体方法包括:
(1)对T1加权的MRI图像训练集进行聚类,得到先验框的尺寸与数量;其中,距离函数为:
d(box,centroid)=1-IOU(box,centroid),
式中,d(box,centroid)为两个边框之间的距离;IOU(box,centroid)为预测的边框与真实的边框之间的交并比;
(2)将聚类得到的N种尺寸的先验框分配给M种尺度的特征图。
CN202011225935.1A 2020-11-05 2020-11-05 一种核磁共振图像中颈动脉血管中心线的提取方法及系统 Active CN112529839B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011225935.1A CN112529839B (zh) 2020-11-05 2020-11-05 一种核磁共振图像中颈动脉血管中心线的提取方法及系统
PCT/CN2021/118869 WO2022095612A1 (zh) 2020-11-05 2021-09-16 一种核磁共振图像中颈动脉血管中心线的提取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011225935.1A CN112529839B (zh) 2020-11-05 2020-11-05 一种核磁共振图像中颈动脉血管中心线的提取方法及系统

Publications (2)

Publication Number Publication Date
CN112529839A CN112529839A (zh) 2021-03-19
CN112529839B true CN112529839B (zh) 2023-05-02

Family

ID=74979699

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011225935.1A Active CN112529839B (zh) 2020-11-05 2020-11-05 一种核磁共振图像中颈动脉血管中心线的提取方法及系统

Country Status (2)

Country Link
CN (1) CN112529839B (zh)
WO (1) WO2022095612A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529839B (zh) * 2020-11-05 2023-05-02 西安交通大学 一种核磁共振图像中颈动脉血管中心线的提取方法及系统
CN114359205B (zh) * 2021-12-29 2022-11-01 推想医疗科技股份有限公司 头颈血管分析方法、装置、存储介质及电子设备
CN114972720B (zh) * 2022-05-30 2024-02-20 西北工业大学 一种基于自主图像感知的高精度无人定位方法
CN114998840B (zh) * 2022-07-18 2022-11-29 成都东方天呈智能科技有限公司 一种基于深度级联有监督学习的老鼠目标检测方法
CN115049639B (zh) * 2022-07-21 2024-04-26 浙江理工大学 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法
CN115239688B (zh) * 2022-08-09 2024-03-12 四川大学华西医院 基于磁共振对比增强3d-t1wi图像的脑转移瘤识别方法与系统
CN116310390B (zh) * 2023-05-17 2023-08-18 上海仙工智能科技有限公司 一种空心目标的视觉检测方法及系统、库位管理系统
CN116452992B (zh) * 2023-05-18 2024-02-02 山东省人工智能研究院 一种最小路径管状结构中心线的提取方法
CN116823833B (zh) * 2023-08-30 2023-11-10 山东科技大学 全方位mip图像颅内动脉瘤检测方法、系统及设备
CN117994251A (zh) * 2024-04-03 2024-05-07 华中科技大学同济医学院附属同济医院 基于人工智能的糖尿病足溃疡严重程度评估方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1700254A (zh) * 2004-05-06 2005-11-23 西门子共同研究公司 动脉-静脉分离及脉管建模
CN106875375A (zh) * 2016-12-28 2017-06-20 浙江工业大学 基于管状特征增强滤波和脊线跟踪的三维血管中轴线提取方法
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN109948647A (zh) * 2019-01-24 2019-06-28 西安交通大学 一种基于深度残差网络的心电图分类方法及系统
CN110751077A (zh) * 2019-10-15 2020-02-04 武汉大学 一种基于部件匹配与距离约束的光学遥感图片船舶检测方法
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN111340789A (zh) * 2020-02-29 2020-06-26 平安科技(深圳)有限公司 眼底视网膜血管识别及量化方法、装置、设备及存储介质
CN111882002A (zh) * 2020-08-06 2020-11-03 桂林电子科技大学 一种基于msf-am的低照度目标检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129417B2 (en) * 2012-02-21 2015-09-08 Siemens Aktiengesellschaft Method and system for coronary artery centerline extraction
US11471063B2 (en) * 2016-11-10 2022-10-18 Auburn University Information processing method, device, and system for evaluating blood vessels
US20190205758A1 (en) * 2016-12-30 2019-07-04 Konica Minolta Laboratory U.S.A., Inc. Gland segmentation with deeply-supervised multi-level deconvolution networks
CN109087306A (zh) * 2018-06-28 2018-12-25 众安信息技术服务有限公司 动脉血管图像模型训练方法、分割方法、装置及电子设备
CN109815886B (zh) * 2019-01-21 2020-12-18 南京邮电大学 一种基于改进YOLOv3的行人和车辆检测方法及系统
CN111310862B (zh) * 2020-03-27 2024-02-09 西安电子科技大学 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN112529839B (zh) * 2020-11-05 2023-05-02 西安交通大学 一种核磁共振图像中颈动脉血管中心线的提取方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1700254A (zh) * 2004-05-06 2005-11-23 西门子共同研究公司 动脉-静脉分离及脉管建模
CN106875375A (zh) * 2016-12-28 2017-06-20 浙江工业大学 基于管状特征增强滤波和脊线跟踪的三维血管中轴线提取方法
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN109948647A (zh) * 2019-01-24 2019-06-28 西安交通大学 一种基于深度残差网络的心电图分类方法及系统
CN110751077A (zh) * 2019-10-15 2020-02-04 武汉大学 一种基于部件匹配与距离约束的光学遥感图片船舶检测方法
CN111340789A (zh) * 2020-02-29 2020-06-26 平安科技(深圳)有限公司 眼底视网膜血管识别及量化方法、装置、设备及存储介质
CN111882002A (zh) * 2020-08-06 2020-11-03 桂林电子科技大学 一种基于msf-am的低照度目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Andre's M. Arias-Lorza etal..Cooperative carotid artery centerline extraction in MRI.《https://doi.org/10.1371/journal.pone.0197180》.2018, *
颈动脉磁共振图像的血管中心线提取;程诗音等;《中国体视学与图形分析》;20161231;第21卷(第4期);全文 *

Also Published As

Publication number Publication date
CN112529839A (zh) 2021-03-19
WO2022095612A1 (zh) 2022-05-12

Similar Documents

Publication Publication Date Title
CN112529839B (zh) 一种核磁共振图像中颈动脉血管中心线的提取方法及系统
US9968257B1 (en) Volumetric quantification of cardiovascular structures from medical imaging
CN110853051B (zh) 基于多注意密集连接生成对抗网络的脑血管影像分割方法
CN110475505A (zh) 利用全卷积网络的自动分割
CN111369528B (zh) 基于深度卷积网络的冠状动脉血管造影图像狭窄区域标示方法
CN112884788B (zh) 基于丰富上下文网络的视杯视盘分割方法及成像方法
CN114926477A (zh) 一种基于深度学习的脑肿瘤多模态mri影像分割方法
Sofian et al. Calcification detection using convolutional neural network architectures in intravascular ultrasound images
Shan et al. SCA-Net: A spatial and channel attention network for medical image segmentation
Guo CSGNet: Cascade semantic guided net for retinal vessel segmentation
Banerjee et al. A CADe system for gliomas in brain MRI using convolutional neural networks
Meng et al. Automatic extraction of coronary arteries using deep learning in invasive coronary angiograms
CN112686899B (zh) 医学图像分析方法和装置、计算机设备及存储介质
Gulati et al. Comparative analysis of deep learning approaches for the diagnosis of diabetic retinopathy
CN110992309B (zh) 基于深层信息传递网络的眼底图像分割方法
Yuan et al. Fully automatic segmentation of the left ventricle using multi-scale fusion learning
CN116664592A (zh) 基于图像的动静脉血管分离方法、装置、电子设备及介质
Wang et al. AVDNet: Joint coronary artery and vein segmentation with topological consistency
CN116309615A (zh) 一种多模态mri脑肿瘤图像分割方法
CN114897057A (zh) 基于多模态数据融合的阴虚证智能诊断系统、方法、设备
Liu et al. One-stage attention-based network for image classification and segmentation on optical coherence tomography image
CN113902738A (zh) 一种心脏mri分割方法及系统
CN114332072A (zh) 一种主动脉夹层疾病分型方法和装置、存储介质
Alam et al. Early detection of coronary artery blockage using image processing: segmentation, quantification, identification of degree of blockage and risk factors of heart attack
CN112614092A (zh) 脊柱检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant