CN109146993A - 一种医学图像融合方法及系统 - Google Patents
一种医学图像融合方法及系统 Download PDFInfo
- Publication number
- CN109146993A CN109146993A CN201811058185.6A CN201811058185A CN109146993A CN 109146993 A CN109146993 A CN 109146993A CN 201811058185 A CN201811058185 A CN 201811058185A CN 109146993 A CN109146993 A CN 109146993A
- Authority
- CN
- China
- Prior art keywords
- image
- soft tissue
- area
- ultrasound image
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000002604 ultrasonography Methods 0.000 claims abstract description 79
- 210000004872 soft tissue Anatomy 0.000 claims abstract description 71
- 210000001519 tissue Anatomy 0.000 claims abstract description 48
- 238000002156 mixing Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims description 47
- 238000013135 deep learning Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 5
- 238000009206 nuclear medicine Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000005303 weighing Methods 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 208000010392 Bone Fractures Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000000537 nasal bone Anatomy 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种医学图像融合方法及系统,该方法包括:获取已配准的CT图像和超声图像;对CT图像和超声图像中的硬组织部位的分界轮廓进行标注,分界轮廓将CT图像和超声图像划分为硬组织部位区域、硬软组织边界区域和软组织部位区域;获取与硬组织部位区域、硬软组织边界区域和软组织部位区域分别对应的区域权值对(μ1,μ2);分别计算硬组织部位区域、硬软组织边界区域和软组织部位区域的加权融合后图像的像素灰度值X,以生成融合图像。本发明实施例提供的技术方案,具有位移不变性,在图像配准不够精确时也不会使融合图像失真,有利于应用推广,不会出现明显的拼接痕迹和丢失边缘轮廓等信息,增强了图像的细节和清晰度,使融合图像的信息更全面、更精准。
Description
技术领域
本发明实施例涉及医学图像处理技术领域,尤其涉及一种医学图像融合方法及系统。
背景技术
核医学设备(主要包括正电子发射断层显像设备PET和磁共振成像设备MRI)和X射线计算机断层摄影装置CT分别通过获取患者的功能和解剖图像用于疾病诊断,是现代影像诊断医学中常用的两种成像模式。随着医疗技术的飞速发展、核医学设备技术的不断进步,目前市场上主流的核医学设备都是多模式融合,主要是PET/CT和MRI/CT。由于核医学设备的空间分辨力比较差,需要借助CT图像进行定位等,临床医生需要把核医学图像和CT图像融合起来进行医学诊断,然而MRI影像和PET影像的成本较为昂贵,并不利于应用推广。
CT一般对人体硬组织成像效果较好,广泛应用于鼻骨骨折诊断、头颅诊断、口腔医学等领域。但CT对软组织成像效果较差,影像分辨率较低;超声则一般对人体软组织成像效果较好,而对一些硬组织成像效果不是很好,如因骨组织的声抗远大于软组织,超声对于骨组织的成像效果较差。然而,在医学领域中的检测目标区域往往是软组织和硬组织的结合体,因此单一的CT影像或超声影像很难使医生获取待检测目标区域的精准影像信息。
图像融合的级别可分为像素级、特征级和决策级三种。目前,图像融合的研究主要集中在像素级图像融合方面。在像素级图像融合中小波变换是当前最重要,最常用的方法。基于小波变换的图像融合:对源图像进行小波变换,将其分解在不同频率段的不同特征域上,然后在不同的特征域内进行融合,再用小波逆变换得到融合图像的过程,但由于小波变换不具有位移不变性,若图像未经过良好的配准便会使融合图像失真。此外,加权平均法也是医学图像融合常用的融合方法之一,加权平均法是对每个源图像之间对应的像素灰度值加权平均的,其优点是运算量小,但不可避免的也存在一定的问题,普通加权平均法容易使图像中的边缘、轮廓等信息丢失,而且在融合源图像灰度差异较大的情况下,容易出现明显的拼接痕迹。
发明内容
本发明提供一种医学图像融合方法及系统,以解决现有技术的不足。
为实现上述目的,本发明提供以下的技术方案:
第一方面,本发明实施例提供一种医学图像融合方法,所述方法包括:
获取已配准的CT图像和超声图像;
采用深度学习训练模型对所述CT图像中的硬组织部位的分界轮廓进行标注,并基于配准关系对所述超声图像中的硬组织部位的分界轮廓同步进行标注,所述分界轮廓将所述CT图像和超声图像中所述分界轮廓所在的图像区域划分为硬组织部位区域、硬软组织边界区域和软组织部位区域;其中,硬软组织边界区域为以分界轮廓为中心,ε为半径的环带状区域;
获取与所述硬组织部位区域、硬软组织边界区域和软组织部位区域分别对应的区域权值对(μ1,μ2);其中,μ1为所述CT图像的权值,μ2为所述超声图像的权值,μ1+μ2=1;
根据如下公式分别计算所述硬组织部位区域、硬软组织边界区域和软组织部位区域的加权融合后图像的像素灰度值X,以生成融合图像:
X=μ1X1+μ2X2;
其中,X1为所述CT图像的像素灰度值,X2为所述超声图像的像素灰度值。
进一步地,所述医学图像融合方法中,所述获取已配准的CT图像和超声图像的步骤包括:
利用CT系统和超声系统分别对待测物体的同一截面成像,得到CT图像和超声图像;
在所述CT图像和超声图像上分别选取特征点,并根据所述特征点将所述CT图像和超声图像在空间上点点对应,使得待测物体在所述CT图像和超声图像上具备相同的坐标位置。
进一步地,所述医学图像融合方法中,所述方法还包括:建立深度学习训练模型,所述建立深度学习训练模型的步骤包括:
获取训练样本,所述训练样本由人工标注获得;
根据训练样本对预设的训练模型进行训练,得到深度学习训练模型。
进一步地,所述医学图像融合方法中,所述硬组织部位区域的权值对为(1,0),所述软组织区域的权值对为(0,1),所述硬软组织边界区域的权值对为
其中,s为以分界轮廓中心为原点建立的坐标系上的任意一点的坐标。
第二方面,本发明实施例还提供一种医学图像融合系统,所述系统包括:
图像获取模块,用于获取已配准的CT图像和超声图像;
轮廓标注模块,用于采用深度学习训练模型对所述CT图像中的硬组织部位的分界轮廓进行标注,并基于配准关系对所述超声图像中的硬组织部位的分界轮廓同步进行标注,所述分界轮廓将所述CT图像和超声图像中所述分界轮廓所在的图像区域划分为硬组织部位区域、硬软组织边界区域和软组织部位区域;其中,硬软组织边界区域为以分界轮廓为中心,ε为半径的环带状区域;
权值获取模块,用于获取与所述硬组织部位区域、硬软组织边界区域和软组织部位区域分别对应的区域权值对(μ1,μ2);其中,μ1为所述CT图像的权值,μ2为所述超声图像的权值,μ1+μ2=1;
计算融合模块,用于根据如下公式分别计算所述硬组织部位区域、硬软组织边界区域和软组织部位区域的加权融合后图像的像素灰度值X,以生成融合图像:
X=μ1X1+μ2X2;
其中,X1为所述CT图像的像素灰度值,X2为所述超声图像的像素灰度值。
进一步地,所述医学图像融合系统中,所述图像获取模块包括:
物体成像单元,用于利用CT系统和超声系统分别对待测物体的同一截面成像,得到CT图像和超声图像;
图像配准单元,用于在所述CT图像和超声图像上分别选取特征点,并根据所述特征点将所述CT图像和超声图像在空间上点点对应,使得待测物体在所述CT图像和超声图像上具备相同的坐标位置。
进一步地,所述医学图像融合系统中,所述系统还包括:模型建立模块,用于建立深度学习训练模型,所述模型建立模块包括:
样本获取单元,用于获取训练样本,所述训练样本由人工标注获得;
模型训练单元,用于根据训练样本对预设的训练模型进行训练,得到深度学习训练模型。
进一步地,所述医学图像融合系统中,所述硬组织部位区域的权值对为(1,0),所述软组织区域的权值对为(0,1),所述硬软组织边界区域的权值对为
其中,s为以分界轮廓中心为原点建立的坐标系上的任意一点的坐标。
本发明实施例提供的一种医学图像融合方法及系统,通过分块区域特征加权的方法进行超声图像与CT图像的图像融合,该方法具有位移不变性,在图像配准不够精确时也不会使融合图像失真,且由于超声图像成本较低,CT图像和超声图像的图像融合有利于应用推广;此外,通过设置各区域的对应的合适权值,可促进融合图像的效果,使融合图像不会出现明显的拼接痕迹和丢失边缘轮廓等信息,增强了图像的细节和清晰度,使融合图像的信息更全面、更精准。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例一提供的一种医学图像融合方法的流程示意图;
图2是本发明实施例一提供的硬软组织边界区域微元的示意图;
图3是本发明实施例一提供的以分界轮廓中心为原点建立一维坐标系的示意图;
图4是本发明实施例一提供的设置区域权值对的流程示意图;
图5是本发明实施例二提供的一种医学图像融合系统的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
基于CT图像对硬组织成像效果好,对软组织成像效果较差,而超声则相反,对软组织成像效果好,对于硬组织的成像效果较差。因此发明人认为可以充分利用CT图像和超声图像在不同的局部区域具有不同的成像优势,从而觉得可以以图像的某一区域特征作为衡量标准。从而在图像融合时,应该给特征优势较大的待融合图像分配一个较大的权值,即对于硬组织部位,为CT图像分配一个较大的权值,超声图像的权值相应的较小;而对于软组织部位,为超声图像分配一个较大的权值,CT图像的权值相应的较小;而在硬软组织的分界区域分别为CT图像和超声图像分配合适的权值,这是为了使融合图像在硬软组织分界处平滑而不至于产生伪影。由此得到的CT超声融合图像能够“取长补短”,最大限度的综合CT图像和超声图像各自的优势,使融合图像的信息更全面、更精准。
请参阅附图1,为本发明实施例一提供的医学图像融合方法的流程示意图,该方法适用于将两医学图像融合起来进行医学诊断的场景,该方法由医学图像融合系统来执行,该系统可以由软件和/或硬件实现。该方法具体包括如下步骤:
S101、获取已配准的CT图像和超声图像。
具体的,S101进一步包括:
(1)利用CT系统和超声系统分别对待测物体的同一截面成像,得到CT图像和超声图像;
(2)在所述CT图像和超声图像上分别选取特征点,并根据所述特征点将所述CT图像和超声图像在空间上点点对应,使得待测物体在所述CT图像和超声图像上具备相同的坐标位置。
S102、采用深度学习训练模型对所述CT图像中的硬组织部位的分界轮廓进行标注,并基于配准关系对所述超声图像中的硬组织部位的分界轮廓同步进行标注,所述分界轮廓将所述CT图像和超声图像中所述分界轮廓所在的图像区域划分为硬组织部位区域、硬软组织边界区域和软组织部位区域;其中,硬软组织边界区域为以分界轮廓为中心,ε为半径的环带状区域。
优选的,所述方法还包括:建立深度学习训练模型,所述建立深度学习训练模型的步骤包括:
获取训练样本,所述训练样本由人工标注获得;
根据训练样本对预设的训练模型进行训练,得到深度学习训练模型。
具体的,训练样本是由本领域的专家人工进行标注。
S103、获取与所述硬组织部位区域、硬软组织边界区域和软组织部位区域分别对应的区域权值对(μ1,μ2);其中,μ1为所述CT图像的权值,μ2为所述超声图像的权值,μ1+μ2=1。
在本发明实施中,所述硬组织部位区域的权值对为(1,0),所述软组织区域的权值对为(0,1),所述硬软组织边界区域的权值对为
其中,s为以分界轮廓中心为原点建立的坐标系上的任意一点的坐标。
具体的,通过定义CT图像的像素灰度值为X1,超声图像的像素灰度值为X2,μ1为CT图像的权值,μ2为超声图像的权值,其中,μ1+μ2=1,则CT图像和超声图像在同一局部区域的权值对为(μ1,μ2)。在硬组织区域的权值对为(1,0),软组织区域的权值对为(0,1),硬软组织边界区域是以分界曲线为中心,ε为半径的环带状区域,其权值对设置为(ω1,ω2),取一段硬软组织边界区域微元,如图2所示,以分界轮廓中心为原点建立一维坐标系,选取S(S为坐标系上的任意一点),设其坐标为s,如图3所示,为使硬软组织边界区域平滑过渡,令权值对由(1,0)均匀变化为(0,1),则有即权值对为设置区域权值对的流程图如图4所示。
S104、根据如下公式分别计算所述硬组织部位区域、硬软组织边界区域和软组织部位区域的加权融合后图像的像素灰度值X,以生成融合图像:
X=μ1X1+μ2X2;
其中,X1为所述CT图像的像素灰度值,X2为所述超声图像的像素灰度值。
本发明实施例提供的一种医学图像融合方法,通过分块区域特征加权的方法进行超声图像与CT图像的图像融合,该方法具有位移不变性,在图像配准不够精确时也不会使融合图像失真,且由于超声图像成本较低,CT图像和超声图像的图像融合有利于应用推广;此外,通过设置各区域的对应的合适权值,可促进融合图像的效果,使融合图像不会出现明显的拼接痕迹和丢失边缘轮廓等信息,增强了图像的细节和清晰度,使融合图像的信息更全面、更精准。
实施例二
请参阅附图5,为本发明实施例二提供的一种医学图像融合系统的结构示意图,该系统适用于执行本发明实施例提供的医学图像融合方法。该系统具体包含如下模块:
图像获取模块21,用于获取已配准的CT图像和超声图像;
轮廓标注模块22,用于采用深度学习训练模型对所述CT图像中的硬组织部位的分界轮廓进行标注,并基于配准关系对所述超声图像中的硬组织部位的分界轮廓同步进行标注,所述分界轮廓将所述CT图像和超声图像中所述分界轮廓所在的图像区域划分为硬组织部位区域、硬软组织边界区域和软组织部位区域;其中,硬软组织边界区域为以分界轮廓为中心,ε为半径的环带状区域;
权值获取模块23,用于获取与所述硬组织部位区域、硬软组织边界区域和软组织部位区域分别对应的区域权值对(μ1,μ2);其中,μ1为所述CT图像的权值,μ2为所述超声图像的权值,μ1+μ2=1;
计算融合模块24,用于根据如下公式分别计算所述硬组织部位区域、硬软组织边界区域和软组织部位区域的加权融合后图像的像素灰度值X,以生成融合图像:
X=μ1X1+μ2X2;
其中,X1为所述CT图像的像素灰度值,X2为所述超声图像的像素灰度值。
优选的,所述图像获取模块包括:
物体成像单元,用于利用CT系统和超声系统分别对待测物体的同一截面成像,得到CT图像和超声图像;
图像配准单元,用于在所述CT图像和超声图像上分别选取特征点,并根据所述特征点将所述CT图像和超声图像在空间上点点对应,使得待测物体在所述CT图像和超声图像上具备相同的坐标位置。
优选的,所述系统还包括:模型建立模块,用于建立深度学习训练模型,所述模型建立模块包括:
样本获取单元,用于获取训练样本,所述训练样本由人工标注获得;
模型训练单元,用于根据训练样本对预设的训练模型进行训练,得到深度学习训练模型。
优选的,所述硬组织部位区域的权值对为(1,0),所述软组织区域的权值对为(0,1),所述硬软组织边界区域的权值对为
其中,s为以分界轮廓中心为原点建立的坐标系上的任意一点的坐标。
本发明实施例提供的一种医学图像融合系统,通过分块区域特征加权的方法进行超声图像与CT图像的图像融合,该方法具有位移不变性,在图像配准不够精确时也不会使融合图像失真,且由于超声图像成本较低,CT图像和超声图像的图像融合有利于应用推广;此外,通过设置各区域的对应的合适权值,可促进融合图像的效果,使融合图像不会出现明显的拼接痕迹和丢失边缘轮廓等信息,增强了图像的细节和清晰度,使融合图像的信息更全面、更精准。
上述系统可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种医学图像融合方法,其特征在于,包括:
获取已配准的CT图像和超声图像;
采用深度学习训练模型对所述CT图像中的硬组织部位的分界轮廓进行标注,并基于配准关系对所述超声图像中的硬组织部位的分界轮廓同步进行标注,所述分界轮廓将所述CT图像和超声图像中所述分界轮廓所在的图像区域划分为硬组织部位区域、硬软组织边界区域和软组织部位区域;其中,硬软组织边界区域为以分界轮廓为中心,ε为半径的环带状区域;
获取与所述硬组织部位区域、硬软组织边界区域和软组织部位区域分别对应的区域权值对(μ1,μ2);其中,μ1为所述CT图像的权值,μ2为所述超声图像的权值,μ1+μ2=1;
根据如下公式分别计算所述硬组织部位区域、硬软组织边界区域和软组织部位区域的加权融合后图像的像素灰度值X,以生成融合图像:
X=μ1X1+μ2X2;
其中,X1为所述CT图像的像素灰度值,X2为所述超声图像的像素灰度值。
2.根据权利要求1所述的医学图像融合方法,其特征在于,所述获取已配准的CT图像和超声图像的步骤包括:
利用CT系统和超声系统分别对待测物体的同一截面成像,得到CT图像和超声图像;
在所述CT图像和超声图像上分别选取特征点,并根据所述特征点将所述CT图像和超声图像在空间上点点对应,使得待测物体在所述CT图像和超声图像上具备相同的坐标位置。
3.根据权利要求1所述的医学图像融合方法,其特征在于,所述方法还包括:建立深度学习训练模型,所述建立深度学习训练模型的步骤包括:
获取训练样本,所述训练样本由人工标注获得;
根据训练样本对预设的训练模型进行训练,得到深度学习训练模型。
4.根据权利要求1所述的医学图像融合方法,其特征在于:
所述硬组织部位区域的权值对为(1,0),所述软组织区域的权值对为(0,1),所述硬软组织边界区域的权值对为
其中,s为以分界轮廓中心为原点建立的坐标系上的任意一点的坐标。
5.一种医学图像融合系统,其特征在于,包括:
图像获取模块,用于获取已配准的CT图像和超声图像;
轮廓标注模块,用于采用深度学习训练模型对所述CT图像中的硬组织部位的分界轮廓进行标注,并基于配准关系对所述超声图像中的硬组织部位的分界轮廓同步进行标注,所述分界轮廓将所述CT图像和超声图像中所述分界轮廓所在的图像区域划分为硬组织部位区域、硬软组织边界区域和软组织部位区域;其中,硬软组织边界区域为以分界轮廓为中心,ε为半径的环带状区域;
权值获取模块,用于获取与所述硬组织部位区域、硬软组织边界区域和软组织部位区域分别对应的区域权值对(μ1,μ2);其中,μ1为所述CT图像的权值,μ2为所述超声图像的权值,μ1+μ2=1;
计算融合模块,用于根据如下公式分别计算所述硬组织部位区域、硬软组织边界区域和软组织部位区域的加权融合后图像的像素灰度值X,以生成融合图像:
X=μ1X1+μ2X2;
其中,X1为所述CT图像的像素灰度值,X2为所述超声图像的像素灰度值。
6.根据权利要求5所述的医学图像融合系统,其特征在于,所述图像获取模块包括:
物体成像单元,用于利用CT系统和超声系统分别对待测物体的同一截面成像,得到CT图像和超声图像;
图像配准单元,用于在所述CT图像和超声图像上分别选取特征点,并根据所述特征点将所述CT图像和超声图像在空间上点点对应,使得待测物体在所述CT图像和超声图像上具备相同的坐标位置。
7.根据权利要求5所述的医学图像融合系统,其特征在于,所述系统还包括:模型建立模块,用于建立深度学习训练模型,所述模型建立模块包括:
样本获取单元,用于获取训练样本,所述训练样本由人工标注获得;
模型训练单元,用于根据训练样本对预设的训练模型进行训练,得到深度学习训练模型。
8.根据权利要求5所述的医学图像融合系统,其特征在于:
所述硬组织部位区域的权值对为(1,0),所述软组织区域的权值对为(0,1),所述硬软组织边界区域的权值对为
其中,s为以分界轮廓中心为原点建立的坐标系上的任意一点的坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811058185.6A CN109146993B (zh) | 2018-09-11 | 2018-09-11 | 一种医学图像融合方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811058185.6A CN109146993B (zh) | 2018-09-11 | 2018-09-11 | 一种医学图像融合方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109146993A true CN109146993A (zh) | 2019-01-04 |
CN109146993B CN109146993B (zh) | 2021-08-13 |
Family
ID=64824520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811058185.6A Active CN109146993B (zh) | 2018-09-11 | 2018-09-11 | 一种医学图像融合方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109146993B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961449A (zh) * | 2019-04-15 | 2019-07-02 | 上海电气集团股份有限公司 | 图像分割的方法与设备、三维图像的重建方法与系统 |
CN110464460A (zh) * | 2019-07-16 | 2019-11-19 | 江苏霆升科技有限公司 | 一种心脏介入手术的方法及系统 |
TWI730777B (zh) * | 2020-05-21 | 2021-06-11 | 倍利科技股份有限公司 | 醫療影像合成方法 |
WO2022006738A1 (zh) * | 2020-07-07 | 2022-01-13 | 中加健康工程研究院(合肥)有限公司 | 图像处理方法、装置、计算设备和介质 |
CN115171882A (zh) * | 2022-07-07 | 2022-10-11 | 广东工业大学 | 一种基于多先验嵌入的y型网络的智能医学辅助诊断方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426702A (zh) * | 2011-10-25 | 2012-04-25 | 南阳理工学院 | Ct图像与mr图像的融合方法 |
KR20130137847A (ko) * | 2012-06-08 | 2013-12-18 | 조선대학교산학협력단 | 단일광자 단층촬영 영상과 자기공명영상 융합방법 |
CN103617605A (zh) * | 2013-09-22 | 2014-03-05 | 天津大学 | 针对三模态医学图像的透明度加权融合方法 |
CN106023126A (zh) * | 2016-05-12 | 2016-10-12 | 山东省肿瘤医院 | 一种基于区域对比的医学图像融合方法 |
CN106097247A (zh) * | 2016-06-14 | 2016-11-09 | 南京普爱医疗设备股份有限公司 | 一种基于刚性变换的多模态图像融合方法 |
-
2018
- 2018-09-11 CN CN201811058185.6A patent/CN109146993B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426702A (zh) * | 2011-10-25 | 2012-04-25 | 南阳理工学院 | Ct图像与mr图像的融合方法 |
KR20130137847A (ko) * | 2012-06-08 | 2013-12-18 | 조선대학교산학협력단 | 단일광자 단층촬영 영상과 자기공명영상 융합방법 |
CN103617605A (zh) * | 2013-09-22 | 2014-03-05 | 天津大学 | 针对三模态医学图像的透明度加权融合方法 |
CN106023126A (zh) * | 2016-05-12 | 2016-10-12 | 山东省肿瘤医院 | 一种基于区域对比的医学图像融合方法 |
CN106097247A (zh) * | 2016-06-14 | 2016-11-09 | 南京普爱医疗设备股份有限公司 | 一种基于刚性变换的多模态图像融合方法 |
Non-Patent Citations (2)
Title |
---|
YU LIU等: "Densely Connected Convolutional Networks for Multi-Exposure Fusion", 《20TH INTERNATIONAL CONFERENCE ON INFORMATION FUSION》 * |
买买提吐逊.吐尔地等: "MRI和CT图像融合构建头面部分层网格模型的研究", 《中国医学计算机成像杂志》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961449A (zh) * | 2019-04-15 | 2019-07-02 | 上海电气集团股份有限公司 | 图像分割的方法与设备、三维图像的重建方法与系统 |
CN110464460A (zh) * | 2019-07-16 | 2019-11-19 | 江苏霆升科技有限公司 | 一种心脏介入手术的方法及系统 |
TWI730777B (zh) * | 2020-05-21 | 2021-06-11 | 倍利科技股份有限公司 | 醫療影像合成方法 |
WO2022006738A1 (zh) * | 2020-07-07 | 2022-01-13 | 中加健康工程研究院(合肥)有限公司 | 图像处理方法、装置、计算设备和介质 |
CN115171882A (zh) * | 2022-07-07 | 2022-10-11 | 广东工业大学 | 一种基于多先验嵌入的y型网络的智能医学辅助诊断方法及系统 |
CN115171882B (zh) * | 2022-07-07 | 2023-06-02 | 广东工业大学 | 一种基于多先验嵌入的y型网络的智能医学辅助诊断方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109146993B (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109146993A (zh) | 一种医学图像融合方法及系统 | |
CN109754387B (zh) | 一种全身骨显像放射性浓聚灶的智能检测定位方法 | |
Udupa et al. | Body-wide hierarchical fuzzy modeling, recognition, and delineation of anatomy in medical images | |
Cai et al. | Four‐dimensional magnetic resonance imaging (4D‐MRI) using image‐based respiratory surrogate: a feasibility study | |
CN102871686B (zh) | 基于3d医学影像测定生理参数的装置和方法 | |
CN104346821B (zh) | 用于医学成像的自动规划 | |
CN102473300B (zh) | 多模态乳房成像 | |
CN109035160A (zh) | 医学影像的融合方法及基于融合医学影像学习的图像检测方法 | |
WO2015175806A1 (en) | Applications of automatic anatomy recognition in medical tomographic imagery based on fuzzy anatomy models | |
Yang et al. | Automatic 3-D imaging and measurement of human spines with a robotic ultrasound system | |
CN103295234B (zh) | 基于形变表面模型的医学图像分割系统及方法 | |
Tong et al. | Retrospective 4D MR image construction from free-breathing slice Acquisitions: A novel graph-based approach | |
CN109498046A (zh) | 基于核素图像与ct冠脉造影融合的心肌梗死定量评估方法 | |
CN110838140A (zh) | 基于混合监督学习的超声和核磁图像配准融合方法及装置 | |
Langner et al. | Identifying morphological indicators of aging with neural networks on large-scale whole-body MRI | |
CN101947103A (zh) | 全光学生物发光断层成像方法 | |
CN110969618A (zh) | 一种基于动态超声造影的肝肿瘤血管生成定量分析方法 | |
US9355454B2 (en) | Automatic estimation of anatomical extents | |
CN105894508A (zh) | 一种医学图像自动定位质量的评估方法 | |
CN111260651B (zh) | 一种基于深度迁移学习的胃部低质量mri图像分割方法 | |
Zhi et al. | Vessel contour detection in intracoronary images via bilateral cross-domain adaptation | |
Oh et al. | ACT: An Automatic Centroid Tracking tool for analyzing vocal tract actions in real-time magnetic resonance imaging speech production data | |
Wheeler et al. | Right ventricular assessment in adult congenital heart disease patients with right ventricle–to–pulmonary artery conduits | |
CN110458779A (zh) | 对呼吸或心脏的pet图像进行衰减校正的校正信息获取方法 | |
CN108670301A (zh) | 一种基于超声影像的脊柱横突定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |