CN109801319A - 基于Hadoop并行加速的分级图分组配准方法 - Google Patents

基于Hadoop并行加速的分级图分组配准方法 Download PDF

Info

Publication number
CN109801319A
CN109801319A CN201910003328.1A CN201910003328A CN109801319A CN 109801319 A CN109801319 A CN 109801319A CN 201910003328 A CN201910003328 A CN 201910003328A CN 109801319 A CN109801319 A CN 109801319A
Authority
CN
China
Prior art keywords
image
key
degree
value
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910003328.1A
Other languages
English (en)
Other versions
CN109801319B (zh
Inventor
颜成钢
付祖贤
孙垚棋
张勇东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910003328.1A priority Critical patent/CN109801319B/zh
Publication of CN109801319A publication Critical patent/CN109801319A/zh
Application granted granted Critical
Publication of CN109801319B publication Critical patent/CN109801319B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Hadoop并行加速的分级图分组配准方法。本发明步骤如下:1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,系统把文件划分成多个块,并分散地存储于3个数据节点,每个数据节点尽量均匀存储图像,且每个数据节点上的块信息复制2份存储于其他数据节点上。2.读入图像并计算相似度矩阵;3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组;4.构建分级图的连接体系;5.计算变形场;6.配准以及写入图像;7.将步骤5和6循环迭代,直到达到所期望的迭代次数。本发明在保证了配准精度的前提下,提高多张脑图像分组配准的运行速度。

Description

基于Hadoop并行加速的分级图分组配准方法
技术领域
本发明属于三维医学图像配准领域,应用于大规模的医学脑图像配准,具体地来说是基于Hadoop并行加速的分级图分组配准方法。
背景技术
医学图像配准在分析基于图谱的分析或临床诊断系统方面起到基本的关键作用。在这些研究中,图像配准关键在于,消除群体差异,这些差异包括个体直接按的不同或听一个实验者的结构变异变化(例如与脑部疾病相关的变异),图像配准应用广泛,比如婴儿地图集构建和基于群体的解剖变异性评估。因此通过医学图像配准得到的公认模板,为临床和病理学研究提供可靠的依据,辅助医生做出更为准确的诊断。
大多数现有技术的配准方法都属于成对配准,即,仅考虑一对图像(个体和模板)。当将成对配准应用于大规模图像数据集时,需要模板并且通常将其作为数据集中的特定图像。其余所有的图像被视为个体并逐个配准到模板中。但是模板的确定非常重要,可能会带来很大偏差。因此出现了分组配准。分组配准能够消除这种系统偏差,因为群体中的所有图像都朝向公共空间扭曲并且同时估计它们的变形。共同空间是在共同配准过程中自发显现。根据图像相似度的度量方法,分组配准可以分为三类,(1)基于组平均图像的分组配准,使用成对配准方法来实现分组配准,构建估计出来的图谱(平均图像)作为数据集的公共空间。(2)基于图论的分组配准,不使用平均图像,而是每个图像可以直接计算其与其他图像的相似性。(3)基于特征的分组配准,可以捕获所有图像特定位置的相关性/不相关性,因此通过最大化图像空间中所有位置的相关性,可以将整个图像数据集配准到公共空间。
一种新颖的群组配准方法(eHUGS),它有一个分层图,该图的每个节点代表单个图像。分层图捕获图像分布流形来得到图像分布信息,从而可以利用图像分布信息。更具体地说,低层次的图描述每个小组中的图像分布,并且高层次的图代表子组中具有代表性的图像之间的关系。在一个特定的图表示模型中,我们可以通过动态缩小图像流形上的图来将所有图像配准到公共空间。整个图像分布的拓扑在图收缩期间一直保持不变。
虽然很多配准方法精度在提高,但是计算量都很大,尤其是要处理大量数据集的时候,在手术之前和手术期间获取的图像数据进行处理必须是快速和准确的,以便在临床诊断中有用。现在患者所能用到的数据正在稳步增加,对医学图像进行配准等处理时,常常要耗费大量的时间,因此脑图像配准算法的速度要求越来越高。
对于分级图分组配准方法来说,对大量数据同时处理造成的运算负载可以分散在不同步骤内独立执行。输入的图像可以分层次聚簇到一个金字塔结构之中,在对各子簇内的图像分组配准后,再合成出最终的模板。这样,就将原先的一个大运算量问题分解成若干小运算量问题,使得分组配准算法能解决问题的规模可以提高更多的图像。但是随着更多的图像参与配准,计算代价依然太大,运行较慢,所耗的时间太多,比如20张图像一块配准,用eHUGS方法需要48小时。
Hadoop由Apache基金会开发,是在分布式服务器集群上存储海量数据并运行分布式分析应用的一种方法。Apache Hadoop软件库是一个框架,其设计规模可以从单服务器扩展到几千台服务器。不依赖于硬件,具有高效性。Hadoop的体系结构主要通过HDFS(HadoopDistributed File System)来实现对分布式存储的底层支持,并通过MapReduce来实现对分布式并行运算的程序支持。
发明内容
本发明所要解决的技术问题是:在Hadoop分布式计算的平台,利用MapReduce并行编程模型,基于现有的分级图分组配准算法,在保证了配准精度的前提下,提高多张脑图像分组配准的运行速度。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,HDFS文件系统把文件划分成多个块,划分后的块分散地存储于3个数据节点datanode上,为了达到负载均衡,每个datanode尽量均匀存储图像,每个datanode上的块信息复制2份存储于其他datanode上。
步骤2.读入图像并计算相似度矩阵
2-1.先调用simpleITK库来读入图像,然后转化为MapReduce可识别的格式ImageInputFormat,键key为图像的编号,value为图像数据;再计算两两图像间的距离矩阵,并将距离矩阵作为两两图像的相似度矩阵;
2-2.并行计算直方图匹配,第一张图像作为标准并且每张图像为一个map,其余图像都与第一张图像进行直方图匹配。从而得到图像数据集合I,I={Ii|i=1,...,N};
2-3.Map函数中最初输入的<key,value>为<I,Ii>,然后将两两图像组合起来输出为<(i,j),(Ii,Ij)>。在Reduce函数使用SSD来度量两两图像的相似度,即公式dij=||Ii-Ij||2,得到<key,value>为<(i,j),dij>;
2-4.使用累加计数器计算每张图像的相似度总和,最小的那张为全局中心图像IO,即公式
步骤3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组
图像的距离矩阵的维度为N*N,先将矩阵中的n2个数据分配到3个数据节点上,将吸引度矩阵Ri和归属度矩阵Ai初始化,全都置为0。该方法的AP聚类所用的偏好值如下:
3-1.计算吸引度矩阵R,最初吸引度和归属度都初始化为零,第一个Map函数输入<key,value>为<图像i,相似度Si>,<图像i,归属度ai>,输出<图像i,(相似度Si,归属度ai)>。第二个Map函数的输入为第一个Map函数的输出,通过吸引度和图像的相似度计算出吸引度,最后Reduce函数将结果合并输出<图像i,吸引度ri>,
3-2.计算归属度矩阵A,Map函数输入<key,value>为<r,r(i,k)>,输出<k,r(I,k)>,Reduce函数输出<图像i,归属度ai>.
3-3.确定聚类簇的中心,也就是在每个小组中确定该组的代表性图像
在AP聚类中判断聚类簇的中心方法是,符合归属度加上吸引度大于0的点为该簇的中心,但是这是运用在图像配准中,因此使用MapReduce中的计数器Counter计算该组中的每张图像与全局中心图的相似度总和,最小的那张为该组的代表图像
步骤4.构建分级图的连接体系
4-1.构建小组内的连接体系,设定一个阈值,与代表性图像相似性较高的图像Ii{Ii∈Gα,i≠iα}才有连接,否则全都设为0;
4-2.构建小组间的连接体系,每个代表性图像 都与这张全局中心图像有连接,任意两个代表图像之间无连接,设为0;
步骤5.计算变形场
5-1.每张图像都与之有连接的图像进行两两配准,调用LogDemonReg函数将两两图像进行匹配,生成变形场ImaVelField,因此<key,value>为<(图像i,图像j),ImaVelField>,计算出多个变形场后调用SimpleITK库中的函数addDeformationField->Update()把多个变形场叠加起来。
5-2.调用SimpleITK库中的函数divideVectorFields计算每张图像的平均合成速度场、计算浮动图像的位移场和逆位移场。<key,value>分别为<图像i,平均合成速度场>、<图像i,位移场>、<图像i,逆位移场>
5-3.调用函数ComposeDeformationFields把每张图像的当前位移场和逆位移场合并,<key,value>为<(当前位移场i,逆位移场),新的当前位移场i>。
步骤6.配准以及写入图像
6-1.配准,调用函数ApplyDeformationField将之前计算的变形场运用到对应的图像,<key,value>为<(图像i,当前位移场i),配准图像i>。
6-2.将配准了的图像写入到相应的HDFS路径中,输出格式为ImageOutputFormat。迭代次数加1。
步骤7.将步骤5和6循环迭代,直到达到所期望的迭代次数。
本发明方法具有的优点及有益结果为:
(1)在Hadoop分布式计算的平台,利用MapReduce并行编程模型,基于现有的分级无偏图分组配准算法,在保证了配准精度的前提下,提高多张脑图像分组配准的运行速度。
(2)本发明方法是关于医学图像,将原先利用C++实现的ITK库,改成使用SimpleITK库,以便运用在由Java实现的MapReduce并行编程模型。并且将其他使用C++语言写的文件通过SWIG接口,可以在Java语言调用。这方法可以运用在其他医学图像处理的领域。
附图说明
图1是20张图像在Hadoop分布式系统的存储方法。
图2是利用MapReduce编程模型处理图像。
图3是进行AP聚类,将图像集分成好几个小组。
图4是分级图结构的分组配准流程。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1-4所示,基于Hadoop并行加速的分级图分组配准方法,具体步骤如下:
实验平台:
步骤1.假设现在有20张医学脑图像需要进行配准,每张图像大约为8.49Mb,将这些图像上传至HDFS文件系统中,确定blocksize为64Mb,HDFS把文件划分成块,这些块分散地存储于3个数据节点上,因此每个datanode分别分配7,7,6张图像以达到负载均衡,每个块复制2份存储于其他datanode上。
步骤2.读入图像并计算相似度矩阵
2-1.先调用simpleITK库来读入图像,然后转化为MapReduce可识别的格式ImageInputFormat,键key为图像的编号,value为图像数据。计算两两图像间的距离矩阵,也就是图像的相似度矩阵,
2-2.并行计算直方图匹配,第一张图像作为标准并且每张图像为一个map,其余图像都与第一张图像进行直方图匹配。从而得到图像数据集合I,I={Ii|i=1,...,N}
2-3.Map函数中最初输入的<key,value>为<i,Ii>,然后将两两图像组合起来输出为<(i,j),(Ii,Ij)>。在Reduce函数使用SSD来度量两两图像的相似度,即公式dij=||Ii-Ij||2,得到<key,value>为<(i,j),dij>
2-4.使用累加计数器计算每张图像的相似度总和,最小的那张为全局中心图像I0,即,公式
步骤3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组
先将两两图像的距离dij,也就是n2分配到3个数据节点上,将吸引度矩阵Ri和归属度矩阵Ai初始化,全都置为0。该方法的AP聚类所用的偏好值如下
3-1.计算吸引度矩阵R,Map函数输入<key,value>为<图像i,相似度Si>,<图像i,归属度ai>,输出<图像i,(相似度Si,归属度ai)>,Reduce函数输出<图像i,吸引度ri>
3-2.计算归属度矩阵A,Map函数输入<key,value>为<r,r(i,k)>,输出<k,r(I,k)>,Reduce函数输出<图像i,归属度ai>.
3-3.确定聚类簇的中心,也就是在每个小组中确定该组的代表性图像
在AP聚类中判断聚类簇的中心方法是,符合归属度加上吸引度大于0的点为该簇的中心,但是这是运用在图像配准中,因此使用MapReduce中的计数器Counter计算该组中的每张图像与全局中心图的相似度总和,最小的那张为该组的代表图像
步骤4.构建分级图的连接体系
4-1.构建小组内的连接体系,设定一个阈值,与代表性图像相似性较高的图像Ii{Ii∈Gα,i≠iα}才有连接,否则全都设为0;
4-2.构建小组间的连接体系,每个代表性图像 都与这张全局中心图像有连接,任意两个代表图像之间无连接,设为0;
步骤5.计算变形场
5-1.每张图像都与之有连接的图像进行两两配准,<key,value>为<(i,j),ImaVelField>,计算出多个变形场并且叠加起来。
5-2.计算每张图像的平均合成速度场、计算浮动图像的位移场和逆位移场。<key,value>分别为<图像i,平均合成速度场>、<图像i,位移场>、<图像i,逆位移场>
5-3.把每张图像的当前位移场和逆位移场合并,<key,value>为<(当前位移场i,逆位移场),新的当前位移场i>。
步骤6.配准以及写入图像
6-1.配准,将之前计算的变形场运用到对应的图像,<key,value>为<(图像i,当前位移场i),配准图像i>。
6-2.将配准了的图像写入到相应的HDFS路径中,输出格式为ImageOutputFormat。迭代次数加1。
步骤7.将步骤5和6循环迭代,直到达到所期望的迭代次数。

Claims (1)

1.基于Hadoop并行加速的分级图分组配准方法,其特征在于包括如下步骤:
步骤1.将图像上传至HDFS文件系统中,确定blocksize为64Mb,HDFS文件系统把文件划分成多个块,划分后的块分散地存储于3个数据节点datanode上,为了达到负载均衡,每个datanode尽量均匀存储图像,每个datanode上的块信息复制2份存储于其他datanode上;
步骤2.读入图像并计算相似度矩阵
2-1.先调用simpleITK库来读入图像,然后转化为MapReduce可识别的格式ImageInputFormat,键key为图像的编号,value为图像数据;再计算两两图像间的距离矩阵,并将距离矩阵作为两两图像的相似度矩阵;
2-2.并行计算直方图匹配,第一张图像作为标准并且每张图像为一个map,其余图像都与第一张图像进行直方图匹配;从而得到图像数据集合I,I={Ii|i=1,...,N};
2-3.Map函数中最初输入的<key,value>为<I,Ii>,然后将两两图像组合起来输出为<(i,j),(Ii,Ij)>;在Reduce函数使用SSD来度量两两图像的相似度dij,即公式得到<key,value>为<(i,j),dij>;
2-4.使用累加计数器计算每张图像的相似度总和,最小的那张为全局中心图像IO,即公式
步骤3.基于MapRedue的分布式AP聚类,将所有的图像聚类分成Ω个小组
图像的距离矩阵的维度为N*N,先将矩阵中的n2个数据分配到3个数据节点上,将吸引度矩阵Ri和归属度矩阵Ai初始化,全都置为0;该方法的AP聚类所用的偏好值如下:
3-1.计算吸引度矩阵R,最初吸引度和归属度都初始化为零,第一个Map函数输入<key,value>为<图像i,相似度Si>,<图像i,归属度ai>,输出<图像i,(相似度Si,归属度ai)>;第二个Map函数的输入为第一个Map函数的输出,通过吸引度和图像的相似度计算出吸引度,最后Reduce函数将结果合并输出<图像i,吸引度ri>,
3-2.计算归属度矩阵A,Map函数输入<key,value>为<r,r(i,k)>,输出<k,r(I,k)>,Reduce函数输出<图像i,归属度ai>.
3-3.确定聚类簇的中心,也就是在每个小组中确定该组的代表性图像
在AP聚类中判断聚类簇的中心方法是,符合归属度加上吸引度大于0的点为该簇的中心,但是这是运用在图像配准中,因此使用MapReduce中的计数器Counter计算该组中的每张图像与全局中心图的相似度总和,最小的那张为该组的代表图像
步骤4.构建分级图的连接体系
4-1.构建小组内的连接体系,设定一个阈值,与代表性图像相似性较高的图像Ii{Ii∈Gα,i≠iα}才有连接,否则全都设为0;
4-2.构建小组间的连接体系,每个代表性图像 都与这张全局中心图像有连接,任意两个代表图像之间无连接,设为0;
步骤5.计算变形场
5-1.每张图像都与之有连接的图像进行两两配准,调用LogDemonReg函数将两两图像进行匹配,生成变形场ImaVelField,因此<key,value>为<(图像i,图像j),ImaVelField>,计算出多个变形场后调用SimpleITK库中的函数addDeformationField->Update()把多个变形场叠加起来;
5-2.调用SimpleITK库中的函数divideVectorFields计算每张图像的平均合成速度场、计算浮动图像的位移场和逆位移场;<key,value>分别为<图像i,平均合成速度场>、<图像i,位移场>、<图像i,逆位移场>
5-3.调用函数ComposeDeformationFields把每张图像的当前位移场和逆位移场合并,<key,value>为<(当前位移场i,逆位移场),新的当前位移场i>;
步骤6.配准以及写入图像
6-1.配准,调用函数ApplyDeformationField将之前计算的变形场运用到对应的图像,<key,value>为<(图像i,当前位移场i),配准图像i>;
6-2.将配准了的图像写入到相应的HDFS路径中,输出格式为ImageOutputFormat,迭代次数加1;
步骤7.将步骤5和6循环迭代,直到达到所期望的迭代次数。
CN201910003328.1A 2019-01-03 2019-01-03 基于Hadoop并行加速的分级图分组配准方法 Active CN109801319B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910003328.1A CN109801319B (zh) 2019-01-03 2019-01-03 基于Hadoop并行加速的分级图分组配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910003328.1A CN109801319B (zh) 2019-01-03 2019-01-03 基于Hadoop并行加速的分级图分组配准方法

Publications (2)

Publication Number Publication Date
CN109801319A true CN109801319A (zh) 2019-05-24
CN109801319B CN109801319B (zh) 2020-12-01

Family

ID=66558417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910003328.1A Active CN109801319B (zh) 2019-01-03 2019-01-03 基于Hadoop并行加速的分级图分组配准方法

Country Status (1)

Country Link
CN (1) CN109801319B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827331A (zh) * 2019-11-04 2020-02-21 上海联影智能医疗科技有限公司 图像配准模型的训练方法、图像配准方法和计算机设备
CN113379809A (zh) * 2021-05-25 2021-09-10 上海联影智能医疗科技有限公司 图谱构建方法、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496033A (zh) * 2011-12-05 2012-06-13 西安电子科技大学 基于mr计算框架的图像sift特征匹配方法
CN103903272A (zh) * 2014-04-16 2014-07-02 广东中科遥感技术有限公司 一种基于Hadoop的StaMPS算法并行化处理方法
US20150347914A1 (en) * 2014-05-27 2015-12-03 Electronics And Telecommunications Research Institute Method for data parallel inference and apparatus thereof
CN106021285A (zh) * 2016-04-29 2016-10-12 武汉佰钧成技术有限责任公司 一种基于Hadoop平台的海量数据增量抽取与分析方法
CN107707582A (zh) * 2015-12-30 2018-02-16 北京典赞科技有限公司 一种基于Host-Device架构的MapReduce计算方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496033A (zh) * 2011-12-05 2012-06-13 西安电子科技大学 基于mr计算框架的图像sift特征匹配方法
CN103903272A (zh) * 2014-04-16 2014-07-02 广东中科遥感技术有限公司 一种基于Hadoop的StaMPS算法并行化处理方法
US20150347914A1 (en) * 2014-05-27 2015-12-03 Electronics And Telecommunications Research Institute Method for data parallel inference and apparatus thereof
CN107707582A (zh) * 2015-12-30 2018-02-16 北京典赞科技有限公司 一种基于Host-Device架构的MapReduce计算方法
CN106021285A (zh) * 2016-04-29 2016-10-12 武汉佰钧成技术有限责任公司 一种基于Hadoop平台的海量数据增量抽取与分析方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827331A (zh) * 2019-11-04 2020-02-21 上海联影智能医疗科技有限公司 图像配准模型的训练方法、图像配准方法和计算机设备
CN110827331B (zh) * 2019-11-04 2022-07-26 上海联影智能医疗科技有限公司 图像配准模型的训练方法、图像配准方法和计算机设备
CN113379809A (zh) * 2021-05-25 2021-09-10 上海联影智能医疗科技有限公司 图谱构建方法、计算机设备和存储介质

Also Published As

Publication number Publication date
CN109801319B (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
Klami et al. Group factor analysis
Wang et al. Multi-task survival analysis
CN108986872B (zh) 用于大数据电子病历约简的多粒度属性权重Spark方法
CN116503680B (zh) 基于脑图谱的脑影像结构化分析和脑疾病分类系统
Ou et al. Anchor-based multiview subspace clustering with diversity regularization
CN113821668A (zh) 数据分类识别方法、装置、设备及可读存储介质
CN109801319A (zh) 基于Hadoop并行加速的分级图分组配准方法
CN115995011B (zh) 基于图正则化的非线性正交非负矩阵分解图像聚类方法
CN116386853A (zh) 面向智慧医疗的深度可分离卷积双重聚合联邦学习方法
Yu et al. Travelling wave solutions in non-local convolution diffusive competitive–cooperative systems
Yang et al. An effective detection of satellite image via K-means clustering on Hadoop system
Lingjærde et al. Scalable multiple network inference with the joint graphical horseshoe
Gan et al. Tic2d: trajectory inference from single-cell rna-seq data using consensus clustering
Li et al. Unified K-means coupled self-representation and neighborhood kernel learning for clustering single-cell RNA-sequencing data
Bi et al. Critical direction projection networks for few-shot learning
Shu et al. Self-weighted graph learning for multi-view clustering
Zhao et al. Faster mean-shift: Gpu-accelerated embedding-clustering for cell segmentation and tracking
Wang et al. Directly solving normalized cut for multi-view data
CN117409260A (zh) 一种基于深度子空间嵌入的小样本图像分类方法及装置
He et al. Large-scale graph sinkhorn distance approximation for resource-constrained devices
CN115908955A (zh) 基于梯度蒸馏的少样本学习的鸟类分类系统、方法与装置
Parvin et al. BioSig: an imaging bioinformatic system for studying phenomics
Zhang Big health data for elderly employees job performance of SOEs: visionary and enticing challenges
CN111583281B (zh) 多模态连接模式的脑区划分方法
Faiz et al. Thyroid Disease Detection Using Machine Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant