CN109712175B - Ct图片的配准方法 - Google Patents

Ct图片的配准方法 Download PDF

Info

Publication number
CN109712175B
CN109712175B CN201811558768.5A CN201811558768A CN109712175B CN 109712175 B CN109712175 B CN 109712175B CN 201811558768 A CN201811558768 A CN 201811558768A CN 109712175 B CN109712175 B CN 109712175B
Authority
CN
China
Prior art keywords
layer
channel
picture
relu
dimension
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811558768.5A
Other languages
English (en)
Other versions
CN109712175A (zh
Inventor
姚朴健
包勇
文耀锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Industrial Technology Research Institute of Zhejiang University
Original Assignee
Changzhou Industrial Technology Research Institute of Zhejiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Industrial Technology Research Institute of Zhejiang University filed Critical Changzhou Industrial Technology Research Institute of Zhejiang University
Priority to CN201811558768.5A priority Critical patent/CN109712175B/zh
Publication of CN109712175A publication Critical patent/CN109712175A/zh
Application granted granted Critical
Publication of CN109712175B publication Critical patent/CN109712175B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种CT图片的配准方法,包括以下步骤:从第一CT图片集中选取一个切片层的1张CT图片和前后2张CT图片,从第二CT图片集中选取同一切片层的1张CT图片和前后2张CT图片,以上10张CT图片作为一个训练样本;按照上述方式从不同的切片层获取若干个训练样本组成训练集;训练神经网络;这种CT图片的配准方法利用双通道的卷积神经网络对不同时期的CT图片进行配准,匹配效率和准确性较高。

Description

CT图片的配准方法
技术领域
本发明涉及CT图片的处理方法,尤其涉及一种CT图片的配准方法。
背景技术
每次做肺部CT都会得到几百张CT图片,这些图片代表身体不同切片层的图像,由于每次做CT扫描时扫描的起始位置不同,扫描的层厚也不同,所以要从不同时期的CT图片中根据身体的部位进行一一匹配的难度很大。
发明内容
本发明要解决的技术问题是:为了解决现有技术中对于不同时期的CT图片配准难度大,准确性低的问题,本发明提供了一种CT图片的配准方法来解决上述问题。
本发明解决其技术问题所采用的技术方案是:一种CT图片的配准方法,包括以下步骤:
S1、从第一CT图片集中选取一个切片层的1张CT图片和前后2张CT图片,从第二CT图片集中选取同一切片层的1张CT图片和前后2张CT图片,以上10张CT图片作为一个训练样本;按照上述方式从不同的切片层获取若干个训练样本组成训练集;
S2、构造卷积神经网络,所述卷积神经网络包括共享权值的第一通道和第二通道;所述卷积神经网络的损失函数为:
Figure BDA0001912708160000011
其中m为预设值,D为第一通道输出的第一特征向量与第二通道输出的第二特征向量的欧氏距离;
S3、将所述训练集输入到卷积神经网络中进行正样本训练和负样本训练,得到训练好的卷积神经网络:
正样本训练:从同一个训练样本中选取两张CT图并且分别输入到第一通道和第二通道中,将第一特征向量和第二特征向量输入损失函数中,其中l为1,根据损失函数的值反向传播,更新卷积神经网络的权值;
负样本训练:从不同的两个训练样本中分别选取一张CT图并且分别输入到第一通道和第二通道中,将第一特征向量和第二特征向量输入损失函数中,其中l为0,根据损失函数的值反向传播,更新卷积神经网络的权值。
作为优选,还包括步骤:将DICOM格式的CT图片转换成维度为227*227*1并且格式为jpg的CT图片后再作为训练样本。
作为优选,所述第一通道包括输入层、第一卷积层、第一ReLU层、第二卷积层、第二ReLU层、第三卷积层、第三ReLU层、第四卷积层、第四ReLU层、第五卷积层、第五ReLU层、第一全连接层、第二全连接层和输出层;所述第二通道与第一通道的结构相同;
所述步骤S3中,将CT图片输入第一通道和第二通道后进行以下步骤:
S301、在第一卷积层中,维度为227*227*1的CT图片通过96个173*173*1的卷积核进行卷积,步数为1,得到55*55*96的三维特征图;
S302、第一ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S303、在第二卷积层中,维度为55*55*96的三维特征图通过256个29*29*96的卷积核进行卷积,步数为1,得到27*27*256的三维特征图;
S304、第二ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S305、在第三卷积层中,维度为27*27*256的三维特征图通过384个15*15*256的卷积核进行卷积,步数为1,得到13*13*384的三维特征图;
S306、第三ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S307、在第四卷积层中,维度为13*13*384的三维特征图通过384个3*3*384的卷积核进行卷积,步数为1,补零后得到13*13*384的三维特征图;
S308、第四ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S309、在第五卷积层中,维度为13*13*384的三维特征图通过256个3*3*384的卷积核进行卷积,步数为1,补零后得到13*13*256的三维特征图;
S310、第五ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S311、在第一全连接层中,将13*13*256的三维特征图转换为4096维的特征向量V1;
S312、在第二全连接层中,将4096维的特征向量V1转换为4096维的特征向量V2;
其中,所述第一通道的特征向量V2为所述第一特征向量,所述第二通道的特征向量V2为所述第二特征向量。
作为优选,还包括步骤:
S4、从第三CT图片集中选取一张CT图片a输入训练好的卷积神经网络的第一通道,得到第一特征向量V’,将第四CT图片集的n张CT图片一张张输入训练好的卷积神经网络的第二通道,得到第二特征向量Vi’,其中i=1,2,3…n;
分别计算第二特征向量Vi’与第一特征向量V’之间的欧氏距离D并代入损失函数中计算,令l=0,最小的损失函数值所对应的CT图片为第四图片集中与CT图片a匹配度最高的CT图片。
本发明的有益效果是,这种CT图片的配准方法利用双通道的卷积神经网络对不同时期的CT图片进行配准,匹配效率和准确性较高。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明的一种CT图片的配准方法的最优实施例的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
如图1所示,是一种CT图片的配准方法的实施例,包括以下步骤:
S1、选取不同时期CT扫描的第一CT图片集和第二CT图片集,从第一CT图片集中选取一个切片层的1张CT图片和前后2张CT图片,从第二CT图片集中选取同一切片层的1张CT图片和前后2张CT图片,将上述10张CT图片从DICOM格式转换成维度为227*227*1并且格式为jpg的CT图片,然后放入一个文件夹中,作为一个训练样本;按照上述方式从不同的切片层获取若干个训练样本组成训练集。
S2、构造卷积神经网络,卷积神经网络包括共享权值的第一通道和第二通道,第一通道和第二通道的训练结构相同,包括输入层、第一卷积层、第一ReLU层、第二卷积层、第二ReLU层、第三卷积层、第三ReLU层、第四卷积层、第四ReLU层、第五卷积层、第五ReLU层、第一全连接层、第二全连接层和输出层;卷积神经网络的损失函数为:
Figure BDA0001912708160000051
其中,D为第一通道输出的第一特征向量与第二通道输出的第二特征向量的欧氏距离,m为预设值;从第一CT图片集挑选一张CT图片P1,从第二CT图片集挑选中挑选5张与CT图片P1差别最大的CT图片Q1~Q5,将CT图片P1输入第一通道中,得到第一特征向量VP1,将5张CT图片Q1~Q5依次输入到第二通道中,得到第二特征向量VQ1~VQ5,分别计算第二特征向量VQ1~VQ5与第一特征向量VP1之间的欧氏距离,选取最大的值,重复几次上述步骤并且每次都重新挑选CT图片,m的值大于几个最大的欧氏距离;
S3、将训练集输入到卷积神经网络中进行正样本训练和负样本训练,得到训练好的卷积神经网络:
正样本训练:从同一个训练样本中选取两张CT图并且分别输入到第一通道和第二通道中,将第一特征向量和第二特征向量输入损失函数中,令l为1,根据损失函数的值反向传播,更新卷积神经网络的权值;
负样本训练:从不同的两个训练样本中分别选取一张CT图并且分别输入到第一通道和第二通道中,将第一特征向量和第二特征向量输入损失函数中,其中l为0,根据损失函数的值反向传播,更新卷积神经网络的权值。
将CT图片输入第一通道和第二通道后具体的训练过程如下:
S301、在第一卷积层中,维度为227*227*1的CT图片通过96个173*173*1的卷积核进行卷积,步数为1,得到55*55*96的三维特征图;
S302、第一ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S303、在第二卷积层中,维度为55*55*96的三维特征图通过256个29*29*96的卷积核进行卷积,步数为1,得到27*27*256的三维特征图;
S304、第二ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S305、在第三卷积层中,维度为27*27*256的三维特征图通过384个15*15*256的卷积核进行卷积,步数为1,得到13*13*384的三维特征图;
S306、第三ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S307、在第四卷积层中,维度为13*13*384的三维特征图通过384个3*3*384的卷积核进行卷积,步数为1,补零后得到13*13*384的三维特征图;
S308、第四ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S309、在第五卷积层中,维度为13*13*384的三维特征图通过256个3*3*384的卷积核进行卷积,步数为1,补零后得到13*13*256的三维特征图;
S310、第五ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S311、在第一全连接层中,将13*13*256的三维特征图转换为4096维的特征向量V1;
S312、在第二全连接层中,将4096维的特征向量V1转换为4096维的特征向量V2;
其中,第一通道的特征向量V2为第一特征向量,第二通道的特征向量V2为第二特征向量。
S4、训练好的卷积神经网络可以用来进行图片的配比:收集不同时期CT扫描得到的第三CT图片集和第四CT图片集;从第三CT图片集中选取一张CT图片a输入训练好的卷积神经网络的第一通道,得到第一特征向量V’,将第四CT图片集的n张CT图片一张张输入训练好的卷积神经网络的第二通道,得到第二特征向量Vi’,其中i=1,2,3…n;
分别计算第二特征向量Vi’与第一特征向量V’之间的欧氏距离D并代入损失函数中计算,令l=0,最小的损失函数值所对应的CT图片为第四图片集中与CT图片a匹配度最高的CT图片。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对所述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (3)

1.一种CT图片的配准方法,其特征在于,包括以下步骤:
S1、从第一CT图片集中选取一个切片层的1张CT图片和前后2张CT图片,从第二CT图片集中选取同一切片层的1张CT图片和前后2张CT图片,以上10张CT图片作为一个训练样本;按照上述方式从不同的切片层获取若干个训练样本组成训练集;
S2、构造卷积神经网络,所述卷积神经网络包括共享权值的第一通道和第二
Figure DEST_PATH_IMAGE001
通道;所述卷积神经网络的损失函数为:
其中m为预设值,D为第一通道输出的第一特征向量与第二通道输出的第二特征向量的欧氏距离;
S3、将所述训练集输入到卷积神经网络中进行正样本训练和负样本训练,得到训练好的卷积神经网络:
正样本训练:从同一个训练样本中选取两张CT图并且分别输入到第一通道和第二通道中,将第一特征向量和第二特征向量输入损失函数中,其中l为1,根据损失函数的值反向传播,更新卷积神经网络的权值;
负样本训练:从不同的两个训练样本中分别选取一张CT图并且分别输入到第一通道和第二通道中,将第一特征向量和第二特征向量输入损失函数中,其中l为0,根据损失函数的值反向传播,更新卷积神经网络的权值;
S4、从第三CT图片集中选取一张CT图片a输入训练好的卷积神经网络的第一通道,得到第一特征向量V’,将第四CT图片集的n张CT图片一张张输入训练好的卷积神经网络的第二通道,得到第二特征向量Vi’,其中i=1,2,3…n;
分别计算第二特征向量Vi’与第一特征向量V’之间的欧氏距离D并代入损失函数中计算,令l=0,最小的损失函数值所对应的CT图片为第四图片集中与CT图片a匹配度最高的CT图片。
2.如权利要求1所述的CT图片的配准方法,其特征在于,还包括步骤:将DICOM格式的CT图片转换成维度为227 * 227*1并且格式为jpg的CT图片后再作为训练样本。
3.如权利要求2所述的CT图片的配准方法,其特征在于:所述第一通道包括输入层、第一卷积层、第一ReLU层、第二卷积层、第二ReLU层、第三卷积层、第三ReLU层、第四卷积层、第四ReLU层、第五卷积层、第五ReLU层、第一全连接层、第二全连接层和输出层;所述第二通道与第一通道的结构相同;
所述步骤S3中,将CT图片输入第一通道和第二通道后进行以下步骤:
S301、在第一卷积层中,维度为227 * 227*1的CT图片通过96个173*173*1的卷积核进行卷积,步数为1,得到55*55*96的三维特征图;
S302、第一ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S303、在第二卷积层中,维度为55*55*96的三维特征图通过256个29*29*96的卷积核进行卷积,步数为1,得到27*27*256的三维特征图;
S304、第二ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S305、在第三卷积层中,维度为27*27*256的三维特征图通过384个15*15*256的卷积核进行卷积,步数为1,得到13*13*384的三维特征图;
S306、第三ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S307、在第四卷积层中,维度为13*13*384的三维特征图通过384个3*3*384的卷积核进行卷积,步数为1,补零后得到13*13*384的三维特征图;
S308、第四ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S309、在第五卷积层中,维度为13*13*384的三维特征图通过256个3*3*384的卷积核进行卷积,步数为1,补零后得到13*13*256的三维特征图;
S310、第五ReLU层中,通过函数ReLU对三维特征图进行非线性映射;
S311、在第一全连接层中,将13*13*256的三维特征图转换为4096维的特征向量V1;
S312、在第二全连接层中,将4096维的特征向量V1转换为4096维的特征向量V2;
其中,所述第一通道的特征向量V2为所述第一特征向量,所述第二通道的特征向量V2为所述第二特征向量。
CN201811558768.5A 2018-12-19 2018-12-19 Ct图片的配准方法 Active CN109712175B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811558768.5A CN109712175B (zh) 2018-12-19 2018-12-19 Ct图片的配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811558768.5A CN109712175B (zh) 2018-12-19 2018-12-19 Ct图片的配准方法

Publications (2)

Publication Number Publication Date
CN109712175A CN109712175A (zh) 2019-05-03
CN109712175B true CN109712175B (zh) 2022-09-23

Family

ID=66255981

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811558768.5A Active CN109712175B (zh) 2018-12-19 2018-12-19 Ct图片的配准方法

Country Status (1)

Country Link
CN (1) CN109712175B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473196B (zh) * 2019-08-14 2021-06-04 中南大学 一种基于深度学习的腹部ct图像目标器官配准方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373109A (zh) * 2016-08-31 2017-02-01 南方医科大学 一种医学图像模态合成的方法
CN108257134A (zh) * 2017-12-21 2018-07-06 深圳大学 基于深度学习的鼻咽癌病灶自动分割方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373109A (zh) * 2016-08-31 2017-02-01 南方医科大学 一种医学图像模态合成的方法
CN108257134A (zh) * 2017-12-21 2018-07-06 深圳大学 基于深度学习的鼻咽癌病灶自动分割方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
利用多模态U形网络的CT图像前列腺分割;凌彤等;《智能系统学报》;20180705(第06期);全文 *

Also Published As

Publication number Publication date
CN109712175A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
Kim et al. Concrete crack identification using a UAV incorporating hybrid image processing
CN110738143A (zh) 定位方法及装置、设备、存储介质
CN108427951A (zh) 图像处理方法、装置、存储介质和计算机设备
CN107025440A (zh) 一种基于新型卷积神经网络的遥感图像道路提取方法
CN110705574A (zh) 定位方法及装置、设备、存储介质
WO2023000158A1 (zh) 一种遥感影像超分辨率重建方法、装置、设备及存储介质
KR20120083486A (ko) 화상 처리 장치, 화상 처리 방법, 및, 기록 매체
CN110378365A (zh) 一种基于联合子空间学习的多视图子空间聚类方法
US9542741B2 (en) Method and system for automatic pelvis unfolding from 3D computed tomography images
CN109858486A (zh) 一种基于深度学习的数据中心云端目标识别方法
CN107578376A (zh) 基于特征点聚类四叉划分和局部变换矩阵的图像拼接方法
Luo et al. Target detection method of UAV aerial imagery based on improved YOLOv5
US10019821B2 (en) Apparatus and method for constructing indoor map using cloud point
CN109712175B (zh) Ct图片的配准方法
CN109863547A (zh) 用于使用机器学习和图像处理来构建地图的设备
CN113066112B (zh) 一种基于三维模型数据的室内外融合方法及装置
CN110675319B (zh) 一种基于最小生成树的手机拍照全景图像拼接方法
CN104616247A (zh) 一种用于基于超像素sift航拍地图拼接的方法
CN116778288A (zh) 一种多模态融合目标检测系统及方法
Yan et al. A multi-view dense image matching method for high-resolution aerial imagery based on a graph network
CN112689140A (zh) 白平衡同步方法及装置、电子设备和存储介质
Cugmas et al. Accuracy of an affordable smartphone-based teledermoscopy system for color measurements in canine skin
JP2020153873A (ja) 診断処理装置、診断システム、診断処理方法、及びプログラム
CN110688500B (zh) 一种数据库构建方法、一种定位方法及其相关设备
Chung et al. Effective three-stage demosaicking method for RGBW CFA images using the iterative error-compensation based approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant