CN113808182A - 一种2d与3d图像配准方法及装置 - Google Patents
一种2d与3d图像配准方法及装置 Download PDFInfo
- Publication number
- CN113808182A CN113808182A CN202111374305.5A CN202111374305A CN113808182A CN 113808182 A CN113808182 A CN 113808182A CN 202111374305 A CN202111374305 A CN 202111374305A CN 113808182 A CN113808182 A CN 113808182A
- Authority
- CN
- China
- Prior art keywords
- image
- features
- feature
- network
- spatial information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000000605 extraction Methods 0.000 claims abstract description 128
- 230000009466 transformation Effects 0.000 claims abstract description 67
- 238000013507 mapping Methods 0.000 claims abstract description 12
- 230000004927 fusion Effects 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 claims description 42
- 238000010606 normalization Methods 0.000 claims description 38
- 238000011176 pooling Methods 0.000 claims description 32
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 230000004913 activation Effects 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 16
- 230000017105 transposition Effects 0.000 claims description 15
- 238000012384 transportation and delivery Methods 0.000 claims description 12
- 238000003012 network analysis Methods 0.000 claims description 8
- 230000002123 temporal effect Effects 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 7
- 238000002156 mixing Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 2
- 241000834151 Notesthes Species 0.000 claims 1
- 108010001267 Protein Subunits Proteins 0.000 claims 1
- 230000005484 gravity Effects 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 abstract description 16
- 230000008569 process Effects 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种2D与3D图像配准方法及装置,包括:获取待配准的一幅2D图像和一幅3D图像;将所述2D图像和3D图像输入预先训练的2D图像特征提取模型和3D图像特征提取模型中,获取同维度的包含空间信息的2D图像特征和3D图像特征;将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。本发明直接对图像对进行配准,无需配准前图像预处理,最大程度简化了2D和3D图像配准流程。
Description
技术领域
本发明涉及图像配准领域,尤其涉及2D与3D图像配准方法及装置。
背景技术
2D图像和3D图像配准,即寻找一个空间变换,将2D图像和3D图像中相同的空间位置准确地叠加在一起的过程。2D和3D图像配准广泛应用于各种场景,比如在介入治疗、智能制造、机器人定位等领域,通常需要将预先已知的3D图像与实时获取的2D图像进行配准,以实现手术的精准导航、机械臂的安全自主交互、汽车的自主动态避障路径规划等功能。
现有2D与3D图像配准技术主要采用如下两种方案:1、将3D图像投影到2D空间生成2D投影图像,遍历所有可能的投影变换,构建一个投影图像库,然后从中寻找与待配准2D图像最为匹配的2D投影图像,从而实现2D与3D图像的配准。构建完整的投影图像库经常需要成百上千个小时,过程极为繁琐耗时。2、利用多张2D图像重建3D图像,通过匹配重建3D图像与待配准的3D图像,间接实现2D和3D图像的配准。现实中很难即时获得多张2D图像以重建3D图像,即使能获得少量2D图像,所重建的3D图像比较粗糙,进而影响2D与3D图像的最终配准精度。因此,亟需一种新的2D与3D图像配准技术,直接在2D与3D图像对上进行配准,以避开繁琐、耗时、难以满足条件等诸多配准前的预处理。
发明内容
为此,我们考虑将待配准的2D图像和3D图像分别拉伸为2D图像的1D特征序列和3D图像的1D特征序列,并将2D图像和3D图像的空间信息分别嵌入到各自的1D特征序列中,得到包含空间信息的2D图像1D特征序列和包含空间信息3D图像1D特征序列,然后配准包含空间信息的2D图像1D特征序列和包含空间信息3D图像1D特征序列,进而实现2D和3D图像的配准。如此便可以直接在2D和3D图像上进行配准,无需配准前的图像预处理过程。
有鉴于此,本发明提供了一种2D和3D图像配准方法,包括:
获取待配准的一幅2D图像和一幅3D图像;
将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度;
将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;
基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
基于上述配准方法,本发明还提供了一种2D和3D图像配准装置,包括:
数据获取单元,用于:获取待配准的一幅2D图像和一幅3D图像;
特征提取单元,用于:将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度;
图像配准单元,用于:将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;
图像叠加单元,用于:基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
相对于现有2D与3D图像配准技术,本发明直接在输入的待配准图像对上进行图像配准,没有在配准前对待配准的2D图像或3D图像做任何的图像预处理,避开了繁琐、耗时、难以满足条件等诸多配准前的预处理工作,最大程度简化了2D和3D图像配准的流程。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明实施例1、实施例2、实施例3和实施例4提供的一种2D和3D图像配准方法流程示意图;
图2是本发明实施例1和实施例2提供的特征提取模型示意图;
图3是本发明实施例1和实施例3提供的配准模型示意图;
图4是本发明实施例2和实施例4提供的配准模型示意图;
图5是本发明实施例3和实施例4提供的特征提取模型示意图;
图6是本发明实施例5、实施例6、实施例7和实施例8提供的一种2D和3D图像配准装置结构示意图;
图7是本发明实施例5和实施例6提供的特征提取单元示意图;
图8是本发明实施例5和实施例7提供的图像配准单元示意图;
图9是本发明实施例6和实施例8提供的图像配准单元示意图;
图10是本发明实施例7和实施例8提供的特征提取单元示意图。
具体实施方式
为使本发明的目的、技术手段和有益效果更加清楚完整,下面结合附图对本发明的具体实施方式进行描述。
实施例1
本发明实施例提供了一种2D和3D图像配准方法,其流程示意图如图1所示,包括以下步骤:
S1、获取待配准的一幅2D图像和一幅3D图像。
S2、将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度。
图2显示了S2中特征提取模型S21的网络结构:
S211、2D图像特征提取网络模型S211,从所述2D图像间接提取包含有空间信息的2D图像1D特征,2D图像特征提取网络模型S211依次具体包括:
S2111、2D图像2D特征提取模块,采用2D图像卷积神经网络提取2D图像2D特征,2D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
S2112、2D图像维度转换模块,用于将所述2D图像2D特征转换成1D特征,采用公式(1)进行转换:
S2113、2D图像1D特征与通道转置模块,采用公式(2)对2D图像特征与通道进行转置:
S2114、2D图像位置嵌入模块,用于对所述转置后的2D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述转置后的2D图像1D特征中;
首先,采用如下公式进行位置编码:
然后,将位置编码嵌入到2D图像1D特征中,嵌入公式如下:
S212、3D图像特征提取网络模型S212,从所述3D图像间接提取包含有空间信息的3D图像1D特征,所述3D图像特征提取网络模型依次具体包括:
S2121、3D图像3D特征提取模块,采用3D图像卷积神经网络提取3D图像3D特征,3D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
S2122、3D图像维度转换模块,用于将所述3D图像3D特征转换成1D特征,采用公式(6)进行转换:
S2123、3D图像1D特征与通道转置模块,采用公式(7)对3D图像特征与通道进行转置:
S2124、3D图像位置嵌入模块,用于对所述转置后的3D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述3D图像1D特征中;
首先,采用如下公式进行位置编码:
然后,将位置编码嵌入到2D图像1D特征中,嵌入公式如下:
S3、将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;
图3显示了S3中配准模型S31的网络结构:
S31、所述配准模型依次包括:特征长度归一化网络、特征交叉融合网络和空间变换计算网络;
S311、特征长度归一化网络:
采用一维卷积网络,将所述包含空间信息的2D图像1D特征序列和所述包含空间信
息的3D图像1D特征序列分别归一化为相同的序列长度;归一化后的序列长度取值靠近所
述包含空间信息的2D图像1D特征序列长度和所述包含空间信息的3D图像1D特征序列长度
的几何平均数,同时能被后述多头交叉注意力网络中的头数所整除;
S312、特征交叉融合网络:
采用多头交叉注意力网络,学习从2D图像到3D图像的交叉融合特征和从3D图像到2D图像的交叉融合特征,具体包括:
S3121、2D图像到3D图像交叉融合特征计算网络,采用2D到3D图像的多头交叉注意
力网络,将长度归一化后的包含空间信息的2D图像1D特征传递给长度归一化后的包含
空间信息的3D图像1D特征,得到所述2D图像到所述3D图像的交叉融合特征,具体计
算如下:
其中, LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表
示为将传递给的第头交叉注意力网络层,表示为将通过第头注意力网
络传递给后得到的第头交叉融合特征,表示传递给的第头交叉融合
特征,表示最终得到的传递给的第头交叉融合特征,,表
示由θ参数化的第头交叉注意力网络的前馈层;
S3122、3D图像到2D图像交叉融合特征计算网络,采用3D到2D图像的多头交叉注意
力网络,将长度归一化后的包含空间信息的3D图像1D特征传递给长度归一化后的包含
空间信息的2D图像1D特征,得到所述3D图像到所述2D图像的交叉融合特征,具体计
算如下:
其中,LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表
示为将传递给的第头交叉注意力网络层,表示为将通过第头注意力网络
传递给后得到的第头交叉融合特征,表示传递给的第头交叉融合特
征,表示最终得到的传递给的第头交叉融合特征,,表示由θ
参数化的第头交叉注意力网络的前馈层;
S313、空间变换计算网络:
用于计算配准所述2D图像与所述3D图像的空间变换,具体如下:
S3131、特征组合模型,将所述2D图像到3D图像的交叉融合特征与所述3D图像
到2D图像的交叉融合特征组合为特征,,组合特征的序列长度保
持所述归一化后的序列长度S0不变,组合特征的通道数,表示交叉注意力网络
中值的通道数,具体取值依据模型需要自行设定;也可以如后述实施例2中S322一样进行特
征组合;
S3133、空间变换输出网络,先通过一个卷积层,将解析特征的通道数调整为1;再通过一个由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
S4、基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
以上即为本发明实施例1提供的一种2D和3D图像配准方法的具体实施方式。相较于现有2D与3D图像配准技术,此方法直接在输入的待配准图像对上进行图像配准,没有在配准前对待配准的2D图像或3D图像做任何的图像预处理,避开了繁琐、耗时、难以满足条件等诸多配准前的预处理工作,最大程度简化了2D和3D图像配准的流程。
实施例2
本发明实施例提供了一种2D和3D图像配准方法,其流程示意图如图1所示,包括以下步骤:
S1、获取待配准的一幅2D图像和一幅3D图像。
S2、将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度。
图2显示了S2中特征提取模型S21的网络结构,包括S211即2D图像特征提取网络模型和S212即3D图像特征提取网络模型,其中:
S211、所述2D图像特征提取网络模型从所述2D图像间接提取包含有空间信息的2D图像1D特征,依次具体包括: S2111即2D图像2D特征提取模块,S2112即2D图像维度转换模块、S2113即2D图像1D特征与通道转置模块和S2114即2D图像位置嵌入模块;
S212、所述3D图像特征提取网络模型从所述3D图像间接提取包含有空间信息的3D图像1D特征,依次具体包括:S2121即3D图像3D特征提取模块、S2122即3D图像维度转换模块、S2123即3D图像1D特征与通道转置模块和S2124即3D图像位置嵌入模块;
所述特征提取模型S21与实施例1中所述特征提取模型S21完全相同。
S3、将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换。
图4显示了S3中配准模型S32的网络结构,具体包括:特征通道归一化网络、特征组合网络、特征解析网络和空间变换输出网络,其中:
S321、特征通道归一化网络,用于将所述包含空间信息的2D图像1D特征通道和所
述包含空间信息的3D图像1D特征通道归一化为相同的通道数;归一化后的通道数取值为
所述包含空间信息的2D图像1D特征序列长度和所述包含空间信息的3D图像1D特征序列
长度的几何平均数;
S322、特征组合网络,用于将所述包含空间信息的2D图像1D特征和所述包含空
间信息的3D图像1D特征组合起来,得到组合特征;组合特征的通道数保
持所述归一化后的通道数不变,组合特征的序列长度,S 2 和S 3 分别表示特征 2 和 3 的序列长度;也可以如前述实施例1中S3131一样进行特征组合;
S324、空间变换输出网络,用于输出配准空间变换;所述空间变换输出网络由一个卷积层和一个全连接网络构成;先通过一个卷积层,将解析特征的通道数调整为1;再通过由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
以上即为本发明实施例2提供的一种2D和3D图像配准方法的具体实施方式。相较于现有2D与3D图像配准技术,此方法直接在输入的待配准图像对上进行图像配准,无需任何配准前的图像预处理工作,最大程度简化了2D和3D图像配准的流程。
实施例3
本发明实施例提供了一种2D和3D图像配准方法,其流程示意图如图1所示,包括以下步骤:
S1、获取待配准的一幅2D图像和一幅3D图像。
S2、将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度。
图5显示了步骤S2中特征提取模型S22的网络结构,包括2D图像特征提取网络模型和3D图像特征提取网络模型,其中:
S221、2D图像特征提取网络模型,从所述2D图像直接提取包含有空间信息的2D图像1D特征,具体包括:n1个2D图像处理单元和1个时间卷积单元;其中,每个2D图像处理单元由n2个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个最大池化单元由一个卷积核大小为3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n3*n3、步长为1的时间卷积层构成;n1、n2和n3的取值依据需要自行确定;
S222、3D图像特征提取网络模型,从所述3D图像直接提取包含有空间信息的3D图像1D特征,具体包括:n4个3D图像处理单元和1个时间卷积单元;其中,每个3D图像处理单元由n5个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个池化单元由一个卷积核大小为3*3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n6*n6*n6、步长为1的时间卷积层构成;n4、n5和n6的取值依据需要自行确定。
S3、将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换。
图3显示了S3中配准模型S31的网络结构,依次包括:S311即特征长度归一化网络、S312即特征交叉融合网络和S313即空间变换计算网络,其中:
S312、所述特征交叉融合网络包括:S3121即2D到3D图像交叉融合特征计算网络和S3122即3D到2D图像交叉融合特征计算网络;
S313、所述空间变换计算网络包括:S3131即特征组合模型、S3132即特征解析网络和S3133空间变换输出网络;
所述配准模型S31与实施例1中所述配准网络模型S31完全相同。
S4、基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
以上即为本发明实施例3提供的一种2D和3D图像配准方法的具体实施方式。相较于现有2D与3D图像配准技术,此方法直接在输入的待配准图像对上进行图像配准,无需任何配准前的图像预处理工作,最大程度简化了2D和3D图像配准的流程。
实施例4
本发明实施例提供了一种2D和3D图像配准方法,其流程示意图如图1所示,包括以下步骤:
S1、获取待配准的一幅2D图像和一幅3D图像。
S2、将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度;
图5显示了步骤S2中特征提取模型S22的网络结构,包括2D图像特征提取网络模型S221和3D图像特征提取网络模型S222,其中:
S221、2D图像特征提取网络模型从所述2D图像直接提取包含有空间信息的2D图像1D特征;
S222、3D图像特征提取网络模型从所述3D图像直接提取包含有空间信息的3D图像1D特征;
所述特征提取模型S22与实施例3中所述特征提取模型S22完全相同。
S3、将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;
图4显示了S3中配准模型S32的网络结构,依次包括:S321即特征通道归一化网络、S322即特征组合网络、S323即特征解析网络和S324即空间变换输出网络;
所述配准模型S32与实施例2中所述配准模型S32完全相同。
S4、基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
以上即为本发明实施例4提供的一种2D和3D图像配准方法的具体实施方式。相较于现有2D与3D图像配准技术,此方法直接在输入的待配准图像对上进行图像配准,无需任何配准前的图像预处理工作,最大程度简化了2D和3D图像配准的流程。
实施例5
基于实施例1提供的一种2D和3D图像配准方法,本发明实施例提供了一种2D和3D图像配准装置,其结构示意图如图6所示,该装置包括以下单元:
图像获取单元D1,获取待配准的一幅2D图像和一幅3D图像。
特征提取单元D2,将所述2D图像和3D图像分别输入预先训练的2D图像特征提取子单元和3D图像特征提取子单元中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度;
图7显示了D2中特征提取单元D21的结构,包括2D图像特征提取子单元D211和3D图像特征提取子单元D212两个部分,其中:
2D图像特征提取子单元D211,用于:从所述2D图像间接提取包含有空间信息的2D图像1D特征,2D图像特征提取子单元D211依次具体包括:
2D图像2D特征提取子单元D2111,采用2D图像卷积神经网络提取2D图像2D特征,2D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
2D图像维度转换子单元D2112,用于将所述2D图像2D特征转换成1D特征,采用公式(20)进行转换:
2D图像1D特征与通道转置子单元D2113,采用公式(21)对2D图像特征与通道进行转置:
2D图像位置嵌入子单元D2114,用于对所述转置后的2D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述转置后的2D图像1D特征中;
首先,采用如下公式进行位置编码:
然后,将位置编码嵌入到2D图像1D特征中,嵌入公式如下:
3D图像特征提取子单元D212,用于:从所述3D图像间接提取包含有空间信息的3D图像1D特征,所述3D图像特征提取子单元D212依次具体包括:
3D图像3D特征提取子单元D2121,采用3D图像卷积神经网络提取3D图像3D特征,3D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
3D图像维度转换子单元D2122,用于将所述3D图像3D特征转换成1D特征,采用公式(25)进行转换:
3D图像1D特征与通道转置子单元D2123,采用公式(26)对3D图像特征与通道进行转置:
3D图像位置嵌入子单元D2124,用于对所述转置后的3D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述3D图像1D特征中;
首先,采用如下公式进行位置编码:
然后,将位置编码嵌入到2D图像1D特征中,嵌入公式如下:
图像配准单元D3,将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准单元中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换。
图8显示了D3中图像配准单元D31的网络结构,图像配准单元D31依次包括:特征长度归一化子单元D311、特征交叉融合子单元D312和空间变换计算子单元D313,其中:
特征长度归一化子单元D311:
采用一维卷积网络,将所述包含空间信息的2D图像1D特征序列和所述包含空间信
息的3D图像1D特征序列分别归一化为相同的序列长度;归一化后的序列长度取值靠近所
述包含空间信息的2D图像1D特征序列长度和所述包含空间信息的3D图像1D特征序列长度
的几何平均数,同时能被后述多头交叉注意力网络中的头数所整除。
特征交叉融合子单元D312:
采用多头交叉注意力网络,学习从2D图像到3D图像的交叉融合特征和从3D图像到2D图像的交叉融合特征,具体包括:
2D图像到3D图像交叉融合特征计算子单元D3121,采用2D到3D图像的多头交叉注
意力网络,将长度归一化后的包含空间信息的2D图像1D特征传递给长度归一化后的包
含空间信息的3D图像1D特征,得到所述2D图像到所述3D图像的交叉融合特征,具体
计算如下:
其中,LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表
示为将传递给的第头交叉注意力网络层,表示为将通过第头注意力网
络传递给后得到的第头交叉融合特征,表示传递给的第头交叉融合
特征,表示最终得到的传递给的第头交叉融合特征,,表
示由θ参数化的第头交叉注意力网络的前馈层;
3D图像到2D图像交叉融合特征计算子单元D3122,采用3D到2D图像的多头交叉注
意力网络,将长度归一化后的包含空间信息的3D图像1D特征传递给长度归一化后的包
含空间信息的2D图像1D特征,得到所述3D图像到所述2D图像的交叉融合特征,具体
计算如下:
其中, LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表
示为将传递给的第头交叉注意力网络层,表示为将通过第头注意力网络
传递给后得到的第头交叉融合特征,表示传递给的第头交叉融合特
征,表示最终得到的传递给的第头交叉融合特征,,表示由θ
参数化的第头交叉注意力网络的前馈层。
空间变换计算子单元D313:
用于计算配准所述2D图像与所述3D图像的空间变换,具体结构如下:
特征组合子单元D3131,将所述2D图像到3D图像的交叉融合特征与所述3D图
像到2D图像的交叉融合特征组合为特征,,组合特征的序列长度
保持所述归一化后的序列长度S0不变,组合特征的通道数,表示交叉注意力网
络中值的通道数,具体取值依据模型需要自行设定;也可以如后述实施例2中S322一样进行
特征组合;
空间变换输出子单元D3133,先通过一个卷积层,将解析特征的通道数调整为1;再通过一个由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
图像叠加单元D4,基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
以上即为本发明实施例5提供的一种2D和3D图像配准装置的具体结构。相较于现有2D与3D图像配准技术,此装置直接在输入的待配准图像对上进行图像配准,没有在配准前对待配准的2D图像或3D图像做任何的图像预处理,避开了繁琐、耗时、难以满足条件等诸多配准前的预处理工作,最大程度简化了2D和3D图像配准的流程。
实施例6
基于实施例2提供的一种2D和3D图像配准方法,本发明实施例提供了一种2D和3D图像配准装置,其结构示意图如图6所示,该装置包括以下单元:
图像获取单元D1,用于:获取待配准的一幅2D图像和一幅3D图像。
特征提取单元D2,用于:将所述2D图像和3D图像分别输入预先训练的2D图像特征提取子单元和3D图像特征提取子单元中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度。
图7显示了D2中特征提取单元D21的结构,包括有2D图像特征提取子单元D211和3D图像特征提取子单元D212,其中:
2D图像特征提取子单元D211,用于:从所述2D图像间接提取包含有空间信息的2D图像1D特征,依次具体包括:2D图像2D特征提取子单元D2111,2D图像维度转换子单元D2112、2D图像1D特征与通道转置子单元D2113和2D图像位置嵌入子单元D2114;
3D图像特征提取子单元D212,用于:从所述3D图像间接提取包含有空间信息的3D图像1D特征,依次具体包括:3D图像3D特征提取子单元D2121、3D图像维度转换子单元D2122、3D图像1D特征与通道转置子单元D2123和3D图像位置嵌入子单元D2124;
所述特征提取单元D21与实施例5中所述特征提取单元D21完全相同。
图像配准单元D3,用于:将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准单元中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换。
图9显示了D3中图像配准单元D32的网络结构,具体包括:特征通道归一化子单元D321、特征组合子单元D322、特征解析子单元D323和空间变换输出子单元D324,其中:
特征通道归一化子单元D321,用于:将所述包含空间信息的2D图像1D特征通道和
所述包含空间信息的3D图像1D特征通道归一化为相同的通道数;归一化后的通道数取值
为所述包含空间信息的2D图像1D特征序列长度和所述包含空间信息的3D图像1D特征序
列长度的几何平均数;
特征组合子单元D322,用于:将所述包含空间信息的2D图像1D特征和所述包含
空间信息的3D图像1D特征组合起来,得到组合特征;组合特征的通道数
保持所述归一化后的通道数不变,组合特征的序列长度,S 2 和S 3 分别表示特
征 2 和 3 的序列长度;也可以如前述实施例5中D3131一样进行特征组合;
空间变换输出子单元D324,用于:输出配准空间变换;空间变换输出子单元D324由一个卷积层和一个全连接网络构成;先通过一个卷积层,将解析特征的通道数调整为1;再通过由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
图像叠加单元D4,用于:基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
以上即为本发明实施例6提供的一种2D和3D图像配准装置的具体结构。相较于现有2D与3D图像配准技术,此装置直接在输入的待配准图像对上进行图像配准,无需任何配准前的图像预处理工作,最大程度简化了2D和3D图像配准的流程。
实施例7
基于实施例3提供的一种2D和3D图像配准方法,本发明实施例提供了一种2D和3D图像配准装置,其结构示意图如图6所示,该装置包括以下单元:
图像获取单元D1,用于:获取待配准的一幅2D图像和一幅3D图像。
特征提取单元D2,用于:将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度。
图10显示了D2中特征提取单元D22的结构,包括2D图像特征提取子单元D221和3D图像特征提取子单元D222,其中:
2D图像特征提取子单元D221,用于:从所述2D图像直接提取包含有空间信息的2D图像1D特征,具体包括:n1个2D图像处理单元和1个时间卷积单元;其中,每个2D图像处理单元由n2个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个最大池化单元由一个卷积核大小为3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n3*n3、步长为1的时间卷积层构成;n1、n2和n3的取值依据需要自行确定;
3D图像特征提取子单元D222,用于:从所述3D图像直接提取包含有空间信息的3D图像1D特征,具体包括:n4个3D图像处理单元和1个时间卷积单元;其中,每个3D图像处理单元由n5个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个池化单元由一个卷积核大小为3*3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n6*n6*n6、步长为1的时间卷积层构成;n4、n5和n6的取值依据需要自行确定。
图像配准单元D3,用于:将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准单元中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换。
图8显示了D3中图像配准单元D31的结构,依次包括:特征长度归一化子单元D311、特征交叉融合子单元D312和空间变换计算子单元D313,其中:
特征交叉融合子单元D312包括:2D到3D图像交叉融合特征计算子单元D3121和3D到2D图像交叉融合特征计算子单元D3122;
空间变换计算子单元D313,包括:特征组合子单元D3131、特征解析子单元D3132 z和空间变换输出子单元D3133;
所述图像配准单元D31与实施例5中所述图像配准单元D31结构完全相同。
图像叠加单元D4,用于:基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
以上即为本发明实施例7提供的一种2D和3D图像配准装置的具体结构。相较于现有2D与3D图像配准技术,此装置直接在输入的待配准图像对上进行图像配准,无需任何配准前的图像预处理工作,最大程度简化了2D和3D图像配准的流程。
实施例8
基于实施例4提供的一种2D和3D图像配准方法,本发明实施例提供了一种2D和3D图像配准装置,其结构示意图如图6所示,该装置包括以下单元:
图像获取单元D1,用于:获取待配准的一幅2D图像和一幅3D图像。
特征提取单元D2,用于:将所述2D图像和3D图像分别输入预先训练的2D图像特征提取子单元和3D图像特征提取子单元中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度;
图10显示了D2中特征提取单元D22的网络结构,包括:2D图像特征提取子单元D221和3D图像特征提取子单元D222,其中:
2D图像特征提取子单元D221,用于:从所述2D图像直接提取包含有空间信息的2D图像1D特征;
3D图像特征提取子单元D222,用于:从所述3D图像直接提取包含有空间信息的3D图像1D特征;
所述特征提取单元D22与实施例3中所述特征提取单元D22完全相同。
图像配准单元D3,用于:将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准单元中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;
图9显示了D3中配准模型D32的网络结构,依次包括:特征通道归一化子单元D321、特征组合子单元D322、特征解析子单元D323和空间变换输出子单元D324;
图像配准模型D32与实施例6中所述配准模型D32完全相同。
图像叠加单元D4,用于:基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
以上即为本发明实施例8提供的一种2D和3D图像配准装置的具体结构。相较于现有2D与3D图像配准技术,此装置直接在输入的待配准图像对上进行图像配准,无需任何配准前的图像预处理工作,最大程度简化了2D和3D图像配准的流程。
上述实施例将2D和3D图像皆拉伸为1D特征后进行配准,也可以从2D图像中提取2D特征,从3D图像中提取2D特征,然后在2D图像2D特征和3D图像2D特征上进行配准,同样也可以避开配准前的图像预处理工作。
以上所述仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制。虽然本发明以较佳实施例揭露如上,然而并非用以限定本发明。任何熟悉本领域的技术人员,在不脱离本发明技术方案范围情况下,都可利用上述揭示的方法和技术内容对本发明技术方案做出许多可能的变动和修饰,或修改为等同变化的等效实施例。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。
Claims (12)
1.一种2D与3D图像配准方法,其特征在于,包括:
获取待配准的一幅2D图像和一幅3D图像;
将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度;
将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;
基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
2.根据权利要求1所述的方法,其特征在于,将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度,其中:
所述2D图像特征提取网络模型从所述2D图像间接提取包含有空间信息的2D图像1D特征,所述2D图像特征提取网络模型依次具体包括:2D图像2D特征提取模块、2D图像维度转换模块、和2D图像位置嵌入模块,其中:
所述2D图像2D特征提取模块,采用2D图像卷积神经网络提取2D图像2D特征,2D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
所述2D图像维度转换模块,用于将所述2D图像2D特征转换成1D特征,采用公式(1)进行转换:
所述2D图像位置嵌入模块,用于对所述2D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述2D图像的1D特征中;
首先,采用如下公式进行位置编码:
然后,将位置编码嵌入到2D图像1D特征中,嵌入公式如下:
所述3D图像特征提取网络模型从所述3D图像间接提取包含有空间信息的3D图像1D特征,所述3D图像特征提取网络模型依次具体包括:3D图像3D特征提取模块、3D图像维度转换模块、和3D图像位置嵌入模块,其中:
所述3D图像3D特征提取模块,采用3D图像卷积神经网络提取3D图像3D特征,3D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
所述3D图像维度转换模块,用于将所述3D图像3D特征转换成1D特征,采用公式(5)进行转换:
所述3D图像位置嵌入模块,用于对所述3D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述3D图像1D特征中;
首先,采用如下公式进行位置编码:
然后,将位置编码嵌入到3D图像1D特征中,嵌入公式如下:
4.根据权利要求1所述的方法,其特征在于,将所述2D图像和3D图像分别输入预先训练的2D图像特征提取网络模型和3D图像特征提取网络模型中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度,其中:
所述2D图像特征提取网络模型从所述2D图像直接提取包含有空间信息的2D图像1D特征,所述2D图像特征提取网络模型具体包括:n1个2D图像处理单元和1个时间卷积单元;其中,每个2D图像处理单元由n2个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个最大池化单元由一个卷积核大小为3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n3*n3、步长为1的时间卷积层构成;n1、n2和n3的取值依据需要自行确定;
所述3D图像特征提取网络模型从所述3D图像直接提取包含有空间信息的3D图像1D特征,所述3D图像特征提取网络模型具体包括:n4个3D图像处理单元和1个时间卷积单元;其中,每个3D图像处理单元由n5个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个池化单元由一个卷积核大小为3*3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n6*n6*n6、步长为1的时间卷积层构成;n4、n5和n6的取值依据需要自行确定。
5.根据权利要求3或4所述的方法,其特征在于,将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换,其中,
所述配准模型依次包括:特征长度归一化网络、特征交叉融合网络和空间变换计算网络;
所述特征长度归一化网络;
采用一维卷积网络,将所述包含空间信息的2D图像1D特征序列和所述包含空间信息的
3D图像1D特征序列分别归一化为相同的序列长度;归一化后的序列长度取值靠近所述包
含空间信息的2D图像1D特征序列长度和所述包含空间信息的3D图像1D特征序列长度
的几何平均数,同时能被后述多头交叉注意力网络中的头数所整除;
所述特征交叉融合网络;
采用多头交叉注意力网络,学习从2D图像到3D图像的交叉融合特征和从3D图像到2D图像的交叉融合特征,具体包括:2D图像到3D图像交叉融合特征计算网络和3D图像到2D图像交叉融合特征计算网络:
所述2D图像到3D图像交叉融合特征计算网络,采用2D到3D图像的多头交叉注意力网
络,将长度归一化后的包含空间信息的2D图像1D特征传递给长度归一化后的包含空间
信息的3D图像1D特征,得到所述2D图像到所述3D图像的交叉融合特征,具体计算如
下:
其中, LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表示为
将传递给的第头交叉注意力网络层,表示为将通过第头注意力网络传
递给后得到的第头交叉融合特征,表示传递给的第头交叉融合特
征,表示最终得到的传递给的第头交叉融合特征,,表示
由θ参数化的第头交叉注意力网络的前馈层;
所述3D图像到2D图像交叉融合特征计算网络,采用3D到2D图像的多头交叉注意力网
络,将长度归一化后的包含空间信息的3D图像1D特征传递给长度归一化后的包含空间
信息的2D图像1D特征,得到所述3D图像到所述2D图像的交叉融合特征,具体计算如
下:
其中, LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表示为
将传递给的第头交叉注意力网络层,表示为将通过第头注意力网络传递
给后得到的第头交叉融合特征,表示传递给的第头交叉融合特征,表示最终得到的传递给的第头交叉融合特征,,表示由θ参
数化的第头交叉注意力网络的前馈层;
所述空间变换计算网络,用于计算配准所述2D图像与所述3D图像的空间变换,具体如下:
步骤A、将所述2D图像到3D图像的交叉融合特征与所述3D图像到2D图像的交叉融
合特征组合为特征X,,组合特征X的序列长度保持所述归一化后的序
列长度S0不变,组合特征X的通道数;表示交叉注意力网络中值的通道数,具体取
值依据模型需要自行设定;
步骤B、采用自注意力网络对组合特征X进行解析,组合特征X的自注意力计算公式如下:
步骤C、先通过一个卷积层,将解析特征的通道数调整为1;再通过一个由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
6.根据权利要求3或4所述的方法,其特征在于,将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准模型中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换,其中:
所述配准模型依次包括:特征通道归一化网络、特征组合网络、特征解析网络和空间变换输出网络,其中:
所述特征通道归一化网络,用于将所述包含空间信息的2D图像1D特征通道和所述包含
空间信息的3D图像1D特征通道归一化为相同的通道数;归一化后的通道数取值为所述包
含空间信息的2D图像1D特征序列长度和所述包含空间信息的3D图像1D特征序列长度
的几何平均数;
所述特征组合网络,用于将所述包含空间信息的2D图像1D特征和所述包含空间信息
的3D图像1D特征组合起来,得到组合特征;组合特征的通道数保持所述归
一化后的通道数不变,组合特征的序列长度,S 2 和S 3 分别表示特征X 2 和X 3 的序
列长度;
所述空间变换输出网络,用于输出配准空间变换;所述空间变换输出网络由一个卷积层和一个全连接网络构成;先通过一个卷积层,将解析特征的通道数调整为1;再通过由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
7.一种2D与3D图像配准装置,其特征在于,包括:
图像获取单元,用于:获取待配准的一幅2D图像和一幅3D图像;
特征提取单元,用于:将所述2D图像和3D图像分别输入预先训练的2D图像特征提取子单元和3D图像特征提取子单元中,获取包含空间信息的2D图像特征和3D图像特征,所述包含空间信息的2D图像特征与所述包含空间信息的3D图像特征具有相同的空间维度;
图像配准单元,用于:将所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征输入到预先训练的配准单元中,对所述包含空间信息的2D图像特征及所述包含空间信息的3D图像特征进行配准,得到配准所述2D图像与所述3D图像的空间变换;
图像叠加单元,用于:基于所述空间变换,将所述3D图像映射并叠加到所述2D图像对应空间位置上。
8.根据权利要求7所述的装置,其特征在于,所述特征提取单元包括:2D图像特征提取子单元1和3D图像特征提取子单元1,其中:
所述2D图像特征提取子单元1从所述2D图像间接提取包含有空间信息的2D图像1D特征,所述2D图像特征提取子单元1依次具体包括:2D图像2D特征提取子单元、2D图像维度转换子单元,和2D图像位置嵌入子单元,其中:
所述2D图像2D特征提取子单元,用于:提取2D图像2D特征;采用2D图像卷积神经网络提取2D图像2D特征,2D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
所述2D图像维度转换子单元,用于:将所述2D图像2D特征转换成1D特征,采用公式(19)进行转换:
所述2D图像位置嵌入子单元,用于:对所述2D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述2D图像的1D特征中;
首先采用如下公式进行位置编码:
然后,将位置编码嵌入到2D图像1D特征中,嵌入公式如下:
所述3D图像特征提取子单元1从所述3D图像间接提取包含有空间信息的3D图像1D特征,所述3D图像特征提取子单元1依次具体包括:3D图像3D特征提取子单元、3D图像维度转换子单元,和3D图像位置嵌入子单元,其中:
所述3D图像3D特征提取子单元1,用于:提取3D图像3D特征;采用3D图像卷积神经网络提取3D图像3D特征,3D图像卷积神经网络由输入层、卷积层、激活函数、池化层、全连接层组成;
所述3D图像维度转换子单元,用于:将所述3D图像3D特征转换成1D特征,采用公式(23)进行转换:
所述3D图像位置嵌入子单元,用于:对所述3D图像1D特征的位置信息进行编码,并将位置编码嵌入到所述3D图像1D特征中;
首先,采用如下公式进行位置编码:
然后,将位置编码嵌入到3D图像1D特征中,嵌入公式如下:
10.根据权利要求7所述的装置,其特征在于,所述特征提取单元包括:2D图像特征提取子单元2和3D图像特征提取子单元2,其中:
所述2D图像特征提取子单元2,用于:从所述2D图像直接提取包含有空间信息的2D图像1D特征;所述2D图像特征提取子单元2具体包括:n1个2D图像处理单元和1个时间卷积单元;其中,每个2D图像处理单元由n2个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个最大池化单元由一个卷积核大小为3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n3*n3、步长为1的时间卷积层构成;n1、n2和n3的取值依据需要自行确定;
所述3D图像特征提取子单元2,用于:从所述3D图像直接提取包含有空间信息的3D图像1D特征;所述3D图像特征提取子单元2具体包括:n4个3D图像处理单元和1个时间卷积单元;其中,每个3D图像处理单元由n5个卷积单元和1个最大池化单元组成;每个卷积单元又包括:一个卷积核大小为3*3*3和步长为1的卷积层、一个批标准化层和一个激活层;每个池化单元由一个卷积核大小为3*3*3、步长为2的最大池化层构成;每个时间卷积单元则由一个卷积核大小为n6*n6*n6、步长为1的时间卷积层构成;n4、n5和n6的取值依据需要自行确定。
11.根据权利要求9或10所述的装置,其特征在于,所述配准单元依次包括:特征长度归一化子单元、特征交叉融合子单元,和空间变换计算子单元;
所述特征长度归一化子单元,用于:采用一维卷积网络,将所述包含空间信息的2D图像
1D特征序列和所述包含空间信息的3D图像1D特征序列分别归一化为相同的序列长度;归一
化后的序列长度取值靠近所述包含空间信息的2D图像1D特征序列长度和所述包含空
间信息的3D图像1D特征序列长度的几何平均数,同时能被后述多头交叉注意力网络中的
头数所整除;
所述特征交叉融合子单元,用于:采用多头交叉注意力网络,学习从2D图像到3D图像的交叉融合特征和从3D图像到2D图像的交叉融合特征;所述特征交叉融合子单元具体又包括:2D图像到3D图像交叉融合特征计算子单元和3D图像到2D图像交叉融合特征计算子单元;
所述2D图像到3D图像交叉融合特征计算子单元,用于:学习从2D图像到3D图像的交叉
融合特征;采用2D到3D图像的多头交叉注意力网络,将长度归一化后的包含空间信息的2D
图像1D特征传递给长度归一化后的包含空间信息的3D图像1D特征,得到所述2D图像
到所述3D图像的交叉融合特征,具体计算如下:
其中, LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表示为
将传递给的第头交叉注意力网络层,表示为将通过第头注意力网络传
递给后得到的第头交叉融合特征,表示传递给的第头交叉融合特
征,表示最终得到的传递给的第头交叉融合特征,,表示
由θ参数化的第头交叉注意力网络的前馈层;
所述3D图像到2D图像交叉融合特征计算网络,采用3D到2D图像的多头交叉注意力网
络,将长度归一化后的包含空间信息的3D图像1D特征传递给长度归一化后的包含空间
信息的2D图像1D特征,得到所述3D图像到所述2D图像的交叉融合特征,具体计算如
下:
其中, LN表示层标准化,表示交叉注意力网络的头数,即传递次数,表示为
将传递给的第头交叉注意力网络层,表示为将通过第头注意力网络传递
给后得到的头交叉融合特征,表示传递给的第头交叉融合特征,表示最终得到的传递给的第头交叉融合特征,,表示由θ参
数化的第头交叉注意力网络的前馈层;
所述空间变换计算子单元,用于:输出配准所述2D图像与所述3D图像的空间变换,具体包括:
特征组合子单元1,用于:将所述2D图像到3D图像的交叉融合特征与所述3D图像到
2D图像的交叉融合特征组合为特征,,组合特征的序列长度保持所
述归一化后的序列长度S0不变,组合特征X的通道数,表示交叉注意力网络中值
的通道数,具体取值依据模型需要自行设定;
空间变换输出单元1,用于:输出配准空间变换;所述空间变换输出子单元1由一个卷积层和一个全连接网络构成;先通过一个卷积层,将解析特征的通道数调整为1;再通过一个由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
12.根据权利要求9或10所述的装置,其特征在于,所述配准单元依次包括:特征通道归一化子单元、特征组合子单元2、特征解析子单元2,和空间变换输出子单元2;
所述特征通道归一化子单元,用于:将所述包含空间信息的2D图像1D特征通道和所述
包含空间信息的3D图像1D特征通道归一化为相同的通道数;归一化后的通道数取值为所
述包含空间信息的2D图像1D特征序列长度和所述包含空间信息的3D图像1D特征序列长
度的几何平均数;
所述特征组合子单元2,用于:将所述包含空间信息的2D图像1D特征和所述包含空间
信息的3D图像1D特征组合起来,得到组合特征;组合特征的通道数保持所
述归一化后的通道数不变,组合特征的序列长度,S 2 和S 3 分别表示特征 2 和 3 的序列长度;
所述空间变换输出子单元2,用于:输出配准空间变换;所述空间变换输出子单元2由一个卷积层和一个全连接网络构成;先通过一个卷积层,将解析特征的通道数调整为1;再通过一个由全连接层、激活层、标准化层组成的全连接网络,输出配准所述2D图像与所述3D图像的空间变换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111374305.5A CN113808182B (zh) | 2021-11-19 | 2021-11-19 | 一种2d与3d图像配准方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111374305.5A CN113808182B (zh) | 2021-11-19 | 2021-11-19 | 一种2d与3d图像配准方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808182A true CN113808182A (zh) | 2021-12-17 |
CN113808182B CN113808182B (zh) | 2022-04-15 |
Family
ID=78938409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111374305.5A Expired - Fee Related CN113808182B (zh) | 2021-11-19 | 2021-11-19 | 一种2d与3d图像配准方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808182B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114565815A (zh) * | 2022-02-25 | 2022-05-31 | 包头市迪迦科技有限公司 | 一种基于三维模型的视频智能融合方法及系统 |
CN114998600A (zh) * | 2022-06-17 | 2022-09-02 | 北京百度网讯科技有限公司 | 图像处理方法、模型的训练方法、装置、设备及介质 |
CN115359103A (zh) * | 2022-08-24 | 2022-11-18 | 北京医智影科技有限公司 | 图像配准网络模型及其建立方法、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104090972A (zh) * | 2014-07-18 | 2014-10-08 | 北京师范大学 | 用于三维城市模型检索的图像特征提取和相似性度量方法 |
US20180153621A1 (en) * | 2015-05-22 | 2018-06-07 | Intuitive Surgical Operations, Inc. | Systems and Methods of Registration for Image Guided Surgery |
CN110009669A (zh) * | 2019-03-22 | 2019-07-12 | 电子科技大学 | 一种基于深度强化学习的3d/2d医学图像配准方法 |
CN111784755A (zh) * | 2020-07-26 | 2020-10-16 | 河南工业大学 | 一种融合多尺度信息的脑部磁共振图像配准方法 |
-
2021
- 2021-11-19 CN CN202111374305.5A patent/CN113808182B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104090972A (zh) * | 2014-07-18 | 2014-10-08 | 北京师范大学 | 用于三维城市模型检索的图像特征提取和相似性度量方法 |
US20180153621A1 (en) * | 2015-05-22 | 2018-06-07 | Intuitive Surgical Operations, Inc. | Systems and Methods of Registration for Image Guided Surgery |
CN110009669A (zh) * | 2019-03-22 | 2019-07-12 | 电子科技大学 | 一种基于深度强化学习的3d/2d医学图像配准方法 |
CN111784755A (zh) * | 2020-07-26 | 2020-10-16 | 河南工业大学 | 一种融合多尺度信息的脑部磁共振图像配准方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114565815A (zh) * | 2022-02-25 | 2022-05-31 | 包头市迪迦科技有限公司 | 一种基于三维模型的视频智能融合方法及系统 |
CN114565815B (zh) * | 2022-02-25 | 2023-11-03 | 包头市迪迦科技有限公司 | 一种基于三维模型的视频智能融合方法及系统 |
CN114998600A (zh) * | 2022-06-17 | 2022-09-02 | 北京百度网讯科技有限公司 | 图像处理方法、模型的训练方法、装置、设备及介质 |
CN114998600B (zh) * | 2022-06-17 | 2023-07-25 | 北京百度网讯科技有限公司 | 图像处理方法、模型的训练方法、装置、设备及介质 |
CN115359103A (zh) * | 2022-08-24 | 2022-11-18 | 北京医智影科技有限公司 | 图像配准网络模型及其建立方法、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113808182B (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113808182B (zh) | 一种2d与3d图像配准方法及装置 | |
Lu et al. | 3DCTN: 3D convolution-transformer network for point cloud classification | |
CN113516693B (zh) | 一种快速通用的图像配准方法 | |
CN111127401B (zh) | 一种基于深度学习的机器人立体视觉机械零件检测方法 | |
WO2022151586A1 (zh) | 一种对抗配准方法、装置、计算机设备及存储介质 | |
CN117218343A (zh) | 一种基于深度学习的语义部件姿态估计方法 | |
Song et al. | Fedbevt: Federated learning bird's eye view perception transformer in road traffic systems | |
CN107239827B (zh) | 一种基于人工神经网络的空间信息学习方法 | |
Qin et al. | PointSkelCNN: Deep Learning‐Based 3D Human Skeleton Extraction from Point Clouds | |
CN117522990B (zh) | 基于多头注意力机制和迭代细化的类别级位姿估计方法 | |
Chen et al. | Robustness improvement of using pre-trained network in visual odometry for on-road driving | |
Gao | Hypoelliptic diffusion maps and their applications in automated geometric morphometrics | |
CN108876837B (zh) | 一种基于l1/2正则化的三维人体姿态重构方法 | |
Ren et al. | A weighted sparse neighbor representation based on Gaussian kernel function to face recognition | |
CN113936333A (zh) | 一种基于人体骨架序列的动作识别算法 | |
CN114240999A (zh) | 一种基于增强图注意力与时间卷积网络的运动预测方法 | |
US20240135695A1 (en) | Unsupervised pre-training of geometric vision models | |
CN117115855A (zh) | 基于多尺度Transformer学习丰富视觉特征的人体姿态估计方法及系统 | |
CN116912296A (zh) | 一种基于位置增强注意力机制的点云配准方法 | |
Barthélemy et al. | Decomposition and dictionary learning for 3D trajectories | |
CN117058439A (zh) | 一种基于位置适应模块与知识补足的点云分析方法及系统 | |
CN116824689A (zh) | 骨骼序列行为识别方法、装置、设备及存储介质 | |
Lee | Geometric optimization for computer vision | |
CN114842078A (zh) | 一种基于深度学习的双通道卫星姿态估计网络 | |
Zhu et al. | 3D Reconstruction of deformable linear objects based on cylindrical fitting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220415 |