CN115760807A - 一种视网膜眼底图像配准方法及系统 - Google Patents
一种视网膜眼底图像配准方法及系统 Download PDFInfo
- Publication number
- CN115760807A CN115760807A CN202211483221.XA CN202211483221A CN115760807A CN 115760807 A CN115760807 A CN 115760807A CN 202211483221 A CN202211483221 A CN 202211483221A CN 115760807 A CN115760807 A CN 115760807A
- Authority
- CN
- China
- Prior art keywords
- fundus image
- retinal fundus
- registered
- pair
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002207 retinal effect Effects 0.000 title claims abstract description 94
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims abstract description 25
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 17
- 230000009466 transformation Effects 0.000 claims abstract description 17
- 230000001131 transforming effect Effects 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 35
- 230000002776 aggregation Effects 0.000 claims description 25
- 238000004220 aggregation Methods 0.000 claims description 25
- 210000001525 retina Anatomy 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 19
- 210000004204 blood vessel Anatomy 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 6
- 229910052757 nitrogen Inorganic materials 0.000 claims description 5
- 229910052698 phosphorus Inorganic materials 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
本发明涉及一种视网膜眼底图像配准方法及系统。该方法包括获取待配准的视网膜眼底图像对;根据所述待配准的视网膜眼底图像对和关键点检测模型,确定所述待配准的视网膜眼底图像对中配对的关键点;根据所述配对的关键点确定所述待配准的视网膜眼底图像对的仿射变换矩阵;根据仿射变换矩阵对视网膜眼底图像对进行变换,确定视网膜眼底图像配准结果。本发明能够提高关键点检测和图像配准结果的准确性、稳定性。
Description
技术领域
本发明涉及视网膜眼底图像配准领域,特别是涉及一种视网膜眼底图像配准方法及系统。
背景技术
视网膜眼底图像配准任务是在两幅图像中找到配准的关键点,将测试图像变换到参考图像的坐标系,以便同一点在两个图像中的相同坐标处。利用图像配准,不同角度拍摄的视网膜眼底图像可以进行拼接合成,从而获得更大的观测范围。此外,对不同时间拍摄的视网膜眼底图像进行配准,可以辅助检查不同阶段的视网膜眼底图像,以检测疾病的发展情况。
针对视网膜眼底图像配准问题,传统方法依赖人工设计特征(比如SIFT、SURF)进行关键点检测和关键点的配准。但传统方法难以适应复杂的视网膜眼底图像实际应用场景。此外,由于视网膜眼底图像内部纹理、形状等模式复杂多变,不同成像角度视觉特性差异很大,使得配准视网膜眼底图像时同一关键点难配准、不同关键点易混淆。可见,现有的配准方法难以得到有效、稳定的关键点检测及配准结果。
基于上述问题,亟需提供一种新的视网膜眼底图像配准方法,能够提高关键点检测和图像配准结果的准确性、稳定性。
发明内容
本发明的目的是提供一种视网膜眼底图像配准方法及系统,能够提高关键点检测和图像配准结果的准确性、稳定性。
为实现上述目的,本发明提供了如下方案:
一种视网膜眼底图像配准方法,包括:
获取待配准的视网膜眼底图像对;
根据所述待配准的视网膜眼底图像对和关键点检测模型,确定所述待配准的视网膜眼底图像对中配对的关键点;所述配对的关键点为所述待配准的视网膜眼底图像对中配对的血管交叉点与分叉点;所述关键点检测模型包括:编码器、空间上下文特征增强模块以及解码器;所述编码器的输入为待配准的视网膜眼底图像对;所述编码器的多个卷积层将待配准的视网膜眼底图像对进行多尺度的特征提取,并将最深层特征输入所述空间上下文特征增强模块;所述空间上下文特征增强模块包括:卷积核预测子模块和上下文信息聚合子模块;所述卷积核预测子模块通过矩阵乘法形式,建模特征任意空间像素的长距离、短距离的语义和空间位置关系,生成空间自适应的上下文卷积核;所述上下文信息聚合子模块用于将空间自适应的上下文卷积核卷积作用于编码器的最深层特征上,生成聚合上下文增强的特征;聚合上下文增强的特征通过解码器的多层级网络层,与编码器的多层级特征进行逐层级的融合,进而输出所述待配准的视网膜眼底图像对中配对的关键点;
根据所述配对的关键点确定所述待配准的视网膜眼底图像对的仿射变换矩阵;
根据仿射变换矩阵对视网膜眼底图像对进行变换,确定视网膜眼底图像配准结果。
可选地,所述关键点检测模型采用三元组排序损失函数。
可选地,所述三元组排序损失函数为:
其中,L为三元组排序损失函数,P和N分别为正样例和负样例集合,fi、fp、fj、fl分别代表像素i、像素p、像素j、像素l的特征向量,m表示锚点的特征向量与正负样例点特征向量的距离的间隔;[]+表示若[]中的原始数值小于0,则取值为0,若[]中的原始数值大于或等于0,则取值为原始数值。
一种视网膜眼底图像配准系统,包括:
待配准的视网膜眼底图像对获取单元,用于获取待配准的视网膜眼底图像对;
配对的关键点确定单元,用于根据所述待配准的视网膜眼底图像对和关键点检测模型,确定所述待配准的视网膜眼底图像对中配对的关键点;所述配对的关键点为所述待配准的视网膜眼底图像对中配对的血管交叉点与分叉点;所述关键点检测模型包括:编码器、空间上下文特征增强模块以及解码器;所述编码器的输入为待配准的视网膜眼底图像对;所述编码器的多个卷积层将待配准的视网膜眼底图像对进行多尺度的特征提取,并将最深层特征输入所述空间上下文特征增强模块;所述空间上下文特征增强模块包括:卷积核预测子模块和上下文信息聚合子模块;所述卷积核预测子模块通过矩阵乘法形式,建模特征任意空间像素的长距离、短距离的语义和空间位置关系,生成空间自适应的上下文卷积核;所述上下文信息聚合子模块用于将空间自适应的上下文卷积核卷积作用于编码器的最深层特征上,生成聚合上下文增强的特征;聚合上下文增强的特征通过解码器的多层级网络层,与编码器的多层级特征进行逐层级的融合,进而输出所述待配准的视网膜眼底图像对中配对的关键点;
仿射变换矩阵确定单元,用于根据所述配对的关键点确定所述待配准的视网膜眼底图像对的仿射变换矩阵;
视网膜眼底图像配准结果确定单元,用于根据仿射变换矩阵对视网膜眼底图像对进行变换,确定视网膜眼底图像配准结果。
可选地,所述关键点检测模型采用三元组排序损失函数。
可选地,所述三元组排序损失函数为:
其中,L为三元组排序损失函数,P和N分别为正样例和负样例集合,fi、fp、fj、fl分别代表像素i、像素p、像素j、像素l的特征向量,m表示锚点的特征向量与正负样例点特征向量的距离的间隔;[]+表示若[]中的原始数值小于0,则取值为0,若[]中的原始数值大于或等于0,则取值为原始数值。
一种视网膜眼底图像配准系统,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现所述的一种视网膜眼底图像配准方法。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明所提供的一种视网膜眼底图像配准方法及系统,通过选取待配准的视网膜眼底图像对的所有血管交叉点、分叉点作为配准的关键点,基于关键点检测模型,利用深度神经网络有效检测关键点;为了有效地检测配准关键点和学习特征描述向量,同时需要视网膜眼底图像的浅层级空间位置信息和深层级语义判别信息,本发明中的关键点检测模型利用编码器-解码器结构作为基础网络架构,有效融合视网膜眼底图像的多层级、多尺度信息。此外,由于关键点有效特征微弱,不配准的关键点容易混淆,需要对关键点的空间上下文信息进行建模。然而,现有编码器-解码器结构,比如U-Net,并没有引入空间上下文信息。为此,基于传统U-Net,本发明提出的空间上下文特征增强模块基于空间自适应机制的空间上下文建模方法,空间上下文特征增强模块能够更有效地实现配准关键点的定位和鲁棒特征描述向量的学习。本发明提高了检测关键点的准确性,进而提高了视网膜眼底图像配准结果的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所提供的一种视网膜眼底图像配准方法流程示意图;
图2为关键点检测模型结构示意图;
图3为空间上下文特征增强模块结构示意图;
图4为本发明所提供的一种视网膜眼底图像配准系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种视网膜眼底图像配准方法及系统,能够提高关键点检测和图像配准结果的准确性、稳定性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明所提供的一种视网膜眼底图像配准方法流程示意图,如图1所示,本发明所提供的一种视网膜眼底图像配准方法,包括:
S101,获取待配准的视网膜眼底图像对;
S102,根据所述待配准的视网膜眼底图像对和关键点检测模型,确定所述待配准的视网膜眼底图像对中配对的关键点;所述配对的关键点为所述待配准的视网膜眼底图像对中配对的血管交叉点与分叉点;所述关键点检测模型包括:编码器、空间上下文特征增强模块以及解码器;所述编码器的输入为待配准的视网膜眼底图像对;所述编码器的多个卷积层将待配准的视网膜眼底图像对进行多尺度的特征提取,并将最深层特征输入所述空间上下文特征增强模块;所述空间上下文特征增强模块包括:卷积核预测子模块和上下文信息聚合子模块;所述卷积核预测子模块通过矩阵乘法形式,建模特征任意空间像素的长距离、短距离的语义和空间位置关系,生成空间自适应的上下文卷积核;所述上下文信息聚合子模块用于将空间自适应的上下文卷积核卷积作用于编码器的最深层特征上,生成聚合上下文增强的特征;聚合上下文增强的特征通过解码器的多层级网络层,与编码器的多层级特征进行逐层级的融合,进而输出所述待配准的视网膜眼底图像对中配对的关键点;
如图2所示,关键点检测模型以编码器-解码器结构作为基础网络架构,编码器部分的输入为输入图像对,经过编码器的多个卷积层进行多尺度的特征提取。编码器的最深层特征输入至空间上下文特征增强模块。
空间上下文特征增强模块对关键点的空间上下文信息进行聚合,基于空间自适应机制的空间上下文聚合方法,有效地以空间自适应的方式聚合空间上下文的语义关系信息。如图3所示,对于编码器最深层级特征X∈RH×W×C,首先将输入特征X通过两种相互独立的卷积操作转换为两种不同形式的特征:key特征K∈RH×W×C和query特征其中,H、W、C分别代表特征的高度、宽度、通道个数,S为上下文卷积核的尺度。为了有效地对任意像素间的关系进行建模,任意像素位置的特征需要显式地进行交互。为此,首先将三维key特征和query特征转换为二维形式:K∈R(H×W)×C、这样,key特征(H×W)中每一个像素位置的特征向量长度为C,query特征(H×W)中每一个像素位置的特征向量长度为s2。之后,为了显式地将key特征的每一个像素的特征向量与query特征每一个像素的特征向量相交互,采用如下点积运算方式:
其中,i=1,2,...,s2,j=1,2,...,C。这样,便可以获取编码像素关系的上下文特征S′,上述运算可以写成如下矩阵相乘的形式:
S′=Q′T×K′’;
其中Q′T表示Q′的转置矩阵。之后,为了得到最终的上下文卷积核S,将重构为S∈Rs×s×C,并使用批处理归一化层对S进行调制。这样便可以使用S为所有(H×W)位置生成编码全局上下文信息的空间可变权重因子F∈RH×W×C。
在生成上述权重因子F时,将上下文卷积核S和原始特征X之间进行深度可分离卷积,来保证S的每个通道都能独立调制X对应的特征通道。首先是S∈Rs×s×C被分解为C个核,每个核的维数为s×s,随后,这些核分别被应用于输入的特征图X∈RH×W×C的每个通道,得到一个中间特征图,然后进行1×1×1卷积,将中间特征图的通道投影到一个新的通道空间上,得到深度可分离卷积的输出。再将该输出进一步通过一个Sigmoid激活函数,得到权重因子F∈RH×W×C。最后,将得到的权重因子F和原始特征X进行元素级相乘,得到最终的聚合上下文增强的特征。
所述译码器从最深层级特征开始,逐层级地融合编码器对应层级的特征。最终,解码器地最浅层级特征融合了编码器的多尺度特征。
为了监督增强网络学习到的特征描述符对关键点的鉴别能力,使用三元组排序损失函数约束解码器的最浅层(最后阶段)特征,用以同时学习输入眼底图像对关键点的定位和配准。
为了减小配准关键点之间的差距,增大非配准关键点之间的差距。在生成关键点预测之前,将解码器最后一个特征模块中的特征转换为3D形式的立方体特征向量。每一个眼底图像关键点都有其对应的固定长度的一维特征向量。之后使用三元组排序损失函数约束网络学习聚合配准关键点、分离非配准关键点的特征向量。
不同于传统的三元组排序损失,为了有效编码多个数据点(大于3个)之间的关系,本发明利用多个数据点之间的结构化关系来学习特征向量。具体地,通过与更多的负样例相互作用来改善传统的三元组排序损失,本发明提出一种结构化三元组排序损失,其目的是使锚点的特征向量与一个正样例点的特征向量尽可能相似,同时使得锚点的特征向量与所有的负样例点的特征向量尽可能不相似,其度量函数如下所示:
其中,L为三元组排序损失函数,P和N分别为正样例和负样例集合,fi、fp、fj、fl分别代表像素i、像素p、像素j、像素l的特征向量,m表示锚点的特征向量与正负样例点特征向量的距离的间隔;[]+为若原始数值小于0,则取值为0,若原始数值大于或等于0,则取值为原始数值。
S103,根据所述配对的关键点确定所述待配准的视网膜眼底图像对的仿射变换矩阵;
S104,根据仿射变换矩阵对视网膜眼底图像对进行变换,确定视网膜眼底图像配准结果。
本发明考虑到视网膜眼底图像血管交叉点、分叉点等位置,可以有效且稳定地表征眼底图像关键信息,为此,本发明提出选取待配准图像的所有血管交叉点、分叉点作为配准关键点,基于深度神经网络,通过距离度量损失函数,在增大不配准关键点的特征描述向量的距离的同时,减小配准关键点的特征描述向量的距离,从而有效地学习配准关键点的有效特征描述向量。
为了有效地检测配准关键点和学习特征描述向量,同时需要眼底图像的浅层级空间位置信息和深层级语义判别信息,本发明利用编码器-解码器结构作为基础网络架构,有效融合眼底图像的多层级、多尺度信息。此外,由于关键点有效特征微弱,不配准的关键点容易混淆,需要对关键点的空间上下文信息进行建模。然而,现有编码器-解码器结构,比如U-Net,并没有引入空间上下文信息。为此,基于传统U-Net,本发明提出一种基于空间自适应机制的空间上下文建模方法,能够更有效地实现配准关键点的定位和鲁棒特征描述向量的学习。
图4为本发明所提供的一种视网膜眼底图像配准系统结构示意图,如图4所示,本发明所提供的一种视网膜眼底图像配准系统,包括:
待配准的视网膜眼底图像对获取单元401,用于获取待配准的视网膜眼底图像对;
配对的关键点确定单元402,用于根据所述待配准的视网膜眼底图像对和关键点检测模型,确定所述待配准的视网膜眼底图像对中配对的关键点;所述配对的关键点为所述待配准的视网膜眼底图像对中配对的血管交叉点与分叉点;所述关键点检测模型包括:编码器、空间上下文特征增强模块以及解码器;所述编码器的输入为待配准的视网膜眼底图像对;所述编码器的多个卷积层将待配准的视网膜眼底图像对进行多尺度的特征提取,并将最深层特征输入所述空间上下文特征增强模块;所述空间上下文特征增强模块包括:卷积核预测子模块和上下文信息聚合子模块;所述卷积核预测子模块通过矩阵乘法形式,建模特征任意空间像素的长距离、短距离的语义和空间位置关系,生成空间自适应的上下文卷积核;所述上下文信息聚合子模块用于将空间自适应的上下文卷积核卷积作用于编码器的最深层特征上,生成聚合上下文增强的特征;聚合上下文增强的特征通过解码器的多层级网络层,与编码器的多层级特征进行逐层级的融合,进而输出所述待配准的视网膜眼底图像对中配对的关键点;
仿射变换矩阵确定单元403,用于根据所述配对的关键点确定所述待配准的视网膜眼底图像对的仿射变换矩阵;
视网膜眼底图像配准结果确定单元404,用于根据仿射变换矩阵对视网膜眼底图像对进行变换,确定视网膜眼底图像配准结果。
为了执行上述视网膜眼底图像配准方法,以实现相应的功能和技术效果,本发明还提供一种视网膜眼底图像配准系统,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现所述的一种视网膜眼底图像配准方法。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种视网膜眼底图像配准方法,其特征在于,包括:
获取待配准的视网膜眼底图像对;
根据所述待配准的视网膜眼底图像对和关键点检测模型,确定所述待配准的视网膜眼底图像对中配对的关键点;所述配对的关键点为所述待配准的视网膜眼底图像对中配对的血管交叉点与分叉点;所述关键点检测模型包括:编码器、空间上下文特征增强模块以及解码器;所述编码器的输入为待配准的视网膜眼底图像对;所述编码器的多个卷积层将待配准的视网膜眼底图像对进行多尺度的特征提取,并将最深层特征输入所述空间上下文特征增强模块;所述空间上下文特征增强模块包括:卷积核预测子模块和上下文信息聚合子模块;所述卷积核预测子模块通过矩阵乘法形式,建模特征任意空间像素的长距离、短距离的语义和空间位置关系,生成空间自适应的上下文卷积核;所述上下文信息聚合子模块用于将空间自适应的上下文卷积核卷积作用于编码器的最深层特征上,生成聚合上下文增强的特征;聚合上下文增强的特征通过解码器的多层级网络层,与编码器的多层级特征进行逐层级的融合,进而输出所述待配准的视网膜眼底图像对中配对的关键点;
根据所述配对的关键点确定所述待配准的视网膜眼底图像对的仿射变换矩阵;
根据仿射变换矩阵对视网膜眼底图像对进行变换,确定视网膜眼底图像配准结果。
2.根据权利要求1所述的一种视网膜眼底图像配准方法,其特征在于,所述关键点检测模型采用三元组排序损失函数。
4.一种视网膜眼底图像配准系统,其特征在于,包括:
待配准的视网膜眼底图像对获取单元,用于获取待配准的视网膜眼底图像对;
配对的关键点确定单元,用于根据所述待配准的视网膜眼底图像对和关键点检测模型,确定所述待配准的视网膜眼底图像对中配对的关键点;所述配对的关键点为所述待配准的视网膜眼底图像对中配对的血管交叉点与分叉点;所述关键点检测模型包括:编码器、空间上下文特征增强模块以及解码器;所述编码器的输入为待配准的视网膜眼底图像对;所述编码器的多个卷积层将待配准的视网膜眼底图像对进行多尺度的特征提取,并将最深层特征输入所述空间上下文特征增强模块;所述空间上下文特征增强模块包括:卷积核预测子模块和上下文信息聚合子模块;所述卷积核预测子模块通过矩阵乘法形式,建模特征任意空间像素的长距离、短距离的语义和空间位置关系,生成空间自适应的上下文卷积核;所述上下文信息聚合子模块用于将空间自适应的上下文卷积核卷积作用于编码器的最深层特征上,生成聚合上下文增强的特征;聚合上下文增强的特征通过解码器的多层级网络层,与编码器的多层级特征进行逐层级的融合,进而输出所述待配准的视网膜眼底图像对中配对的关键点;
仿射变换矩阵确定单元,用于根据所述配对的关键点确定所述待配准的视网膜眼底图像对的仿射变换矩阵;
视网膜眼底图像配准结果确定单元,用于根据仿射变换矩阵对视网膜眼底图像对进行变换,确定视网膜眼底图像配准结果。
5.根据权利要求4所述的一种视网膜眼底图像配准系统,其特征在于,所述关键点检测模型采用三元组排序损失函数。
7.一种视网膜眼底图像配准系统,其特征在于,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现如权利要求1-3中任一项所述的一种视网膜眼底图像配准方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211483221.XA CN115760807B (zh) | 2022-11-24 | 2022-11-24 | 一种视网膜眼底图像配准方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211483221.XA CN115760807B (zh) | 2022-11-24 | 2022-11-24 | 一种视网膜眼底图像配准方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115760807A true CN115760807A (zh) | 2023-03-07 |
CN115760807B CN115760807B (zh) | 2024-01-19 |
Family
ID=85337096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211483221.XA Active CN115760807B (zh) | 2022-11-24 | 2022-11-24 | 一种视网膜眼底图像配准方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115760807B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116912203A (zh) * | 2023-07-13 | 2023-10-20 | 桂林电子科技大学 | 基于多智能模型结合的异常眼底图像低耗检测方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170316565A1 (en) * | 2016-04-29 | 2017-11-02 | Carl Zeiss Meditec, Inc. | Montaging of wide-field fundus images |
CN107564048A (zh) * | 2017-09-25 | 2018-01-09 | 南通大学 | 基于分叉点特征配准方法 |
CN112819871A (zh) * | 2021-03-02 | 2021-05-18 | 华融融通(北京)科技有限公司 | 一种基于直线分割的表格图像配准方法 |
CN114066884A (zh) * | 2022-01-11 | 2022-02-18 | 南京医科大学眼科医院 | 视网膜血管分割方法及装置、电子设备和存储介质 |
CN114612408A (zh) * | 2022-03-04 | 2022-06-10 | 拓微摹心数据科技(南京)有限公司 | 一种基于联邦深度学习的心脏图像处理方法 |
CN114926892A (zh) * | 2022-06-14 | 2022-08-19 | 中国人民大学 | 一种基于深度学习的眼底图像匹配方法、系统和可读介质 |
CN114931356A (zh) * | 2022-06-23 | 2022-08-23 | 宁波慈溪生物医学工程研究所 | 面向octa图像的视网膜结构提取方法、系统及应用 |
CN114972362A (zh) * | 2022-05-11 | 2022-08-30 | 重庆理工大学 | 一种基于RMAU-Net网络的医学图像自动分割方法与系统 |
-
2022
- 2022-11-24 CN CN202211483221.XA patent/CN115760807B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170316565A1 (en) * | 2016-04-29 | 2017-11-02 | Carl Zeiss Meditec, Inc. | Montaging of wide-field fundus images |
CN107564048A (zh) * | 2017-09-25 | 2018-01-09 | 南通大学 | 基于分叉点特征配准方法 |
CN112819871A (zh) * | 2021-03-02 | 2021-05-18 | 华融融通(北京)科技有限公司 | 一种基于直线分割的表格图像配准方法 |
CN114066884A (zh) * | 2022-01-11 | 2022-02-18 | 南京医科大学眼科医院 | 视网膜血管分割方法及装置、电子设备和存储介质 |
CN114612408A (zh) * | 2022-03-04 | 2022-06-10 | 拓微摹心数据科技(南京)有限公司 | 一种基于联邦深度学习的心脏图像处理方法 |
CN114972362A (zh) * | 2022-05-11 | 2022-08-30 | 重庆理工大学 | 一种基于RMAU-Net网络的医学图像自动分割方法与系统 |
CN114926892A (zh) * | 2022-06-14 | 2022-08-19 | 中国人民大学 | 一种基于深度学习的眼底图像匹配方法、系统和可读介质 |
CN114931356A (zh) * | 2022-06-23 | 2022-08-23 | 宁波慈溪生物医学工程研究所 | 面向octa图像的视网膜结构提取方法、系统及应用 |
Non-Patent Citations (2)
Title |
---|
王丽会等, 《大数据》, no. 6, pages 83 - 104 * |
陈丹华: "彩色眼底视网膜图像配准算法研究", 《中国优秀硕士学位论文全文数据库医药卫生科技辑》, no. 8, pages 073 - 86 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116912203A (zh) * | 2023-07-13 | 2023-10-20 | 桂林电子科技大学 | 基于多智能模型结合的异常眼底图像低耗检测方法及系统 |
CN116912203B (zh) * | 2023-07-13 | 2024-04-05 | 桂林电子科技大学 | 基于多智能模型结合的异常眼底图像低耗检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115760807B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111047548B (zh) | 姿态变换数据处理方法、装置、计算机设备和存储介质 | |
CN109522942B (zh) | 一种图像分类方法、装置、终端设备和存储介质 | |
US20200160178A1 (en) | Learning to generate synthetic datasets for traning neural networks | |
Zhang et al. | Progressive hard-mining network for monocular depth estimation | |
CN111782838A (zh) | 图像问答方法、装置、计算机设备和介质 | |
CN112634296A (zh) | 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端 | |
CN115699088A (zh) | 从二维图像生成三维对象模型 | |
CN111968165A (zh) | 动态人体三维模型补全方法、装置、设备和介质 | |
CN111179270A (zh) | 基于注意力机制的图像共分割方法和装置 | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
US20230153965A1 (en) | Image processing method and related device | |
CN111210382A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN114612902A (zh) | 图像语义分割方法、装置、设备、存储介质及程序产品 | |
Liu et al. | 2d gans meet unsupervised single-view 3d reconstruction | |
CN115760807A (zh) | 一种视网膜眼底图像配准方法及系统 | |
CN117542122B (zh) | 人体位姿估计与三维重建方法、网络训练方法及装置 | |
CN113158970B (zh) | 一种基于快慢双流图卷积神经网络的动作识别方法与系统 | |
WO2022120996A1 (zh) | 视觉位置识别方法及装置、计算机设备及可读存储介质 | |
CN117635563A (zh) | 一种基于模态交叉注意力的多模态mri脑肿瘤图像分割方法 | |
Lu et al. | Learning to complete partial observations from unpaired prior knowledge | |
CN115272527A (zh) | 基于色盘对抗网络的图像上色方法 | |
KR20230167086A (ko) | 공간과 시간에 따른 어텐션을 이용한 비디오 시퀀스에서 객체 표현에 대한 비지도 학습 | |
Alhamazani et al. | 3DCascade-GAN: Shape completion from single-view depth images | |
Altindis et al. | Refining 3D Human Texture Estimation from a Single Image | |
CN117095033B (zh) | 一种基于图像与几何信息引导的多模态点云配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20231227 Address after: Room 707, Unit 1, Building 1, Courtyard 1, Longyu Middle Street, Huilongguan Town, Changping District, Beijing, 100085 Applicant after: Beijing Zhizhen Health Technology Co.,Ltd. Address before: 410008 Room 811, Building A, Xingwang Science Park, No. 280, Binhe North Road, Yuehu Street, Kaifu District, Changsha City, Hunan Province Applicant before: Hunan Zhizhen Mingyang Technical Service Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |