CN117409058B - 一种基于自监督的深度估计匹配代价预估方法 - Google Patents
一种基于自监督的深度估计匹配代价预估方法 Download PDFInfo
- Publication number
- CN117409058B CN117409058B CN202311717087.XA CN202311717087A CN117409058B CN 117409058 B CN117409058 B CN 117409058B CN 202311717087 A CN202311717087 A CN 202311717087A CN 117409058 B CN117409058 B CN 117409058B
- Authority
- CN
- China
- Prior art keywords
- tensor
- self
- parallax
- supervision
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000010276 construction Methods 0.000 claims abstract description 18
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 230000004931 aggregating effect Effects 0.000 claims abstract description 4
- 230000010354 integration Effects 0.000 claims abstract description 4
- 230000008569 process Effects 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 21
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于自监督的深度估计匹配代价预估方法,涉及图像处理技术领域,包括步骤:提取当前光场深度图像的输出张量;以输出张量为输入张量,通过自监督预测卷积注意块结合上下文信息动态调制当前光场深度图像各视角下的像素重建隐藏信息;对像素重建隐藏信息调制后的子孔径图像矩阵进行目标视差下的像素整合,并对整合后的子孔径图像矩阵进行卷积以获取各子孔径图像的成本构建函数;通过对各子孔径图像成本构建函数的输出进行聚合获取当前光场深度图像的三维张量;根据三维张量进行视差回归以获取低频深度估计结果。本发明解决了卷积神经网络不能够掌握局部特征的全局排列问题,并有效提高深度估计的精度和速度。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于自监督的深度估计匹配代价预估方法。
背景技术
利用低频图像中丰富的空间和角度信息,进行低频深度估计,得到场景深度,在光场图像处理中应用广泛。而深度估计是低频图像处理的基础任务,并基于深度学习的方法,通过特征提取、成本构建、成本聚合和深度回归等步骤实现低频深度估计。
其中,光场深度图像是多幅同一时间、同一场景、不同角度的子孔径图像的集合,匹配代价计算的目的在于衡量待匹配像素与候选像素之间的相关性,通过计算相关性找到不同视角图像中对应某个像素点的同名点,相当于是对深度估计的初步建模。
然而,匹配代价构建作为光场深度估计的关键步骤,在现有技术中仍存在不足之处。现有的方法是通过对每个子孔径图像进行一系列预先定义的偏移来构建匹配代价。虽然这种移位连接方案易于实现,但大量的移位操作降低了这些方法的效率。此外,在匹配成本构建过程中,对不同空间位置的像素进行均等处理,无法处理某些视图信息较少的空间变化遮挡,甚至会恶化估计结果。
发明内容
针对现有光场深度估计过程中对于匹配代价的估算不足,本发明提出了一种基于自监督的深度估计匹配代价预估方法,包括步骤:
S1:提取当前光场深度图像的输出张量;
S2:以输出张量为输入张量,通过自监督预测卷积注意块结合上下文信息动态调制当前光场深度图像各视角下的像素重建隐藏信息;
S3:对像素重建隐藏信息调制后的子孔径图像矩阵进行目标视差下的像素整合,并对整合后的子孔径图像矩阵进行卷积以获取各子孔径图像的成本构建函数;
S4:通过对各子孔径图像成本构建函数的输出进行聚合获取当前光场深度图像的三维张量;
S5:根据三维张量进行视差回归以获取低频深度估计结果。
进一步地,所述S2步骤中,上下文信息为像素点与其周围区域像素点之间的联系。
进一步地,所述S2步骤中,自监督预测卷积由一个被整流线性单元激活的掩膜卷积层和一个SE模块组成。
进一步地,所述S2步骤具体包括如下步骤:
S21:通过掩膜卷积在结合上下文信息的情况下对输入张量的各通道进行其它通道加权下的特征张量获取;
S22:通过SE模块对特征张量进行全局信息重新校准下当前光场深度图像各视角像素重建隐藏信息的动态调制。
进一步地,所述自监督预测卷积注意块通过如下损失函数实现自监督:
式中,为自监督预测卷积注意块的损失,/>为输入张量,/>为特征张量,为的深度估计匹配代价预估方法的损失,/>为一个超参数,用于调节自身损失函数相对于/>的权重,/>为正自然数,/>为总损失。
进一步地,所述S3步骤中,各子孔径图像的成本构建函数为调制卷积函数,所述调制卷积函数为内核大小U×V,并采用不同的扩张速率来集成不同视差下的角斑块。
进一步地,所述子孔径图像的卷积表示为如下公式:
式中,为视差d下,在空间位置p处产生的UV匹配代价,U和V为中心视图上相机平面上的点坐标,n为常数,/>为在视差d下的空间位置p处的角斑点,/>表示成本构建函数在第n个采样点的权重,/>为第n个采样点在空间位置p处的调制标量。
进一步地,所述S5步骤中,视差回归表示为如下公式:
式中,为低频深度估计结果,/>为最大视差,/>为最小视差,/>为第n个视差,/>为沿着三维张量/>的视差轴进行的/>归一化。
与现有技术相比,本发明至少含有以下有益效果:
(1)本发明所述的一种基于自监督的深度估计匹配代价预估方法,通过在深度估计中增加自监督预测卷积注意块,使深度估计被迫学习所发现的局部模式的全局结构,利用上下文信息动态调制不同视角下的像素重建隐藏信息,解决卷积神经网络不能够掌握局部特征的全局排列问题;
(2)通过一系列的具有不同膨胀率的卷积组成不同子孔径图像的成本构建函数,在不进行移位操作的情况下集成目标视差的像素,有效提高深度估计的精度和速度。
附图说明
图1为一种基于自监督的深度估计匹配代价预估方法的步骤图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
面对现有深度估计匹配代价估算方法复杂且耗时,同时不能掌握局部特征的全局排列问题,如图1所示,本发明提出了一种基于自监督的深度估计匹配代价预估方法,包括步骤:
S1:提取当前光场深度图像的输出张量;
S2:以输出张量为输入张量,通过自监督预测卷积注意块结合上下文信息动态调制当前光场深度图像各视角下的像素重建隐藏信息;
S3:对像素重建隐藏信息调制后的子孔径图像矩阵进行目标视差下的像素整合,并对整合后的子孔径图像矩阵进行卷积以获取各子孔径图像的成本构建函数;
S4:通过对各子孔径图像成本构建函数的输出进行聚合获取当前光场深度图像的三维张量;
S5:根据三维张量进行视差回归以获取低频深度估计结果。
首先,针对卷积神经网络不能掌握局部特征的全局排列的问题,本发明提出了利用上下文信息(像素点与其周围区域像素点之间的联系)动态调制不同视角下的像素重建隐藏信息这一技术点。为此,本发明在此处引入了自监督预测卷积注意块,它是由一个被整流线性单元激活的掩膜卷积层和一个SE模块组成。
其中,掩膜卷积的可学习参数位于感受野的角落,由子核表示:
式中(为正自然数)是定义子内核大小的超参数,c是输入张量的通道数,每一个核/>位于感受野中的掩蔽区域的扩张率/>处,表示为:
因此,我们的感受野的空间大小d可以计算如下:
此处我们设X为掩膜卷积层的输入张量,每个核和相应输入之间的卷积运算的结果被求和为单个数。结果值表示为位于与M相同位置的预测。此时,我们在输入张量周围添加/>像素的零填充,并将步幅设置为1,使得输入中的每个像素都用作隐藏信息。因此,此处的输出张量Z的空间维度与输入张量X的空间维度相同。最后,通过ReLU激活并传递输出张量Z。
输出张量Z由通道注意力模块处理,该模块能为每个通道计算一个注意分数。由于Z的每个通道都是在屏蔽其它通道的情况下获取的,为了能够充分利用通道之间的关联信息,就需要利用掩膜卷积层产生的表示质量缩放的Z中的每个通道。为此,在掩膜卷积层的基础上,本发明又加入了对SE模块(包含Squeeze压缩和Excitation激励两部分)的运用。这是考虑到SE模块提供了一种机制,其可以对通道级的特征响应进行自适应重新校准。通过这种机制,使模型可以学会使用全局信息,并根据需要有选择地强调或抑制重建图。使用注意力的另一个动机则是为了增加建模能力,使自监督预测卷积注意块的输入和输出之间的非线性处理成为可能。
通过在每个通道上执行的全局池将通道注意块Z简化为向量。随后,标度因子向量计算公式如下:
式中,是激活函数,/>是ReLU激活,/>和/>分别表示两个连续全连接层的权重矩阵。第一层由/>神经元组成,以/>为还原比进行信息压缩,从而控制全连接层的输出向量大小。在空间维度上复制标度因子向量/>,生成与Z大小相同的张量S。并与元素相乘,最终生成包含重新校准的特征张量/>,其中h为特征图的高度,w为特征图的宽度。
同时,本发明还为预测卷积注意块增加了一个自监督任务,为每个应用隐藏滤波器的位置重建卷积感受野内的隐藏区域。为此,我们的预测卷积注意块需要学习提供相应的重建作为输出。将自监督重建损失定义为输入和输出之间的均方误差,表示如下:
而后将自监督重建的损失函数与深度估计匹配代价预估方法自身的损失函数相结合,从而生成一个新的损失函数,其由两个部分组成:
其中,为一个超参数,用于调节自身损失函数相对于/>的权重,/>为总损失。
进一步地,为了在不进行位移操作的情况下集成具有目标视差(每一个除背景以外的目标物体在不同子孔径图像中的位置不同,所以对于同一目标物体在不同子孔径图像的视差是不一样的,因此目标视差实际包含多个)的子孔径图像,本发明还对成本构建函数进行改进。首先,我们将成本构建函数设计为一系列的卷积,其大小为U×V,并采用不同的扩张速率来集成不同视差下的角斑块。而扩张卷积中的膨胀率与目标视差存在密切的相关性:
其中,H和W分别表示每个子孔径图像的高度和宽度。可以在不进行任何移位操作的情况下对不同差异下的角斑块进行积分,并通过对角斑块中的所有像素进行卷积来有效地构造匹配代价。
而为了有效的实现成本构建,本发明还通过引入调制机制,利用不同类型的隐藏信息来动态调整像素的振幅。具体来说,在视差d下的空间位置处,给定一个角斑点/>,那么调制卷积可表示为:
式中,为视差d下,在空间位置p处产生的UV匹配代价,/>表示成本构建函数在第n个采样点的权重,/>为第n个采样点在空间位置p处的调制标量。
最终,在对子孔径图像成本构建函数的输出通过三维卷积级联到同一个内核中实现成本聚合,获取当前光场深度图像的三维张量后,通过视差回归以获取低频深度估计的结果(可视化的深度图),视差回归可以表示为如下公式:
式中,为低频深度估计结果,/>为最大视差,/>为最小视差,/>为第n个视差,/>为沿着三维张量/>的视差轴进行的/>归一化。
综上所述,本发明所述的一种基于自监督的深度估计匹配代价预估方法,通过在深度估计中增加自监督预测卷积注意块,使深度估计被迫学习所发现的局部模式的全局结构,利用上下文信息动态调制不同视角下的像素重建隐藏信息,解决卷积神经网络不能够掌握局部特征的全局排列问题。
通过一系列的具有不同膨胀率的卷积组成不同子孔径图像的成本构建函数,在不进行移位操作的情况下集成目标视差的像素,有效提高深度估计的精度和速度。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”、“一”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
Claims (5)
1.一种基于自监督的深度估计匹配代价预估方法,其特征在于,包括步骤:
S1:提取当前光场深度图像的输出张量;
S2:以输出张量为输入张量,通过自监督预测卷积注意块结合上下文信息动态调制当前光场深度图像各视角下的像素重建隐藏信息;
S3:对像素重建隐藏信息调制后的子孔径图像矩阵进行目标视差下的像素整合,并对整合后的子孔径图像矩阵进行卷积以获取各子孔径图像的成本构建函数;
S4:通过对各子孔径图像成本构建函数的输出进行聚合获取当前光场深度图像的三维张量;
S5:根据三维张量进行视差回归以获取低频深度估计结果;
所述S2步骤中,自监督预测卷积由一个被整流线性单元激活的掩膜卷积层和一个SE模块组成;
所述S3步骤中,各子孔径图像的成本构建函数为调制卷积函数,所述调制卷积函数为内核大小U×V,并采用不同的扩张速率来集成不同视差下的图像块;
所述子孔径图像的卷积表示为如下公式:
式中,为视差d下,在空间位置p处产生的UV匹配代价,U和V为中心视图上相机平面上的点坐标,n为常数,/>为在视差d下的空间位置p处的像素点,/>表示成本构建函数在第n个采样点的权重,/>为第n个采样点在空间位置p处的调制标量。
2.如权利要求1所述的一种基于自监督的深度估计匹配代价预估方法,其特征在于,所述S2步骤中,上下文信息为像素点与其周围区域像素点之间的联系。
3.如权利要求1所述的一种基于自监督的深度估计匹配代价预估方法,其特征在于,所述S2步骤具体包括如下步骤:
S21:通过掩膜卷积在结合上下文信息的情况下对输入张量的各通道进行其它通道加权下的特征张量获取;
S22:通过SE模块对特征张量进行全局信息重新校准下当前光场深度图像各视角像素重建隐藏信息的动态调制;
所述其它通道为当前输入张量中除当前通道外的其它通道;
在空间维度上复制标度因子向量,生成与通道注意块Z大小相同的张量S,并与元素相乘生成包含重新校准的特征张量/>,其中h为特征图的高度,w为特征图的宽度;
所述标度因子向量通过如下公式获取:
式中,是激活函数,/>是ReLU激活,/>和/>分别表示两个连续全连接层的权重矩阵,c为输入张量的通道数。
4.如权利要求3所述的一种基于自监督的深度估计匹配代价预估方法,其特征在于,所述自监督预测卷积注意块通过如下损失函数实现自监督:
式中,为自监督预测卷积注意块的损失,/>为输入张量,/>为特征张量,/>为的深度估计匹配代价预估方法的损失,/>为一个超参数,用于调节自身损失函数相对于的权重,/>为正自然数,/>为总损失。
5.如权利要求1所述的一种基于自监督的深度估计匹配代价预估方法,其特征在于,所述S5步骤中,视差回归表示为如下公式:
式中,为低频深度估计结果,/>为最大视差,/>为最小视差,/>为第n个视差,为沿着三维张量/>的视差轴进行的/>归一化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311717087.XA CN117409058B (zh) | 2023-12-14 | 2023-12-14 | 一种基于自监督的深度估计匹配代价预估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311717087.XA CN117409058B (zh) | 2023-12-14 | 2023-12-14 | 一种基于自监督的深度估计匹配代价预估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117409058A CN117409058A (zh) | 2024-01-16 |
CN117409058B true CN117409058B (zh) | 2024-03-26 |
Family
ID=89489347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311717087.XA Active CN117409058B (zh) | 2023-12-14 | 2023-12-14 | 一种基于自监督的深度估计匹配代价预估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117409058B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101055411B1 (ko) * | 2010-03-12 | 2011-08-09 | 이상원 | 입체 영상 생성 방법 및 그 장치 |
CN111833390A (zh) * | 2020-06-23 | 2020-10-27 | 杭州电子科技大学 | 一种基于无监督深度学习的光场深度估计方法 |
CN113705796A (zh) * | 2021-09-28 | 2021-11-26 | 太原科技大学 | 基于epi特征强化的光场深度获取卷积神经网络 |
WO2022089077A1 (zh) * | 2020-10-28 | 2022-05-05 | 西安交通大学 | 一种基于自适应候选视差预测网络的实时双目立体匹配方法 |
CN115375745A (zh) * | 2022-06-02 | 2022-11-22 | 桂林航天工业学院 | 基于偏振微透镜光场影像视差角的绝对深度测量方法 |
CN115456914A (zh) * | 2022-11-08 | 2022-12-09 | 浙江优众新材料科技有限公司 | 一种基于先验知识的散焦图像去模糊方法、装置及介质 |
CN115797557A (zh) * | 2022-11-22 | 2023-03-14 | 哈尔滨工程大学 | 基于图注意力网络的自监督3d场景流估计方法 |
CN115984349A (zh) * | 2022-12-23 | 2023-04-18 | 重庆邮电大学 | 一种基于中心像素梯度融合和全局代价聚合的深度立体匹配算法 |
CN116109689A (zh) * | 2022-12-03 | 2023-05-12 | 山西财经大学 | 基于引导优化聚合的边缘保持立体匹配方法 |
CN116958437A (zh) * | 2023-07-27 | 2023-10-27 | 重庆大学 | 融合注意力机制的多视图重建方法及系统 |
CN117173098A (zh) * | 2023-07-27 | 2023-12-05 | 湖北汽车工业学院 | 一种基于rdms的齿轮表面缺陷检测方法 |
-
2023
- 2023-12-14 CN CN202311717087.XA patent/CN117409058B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101055411B1 (ko) * | 2010-03-12 | 2011-08-09 | 이상원 | 입체 영상 생성 방법 및 그 장치 |
CN111833390A (zh) * | 2020-06-23 | 2020-10-27 | 杭州电子科技大学 | 一种基于无监督深度学习的光场深度估计方法 |
WO2022089077A1 (zh) * | 2020-10-28 | 2022-05-05 | 西安交通大学 | 一种基于自适应候选视差预测网络的实时双目立体匹配方法 |
CN113705796A (zh) * | 2021-09-28 | 2021-11-26 | 太原科技大学 | 基于epi特征强化的光场深度获取卷积神经网络 |
CN115375745A (zh) * | 2022-06-02 | 2022-11-22 | 桂林航天工业学院 | 基于偏振微透镜光场影像视差角的绝对深度测量方法 |
CN115456914A (zh) * | 2022-11-08 | 2022-12-09 | 浙江优众新材料科技有限公司 | 一种基于先验知识的散焦图像去模糊方法、装置及介质 |
CN115797557A (zh) * | 2022-11-22 | 2023-03-14 | 哈尔滨工程大学 | 基于图注意力网络的自监督3d场景流估计方法 |
CN116109689A (zh) * | 2022-12-03 | 2023-05-12 | 山西财经大学 | 基于引导优化聚合的边缘保持立体匹配方法 |
CN115984349A (zh) * | 2022-12-23 | 2023-04-18 | 重庆邮电大学 | 一种基于中心像素梯度融合和全局代价聚合的深度立体匹配算法 |
CN116958437A (zh) * | 2023-07-27 | 2023-10-27 | 重庆大学 | 融合注意力机制的多视图重建方法及系统 |
CN117173098A (zh) * | 2023-07-27 | 2023-12-05 | 湖北汽车工业学院 | 一种基于rdms的齿轮表面缺陷检测方法 |
Non-Patent Citations (6)
Title |
---|
Self-supervised monocular depth estimation via two mechanisms of attention-aware cost volume;Hong, ZC等;WEB OF SCIENCE;20231130;全文 * |
Self-supervised Monocular Depth Estimation with Multi-Scale Feature Fusion;Qiannan Yan等;IEEE;20230822;全文 * |
Self-Supervised Predictive Convolutional Attentive Block for Anomaly Detection;Nicolae等;arvix;20220314;全文 * |
基于梯度域引导滤波的视差精炼迭代算法;朱程涛等;天津大学学报;20180630;全文 * |
基于自监督学习的番茄植株图像深度估计方法;周云成;许童羽;邓寒冰;苗腾;吴琼;;农业工程学报;20191223(24期);全文 * |
融合注意力和多尺度的优化立体匹配算法研究;谢鑫等;研究与开发;20230131;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117409058A (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111311685B (zh) | 一种基于imu与单目图像的运动场景重构无监督方法 | |
CN110599401A (zh) | 遥感图像超分辨率重建方法、处理装置及可读存储介质 | |
US20080131024A1 (en) | Structured Smoothing for Superresolution of Multispectral Imagery Based on Registered Panchromatic Image | |
CN114004754B (zh) | 一种基于深度学习的场景深度补全系统及方法 | |
CN102982517B (zh) | 基于光谱与空间局部相关的遥感影像融合方法 | |
CN108846858A (zh) | 一种计算机视觉的立体匹配算法 | |
CN111985551B (zh) | 一种基于多重注意力网络的立体匹配算法 | |
CN103093479A (zh) | 一种基于双目视觉的目标定位方法 | |
CN113762358B (zh) | 一种基于相对深度训练的半监督学习三维重建方法 | |
CN115018888B (zh) | 一种基于Transformer的光流无监督估计方法 | |
CN106815594A (zh) | 立体匹配方法及装置 | |
CN113139585B (zh) | 一种基于统一多尺度密集连接网络的红外与可见光图像融合方法 | |
CN112906300B (zh) | 基于双通道卷积神经网络的极化sar土壤湿度反演方法 | |
CN114429555A (zh) | 由粗到细的图像稠密匹配方法、系统、设备及存储介质 | |
CN117197627B (zh) | 一种基于高阶退化模型的多模态图像融合方法 | |
CN116773018A (zh) | 一种计算光谱成像的空谱联合图像重建方法及系统 | |
CN117036380A (zh) | 一种基于级联Transformer的脑肿瘤分割方法 | |
CN117409058B (zh) | 一种基于自监督的深度估计匹配代价预估方法 | |
CN118172671A (zh) | 联合稀疏约束的双非负矩阵分解遥感图像变化检测方法 | |
Bianco et al. | A unifying representation for pixel-precise distance estimation | |
Shen et al. | U 2 PNet: An Unsupervised Underwater Image-Restoration Network Using Polarization | |
CN112561947A (zh) | 一种图像自适应运动估计方法及应用 | |
CN117058302A (zh) | 一种基于NeRF的可泛化性场景渲染方法 | |
CN111833363B (zh) | 图像边缘和显著性检测方法及装置 | |
Lai et al. | A novel non-parametric transform stereo matching method based on mutual relationship |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |