CN117745596A - 一种基于跨模态融合的水下去遮挡方法 - Google Patents
一种基于跨模态融合的水下去遮挡方法 Download PDFInfo
- Publication number
- CN117745596A CN117745596A CN202410182761.7A CN202410182761A CN117745596A CN 117745596 A CN117745596 A CN 117745596A CN 202410182761 A CN202410182761 A CN 202410182761A CN 117745596 A CN117745596 A CN 117745596A
- Authority
- CN
- China
- Prior art keywords
- underwater
- event
- occlusion
- fusion
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000000605 extraction Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 12
- 208000006440 Open Bite Diseases 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 3
- 238000012821 model calculation Methods 0.000 abstract description 2
- 238000007500 overflow downdraw method Methods 0.000 abstract description 2
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000012633 leachable Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Image Processing (AREA)
Abstract
一种基于跨模态融合的水下去遮挡方法。本发明属于水下机器视觉的技术领域,具体而言,涉及事件和RGB两种数据模态深度融合方法,以及基于事件和RGB数据的水下场景去遮挡重建方法。本发明提供了一种基于跨模态融合的水下去遮挡方法,解决了现有技术中在水下去遮挡时都是先将事件序列与RGB图像各自的特征先进行编码后再融合,此种处理方式容易导致模型计算量和硬件要求翻倍,无法适配于资源受限的水下环境的问题。本发明所述方法将事件序列与RGB图像直接进行融合,然后再进行编码解码,在前融合阶段进行数据融合,减少了系统对计算量的要求,使网络更加轻量化。
Description
技术领域
本发明属于水下机器视觉的技术领域,具体而言,涉及事件和RGB两种数据模态深度融合方法,以及基于事件和RGB数据的水下场景去遮挡重建方法。
背景技术
利用事件和RGB数据实现水下视觉无遮挡场景的清晰重建,为水下的目标检测、识别和追踪等任务提供了高质量鲁棒的视觉表达,也是未来水下数据处理的发展趋势,但现有技术中,例如中国发明专利CN115761472 A《一种基于融合事件和RGB数据的水下暗光场景重建方法》 和CN115661452 A《一种基于事件相机和RGB图像的图片去遮挡方法》在处理事件序列与RGB图像时,都是先将事件序列与RGB图像各自的特征先进行编码后再融合,此种处理方式容易导致模型计算量和硬件要求翻倍,无法适配于资源受限的水下环境的问题。
发明内容
为了解决这一问题,本发明提供了一种基于跨模态融合的水下去遮挡方法,将事件序列与RGB图像直接进行融合,然后再进行编码解码,在前融合阶段进行数据融合,减少了系统对计算量的要求,使网络更加轻量化。
本发明所述方法具体如下:所述方法包括如下步骤:
S1、利用事件相机采集水下场景对应的水下事件序列、遮挡RGB帧以及未遮挡RGB帧,并构建水下事件序列—遮挡RGB帧—中间视角未遮挡RGB帧为标准的基准数据集,基准数据集中包括训练集和测试集;
使用训练集对步骤S2—S5进行训练;
S2、对水下场景对应的水下事件序列采用体素网格方式进行分段化表征,并将表征后的结果作为目标事件张量图;
S3、利用自主设计的时序多尺度编码网络对目标事件张量图和其对应的遮挡RGB帧进行融合特征编码;
S4、利用基于特征金字塔的多级Transformer编解码器对步骤S3得到的多尺度融合特征进行深度特征抽取;
S5、利用基于特征金字塔的多级Transformer编解码器进行解码,得到中间视角水下重建图像;
S6、利用步骤S1中的测试集对步骤S2-S4中的网络进行测试,直到解码所得的中间视角水下重建图质量符合要求,否则重复步骤S1—S5;
S7、将中间视角水下重建图像与其他视角遮挡RGB帧一同送入到自主改进的U型编解码网络中进行融合,最终输出所有视角的水下重建图像。
进一步,所述中间视角具体为在所有视角中与遮挡物所在平面垂直的视角。
进一步,所述步骤S1具体为:
步骤1.1、根据所述的水下事件序列,按其微秒级的时间戳进行划分,针对每一水下场景,得到多个事件窗口;
步骤1.2、将所述遮挡RGB帧按其微秒级的时间戳与步骤1.1的事件窗口逐个对齐;
步骤1.3、采集的中间视角未遮挡RGB帧,作为参考图像,并保持与步骤1.2的所有遮挡RGB帧逐个对齐;
步骤1.4、根据步骤1.1、步骤1.2和步骤1.3所获得的结果,构建基准训练集和测试集,比例为9:1。
进一步,所述步骤S2具体为:
将水下事件序列的每个事件窗口执行体素网格化过程,通过:
;
实现,式中,为经过体素网格表征后的目标事件张量图,其输入为事件单元的四元组数据:/>,分别代表事件窗口中第/>个事件单元的坐标信息、时间戳和极性;其中,/>代表当前事件窗口中第/>个事件单元所在位置的亮度增加,并达到了预设增量阈值;/>代表相反的过程。
进一步,所述自主设计的时序多尺度编码网络由三个分支网络结合起来构成,所述三个分支网络存在共同的输入和输出;
其中,第一个分支网络从输入到输出依次包括3个相同的特征提取单元和一个多层感知机;
第二个分支网络从输入到输出依次包括2个相同的特征提取单元和一个多层感知机;
第三个分支网络从输入到输出依次包括一个特征提取单元和一个多层感知机;
所述特征提取单元依次包括3D卷积网络层、批量归一化层和激活层。
进一步,所述3D卷积网络层包括ResNet3D18、ResNet3D50和ResNet3D101。
进一步,所述自主改进的U型编解码网络通过在解码和编码阶段使用深度可分离卷积构造跳跃连接,在编码器和解码器之间加入通道注意力加权,对不同视角所在的通道信息进行交互。
本发明所述方法的有益效果为:
(1)对于水下场景,时序上信息融合比空间上的信息融合更能适应水下环境的场景多变,但是时序上的融合意味着多尺度信息的融合,在使用Transformer编码器进行编码时,由于其只能对一个尺度上的信息进行编码,所以本发明中,自主设计了时序多尺度编码网络,对多尺度时序信息进行融合编码,再将多尺度融合特征输入Transformer编码器。
(2)将中间视角的无遮挡图像和所有视角的带遮挡图像输入到多视角合成u型网络中进行合成,通过在解码和编码阶段使用深度可分离卷积构造跳跃连接,相对于其他U型结构而言,以可学习的方式连接同一尺度的解码编码信息,深度可分离卷积相对于卷积而言同时拥有更大的感受野,可以有效增强融合结果;另一方面,在编码器和解码器之间加入通道注意力加权,可以有效的对不同视角所在的通道信息进行交互。
附图说明
图1为本发明实施例所述方法流程图;
图2为本发明实施例所述时序多尺度编码网络结构图;
图3为本发明实施例所述自主改进的U型编解码网络结构图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
实施例1、
本实施例提供一种基于跨模态融合的水下去遮挡方法,如图1所示,所述方法包括如下步骤:
S1、利用事件相机采集水下场景对应的水下事件序列、遮挡RGB帧以及未遮挡RGB帧,并构建水下事件序列—遮挡RGB帧—中间视角未遮挡RGB帧为标准的基准数据集,基准数据集中包括训练集和测试集;
使用训练集对步骤S2—S5进行训练;
S2、对水下场景对应的水下事件序列采用体素网格方式进行分段化表征,并将表征后的结果作为目标事件张量图;
S3、利用自主设计的时序多尺度编码网络对目标事件张量图和其对应的遮挡RGB帧进行融合特征编码;
S4、利用基于特征金字塔的多级Transformer编解码器对步骤S3得到的多尺度融合特征进行深度特征抽取;
S5、利用基于特征金字塔的多级Transformer编解码器进行解码,得到中间视角水下重建图像;
S6、利用步骤S1中的测试集对步骤S2-S5中的网络进行测试,直到解码所得的中间视角水下重建图质量符合要求,否则重复步骤S1—S5;
S7、将中间视角水下重建图像与其他视角遮挡RGB帧一同送入到自主改进的U型编解码网络中进行融合,最终输出所有视角的水下重建图像。
实施例2、
本实施例是对实施例1的进一步说明,所述步骤S1具体为:
步骤1.1、根据所述的水下事件序列,按其微秒级的时间戳进行划分,针对每一水下场景,得到多个事件窗口;
根据预先设定的时间周期,结合目标事件序列总体时间长度,确定划分的事件窗口数量为;随后,将目标事件序列的每个事件单元的微秒级时间戳进行正则化,其计算公式如下:
.
式中,为当前处理事件单元的时间戳,/>为输出的正则化时间戳,/>和/>代表当前执行的事件窗口的最大时间戳和最小时间戳。
步骤1.2、将所述遮挡RGB帧按其微秒级的时间戳与步骤1.1的事件窗口逐个对齐;
步骤1.3、采集的中间视角未遮挡RGB帧,作为参考图像,并保持与步骤1.2的所有遮挡RGB帧逐个对齐;
步骤1.4、根据步骤1.1、步骤1.2和步骤1.3所获得的结果,构建基准训练集和测试集,比例为9:1。
所述中间视角具体为在所有视角中与遮挡物所在平面垂直的视角,具体地,假设共匀速拍摄11个视角的图像,从左到右11个视角中,第6个视角正对着被遮挡物,与遮挡物所在面垂直,那么第六个视角即为中间视角。
实施例3、
本实施例是对实施例1的进一步说明,所述步骤S2具体为:
将水下事件序列的每个事件窗口执行体素网格化过程,通过:
;
实现,式中,为经过体素网格表征后的目标事件张量图,其输入为事件单元的四元组数据:/>,分别代表事件窗口中第/>个事件单元的坐标信息、时间戳和极性;其中,/>代表当前事件窗口中第/>个事件单元所在位置的亮度增加,并达到了预设增量阈值;/>代表相反的过程。
实施例4、
本实施例是对实施例1的进一步说明,如图2所示,所述自主设计的时序多尺度编码网络由三个分支网络结合起来构成,所述三个分支网络存在共同的输入和输出;
其中,第一个分支网络从输入到输出依次包括3个相同的特征提取单元和一个多层感知机;
第二个分支网络从输入到输出依次包括2个相同的特征提取单元和一个多层感知机;
第三个分支网络从输入到输出依次包括一个特征提取单元和一个多层感知机;
所述特征提取单元依次包括3D卷积网络层、批量归一化层和激活层。
所述3D卷积网络层可选用ResNet3D18、ResNet3D50和ResNet3D101以及其他的3D卷积网络,其中优选ResNet3D18卷积网络,具体的,利用ResNet3D18网络对特征编码网络对目标事件张量图和其对应的RGB帧进行多尺度特征编码,目标事件张量图和其对应的RGB帧在通道维度进行拼接,具体为,5通道的11个事件序列和3通道的11个RGB帧在通道维度进行拼接,得到88通道的信息;
通过时间步为11,8,4的ResNet3D18得到3个时空尺度融合特征向量,3个融合特征向量通过全连接层进行混合编码,得到多尺度事件RGB融合编码,全连接层的映射维度为768。
实施例5、
本实施例是对实施例1的进一步说明,步骤S4中,具体的,基于特征金字塔的多级Transformer编解码器中的编码器,逐级对输入数据即多尺度事件RGB融合编码进行深度特征抽取;其中,每一级的Transformer编码器使用尺度1*1的卷积和3*3的深度可分离卷积计算键(key)、值(value)、查询向量(query)从而在通道维度计算注意力。
实施例6、
本实施例是对实施例1的进一步说明,如图3所示为所述自主改进的U型编解码网络,将中间视角的无遮挡图像和所有视角的带遮挡图像输入到多视角合成U型网络中进行合成,在编码时依次经过4个阶段的下采样,在每个阶段中都采用卷积操作,所采用的卷积核依次为7×7、5×5、3×3、3×3,其中,C代表通特征图道数、H代表特征图高度、W代表特征图宽度;通过在解码和编码阶段使用深度可分离卷积(DWConv)构造跳跃连接,相对于其他U型结构而言,以可学习的方式连接同一尺度的解码编码信息,深度可分离卷积相对于卷积而言同时拥有更大的感受野,可以有效增强融合结果;在编码器和解码器之间加入通道注意力加权,可以有效的对不同视角所在的通道信息进行交互;在解码时依次经过4个阶段的上采样,在每个阶段中都采用卷积操作,所采用的卷积核依次为3×3、3×3、5×5、7×7,经过解码后得到所需的多视角无遮挡图像。
Claims (7)
1.一种基于跨模态融合的水下去遮挡方法,其特征在于,所述方法包括如下步骤:
S1、利用事件相机采集水下场景对应的水下事件序列、遮挡RGB帧以及未遮挡RGB帧,并构建水下事件序列—遮挡RGB帧—中间视角未遮挡RGB帧为标准的基准数据集,基准数据集中包括训练集和测试集;
使用训练集对步骤S2—S5进行训练;
S2、对水下场景对应的水下事件序列采用体素网格方式进行分段化表征,并将表征后的结果作为目标事件张量图;
S3、利用自主设计的时序多尺度编码网络对目标事件张量图和其对应的遮挡RGB帧进行融合特征编码;
S4、利用基于特征金字塔的多级Transformer编解码器对步骤S3得到的多尺度融合特征进行深度特征抽取;
S5、利用基于特征金字塔的多级Transformer编解码器进行解码,得到中间视角水下重建图像;
S6、利用步骤S1中的测试集对步骤S2-S4中的网络进行测试,直到解码所得的中间视角水下重建图质量符合要求,否则重复步骤S1—S5;
S7、将中间视角水下重建图像与其他视角遮挡RGB帧一同送入到自主改进的U型编解码网络中进行融合,最终输出所有视角的水下重建图像。
2.根据权利要求1所述的基于跨模态融合的水下去遮挡方法,其特征在于,所述中间视角具体为在所有视角中与遮挡物所在平面垂直的视角。
3.根据权利要求1所述的基于跨模态融合的水下去遮挡方法,其特征在于,所述步骤S1具体为:
步骤1.1、根据所述的水下事件序列,按其微秒级的时间戳进行划分,针对每一水下场景,得到多个事件窗口;
步骤1.2、将所述遮挡RGB帧按其微秒级的时间戳与步骤1.1的事件窗口逐个对齐;
步骤1.3、采集的中间视角未遮挡RGB帧,作为参考图像,并保持与步骤1.2的所有遮挡RGB帧逐个对齐;
步骤1.4、根据步骤1.1、步骤1.2和步骤1.3所获得的结果,构建基准训练集和测试集,比例为9:1。
4.根据权利要求3所述的基于跨模态融合的水下去遮挡方法,其特征在于,所述步骤S2具体为:
将水下事件序列的每个事件窗口执行体素网格化过程,通过:
;
实现,式中,为经过体素网格表征后的目标事件张量图,其输入为事件单元的四元组数据:/>,分别代表事件窗口中第/>个事件单元的坐标信息、时间戳和极性;其中,/>代表当前事件窗口中第/>个事件单元所在位置的亮度增加,并达到了预设增量阈值;/>代表相反的过程。
5.根据权利要求4所述的基于跨模态融合的水下去遮挡方法,其特征在于,所述自主设计的时序多尺度编码网络由三个分支网络结合起来构成,所述三个分支网络存在共同的输入和输出;
其中,第一个分支网络从输入到输出依次包括3个相同的特征提取单元和一个多层感知机;
第二个分支网络从输入到输出依次包括2个相同的特征提取单元和一个多层感知机;
第三个分支网络从输入到输出依次包括一个特征提取单元和一个多层感知机;
所述特征提取单元依次包括3D卷积网络层、批量归一化层和激活层。
6.根据权利要求5所述的基于跨模态融合的水下去遮挡方法,其特征在于,所述3D卷积网络层包括ResNet3D18、ResNet3D50和ResNet3D101。
7.根据权利要求6所述的基于跨模态融合的水下去遮挡方法,其特征在于,所述自主改进的U型编解码网络通过在解码和编码阶段使用深度可分离卷积构造跳跃连接,在编码器和解码器之间加入通道注意力加权,对不同视角所在的通道信息进行交互。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410182761.7A CN117745596B (zh) | 2024-02-19 | 2024-02-19 | 一种基于跨模态融合的水下去遮挡方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410182761.7A CN117745596B (zh) | 2024-02-19 | 2024-02-19 | 一种基于跨模态融合的水下去遮挡方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117745596A true CN117745596A (zh) | 2024-03-22 |
CN117745596B CN117745596B (zh) | 2024-06-11 |
Family
ID=90277663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410182761.7A Active CN117745596B (zh) | 2024-02-19 | 2024-02-19 | 一种基于跨模态融合的水下去遮挡方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117745596B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117939309A (zh) * | 2024-03-25 | 2024-04-26 | 荣耀终端有限公司 | 图像去马赛克方法、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862732A (zh) * | 2022-04-21 | 2022-08-05 | 武汉大学 | 一种融合事件相机与传统光学相机的合成孔径成像方法 |
CN114913342A (zh) * | 2022-05-30 | 2022-08-16 | 武汉大学 | 融合事件和图像的运动模糊图像线段检测方法及系统 |
CN115661452A (zh) * | 2022-10-25 | 2023-01-31 | 杭电(丽水)研究院有限公司 | 一种基于事件相机和rgb图像的图片去遮挡方法 |
CN115761472A (zh) * | 2023-01-09 | 2023-03-07 | 吉林大学 | 一种基于融合事件和rgb数据的水下暗光场景重建方法 |
CN115883764A (zh) * | 2023-02-08 | 2023-03-31 | 吉林大学 | 一种基于数据协同的水下高速视频插帧方法及其系统 |
CN116206196A (zh) * | 2023-04-27 | 2023-06-02 | 吉林大学 | 一种海洋低光环境多目标检测方法及其检测系统 |
CN116309781A (zh) * | 2023-05-18 | 2023-06-23 | 吉林大学 | 一种基于跨模态融合的水下视觉目标测距方法及装置 |
CN116456183A (zh) * | 2023-04-20 | 2023-07-18 | 北京大学 | 一种事件相机引导下的高动态范围视频生成方法及系统 |
-
2024
- 2024-02-19 CN CN202410182761.7A patent/CN117745596B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862732A (zh) * | 2022-04-21 | 2022-08-05 | 武汉大学 | 一种融合事件相机与传统光学相机的合成孔径成像方法 |
CN114913342A (zh) * | 2022-05-30 | 2022-08-16 | 武汉大学 | 融合事件和图像的运动模糊图像线段检测方法及系统 |
CN115661452A (zh) * | 2022-10-25 | 2023-01-31 | 杭电(丽水)研究院有限公司 | 一种基于事件相机和rgb图像的图片去遮挡方法 |
CN115761472A (zh) * | 2023-01-09 | 2023-03-07 | 吉林大学 | 一种基于融合事件和rgb数据的水下暗光场景重建方法 |
CN115883764A (zh) * | 2023-02-08 | 2023-03-31 | 吉林大学 | 一种基于数据协同的水下高速视频插帧方法及其系统 |
CN116456183A (zh) * | 2023-04-20 | 2023-07-18 | 北京大学 | 一种事件相机引导下的高动态范围视频生成方法及系统 |
CN116206196A (zh) * | 2023-04-27 | 2023-06-02 | 吉林大学 | 一种海洋低光环境多目标检测方法及其检测系统 |
CN116309781A (zh) * | 2023-05-18 | 2023-06-23 | 吉林大学 | 一种基于跨模态融合的水下视觉目标测距方法及装置 |
Non-Patent Citations (3)
Title |
---|
SANKET KACHOLE, ET AL.: "Bimodal SegNet: Fused instance segmentation using events and RGB frames", PATTERN RECOGNITION, 21 December 2023 (2023-12-21) * |
YOULANSHENGMENG: "深度学习笔记---多尺度网络结构归类总结", Retrieved from the Internet <URL:https://blog.csdn.net/YOULANSHENGMENG/article/details/121230235> * |
YU JIANG, ET AL.: "Event-Based Low-Illumination Image Enhancement", IEEE TRANSACTIONS ON MULTIMEDIA, 29 June 2023 (2023-06-29) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117939309A (zh) * | 2024-03-25 | 2024-04-26 | 荣耀终端有限公司 | 图像去马赛克方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117745596B (zh) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | LFNet: A novel bidirectional recurrent convolutional neural network for light-field image super-resolution | |
Wang et al. | End-to-end view synthesis for light field imaging with pseudo 4DCNN | |
CN110189278B (zh) | 一种基于生成对抗网络的双目场景图像修复方法 | |
CN110933429B (zh) | 基于深度神经网络的视频压缩感知与重构方法和装置 | |
CN117745596B (zh) | 一种基于跨模态融合的水下去遮挡方法 | |
CN110580472B (zh) | 一种基于全卷积网络和条件对抗网络的视频前景检测方法 | |
CN114463218B (zh) | 一种基于事件数据驱动的视频去模糊方法 | |
CN112819876B (zh) | 一种基于深度学习的单目视觉深度估计方法 | |
CN114862732B (zh) | 一种融合事件相机与传统光学相机的合成孔径成像方法 | |
CN108921942B (zh) | 对图像进行2d转制3d的方法及装置 | |
CN112040222B (zh) | 一种视觉显著性预测方法及设备 | |
CN112288627A (zh) | 一种面向识别的低分辨率人脸图像超分辨率方法 | |
CN112200732B (zh) | 一种清晰特征融合的视频去模糊方法 | |
CN116168067B (zh) | 基于深度学习的有监督多模态光场深度估计方法 | |
CN111242068B (zh) | 基于视频的行为识别方法、装置、电子设备和存储介质 | |
CN110889868B (zh) | 一种结合梯度和纹理特征的单目图像深度估计方法 | |
CN116205962A (zh) | 基于完整上下文信息的单目深度估计方法及系统 | |
CN116757986A (zh) | 一种红外与可见光图像融合方法及装置 | |
CN112184555B (zh) | 一种基于深度交互学习的立体图像超分辨率重建方法 | |
CN111539434B (zh) | 基于相似度的红外弱小目标检测方法 | |
CN117541505A (zh) | 基于跨层注意力特征交互和多尺度通道注意力的去雾方法 | |
CN110120009B (zh) | 基于显著物体检测和深度估计算法的背景虚化实现方法 | |
CN116402908A (zh) | 一种基于异构式成像的密集光场图像重建方法 | |
CN113689548B (zh) | 一种基于互注意力Transformer的医学影像三维重建方法 | |
CN114581505B (zh) | 一种基于卷积的双目立体匹配网络系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |