CN112150521A - 一种基于PSMNet优化的图像立体匹配方法 - Google Patents
一种基于PSMNet优化的图像立体匹配方法 Download PDFInfo
- Publication number
- CN112150521A CN112150521A CN202010855158.2A CN202010855158A CN112150521A CN 112150521 A CN112150521 A CN 112150521A CN 202010855158 A CN202010855158 A CN 202010855158A CN 112150521 A CN112150521 A CN 112150521A
- Authority
- CN
- China
- Prior art keywords
- feature map
- psmnet
- neural network
- optimization
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 15
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 claims abstract description 12
- 239000000284 extract Substances 0.000 claims abstract description 6
- 238000010586 diagram Methods 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims description 15
- 239000011800 void material Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于PSMNet优化的图像立体匹配方法,包括:左右图像分别输入到ResNeXt残差卷积神经网络中,提取初步特征图像,ResNeXt残差卷积神经网络引入独立路径的数量;ASPP模块提取初步提取特征图不同尺度的特征图空间信息,通过融合模块对所述特征图空间信息进行融合,得到二维融合特征图,左右二维融合特征图连接形成4维的匹配代价空间;给定匹配代价空间,3D卷积神经网络根据二维融合特征图计算匹配代价;基于所述匹配代价,通过视差回归得到预测的视差图;3D卷积神经网络删除3D卷积输出与不同输出模块之间的残差连接。本发明解决了现有图像立体匹配中存在耗时长、匹配点错误较多的问题。
Description
技术领域
本发明属于三维重建技术领域,具体涉及一种基于PSMNet优化的图像立体匹配方法。
背景技术
随着卷积神经网络的快速发展,已经展示了其在特征学习上的强大能力,在很多计算机视觉的任务中取得了非常重大的突破和进展。基于深度学习的双目立体匹配算法相对一些传统算法也取得了非常好效果。在基于端到端的深度立体匹配算法中,传统匹配算法中所有步骤均可以使用网络进行联合优化进行端到端的训练,直接输出最终的视差图。但是这些端到端的方法存在如下缺陷:(1)网络针对不适定区域(遮挡区域、重复图案、无纹理区域以及反光区域)的特征提取能力较弱,导致匹配点错误较多;(2)嵌入大量的3D卷积,势必导致模型的参数量以及运行缓存巨大,耗时大,同时使其难以部署到容量受限的移动端或嵌入式设备。
发明内容
针对现有技术中存在不足,本发明提供了一种基于PSMNet优化的图像立体匹配方法,克服现有图像立体匹配中存在耗时长、匹配点错误较多等问题。
本发明是通过以下技术手段实现上述技术目的的。
一种基于PSMNet优化的图像立体匹配方法,双目相机采集的左右图像分别输入到两个权重共享的ResNeXt残差卷积神经网络中,提取初步特征图像;ASPP模块提取初步提取特征图不同尺度的特征图空间信息,通过融合模块对所述特征图空间信息进行融合,得到二维融合特征图,左右二维融合特征图连接形成4维的匹配代价空间;给定匹配代价空间,3D卷积神经网络根据二维融合特征图计算匹配代价;基于所述匹配代价,通过视差回归得到预测的视差图。
进一步的技术方案,所述ResNeXt残差卷积神经网络在ResNet结构基础上引入独立路径的数量获取。
进一步的技术方案,所述初步特征提取模块卷积核增设有空洞率。
进一步的技术方案,所述ASPP模块包含空洞率分别为6、12、18、24的空洞卷积。
进一步的技术方案,所述3D卷积神经网络删除3D卷积输出与不同输出模块之间的残差连接。
进一步的技术方案,所述3D卷积神经网络采用堆叠沙漏模块,在每个堆叠沙漏模块内部的快捷连接中添加1×1×1卷积。
一种PSMNet优化网络,包括初步特征提取模块、ASPP模块与融合模块、3D卷积模块和视差回归,所述初步特征提取模块采用ResNeXt残差卷积神经网络,所述3D卷积神经网络删除3D卷积输出与不同输出模块之间的残差连接。
本发明的有益效果为:
(1)本发明在ResNet结构基础上深入优化,引入基数的超参数(即独立路径的数量),得到ResNeXt残差卷积神经网络,在不增加参数复杂度的前提下提高网络的准确率,解决匹配点错误较多的问题;ResNeXt残差卷积神经网络还减少网络超参数的数量,方便网络调试。
(2)本发明删除了3D卷积输出与不同输出模块之间的残差连接,降低参数量,克服匹配过程中的耗时长问题。
(3)本发明ASPP模块提取不同尺度的特征图空间信息,通过融合模块进行融合,得到包含不同尺度信息、拥有大范围感受野的二维融合特征图,使得网络在提取不适定区域信息时,具有更好的鲁棒性。
附图说明
图1为本发明所述PSMNet优化网络结构图。
具体实施方式
下面结合附图以及具体实施例对本发明作进一步的说明,但本发明的保护范围并不限于此。
一种基于PSMNet优化的图像立体匹配方法基于如图1所示的PSMNet(金字塔立体匹配网络)优化网络,PSMNet优化网络包括初步特征提取模块、ASPP模块与融合模块、3D卷积模块和视差回归。PSMNet优化网络结构表如表1所示:
表1 PSMNet优化网络结构
一种基于PSMNet优化的图像立体匹配方法,具体包括如下步骤:
步骤(1),因为残差卷积神经网络不会随着网络层数的增多而出现梯度消失的现象,初步特征提取模块使用残差卷积神经网络来学习深度表示。现有的PSMNet采用ResNet残差卷积神经网络,本发明在ResNet结构基础上深入优化,引入基数的超参数(即独立路径C的数量),得到ResNeXt残差卷积神经网络,从新的维度来提升网络性能,可以在不增加参数复杂度的前提下提高网络的准确率,同时还减少网络超参数的数量。初步特征提取模块卷积核增加空洞率,从而增大图像的感受野,获取更多的初步提取特征图信息。
ResNeXt残差卷积神经网络的每一层都跟随着批规则化层(Batch NormalizationLayer)和Re LU激活函数层,其中只有第一个卷积层的步长为2,将图像的尺寸缩小为原来的二分之一,其余卷积层步长均为1,以保留更多的空间结构信息。
双目相机采集的左右图像分别输入到两个权重共享的ResNeXt残差卷积神经网络中,左右图像通过网络参数共享学习相对应的特征,最后提取出各自对应的特征图,实现图像初步特征的提取;在初步特征提取时,为了减少计算需求,ResNeXt残差卷积神经网络首先应用三个3×3的卷积滤波器对输入的图像进行降采样处理。
步骤(2),ASPP模块包含4个具有不同空洞率的并行空洞卷积层,当初步提取特征图进入ASPP模块,特征图分别输入到4个并行空洞卷积层,每一个并行空洞卷积层对初步提取特征图进一步提取特征信息,最后将4个并行空洞卷积层输出的特征信息,通过融合模块生成二维特征图,具体为:初步提取特征图分别经过4个并行空洞卷积层提取不同尺度的特征图空间信息,通过融合模块对4个并行空洞卷积层提取的特征图空间信息进行融合,得到包含不同尺度信息、拥有大范围感受野的二维融合特征图。如图1所示,ASPP模块包含空洞率分别为6、12、18、24的空洞卷积。
融合模块的处理过程为:融合模块受SENet启发,为每个特征图空间信息赋予一个特定的权重,权重的计算方法如图1所示,特征图空间信息经全局平均池化转化为一维的特征向量,利用瓶颈结构用于限制参数数量,最后利用sigmoid函数获得各个通道之间的权重。其中瓶颈结构是由两个1*1的卷积层和一个ReLU激活层构成的,第一个卷积层将通道数压缩至原来的1/4,经ReLU函数激活之后,再由第二个卷积层将通道数恢复,将权重与对应的特征图空间信息相乘,即得到加权的特征图组;然后将初步提取特征图通过跳跃连接与加权的特征图组级联起来,经过两个3*3的卷积层将通道数压缩为32,得到二维融合特征图。
通过将左二维融合特征图和每个视差下对应的右二维融合特征图串联起来,得到4维的匹配代价空间,匹配代价空间包含高度、宽度、视差和特征通道4个维度,对于每个立体图像,匹配代价空间的维度为其中W和H分别代表立体图像的宽和高,C代表融合后特征图的通道数,D表示视差的最大范围。
步骤(3),给定匹配代价空间后,3D卷积神经网络根据二维融合特征图计算匹配代价,从而优化视差回归估计
3D卷积神经网络(3DCNN)能够从高度、宽度和视差3个维度上学习特征表示。利用编码解码结构(堆叠沙漏模块)解决了3DCNN造成的运算量过大的问题,编码器利用3个步长为2的3D卷积进行下采样,解码器对称地使用3个步长为2的3D反卷积层恢复尺寸。但上述编码解码结构不可避免地造成空间信息损失,参照ResNet残差卷积神经网络的跳跃连接结构,将编码器和解码器对应尺寸的卷连接起来,能够在反卷积恢复特征图分辨率的过程中,补充丢失的细节信息和来自低层级特征图的特征信息;与PSMNet相比,本发明还删除了3D卷积输出与不同输出模块之间的残差连接,只在每个堆叠沙漏模块内部的快捷连接中添加了1×1×1卷积,与3×3×3卷积相比只需要的乘法运算,运算速度快,获取更多特征图信息的同时节省时间,如图1所示。为了保证网络能够提取到足够多的细节信息,将3个相同的编码解码结构连接起来,并计算每个编码解码结构输出的损失,即对每个编码解码结构输出的值进行视差回归,以实现对网络的深度监督。最后,由编码解码结构得到的匹配代价矩阵,通过双边线性插值的方式恢复到原始尺寸,用于接下来的视差回归估计。
步骤(4),采用Soft Argmin操作以回归的方式估计视差,该方法是完全可微分的并且能够得到平滑的视差估计结果。经过编码解码结构得到的匹配代价矩阵中的元素为图像各个像素点在不同视差下的匹配代价,并计算每一个像素点属于每一个视差值的概率,代价越大则表示匹配的概率越低,因此取预测成本的负值,并通过Softmax操作进行正则化处理,得到每一个像素点属于不同视差值的概率;然后,以概率值作为权重,对视差进行加权求和,得到每一个像素点预测的视差值。具体的公式为:
其中zj表示神经网络中第j个神经元的输入,zk表示神经网络中第k个神经元的输入。
训练PSMNet优化网络时,平滑L1损失函数常用于目标检测的边界和回归问题,与L2损失函数相比,平滑L1损失函数具有更好的鲁棒性和较低的对异常值的敏感性,由于视差回归的存在,本发明采用平滑L1损失函数进行PSMNet优化网络训练,其公式如下:
其中,
其中:N表示像素总数。
所述实施例为本发明的优选的实施方式,但本发明并不限于上述实施方式,在不背离本发明的实质内容的情况下,本领域技术人员能够做出的任何显而易见的改进、替换或变型均属于本发明的保护范围。
Claims (7)
1.一种基于PSMNet优化的图像立体匹配方法,其特征在于,双目相机采集的左右图像分别输入到两个权重共享的ResNeXt残差卷积神经网络中,提取初步特征图像;ASPP模块提取初步提取特征图不同尺度的特征图空间信息,通过融合模块对所述特征图空间信息进行融合,得到二维融合特征图,左右二维融合特征图连接形成4维的匹配代价空间;给定匹配代价空间,3D卷积神经网络根据二维融合特征图计算匹配代价;基于所述匹配代价,通过视差回归得到预测的视差图。
2.根据权利要求1所述的基于PSMNet优化的图像立体匹配方法,其特征在于,所述ResNeXt残差卷积神经网络在ResNet结构基础上引入独立路径的数量获取。
3.根据权利要求2所述的基于PSMNet优化的图像立体匹配方法,其特征在于,所述初步特征提取模块卷积核增设有空洞率。
4.根据权利要求1所述的基于PSMNet优化的图像立体匹配方法,其特征在于,所述ASPP模块包含空洞率分别为6、12、18、24的空洞卷积。
5.根据权利要求1所述的基于PSMNet优化的图像立体匹配方法,其特征在于,所述3D卷积神经网络删除3D卷积输出与不同输出模块之间的残差连接。
6.根据权利要求5所述的基于PSMNet优化的图像立体匹配方法,其特征在于,所述3D卷积神经网络采用堆叠沙漏模块,在每个堆叠沙漏模块内部的快捷连接中添加1×1×1卷积。
7.一种根据权利要求1-6任一项所述基于PSMNet优化的图像立体匹配方法确定的PSMNet优化网络,其特征在于,包括初步特征提取模块、ASPP模块与融合模块、3D卷积模块和视差回归,所述初步特征提取模块采用ResNeXt残差卷积神经网络,所述3D卷积神经网络删除3D卷积输出与不同输出模块之间的残差连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010855158.2A CN112150521B (zh) | 2020-08-24 | 2020-08-24 | 一种基于PSMNet优化的图像立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010855158.2A CN112150521B (zh) | 2020-08-24 | 2020-08-24 | 一种基于PSMNet优化的图像立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112150521A true CN112150521A (zh) | 2020-12-29 |
CN112150521B CN112150521B (zh) | 2024-05-14 |
Family
ID=73888180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010855158.2A Active CN112150521B (zh) | 2020-08-24 | 2020-08-24 | 一种基于PSMNet优化的图像立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112150521B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112802079A (zh) * | 2021-01-19 | 2021-05-14 | 奥比中光科技集团股份有限公司 | 一种视差图获取方法、装置、终端和存储介质 |
CN112949504A (zh) * | 2021-03-05 | 2021-06-11 | 深圳市爱培科技术股份有限公司 | 立体匹配方法、装置、设备及存储介质 |
CN112991422A (zh) * | 2021-04-27 | 2021-06-18 | 杭州云智声智能科技有限公司 | 一种基于空洞空间金字塔池化的立体匹配方法及系统 |
CN113052835A (zh) * | 2021-04-20 | 2021-06-29 | 江苏迅捷装具科技有限公司 | 一种基于三维点云与图像数据融合的药盒检测方法及其检测系统 |
CN113362462A (zh) * | 2021-02-01 | 2021-09-07 | 中国计量大学 | 一种基于自监督学习的双目立体视觉视差滤波方法和装置 |
CN113506307A (zh) * | 2021-06-29 | 2021-10-15 | 吉林大学 | 一种基于残差连接改进U-Net神经网络的医学图像分割方法 |
CN113592026A (zh) * | 2021-08-13 | 2021-11-02 | 大连大学 | 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法 |
CN114998453A (zh) * | 2022-08-08 | 2022-09-02 | 国网浙江省电力有限公司宁波供电公司 | 一种基于高尺度单元的立体匹配模型及其应用方法 |
WO2022222983A1 (zh) * | 2021-04-23 | 2022-10-27 | 中兴通讯股份有限公司 | 视差估计方法、装置、图像处理设备及存储介质 |
CN115375930A (zh) * | 2022-10-26 | 2022-11-22 | 中国航发四川燃气涡轮研究院 | 基于多尺度信息的立体匹配网络及立体匹配方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533712A (zh) * | 2019-08-26 | 2019-12-03 | 北京工业大学 | 一种基于卷积神经网络的双目立体匹配方法 |
CN111402129A (zh) * | 2020-02-21 | 2020-07-10 | 西安交通大学 | 一种基于联合上采样卷积神经网络的双目立体匹配方法 |
-
2020
- 2020-08-24 CN CN202010855158.2A patent/CN112150521B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533712A (zh) * | 2019-08-26 | 2019-12-03 | 北京工业大学 | 一种基于卷积神经网络的双目立体匹配方法 |
CN111402129A (zh) * | 2020-02-21 | 2020-07-10 | 西安交通大学 | 一种基于联合上采样卷积神经网络的双目立体匹配方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112802079A (zh) * | 2021-01-19 | 2021-05-14 | 奥比中光科技集团股份有限公司 | 一种视差图获取方法、装置、终端和存储介质 |
CN113362462A (zh) * | 2021-02-01 | 2021-09-07 | 中国计量大学 | 一种基于自监督学习的双目立体视觉视差滤波方法和装置 |
CN113362462B (zh) * | 2021-02-01 | 2024-04-05 | 中国计量大学 | 一种基于自监督学习的双目立体视觉视差滤波方法和装置 |
CN112949504A (zh) * | 2021-03-05 | 2021-06-11 | 深圳市爱培科技术股份有限公司 | 立体匹配方法、装置、设备及存储介质 |
CN112949504B (zh) * | 2021-03-05 | 2024-03-19 | 深圳市爱培科技术股份有限公司 | 立体匹配方法、装置、设备及存储介质 |
CN113052835A (zh) * | 2021-04-20 | 2021-06-29 | 江苏迅捷装具科技有限公司 | 一种基于三维点云与图像数据融合的药盒检测方法及其检测系统 |
CN113052835B (zh) * | 2021-04-20 | 2024-02-27 | 江苏迅捷装具科技有限公司 | 一种基于三维点云与图像数据融合的药盒检测方法及其检测系统 |
WO2022222983A1 (zh) * | 2021-04-23 | 2022-10-27 | 中兴通讯股份有限公司 | 视差估计方法、装置、图像处理设备及存储介质 |
CN112991422A (zh) * | 2021-04-27 | 2021-06-18 | 杭州云智声智能科技有限公司 | 一种基于空洞空间金字塔池化的立体匹配方法及系统 |
CN113506307A (zh) * | 2021-06-29 | 2021-10-15 | 吉林大学 | 一种基于残差连接改进U-Net神经网络的医学图像分割方法 |
CN113506307B (zh) * | 2021-06-29 | 2022-05-27 | 吉林大学 | 一种基于残差连接改进U-Net神经网络的医学图像分割方法 |
CN113592026B (zh) * | 2021-08-13 | 2023-10-03 | 大连大学 | 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法 |
CN113592026A (zh) * | 2021-08-13 | 2021-11-02 | 大连大学 | 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法 |
CN114998453A (zh) * | 2022-08-08 | 2022-09-02 | 国网浙江省电力有限公司宁波供电公司 | 一种基于高尺度单元的立体匹配模型及其应用方法 |
CN115375930B (zh) * | 2022-10-26 | 2023-05-05 | 中国航发四川燃气涡轮研究院 | 基于多尺度信息的立体匹配网络及立体匹配方法 |
CN115375930A (zh) * | 2022-10-26 | 2022-11-22 | 中国航发四川燃气涡轮研究院 | 基于多尺度信息的立体匹配网络及立体匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112150521B (zh) | 2024-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112150521A (zh) | 一种基于PSMNet优化的图像立体匹配方法 | |
CN109522966B (zh) | 一种基于密集连接卷积神经网络的目标检测方法 | |
CN109377530B (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN111582483B (zh) | 基于空间和通道联合注意力机制的无监督学习光流估计方法 | |
CN111259945B (zh) | 引入注意力图谱的双目视差估计方法 | |
CN114255238A (zh) | 一种融合图像特征的三维点云场景分割方法及系统 | |
CN109389667B (zh) | 一种基于深度学习的高效全局光照明绘制方法 | |
CN110674742B (zh) | 基于DLinkNet的遥感图像道路提取方法 | |
WO2024040973A1 (zh) | 一种基于堆叠沙漏网络的多尺度融合去雾方法 | |
CN111626159A (zh) | 一种基于注意力残差模块和支路融合的人体关键点检测方法 | |
CN113592026A (zh) | 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法 | |
CN111462013A (zh) | 一种基于结构化残差学习的单图去雨方法 | |
CN110543890A (zh) | 一种基于特征金字塔的深度神经网络图像匹配方法 | |
CN112560865B (zh) | 一种室外大场景下点云的语义分割方法 | |
CN115359372A (zh) | 一种基于光流网络的无人机视频运动目标检测方法 | |
CN113449691A (zh) | 一种基于非局部注意力机制的人形识别系统及方法 | |
CN111833386A (zh) | 一种基于多尺度信息和注意力机制的金字塔双目立体匹配方法 | |
CN117576402B (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
US20240062347A1 (en) | Multi-scale fusion defogging method based on stacked hourglass network | |
CN115484410A (zh) | 基于深度学习的事件相机视频重建方法 | |
CN116205962A (zh) | 基于完整上下文信息的单目深度估计方法及系统 | |
CN117475182B (zh) | 基于多特征聚合的立体匹配方法 | |
Ren et al. | A lightweight object detection network in low-light conditions based on depthwise separable pyramid network and attention mechanism on embedded platforms | |
CN117710429A (zh) | 一种融合CNN与Transformer改进的轻量化单目深度估计方法 | |
CN117314990A (zh) | 一种基于遮挡解耦网络的无监督双目深度估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |