CN113762267B - 一种基于语义关联的多尺度双目立体匹配方法及装置 - Google Patents
一种基于语义关联的多尺度双目立体匹配方法及装置 Download PDFInfo
- Publication number
- CN113762267B CN113762267B CN202111025099.7A CN202111025099A CN113762267B CN 113762267 B CN113762267 B CN 113762267B CN 202111025099 A CN202111025099 A CN 202111025099A CN 113762267 B CN113762267 B CN 113762267B
- Authority
- CN
- China
- Prior art keywords
- parallax
- scale
- cost
- semantic
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000011218 segmentation Effects 0.000 claims abstract description 61
- 230000007246 mechanism Effects 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims description 32
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000010586 diagram Methods 0.000 claims description 22
- 230000002776 aggregation Effects 0.000 claims description 19
- 238000004220 aggregation Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 16
- 230000010076 replication Effects 0.000 claims description 8
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 7
- 230000004304 visual acuity Effects 0.000 abstract description 4
- 238000013527 convolutional neural network Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 14
- 230000009286 beneficial effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于语义关联的多尺度双目立体匹配方法及装置,结合语义分割分类结果和自注意力机制实现对不同物体的区分处理,构建不同类别的像素之间的语义关联关系,有助于提高网络对不同物体的分辨能力,之后采用自注意力机制来构建不同类别的像素之间的关联关系,有利于后续视差回归时充分考虑其它类别的像素对自身视差预测提供的有效信息,从而提高视差估计的准确性。本发明充分考虑不同分辨率特征对视差估计效果的影响,构建不同尺度的视差代价体,然后采用3D卷积操作实现多尺度代价体融合,得到最终的多尺度视差代价体cost volume,充分利用低分辨率特征提供的丰富语义信息和高分辨率特征提供的细节信息,从而有效提高整体的视差估计精度。
Description
技术领域
本发明涉及图像数据处理技术领域,更具体地,涉及一种基于语义关联的多尺度双目立体匹配方法及装置。
背景技术
双目立体匹配研究在车辆自动驾驶、虚拟现实、三维重建、目标检测与识别领域等具有重要意义。立体匹配旨在为校正后的左右视图提供稠密的匹配对。对于双目相机拍摄同一场景的左、右两幅视点图像,要想获取图像的深度信息,需要运用立体匹配算法获取视差图,进而获取深度图。在自动驾驶场景中,自动驾驶车辆可以配备双目摄像头来拍摄道路图像,算法模型根据输入的双目图像进行立体匹配得到视差图,再通过相机参数转为深度图,从而获取物体可靠的深度信息,有利于后续目标的检测,使自动驾驶车辆能够有效避开障碍,安全行驶。立体匹配的传统方法可分为局部和全局两类:局部算法一般在代价聚合之后,通过选择最低匹配代价来得到对应的视差。全局算法没有进行代价聚合,而是定义了一个包含数据项和平滑项的能量函数并通过最小化能量函数来求得视差。全局算法由于非常高的运算量或内存消耗,在大多数场合都无法应用,而局部算法虽然速度很快,但是鲁棒性差,匹配质量比较低。传统的立体匹配算法虽然取得了一定的效果,但其推导过程复杂,计算量大,随着深度卷积神经网络(CNN)的发展,更多学者偏向于利用深度学习来解决双目图像的立体匹配任务。目前基于深度学习的双目立体匹配算法成为主流,同时在匹配精度上也比传统算法更有优势。
现阶段,基于深度学习的双目立体匹配算法具有以下难点,目前主流的论文或专利难以充分解决:
一是现有方法对注意力机制的使用比较单一,未考虑到结合注意力机制和语义分割分类结果来构建不同类别之间的语义关联关系。实际应用中,例如自动驾驶场景下的双目立体匹配,对于地面的像素基本上是连续的,是比较容易估计的,相对来说,对于车或者人这些小目标来说,视差估计是比较难的,但由于车或者人往往都是与地面接触的,因此可以通过构建不同类别的像素之间的语义关联,以实现根据地面信息来辅助其他类别的像素的视差估计,从而提高小目标的视差估计精度。
二是现有方法未考虑到不同分辨率特征对于视差代价体构建的影响。现有方法往往采用backbone网络获取的特征直接去构建视差代价体,而未考虑到不同分辨率特征对于不同视差范围的影响是不同的。对于那些视差范围比较小的像素点,往往更依赖于高分辨率的特征来提供更多的局部细节信息;对于那些视差范围比较大的像素点,除了局部信息之外,还需要一些低分辨率的特征来提供更多的语义信息。因此,在构建视差代价体的时候需要充分利用多尺度特征来提供更丰富的语义特征和细节信息。
发明内容
鉴于上述问题,本发明的目的是提供一种基于语义关联的多尺度双目立体匹配方法及装置,结合语义信息以及多尺度特征构建代价体的双目立体匹配方法能够有效地提高视差估计的精度。
本发明第一方面提供一种基于语义关联的多尺度双目立体匹配方法,包括以下步骤:
获取校正后的左相机图像和右相机图像,即左视图和右视图;
将左视图和/或右视图输入到语义分割网络获取左视图和/或右视图的语义分割mask(掩模)分类结果;
通过2D特征提取网络分别提取左视图、右视图的多尺度的2D特征;
通过2D卷积对左视图和/或右视图的mask分类结果进行处理,得到包含类别信息的语义特征,将该语义特征作为权重加权到2D特征提取网络得到的特征结果上,并采用自注意力机制构建不同类别物体之间的语义关联关系;
根据2D特征提取网络得到的多尺度特征进行多尺度视差代价体cost volume构建;
构建好的多尺度视差代价体cost volume通过3D CNN(三维卷积神经网络)网络实现视差代价传播,3D CNN网络进行视差代价传播的时候需结合不同类别物体之间的语义关联关系;
通过视差回归操作得到视差结果,生成最终的视差图。
本方案中,多尺度特征提取使用backbone骨干网络,backbone骨干网络可选用Resnet50、Resnet101、VGGNet、DenseNet或UNet等网络结构。
本方案中,在backbone骨干网络后面再采用不同尺度的池化、下采样、卷积操作或者SPP空间金字塔结构得到多尺度的特征。
本方案中,多尺度视差代价体cost volume构建针对不同尺度的特征进行视差代价体构建,然后将不同尺度的视差代价体通过3D卷积层之后拼接得到多尺度视差代价体cost volume,后续的3D特征聚合网络基于该多尺度视差代价体cost volume进行代价聚合。
本方案中,多尺度视差代价体cost volume构建的具体方法为:
对于来自左视图的多尺度特征和来自右视图的多尺度特征其中n表示特征尺度的种类数,对同样尺度的特征形成特征对,首先在不同视差维度上通过concat操作得到H×W×D×G的4D视差代价体,其中H,W分别为特征图的高和宽,D为设定的最大视差值,G为分组数,在每个视差维度上又采用分组关联操作来计算该特征对的相似性;分组关联是将对特征进行Correlation相似性计算,将特征的乘积按照通道维度进行分组,并在每组内计算Correlation,具体计算公式如下:
其中,x表示特征图的高,y表示特征图的宽,D表示设定的最大视差值,,d表示某个具体的视差值,取值集合为(1,2,…,D),g表示分组的个数,Nc表示特征的通道数,Ng表示每组特征的通道数;
对于不同尺度的特征对,其构成视差代价体尺寸不同,需要进行多尺度代价体融合,多尺度代价体融合是指对不同尺度的视差代价体采用3D卷积操作,使其尺寸与其他尺度的视差代价体尺寸相同,然后将它们在通道维度上进行拼接,从而构建出最终的多尺度视差代价体cost volume,计算公式如下:Ctotal(x,y,D,g1+g2+…+gn)=Concat{Conv3d(C1(x,y,D,g1)),Conv3d(C2(x,y,D,g1)),…,Conv3d(Cn(x,y,D,g1)} (3)
其中gi(i=1,2,…,n)表示第i种尺度特征对构成视差代价体时设置的分组数。
本方案中,自注意力机制构建不同类别物体之间的语义关联关系,具体方法为:
对包含丰富类别信息的语义分割mask分类结果进行特征提取,并将该语义特征对图像特征进行加权,再结合自注意力机制来构建不同类别之间的语义关联关系;语义分割的mask分类结果给出了图像中每个像素的分类信息,首先对左视图和/或右视图进行语义分割得到每个像素的mask分类结果,对分类结果进行卷积操作得到包含类别信息的语义特征,然后将该语义特征作为权重对从图像提取的2D特征进行加权,即进行点乘操作,再对加权后的特征采用self-attention得到带有不同类别之间的关联关系的特征结果,最后将该特征图通过复制操作来扩展维度到4D用于辅助后续3D CNN的代价聚合模块中精细代价体的生成,其中复制的数目为模型训练时设置的最大视差值。
本方案中,所述3D CNN的代价聚合模块包含若干堆叠的沙漏3D CNN结构沿着视差维度和空间维度聚合特征信息,同时采用了语义关联模块的特征结果用于辅助精细代价体的生成。
本方案中,所述视差回归作用是根据精细化后的cost volume得到视差预测结果,具体方法为:
首先通过插值操作将精细化后的cost volume通过插值得到尺寸为H×W×D的特征图,其中H和W为原图的宽和高,D为设定的最大视差值,最后通过softmax视差回归得到尺寸为H×W的视差预测图,其中每个像素位置的视差预测结果计算公式如下:
其中d表示视差范围内的视差值,cd为视差为d时的预测代价,σ(·)代表softmax操作;
网络模型训练时的损失函数采用smooth L1 loss,具体定义如下:
其中
其中N表示带标注的像素个数,d表示像素的视差真值,表示预测的视差值;
设置4个输出,预测结果分别为模型最终的损失计算公式如下:
其中αi表示第i个视差预测图的权重系数,d*表示视差真值图。
本发明第二方面提供一种基于语义关联的多尺度双目立体匹配装置,其特征在于,包括:
图像获取模块:用于获取校正后的左相机图像和右相机图像,即左视图和右视图;
语义分割网络模块:用于对左视图和/或右视图进行语义分割,得到左视图和/或右视图的语义分割mask分类结果;
2D特征提取网络模块:用于分别提取左视图、右视图不同尺度的2D特征;
语义关联模块:用于通过2D卷积对左视图和/或右视图的mask分类结果进行处理,得到包含类别信息的语义特征,将该语义特征作为权重加权到2D特征提取网络得到的图像特征结果上,并采用自注意力机制构建不同类别物体之间的语义关联关系;
多尺度cost volume构建模块:用于根据2D特征提取网络得到的多尺度特征进行多尺度视差代价体cost volume构建;
3D CNN网络模块:用于对构建好的cost volume进行视差代价传播,3D CNN网络进行代价传播的时候需结合不同类别物体之间的语义关联关系;
视差回归模块:用于通过视差回归得到视差结果,生成最终的视差图。
本发明第三方面提供一种计算机可读存储介质,所述计算机可读存储介质中包括一种基于语义关联的多尺度双目立体匹配方法程序,所述基于语义关联的多尺度双目立体匹配方法程序被处理器执行时,实现所述的基于语义关联的多尺度双目立体匹配方法。
与现有技术相比,本发明技术方案的有益效果是:本发明提供一种基于语义关联的多尺度双目立体匹配方法及装置,结合语义分割分类结果和自注意力机制实现对不同物体的区分处理,并构建不同类别的像素之间的语义关联关系。首先对语义分割得到的分类结果进行2D卷积操作得到具有类别区分度的语义特征,然后将其作为权重加权到2D特征提取网络得到的特征结果上,得到类别信息加权后的语义特征,从而有助于提高网络对不同物体的分辨能力,之后对该特征采用self-attention自注意力机制来构建不同类别的像素之间的关联关系,有利于后续视差回归时充分考虑其它类别的像素对自身视差预测提供的有效信息,从而提高视差估计的准确性。本发明构建多尺度视差代价体cost volume,充分考虑不同分辨率特征对视差估计效果的影响。由于2D特征提取网络(backbone骨干网络)提取的不同层的特征尺度不一样,低分辨率特征感受野比较大,包含丰富的语义以及上下文信息,有助于整体和大范围的视差估计,而高分辨率特征感受野比较小,包含丰富的细节信息,有助于小范围的视差估计,因此在构建视差代价体时对2D特征提取网络提取的每一层特征进行分组关联相似性计算,从而构建不同尺度的视差代价体,然后采用3D卷积操作将不同尺度的代价体变为相同尺寸后通过通道维度的拼接操作从而实现多尺度代价体融合,得到最终的多尺度视差代价体cost volume,充分利用低分辨率特征提供的丰富语义信息和高分辨率特征提供的细节信息,从而有效提高整体的视差估计精度。
附图说明
图1为基于语义关联的多尺度双目立体匹配方法的流程图。
图2为由三种不同尺度特征构建多尺度视差代价体cost volume的过程示意图。
图3为构建不同类别物体之间的语义关联关系的过程示意图。
图4为基于语义关联的多尺度双目立体匹配装置的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了本申请一种基于语义关联的多尺度双目立体匹配方法的流程图。
如图1所示,本发明公开一种基于语义关联的多尺度双目立体匹配方法,其特征在于,包括以下步骤:
S1:获取校正后的左相机图像和右相机图像,即左视图和右视图;
S2:将左视图和/或右视图输入到语义分割网络获取左视图和/或右视图的语义分割mask分类结果;
S3:通过2D特征提取网络分别提取左视图、右视图的多尺度的2D特征;
S4:通过2D卷积对左视图和/或右视图的mask分类结果进行处理,得到包含类别信息的语义特征,将该语义特征作为权重加权到2D特征提取网络得到的特征结果上,并采用自注意力机制构建不同类别物体之间的语义关联关系;
S5:根据2D特征提取网络得到的多尺度特征进行多尺度视差代价体cost volume构建;
S6:构建好的多尺度视差代价体cost volume通过3D CNN(三维卷积神经网络)网络实现视差代价传播,3D CNN网络进行视差代价传播的时候需结合不同类别物体之间的语义关联关系;
S7:通过视差回归操作得到视差结果,生成最终的视差图。
需要说明的是,将左视图和/或右视图输入到语义分割网络获取左视图和/或右视图的语义分割mask分类结果。无论选取左视图还是右视图或者同时选取都可以,本实施例中选取左视图,获取左视图的语义分割mask分类结果。对于语义分割网络,直接选取现有的效果比较好的语义分割网络即可,然后只对左视图进行语义分割,得到左视图的语义分割mask分类结果。
根据本发明实施例,多尺度特征提取使用backbone骨干网络,backbone骨干网络可选用Resnet50、Resnet101、VGGNet、DenseNet或Unet等网络结构。
需要说明的时,采用以上任意网络均可构成backbone骨干网络。例如,针对Resnet50网络,提取的特征输出分为4层,每一层的特征感受野不一样,越前面的特征层感受野越小,分辨率越高,包含丰富的局部细节信息;越后面的特征层感受野越大,分辨率越低,包含丰富的语义信息。根据backbone网络可提取到不同分辨率的特征,此外再在backbone骨干网络后面再采用不同尺度的池化、下采样、卷积操作或者SPP空间金字塔结构得到多尺度的特征。
根据本发明实施例,多尺度视差代价体cost volume构建针对不同尺度的特征进行视差代价体构建,然后将不同尺度的视差代价体通过3D卷积层之后拼接得到多尺度视差代价体cost volume,后续的3D特征聚合网络基于该多尺度视差代价体cost volume进行代价聚合。
图2示出了由三种不同尺度特征去构建多尺度视差代价体cost volume的过程。
根据本发明实施例,多尺度视差代价体cost volume构建的具体方法为:
对于来自左视图的多尺度特征和来自右视图的多尺度特征其中n表示特征尺度的种类数,对同样尺度的特征形成特征对,首先在不同视差维度上通过concat操作得到H×W×D×G的4D视差代价体,所述concat操作是指将两个向量在某一个维度上进行拼接。其中H,W分别为特征图的高和宽,D为设定的最大视差值,G为分组数,在每个视差维度上又采用分组关联操作来计算该特征对的相似性;分组关联是将对特征进行Correlation相似性计算,将特征的乘积按照通道维度进行分组,并在每组内计算Correlation,具体计算公式如下:
其中,x表示特征图的高,y表示特征图的宽,D表示设定的最大视差值,,d表示某个具体的视差值,取值集合为(1,2,…,D),g表示分组的个数,Nc表示特征的通道数,Ng表示每组特征的通道数。
对于不同尺度的特征对,其构成视差代价体尺寸不同,需要进行多尺度代价体融合,多尺度代价体融合是指对不同尺度的视差代价体采用3D卷积操作,也就是Conv3d,3D卷积操作与2D卷积类似,只是卷积核由二维变成了三维,由于此处的视差代价体是4D的特征图,因此需要采用3D卷积对其进行进行处理,使其尺寸与其他尺度的视差代价体尺寸相同,然后将它们在通道维度上进行拼接,从而构建出最终的多尺度视差代价体cost volume,计算公式如下:Ctotal(x,y,D,g1+g2+…+gn)=Concat{Conv3d(C1(x,y,D,g1)),Conv3d(C2(x,y,D,g1)),…,Conv3d(Cn(x,y,D,g1)} (3)
其中gi(i=1,2,…,n)表示第i种尺度特征对构成视差代价体时设置的分组数,本发明中n的取值为3,本领域技术人员可以根据实际应用和具体实验进行调整。
需要说明的是,多尺度视差代价体cost volume的构建可以有多种方式,本实施方式中采用了对每种尺度的特征分别进行相关性计算,然后通过3D卷积进行多尺度信息融合来充分考虑不同分辨率特征对于视差估计的影响。
根据本发明实施例,如图3所示,自注意力机制构建不同类别物体之间的语义关联关系,具体方法为:
对包含丰富类别信息的语义分割mask分类结果进行特征提取,并将该语义特征对图像特征进行加权,再结合自注意力机制来构建不同类别之间的语义关联关系。语义分割的mask分类结果给出了图像中每个像素的分类信息,首先对左视图进行语义分割得到每个像素的mask分类结果,对分类结果进行卷积操作得到包含类别信息的语义特征,然后将该语义特征作为权重对从图像提取的2D特征进行加权,即进行点乘操作,再对加权后的特征采用self-attention(自注意力机制)得到带有不同类别之间的关联关系的特征结果,最后将该特征图通过复制操作来扩展维度到4D用于辅助后续3D CNN的代价聚合模块中精细代价体的生成,其中复制的数目为模型训练时设置的最大视差值。
图3为构建不同类别物体之间的语义关联关系的过程示意图。
需要说明的是,此处采用2D attention再进行维度的扩展相较于直接对3D特征图进行attention操作计算量显著降低,大大减少了模型的参数。
根据本发明实施例,所述3D CNN的代价聚合模块包含一系列堆叠的沙漏3D CNN结构沿着视差维度和空间维度聚合特征信息,同时采用了语义关联模块的特征结果用于辅助精细代价体的生成。
3D代价聚合模块由两个基本的卷积块和3个重复的沙漏结构组成,每个沙漏内部结构相同,并在每个沙漏结构的输入部分都加上了来自语义关联模块的特征,并将处理后的输出结果进行视差回归得到一个视差预测结果。
需要说明的是,沙漏结构的设计采样了编码器-解码器(encoder-decoder)结构,从而能够获取丰富的上下文信息。每个沙漏内部结构先通过3D卷积进行下采样,再采用3D反卷积进行上采样恢复到输入时的特征尺度,并将输出结果重新加上语义关联模块得到的特征作为下一个沙漏结构的输入。其中3D CNN模块的卷积核大小均为3x3x3。
根据本发明实施例,所述视差回归作用是根据精细化后的cost volume得到视差预测结果,具体方法为:
首先通过插值操作将精细化后的cost volume通过插值得到尺寸为H×W×D的特征图,其中H和W为原图的宽和高,D为设定的最大视差值,本发明中取值为192,最后通过softmax视差回归得到尺寸为H×W的视差预测图,其中每个像素位置的视差预测结果计算公式如下:
其中d表示视差范围内的视差值,cd为视差为d时的预测代价,σ(·)代表softmax操作;
网络模型训练时的损失函数采用smooth L1 loss,smooth L1 loss是一个分段函数,综合了L1 Loss和L2 Loss两个损失函数的优点,相比于L1 Loss函数,可以收敛得更快,相比于L2损失函数,对离群点、异常值不敏感,其具体公式定义如下:
其中
其中N表示带标注的像素个数,d表示像素的视差真值,表示预测的视差值,x表示视差真值d和视差预测值/>的差值;
设置4个输出,预测结果分别为模型最终的损失计算公式如下:
其中αi表示第i个视差预测图的权重系数,d*表示视差真值图。
根据本发明实施例,参数αi设置为α0=0.5,α1=0.5,α2=0.7,α3=1.0。
根据本发明实施例,将左视图输入到语义分割网络获取左视图的语义分割mask分类结果;根据物体属性的不同分类结果包括地面、天空、云层、建筑物、路灯、树木、行人、大型机动车、小型机动车、非机动车、交通标识、道路标线。
需要说明的是,由于建筑物、路灯、树木、车、人、道路标线往往都是与地面接触的,而云层往往都是与天空接触的,因此通过结合语义分割分类结果和自注意力机制构建不同类别的像素之间的语义关联关系,利用地面信息来辅助车或者人的视差估计,从而有效提高小目标的视差估计精度。
为验证本发明基于语义关联的多尺度双目立体匹配的效果,进行了验证实验。由于本发明算法主要用于自动驾驶场景下的双目视差估计,因此数据集的选取上全部使用自动驾驶场景下的数据集进行模型的训练。本发明中采用的训练数据集为KITTI 3D目标检测数据集和KITTI2015双目立体匹配数据集。由于KITTI3D目标检测数据集没有提供视差真值,本发明中训练真值的获取采用了激光雷达投影来获取稀疏的视差真值图,然后采用深度补全的方法得到密集的深度图作为最终的视差真值来预训练网络,然后将预训练好的网络再在KITTI2015的训练集上进行finetune和测试。在语义分割结果的获取方面,本发明直接采用了目前现有的语义分割算法来获取语义分割mask结果,没有进行专门的训练。
本发明的最终评价指标都在KITTI2015验证集上进行,KITTI2015提供了200张带有视差真值的图片,PSMNet的划分方式为160张训练集,40张验证集,GwcNet的划分方式为180张训练集,20张验证集,本发明中分别按照论文各自的划分方式进行实验,并进行了验证集上的结果指标比较。实验结果也验证了本发明的有效性和高精度特点。
本发明的网络模型实现采用Pytorch深度学习框架,并使用了Adam优化器,其中的参数设置为β1=0.9,β2=0.999。模型训练时的输入图片尺寸为256x512,batchsize设置为12,显卡配置为4块Nvidia TITAN V GPU。模型首先在KITTI 3D目标检测数据集上预训练40epochs,学习率的设置为0.001,然后在KITTI2015数据集上finetune 300epochs,学习率的设置为第一个100epochs设置为0.001,第二个100epochs设置为0.0005,第三个100epochs设置为0.0001。
如图4所示,本发明公开一种基于语义关联的多尺度双目立体匹配装置,包括:
图像获取模块:用于获取校正后的左相机图像和右相机图像,即左视图和右视图;
语义分割网络模块:用于对左视图和/或右视图进行语义分割,得到左视图和/或右视图的语义分割mask分类结果;
2D特征提取网络模块:用于分别提取左视图、右视图不同尺度的2D特征;
语义关联模块:用于通过2D卷积对左视图和/或右视图的mask分类结果进行处理,得到包含类别信息的语义特征,将该语义特征作为权重加权到2D特征提取网络得到的图像特征结果上,并采用自注意力机制构建不同类别物体之间的语义关联关系;
多尺度cost volume构建模块:用于根据2D特征提取网络得到的多尺度特征进行多尺度视差代价体cost volume构建;
3D CNN网络模块:用于对构建好的cost volume进行视差代价传播,3D CNN网络进行代价传播的时候需结合不同类别物体之间的语义关联关系;
视差回归模块:用于通过视差回归得到视差结果,生成最终的视差图。
需要说明的是,将左视图和/或右视图输入到语义分割网络获取左视图和/或右视图的语义分割mask分类结果。无论选取左视图还是右视图都可以,本实施例中选取左视图,获取左视图的语义分割mask分类结果。对于语义分割网络,直接选取现有的效果比较好的语义分割网络,然后只对左视图进行语义分割,得到左视图的语义分割mask分类结果。
根据本发明实施例,多尺度特征提取使用backbone骨干网络,backbone骨干网络可选用Resnet50、Resnet101、VGGNet、DenseNet或Unet等网络结构。例如针对Resnet50网络,提取的特征输出分为4层,每一层的特征感受野不一样,越前面的特征层感受野越小,分辨率越高,包含丰富的局部细节信息;越后面的特征层感受野越大,分辨率越低,包含丰富的语义信息。根据backbone网络可提取到不同分辨率的特征,此外再在backbone骨干网络后面再采用不同尺度的池化、下采样、卷积操作或者SPP空间金字塔结构得到多尺度的特征。
根据本发明实施例,多尺度视差代价体cost volume构建针对不同尺度的特征进行视差代价体构建,然后将不同尺度的视差代价体通过3D卷积层之后拼接得到多尺度视差代价体cost volume,后续的3D特征聚合网络基于该多尺度视差代价体cost volume进行代价聚合。
根据本发明实施例,多尺度视差代价体cost volume构建的具体方法为:
对于来自左视图的多尺度特征和来自右视图的多尺度特征其中n表示特征尺度的种类数,对同样尺度的特征形成特征对,首先在不同视差维度上通过concat操作得到H×W×D×G的4D视差代价体,其中H,W分别为特征图的高和宽,D为设定的最大视差值,G为分组数,在每个视差维度上又采用分组关联操作来计算该特征对的相似性;分组关联是将对特征进行Correlation相似性计算,将特征的乘积按照通道维度进行分组,并在每组内计算Correlation,具体计算公式如下:
其中,x表示特征图的高,y表示特征图的宽,D表示设定的最大视差值,,d表示某个具体的视差值,取值集合为(1,2,…,D),g表示分组的个数,Nc表示特征的通道数,Ng表示每组特征的通道数;
对于不同尺度的特征对,其构成视差代价体尺寸不同,需要进行多尺度代价体融合,多尺度代价体融合是指对不同尺度的视差代价体采用3D卷积操作,使其尺寸与其他尺度的视差代价体尺寸相同,然后将它们在通道维度上进行拼接,从而构建出最终的多尺度视差代价体cost volume,计算公式如下:Ctotal(x,y,D,g1+g2+…+gn)=Concat{Conv3d(C1(x,y,D,g1)),Conv3d(C2(x,y,D,g1)),…,Conv3d(Cn(x,y,D,g1)} (3)
其中gi(i=1,2,…,n)表示第i种尺度特征对构成视差代价体时设置的分组数。
根据本发明实施例,如图3所示,自注意力机制构建不同类别物体之间的语义关联关系,具体方法为:
对包含丰富类别信息的语义分割mask分类结果进行特征提取,并将该语义特征对图像特征进行加权,再结合自注意力机制来构建不同类别之间的语义关联关系。语义分割的mask分类结果给出了图像中每个像素的分类信息,首先对左视图进行语义分割得到每个像素的mask分类结果,对分类结果进行卷积操作得到包含类别信息的语义特征,然后将该语义特征作为权重对从图像提取的2D特征进行加权,即进行点乘操作,再对加权后的特征采用self-attention(自注意力机制)得到带有不同类别之间的关联关系的特征结果,最后将该特征图通过复制操作来扩展维度到4D用于辅助后续3D CNN的代价聚合模块中精细代价体的生成,其中复制的数目为模型训练时设置的最大视差值。
需要说明的是,此处采用2D attention再进行维度的扩展相较于直接对3D特征图进行attention操作计算量显著降低,大大减少了模型的参数。
根据本发明实施例,所述3D CNN的代价聚合模块包含一系列堆叠的沙漏3D CNN结构沿着视差维度和空间维度聚合特征信息,同时采用了语义关联模块的特征结果用于辅助精细代价体的生成。
3D代价聚合模块由两个基本的卷积块和3个重复的沙漏结构组成,每个沙漏内部结构相同,并在每个沙漏结构的输入部分都加上了来自语义关联模块的特征,并将处理后的输出结果传给视差回归模块得到一个视差预测结果。沙漏结构的设计采样了编码器-解码器(encoder-decoder)结构,从而能够获取丰富的上下文信息。每个沙漏内部结构先通过3D卷积进行下采样,再采用3D反卷积进行上采样恢复到输入时的特征尺度,并将输出结果重新加上语义关联模块得到的特征作为下一个沙漏结构的输入。其中3D CNN模块的卷积核大小均为3x3x3。
根据本发明实施例,所述视差回归作用是根据精细化后的cost volume得到视差预测结果,具体方法为:
首先通过插值操作将精细化后的cost volume通过插值得到尺寸为H×W×D的特征图,其中H和W为原图的宽和高,D为设定的最大视差值,最后通过softmax视差回归得到尺寸为H×W的视差预测图,其中每个像素位置的视差预测结果计算公式如下:
其中d表示视差范围内的视差值,cd为视差为d时的预测代价,σ(·)代表softmax操作;
网络模型训练时的损失函数采用smooth L1 loss,具体定义如下:
其中
其中N表示带标注的像素个数,d表示像素的视差真值,表示预测的视差值;
设置4个输出,预测结果分别为模型最终的损失计算公式如下:
其中αi表示第i个视差预测图的权重系数,d*表示视差真值图。
根据本发明实施例,参数αi设置为α0=0.5,α1=0.5,α2=0.7,α3=1.0。
根据本发明实施例,将左视图输入到语义分割网络获取左视图的语义分割mask分类结果;根据物体属性的不同分类结果包括地面、天空、云层、建筑物、路灯、树木、行人、大型机动车、小型机动车、非机动车、交通标识、道路标线。
需要说明的是,由于建筑物、路灯、树木、车、人、道路标线往往都是与地面接触的,而云层往往都是与天空接触的,因此通过结合语义分割分类结果和自注意力机制构建不同类别的像素之间的语义关联关系,利用地面信息来辅助车或者人的视差估计,从而有效提高小目标的视差估计精度。
本发明还公开一种计算机可读存储介质,所述计算机可读存储介质中包括一种基于语义关联的多尺度双目立体匹配方法程序,所述基于语义关联的多尺度双目立体匹配方法程序被处理器执行时,实现所述的基于语义关联的多尺度双目立体匹配方法。
本发明提供一种基于语义关联的多尺度双目立体匹配方法及装置,结合语义分割分类结果和自注意力机制实现对不同物体的区分处理,并构建不同类别的像素之间的语义关联关系。首先对语义分割得到的分类结果进行2D卷积操作得到具有类别区分度的语义特征,然后将其作为权重加权到2D特征提取网络得到的特征结果上,得到类别信息加权后的语义特征,从而有助于提高网络对不同物体的分辨能力,之后对该特征采用self-attention自注意力机制来构建不同类别的像素之间的关联关系,有利于后续视差回归时充分考虑其它类别的像素对自身视差预测提供的有效信息,从而提高视差估计的准确性。本发明构建多尺度视差代价体cost volume,充分考虑不同分辨率特征对视差估计效果的影响。由于2D特征提取网络(backbone骨干网络)提取的不同层的特征尺度不一样,低分辨率特征感受野比较大,包含丰富的语义以及上下文信息,有助于整体和大范围的视差估计,而高分辨率特征感受野比较小,包含丰富的细节信息,有助于小范围的视差估计,因此在构建视差代价体时对2D特征提取网络提取的每一层特征进行分组关联相似性计算,从而构建不同尺度的视差代价体,然后采用3D卷积操作将不同尺度的代价体变为相同尺寸后通过通道维度的拼接操作从而实现多尺度代价体融合,得到最终的多尺度视差代价体costvolume,充分利用低分辨率特征提供的丰富语义信息和高分辨率特征提供的细节信息,从而有效提高整体的视差估计精度。
对于自动驾驶领域,由于不同物体,例如行人、车辆、地面等差异较大,如果对其不加区分会导致精度的下降。因此采用语义分割网络得到图片的像素分类结果来提高网络对于不同物体的分辨能力,再结合注意力机制从而让网络自主学习对不同类别的像素视差计算的区分。
并且,由于不同类别的物体特点不一样,视差估计难度也不一样,例如自动驾驶场景下的图片,对于地面的像素基本上是连续的,是比较容易估计的,相对来说,对于车或者人这些小目标来说,像素偏少、特征不够明显,进行视差估计是比较难的,但由于车或者人往往都是与地面接触的,因此通过结合语义分割分类结果和自注意力机制构建不同类别的像素之间的语义关联关系,利用地面信息来辅助车或者人的视差估计,从而有效提高小目标的视差估计精度。
本发明中所提出的基于语义关联的多尺度双目立体匹配算法主要用于自动驾驶场景下基于双目视觉的目标深度估计,能够有效提高目标的深度预测精度,从而更好地进行前方物体的检测和障碍避免,提升自动驾驶的安全性和可靠性。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (10)
1.一种基于语义关联的多尺度双目立体匹配方法,其特征在于,包括以下步骤:
获取左相机图像和右相机图像,即左视图和右视图;
将左视图和/或右视图输入到语义分割网络获取左视图和/或右视图的语义分割mask分类结果;
通过2D特征提取网络分别提取左视图、右视图的多尺度的2D特征;
通过2D卷积对左视图和/或右视图的mask分类结果进行处理,得到包含类别信息的语义特征,将该语义特征作为权重加权到2D特征提取网络得到的特征结果上,并采用自注意力机制构建不同类别物体之间的语义关联关系;
根据2D特征提取网络得到的多尺度特征进行多尺度视差代价体cost volume构建;
构建好的多尺度视差代价体cost volume通过3D CNN网络实现视差代价传播,3D CNN网络进行视差代价传播的时候需结合不同类别物体之间的语义关联关系;
通过视差回归操作得到视差结果,生成最终的视差图。
2.根据权利要求1所述的基于语义关联的多尺度双目立体匹配方法,其特征在于,多尺度特征提取使用backbone骨干网络,backbone骨干网络可选用Resnet50、Resnet101、VGGNet、DenseNet或UNet网络结构。
3.根据权利要求2所述的基于语义关联的多尺度双目立体匹配方法,其特征在于,在backbone骨干网络后面再采用不同尺度的池化、下采样、卷积操作或者SPP空间金字塔结构得到多尺度的特征。
4.根据权利要求1所述的基于语义关联的多尺度双目立体匹配方法,其特征在于,多尺度视差代价体cost volume构建针对不同尺度的特征进行视差代价体构建,然后将不同尺度的视差代价体通过3D卷积层之后拼接得到多尺度视差代价体cost volume,后续的3DCNN网络基于该多尺度视差代价体cost volume进行代价聚合。
5.根据权利要求1所述的基于语义关联的多尺度双目立体匹配方法,其特征在于,多尺度视差代价体cost volume构建的具体方法为:
对于来自左视图的多尺度特征fl i(i=1,2,…n)和来自右视图的多尺度特征其中n表示特征尺度的种类数,对同样尺度的特征形成特征对,首先在不同视差维度上通过concat操作得到H×W×D×G的4D视差代价体,其中H,W分别为特征图的高和宽,D为设定的最大视差值,G为分组数,在每个视差维度上又采用分组关联操作来计算该特征对的相似性;分组关联是将对特征进行Correlation相似性计算,将特征的乘积按照通道维度进行分组,并在每组内计算Correlation,具体计算公式如下:
其中,x表示特征图的高,y表示特征图的宽,D表示设定的最大视差值,d表示某个具体的视差值,取值集合为(1,2,…,D),g表示分组的个数,Nc表示特征的通道数,Ng表示每组特征的通道数;
对于不同尺度的特征对,其构成视差代价体尺寸不同,需要进行多尺度代价体融合,多尺度代价体融合是指对不同尺度的视差代价体采用3D卷积操作,使其尺寸与其他尺度的视差代价体尺寸相同,然后将它们在通道维度上进行拼接,从而构建出最终的多尺度视差代价体costvolume,计算公式如下:
Ctotal(x,y,D,g1+g2+…+gn)=
Concat{Conv3d(C1(x,y,D,g1)),Conv3d(C2(x,y,D,g2)),…,Conv3d(Cn(x,y,D,gn)}(3)
其中gi(i=1,2,…,n)表示第i种尺度特征对构成视差代价体时设置的分组数。
6.根据权利要求1所述的基于语义关联的多尺度双目立体匹配方法,其特征在于,自注意力机制构建不同类别物体之间的语义关联关系,具体方法为:
对包含丰富类别信息的语义分割mask分类结果进行特征提取,并将该语义特征对图像特征进行加权,再结合自注意力机制来构建不同类别之间的语义关联关系;语义分割的mask分类结果给出了图像中每个像素的分类信息,首先对左视图和/或右视图进行语义分割得到每个像素的mask分类结果,对分类结果进行卷积操作得到包含类别信息的语义特征,然后将该语义特征作为权重对从图像提取的2D特征进行加权,即进行点乘操作,再对加权后的特征采用self-attention得到带有不同类别之间的关联关系的特征结果,最后将特征图通过复制操作来扩展维度到4D用于辅助后续3D CNN的代价聚合模块中精细代价体的生成,其中复制的数目为模型训练时设置的最大视差值。
7.根据权利要求6所述的基于语义关联的多尺度双目立体匹配方法,其特征在于,所述3D CNN的代价聚合模块包含若干堆叠的沙漏3D CNN结构沿着视差维度和空间维度聚合特征信息,同时采用了语义关联模块的特征结果用于辅助精细代价体的生成。
8.根据权利要求7所述的基于语义关联的多尺度双目立体匹配方法,其特征在于,所述视差回归作用是根据精细化后的cost volume得到视差预测结果,具体方法为:
首先通过插值操作将精细化后的cost volume通过插值得到尺寸为H×W×D的特征图,其中H和W为原图的宽和高,D为设定的最大视差值,最后通过softmax视差回归得到尺寸为H×W的视差预测图,其中每个像素位置的视差预测结果计算公式如下:
其中d表示视差范围内的视差值,cd为视差为d时的预测代价,σ(·)代表softmax操作;
网络模型训练时的损失函数采用smooth L1 loss,具体定义如下:
其中
其中N表示带标注的像素个数,d表示像素的视差真值,表示预测的视差值;
设置4个输出,预测结果分别为模型最终的损失计算公式如下:
其中αi表示第i个视差预测图的权重系数,d*表示视差真值图。
9.一种基于语义关联的多尺度双目立体匹配装置,其特征在于,包括:
图像获取模块:用于获取左相机图像和右相机图像,即左视图和右视图;
语义分割网络模块:用于对左视图和/或右视图进行语义分割,得到左视图和/或右视图的语义分割mask分类结果;
2D特征提取网络模块:用于分别提取左视图、右视图不同尺度的2D特征;
语义关联模块:用于通过2D卷积对左视图和/或右视图的mask分类结果进行处理,得到包含类别信息的语义特征,将该语义特征作为权重加权到2D特征提取网络得到的图像特征结果上,并采用自注意力机制构建不同类别物体之间的语义关联关系;
多尺度cost volume构建模块:用于根据2D特征提取网络得到的多尺度特征进行多尺度视差代价体cost volume构建;
3D CNN网络模块:用于对构建好的cost volume进行视差代价传播,3D CNN网络进行代价传播的时候需结合不同类别物体之间的语义关联关系;
视差回归模块:用于通过视差回归得到视差结果,生成最终的视差图。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括一种基于语义关联的多尺度双目立体匹配方法程序,所述基于语义关联的多尺度双目立体匹配方法程序被处理器执行时,实现如权利要求1至8中任一项所述的基于语义关联的多尺度双目立体匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111025099.7A CN113762267B (zh) | 2021-09-02 | 2021-09-02 | 一种基于语义关联的多尺度双目立体匹配方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111025099.7A CN113762267B (zh) | 2021-09-02 | 2021-09-02 | 一种基于语义关联的多尺度双目立体匹配方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762267A CN113762267A (zh) | 2021-12-07 |
CN113762267B true CN113762267B (zh) | 2024-03-12 |
Family
ID=78792658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111025099.7A Active CN113762267B (zh) | 2021-09-02 | 2021-09-02 | 一种基于语义关联的多尺度双目立体匹配方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113762267B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114519710B (zh) * | 2022-02-22 | 2024-07-12 | 平安科技(深圳)有限公司 | 视差图生成方法和装置、电子设备及存储介质 |
CN115170638B (zh) * | 2022-07-13 | 2023-04-18 | 东北林业大学 | 一种双目视觉立体匹配网络系统及其构建方法 |
CN115908298B (zh) * | 2022-11-10 | 2023-10-10 | 苏州慧维智能医疗科技有限公司 | 内窥镜图像中息肉的目标预测方法、模型及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108076338A (zh) * | 2016-11-14 | 2018-05-25 | 北京三星通信技术研究有限公司 | 图像视觉处理方法、装置及设备 |
CN109919993A (zh) * | 2019-03-12 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置和设备及控制系统 |
CN110197505A (zh) * | 2019-05-30 | 2019-09-03 | 西安电子科技大学 | 基于深度网络及语义信息的遥感图像双目立体匹配方法 |
KR20190119261A (ko) * | 2018-04-12 | 2019-10-22 | 가천대학교 산학협력단 | 멀티 스케일 이미지와 멀티 스케일 확장된 컨볼루션 기반의 완전 컨볼루션 뉴럴 네트워크를 이용한 시맨틱 이미지 세그먼테이션 장치 및 그 방법 |
CN111259945A (zh) * | 2020-01-10 | 2020-06-09 | 大连理工大学 | 引入注意力图谱的双目视差估计方法 |
CN111402129A (zh) * | 2020-02-21 | 2020-07-10 | 西安交通大学 | 一种基于联合上采样卷积神经网络的双目立体匹配方法 |
CN111696148A (zh) * | 2020-06-17 | 2020-09-22 | 中国科学技术大学 | 基于卷积神经网络的端到端立体匹配方法 |
CN111985551A (zh) * | 2020-08-14 | 2020-11-24 | 湖南理工学院 | 一种基于多重注意力网络的立体匹配算法 |
WO2020258286A1 (zh) * | 2019-06-28 | 2020-12-30 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置、拍摄装置和可移动平台 |
CN112365586A (zh) * | 2020-11-25 | 2021-02-12 | 厦门瑞为信息技术有限公司 | 3d人脸建模与立体判断方法及嵌入式平台的双目3d人脸建模与立体判断方法 |
CN112634341A (zh) * | 2020-12-24 | 2021-04-09 | 湖北工业大学 | 多视觉任务协同的深度估计模型的构建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180322623A1 (en) * | 2017-05-08 | 2018-11-08 | Aquifi, Inc. | Systems and methods for inspection and defect detection using 3-d scanning |
US11481862B2 (en) * | 2020-02-26 | 2022-10-25 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for real-time, simultaneous object detection and semantic segmentation |
-
2021
- 2021-09-02 CN CN202111025099.7A patent/CN113762267B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108076338A (zh) * | 2016-11-14 | 2018-05-25 | 北京三星通信技术研究有限公司 | 图像视觉处理方法、装置及设备 |
KR20190119261A (ko) * | 2018-04-12 | 2019-10-22 | 가천대학교 산학협력단 | 멀티 스케일 이미지와 멀티 스케일 확장된 컨볼루션 기반의 완전 컨볼루션 뉴럴 네트워크를 이용한 시맨틱 이미지 세그먼테이션 장치 및 그 방법 |
CN109919993A (zh) * | 2019-03-12 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置和设备及控制系统 |
CN110197505A (zh) * | 2019-05-30 | 2019-09-03 | 西安电子科技大学 | 基于深度网络及语义信息的遥感图像双目立体匹配方法 |
WO2020258286A1 (zh) * | 2019-06-28 | 2020-12-30 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置、拍摄装置和可移动平台 |
CN111259945A (zh) * | 2020-01-10 | 2020-06-09 | 大连理工大学 | 引入注意力图谱的双目视差估计方法 |
CN111402129A (zh) * | 2020-02-21 | 2020-07-10 | 西安交通大学 | 一种基于联合上采样卷积神经网络的双目立体匹配方法 |
CN111696148A (zh) * | 2020-06-17 | 2020-09-22 | 中国科学技术大学 | 基于卷积神经网络的端到端立体匹配方法 |
CN111985551A (zh) * | 2020-08-14 | 2020-11-24 | 湖南理工学院 | 一种基于多重注意力网络的立体匹配算法 |
CN112365586A (zh) * | 2020-11-25 | 2021-02-12 | 厦门瑞为信息技术有限公司 | 3d人脸建模与立体判断方法及嵌入式平台的双目3d人脸建模与立体判断方法 |
CN112634341A (zh) * | 2020-12-24 | 2021-04-09 | 湖北工业大学 | 多视觉任务协同的深度估计模型的构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113762267A (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113762267B (zh) | 一种基于语义关联的多尺度双目立体匹配方法及装置 | |
CN111612807A (zh) | 一种基于尺度和边缘信息的小目标图像分割方法 | |
Zhang et al. | Progressive hard-mining network for monocular depth estimation | |
CN114445430B (zh) | 轻量级多尺度特征融合的实时图像语义分割方法及系统 | |
CN111915627A (zh) | 语义分割方法、网络、设备及计算机存储介质 | |
Jaus et al. | Panoramic panoptic segmentation: Towards complete surrounding understanding via unsupervised contrastive learning | |
CN113963117B (zh) | 一种基于可变卷积深度网络的多视图三维重建方法及装置 | |
CN113066089B (zh) | 一种基于注意力引导机制的实时图像语义分割方法 | |
CN114764856A (zh) | 图像语义分割方法和图像语义分割装置 | |
CN113743417A (zh) | 语义分割方法和语义分割装置 | |
CN112861727A (zh) | 一种基于混合深度可分离卷积的实时语义分割方法 | |
CN116612288B (zh) | 一种多尺度轻量级实时语义分割方法、系统 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
CN114170311A (zh) | 一种双目立体匹配方法 | |
CN113344869A (zh) | 一种基于候选视差的行车环境实时立体匹配方法及装置 | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
Lian et al. | Towards unified on-road object detection and depth estimation from a single image | |
Kampffmeyer et al. | Dense dilated convolutions merging network for semantic mapping of remote sensing images | |
CN116703996A (zh) | 基于实例级自适应深度估计的单目三维目标检测算法 | |
Chen et al. | Pgnet: Panoptic parsing guided deep stereo matching | |
CN114782949A (zh) | 一种边界引导上下文聚合的交通场景语义分割方法 | |
CN117911698A (zh) | 基于多特征融合的图像语义分割方法及装置 | |
CN117765418A (zh) | 一种无人机影像匹配方法 | |
Tang et al. | Encoder-decoder structure with the feature pyramid for depth estimation from a single image | |
CN116935249A (zh) | 一种无人机场景下三维特征增强的小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |