CN114998453A - 一种基于高尺度单元的立体匹配模型及其应用方法 - Google Patents

一种基于高尺度单元的立体匹配模型及其应用方法 Download PDF

Info

Publication number
CN114998453A
CN114998453A CN202210944328.3A CN202210944328A CN114998453A CN 114998453 A CN114998453 A CN 114998453A CN 202210944328 A CN202210944328 A CN 202210944328A CN 114998453 A CN114998453 A CN 114998453A
Authority
CN
China
Prior art keywords
residual error
fusion
unit
subnet
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210944328.3A
Other languages
English (en)
Inventor
岳衡
董元龙
林明晖
丁靖
李杨
尚海一
任学海
裘学东
邬黎斌
徐益明
朱力
周璐
陈凌
邵梦丽
蔡旦蓉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Power Supply Co of State Grid Zhejiang Electric Power Co Ltd
Original Assignee
Ningbo Power Supply Co of State Grid Zhejiang Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Power Supply Co of State Grid Zhejiang Electric Power Co Ltd filed Critical Ningbo Power Supply Co of State Grid Zhejiang Electric Power Co Ltd
Priority to CN202210944328.3A priority Critical patent/CN114998453A/zh
Publication of CN114998453A publication Critical patent/CN114998453A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

本发明公开了一种基于高尺度单元的立体匹配模型及其应用方法,涉及双目测距领域,其包括依次连接的计算通道、三维卷积层、综合视差层与输出层;所述计算通道包括结构一致的第一计算通道与第二计算通道;所述第一计算通道与第二计算通道,分别用于利用其对应的高尺度单元获取双目图像中第一图像与第二图像对应的目标代价特征;三维卷积层,用于对第一图像与第二图像对应的目标代价特征进行三维卷积计算以得到三维代价特征;综合视差层,用于通过三维代价特征获取双目图像的视差值,以得到双目图像对应的视差图;其极大的提高了视差计算的精准度。

Description

一种基于高尺度单元的立体匹配模型及其应用方法
技术领域
本发明涉及双目测距领域,尤其涉及一种基于高尺度单元的立体匹配模型及其应用方法。
背景技术
双目技术广泛应用于智慧仓储、三维重建、车辆导航、辅助驾驶等领域。近年来,深度学习在许多计算机视觉任务上取得了优异的成绩,包括距离预测任务。其中,基于卷积网络的立体匹配算法取得的视差较传统算法有较大的改善。GC-Net是一个常用的基于深度学习的立体匹配方法,其使用的编解码单元是聚集环境信息的一种方法,降低了模糊位置的误匹配率,使用立体匹配方法获取深度信息,是一种常用的深度获取方法,但其产生的深度仍不能满足实际使用,特别是在低纹理、弱纹理区域,本发明通过改进GC-Net,在其中加入高尺度单元、截断的综合视差法,以获取更准确的视差来提高深度的精准度,并结合yolov5实现了物体距离的快速测量。相较于其他测距设备本发明的模型与方法成本更低。
发明内容
为了获取更为准确的视差,本发明提出了一种基于高尺度单元的立体匹配模型,其利用双目相机获取的双目图像获取其对应的视差值,所述立体匹配模型包括:
依次连接的计算通道、三维卷积层、综合视差层与输出层;所述计算通道包括结构一致的第一计算通道与第二计算通道;所述第一计算通道与第二计算通道均包括依次连接的输入层、第一卷积层、高尺度单元与第二卷积层,所述第一计算通道与第二计算通道的第二卷积层均连接于三维卷积层;其中:
第一计算通道与第二计算通道,分别用于利用其对应的高尺度单元获取双目图像中第一图像与第二图像对应的目标代价特征;
三维卷积层,用于对第一图像与第二图像对应的目标代价特征进行三维卷积计算以得到三维代价特征;
综合视差层,用于通过三维代价特征获取双目图像的视差值,以得到双目图像对应的视差图;
输出层,用于输出视差图。
进一步地,所述第一计算通道中:
输入层,用于输入第一图像;
第一卷积层,用于对第一图像进行卷积计算以获取第一图像对应的卷积特征图,并输入高尺度单元;
高尺度单元,用于获取第一图像对应卷积特征图的目标代价特征;
第二卷积层,用于对第一图像对应的目标代价特征进行卷积计算,并将卷积计算后的目标代价特征输入三维卷积层;
所述第二计算通道中:
输入层,用于输入第二图像;
第一卷积层,用于对第二图像进行卷积计算以获取第二图像对应的卷积特征图,并输入高尺度单元;
高尺度单元,用于获取第二图像对应卷积特征图的目标代价特征;
第二卷积层,用于对第二图像对应的目标代价特征进行卷积计算,并将卷积计算后的目标代价特征输入三维卷积层。
进一步地,所述高尺度单元包括以下依次连接的连接段:
特征提取段、第二融合段、第三融合段与第四融合段;所述各连接段内均包括有并行层次子网;所述特征提取段包括一个并行层次子网,融合段比其对应的前一连接段多一个并行层次子网;
所述融合段内的各个并行层次子网的输入均包括前一连接段内各个并行层次子网提取的所有特征;
所述并行层次子网用于对输入的特征作进一步的特征提取;
所述融合段,用于融合其包含的各个并行层次子网提取的所有特征,并输入下一融合段;所述融合段为第二融合段或第三融合段或第四融合段。
进一步地,所述特征提取段具体包括第一并行层次子网;所述第二融合段包括第一并行层次子网与第二并行层次子网;所述第三融合段包括第一并行层次子网、第二并行层次子网与第三并行层次子网;所述第四融合段包括第一并行层次子网、第二并行层次子网、第三并行层次子网与第四并行层次子网;
所述高尺度单元中的:
特征提取段,用于通过其对应的并行层次子网提取卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;
第二融合段,用于通过其对应的并行层次子网分别对初始代价特征进行特征提取,以得到各并行层次子网提取的二次代价特征,融合各并行层次子网对应的二次代价特征,得到二次融合代价特征,并将二次融合代价特征输入第三融合段内的各个并行层次子网;
第三融合段,用于通过其对应的并行层次子网分别对二次融合代价特征进行特征提取,以得到各并行层次子网提取的三次代价特征,融合各并行层次子网对应的三次代价特征,得到三次融合代价特征,并将三次融合代价特征输入第四融合段内的各个并行层次子网;
第四融合段,用于通过其对应的并行层次子网分别对三次融合代价特征进行特征提取,以得到各并行层次子网提取的四次代价特征,融合各并行层次子网对应的四次代价特征,得到目标代价特征,并将目标代价特征输入三维卷积层。
进一步地,所述特征提取段中的并行层次子网具体为残差模块,用于对卷积特征图中的特征进行残差计算,以得到卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;
所述第二融合段包括:依次连接的第一融合单元、第二融合单元与第三融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元与融合中心;
所述第一融合单元中,所述第一残差单元与第二残差单元均用于对二次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元与第二残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元与第二残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,所述融合中心用于融合各个第三残差特征以得到二次融合代价特征,并输入第三融合段内的各个并行层次子网。
进一步地,所述第三融合段包括:依次连接的第一融合单元、第二融合单元与第三融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元、第三并行层次子网对应的第三残差单元与融合中心;
所述第一融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对三次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,所述第三融合中心用于融合各个第三残差特征以得到三次融合代价特征,并输入第四融合段内的各个并行层次子网。
进一步地,所述第四融合段包括:依次连接的第一融合单元、第二融合单元、第三融合单元与第四融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元、第三并行层次子网对应的第三残差单元、第四并行层次子网对应的第四残差单元与融合中心;
所述第一融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对四次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,并通过融合中心融合后输入第四融合单元;
所述第四融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第三残差特征进行残差计算以得到各自对应的第四残差特征;所述融合中心用于融合各个第四残差特征,以得到目标代价特征,并输入三维卷积层。
进一步地,所述双目图像的获取方法包括步骤:
通过Matlab对双目相机进行双目标定,以获取双目相机的内参、外参与畸变系数;
通过双目相机的内参、外参与畸变系数利用opencv对双目相机进行立体校正;
通过校正后的双目相机获取双目图像。
进一步地,所述综合视差层中通过三维代价特征获取双目图像视差值的方法为:
S01:获取设定视差等级下三维代价特征对应的概率值,获取公式为:
Figure DEST_PATH_IMAGE001
式中,n表示设定视差等级,
Figure DEST_PATH_IMAGE002
表示设定视差等级下的三维代价特征,
Figure DEST_PATH_IMAGE003
表示预设最大视差等级,
Figure DEST_PATH_IMAGE004
表示设定视差等级下三维代价特征对应的概率值,e表示自然对数的底数,
Figure DEST_PATH_IMAGE006
表示设定视差等级下三维代价特征对应的指数函数,
Figure DEST_PATH_IMAGE008
表示第i视差等级下三维代价特征对应的指数函数;
S02:通过设定视差等级下三维代价特征对应的概率值获取双目图像对应的视差值,获取公式为:
Figure DEST_PATH_IMAGE009
式中,t为预设概率阈值,
Figure DEST_PATH_IMAGE010
为双目图像对应的视差值。
本发明还提出了一种基于高尺度单元的立体匹配模型的应用方法,包括步骤:
S01:通过YOLOv5获取双目图像中的检测目标,并获取检测目标在uOv坐标系下的中心点坐标
Figure DEST_PATH_IMAGE011
S02:通过立体匹配模型获取双目图像对应的视差图,通过视差图获取检测目标中心点坐标位置对应的视差值;
S03:通过视差值获取双目图像中中心点坐标位置对应的深度值,获取公式为:
Figure DEST_PATH_IMAGE012
式中,
Figure DEST_PATH_IMAGE013
为焦距,
Figure 100002_DEST_PATH_IMAGE014
为双目相机中第一相机光心与第二相机光心之间的直线距离,
Figure 750393DEST_PATH_IMAGE010
为双目图像对应的视差值,
Figure DEST_PATH_IMAGE015
为中心点坐标
Figure 808479DEST_PATH_IMAGE011
对应的深度值;
S04:通过双目图像对应的深度值、中心点坐标
Figure 571904DEST_PATH_IMAGE011
以及双目相机的内参获取检测目标在相机坐标系中的位置
Figure 100002_DEST_PATH_IMAGE016
,获取公式为:
Figure 100002_DEST_PATH_IMAGE017
式中,dx为双目图像中像素点在u轴方向上的物理尺寸,dy为双目图像中像素点在v轴方向上的物理尺寸,cx、cy均为双目相机的内参;
S05:通过检测目标在相机坐标系中的位置
Figure 544277DEST_PATH_IMAGE016
获取中心点坐标
Figure 296333DEST_PATH_IMAGE011
至双目相机的直线距离,获取公式为:
Figure DEST_PATH_IMAGE019
式中,d为中心点坐标
Figure 774588DEST_PATH_IMAGE011
至双目相机的直线距离。
与现有技术相比,本发明至少含有以下有益效果:
(1)本发明分别通过立体匹配模型中第一计算通道与第二计算通道中的高尺度单元获取第一图像与第二图像对应的目标代价特征,极大的提高了视差的获取精度;
(2)本发明通过特征提取段对应的并行层次子网提取卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;所述各个融合段中的融合单元,在前一融合单元中各并行层次子网对应的残差单元进行残差计算得到各残差单元对应的残差特征,并通过融合中心融合后,输入至下一融合单元,依次类推,直至达到最后一个融合单元,其通过融合段中依次连接的多个融合单元,以及融合单元中各个并行层次子网对应的残差单元与融合中心的结构关系,实现对第一图像与第二图像特征的多次提取与融合,极大的提高了视差计算的精准度;
(3)本发明提出的基于高尺度单元的立体匹配模型的应用方法,其通过立体匹配模型结合YOLOv5,极大的提高了测量精度,且实现了检测目标中心点至双目相机之间直线距离的快速测量;
(4)本发明提出的立体匹配模型及其应用方法,相对现有技术中的测距方法,极大的降低了测量成本,提高了测量效率与测量精度,解决了现有测量方法中测量出的深度仍然不能满足实际使用需求的问题。
附图说明
图1为一种基于高尺度单元的立体匹配模型图;
图2为一种基于高尺度单元的立体匹配模型的应用方法流程图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
实施例一
为了获取更为准确的视差,如图1所示,本发明提出了一种基于高尺度单元的立体匹配模型,其利用双目相机获取的双目图像获取其对应的视差值,所述立体匹配模型包括:
依次连接的计算通道、三维卷积层、综合视差层与输出层;所述计算通道包括结构一致的第一计算通道与第二计算通道;所述第一计算通道与第二计算通道均包括依次连接的输入层、第一卷积层、高尺度单元与第二卷积层,所述第一计算通道与第二计算通道的第二卷积层均连接于三维卷积层;其中:
第一计算通道与第二计算通道,分别用于利用其对应的高尺度单元获取双目图像中第一图像与第二图像对应的目标代价特征;
所述双目图像的获取方法包括步骤:
通过Matlab对双目相机进行双目标定,以获取双目相机的内参(
Figure DEST_PATH_IMAGE020
)、外参(包括双目相机中第一相机相对第二相机的旋转矩阵与平移向量)与畸变系数(包括径向畸变系数与切向畸变系数);
通过双目相机的内参、外参与畸变系数利用opencv对双目相机进行立体校正;
通过校正后的双目相机获取双目图像。
所述第一计算通道中:
输入层,用于输入第一图像;
第一卷积层,用于对第一图像进行卷积计算以获取第一图像对应的卷积特征图,并输入高尺度单元;
高尺度单元,用于获取第一图像对应卷积特征图的目标代价特征;
第二卷积层,用于对第一图像对应的目标代价特征进行卷积计算,并将卷积计算后的目标代价特征输入三维卷积层;
所述第二计算通道中:
输入层,用于输入第二图像;
第一卷积层,用于对第二图像进行卷积计算以获取第二图像对应的卷积特征图,并输入高尺度单元;
高尺度单元,用于获取第二图像对应卷积特征图的目标代价特征;
第二卷积层,用于对第二图像对应的目标代价特征进行卷积计算,并将卷积计算后的目标代价特征输入三维卷积层。
所述高尺度单元包括以下依次连接的连接段:
特征提取段、第二融合段、第三融合段与第四融合段;所述各连接段内均包括有并行层次子网;所述特征提取段包括一个并行层次子网,融合段比其对应的前一连接段多一个并行层次子网;
所述融合段内的各个并行层次子网的输入均包括前一连接段内各个并行层次子网提取的所有特征;
所述并行层次子网用于对输入的特征作进一步的特征提取;
所述融合段,用于融合其包含的各个并行层次子网提取的所有特征,并输入下一融合段;所述融合段为第二融合段或第三融合段或第四融合段。
所述特征提取段具体包括第一并行层次子网;所述第二融合段包括第一并行层次子网与第二并行层次子网;所述第三融合段包括第一并行层次子网、第二并行层次子网与第三并行层次子网;所述第四融合段包括第一并行层次子网、第二并行层次子网、第三并行层次子网与第四并行层次子网;
所述高尺度单元中的:
特征提取段,用于通过其对应的并行层次子网提取卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;
所述特征提取段中的并行层次子网具体为残差模块,用于对卷积特征图中的特征进行残差计算,以得到卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;需要说明的是所述残差模块具体为依次连接的四个残差单元。
第二融合段,用于通过其对应的并行层次子网分别对初始代价特征进行特征提取,以得到各并行层次子网提取的二次代价特征,融合各并行层次子网对应的二次代价特征,得到二次融合代价特征,并将二次融合代价特征输入第三融合段内的各个并行层次子网;
所述第二融合段包括:依次连接的第一融合单元、第二融合单元与第三融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元与融合中心;
所述第一融合单元中,所述第一残差单元与第二残差单元均用于对二次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元与第二残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元与第二残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,所述融合中心用于融合各个第三残差特征以得到二次融合代价特征,并输入第三融合段内的各个并行层次子网。
第三融合段,用于通过其对应的并行层次子网分别对二次融合代价特征进行特征提取,以得到各并行层次子网提取的三次代价特征,融合各并行层次子网对应的三次代价特征,得到三次融合代价特征,并将三次融合代价特征输入第四融合段内的各个并行层次子网;
所述第三融合段包括:依次连接的第一融合单元、第二融合单元与第三融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元、第三并行层次子网对应的第三残差单元与融合中心;
所述第一融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对三次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,所述第三融合中心用于融合各个第三残差特征以得到三次融合代价特征,并输入第四融合段内的各个并行层次子网。
本实施例,以第三融合段为例,通过下面的公式体现出第三融合段中第一融合单元、第二融合单元与第三融合单元之间的关系;
Figure DEST_PATH_IMAGE021
式中,
Figure DEST_PATH_IMAGE022
中,s表示融合段的段数,b表示第几融合单元,以
Figure DEST_PATH_IMAGE023
为例,其表示第三融合段中第一融合单元对应的融合中心;
Figure DEST_PATH_IMAGE024
中,r表示第几并行层次子网,以
Figure DEST_PATH_IMAGE025
为例,其表示第三融合段中第一融合单元内第一并行层次子网对应的第一残差单元;
Figure DEST_PATH_IMAGE026
表示第三融合段中第一融合单元内第二并行层次子网对应的第二残差单元;
Figure DEST_PATH_IMAGE027
表示第三融合段中第一融合单元内第三并行层次子网对应的第三残差单元。
第四融合段,用于通过其对应的并行层次子网分别对三次融合代价特征进行特征提取,以得到各并行层次子网提取的四次代价特征,融合各并行层次子网对应的四次代价特征,得到目标代价特征,并将目标代价特征输入三维卷积层。
所述第四融合段包括:依次连接的第一融合单元、第二融合单元、第三融合单元与第四融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元、第三并行层次子网对应的第三残差单元、第四并行层次子网对应的第四残差单元与融合中心;
所述第一融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对四次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,并通过融合中心融合后输入第四融合单元;
所述第四融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第三残差特征进行残差计算以得到各自对应的第四残差特征;所述融合中心用于融合各个第四残差特征,以得到目标代价特征,并输入三维卷积层。
三维卷积层,用于对第一图像与第二图像对应的目标代价特征进行三维卷积计算以得到三维代价特征;
综合视差层,用于通过三维代价特征获取双目图像的视差值,以得到双目图像对应的视差图;
所述综合视差层中通过三维代价特征获取双目图像视差值的方法为:
S01:获取设定视差等级下三维代价特征对应的概率值,获取公式为:
Figure 203074DEST_PATH_IMAGE001
式中,n表示设定视差等级,
Figure 870816DEST_PATH_IMAGE002
表示设定视差等级下的三维代价特征,
Figure 992224DEST_PATH_IMAGE003
表示预设最大视差等级,
Figure 18211DEST_PATH_IMAGE004
表示设定视差等级下三维代价特征对应的概率值,e表示自然对数的底数,
Figure 490650DEST_PATH_IMAGE006
表示设定视差等级下三维代价特征对应的指数函数,
Figure 696503DEST_PATH_IMAGE008
表示第i视差等级下三维代价特征对应的指数函数;
S02:通过设定视差等级下三维代价特征对应的概率值获取双目图像对应的视差值,获取公式为:
Figure 157572DEST_PATH_IMAGE009
式中,t为预设概率阈值,本实施例中t等于0.2,
Figure 804060DEST_PATH_IMAGE010
为双目图像对应的视差值。
需要说明的是,本发明使用的是一种截断的综合视差法,由于设定视差等级较大时,其与概率值的乘积结果对于整个视差结果的影响较大,因此本发明通过舍弃一些概率值极小的概率值数据,来减小不必要的影响,截断的综合视差方法通过累加各个视差等级与其概率值的积,极大的提高了视差值的精确度。另外使用概率加权法获取的视差值考虑到了所有视差,所以结果更加平滑稳定,且整个函数可导,立体匹配模型中也无需添加后处理单元。
输出层,用于输出视差图。
本发明分别通过立体匹配模型中第一计算通道与第二计算通道中的高尺度单元获取第一图像与第二图像对应的目标代价特征,极大的提高了视差的获取精度。
需要注意的是,本发明还包括对立体匹配模型的训练,在训练后还包括使用损失函数来衡量立体匹配模型的训练效果,相较于立体匹配方法中常用的其他损失函数,本发明使用平滑的L1损失函数,其在视差不连续处,能够对噪声和异常值保持一定的过滤性,具有一定的稳健性。本发明采用平滑的L1损失函数,损失函数的公式表达式为:
Figure DEST_PATH_IMAGE028
式中,
Figure 780107DEST_PATH_IMAGE010
为模型预测得到的视差值,
Figure DEST_PATH_IMAGE029
为视差标签,
Figure DEST_PATH_IMAGE030
为有效视差点码数,
Figure DEST_PATH_IMAGE031
为阈值常量,
Figure DEST_PATH_IMAGE032
=
Figure DEST_PATH_IMAGE033
Figure DEST_PATH_IMAGE034
的公式表达式为:
Figure DEST_PATH_IMAGE035
本发明通过特征提取段对应的并行层次子网提取卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;所述各个融合段中的融合单元,在前一融合单元中各并行层次子网对应的残差单元进行残差计算得到各残差单元对应的残差特征,并通过融合中心融合后,输入至下一融合单元,依次类推,直至达到最后一个融合单元,其通过融合段中依次连接的多个融合单元,以及融合单元中各个并行层次子网对应的残差单元与融合中心的结构关系,实现对第一图像与第二图像特征的多次提取与融合,极大的提高了视差计算的精准度。
实施例二
如图2所示,本发明还提出了一种基于高尺度单元的立体匹配模型的应用方法,包括步骤:
S01:通过YOLOv5获取双目图像中的检测目标,并获取检测目标在uOv坐标系下的中心点坐标
Figure 71542DEST_PATH_IMAGE011
本实施例中,步骤S01具体为:使用YOLOv5进行目标检测,将双目图像输入卷积神经网络进行特征提取,所述卷积神经网络有5次下采样,保留最后3次下采样的特征图,使用anchor框选每个特征图中的特征,每个anchor输出中心坐标、宽高坐标、置信度、目标所属类别概率。设置置信度阈值以及类别概率阈值,删除低于两种阈值的anchor。使用非极大值抑制,删除交并比超过设定值的同类别anchor,保留剩下的anchor,即目标检测完成。
本发明提出的基于高尺度单元的立体匹配模型的应用方法,其通过立体匹配模型结合YOLOv5,极大的提高了测量精度,且实现了检测目标中心点至双目相机之间直线距离的快速测量。
S02:通过立体匹配模型获取双目图像对应的视差图,通过视差图获取检测目标中心点坐标位置对应的视差值;
S03:通过视差值获取双目图像中中心点坐标位置对应的深度值,获取公式为:
Figure 980592DEST_PATH_IMAGE012
式中,
Figure 519021DEST_PATH_IMAGE013
为焦距,
Figure 716784DEST_PATH_IMAGE014
为双目相机中第一相机光心与第二相机光心之间的直线距离,
Figure 61177DEST_PATH_IMAGE010
为双目图像对应的视差值,
Figure 27996DEST_PATH_IMAGE015
为中心点坐标
Figure 252173DEST_PATH_IMAGE011
对应的深度值;
S04:通过双目图像对应的深度值、中心点坐标
Figure 671653DEST_PATH_IMAGE011
以及双目相机的内参获取检测目标在相机坐标系中的位置
Figure 819738DEST_PATH_IMAGE016
,获取公式为:
Figure 375484DEST_PATH_IMAGE017
式中,dx为双目图像中像素点在u轴方向上的物理尺寸,dy为双目图像中像素点在v轴方向上的物理尺寸,cx、cy均为双目相机的内参;
S05:通过检测目标在相机坐标系中的位置
Figure 786874DEST_PATH_IMAGE016
获取中心点坐标
Figure 490388DEST_PATH_IMAGE011
至双目相机的直线距离,获取公式为:
Figure 127649DEST_PATH_IMAGE019
式中,d为中心点坐标
Figure 803481DEST_PATH_IMAGE011
至双目相机的直线距离。
本发明提出的立体匹配模型及其应用方法,相对现有技术中的测距方法,极大的降低了测量成本,提高了测量效率与测量精度,解决了现有测量方法中测量出的深度仍然不能满足实际使用需求的问题。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。另外,在本发明中如涉及“第一”、“第二”、“一”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。

Claims (10)

1.一种基于高尺度单元的立体匹配模型,其利用双目相机获取的双目图像获取其对应的视差值,其特征在于,所述立体匹配模型包括:
依次连接的计算通道、三维卷积层、综合视差层与输出层;所述计算通道包括结构一致的第一计算通道与第二计算通道;所述第一计算通道与第二计算通道均包括依次连接的输入层、第一卷积层、高尺度单元与第二卷积层,所述第一计算通道与第二计算通道的第二卷积层均连接于三维卷积层;其中:
第一计算通道与第二计算通道,分别用于利用其对应的高尺度单元获取双目图像中第一图像与第二图像对应的目标代价特征;
三维卷积层,用于对第一图像与第二图像对应的目标代价特征进行三维卷积计算以得到三维代价特征;
综合视差层,用于通过三维代价特征获取双目图像的视差值,以得到双目图像对应的视差图;
输出层,用于输出视差图。
2.根据权利要求1所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述第一计算通道中:
输入层,用于输入第一图像;
第一卷积层,用于对第一图像进行卷积计算以获取第一图像对应的卷积特征图,并输入高尺度单元;
高尺度单元,用于获取第一图像对应卷积特征图的目标代价特征;
第二卷积层,用于对第一图像对应的目标代价特征进行卷积计算,并将卷积计算后的目标代价特征输入三维卷积层;
所述第二计算通道中:
输入层,用于输入第二图像;
第一卷积层,用于对第二图像进行卷积计算以获取第二图像对应的卷积特征图,并输入高尺度单元;
高尺度单元,用于获取第二图像对应卷积特征图的目标代价特征;
第二卷积层,用于对第二图像对应的目标代价特征进行卷积计算,并将卷积计算后的目标代价特征输入三维卷积层。
3.根据权利要求2所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述高尺度单元包括以下依次连接的连接段:
特征提取段、第二融合段、第三融合段与第四融合段;所述各连接段内均包括有并行层次子网;所述特征提取段包括一个并行层次子网,融合段比其对应的前一连接段多一个并行层次子网;
所述融合段内的各个并行层次子网的输入均包括前一连接段内各个并行层次子网提取的所有特征;
所述并行层次子网用于对输入的特征作进一步的特征提取;
所述融合段,用于融合其包含的各个并行层次子网提取的所有特征,并输入下一融合段;所述融合段为第二融合段或第三融合段或第四融合段。
4.根据权利要求3所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述特征提取段具体包括第一并行层次子网;所述第二融合段包括第一并行层次子网与第二并行层次子网;所述第三融合段包括第一并行层次子网、第二并行层次子网与第三并行层次子网;所述第四融合段包括第一并行层次子网、第二并行层次子网、第三并行层次子网与第四并行层次子网;
所述高尺度单元中的:
特征提取段,用于通过其对应的并行层次子网提取卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;
第二融合段,用于通过其对应的并行层次子网分别对初始代价特征进行特征提取,以得到各并行层次子网提取的二次代价特征,融合各并行层次子网对应的二次代价特征,得到二次融合代价特征,并将二次融合代价特征输入第三融合段内的各个并行层次子网;
第三融合段,用于通过其对应的并行层次子网分别对二次融合代价特征进行特征提取,以得到各并行层次子网提取的三次代价特征,融合各并行层次子网对应的三次代价特征,得到三次融合代价特征,并将三次融合代价特征输入第四融合段内的各个并行层次子网;
第四融合段,用于通过其对应的并行层次子网分别对三次融合代价特征进行特征提取,以得到各并行层次子网提取的四次代价特征,融合各并行层次子网对应的四次代价特征,得到目标代价特征,并将目标代价特征输入三维卷积层。
5.根据权利要求4所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述特征提取段中的并行层次子网具体为残差模块,用于对卷积特征图中的特征进行残差计算,以得到卷积特征图对应的初始代价特征,并输入第二融合段中的各个并行层次子网;
所述第二融合段包括:依次连接的第一融合单元、第二融合单元与第三融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元与融合中心;
所述第一融合单元中,所述第一残差单元与第二残差单元均用于对二次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元与第二残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元与第二残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,所述融合中心用于融合各个第三残差特征以得到二次融合代价特征,并输入第三融合段内的各个并行层次子网。
6.根据权利要求5所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述第三融合段包括:依次连接的第一融合单元、第二融合单元与第三融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元、第三并行层次子网对应的第三残差单元与融合中心;
所述第一融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对三次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元、第二残差单元与第三残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,所述第三融合中心用于融合各个第三残差特征以得到三次融合代价特征,并输入第四融合段内的各个并行层次子网。
7.根据权利要求6所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述第四融合段包括:依次连接的第一融合单元、第二融合单元、第三融合单元与第四融合单元;所述各融合单元中均包括有第一并行层次子网对应的第一残差单元、第二并行层次子网对应的第二残差单元、第三并行层次子网对应的第三残差单元、第四并行层次子网对应的第四残差单元与融合中心;
所述第一融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对四次代价特征进行残差计算以得到各自对应的第一残差特征,并通过融合中心融合后输入第二融合单元;
所述第二融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第一残差特征进行残差计算以得到各自对应的第二残差特征,并通过融合中心融合后输入第三融合单元;
所述第三融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第二残差特征进行残差计算以得到各自对应的第三残差特征,并通过融合中心融合后输入第四融合单元;
所述第四融合单元中,所述第一残差单元、第二残差单元、第三残差单元与第四残差单元均用于对融合后的第三残差特征进行残差计算以得到各自对应的第四残差特征;所述融合中心用于融合各个第四残差特征,以得到目标代价特征,并输入三维卷积层。
8.根据权利要求1所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述双目图像的获取方法包括步骤:
通过Matlab对双目相机进行双目标定,以获取双目相机的内参、外参与畸变系数;
通过双目相机的内参、外参与畸变系数利用opencv对双目相机进行立体校正;
通过校正后的双目相机获取双目图像。
9.根据权利要求8所述的一种基于高尺度单元的立体匹配模型,其特征在于,所述综合视差层中通过三维代价特征获取双目图像视差值的方法为:
S01:获取设定视差等级下三维代价特征对应的概率值,获取公式为:
Figure 853999DEST_PATH_IMAGE001
式中,n表示设定视差等级,
Figure 708691DEST_PATH_IMAGE002
表示设定视差等级下的三维代价特征,
Figure 643149DEST_PATH_IMAGE003
表示预设最大视差等级,
Figure 902092DEST_PATH_IMAGE004
表示设定视差等级下三维代价特征对应的概率值,e表示自然对数的底数,
Figure 62946DEST_PATH_IMAGE006
表示设定视差等级下三维代价特征对应的指数函数,
Figure 331116DEST_PATH_IMAGE008
表示第i视差等级下三维代价特征对应的指数函数;
S02:通过设定视差等级下三维代价特征对应的概率值获取双目图像对应的视差值,获取公式为:
Figure 120081DEST_PATH_IMAGE009
式中,t为预设概率阈值,
Figure 441603DEST_PATH_IMAGE010
为双目图像对应的视差值。
10.一种基于高尺度单元的立体匹配模型的应用方法,其特征在于,包括步骤:
S01:通过YOLOv5获取双目图像中的检测目标,并获取检测目标在uOv坐标系下的中心点坐标
Figure 214387DEST_PATH_IMAGE011
S02:通过立体匹配模型获取双目图像对应的视差图,通过视差图获取检测目标中心点坐标位置对应的视差值;
S03:通过视差值获取双目图像中中心点坐标位置对应的深度值,获取公式为:
Figure 755090DEST_PATH_IMAGE012
式中,
Figure 411943DEST_PATH_IMAGE013
为焦距,
Figure DEST_PATH_IMAGE014
为双目相机中第一相机光心与第二相机光心之间的直线距离,
Figure 373208DEST_PATH_IMAGE010
为双目图像对应的视差值,
Figure 633288DEST_PATH_IMAGE015
为中心点坐标
Figure 367894DEST_PATH_IMAGE011
对应的深度值;
S04:通过双目图像对应的深度值、中心点坐标
Figure 131451DEST_PATH_IMAGE011
以及双目相机的内参获取检测目标在相机坐标系中的位置
Figure DEST_PATH_IMAGE016
,获取公式为:
Figure DEST_PATH_IMAGE017
式中,dx为双目图像中像素点在u轴方向上的物理尺寸,dy为双目图像中像素点在v轴方向上的物理尺寸,cx、cy均为双目相机的内参;
S05:通过检测目标在相机坐标系中的位置
Figure 526267DEST_PATH_IMAGE016
获取中心点坐标
Figure 149009DEST_PATH_IMAGE011
至双目相机的直线距离,获取公式为:
Figure DEST_PATH_IMAGE018
式中,d为中心点坐标
Figure 828252DEST_PATH_IMAGE011
至双目相机的直线距离。
CN202210944328.3A 2022-08-08 2022-08-08 一种基于高尺度单元的立体匹配模型及其应用方法 Pending CN114998453A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210944328.3A CN114998453A (zh) 2022-08-08 2022-08-08 一种基于高尺度单元的立体匹配模型及其应用方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210944328.3A CN114998453A (zh) 2022-08-08 2022-08-08 一种基于高尺度单元的立体匹配模型及其应用方法

Publications (1)

Publication Number Publication Date
CN114998453A true CN114998453A (zh) 2022-09-02

Family

ID=83023274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210944328.3A Pending CN114998453A (zh) 2022-08-08 2022-08-08 一种基于高尺度单元的立体匹配模型及其应用方法

Country Status (1)

Country Link
CN (1) CN114998453A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117078984A (zh) * 2023-10-17 2023-11-17 腾讯科技(深圳)有限公司 双目图像处理方法、装置、电子设备及存储介质

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428255A (zh) * 2018-02-10 2018-08-21 台州智必安科技有限责任公司 一种基于无人机的实时三维重建方法
CN108898634A (zh) * 2018-07-06 2018-11-27 张显磊 基于双目相机视差对绣花机目标针眼进行精确定位的方法
CN109613934A (zh) * 2019-01-09 2019-04-12 天津大学 一种无人机捕捉黑飞无人机的方法
CN110503012A (zh) * 2019-08-07 2019-11-26 深圳大学 鸟类喂食的方法、装置及系统
CN110533712A (zh) * 2019-08-26 2019-12-03 北京工业大学 一种基于卷积神经网络的双目立体匹配方法
CN111275740A (zh) * 2020-01-19 2020-06-12 武汉大学 一种基于高分辨率孪生网络的卫星视频目标跟踪方法
CN111476184A (zh) * 2020-04-13 2020-07-31 河南理工大学 一种基于双注意力机制的人体关键点检测方法
CN111696148A (zh) * 2020-06-17 2020-09-22 中国科学技术大学 基于卷积神经网络的端到端立体匹配方法
CN111915660A (zh) * 2020-06-28 2020-11-10 华南理工大学 基于共享特征和注意力上采样的双目视差匹配方法及系统
CN111928862A (zh) * 2020-08-10 2020-11-13 廊坊和易生活网络科技股份有限公司 利用激光雷达和视觉传感器融合在线构建语义地图的方法
CN112150521A (zh) * 2020-08-24 2020-12-29 江苏大学 一种基于PSMNet优化的图像立体匹配方法
CN112153269A (zh) * 2019-06-27 2020-12-29 京东方科技集团股份有限公司 应用于电子设备的图片显示方法、装置、介质与电子设备
CN112435345A (zh) * 2020-12-14 2021-03-02 武汉纺织大学 一种基于深度学习的人体三维测量方法及系统
CN112836597A (zh) * 2021-01-15 2021-05-25 西北大学 基于级联并行卷积神经网络的多手姿态关键点估计方法
AU2021103300A4 (en) * 2021-06-11 2021-08-05 Nanjing University Of Aeronautics And Astronautics Unsupervised Monocular Depth Estimation Method Based On Multi- Scale Unification
CN113408321A (zh) * 2020-03-16 2021-09-17 中国人民解放军战略支援部队信息工程大学 一种轻量级图像、视频数据的实时目标检测方法及装置
CN113501167A (zh) * 2021-07-09 2021-10-15 南京荣新智能科技有限公司 一种基于双目视觉的中药小包装定位方法
CN113592026A (zh) * 2021-08-13 2021-11-02 大连大学 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法
CN113592021A (zh) * 2021-08-11 2021-11-02 上海海事大学 一种基于可变形和深度可分离卷积的立体匹配方法
CN113963254A (zh) * 2021-08-30 2022-01-21 武汉众智鸿图科技有限公司 一种融合目标识别的车载式智能巡检方法及系统
CN114332689A (zh) * 2021-12-14 2022-04-12 中国科学院合肥物质科学研究院 一种柑橘识别定位方法、装置、设备及存储介质
CN114492216A (zh) * 2022-04-19 2022-05-13 中国石油大学(华东) 一种基于高分辨率表征学习的抽油机运行轨迹模拟方法
CN114648669A (zh) * 2022-05-20 2022-06-21 华中科技大学 一种域自适应双目视差计算的动车组故障检测方法及系统
CN114750154A (zh) * 2022-04-25 2022-07-15 贵州电网有限责任公司 一种配网带电作业机器人的动态目标识别定位与抓取方法

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428255A (zh) * 2018-02-10 2018-08-21 台州智必安科技有限责任公司 一种基于无人机的实时三维重建方法
CN108898634A (zh) * 2018-07-06 2018-11-27 张显磊 基于双目相机视差对绣花机目标针眼进行精确定位的方法
CN109613934A (zh) * 2019-01-09 2019-04-12 天津大学 一种无人机捕捉黑飞无人机的方法
CN112153269A (zh) * 2019-06-27 2020-12-29 京东方科技集团股份有限公司 应用于电子设备的图片显示方法、装置、介质与电子设备
CN110503012A (zh) * 2019-08-07 2019-11-26 深圳大学 鸟类喂食的方法、装置及系统
CN110533712A (zh) * 2019-08-26 2019-12-03 北京工业大学 一种基于卷积神经网络的双目立体匹配方法
CN111275740A (zh) * 2020-01-19 2020-06-12 武汉大学 一种基于高分辨率孪生网络的卫星视频目标跟踪方法
CN113408321A (zh) * 2020-03-16 2021-09-17 中国人民解放军战略支援部队信息工程大学 一种轻量级图像、视频数据的实时目标检测方法及装置
CN111476184A (zh) * 2020-04-13 2020-07-31 河南理工大学 一种基于双注意力机制的人体关键点检测方法
CN111696148A (zh) * 2020-06-17 2020-09-22 中国科学技术大学 基于卷积神经网络的端到端立体匹配方法
CN111915660A (zh) * 2020-06-28 2020-11-10 华南理工大学 基于共享特征和注意力上采样的双目视差匹配方法及系统
CN111928862A (zh) * 2020-08-10 2020-11-13 廊坊和易生活网络科技股份有限公司 利用激光雷达和视觉传感器融合在线构建语义地图的方法
CN112150521A (zh) * 2020-08-24 2020-12-29 江苏大学 一种基于PSMNet优化的图像立体匹配方法
CN112435345A (zh) * 2020-12-14 2021-03-02 武汉纺织大学 一种基于深度学习的人体三维测量方法及系统
CN112836597A (zh) * 2021-01-15 2021-05-25 西北大学 基于级联并行卷积神经网络的多手姿态关键点估计方法
AU2021103300A4 (en) * 2021-06-11 2021-08-05 Nanjing University Of Aeronautics And Astronautics Unsupervised Monocular Depth Estimation Method Based On Multi- Scale Unification
CN113501167A (zh) * 2021-07-09 2021-10-15 南京荣新智能科技有限公司 一种基于双目视觉的中药小包装定位方法
CN113592021A (zh) * 2021-08-11 2021-11-02 上海海事大学 一种基于可变形和深度可分离卷积的立体匹配方法
CN113592026A (zh) * 2021-08-13 2021-11-02 大连大学 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法
CN113963254A (zh) * 2021-08-30 2022-01-21 武汉众智鸿图科技有限公司 一种融合目标识别的车载式智能巡检方法及系统
CN114332689A (zh) * 2021-12-14 2022-04-12 中国科学院合肥物质科学研究院 一种柑橘识别定位方法、装置、设备及存储介质
CN114492216A (zh) * 2022-04-19 2022-05-13 中国石油大学(华东) 一种基于高分辨率表征学习的抽油机运行轨迹模拟方法
CN114750154A (zh) * 2022-04-25 2022-07-15 贵州电网有限责任公司 一种配网带电作业机器人的动态目标识别定位与抓取方法
CN114648669A (zh) * 2022-05-20 2022-06-21 华中科技大学 一种域自适应双目视差计算的动车组故障检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HANG ZHOU ET AL: "Self-Supervised Monocular Depth Estimation with Internal Feature Fusion", 《ARXIV:2110.09482V3》 *
XIANZHI DU ET AL: "AMNet: Deep Atrous Multiscale Stereo Disparity Estimation Networks", 《ARXIV:1904.09099V1》 *
尹晨阳等: "基于深度学习的双目立体匹配方法综述", 《计算机工程》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117078984A (zh) * 2023-10-17 2023-11-17 腾讯科技(深圳)有限公司 双目图像处理方法、装置、电子设备及存储介质
CN117078984B (zh) * 2023-10-17 2024-02-02 腾讯科技(深圳)有限公司 双目图像处理方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN109685842B (zh) 一种基于多尺度网络的稀疏深度稠密化方法
CN111028281B (zh) 基于光场双目系统的深度信息计算方法及装置
CN110322507B (zh) 一种基于深度重投影和空间一致性特征匹配的方法
CN108510540A (zh) 立体视觉摄像机及其高度获取方法
CN110458952B (zh) 一种基于三目视觉的三维重建方法和装置
CN114998453A (zh) 一种基于高尺度单元的立体匹配模型及其应用方法
CN116402876A (zh) 双目深度估计方法、装置、嵌入式设备和可读存储介质
CN111415305A (zh) 恢复三维场景的方法、计算机可读存储介质及无人机
CN114627491A (zh) 一种基于极线汇聚的单人三维姿态估计方法
CN112633324A (zh) 一种基于神经网络的环视立体视觉匹配系统、方法及介质
CN113034666B (zh) 一种基于金字塔视差优化代价计算的立体匹配方法
CN112270701B (zh) 基于分组距离网络的视差预测方法、系统及存储介质
CN113269823A (zh) 深度数据获取方法、装置、存储介质与电子设备
CN113592015A (zh) 定位以及训练特征匹配网络的方法和装置
CN115908992B (zh) 双目立体匹配的方法、装置、设备以及存储介质
CN112288813A (zh) 基于多目视觉测量与激光点云地图匹配的位姿估计方法
CN116630423A (zh) 一种基于orb特征的微小型机器人多目标双目定位方法及系统
CN116778091A (zh) 基于路径聚合的深度学习多视角立体三维重建算法
CN113965742B (zh) 基于多传感融合的稠密视差图提取方法、系统和智能终端
CN112950698B (zh) 基于双目散焦图像的深度估计方法、装置、介质和设备
CN113344988B (zh) 立体匹配方法、终端及存储介质
CN112258635B (zh) 基于改进双目匹配sad算法的三维重建方法及装置
CN114782507A (zh) 一种基于无监督学习的非对称双目立体匹配方法及系统
CN110068308B (zh) 一种基于多目相机的测距方法及测距系统
CN110910438B (zh) 一种超高分辨率双目图像的高速立体匹配算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220902