CN115994951A - 一种双目视觉深度图计算方法及系统 - Google Patents
一种双目视觉深度图计算方法及系统 Download PDFInfo
- Publication number
- CN115994951A CN115994951A CN202310107477.9A CN202310107477A CN115994951A CN 115994951 A CN115994951 A CN 115994951A CN 202310107477 A CN202310107477 A CN 202310107477A CN 115994951 A CN115994951 A CN 115994951A
- Authority
- CN
- China
- Prior art keywords
- feature vectors
- depth map
- right image
- left image
- center point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 48
- 239000013598 vector Substances 0.000 claims abstract description 97
- 230000011218 segmentation Effects 0.000 claims abstract description 62
- 238000000034 method Methods 0.000 claims abstract description 19
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000012937 correction Methods 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种双目视觉深度图计算方法及系统,包括:获取左侧镜头采集的左图像以及右侧镜头采集的右图像,并分别将左图像、右图像作为全景分割网络的输入,对应输出多个左、右图像物体中心点位置的像素坐标和左、右图像物体中心点位置对应的第一、第二特征向量;依次计算第一特征向量与第二特征向量之间的相似度,并选取相似度最大的第一、第二特征向量为一组最优匹配结果,对应得到多组最优配结果;依次根据最优匹配结果的像素坐标,计算最优匹配结果对应的物体到相机的中心距离;对同一物体的像素都赋予相同的中心距离,得到双目视觉的深度图。本发明无需进行校正,能够处理无纹理的物体,具有良好的可解释性和抗对抗攻击性。
Description
技术领域
本发明涉及立体视觉领域,尤其涉及一种双目视觉深度图计算方法及系统。
背景技术
双目视觉为立体视觉的一种,以左右双目为例,左右两个镜头同时生成图片,通过对比相同特征/纹理或者物体在两张图片中的不同位置,即视差,进一步得到物体到镜头的距离。基于该距离信息及其在图像中的大致位置,可以实现自动避障,进一步绕过障碍最终到达指定地点,是基于视觉系统的自动驾驶和无人机的核心技术之一。
现有技术包括传统视觉方法和基于深度神经网络的深度计算方法。传统视觉方法包括:BM(Block Match),SGBM(Semi-Global Block Matching),在使用前要求对双目镜头进行校正,从而满足“极线约束”,缩小配对检索区域,易于像素点配对;基于深度神经网络的深度计算方法,包括:GCNet、GANet、AANet,采用端到端的方式直接输出深度,能够缓解了纹理缺乏的问题。
但是,传统视觉方法在进行像素点配对时,往往基于像素点特征的匹配,要求物体具备一定纹理。这在实际中使用中可能会带来严重后果,例如白墙等无纹理物体,无法进行像素有效匹配,进而无从估计距离,即无法获取深度;基于深度神经网络的深度计算方法,依旧要求输入的数据,包括训练和测试的,均要求事先经过校正;此外,采用端到端的方式直接输出深度,缺乏解释性,易受到对抗攻击。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于深度神经网络的双目视觉深度图计算方法及系统,无需进行校正,能够处理无纹理的物体,具有良好的可解释性和抗对抗攻击性。
第一方面,本发明提供了一种双目视觉深度图计算方法,所述方法包括:
获取左侧镜头采集的左图像以及右侧镜头采集的右图像,并分别将所述左图像、右图像作为全景分割网络的输入,全景分割网络对应输出多个左图像物体中心点位置的像素坐标和左图像物体中心点位置对应的第一特征向量,以及对应输出多个右图像物体中心点位置的像素坐标和右图像物体中心点位置对应的第二特征向量;
依次计算多个第一特征向量与多个第二特征向量之间的相似度,并选取相似度最大的第一特征向量和第二特征向量为一组最优匹配结果,对应得到多组最优配结果;
依次根据最优匹配结果对应的左、右图像物体中心点位置,计算最优匹配结果对应的物体到相机的中心距离;
对同一物体的像素都赋予相同的中心距离,以使得到双目视觉的深度图。
本发明采用全景分割网络分别为左、右图像进行分割,由于全景分割网络本身的参照标准和算法输出都采用相同的形式,不是直接端到端的方式直接得到深度图,因此,能够更详细地了解对左、右图像检测和分割后的分析,以及对图像中的材质和事物的特性信息进行对比,从而能够对左、右图像中的物体分割以及物体中心点提供可解释性;并且,全景分割网络能够分别直接输出左、右图像中所有物体的中心点,以使使用物体的中心点像素坐标计算深度,使用非端到端的方式得到深度的方式能够抵抗对抗攻击,从而能够提高双目视觉深度图计算的性能。
进一步,所述左图像物体和所述右图像物体包括:
由所述全景分割网络分割出的完整的左图像物体图像;或者,由所述全景分割网络分割出的左图像同一物体的多个部分图像;
由所述全景分割网络分割出的完整的右图像物体图像;或者,由所述全景分割网络分割出的右图像同一物体的多个部分图像。
进一步,所述依次计算多个第一特征向量与多个第二特征向量之间的相似度,具体为:
依次计算多个第一特征向量与多个第二特征向量之间的余弦距离作为相似度的度量;或者,
依次计算多个第一特征向量与多个第二特征向量之间的欧氏距离作为相似度的度量。
本发明通过计算左、右图像中第一特征向量与第二特征向量之间的相似度,相似度越大,则第一特征向量与第二特征向量对应的左图像中的物体与右图像中的物体的相关性越强,能够更加准确的描述左、右图像中物体之间的相似度,使得到对应的最优匹配结果科学性和可靠性,从而提高匹配左、右图像中物体的准确度,使得到的双目视觉的深度在允许的误差范围之内。
进一步,所述全景分割网络包括:centerNet网络模型或者SWideRNet网络模型。
再进一步,所述中心距离的计算公式为:
本发明直接采用对最优匹配结果对应的左图像物体中心点位置和右图像物体中心点像素坐标计算双目视觉深度,能够减少通过所有左图像物体中心点和右图像物体中心点配对得到的双目视觉深度图的计算量,从而能够减少双目视觉深度的计算复杂度。
第二方面,本发明还提供了一种双目视觉深度图计算系统,包括:
双目视觉镜头模块,用于获取左侧镜头采集的左图像以及右侧镜头采集的右图像,并分别将所述左图像、右图像作为全景分割网络的输入,全景分割网络对应输出多个左图像物体中心点位置的像素坐标和左图像物体中心点位置对应的第一特征向量,以及对应输出多个右图像物体中心点位置的像素坐标和右图像物体中心点位置对应的第二特征向量;
匹配模块,用于依次计算多个第一特征向量与多个第二特征向量之间的相似度,并选取相似度最大的第一特征向量和第二特征向量为一组最优匹配结果,对应得到多组最优配结果;
中心距离计算模块,用于依次根据最优匹配结果对应的左、右图像物体中心点位置,计算最优匹配结果对应的物体到相机的中心距离;
深度图获取模块,用于对同一物体的像素都赋予相同的中心距离,以使得到双目视觉的深度图。
进一步,所述左图像物体和所述右图像物体包括:
由所述全景分割网络分割出的完整的左图像物体图像;或者,由所述全景分割网络分割出的左图像同一物体的多个部分图像;
由所述全景分割网络分割出的完整的右图像物体图像;或者,由所述全景分割网络分割出的右图像同一物体的多个部分图像。
进一步,所述依次计算多个第一特征向量与多个第二特征向量之间的相似度,具体为:
依次计算多个第一特征向量与多个第二特征向量之间的余弦距离作为相似度的度量;或者,
依次计算多个第一特征向量与多个第二特征向量之间的欧氏距离作为相似度的度量。
进一步,所述全景分割网络包括:centerNet网络模型或者SWideRNet网络模型。
进一步,所述中心距离的计算公式为:
附图说明
图1是本发明实施例提供的双目视觉深度图计算的流程示意图;
图2是本发明实施例提供的双目视觉深度图计算的中心距离计算的示意图;
图3是本发明实施例提供的基于全景分割网络的双目视觉深度图计算的流程示意图;
图4是本发明实施例提供的双目视觉深度图计算系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明实施例提供的双目视觉深度图计算的流程示意图,包括步骤S11~S14,具体为:
步骤S11、获取左侧镜头采集的左图像以及右侧镜头采集的右图像,并分别将所述左图像、右图像作为全景分割网络的输入,全景分割网络对应输出多个左图像物体中心点位置的像素坐标和左图像物体中心点位置对应的第一特征向量,以及对应输出多个右图像物体中心点位置的像素坐标和右图像物体中心点位置对应的第二特征向量。
值得注意的是,本发明采用全景分割网络能够对输入图像进行分割,以输出特征图为结果,特征图中包含:输入图像的所有物体中心点的像素坐标和中心点对应的特征向量,可以用(ci,fi)表示;其中,ci和fi分别为第j个物体的中心点的像素坐标和中心点对应的特征向量。
具体地,全景分割网络以左图像作为输入,并输出的左特征图,左特征图包含:左图像物体中心点的像素坐标和中心点对应的特征向量可以表示为全景分割网络以右图像作为输入,并输出右特征图,右特征图包含:右图像物体中心点的像素坐标和中心点对应的特征向量可以表示为
其中,所述左图像物体和所述右图像物体包括:由所述全景分割网络分割出的完整的左图像物体图像;或者,由所述全景分割网络分割出的左图像同一物体的多个部分图像;由所述全景分割网络分割出的完整的右图像物体图像;或者,由所述全景分割网络分割出的右图像同一物体的多个部分图像。
值得说明的是,当全景分割网络分割出的完整的左图像物体图像或者左图像同一物体的多个部分图像时,对应输出完整的左图像物体图像或者左图像同一物体的各部分图像的中心点位置的像素坐标和中心点位置对应的第一特征向量;其中,将分割出的部分图像看作独立的左图像物体图像,对其进行处理,得到对应的中心点位置的像素坐标和中心点位置对应的第一特征向量;同理,当全景分割网络分割出的完整的右图像物体图像或者右图像同一物体的各部分图像时,对应输出完整的右图像物体图像或者右图像同一物体的部分图像的中心点位置的像素坐标和中心点位置对应的第二特征向量;其中,将分割出的部分图像看作独立的右图像物体图像,对其进行处理,得到对应的中心点位置的像素坐标和中心点位置对应的第二特征向量。
本发明采用对分割后的物体取中心点的特征向量计算物体相似度进行匹配,无需基于“极线约束”进行校正,能够降低算法的复杂度。
优选地,所述全景分割网络包括:centerNet网络模型或者SWideRNet网络模型。
步骤S12、依次计算多个第一特征向量与多个第二特征向量之间的相似度,并选取相似度最大的第一特征向量和第二特征向量为一组最优匹配结果,对应得到多组最优配结果。
优选地,依次计算多个第一特征向量与多个第二特征向量之间的余弦距离或者欧氏距离作为相似度的度量。
本发明通过计算左、右图像中第一特征向量与第二特征向量之间的相似度,相似度越大,则第一特征向量与第二特征向量对应的左图像中的物体与右图像中的物体的相关性越强,能够更加准确的描述左、右图像中物体之间的相似度,使得到对应的最优匹配结果科学性和可靠性,从而提高匹配左、右图像中物体的准确度,使得到的双目视觉的深度在允许的误差范围之内。
具体地,记一组最优匹配结果为值得说明的是,由于左、右镜头看到的物体一般是相同的,且同一物体的特征在左右眼中基本类似,因此大部分物体均能实现配对(Matching)。本发明仅针对物体的中心点及其特征向量对进行匹配,匹配的数量级为物体个数同数量级,无需“极线约束”,即传统双目视觉匹配需要其来减小匹配范围,能够有效降低双目视觉匹配的计算复杂度,从提高双目视觉匹配的效率。
步骤S13、依次根据最优匹配结果对应的左、右图像物体中心点位置,计算最优匹配结果对应的物体到相机的中心距离。
参见图2,是本发明实施例提供的双目视觉深度图计算的中心距离计算的示意图,图中,根据相机的焦距、相机的双目距离和最优匹配结果对应的左图像物体中心点的像素坐标和右图像物体中心点的像素坐标,计算对应最优配结果的中心距离。
优选地,一组最优配结果的中心距离的计算公式为:
值得说明的是,由于全景分割网络本身的参照标准和算法输出都采用相同的形式,不是直接端到端的方式直接得到深度图,因此,能够更详细地了解对左、右图像检测和分割后的分析,以及对图像中的材料和事物的性能对比信息,从而能够对左、右图像中的物体分割提供可解释性;并且,全景分割网络能够分别直接输出左、右图像中所有物体的中心点,以使根据物体的中心点像素坐标计算物体中心到镜头的距离,由于没有校正,上述左右镜头光轴实际中不平行,会带来误差,但是对于避障精度已经足够;此外,使用非端到端的方式得到深度的方式能够抵抗对抗攻击,能够提高双目视觉深度图计算的性能。
本发明直接采用对最优匹配结果对应的左图像物体中心点和右图像物体中心点的像素坐标计算双目视觉深度,能够减少通过所有左图像物体中心点和右图像物体中心点得到的双目视觉深度图的计算量,从而能够减少双目视觉深度的计算复杂度。
步骤S14、对同一物体的像素都赋予相同的中心距离,以使得到双目视觉的深度图。
根据全景分割网络分割出的物体结果,能够对分割出的同一物体都赋予相同的中心距离,以使得到双目视觉的深度图。参见图3,是本发明实施例提供的基于全景分割网络的双目视觉深度图计算的流程示意图。
本发明采用全景分割网络和传统的双目的匹配方式计算中心距离,无需进行校正,具有更强的实用性和更低的计算复杂度,能在允许的精度范围内提供避障服务;取代了深度神经网络直接端到端的输出,能够提高双目视觉深度图计算的抗对抗攻击性;并且,基于全景分割网络的双目视觉深度图计算,能够对左、右图像中的物体分割、匹配以及深度计算提供可解释性,从而能够分割无纹理的物体,具有更强的适用性。
本发明还提供了双目视觉深度图计算系统,参见图4,是本发明实施例提供的双目视觉深度图计算系统的结构示意图,包括:全景分割网络模块41、匹配模块42、中心距离计算模块43和深度图计算模块44。
双目视觉镜头模块41,用于获取左侧镜头采集的左图像以及右侧镜头采集的右图像,并分别将所述左图像、右图像作为全景分割网络的输入,全景分割网络对应输出多个左图像物体中心点位置的像素坐标和左图像物体中心点位置对应的第一特征向量,以及对应输出多个右图像物体中心点位置的像素坐标和右图像物体中心点位置对应的第二特征向量;
匹配模块42,用于依次计算多个第一特征向量与多个第二特征向量之间的相似度,并选取相似度最大的第一特征向量和第二特征向量为一组最优匹配结果,对应得到多组最优配结果;
中心距离计算模块43,用于依次根据最优匹配结果对应的左、右图像物体中心点位置,计算最优匹配结果对应的物体到相机的中心距离;
深度图计算模块44,用于对同一物体的像素都赋予相同的距离,以使得到双目视觉的深度图。
其中,所述左图像物体和所述右图像物体包括:由所述全景分割网络分割出的完整的左图像物体图像;或者,由所述全景分割网络分割出的左图像同一物体的多个部分图像;由所述全景分割网络分割出的完整的右图像物体图像;或者,由所述全景分割网络分割出的右图像同一物体的多个部分图像。
值得说明的是,当全景分割网络分割出的完整的左图像物体图像或者左图像同一物体的多个部分图像时,对应输出完整的左图像物体图像或者左图像同一物体的各部分图像的中心点位置的像素坐标和中心点位置对应的第一特征向量;其中,将分割出的部分图像看作独立的左图像物体图像,对其进行处理,得到对应的中心点位置的像素坐标和中心点位置对应的第一特征向量;同理,当全景分割网络分割出的完整的右图像物体图像或者右图像同一物体的各部分图像时,对应输出完整的右图像物体图像或者右图像同一物体的部分图像的中心点位置的像素坐标和中心点位置对应的第二特征向量;其中,将分割出的部分图像看作独立的右图像物体图像,对其进行处理,得到对应的中心点位置的像素坐标和中心点位置对应的第二特征向量。
优选地,依次计算多个第一特征向量与多个第二特征向量之间的余弦距离作为相似度的度量;或者,依次计算多个第一特征向量与多个第二特征向量之间的欧氏距离作为相似度的度量。
本发明通过计算左、右图像中第一特征向量与第二特征向量之间的相似度,相似度越大,则第一特征向量与第二特征向量对应的左图像中的物体与右图像中的物体的相关性越强,能够更加准确的描述左、右图像中物体之间的相似度,使得到对应的最优匹配结果科学性和可靠性,从而提高匹配左、右图像中物体的准确度,使得到的双目视觉的深度在允许的误差范围之内。
优选地,所述全景分割网络包括:centerNet网络模型或者SWideRNet网络模型。
优选地,所述中心距离的计算公式为:
其中,和分别为最优匹配结果对应的左图像物体中心点位置的像素横坐标和右图像物体中心点位置的像素横坐标,f和b分别为相机的焦距和相机的双目距离。本发明直接采用对最优匹配结果对应的左图像物体中心点位置和右图像物体中心点像素坐标计算双目视觉深度,能够减少通过所有左图像物体中心点和右图像物体中心点配对得到的双目视觉深度图的计算量,从而能够减少双目视觉深度的计算复杂度。
综上所述,本发明采用全景分割网络分别为左、右图像进行分割,由于全景分割网络本身的参照标准和算法输出都采用相同的形式,不是直接端到端的方式直接得到深度图,因此,能够更详细地了解对左、右图像检测和分割后的分析,以及对图像中的材质和事物的特征对比信息,从而能够对左、右图像中的物体分割提供可解释性;并且,全景分割网络能够分别直接输出左、右图像中所有物体的中心点,以使使用物体的中心点计算深度,使用非端到端的方式得到深度的方式能够抵抗对抗攻击,从而能够提高双目视觉深度图计算的性能。
本发明实施例还提供了一种双目视觉深度图计算设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如所述双目视觉深度图计算方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行如所述的双目视觉深度图计算方法的步骤。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本发明而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘,U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (10)
1.一种双目视觉深度图计算方法,其特征在于,所述方法包括:
获取左侧镜头采集的左图像以及右侧镜头采集的右图像,并分别将所述左图像、右图像作为全景分割网络的输入,全景分割网络对应输出多个左图像物体中心点位置的像素坐标和左图像物体中心点位置对应的第一特征向量,以及对应输出多个右图像物体中心点位置的像素坐标和右图像物体中心点位置对应的第二特征向量;
依次计算多个第一特征向量与多个第二特征向量之间的相似度,并选取相似度最大的第一特征向量和第二特征向量为一组最优匹配结果,对应得到多组最优配结果;
依次根据最优匹配结果对应的左、右图像物体中心点位置,计算最优匹配结果对应的物体到相机的中心距离;
对同一物体的像素都赋予相同的中心距离,以使得到双目视觉的深度图。
2.如权利要求1所述的双目视觉深度图计算方法,其特征在于,所述左图像物体和所述右图像物体包括:
由所述全景分割网络分割出的完整的左图像物体图像;或者,由所述全景分割网络分割出的左图像同一物体的多个部分图像;
由所述全景分割网络分割出的完整的右图像物体图像;或者,由所述全景分割网络分割出的右图像同一物体的多个部分图像。
3.如权利要求1所述的双目视觉深度图计算方法,其特征在于,所述依次计算多个第一特征向量与多个第二特征向量之间的相似度,具体为:
依次计算多个第一特征向量与多个第二特征向量之间的余弦距离作为相似度的度量;或者,
依次计算多个第一特征向量与多个第二特征向量之间的欧氏距离作为相似度的度量。
4.如权利要求1所述的双目视觉深度图计算方法,其特征在于,所述全景分割网络包括:centerNet网络模型或者SWideRNet网络模型。
6.一种双目视觉深度图计算系统,其特征在于,包括:
双目视觉镜头模块,用于获取左侧镜头采集的左图像以及右侧镜头采集的右图像,并分别将所述左图像、右图像作为全景分割网络的输入,全景分割网络对应输出多个左图像物体中心点位置的像素坐标和左图像物体中心点位置对应的第一特征向量,以及对应输出多个右图像物体中心点位置的像素坐标和右图像物体中心点位置对应的第二特征向量;
匹配模块,用于依次计算多个第一特征向量与多个第二特征向量之间的相似度,并选取相似度最大的第一特征向量和第二特征向量为一组最优匹配结果,对应得到多组最优配结果;
中心距离计算模块,用于依次根据最优匹配结果对应的左、右图像物体中心点位置,计算最优匹配结果对应的物体到相机的中心距离;
深度图获取模块,用于对同一物体的像素都赋予相同的中心距离,以使得到双目视觉的深度图。
7.如权利要求6所述的双目视觉深度图计算系统,其特征在于,所述左图像物体和所述右图像物体包括:
由所述全景分割网络分割出的完整的左图像物体图像;或者,由所述全景分割网络分割出的左图像同一物体的多个部分图像;
由所述全景分割网络分割出的完整的右图像物体图像;或者,由所述全景分割网络分割出的右图像同一物体的多个部分图像。
8.如权利要求6所述的双目视觉深度图计算系统,其特征在于,所述依次计算多个第一特征向量与多个第二特征向量之间的相似度,具体为:
依次计算多个第一特征向量与多个第二特征向量之间的余弦距离作为相似度的度量;或者,
依次计算多个第一特征向量与多个第二特征向量之间的欧氏距离作为相似度的度量。
9.如权利要求6所述的双目视觉深度图计算系统,其特征在于,所述全景分割网络包括:centerNet网络模型或者SWideRNet网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310107477.9A CN115994951A (zh) | 2023-01-30 | 2023-01-30 | 一种双目视觉深度图计算方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310107477.9A CN115994951A (zh) | 2023-01-30 | 2023-01-30 | 一种双目视觉深度图计算方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115994951A true CN115994951A (zh) | 2023-04-21 |
Family
ID=85993431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310107477.9A Pending CN115994951A (zh) | 2023-01-30 | 2023-01-30 | 一种双目视觉深度图计算方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115994951A (zh) |
-
2023
- 2023-01-30 CN CN202310107477.9A patent/CN115994951A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960211B (zh) | 一种多目标人体姿态检测方法以及系统 | |
US9984280B2 (en) | Object recognition system using left and right images and method | |
CN107578376B (zh) | 基于特征点聚类四叉划分和局部变换矩阵的图像拼接方法 | |
CN111553939B (zh) | 一种多目摄像机的图像配准算法 | |
AU2022203080B2 (en) | Method for depth estimation for a variable focus camera | |
CN111145232A (zh) | 一种基于特征信息变化度的三维点云自动配准方法 | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
US9323989B2 (en) | Tracking device | |
CN110120013A (zh) | 一种点云拼接方法及装置 | |
CN111105452A (zh) | 基于双目视觉的高低分辨率融合立体匹配方法 | |
CN116579962A (zh) | 一种基于鱼眼相机的全景感知方法、装置、设备及介质 | |
CN111798453A (zh) | 用于无人驾驶辅助定位的点云配准方法及其系统 | |
CN111951339A (zh) | 利用异构双目相机进行视差计算的图像处理方法 | |
CN114742875A (zh) | 基于多尺度特征提取和自适应聚合的双目立体匹配方法 | |
WO2021167910A1 (en) | A method for generating a dataset, a method for generating a neural network, and a method for constructing a model of a scene | |
CN116630423A (zh) | 一种基于orb特征的微小型机器人多目标双目定位方法及系统 | |
Wang et al. | A real-time correction and stitching algorithm for underwater fisheye images | |
CN116703996A (zh) | 基于实例级自适应深度估计的单目三维目标检测算法 | |
CN115994951A (zh) | 一种双目视觉深度图计算方法及系统 | |
CN114608558A (zh) | 基于特征匹配网络的slam方法、系统、设备及存储介质 | |
KR102449031B1 (ko) | 딥러닝을 이용한 실내 위치 측위 방법 | |
CN113486907A (zh) | 一种无人驾驶设备避障方法、装置及无人驾驶设备 | |
CN115457101B (zh) | 面向无人机平台的边缘保持多视图深度估计及测距方法 | |
CN112085653B (zh) | 基于景深补偿的视差图像拼接方法 | |
JP2013218604A (ja) | 画像認識装置、画像認識方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |