CN117629072A - 三维场景测距方法、装置、设备及介质 - Google Patents
三维场景测距方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117629072A CN117629072A CN202311370732.5A CN202311370732A CN117629072A CN 117629072 A CN117629072 A CN 117629072A CN 202311370732 A CN202311370732 A CN 202311370732A CN 117629072 A CN117629072 A CN 117629072A
- Authority
- CN
- China
- Prior art keywords
- view angles
- coordinates
- rays
- determining
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 239000013598 vector Substances 0.000 claims abstract description 124
- 238000013507 mapping Methods 0.000 claims description 50
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000004088 simulation Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 25
- 230000000007 visual effect Effects 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000009795 derivation Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Abstract
本申请提供一种三维场景测距方法、装置、设备及介质,涉及图像处理处理技术领域。该方法包括:获取目标三维场景在多个视角的图像;根据多个视角的相机参数,及多个视角的图像,确定多个视角的相机位置、第一特征点在多个视角的第一射线的方向向量,及第二特征点在多个视角的第二射线的方向向量;根据多个视角的相机位置、多个视角的第一射线的方向向量,确定多个视角的第一射线的交点坐标为第一三维坐标;根据多个视角的相机位置、多个视角的第二射线的方向向量,确定多个视角的第二射线的交点坐标为第二三维坐标;进而确定第一特征点和第二特征点之间的距离。本申请可在实现三维场景中特征点进行测距的基础上,提高三维场景测距的适用性。
Description
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种三维场景测距方法、装置、设备及介质。
背景技术
计算机视觉技术可通过对三维场景的图像进行处理得到相应场景的三维信息,使得机器“拟人化”,使其能够理解和处理图像中的信息,实现更加智能和高效的应用。
随着计算机视觉技术的发展,基于场景图像的三维空间测量技术,在文物、工业设计、游戏制作等业务领域的应用需求越来越多。常见的三维空间测量技术中,很多实现需要依托于深度相机或者特定相机采集的图像,对整个场景进行测量。
因而,常见的三维空间测量技术大多无法实现场景中点之间的距离测量,并且,其对特定相机的依赖使得在实际业务应用中受到一定程度的限制。
发明内容
本发明的目的在于,针对上述现有技术中的不足,提供一种三维场景测距方法、装置、设备及介质,以在实现对三维场景中的特征点进行测距的情况下,提高方法的适用性。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种三维场景测距方法,包括:
获取目标三维场景在多个视角的图像;
根据所述多个视角的相机参数,以及所述多个视角的图像,确定世界坐标系下所述多个视角的相机位置、第一特征点在所述多个视角的第一射线的方向向量,以及第二特征点在所述多个视角的第二射线的方向向量;
根据所述多个视角的相机位置、所述多个视角的第一射线的方向向量,确定所述多个视角的第一射线的交点坐标为所述第一特征点在世界坐标系的第一三维坐标;
根据所述多个视角的相机位置、所述多个视角的第二射线的方向向量,确定所述多个视角的第二射线的交点坐标为所述第二特征点在世界坐标系的第二三维坐标;
根据所述第一三维坐标和所述第二三维坐标,确定所述目标三维场景中所述第一特征点和所述第二特征点之间的距离。
在一种可能实现方式中,所述根据所述多个视角的相机参数,以及所述多个视角的图像,确定世界坐标系下所述多个视角的相机位置、第一特征点在所述多个视角的第一射线的方向向量,以及第二特征点在所述多个视角的第二射线的方向向量,包括:
确定所述第一特征点在所述多个视角的图像中的多个第一像素坐标,以及所述第二特征点在所述多个视角的图像中的多个第二像素坐标;
根据所述多个视角的相机参数、所述多个第一像素坐标以及所述多个第二像素坐标,确定所述多个视角的相机位置、所述多个视角的第一射线的方向向量,以及所述多个视角的第二射线的方向向量。
在一种可能实现方式中,所述根据所述多个视角的相机参数、所述多个第一像素坐标以及所述多个第二像素坐标,确定所述多个视角的相机位置、所述多个视角的第一射线的方向向量,以及所述多个视角的第二射线的方向向量,包括:
根据所述多个视角的相机参数,确定世界坐标系下所述多个视角的相机位置,以及所述多个视角下像素坐标系与世界坐标系之间的多个映射关系;
根据所述多个映射关系,分别将所述多个第一像素坐标以及所述多个第二像素坐标映射至世界坐标系,得到所述第一特征点在所述多个视角的多个第一映射坐标和所述第二特征点在所述多个视角的多个第二映射坐标;
根据所述多个第一映射坐标以及所述多个视角的相机位置,确定所述多个视角的第一射线的方向向量;
根据所述多个第二映射坐标以及所述多个视角的相机位置,确定所述多个视角的第二射线的方向向量。
在一种可能实现方式中,所述根据所述多个视角的相机位置、所述多个视角的第一射线的方向向量,确定所述多个视角的第一射线的第一交点坐标为所述第一特征点在世界坐标系的第一三维坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第一射线的方向向量,从所述多个视角的第一射线上,确定与中心点距离之和最小的多个第一点的坐标;
根据所述多个第一点的中心点的坐标,确定所述第一三维坐标。
在一种可能实现方式中,所述根据所述多个视角的相机位置,以及所述多个视角的第一射线的方向向量,从所述多个视角的第一射线上,分别确定与中心点距离之和最小的多个第一点的坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第一射线的方向向量,构建所述第一特征点在多个第一射线上对应位置的坐标与中心点坐标之间的第一距离函数;
采用预设的梯度下降算法,对所述第一距离函数进行求解,得到所述多个第一点的坐标。
在一种可能实现方式中,所述根据所述多个视角的相机位置、所述多个视角的第二射线的方向向量,确定所述多个视角的第二射线的交点坐标为所述第二特征点在世界坐标系的第二三维坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第二射线的方向向量,从所述多个视角的第二射线上,确定与中心点距离之和最小的多个第二点的坐标;
根据所述多个第二点的中心点的坐标,确定所述第二三维坐标。
在一种可能实现方式中,所述根据所述多个视角的相机位置,以及所述多个视角的第二射线的方向向量,从所述多个视角的第二射线上,分别确定与中心点距离之和最小的多个第二点的坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第二射线的方向向量,构建所述第二特征点在多个第二射线上对应位置的坐标与中心点坐标之间的第二距离函数;
采用预设的梯度下降算法,对所述第二距离函数进行求解,得到所述多个第二点的坐标。
在一种可能实现方式中,所述获取目标三维场景在多个视角的图像,包括:
采用所述目标三维场景的隐式三维重建模型,获取所述多个视角的模拟图作为所述多个视角的图像;或者,
获取针对所述目标三维场景采集的所述多个视角的真实图像作为所述多个视角的图像。
第二方面,本申请实施例还提供了一种三维场景测距装置,包括:
获取模块,用于获取目标三维场景在多个视角的图像;
第一确定模块,用于根据所述多个视角的相机参数,以及所述多个视角的图像,确定世界坐标系下所述多个视角的相机位置、第一特征点在所述多个视角的第一射线的方向向量,以及第二特征点在所述多个视角的第二射线的方向向量;
第二确定模块,用于根据所述多个视角的相机位置、所述多个视角的第一射线的方向向量,确定所述多个视角的第一射线的交点坐标为所述第一特征点在世界坐标系的第一三维坐标;
第三确定模块,用于根据所述多个视角的相机位置、所述多个视角的第二射线的方向向量,确定所述多个视角的第二射线的交点坐标为所述第二特征点在世界坐标系的第二三维坐标;
第四确定模块,用于根据所述第一三维坐标和所述第二三维坐标,确定所述目标三维场景中所述第一特征点和所述第二特征点之间的距离。
第三方面,本申请实施例还提供了一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的程序指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述程序指令,以执行时执行如第一方面任一所述的三维场景测距方法的步骤。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如第一方面任一所述的三维场景测距方法的步骤。
本申请的有益效果是:
本申请实施例提供一种三维场景测距方法、装置、设备及介质,可通过获取目标三维场景在多个视角的图像,根据多个视角的相机参数,以及多个视角的图像,确定世界坐标系下多个视角的相机位置、第一特征点在多个视角的第一射线的方向向量,以及第二特征点在多个视角的第二射线的方向向量,继而根据多个视角的相机位置、多个视角的第一射线的方向向量,确定多个视角的第一射线的交点坐标为第一特征点在世界坐标系的第一三维坐标,以及根据多个视角的相机位置、多个视角的第二射线的方向向量,确定多个视角的第二射线的交点坐标为第二特征点在世界坐标系的第二三维坐标;根据第一三维坐标和第二三维坐标,确定目标三维场景中第一特征点和第二特征点之间的距离。本申请实施例所提供的三维场景测距方法,可根据目标三维场景在多个视角的图像结合多个视角的相机参数,实现第一特征点和第二特征点在世界坐标系中的三维坐标,继而实现三维场景中的特征点之间的测距,并且本实施例提供的三维场景测距方法中,多个视角的图像并不存在对特定相机的依赖,因此,还提高了三维场景测距方法在实际业务应用中的适用性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种三维场景测距方法的流程图;
图2为本申请实施例提供的一种三维场景测距方法中一种确定射线方向向量的流程图;
图3为本申请实施例提供的一种三维场景测距方法中另一种确定射线方向向量的流程图;
图4为本申请实施例提供的一种三维场景测距方法中确定第一特征点的第一三维坐标的方法流程图;
图5为本申请实施例提供的一种三维场景测距方法中确定第二特征点的第二三维坐标的方法流程图;
图6为本申请实施例提供的一种三维场景测距装置的示意图;
图7为本申请实施例提供的一种电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
在本申请中,除非另有明确的规定和限定,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包含至少一个特征。在本发明中的描述中,“多个”的含义是至少两个,例如两个、三个,除非另有明确具体的限定。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
在便于更好的理解,本申请实施例提供的三维场景测距方法,如下先对本申请下述各实施例所涉及的技术术语进行解释。
隐式三维重建模型:是基于计算机视觉技术和深度学习算法的三维重建算法,其可基于三维场景在不同视角的图像,以及不同视角的相机参数进行三维重建的模型训练,得到该三维场景的隐式三维重建模型。该隐式三维重建模型例如可以为神经辐射场(Neural Radiance Fields,NeRF)模型,当然也可以为其他形式的隐式三维重建模型。显式三维模型例如三维点云模型或者三维网格模型等,其可以直接进行显示以被用户看见,但是隐式三维重建模型之所以为隐式,原因便在于其不同于显式三维模型,无法直接进行显示。因此,隐式三维重建模型还可称为三维场景的隐式表达。隐式三维重建模型虽然不能会直接进行显示,但基于隐式三维重建模型,可得到三维场景在新视角下各个点的渲染参数如体积密度以及颜色参数等,继而基于新视角下各个点的渲染参数进行场景渲染,生成新视角的模拟图,又称渲染图。
如下结合附图通过多个示例对本申请实施例提供的三维场景测距方法进行解释说明。图1为本申请实施例提供的一种三维场景测距方法的流程图,该方法可由运行有三维场景测距方法的软件程序的电子设备实现,以通过运行该软件程序执行三维场景测距方法。在实际应用示例中,该电子设备的实际产品形态例如可以为终端设备,也可以为服务器,对此,本申请实施例不进行限制。如图1所示,该方法包括:
S101、获取目标三维场景在多个视角的图像。
目标三维场景可以为真实世界中的预设三维场景如会议室、实验室等,因此该目标三维场景还可称为真实三维空间。为实现目标三维场景中特征点的测距,需先获取目标三维场景在多个视角的图像,该多个视角的图像中均包括有待测的两个特征点,如下表述为第一特征点和第二特征点,也就是说,从多个视角的图像中均可以观察到第一特征点A和第二特征点B。其中,多个视角为不同的多个视角。
作为一种可能的实现方式,可采用目标三维场景的隐式三维重建模型,获取多个视角的模拟图作为多个视角的图像。
在执行本实现方式中,可先获取目标三维场景的隐式三维重建模型,并根据预设的多个视角的信息,采用该隐式三维重建模型,对目标三维场景进行渲染,得到目标三维场景在多个视角的模拟图,并该多个视角的模拟图作为多个视角的图像。
此处,隐式三维重建模型的训练过程例如可以是:根据目标三维场景在多个已知视角的真实图像以及多个已知视角的相机参数,对目标三维场景进行重建,得到目标三维场景的隐式三维重建模型。
作为另一种可能的实现方式,可获取针对目标三维场景采集的多个视角的真实图像作为多个视角的图像。
其中,该多个视角的真实图像可以为图像采集设备也就是相机或者摄像头等,针对目标三维场景在多个视角进行图像采集所得到的多个视角的真实图像。
需要说明的是,对目标三维场景进行测距所选取的视角数量n可以为大于或等于2的预设整数,视角数量n越大,可使得测距的误差越小,其测距结果更准确。
S102、根据多个视角的相机参数,以及多个视角的图像,确定世界坐标系下多个视角的相机位置、第一特征点在多个视角的第一射线的方向向量,以及第二特征点在多个视角的第二射线的方向向量。
在获取到多个视角的图像的情况下,还获取了多个视角的相机参数。在一种实现方式中,可根据预设的相机参数估计算法,对多个视角的图像进行处理,得到多个视角的相机参数。在另一种实现方式中,如若多个视角的图像为采用目标三维场景的隐式三维重建模型得到的多个视角的模拟图,则多个视角的相机参数可以为目标三维场景的隐式三维重建模型生成多个视角的模拟图的情况下,所得到的多个视角的相机参数。
每个视角的相机参数可用于表征采集或者渲染每个视角的图像时的相机状态。每个视角的相机参数可包括:相机内参和相机外参。
在可能实现方式中,可根据多个视角的相机参数分别进行相机位置的估计,得到世界坐标系下多个视角的相机位置,继而根据多个视角的相机位置以及所述多个视角的相机参数,确定世界坐标系下第一特征点在多个视角的第一射线的方向向量,以及世界坐标系下第二特征点在多个视角的第二射线的方向向量。其中,世界坐标系还可称为目标三维场景所在真实环境的真实坐标系。
其中,多个视角的第一射线可以为多个视角的相机位置,指向第一特征点的射线,多个视角的第二射线可以为每个视角的相机位置,指向第二特征点的射线。第i个视角的相机位置可以表示为oi,其中,i=1,……,n中的任一整数,n为多个视角的总数量。
第i个视角的第一射线的方向向量可表示为dA,i,第i个视角的第二射线的方向向量可表示为dB,i。
S103、根据多个视角的相机位置、多个视角的第一射线的方向向量,确定多个视角的第一射线的交点坐标为第一特征点在世界坐标系的第一三维坐标。
每个视角的第一射线实际为每个视角下的相机位置指向第一特征点在对应视角下的位置的一条第一射线,可能实现方式中,可以是根据多个视角的相机位置,以及多条第一射线的方向向量,确定多条第一射线的交点坐标即为第一特征点在世界坐标系中的第一三维坐标。
S104、根据多个视角的相机位置、多个视角的第二射线的方向向量,确定多个视角的第二射线的交点坐标为第二特征点在世界坐标系的第二三维坐标。
相应的,每个视角的第二射线实际为每个视角下的相机位置指向第二特征点在对应视角下的位置的一条第二射线,可能实现方式中,可以是根据多个视角的相机位置,以及多条第二射线的方向向量,确定多条第一射线的交点坐标即为第二特征点在世界坐标系中的第二三维坐标。
S105、根据第一三维坐标和第二三维坐标,确定目标三维场景中第一特征点和第二特征点之间的距离。
在第一特征点和第二特征点的三维坐标,也就是第一三维坐标和第二三维坐标的情况下,便可基于根据第一三维坐标和第二三维坐标进行三维距离的计算,得到目标三维场景中第一特征点和第二特征点之间的距离。
综上,本申请实施例提供一种三维场景测距方法,可通过获取目标三维场景在多个视角的图像,根据多个视角的相机参数,以及多个视角的图像,确定世界坐标系下多个视角的相机位置、第一特征点在多个视角的第一射线的方向向量,以及第二特征点在多个视角的第二射线的方向向量,继而根据多个视角的相机位置、多个视角的第一射线的方向向量,确定多个视角的第一射线的交点坐标为第一特征点在世界坐标系的第一三维坐标,以及根据多个视角的相机位置、多个视角的第二射线的方向向量,确定多个视角的第二射线的交点坐标为第二特征点在世界坐标系的第二三维坐标;根据第一三维坐标和第二三维坐标,确定目标三维场景中第一特征点和第二特征点之间的距离。本申请实施例所提供的三维场景测距方法,可根据目标三维场景在多个视角的图像结合多个视角的相机参数,实现第一特征点和第二特征点在世界坐标系中的三维坐标,继而实现三维场景中的特征点之间的测距,并且本实施例提供的三维场景测距方法中,多个视角的图像并不存在对特定相机的依赖,因此,还提高了三维场景测距方法在实际业务应用中的适用性。
在上述实施例所提供的三维场景测距方法的基础上,本申请下述还通过提供一种获取各视角下射线的方向向量以及相机位置的可能实现示例。图2为本申请实施例提供的一种三维场景测距方法中一种确定射线方向向量的流程图;如图2所示,如上实施例中S102中根据多个视角的相机参数,以及多个视角的图像,确定世界坐标系下多个视角的相机位置、第一特征点在多个视角的第一射线的方向向量,以及第二特征点在多个视角的第二射线的方向向量可以包括:
S201、确定第一特征点在多个视角的图像中的多个第一像素坐标,以及第二特征点在多个视角的图像中的多个第二像素坐标。
在一种可能实现方式中,在获取多个视角的图像后,可显示多个视角的图像,并根据输入的针对所述多个视角的图像的特征点标记操作,确定第一特征点在多个视角的图像中的像素坐标为多个第一像素坐标,确定第二特征点在多个视角的图像中的像素坐标为多个第二像素坐标。
在另一种可能实现方式中,可在获取多个视角的图像后,可分别多个视角的图像进行第一预设特征的检测,得到多个视角的图像中符合第一预设特征的位置点坐标即为第一特征点在多个视角的图像中的像素坐标,也就是多个第一像素坐标。相应的,还可分别多个视角的图像进行第二预设特征的检测,得到多个视角的图像中符合第二预设特征的位置点坐标即为第二特征点在多个视角的图像中的像素坐标,也就是多个第二像素坐标。
S202、根据多个视角的图像对应的相机参数、多个第一像素坐标以及多个第二像素坐标,确定多个视角的相机位置、多个视角的第一射线的方向向量,以及多个视角的第二射线的方向向量。
在可能实现方式中,可根据多个视角的相机参数分别进行相机位置的估计,得到世界坐标系下多个视角的相机位置,继而根据多个视角的相机位置、所述多个视角的相机参数、多个第一像素坐标以及多个第二像素坐标,确定多个视角的第一射线的方向向量,以及多个视角的第二射线的方向向量。
本实施例所提供的三维场景测距方法中,可通过两个特征点在各视角下的像素坐标,以及各视角的相机参数确定各视角的相机位置,以及两个特征点分别在各视角下的射线的方向向量,使得射线方向向量的确定更准确,从而保证了基于各特征点在各视角的射线的方向向量,准确确定出各特征点在世界坐标系的三维坐标,进而保证对三维场景的测距准确度。
针对上述实施例中所提及的确定各相机位置,以及各视角下射线的方向向量,本申请实施例还提供了如下可能的实现方式。图3为本申请实施例提供的一种三维场景测距方法中另一种确定射线方向向量的流程图。如图3所示,如上所示方法中S202中根据多个视角的图像对应的相机参数、多个第一像素坐标以及多个第二像素坐标,确定多个视角的相机位置、多个视角的第一射线的方向向量,以及多个视角的第二射线的方向向量,可以包括:
S301、根据多个视角的相机参数,确定世界坐标系下多个视角的相机位置,以及多个视角下像素坐标系与世界坐标系之间的多个映射关系。
每个视角的相机参数包括:相机内参和相机外参。在可能实现方式中,可根据每个视角的相机参数中的相机外参,确定世界坐标系下每个视角的相机位置,以及每个视角下相机坐标系和世界坐标系之间的映射关系;根据每个视角的相机参数中的相机内参,确定每个视角下相机坐标系和像素坐标系之间的映射关系,如此,可根据每个视角下相机坐标系和世界坐标系之间的映射关系,以及相机坐标系和像素坐标系之间的映射关系,得到每个视角下像素坐标系与世界坐标系之间的映射关系。那么对于多个视角,便可得到多个映射关系,其中,每个映射关系即为:一个视角下像素坐标系与世界坐标系之间的映射关系。
S302、根据多个映射关系,分别将多个第一像素坐标以及多个第二像素坐标映射至世界坐标系,得到第一特征点在多个视角的多个第一映射坐标和第二特征点在多个视角的多个第二映射坐标。
示例的,可根据每个映射关系,将第一特征点在对应视角下的第一像素坐标,以及第二特征点在对应视角下的第二像素坐标,从该对应视角的像素坐标系映射至世界坐标系中,得到第一特征点在对应视角的第一映射坐标,以及第二特征点在对应视角的第二映射坐标。那么,针对第一特征点,在多个视角下,便可得到多个第一映射坐标;相应的,针对第二特征点,在多个视角下,便可得到多个第二映射坐标。
S303、根据多个第一映射坐标以及多个视角的相机位置,确定多个视角的第一射线的方向向量。
多个第一映射坐标可分别用于指示第一特征点在多个视角下的对应位置,因而在可能实现方式中,可根据每个视角的相机位置以及该视角下的第一映射坐标,确定从每个视角的相机位置指向该视角下的第一映射坐标的射线,确定每个视角的第一射线的方向向量。
S304、根据多个第二映射坐标以及多个视角的相机位置,确定多个视角的第二射线的方向向量。
多个第二映射坐标可分别用于指示第二特征点在多个视角下的对应位置,因而在可能实现方式中,可根据每个视角的相机位置以及该视角下的第二映射坐标,确定从每个视角的相机位置指向该视角下的第二映射坐标的射线,确定每个视角的第二射线的方向向量。
本实施例所提供的三维场景测距方法中,可通过各视角的相机参数确定各视角的相机位置,以及各视角下的像素坐标系和世界坐标系之间的映射关系,并根据该映射关系,将两个特征点在多个视角下的像素坐标,即多个像素坐标和多个第二像素坐标映射至世界坐标系中,继而根据两个特征点在多个视角下的映射坐标,以及各视角下的相机位置,分别确定各特征点在各视角的射线的方向向量,保证了射线方向向量的确定更准确,从而保证了各特征点在世界坐标系的三维坐标的准确度,进而保证对三维场景的测距准确度。
在上述任一实施例所示的三维场景测距方法的基础上,对于第一特征点和第二特征点在世界坐标系中的三维坐标,本申请下述实施例通过具体的可能实现方式进行示例说明。图4为本申请实施例提供的一种三维场景测距方法中确定第一特征点的第一三维坐标的方法流程图。如图4所示,如上所述的S103中根据多个视角的相机位置、多个视角的第一射线的方向向量,确定多个视角的第一射线的交点坐标为第一特征点在世界坐标系的第一三维坐标,可以包括:
S401、根据多个视角的相机位置,以及多个视角的第一射线的方向向量,从多个视角的第一射线上,确定与中心点距离之和最小的多个第一点的坐标。
在具体实现方式中,可根据每个视角的相机位置,以及每个视角的第一射线的方向向量,确定第一特征点在每个视角下对应的位置、每个视角的相机位置以及该视角的第一射线的方向向量之间的第一关系。
该第一关系例如可表示为:rA,i=oi+tA,idA,i,其中,rA,i为第一三维坐标,即第一特征点A在i个视角对应位置的坐标,oi为第i个视角的相机位置,其中,i=1,……,n中的任一整数,n为多个视角的总数量,dA,i为第i个视角的第一射线的方向向量,tA,i为第一特征点A在第i个视角下的对应位置,相对于该视角的相机位置的偏移量。
由此可知,只要确定第一特征点在各视角下的对应位置相对于对应视角的相机位置的偏移量,便可确定出第一特征点在各视角的对应位置,即多个第一点的坐标。
对此,本申请如下实施例提供了两种可能实现方式,以确定出多个第一点的坐标。
在第一种可能的实现方式中,可根据多个视角的相机位置,以及多个视角的第一射线的方向向量,基于预设的第一初始偏移量,对从多个视角的第一射线上的点进行遍历,并确定遍历到的多个点,与该多个点的中心点之间的距离;调整第一初始偏移量,并基于同一调整后的偏移量,继续对从多个视角的第一射线上的点进行遍历,直至遍历到的多个点与对应中心点的距离最小,则遍历完成时的偏移量,即为第一特征点在多个视角下的第一最优偏移量。进而,可根据遍历完成时的第一最优偏移量、多个视角的相机位置以及该视角的第一射线的方向向量便可确定多个第一点的坐标,即为第一特征点在多个视角下的最优位置的坐标。
在第二种可能实现方式中,可根据多个视角的相机位置,以及多个视角的第一射线的方向向量,构建第一特征点在多个第一射线上对应位置的坐标与中心点坐标之间的第一距离函数;采用预设的梯度下降算法,对第一距离函数进行求解,得到多个第一点的坐标。
第一距离函数例如可表示为:
其中,oi+tA,idA,i用于表示第一特征点A第i个视角的第一射线上的点坐标,用于表示第一特征点A在n个视角对应位置的中心点坐标。
在得到第一距离函数的情况下,可通过对第一距离函数进行求导,得到tA,i的偏导函数,继而采用预设的梯度下降算法,基于预设的第一初始偏移量对第一距离函数中的tA,i的偏导函进行迭代求解,便可使得第一距离函数的距离之和最小,如此便可得到第一最优偏移量,即一组tA,i。在求解得到第一最优偏移量的情况下,便可基于第一最优偏移量、多个视角的相机位置以及该视角的第一射线的方向向量便可确定多个第一点的坐标,即为第一特征点在多个视角下的最优位置的坐标。对于第一距离函数的求导例如可以采用预设的求导工具实现。
无论是采用方式何种方式确定多个第一点的坐标,第一初始偏移量例如可以为:tA,1=tA,2=…tA,n=0。当然,在其它可能实现方式中,也可第一初始偏移量也可以为配置其它的参数,本申请实施例不对此进行限制。
S402、根据多个第一点的中心点的坐标,确定第一三维坐标。
在得到多个第一点的坐标的情况下,便可根据多个第一点的坐标,计算多个第一点的中心点的坐标,并确定多个第一点的中心点的坐标为第一三维坐标。
相应的,针对第二特征点在世界坐标系中的第二三维坐标,本申请实施例提供方法,也可采用相应的方式实现,如下结合流程图对确定第二三维坐标的实现进行说明,相同之处在此处便不再赘述。图5为本申请实施例提供的一种三维场景测距方法中确定第二特征点的第二三维坐标的方法流程图。如图5所示,如上所述的S104中根据多个视角的相机位置、多个视角的第二射线的方向向量,确定多个视角的第二射线的交点坐标为第二特征点在世界坐标系的第二三维坐标,可以包括:
S501、根据多个视角的相机位置,以及多个视角的第二射线的方向向量,从多个视角的第二射线上,确定与中心点距离之和最小的多个第二点的坐标。
在具体实现方式中,可根据每个视角的相机位置,以及每个视角的第二射线的方向向量,确定第二特征点在每个视角下对应的位置、每个视角的相机位置以及该视角的第二射线的方向向量之间的第二关系。
该第二关系例如可表示为:rB,i=oi+tB,idB,i,其中,rB,i为第二三维坐标,即第二特征点B在i个视角对应位置的坐标,oi为第i个视角的相机位置,其中,i=1,……,n中的任一整数,n为多个视角的总数量,dB,i为第i个视角的第二射线的方向向量,tB,i为第二特征点B在第i个视角下的对应位置,相对于该视角的相机位置的偏移量。
由此可知,只要确定第二特征点在各视角下的对应位置相对于对应视角的相机位置的偏移量,便可确定出第二特征点在各视角的对应位置,即多个第二点的坐标。
对此,本申请实施例也提供了针对第二特征点的两种可能实现方式,以确定出多个第二点的坐标。
在第一种可能的实现方式中,可根据多个视角的相机位置,以及多个视角的第二射线的方向向量,基于第二初始偏移量,对从多个视角的第二射线上的点进行遍历,并确定遍历到的多个点,与该多个点的中心点之间的距离;调整第二初始偏移量,并基于同一调整后的偏移量,继续对从多个视角的第二射线上的点进行遍历,直至遍历到的多个点与对应中心点的距离最小,则遍历完成时的偏移量,即为第二特征点在多个视角下的第二最优偏移量。进而,可根据遍历完成时的第二最优偏移量、多个视角的相机位置以及该视角的第二射线的方向向量便可确定多个第二点的坐标,即为第二特征点在多个视角下的最优位置的坐标。
在第二种可能实现方式中,可根据多个视角的相机位置,以及多个视角的第二射线的方向向量,构建第二特征点在多个第二射线上对应位置的坐标与中心点坐标之间的第二距离函数;采用预设的梯度下降算法,对第二距离函数进行求解,得到多个第二点的坐标。
第二距离函数例如可表示为:
其中,oi+tB,idB,i用于表示第二特征点B第i个视角的第二射线上的点坐标,用于表示第二特征点B在n个视角对应位置的中心点坐标。
在得到第二距离函数的情况下,可通过对第二距离函数进行求导,得到tB,i的偏导函数,继而采用预设的梯度下降算法,对第二距离函数中的tB,i的偏导函进行迭代求解,便可使得第二距离函数的距离之和最小,如此便可得到第二最优偏移量,即一组tB,i。在求解得到第二最优偏移量的情况下,便可基于第二最优偏移量、多个视角的相机位置以及该视角的第二射线的方向向量便可确定多个第二点的坐标,即为第二特征点在多个视角下的最优位置的坐标。对于第二距离函数的求导例如可以采用预设的求导工具实现。
S502、根据多个第二点的中心点的坐标,确定第二三维坐标。
在得到多个第二点的坐标的情况下,便可根据多个第二点的坐标,计算多个第二点的中心点的坐标,并确定多个第二点的中心点的坐标为第二三维坐标。
本实施例所提供的三维场景测距方法中,可通过多个视角的相机位置,以及多个视角的第一射线的方向向量,从多个视角的第一射线上,确定与中心点距离之和最小的多个第一点的坐标,继而确定第一三维坐标,同时,对于第二特征点,也可采用类似的方式确定第二三维坐标,可提高第一特征点和第二特征的三维坐标的确定准确度,进而提高了三维场景测距的准确度。
下述对用以执行本申请所提供的三维场景测距装置、电子设备及存储介质等进行说明,其具体的实现过程以及技术效果参见上述,下述不再赘述。
本申请实施例提供一种三维场景测距装置的可能实现示例,能够执行上述实施例提供三维场景测距方法。图6为本申请实施例提供的一种三维场景测距装置的示意图。如图6所示,三维场景测距装置600包括:
获取模块601,用于获取目标三维场景在多个视角的图像。
第一确定模块602,用于根据多个视角的相机参数,以及多个视角的图像,确定世界坐标系下多个视角的相机位置、第一特征点在多个视角的第一射线的方向向量,以及第二特征点在多个视角的第二射线的方向向量。
第二确定模块603,用于根据多个视角的相机位置、多个视角的第一射线的方向向量,确定多个视角的第一射线的交点坐标为第一特征点在世界坐标系的第一三维坐标。
第三确定模块604,用于根据多个视角的相机位置、多个视角的第二射线的方向向量,确定多个视角的第二射线的交点坐标为第二特征点在世界坐标系的第二三维坐标。
第四确定模块605,用于根据第一三维坐标和第二三维坐标,确定目标三维场景中第一特征点和第二特征点之间的距离。
可选的,第一确定模块602,具体用于:确定第一特征点在多个视角的图像中的多个第一像素坐标,以及第二特征点在多个视角的图像中的多个第二像素坐标;根据多个视角的相机参数、多个第一像素坐标以及多个第二像素坐标,确定多个视角的相机位置、多个视角的第一射线的方向向量,以及多个视角的第二射线的方向向量。
可选的,第一确定模块602,具体用于:根据多个视角的相机参数,确定世界坐标系下多个视角的相机位置,以及多个视角下像素坐标系与世界坐标系之间的多个映射关系;根据多个映射关系,分别将多个第一像素坐标以及多个第二像素坐标映射至世界坐标系,得到第一特征点在多个视角的多个第一映射坐标和第二特征点在所述多个视角的多个第二映射坐标;根据多个第一映射坐标以及多个视角的相机位置,确定多个视角的第一射线的方向向量;根据多个第二映射坐标以及多个视角的相机位置,确定多个视角的第二射线的方向向量。
可选的,第二确定模块603,具体用于:根据多个视角的相机位置,以及多个视角的第一射线的方向向量,从多个视角的第一射线上,确定与中心点距离之和最小的多个第一点的坐标;根据多个第一点的中心点的坐标,确定第一三维坐标。
可选的,第二确定模块603,具体用于:根据多个视角的相机位置,以及多个视角的第一射线的方向向量,构建第一特征点在多个第一射线上对应位置的坐标与中心点坐标之间的第一距离函数;采用预设的梯度下降算法,对第一距离函数进行求解,得到多个第一点的坐标。
可选的,第三确定模块604,具体用于:根据多个视角的相机位置,以及多个视角的第二射线的方向向量,从多个视角的第二射线上,确定与中心点距离之和最小的多个第二点的坐标;根据多个第二点的中心点的坐标,确定第二三维坐标。
可选的,第三确定模块604,具体用于:根据多个视角的相机位置,以及多个视角的第二射线的方向向量,构建第二特征点在多个第二射线上对应位置的坐标与中心点坐标之间的第二距离函数;采用预设的梯度下降算法,对第二距离函数进行求解,得到多个第二点的坐标。
可选的,获取模块601,具体用于:采用目标三维场景的隐式三维重建模型,获取多个视角的模拟图作为多个视角的图像;或者,获取针对目标三维场景采集的多个视角的真实图像作为多个视角的图像。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital singnal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
本申请实施例提供一种电子设备的可能实现示例,能够执行上述实施例提供的三维场景测距方法。图7为本申请实施例提供的一种电子设备的示意图,该设备可以集成于终端设备或者终端设备的芯片,该设备可以是具备数据处理功能的计算设备。
该电子设备700包括:处理器701、存储介质702和总线,存储介质702存储有处理器701可执行的程序指令,当电子设备700运行时,处理器701与存储介质702之间通过总线通信,处理器701执行程序指令,以执行时执行上述三维场景测距方法的步骤。具体实现方式和技术效果类似,这里不再赘述。
本申请实施例提供一种计算机可读存储介质的可能实现示例,能够执行上述实施例提供的三维场景测距方法,存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述三维场景测距方法的步骤。
存储在一个存储介质中的计算机程序,可以包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种三维场景测距方法,其特征在于,包括:
获取目标三维场景在多个视角的图像;
根据所述多个视角的相机参数,以及所述多个视角的图像,确定世界坐标系下所述多个视角的相机位置、第一特征点在所述多个视角的第一射线的方向向量,以及第二特征点在所述多个视角的第二射线的方向向量;
根据所述多个视角的相机位置、所述多个视角的第一射线的方向向量,确定所述多个视角的第一射线的交点坐标为所述第一特征点在世界坐标系的第一三维坐标;
根据所述多个视角的相机位置、所述多个视角的第二射线的方向向量,确定所述多个视角的第二射线的交点坐标为所述第二特征点在世界坐标系的第二三维坐标;
根据所述第一三维坐标和所述第二三维坐标,确定所述目标三维场景中所述第一特征点和所述第二特征点之间的距离。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多个视角的相机参数,以及所述多个视角的图像,确定世界坐标系下所述多个视角的相机位置、第一特征点在所述多个视角的第一射线的方向向量,以及第二特征点在所述多个视角的第二射线的方向向量,包括:
确定所述第一特征点在所述多个视角的图像中的多个第一像素坐标,以及所述第二特征点在所述多个视角的图像中的多个第二像素坐标;
根据所述多个视角的相机参数、所述多个第一像素坐标以及所述多个第二像素坐标,确定所述多个视角的相机位置、所述多个视角的第一射线的方向向量,以及所述多个视角的第二射线的方向向量。
3.根据权利要求2所述的方法,其特征在于,所述根据所述多个视角的相机参数、所述多个第一像素坐标以及所述多个第二像素坐标,确定所述多个视角的相机位置、所述多个视角的第一射线的方向向量,以及所述多个视角的第二射线的方向向量,包括:
根据所述多个视角的相机参数,确定世界坐标系下所述多个视角的相机位置,以及所述多个视角下像素坐标系与世界坐标系之间的多个映射关系;
根据所述多个映射关系,分别将所述多个第一像素坐标以及所述多个第二像素坐标映射至世界坐标系,得到所述第一特征点在所述多个视角的多个第一映射坐标和所述第二特征点在所述多个视角的多个第二映射坐标;
根据所述多个第一映射坐标以及所述多个视角的相机位置,确定所述多个视角的第一射线的方向向量;
根据所述多个第二映射坐标以及所述多个视角的相机位置,确定所述多个视角的第二射线的方向向量。
4.根据权利要求1所述的方法,其特征在于,所述根据所述多个视角的相机位置、所述多个视角的第一射线的方向向量,确定所述多个视角的第一射线的第一交点坐标为所述第一特征点在世界坐标系的第一三维坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第一射线的方向向量,从所述多个视角的第一射线上,确定与中心点距离之和最小的多个第一点的坐标;
根据所述多个第一点的中心点的坐标,确定所述第一三维坐标。
5.根据权利要求4所述的方法,其特征在于,所述根据所述多个视角的相机位置,以及所述多个视角的第一射线的方向向量,从所述多个视角的第一射线上,分别确定与中心点距离之和最小的多个第一点的坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第一射线的方向向量,构建所述第一特征点在多个第一射线上对应位置的坐标与中心点坐标之间的第一距离函数;
采用预设的梯度下降算法,对所述第一距离函数进行求解,得到所述多个第一点的坐标。
6.根据权利要求1所述的方法,其特征在于,所述根据所述多个视角的相机位置、所述多个视角的第二射线的方向向量,确定所述多个视角的第二射线的交点坐标为所述第二特征点在世界坐标系的第二三维坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第二射线的方向向量,从所述多个视角的第二射线上,确定与中心点距离之和最小的多个第二点的坐标;
根据所述多个第二点的中心点的坐标,确定所述第二三维坐标。
7.根据权利要求6所述的方法,其特征在于,所述根据所述多个视角的相机位置,以及所述多个视角的第二射线的方向向量,从所述多个视角的第二射线上,分别确定与中心点距离之和最小的多个第二点的坐标,包括:
根据所述多个视角的相机位置,以及所述多个视角的第二射线的方向向量,构建所述第二特征点在多个第二射线上对应位置的坐标与中心点坐标之间的第二距离函数;
采用预设的梯度下降算法,对所述第二距离函数进行求解,得到所述多个第二点的坐标。
8.根据权利要求1-7中任一所述的方法,其特征在于,所述获取目标三维场景在多个视角的图像,包括:
采用所述目标三维场景的隐式三维重建模型,获取所述多个视角的模拟图作为所述多个视角的图像;或者,
获取针对所述目标三维场景采集的所述多个视角的真实图像作为所述多个视角的图像。
9.一种三维场景测距装置,其特征在于,所述三维场景测距装置包括:
获取模块,用于获取目标三维场景在多个视角的图像;
第一确定模块,用于根据所述多个视角的相机参数,以及所述多个视角的图像,确定世界坐标系下所述多个视角的相机位置、第一特征点在所述多个视角的第一射线的方向向量,以及第二特征点在所述多个视角的第二射线的方向向量;
第二确定模块,用于根据所述多个视角的相机位置、所述多个视角的第一射线的方向向量,确定所述多个视角的第一射线的交点坐标为所述第一特征点在世界坐标系的第一三维坐标;
第三确定模块,用于根据所述多个视角的相机位置、所述多个视角的第二射线的方向向量,确定所述多个视角的第二射线的交点坐标为所述第二特征点在世界坐标系的第二三维坐标;
第四确定模块,用于根据所述第一三维坐标和所述第二三维坐标,确定所述目标三维场景中所述第一特征点和所述第二特征点之间的距离。
10.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的程序指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述程序指令,以执行时执行如权利要求1-8中任一所述的三维场景测距方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311370732.5A CN117629072A (zh) | 2023-10-23 | 2023-10-23 | 三维场景测距方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311370732.5A CN117629072A (zh) | 2023-10-23 | 2023-10-23 | 三维场景测距方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117629072A true CN117629072A (zh) | 2024-03-01 |
Family
ID=90024275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311370732.5A Pending CN117629072A (zh) | 2023-10-23 | 2023-10-23 | 三维场景测距方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117629072A (zh) |
-
2023
- 2023-10-23 CN CN202311370732.5A patent/CN117629072A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111968235B (zh) | 一种物体姿态估计方法、装置、系统和计算机设备 | |
CN111598993B (zh) | 基于多视角成像技术的三维数据重建方法、装置 | |
CN113592989B (zh) | 一种三维场景的重建系统、方法、设备及存储介质 | |
CN108038902A (zh) | 一种面向深度相机的高精度三维重建方法和系统 | |
CN112489099B (zh) | 点云配准方法、装置、存储介质及电子设备 | |
Olesen et al. | Real-time extraction of surface patches with associated uncertainties by means of kinect cameras | |
da Silveira et al. | Dense 3D scene reconstruction from multiple spherical images for 3-DoF+ VR applications | |
CN116030202B (zh) | 一种三维图像重建方法、装置、电子设备及存储介质 | |
An et al. | Novel calibration method for camera array in spherical arrangement | |
CN114332125A (zh) | 点云重建方法、装置、电子设备和存储介质 | |
CN113793392A (zh) | 一种相机参数标定方法及装置 | |
CN108053481B (zh) | 三维点云法向量的生成方法、装置和存储介质 | |
CN110738730A (zh) | 点云匹配方法、装置、计算机设备和存储介质 | |
CN109961092B (zh) | 一种基于视差锚点的双目视觉立体匹配方法及系统 | |
CN113763478A (zh) | 无人车相机标定方法、装置、设备、存储介质及系统 | |
CN110619665A (zh) | 虚拟仿真环境下双目相机的标定及验证方法 | |
CN115830202A (zh) | 一种三维模型渲染方法和装置 | |
CN117629072A (zh) | 三维场景测距方法、装置、设备及介质 | |
CN115409949A (zh) | 模型训练方法、视角图像生成方法、装置、设备及介质 | |
CN114926316A (zh) | 距离测量方法、装置、电子设备及存储介质 | |
CN112258635B (zh) | 基于改进双目匹配sad算法的三维重建方法及装置 | |
CN113643328A (zh) | 标定物的重建方法、装置、电子设备及计算机可读介质 | |
CN117315018B (zh) | 基于改进PnP的用户面部位姿检测方法、设备、介质 | |
CN113643377B (zh) | 基于多次标定的单镜头一致性误差分析的方法和系统 | |
CN117456550B (zh) | 基于mr的cad文件查看方法、装置、介质和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |