CN114092561A - 一种基于多目相机的无纹理三维物体跟踪方法及装置 - Google Patents
一种基于多目相机的无纹理三维物体跟踪方法及装置 Download PDFInfo
- Publication number
- CN114092561A CN114092561A CN202210076234.9A CN202210076234A CN114092561A CN 114092561 A CN114092561 A CN 114092561A CN 202210076234 A CN202210076234 A CN 202210076234A CN 114092561 A CN114092561 A CN 114092561A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- pose
- camera
- under
- energy function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000009466 transformation Effects 0.000 claims abstract description 38
- 230000006870 function Effects 0.000 claims description 73
- 239000011159 matrix material Substances 0.000 claims description 44
- 238000003860 storage Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000005457 optimization Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 208000006440 Open Bite Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多目相机的无纹理三维物体跟踪方法及装置,该方法包括:获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;将所述第一位姿转换到物体中心坐标系下,得到第二位姿;建立所述物体中心坐标系下的相机投影模型;根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。本发明采用多目跟踪的方法,将各个相机的图像信息与坐标系信息建立在同一框架下,得到更加准确的跟踪结果。
Description
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种基于多目相机的无纹理三维物体跟踪方法及装置。
背景技术
三维物体跟踪可以在连续视频帧中估计三维物体与相机之间的相对位姿(即位置与姿态)。目前三维跟踪在计算机视觉和增强现实领域中有着广泛的应用场景,例如医学、制造业、机器人和游戏娱乐等领域。
单目无纹理物体跟踪仅使用2D图像中的物体轮廓或轮廓周围的区域信息,缺乏相机视线方向的信息,因此优化结果会在相机视线方向产生较大误差,不能满足高精度跟踪要求。
在实现本发明的过程中,发明人发现现有技术中至少存在如下问题:
现有解决方案中,一种是使用深度相机获取深度信息,在相机视线方向产生约束,并使用深度数据迭代优化至最优位姿。但深度相机往往受限于实际的应用场景,例如使用距离受限、不能在室外使用等,并且深度数据在采集时会有数据缺失现象进而影响跟踪精度;另一种解决方案是使用多视角相机提高跟踪精度。多视角相机通过获得各视角下的高质量RGB图像弥补各相机视线方向信息。一些基于特征点的方法使用多视角几何模型提取SIFT(Scale-invariant feature transform,尺度不变特征变换)特征点,然后在多视角相机下建立2D-3D点对应关系优化得到最优位姿,但不适用于无纹理物体。对于多目无纹理物体跟踪,由于无法在物体内部提取稳定的特征点,因此无法使用多视角几何模型直接建立各个相机坐标系之间的联系。目前的解决方案往往使用两步优化策略,首先估计各个相机下的物体位姿,然后在一个统一的世界坐标系下建立并最小化重投影损失误差得到最优位姿。该策略仅在第二步使用了多视角信息,并且该步骤没有使用图像特征,这使得优化过程不能统一坐标系与图像特征信息,限制了优化精度。另外,如果第一步得到的各个单目相机位姿不准确,也会影响二次优化的最终结果。综上所述,深度相机的使用场景受限,现有多目跟踪方法的跟踪精度仍然不足,均不能满足高精度跟踪的要求。
发明内容
本申请实施例的目的是提供一种基于多目相机的无纹理三维物体跟踪方法及装置,以解决相关技术中存在的单目三维物体跟踪精度不足的技术问题。
根据本申请实施例的第一方面,提供一种基于多目相机的无纹理三维物体跟踪方法,包括:
获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;
将所述第一位姿转换到物体中心坐标系下,得到第二位姿;
建立所述物体中心坐标系下的相机投影模型;
根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;
将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;
将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。
进一步地,获取第一位姿之前,还包括:
根据目标物体的遮挡情况,确定相机的数量;
标定各相机之间的相对位姿关系,其中所述相对位姿关系用于所述联合能量函数的建立过程中。
进一步地,根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数,包括:
根据所述第二位姿和相机投影模型,建立物体中心坐标系下各相机的能量函数;
对所述各相机的能量函数进行求和,得到物体中心坐标系下的联合能量函数。
进一步地,将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量,包括:
根据所述相机投影模型和各相机的能量函数,计算各相机的拍摄图像中各点的雅可比矩阵;
根据所述各点的雅克比矩阵,计算所述联合能量函数的雅克比矩阵和海森矩阵;
根据所述联合能量函数的雅克比矩阵和海森矩阵,计算物体中心坐标系下的位姿变换增量。
进一步地,将所述位姿变换增量转换到各相机坐标系下并对目标物体在各相机坐标系下的上一帧位姿进行更新,包括:
获取所述物体中心坐标系与各相机坐标系之间的变换关系;
将所述位姿变换增量转换到各相机坐标系下;
将转换后的位姿变换增量乘以所述第一位姿,作为所述目标物体在各相机坐标系下的当前帧位姿,实现所述第一位姿的更新。
根据本申请实施例的第二方面,提供一种基于多目相机的无纹理三维物体跟踪装置,包括:
获取模块,用于获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;
转换模块,用于将所述第一位姿转换到物体中心坐标系下,得到第二位姿;
建模模块,用于建立所述物体中心坐标系下的相机投影模型;
建立模块,用于根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;
最小化模块,用于将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变
更新模块,用于将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。
进一步地,所述建立模块包括:
建立子模块,用于根据所述第二位姿和相机投影模型,建立物体中心坐标系下各相机的能量函数;
求和模块,用于对所述各相机的能量函数进行求和,得到物体中心坐标系下的联合能量函数。
进一步地,所述最小化模块包括:
第一计算子模块,用于根据所述相机投影模型和建立所述联合能量函数过程中涉及的单目三维物体跟踪方法,计算各相机的拍摄图像中各点的雅可比矩阵;
第二计算子模块,用于根据所述各点的雅克比矩阵,计算所述联合能量函数的雅克比矩阵和海森矩阵;
第三计算子模块,用于根据所述联合能量函数的雅克比矩阵和海森矩阵,计算物体中心坐标系下的位姿变换增量。
根据本申请实施例的第三方面,提供一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的方法。
根据本申请实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如第一方面所述方法的步骤。
本申请的实施例提供的技术方案可以包括以下有益效果:
由上述实施例可知,本申请建立以物体中心坐标系为基础坐标系的优化框架,修改相机投影模型、建立联合能量函数并对所述联合能量函数进行最小化,为多目跟踪提供基础;根据物体中心坐标系下的第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数,将各个相机的图像信息与坐标系信息建立在同一框架下,得到更加准确的跟踪结果;此外,本申请建立的物体中心坐标系与基础跟踪算法无关,可以应用到所有基础跟踪算法中,使任意跟踪算法都可以根据实际需要转换基础坐标系;且本申请不使用深度相机,避免了使用场景受限的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据一示例性实施例示出的一种基于多目相机的无纹理三维物体跟踪方法的流程图。
图2是根据一示例性实施例示出的步骤S21-步骤S22的流程图。
图3是根据一示例性实施例示出的步骤S14的流程图。
图4是根据一示例性实施例示出的步骤S15的流程图。
图5是根据一示例性实施例示出的步骤S16的流程图。
图6是根据一示例性实施例示出的一种基于多目相机的无纹理三维物体跟踪装置的框图。
图7是根据一示例性实施例示出的模块24的框图。
图8是根据一示例性实施例示出的模块25的框图。
图9是根据一示例性实施例示出的电子设备的示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
名词解释:
三维模型:三维模型是物体的几何表示,储存了物体的顶点信息和面信息,描述物体的顶点和面在物体坐标系下的空间位置。
图1是根据一示例性实施例示出的一种基于多目相机的无纹理三维物体跟踪方法的流程图,如图1所示,该方法应用于终端中,可以包括以下步骤:
步骤S11:获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;
步骤S12:将所述第一位姿转换到物体中心坐标系下,得到第二位姿;
步骤S13:建立所述物体中心坐标系下的相机投影模型;
步骤S14:根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;
步骤S15:将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;
步骤S16:将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。
由上述实施例可知,本申请建立以物体中心坐标系为基础坐标系的优化框架,修改相机投影模型、建立联合能量函数并对所述联合能量函数进行最小化,为多目跟踪提供基础;根据物体中心坐标系下的第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数,将各个相机的图像信息与坐标系信息建立在同一框架下,得到更加准确的跟踪结果;此外,本申请建立的物体中心坐标系与基础跟踪算法无关,可以应用到所有基础跟踪算法中,使任意跟踪算法都可以根据实际需要转换基础坐标系。
在步骤S11的具体实施中,获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;
具体地,在各个相机坐标系中,将上一帧跟踪结果位姿作为当前帧的第一位姿,并将其作为当前帧的初始位姿。
具体地,如图2所示,在步骤S11之前,还可以包括:
步骤S21:根据目标物体的遮挡情况,确定相机的数量;
具体地,根据具体应用场景确定使用相机的数量,物体在无遮挡条件下使用两个相机即可;在物体有遮挡时,可摆放多个相机从无遮挡视角下拍摄物体。相机间的夹角在条件允许的条件下越大越好,相机间夹角为90°时效果最优。
步骤S22:标定各相机之间的相对位姿关系,其中所述相对位姿关系用于所述联合能量函数的建立过程中;
具体地,如果相机间的位置固定,则可通过人工标志物预先标定相机间的位置关系,并在之后的跟踪过程中使用该相对位置关系;如果相机间的位置不固定,则需要实时标定相机间的位置关系。例如使用人工标志物进行实时标定,或使用图像背景的稳定特征点标定。相机间的位姿关系表示为:
在步骤S12的具体实施中,将所述第一位姿转换到物体中心坐标系下,得到第二位姿;
其中, , 和分别表示物体三维点在物体坐标系,相机坐标系和物体中心坐标系下的空间坐标,表示第个相机坐标系下的空间坐标。表示将物体坐标系变换至第个相机坐标系,即第个相机的相机外参。表示将第个相机坐标系变换至物体中心坐标系。
在步骤S13的具体实施中,建立所述物体中心坐标系下的相机投影模型;
在步骤S14的具体实施中,根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;
具体地,如图3所示,此步骤可以包括以下子步骤:
步骤S31:根据所述第二位姿和相机投影模型,建立物体中心坐标系下各相机的能量函数;
具体地,物体中心坐标系下相机i的能量函数的表达式为
在具体实施中,可采用多种单目三维跟踪方法作为基础跟踪算法,通过所述算法建立物体中心坐标系下各相机的能量函数。
步骤S32:对所述各相机的能量函数进行求和,得到物体中心坐标系下的联合能量函数;
具体地,物体中心坐标系下的联合能量函数的表达式为:
步骤S22中标定的所述相对位姿关系用于所述联合能量函数的建立过程中。具体地说,各个相机坐标系与物体中心坐标系各自产生关联,在其基础上使用相机间的相对位姿关系约束住各个相机坐标系间的相互关系,可以完成物体坐标系与各个相机间的关系约束。
在步骤S15的具体实施中,将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;
具体地,将所述联合能量函数最小化的方法包括高斯牛顿法、梯度下降法和L-M方法(Levenberg-Marquardt方法),由于高斯牛顿法收敛较快,本实施例中通过高斯牛顿法进行联合能量函数的最小化,如图4所示,此步骤可以包括以下子步骤:
步骤S41:根据所述相机投影模型和各相机的能量函数,计算各相机的拍摄图像中各点的雅可比矩阵;
步骤S42:根据所述各点的雅克比矩阵,计算所述联合能量函数的雅克比矩阵和海森矩阵;
步骤S43:根据所述联合能量函数的雅克比矩阵和海森矩阵,计算物体中心坐标系下的位姿变换增量;
在步骤S16的具体实施中,将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。
具体地,如图5所示,此步骤可以包括以下子步骤:
步骤S51:获取所述物体中心坐标系与各相机坐标系之间的变换关系;
步骤S52:将所述位姿变换增量转换到各相机坐标系下;
步骤S53:将转换后的位姿变换增量乘以所述第一位姿,作为所述目标物体在各相机坐标系下的当前帧位姿,实现所述第一位姿的更新。
针对本申请提供的一种基于多目相机的无纹理三维物体跟踪方法进行测试时,实验采用的基础跟踪方法为RBOT方法[ H. Tjaden, U. Schwanecke, E. Schomer, and D.Cremers. A region-based gauss-newton approach to real-time monocular multipleobject tracking. IEEE transactions on pattern analysis and machineintelligence, 2019]本发明通过结合多视角信息,能够大幅提升无纹理三维物体跟踪的精度;其跟踪速度约为20帧每秒,满足实时性要求。本发明在渲染数据集上进行测试跟踪精度,分别测试双目跟踪结果和多目跟踪结果,相机间的夹角从小到大渐变,以评估算法的跟踪能力。
表1
表1为双目跟踪结果精度表,角度误差单位是°,平移误差单位是mm,tx、tx和tx分别表示x轴、y轴和z轴的平移误差。单目表示RBOT算法,其z轴的平移误差大于2cm。本发明的双目跟踪算法跟踪精度高于RBOT算法,在相机夹角逐渐增加时,跟踪精度也逐渐增加。当相机夹角为90°时精度最高,角度误差小于1°,每个轴的平移误差都小于0.3mm,远远高于单目跟踪算法。
表2
表2为三目跟踪结果精度表,跟踪精度随相机间的夹角增大而提高,与表1得到的结论一致。
以下为测试本发明基于多目相机的无纹理三维物体跟踪方法中以物体中心坐标系为基础坐标系的有效性的结果。
使用两种方法进行比较,分别用方法1 [Wang B, Zhong F, Qin X. Robustedge-based 3D object tracking with direction-based pose validation.Multimedia Tools and Applications, 2019, 78(9): 12307-12331]和方法2 [H.Tjaden, U. Schwanecke, E. Schomer, and D. Cremers. A region-based gauss-newton approach to real-time monocular multiple object tracking. IEEEtransactions on pattern analysis and machine intelligence, 2019]表示。表3为比较结果,比较数据集为RBOT数据集[H. Tjaden, U. Schwanecke, E. Schomer, and D.Cremers. A region-based gauss-newton approach to real-time monocular multipleobject tracking. IEEE transactions on pattern analysis and machineintelligence, 2019]。
表3
表3中方法1和方法2都是以相机坐标系进行优化,其对应行的数值为测试准确率(%),+O o 表示将基础坐标系转化为本发明提出的物体中心坐标系,对应行的数值为准确率提升的值。通过将基础坐标系转化为物体中心坐标系,两种单目无纹理跟踪方法的准确率都得到了提升。
以下为测试本发明基于多目相机的无纹理三维物体跟踪方法中使用多目相机的有效性的结果。
采用RBOT方法[H. Tjaden, U. Schwanecke, E. Schomer, and D. Cremers. Aregion-based gauss-newton approach to real-time monocular multiple objecttracking. IEEE transactions on pattern analysis and machine intelligence,2019],在实拍数据上进行对比, RBOT方法在第一相机视角下能得到很好的视觉结果,但转换至第二相机视角下,在相机实现方向会出现很大的平移误差,这是由于RBOT算法仅使用单目信息,缺少相机实现方向的约束导致的优化误差。本发明的方法同时使用多个相机的信息,得到的是准确的位姿,可以在各个相机视角下得到准确的视觉效果。
与前述的基于多目相机的无纹理三维物体跟踪方法的实施例相对应,本申请还提供了基于多目相机的无纹理三维物体跟踪装置的实施例。
图6是根据一示例性实施例示出的一种基于多目相机的无纹理三维物体跟踪装置框图。参照图2,该装置可以包括:
获取模块21,用于获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;
转换模块22,用于将所述第一位姿转换到物体中心坐标系下,得到第二位姿;
建模模块23,用于建立所述物体中心坐标系下的相机投影模型;
建立模块24,用于根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;
具体地,如图7所示,此模块包括以下子模块:
建立子模块31,用于根据所述第二位姿和相机投影模型,建立物体中心坐标系下各相机的能量函数;
求和模块32,用于对所述各相机的能量函数进行求和,得到物体中心坐标系下的联合能量函数。
最小化模块25,用于将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;
具体地,如图8所示,此模块包括以下子模块:
第一计算子模块41,用于根据所述相机投影模型和建立所述联合能量函数过程中涉及的单目三维物体跟踪方法,计算各相机的拍摄图像中各点的雅可比矩阵;
第二计算子模块42,用于根据所述各点的雅克比矩阵,计算所述联合能量函数的雅克比矩阵和海森矩阵;
第三计算子模块43,用于根据所述联合能量函数的雅克比矩阵和海森矩阵,计算物体中心坐标系下的位姿变换增量。
更新模块26,用于将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
相应的,本申请还提供一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述的基于多目相机的无纹理三维物体跟踪方法。如图9所示,为本发明实施例提供的一种基于多目相机的无纹理三维物体跟踪方法所在任意具备数据处理能力的设备的一种硬件结构图,除了图9所示的处理器以及内存之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
相应的,本申请还提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上述的基于多目相机的无纹理三维物体跟踪方法。所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是风力发电机的外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(FlashCard)等。进一步的,所述计算机可读存储介还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种基于多目相机的无纹理三维物体跟踪方法,其特征在于,包括:
获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;
将所述第一位姿转换到物体中心坐标系下,得到第二位姿;
建立所述物体中心坐标系下的相机投影模型;
根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;
将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;
将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。
2.根据权利要求1所述的方法,其特征在于,获取第一位姿之前,还包括:
根据目标物体的遮挡情况,确定相机的数量;
标定各相机之间的相对位姿关系,其中所述相对位姿关系用于所述联合能量函数的建立过程中。
3.根据权利要求1所述的方法,其特征在于,根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数,包括:
根据所述第二位姿和相机投影模型,建立物体中心坐标系下各相机的能量函数;
对所述各相机的能量函数进行求和,得到物体中心坐标系下的联合能量函数。
4.根据权利要求1所述的方法,其特征在于,将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量,包括:
根据所述相机投影模型和各相机的能量函数,计算各相机的拍摄图像中各点的雅可比矩阵;
根据所述各点的雅克比矩阵,计算所述联合能量函数的雅克比矩阵和海森矩阵;
根据所述联合能量函数的雅克比矩阵和海森矩阵,计算物体中心坐标系下的位姿变换增量。
5.根据权利要求1所述的方法,其特征在于,将所述位姿变换增量转换到各相机坐标系下并对目标物体在各相机坐标系下的上一帧位姿进行更新,包括:
获取所述物体中心坐标系与各相机坐标系之间的变换关系;
将所述位姿变换增量转换到各相机坐标系下;
将转换后的位姿变换增量乘以所述第一位姿,作为所述目标物体在各相机坐标系下的当前帧位姿,实现所述第一位姿的更新。
6.一种基于多目相机的无纹理三维物体跟踪装置,其特征在于,包括:
获取模块,用于获取第一位姿,其中所述第一位姿为目标物体上一帧在各相机坐标系下的位姿;
转换模块,用于将所述第一位姿转换到物体中心坐标系下,得到第二位姿;
建模模块,用于建立所述物体中心坐标系下的相机投影模型;
建立模块,用于根据所述第二位姿和相机投影模型,建立物体中心坐标系下的联合能量函数;
最小化模块,用于将所述联合能量函数最小化,得到所述物体中心坐标系下的位姿变换增量;
更新模块,用于将所述位姿变换增量转换到各相机坐标系下并对所述第一位姿进行更新,从而实现物体跟踪。
7.根据权利要求6所述的装置,其特征在于,所述建立模块包括:
建立子模块,用于根据所述第二位姿和相机投影模型,建立物体中心坐标系下各相机的能量函数;
求和模块,用于对所述各相机的能量函数进行求和,得到物体中心坐标系下的联合能量函数。
8.根据权利要求6所述的装置,其特征在于,所述最小化模块包括:
第一计算子模块,用于根据所述相机投影模型和建立所述联合能量函数过程中涉及的单目三维物体跟踪方法,计算各相机的拍摄图像中各点的雅可比矩阵;
第二计算子模块,用于根据所述各点的雅克比矩阵,计算所述联合能量函数的雅克比矩阵和海森矩阵;
第三计算子模块,用于根据所述联合能量函数的雅克比矩阵和海森矩阵,计算物体中心坐标系下的位姿变换增量。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如权利要求1-5中任一项所述的基于多目相机的无纹理三维物体跟踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210076234.9A CN114092561A (zh) | 2022-01-24 | 2022-01-24 | 一种基于多目相机的无纹理三维物体跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210076234.9A CN114092561A (zh) | 2022-01-24 | 2022-01-24 | 一种基于多目相机的无纹理三维物体跟踪方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114092561A true CN114092561A (zh) | 2022-02-25 |
Family
ID=80309154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210076234.9A Pending CN114092561A (zh) | 2022-01-24 | 2022-01-24 | 一种基于多目相机的无纹理三维物体跟踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114092561A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544629A (zh) * | 2018-11-29 | 2019-03-29 | 南京人工智能高等研究院有限公司 | 摄像头位姿确定方法和装置以及电子设备 |
CN112525145A (zh) * | 2020-11-30 | 2021-03-19 | 北京航空航天大学 | 一种飞机降落相对姿态动态视觉测量方法及系统 |
WO2021063127A1 (zh) * | 2019-09-30 | 2021-04-08 | 深圳市瑞立视多媒体科技有限公司 | 多相机环境中主动式刚体的位姿定位方法及相关设备 |
CN112700505A (zh) * | 2020-12-31 | 2021-04-23 | 山东大学 | 一种基于双目三维跟踪的手眼标定方法、设备及存储介质 |
-
2022
- 2022-01-24 CN CN202210076234.9A patent/CN114092561A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544629A (zh) * | 2018-11-29 | 2019-03-29 | 南京人工智能高等研究院有限公司 | 摄像头位姿确定方法和装置以及电子设备 |
WO2021063127A1 (zh) * | 2019-09-30 | 2021-04-08 | 深圳市瑞立视多媒体科技有限公司 | 多相机环境中主动式刚体的位姿定位方法及相关设备 |
CN112525145A (zh) * | 2020-11-30 | 2021-03-19 | 北京航空航天大学 | 一种飞机降落相对姿态动态视觉测量方法及系统 |
CN112700505A (zh) * | 2020-12-31 | 2021-04-23 | 山东大学 | 一种基于双目三维跟踪的手眼标定方法、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
LIANG LI等: "Globally Optimal Fetoscopic Mosaicking Based on Pose Graph Optimisation With Affine Constraints", 《IEEE ROBOTICS AND AUTOMATION LETTERS》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103106688B (zh) | 基于双层配准方法的室内三维场景重建方法 | |
Stein | Lens distortion calibration using point correspondences | |
CN108629810B (zh) | 双目相机的标定方法、装置及终端 | |
US6137491A (en) | Method and apparatus for reconstructing geometry using geometrically constrained structure from motion with points on planes | |
CN108288294A (zh) | 一种3d相机群的外参标定方法 | |
CN106705849B (zh) | 线结构光传感器标定方法 | |
US10771776B2 (en) | Apparatus and method for generating a camera model for an imaging system | |
CN112015275A (zh) | 基于数字孪生ar交互方法和系统 | |
CN111862299A (zh) | 人体三维模型构建方法、装置、机器人和存储介质 | |
CN110706332B (zh) | 一种基于噪声点云的场景重建方法 | |
CN113469886B (zh) | 一种基于三维重构的图像拼接方法 | |
CN113920191B (zh) | 一种基于深度相机的6d数据集构建方法 | |
CN118247429A (zh) | 一种空地协同快速三维建模方法及系统 | |
CN109389645A (zh) | 相机自校准方法、系统、相机、机器人及云端服务器 | |
Chatterjee et al. | A nonlinear Gauss–Seidel algorithm for noncoplanar and coplanar camera calibration with convergence analysis | |
CN113642397A (zh) | 一种基于手机视频的物体长度测量方法 | |
CN110555880B (zh) | 一种焦距未知的p6p相机位姿估计方法 | |
Köser et al. | Differential spatial resection-pose estimation using a single local image feature | |
JP3476710B2 (ja) | ユークリッド的な3次元情報の復元方法、および3次元情報復元装置 | |
Guillemaut et al. | Using points at infinity for parameter decoupling in camera calibration | |
CN114255279A (zh) | 一种基于高精度定位和深度学习的双目视觉三维重建方法 | |
CN115937002B (zh) | 用于估算视频旋转的方法、装置、电子设备和存储介质 | |
CN116801115A (zh) | 一种稀疏阵列相机部署方法 | |
CN116597020A (zh) | 外参数标定方法、计算设备、图像采集系统和存储介质 | |
CN114092561A (zh) | 一种基于多目相机的无纹理三维物体跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20220225 |
|
WD01 | Invention patent application deemed withdrawn after publication |