CN110838148A - 一种双目相机自标定方法 - Google Patents
一种双目相机自标定方法 Download PDFInfo
- Publication number
- CN110838148A CN110838148A CN201911092140.5A CN201911092140A CN110838148A CN 110838148 A CN110838148 A CN 110838148A CN 201911092140 A CN201911092140 A CN 201911092140A CN 110838148 A CN110838148 A CN 110838148A
- Authority
- CN
- China
- Prior art keywords
- image
- key points
- key point
- pair
- pairs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种双目相机自标定方法,该方法利用双目相机采集的多对自然场景图像对,经过模糊图像对去除、重复图像对去除、关键点误匹配去除和关键点平面分布、关键点视差分布等处理步骤之后,通过最小化能量函数获得双目相机的相对位姿标定结果。该方法不依赖于特定的标定物,不要求特殊的标定场景,具有无约束且高精度的特点。应用此方法可在双目相机正常工作的同时实现相机间失准的矫正,从而方便而有效地保证双目相机长期工作时的可靠性。
Description
技术领域
本发明属于光学成像技术、立体视觉技术、图像处理技术、计算机视觉技术领域,具体地,涉及一种双目相机自标定方法。
背景技术
双目相机是一种重要的立体视觉相机,主要通过双目匹配算法对两幅对齐的图像逐像素进行匹配,并通过三角法计算出每个像素的空间距离。双目匹配算法要求两幅图像行与行对齐,但是由于现实世界中两个相机无法完全平行,二者的相对位移也不能做到完全水平,因此双目相机得到的图像对必须经过矫正才能对齐。图像对的矫正依赖于相机之间的相对位姿,因此必须对双目相机进行标定才能保证其正常工作。工作于恶劣环境中的双目相机,由于会因为震动、冲击或者外力导致其相对位姿经常性发生变化,因而需要高频率的标定才能保证其正常工作。
现有的标定方法必须借助于特殊的标定物或特定的环境,对人员操作的要求也相对较多,因而不够便捷而无法满足高频率标定的要求。
发明内容
针对现有技术的不足,本发明提出了一种双目相机自标定方法,无需借助任何特殊物品或环境,亦无须使用者专门帮助,仅通过随机获取的若干自然场景图像对实现对双目相机位姿的高精度标定。本发明将可以用于双目相机的日常自我维护,大大提高双目相机在恶劣环境中的可靠性。
本发明的目的是通过以下技术方案实现的:一种双目相机自标定方法,具体包括如下步骤:
(1)通过双目相机采集自然场景的图像对,并剔除所述图像对中模糊和低纹理图像对,留下清晰的图像对。
(2)在每一对清晰的图像对中,通过关键点提取算法提取关键点,通过比较不同图像对关键点的位置,剔除相似的图像对,并在剩余的每一对图像对中,分别在左右图上提取关键点。
(3)将提取得到的关键点进行匹配,并去除误匹配的关键点对,保留所有图像对中正确匹配的关键点对。
(4)将步骤3中所有图像对中正确匹配的关键点对,通过平面分布和视差分布进行筛选,得到最终的关键点对集合。
(5)根据极线约束构造基本矩阵关于关键点对位置的代价函数,将经过步骤4筛选得到的最终的关键点对集合代入代价函数,所得代价之和为能量函数。
(6)优化基本矩阵的值,使能量函数最小,此时估计的基本矩阵为最终结果,将基本矩阵分解,即可得到相机之间的相对位姿。
进一步地,步骤1中剔除所述图像对中模糊和低纹理图像对,该方法具体为:通过尺寸为3×3或5×5的拉普拉斯算子对所述图像对卷积,得到拉普拉斯响应,再通过统计拉普拉斯响应中像素灰度值的方差和平均值,并设定方差阈值和平均值阈值,当方差小于方差阈值或平均值小于平均值阈值时,认为该图像对为模糊或者低纹理图像对,并进行剔除,其中,所述方差阈值设置为400~1000,平均值阈值设置为0~50。
进一步地,步骤2剔除相似的图像对,该方法具体为:根据图像对采集的时间顺序,在新采集到的图像对的左图中提取关键点,并与前一幅左图中的关键点匹配,判断匹配质量最好的前10%~30%关键点的平均距离是否小于阈值,若小于,则判定新采集到的图像对与上一对图像相似,进而去除。所述阈值的范围为5~20像素。
进一步地,步骤3去除误匹配的关键点对,该方法具体为:(1)通过设置关键点描述子间欧式距离的阈值,去除大于阈值的关键点对;(2)每一对关键点中,根据左图中关键点的坐标,再右图中画出一个长16~128像素,宽10~30像素的有效框,若右图中关键点落在框内,则该对关键点有效,否则无效。所述阈值为:当前所有匹配关键点对的欧式距离中最大和最小之和的0.1~0.5倍。
进一步地,步骤4平面分布筛选的过程具体为:在左图中规定每一个区域的关键点面密度,将步骤3中保留所有图像对中正确匹配的关键点对,取左图中的关键点填入每个区域,若某区域关键点面密度超过规定关键点面密度,则对落在该区域内的关键点所对应的关键点对的描述子的欧式距离排序,去掉欧式距离最高的若干关键点对;不断叠加新图像对的关键点对,直到所有区域关键点面密度与规定面密度相等。
进一步地,规定每一个区域的关键点面密度时,将图像对非均匀地将划分成矩形网格区域,且中心区域网格面积小于边缘区域网格面积。
进一步地,步骤4视差分布筛选的过程具体为:设定整个视差范围内每一个视差区间内的关键点对数量,若某视差区间内关键点对数量超过规定关键点对数量,对落在该区域内的关键点所对应的关键点对的描述的子欧式距离排序,去掉欧式距离最高的若干关键点对;不断叠加新的图像对的关键点对,直到所有视差区间内关键点数量与规定关键点数量相等。
与现有技术相比,本发明具有如下有益效果:
1.将平面面密度和视差分布的约束结合的方法,相比于单纯采用平面面密度约束,该方法利用视差分布进一步约束了关键点在实际空间中相对于相机的距离分布,提高了关键点分布的一致性提高了标定的可靠性和标定程序对环境的适应性。
2.本发明通过图像相似性判断,剔除相似的图像对,避免了自标定过程中,由于标定场景过于相似而导致的关键点对位置高度集中的问题,提高了在非连续运动场景下自标定的可靠性。
3.本发明通过非均匀的网格设计,相比于均匀网格设计,在进行关键点的面密度约束时能更加精确地控制某个区域实际的像素面密度,进而更好地拟合所设计的面密度分布,有利于提高标定的精度。
4.本发明不依赖于特殊的标定器材或者特殊的环境标志,仅依靠环境中自然存在的纹理,即可实现对相机的标定,使用极为方便。
5.本发明充分利用多对图像中的关键点对,并通过最小化能量函数求解相对位姿,相比于只运用八点法等计算方法精度更高。
附图说明
图1为非均匀网格划分的示意图;
图2为视差的高斯分布示意图;
图3为有效框去除误匹配点方法示意图。
具体实施方式
一种双目相机自标定方法,具体方法如下:
(1)通过双目相机采集自然场景的图像对,通过尺寸为3×3或5×5的拉普拉斯算子对所述图像对卷积,得到拉普拉斯响应,再通过统计拉普拉斯响应中像素灰度值的方差和平均值,并设定方差阈值和平均值阈值,当方差小于方差阈值或平均值小于平均值阈值时,认为该图像对为模糊或者低纹理图像对,并进行剔除,其中,所述方差阈值设置为400~1000,平均值阈值设置为0~50。拉普拉斯算子尺寸不宜过大,否则容易受到噪声影响。方差和均值的阈值是测试确定的,过大容易导致清晰图像被剔除,而太小则容易引入过多模糊图像。
(2)在每一对清晰的图像对中,通过关键点提取算法提取关键点,根据图像对采集的时间顺序,在新采集到的图像对的左图中提取关键点,并与前一幅左图中的关键点匹配,判断匹配质量最好的前10%~30%关键点的平均距离是否小于阈值,若小于,则判定新采集到的图像对与上一对图像相似,进而去除,并在剩余的每一对图像对中,分别在左右图上提取关键点。所述阈值的范围为5~20像素。这里只选择质量最高的10%-30%是因为匹配质量高的关键点对误匹配概率更低,更能真实反映图像与图像之间的关系,比例过低可能导致点数过少,过高会导致误匹配的数量过多,均不利于判断图像之间是否相似。阈值范围5~20像素是根据测试经验确定的,过高可能导致图像对收集困难,过低则导致收集的图像相似度较高。
(3)将提取得到的关键点进行匹配,通过设置关键点描述子间欧式距离的阈值,去除大于阈值的关键点对;每一对关键点中,根据左图中关键点的坐标,再右图中画出一个长16~128像素,宽10~30像素的有效框,若右图中关键点落在框内,则该对关键点有效,否则无效,去除无效的关键点对,保留所有图像对中正确匹配的关键点对。所述阈值为:当前所有匹配关键点对的欧式距离中最大和最小之和的0.1~0.5倍。其中有效框的长可根据双目相机的视差搜索范围决定,一般在16~128之间;宽根据测试经验决定,过宽容易降低误匹配的剔除率,过高则容易导致正确匹配关键点对被剔除。0.1~0.5倍的设置由双目相机的工作环境决定,能提取的关键点较多时,可选择更小的参数,关键点较少时,可选择更大的参数。
(4)将步骤3中所有图像对中正确匹配的关键点对,通过平面分布和视差分布进行筛选,平面分布筛选的过程具体为:在左图中规定每一个区域的关键点面密度,将图像对非均匀地将划分成矩形网格区域,且中心区域网格面积小于边缘区域网格面积,每个区域之间不重叠且无间隙。网格区域的划分需遵循如下原则:(a)在运算资源允许的情况下网格尽量小,(b)每个网格设定的面密度乘以面积得到的关键点数量不小于1。将步骤3中保留所有图像对中正确匹配的关键点对,取左图中的关键点填入每个区域,若某区域关键点面密度超过规定关键点面密度,则对落在该区域内的关键点所对应的关键点对的描述子的欧式距离排序,去掉欧式距离最高的若干关键点对;不断叠加新图像对的关键点对,直到所有区域关键点面密度与规定面密度相等。视差分布筛选的过程具体为:设定整个视差范围内每一个视差区间内的关键点对数量,若某视差区间内关键点对数量超过规定关键点对数量,对落在该区域内的关键点所对应的关键点对的描述子的欧式距离排序,去掉欧式距离最高的若干关键点对;不断叠加新的图像对的关键点对,直到所有视差区间内关键点数量与规定关键点数量相等。利用平面面密度分布可以人为控制不同区域关键点的数量,使得在图像畸变小的区域特征点更多,畸变大的区域更少;同时也可以防止关键点聚集在图像的某个角落,引起标定结果的不稳定。视差的大小与关键点在实际空间中距离相机的距离存在对应关系,对视差分布进行约束,实际上就是在约束关键点与相机的距离分布,这样可以使相机最佳成像距离上的关键点数量更多,而不佳的距离上关键点更少,从而提高关键点成像的精确性,进而提高标定精度。
(5)根据极线约束构造基本矩阵关于关键点对位置的代价函数,将经过步骤4筛选得到的最终的关键点对集合代入代价函数,所得代价之和为能量函数。
(6)优化基本矩阵的值,使能量函数最小,此时估计的基本矩阵为最终结果,将基本矩阵分解,即可得到相机之间的相对位姿。相比于采用八点法,这种优化方法有利于获得更高的标定精度。
实施例
(1)选定一个平面面密度约束方式,约束方式需保证图像中间面密度高,边缘面密度低。以下选取平面面密度二次分布为例,则根据如下公式确定图像中每一个点的面密度dxy,公式中rxy指点距离图像中心的距离,而d0和a可通过两个边界条件确定:(1)面密度之和为1;(2)图像边缘面密度为0。
(2)根据图像的大小,非均匀地将图像划分为若干矩形的网格区域,中心区域网格面积小,边缘区域网格面积大,每个区域之间不重叠且无间隙(如图1所示)。网格区域的划分需遵循如下原则:1)在运算资源允许的情况下网格尽量小。2)每个网格不能过小,需在(3)的步骤下算出该网格中包含的关键点数大于1。
(3)设定总的关键点数量N,例如2000个。根据如下公式确定每一个网格可以容纳的最大关键点数量nij,其中wij和hij指某个网格的长宽,dij指每个网格中心位置的面密度由图1中rij计算得到。
nij=N·wij·hij·dij (2)
(4)设定关键点对视差约束条件,例如使所有关键点的视差分布符合正态分布,可将有效的视差范围例如0-40,如图2所示,按一定的间隔Vx分区,例如按视差为2为间隔分区,则每个视差区间内的关键点数量mi可按如下公式(3)计算。其中N即为(3)中所述关键点总数,ci为每个视差区间中心位置视差,c0为设定的视差分布中心。
(5)利用双目相机的左右两个相机,每隔几秒同时采集一对自然环境的图像对;采集时,尽量保持画面中纹理丰富。
(6)用3x3或者更大尺寸的拉普拉斯算子对分别对图像对进行卷积,并统计卷积后得到图像的灰度均值和方差,分别设定一个均值和方差的阈值,将低于阈值的图像对舍弃,从而实现模糊图片剔除。
(7)在当前图像对中的左图,和前一对图像对中的左图中分别使用SURF或者SIFT算子提取关键点,根据关键点之间的描述子的欧式距离对关键点进行匹配,取欧式距离最小的前10%的关键点对,统计它们在图像上的平面距离,若距离的均值小于设定的阈值,则认为当前图像与上一对图像过于近似,从而选择舍弃。
(8)若当前采集到的图像未被(6)或(7)的步骤舍弃,则在当前图像对的左右图中分别提取关键点并匹配,保留匹配最好的30%关键点对。然后对任意一对关键点,根据左图中的关键点位置,在右图中确定一个扁平的有效框,如图3所示,若对应的右图中的关键点落在有效框中,则该对关键点对被认为有效,予以保留,否则予以剔除。
(9)在(8)后得到的若干对关键点,根据每对关键点在中左图中关键点在图像中的位置,将左关键点填入①中划分的网格,某个网格单元中不足nij时,持续填入;当某个单元关键点数量大于nij时,只保留匹配质量最好的前nij个关键点对。
(10)统计当前所有关键点对的视差分布,若某个视差区间下的关键点对数量大于(4)中设定的mi时,只保留匹配质量最好的前mi个关键点对。
(11)重复(5)-(10),直到所有网格中的关键点数量恰好都为能容纳的最大数量时,且视差分布符合设定的规律时结束关键点收集。
(12)构造能量函数如下,其中和分别为右图和左图中某一关键点的坐标齐次形式。使用收集到的所有关键点,先通过八点法计算出初始的基本矩阵F0,再基于初始的F0,通过非线性优化估计出最终的本质矩阵F,最后通过SVD分解等手段得到相对旋转和平移。
Claims (7)
1.一种双目相机自标定方法,其特征在于,具体包括如下步骤:
(1)通过双目相机采集自然场景的图像对,并剔除所述图像对中模糊和低纹理图像对,留下清晰的图像对。
(2)在每一对清晰的图像对中,通过关键点提取算法提取关键点,通过比较不同图像对关键点的位置,剔除相似的图像对,并在剩余的每一对图像对中,分别在左右图上提取关键点。
(3)将提取得到的关键点进行匹配,并去除误匹配的关键点对,保留所有图像对中正确匹配的关键点对。
(4)将步骤3中所有图像对中正确匹配的关键点对,通过平面分布和视差分布进行筛选,得到最终的关键点对集合。
(5)根据极线约束构造基本矩阵关于关键点对位置的代价函数,将经过步骤4筛选得到的最终的关键点对集合代入代价函数,所得代价之和为能量函数。
(6)优化基本矩阵的值,使能量函数最小,此时估计的基本矩阵为最终结果,将基本矩阵分解,即可得到相机之间的相对位姿。
2.根据权利要求1所述双目相机自标定方法,其特征在于,步骤1中剔除所述图像对中模糊和低纹理图像对,该方法具体为:通过尺寸为3×3或5×5的拉普拉斯算子对所述图像对卷积,得到拉普拉斯响应,再通过统计拉普拉斯响应中像素灰度值的方差和平均值,并设定方差阈值和平均值阈值,当方差小于方差阈值或平均值小于平均值阈值时,认为该图像对为模糊或者低纹理图像对,并进行剔除,其中,所述方差阈值设置为400~1000,平均值阈值设置为0~50。
3.根据权利要求1所述双目相机自标定方法,其特征在于,步骤2剔除相似的图像对,该方法具体为:根据图像对采集的时间顺序,在新采集到的图像对的左图中提取关键点,并与前一幅左图中的关键点匹配,判断匹配质量最好的前10%~30%关键点的平均距离是否小于阈值,若小于,则判定新采集到的图像对与上一对图像相似,进而去除。所述阈值的范围为5~20像素。
4.根据权利要求1所述双目相机自标定方法,其特征在于,步骤3去除误匹配的关键点对,该方法具体为:(1)通过设置关键点描述子间欧式距离的阈值,去除大于阈值的关键点对;(2)每一对关键点中,根据左图中关键点的坐标,再右图中画出一个长16~128像素,宽10~30像素的有效框,若右图中关键点落在框内,则该对关键点有效,否则无效。所述阈值为:当前所有匹配关键点对的欧式距离中最大和最小之和的0.1~0.5倍。
5.根据权利要求1所述双目相机自标定方法,其特征在于,步骤4平面分布筛选的过程具体为:在左图中规定每一个区域的关键点面密度,将步骤3中保留所有图像对中正确匹配的关键点对,取左图中的关键点填入每个区域,若某区域关键点面密度超过规定关键点面密度,则对落在该区域内的关键点所对应的关键点对的描述子的欧式距离排序,去掉欧式距离最高的若干关键点对;不断叠加新图像对的关键点对,直到所有区域关键点面密度与规定面密度相等。
6.根据权利要求5所述双目相机自标定方法,其特征在于,规定每一个区域的关键点面密度时,将图像对非均匀地将划分成矩形网格区域,且中心区域网格面积小于边缘区域网格面积。
7.根据权力要求1所述双目相机自标定方法,其特征在于,步骤4视差分布筛选的过程具体为:设定整个视差范围内每一个视差区间内的关键点对数量,若某视差区间内关键点对数量超过规定关键点对数量,对落在该区域内的关键点所对应的关键点对的描述的子欧式距离排序,去掉欧式距离最高的若干关键点对;不断叠加新的图像对的关键点对,直到所有视差区间内关键点数量与规定关键点数量相等。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911092140.5A CN110838148B (zh) | 2019-11-11 | 2019-11-11 | 一种双目相机自标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911092140.5A CN110838148B (zh) | 2019-11-11 | 2019-11-11 | 一种双目相机自标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110838148A true CN110838148A (zh) | 2020-02-25 |
CN110838148B CN110838148B (zh) | 2023-05-05 |
Family
ID=69575085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911092140.5A Active CN110838148B (zh) | 2019-11-11 | 2019-11-11 | 一种双目相机自标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110838148B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113554714A (zh) * | 2021-07-22 | 2021-10-26 | 元橡科技(苏州)有限公司 | 车载双目立体相机自校正方法及其系统、fpga芯片 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050286757A1 (en) * | 2004-06-28 | 2005-12-29 | Microsoft Corporation | Color segmentation-based stereo 3D reconstruction system and process |
CN103868460A (zh) * | 2014-03-13 | 2014-06-18 | 桂林电子科技大学 | 基于视差优化算法的双目立体视觉自动测量方法 |
US20180108150A1 (en) * | 2016-10-17 | 2018-04-19 | Dsi Assignments, Llc | Systems and methods for in-field stereocamera calibration |
CN108682039A (zh) * | 2018-04-28 | 2018-10-19 | 国网山西省电力公司电力科学研究院 | 一种双目立体视觉测量方法 |
CN110232738A (zh) * | 2019-06-18 | 2019-09-13 | 西安电子科技大学 | 基于视差图和关键点的多视图遥感图像立体重构方法 |
CN110288659A (zh) * | 2019-05-27 | 2019-09-27 | 魏运 | 一种基于双目视觉的深度成像及信息获取方法 |
-
2019
- 2019-11-11 CN CN201911092140.5A patent/CN110838148B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050286757A1 (en) * | 2004-06-28 | 2005-12-29 | Microsoft Corporation | Color segmentation-based stereo 3D reconstruction system and process |
CN103868460A (zh) * | 2014-03-13 | 2014-06-18 | 桂林电子科技大学 | 基于视差优化算法的双目立体视觉自动测量方法 |
US20180108150A1 (en) * | 2016-10-17 | 2018-04-19 | Dsi Assignments, Llc | Systems and methods for in-field stereocamera calibration |
CN108682039A (zh) * | 2018-04-28 | 2018-10-19 | 国网山西省电力公司电力科学研究院 | 一种双目立体视觉测量方法 |
CN110288659A (zh) * | 2019-05-27 | 2019-09-27 | 魏运 | 一种基于双目视觉的深度成像及信息获取方法 |
CN110232738A (zh) * | 2019-06-18 | 2019-09-13 | 西安电子科技大学 | 基于视差图和关键点的多视图遥感图像立体重构方法 |
Non-Patent Citations (1)
Title |
---|
HUBING LI ET AL: "Unconstrained self-calibration of stereo camera on visually impaired assistance devices" * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113554714A (zh) * | 2021-07-22 | 2021-10-26 | 元橡科技(苏州)有限公司 | 车载双目立体相机自校正方法及其系统、fpga芯片 |
Also Published As
Publication number | Publication date |
---|---|
CN110838148B (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112070818B (zh) | 基于机器视觉的机器人无序抓取方法和系统及存储介质 | |
CN106709950B (zh) | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 | |
DE102015005267B4 (de) | Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung | |
CN109636732A (zh) | 一种深度图像的空洞修复方法以及图像处理装置 | |
CN108010123B (zh) | 一种保留拓扑信息的三维点云获取方法 | |
CN111028295A (zh) | 一种基于编码结构光和双目的3d成像方法 | |
CN109345502B (zh) | 一种基于视差图立体结构信息提取的立体图像质量评价方法 | |
CN109242959B (zh) | 三维场景重建方法及系统 | |
DE102013113490A1 (de) | Verfahren und System zum Schätzen einer Lage einer Kamera | |
CN107507277A (zh) | 三维点云重构方法和装置、服务器及可读存储介质 | |
CN102704215A (zh) | 基于dst文件解析与机器视觉结合的绣布自动切割方法 | |
CN109992809A (zh) | 一种建筑模型的构建方法、装置及存储装置 | |
CN109064505A (zh) | 一种基于滑动窗口张量提取的深度估计方法 | |
CN111340749A (zh) | 图像质量的检测方法、装置、设备及存储介质 | |
CN110807763A (zh) | 一种陶瓦表面鼓包检测方法及系统 | |
CN103077398A (zh) | 基于嵌入式的自然环境下家畜群体数目监测方法 | |
CN114998445A (zh) | 一种图像稀疏点立体匹配方法 | |
CN115082777A (zh) | 基于双目视觉的水下动态鱼类形态测量方法及装置 | |
CN110838148B (zh) | 一种双目相机自标定方法 | |
CN110223356A (zh) | 一种基于能量生长的单目相机全自动标定方法 | |
CN115108466A (zh) | 一种集装箱吊具智能定位的方法 | |
CN116823895A (zh) | 基于可变模板的rgb-d相机多视角匹配的数字图像计算方法及系统 | |
CN115661187B (zh) | 用于中药制剂分析的图像增强方法 | |
CN110942102A (zh) | 一种概率松弛核线匹配方法及系统 | |
CN116596987A (zh) | 一种基于双目视觉的工件三维尺寸高精度测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |