CN105844616A - 激光散射斑点辅助下的双目立体匹配算法与装置 - Google Patents
激光散射斑点辅助下的双目立体匹配算法与装置 Download PDFInfo
- Publication number
- CN105844616A CN105844616A CN201610153485.7A CN201610153485A CN105844616A CN 105844616 A CN105844616 A CN 105844616A CN 201610153485 A CN201610153485 A CN 201610153485A CN 105844616 A CN105844616 A CN 105844616A
- Authority
- CN
- China
- Prior art keywords
- characteristic point
- point
- characteristic
- coupling
- pyramid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
本发明提出了一种激光散射斑点辅助下的双目立体匹配算法与装置,在左右视角2个摄像机中间增加一个激光器装置,给目标增加了激光散射斑点,使得本来没有纹理或纹理稀疏的目标区域变成丰富的纹理区域,然后通过基于特征点匹配的算法得到立体匹配结果。在得到特征点匹配的初步结果后,本发明还提出一种邻近点距离和角度约束条件对结果进行筛选,有效的减少误匹配的数目,显著提高匹配的正确率。本发明采用的装置简单,成本较低,算法复杂度小,拥有很好的实用价值。
Description
技术领域
本发明涉及计算机视觉领域处理技术,特别涉及一种激光散射斑点辅助下的双目立体匹配算法与装置。
背景技术
双目立体匹配是指从左右视角2个摄像机拍摄同一场景的两幅图像中找出匹配点对,进而求出原始场景的深度信息。双目立体视觉在机器人导航、数字化医学、三维测量和虚拟现实等领域都有广泛的应用,是计算机视觉领域的重要问题之一。
目前立体匹配方法主要分为两类:基于局部约束的算法和基于全局约束的算法。基于局部约束的算法只使用兴趣点周围的局部信息,因此计算复杂度较低,但容易受噪声的影响,对纹理稀疏区域的匹配效果不理想,代表方法有特征匹配法、区域匹配法。基于全局约束的算法是对扫描线或整个图像数据的信息进行约束,建立匹配能量函数,再通过各种方法求得能量函数的极值。这类算法由于是全局寻优,所以匹配准确度较高,但求解过程较为复杂,时间消耗较多,代表方法有动态规划法、图割法。
发明内容
针对现有技术存在的技术问题,本发明的目的是提供一种激光散射斑点辅助下的双目立体匹配算法与装置。
为实现上述技术目的,本发明采用的技术方案是:
一种激光散射斑点辅助下的双目立体匹配算法,包括以下步骤:
S1.激光散射斑点辅助下的双目立体匹配装置
激光散射斑点辅助下的双目立体匹配装置包括左右两个摄像机以及设置在左右两个摄像机之间的红外激光器,所述红外激光器的前方设置有一块毛玻璃,红外激光器对准目标射出准直后的激光束,通过毛玻璃进行散射,从而在目标表面得到所需的散斑图案。;两个摄像机都对着目标进行拍摄的,拍摄的图像包括目标以及目标表面的散斑图案。其中:红外激光器为kinect红外激光器。为了让散斑图案分别的更加均匀,将kinect红外激光器放置在左右两个摄像机之间的靠中间的位置,但不严格要求在正中间,通过这样的装置,可以使得拍摄的左右视图均具有丰富的纹理信息,然后通过基于下面的特征点匹配的算法得到立体匹配结果。
S2.通过左右两个摄像机拍摄左右两个视角的图像分别记为左视图和右视图;
S3.通过图像金字塔和分区域Harris角点检测分别提取左、右视图的特征点;
首先对左视图进行特征点提取,方法如下:对左视图进行金字塔处理,得到3层金字塔图像,然后分别对这3层金字塔图像进行分区域的Harris角点检测,得到3个特征点集合,然后将3个特征点集合进行合并,得到最终的特征点集合D1;
采用与左视图同样的方式对右视图进行特征点提取,得到右视图的特征点集合D2;
S4.采用二进制特征描述子对每个特征点进行描述,得到一个128维的比特字符串即该特征点对应的特征向量;
S5.通过特征向量的最近邻距离比进行匹配,得到初始的特征点的匹配集合;
S6.通过一种邻近点距离和角度约束条件对初始特征点匹配集合进行筛选,剔除不符合条件的匹配点对,得到最终的特征点匹配集合,即为立体匹配结果。
本发明的步骤S3中,对左视图进行金字塔处理,得到3层金字塔图像,其中:第1层金字塔对应原始图像,第2层金字塔为对第1层图像实施1/2的下采样所得,第3层金字塔为对第2层图像实施1/2的下采样所得。
本发明的步骤S3中,分别对3层金字塔图像进行分区域的Harris角点检测的具体方法是:首先将该层金字塔图像均匀分为多个子区域,在每个子区域中使用Harris角点检测算法进行特征点检测,如果检测出多个特征点,则选择角点响应值最大的特征点,如果没有检测出特征点,则选取子区域的中间点作为特征点,通过这种提取特征点的方法,每层金字塔图像的每个子区域都有一个特征点。
本发明的步骤S4的方法为:
在左视图中,选择特征点集合D1中的一特征点dot1,以特征点dot1为中心,半径为15的左视图图像区域作为该特征点dot1对应的图像区域,然后在特征点dot1对应的图像区域里随机选择两个点(图像区域中普通的图像点)组成一个点对(x,y),一共进行128次这样点对的随机选择,则得到128个点对(xi,yi),对每一个点对(x,y),有一个0或1的取值:
其中g(x)、g(y)分别是点x和y的强度值;
这样128个点对可以组成一个128维的比特字符串vec:
依照上面的方法,对左视图的特征点集合D1进行特征描述,左视图的特征点集合D1中的每一个特征点可以得到一个128维的二进制向量vec,记为该特征点对应的特征向量;
同理,对右视图的特征点集合D2进行特征描述,右视图的特征点集合D2中的每一个特征点可以得到一个128维的二进制向量vec,记为该特征点对应的特征向量。
本发明的步骤S5的方法为:通过最近距离比对两个特征点集合D1和D2进行特征匹配,共得到M对特征点匹配结果{(d1i,d2i)|d1i∈D1,d2i∈D2,i=1,…,M};其中d1i是D1中的特征点,d2i是D2中的特征点,i表示匹配的序号,一共有M对。
本发明的步骤S6中,假设(d11,d21)和(d12,d22)是匹配集合的距离较近的两个匹配对,则邻近点距离约束条件定义如下:
其中ε1是距离约束阈值,取值0.2;
点d11到d12的向量用α表示,点d21到d22的向量用β表示,则两个向量夹角的约束条件如下:
其中ε2是角度约束阈值,取值10度。
本发明的步骤S6的方法是:
S6.1任选匹配集合中的一个匹配对,计算它和近邻的10个匹配对的邻近点距离约束和角度约束,记录违反上述两种约束条件的次数作为该匹配对的错误率;
S6.2统计所有匹配对的错误率,如果每个匹配对的错误率都为0,则结束;否则将错误率最大的匹配对作为误匹配从匹配集合中剔除,再转到步骤S6.1;
当剔除所有误匹配后,匹配点对从开始的M对降低到N对,记新的匹配集合也即最终的立体匹配结果为{(d1i,d2i)|d1i∈D1,d2i∈D2,i=1,…,N},其中d1i是D1中的特征点,d2i是D2中的特征点,i表示匹配的序号,一共有N对。
本发明的有益技术效果:
对于现有的图像立体匹配方法,在全体像素上建立能量函数,导致求解过程非常耗时。本发明通过激光器装置,给目标增加了激光散射斑点,使得本来没有纹理或纹理稀疏的目标区域变成丰富的纹理区域,这种纹理丰富的目标图像可以采用算法复杂度较低的特征点匹配方法,大大提高计算效率。本发明在得到特征点匹配的初步结果后,还提出两种新的约束条件对结果进行筛选,有效的减少误匹配的数目,显著提高匹配的正确率。本发明采用的装置简单,成本较低,算法复杂度小,拥有很好的实用价值。
附图说明
图1是本发明激光散射斑点辅助下的双目立体匹配装置的原理示意图;
图2是本发明激光散射斑点辅助下的双目立体匹配算法的流程图;
具体实施方式
激光在散射体表面的漫反射或通过一个透明散射体(如毛玻璃)时,在散射表面或附近的光场中可以观察到一种无规分布的亮暗斑点,这种斑点称为激光散射斑点。利用这种装置可以使得本来没有纹理或纹理稀疏的区域变成丰富的纹理区域。
基于上述原理,本发明提供一种激光散射斑点辅助下的双目立体匹配装置,包括左右两个摄像机以及设置在左右两个摄像机之间的红外激光器,所述红外激光器的前方设置有一块毛玻璃,红外激光器对准目标射出准直后的激光束,通过毛玻璃进行散射,从而在目标表面得到所需的散斑图案。两个摄像机都对着目标进行拍摄的,拍摄的图像包括目标以及目标表面的散斑图案。
基于上面的激光散射斑点辅助下的双目立体匹配装置,可以使得拍摄的左右视图均具有丰富的纹理信息,然后通过本发明提供的激光散射斑点辅助下的双目立体匹配算法得到立体匹配结果。
激光散射斑点辅助下的双目立体匹配算法,包括以下步骤:
第一步.通过左右两个摄像机拍摄左右两个视角的图像分别记为左视图和右视图;
第二步.通过图像金字塔和分区域Harris角点检测分别提取左、右视图的特征点;
为了使特征点适应多尺度的需求,参考传统的图像金字塔思想,根据输入图像构造n层的金字塔图像(n取3),第1层金字塔对应原始图像,第2层金字塔为对第1层图像实施1/2的下采样所得,第3层金字塔为对第2层图像实施1/2的下采样所得。这样一幅图像可以得到3层金字塔图像,分别对这3层金字塔图像进行处理(即特征点提取),得到3个特征点集合,然后进行合并,得到最终的特征点集合。
在对每一层金字塔图像进行特征点提取时,为了使选取的特征点比较均匀地分布于图像之中,本发明首先将该图像均匀分为多个子区域,在每个区域中使用Harris角点检测算法进行特征点检测,如果检测出多个特征点,则选择角点响应值最大的特征点,如果没有检测出特征点,则选取子区域的中间点作为特征点。通过这种提取特征点的方法,图像的每个子区域都有一个特征点。
本步骤中,首先对左视图进行特征点提取,方法如下:对左视图进行金字塔处理,得到3层金字塔图像,然后分别对这3层金字塔图像进行分区域的Harris角点检测,得到3个特征点集合,然后进行合并,得到最终的特征点集合D1;
采用与左视图同样的方式对右视图进行特征点提取,得到右视图的特征点集合D2;
第三步,采用二进制特征描述子对每个特征点进行描述,得到一个128维的比特字符串即该特征点对应的特征向量;
以左视图为例,选择特征点集合D1中的一特征点dot1,以特征点dot1为中心,半径为15的左视图图像区域作为该特征点dot1对应的图像区域,然后在图像区域里随机选择两个点组成一个点对(x,y),一共进行128次,则得到128个点对(xi,yi),对每一个点对(x,y),有一个0或1的取值:
其中g(x)、g(y)分别是点x和y的强度值。
这样128个点对可以组成一个128维的比特字符串vec:
这样每一个特征点可以得到一个128维的二进制向量vec,记为该特征点对应的特征向量。一个128维的比特字符串vec长度仅为16字节,远低于同等维数下sift描述器的512字节。对于两个特征向量进行匹配时,采用汉明距离仅需计算两个特征向量对应位不同的数量,这样的匹配方式能够有效降低匹配的计算量、大大提高匹配的效率。
分别对左视图和右视图的特征点集合D1和D2进行特征描述,每一个特征点都会得到一个特征向量。
第四步、通过特征向量的最近邻距离比进行匹配,得到初始的特征点的匹配集合;
然后通过经典的特征匹配方法——最近距离比对两个特征点集合D1和D2进行特征匹配,共得到M对特征点匹配结果{(d1i,d2i)|d1i∈D1,d2i∈D2,i=1,…,M};其中d1i是D1中的特征点,d2i是D2中的特征点,i表示匹配的序号,一共有M对。
第五步、通过一种邻近点距离和角度约束条件对初始特征点匹配集合进行筛选,剔除不符合条件的匹配点对,得到最终的特征点匹配集合,即为立体匹配结果。
虽然最近邻距离比匹配策略较为严格,匹配正确率较高,但依然存在一些误匹配。为了剔除匹配集合中的误匹配对,本发明提出两种约束条件:邻近点距离拘束和角度约束,限制两个距离较近的特征点之间的距离变化和角度变换,使匹配集合中的每一个匹配对与其邻近的一些匹配对的相容性得到最大的满足。假设是(d11,d21)和(d12,d22)是匹配集合的距离较近的两个匹配对,则距离约束条件定义如下:
其中ε1是距离约束阈值,这里取值0.2。
点d11到d12的向量用α表示,点d21到d22的向量用β表示,则两个向量夹角的约束条件如下:
其中ε2是角度约束阈值,这里取值10度。
本步骤中筛选过程如下:
(1)任选匹配集合中的一个匹配对,计算它和近邻的10个匹配对的距离和角度约束,记录违反上述两种约束条件的次数作为该匹配对的错误率;
(2)统计所有匹配对的错误率,如果每个匹配对的错误率都为0,则算法结束;否则将错误率最大的匹配对作为误匹配从匹配集合中剔除,再转到步骤(1)。
通过这种距离和角度的约束,能够有效的剔除匹配集合中的误匹配,进一步提供匹配准确率。
当剔除所有误匹配后,匹配点对从开始的M对降低到N对,记新的匹配集合也即最终的立体匹配结果为{(d1i,d2i)|d1i∈D1,d2i∈D2,i=1,…,N},其中d1i是D1中的特征点,d2i是D2中的特征点,i表示匹配的序号,一共有N对。
以上包含了本发明优选实施例的说明,这是为了详细说明本发明的技术特征,并不是想要将发明内容限制在实施例所描述的具体形式中,依据本发明内容主旨进行的其他修改和变型也受本专利保护。本发明内容的主旨是由权利要求书所界定,而非由实施例的具体描述所界定。
Claims (8)
1.一种激光散射斑点辅助下的双目立体匹配算法,其特征在于:包括以下步骤:
S1.激光散射斑点辅助下的双目立体匹配装置
激光散射斑点辅助下的双目立体匹配装置包括左右两个摄像机以及设置在左右两个摄像机之间的红外激光器,所述红外激光器的前方设置有一块毛玻璃,红外激光器对准目标射出准直后的激光束,通过毛玻璃进行散射,从而在目标表面得到所需的散斑图案;两个摄像机都对着目标进行拍摄的,拍摄的图像包括目标以及目标表面的散斑图案;
S2.通过左右两个摄像机拍摄左右两个视角的图像分别记为左视图和右视图;
S3.通过图像金字塔和分区域Harris角点检测分别提取左、右视图的特征点;
首先对左视图进行特征点提取,方法如下:对左视图进行金字塔处理,得到3层金字塔图像,然后分别对这3层金字塔图像进行分区域的Harris角点检测,得到3个特征点集合,然后将3个特征点集合进行合并,得到最终的特征点集合D1;
采用与左视图同样的方式对右视图进行特征点提取,得到右视图的特征点集合D2;
S4.采用二进制特征描述子对每个特征点进行描述,得到一个128维的比特字符串即该特征点对应的特征向量;
S5.通过特征向量的最近邻距离比进行匹配,得到初始的特征点的匹配集合;
S6.通过一种邻近点距离和角度约束条件对初始特征点匹配集合进行筛选,剔除不符合条件的匹配点对,得到最终的特征点匹配集合,即为立体匹配结果。
2.根据权利要求1所述的激光散射斑点辅助下的双目立体匹配算法,其特征在于:步骤S3中,对左视图进行金字塔处理,得到3层金字塔图像,其中:第1层金字塔对应原始图像,第2层金字塔为对第1层图像实施1/2的下采样所得,第3层金字塔为对第2层图像实施1/2的下采样所得。
3.根据权利要求1或2所述的激光散射斑点辅助下的双目立体匹配算法,其特征在于:步骤S3中,分别对3层金字塔图像进行分区域的Harris角点检测的具体方法是:首先将该层金字塔图像均匀分为多个子区域,在每个子区域中使用Harris角点检测算法进行特征点检测,如果检测出多个特征点,则选择角点响应值最大的特征点,如果没有检测出特征点,则选取子区域的中间点作为特征点,通过这种提取特征点的方法,每层金字塔图像的每个子区域都有一个特征点。
4.根据权利要求1所述的激光散射斑点辅助下的双目立体匹配算法,其特征在于:步骤S4的方法为:
在左视图中,选择特征点集合D1中的一特征点dot1,以特征点dot1为中心,半径为15的左视图图像区域作为该特征点dot1对应的图像区域,然后在特征点dot1对应的图像区域里随机选择两个点组成一个点对(x,y),一共进行128次,则得到128个点对(xi,yi),对每一个点对(x,y),有一个0或1的取值:
其中g(x)、g(y)分别是点x和y的强度值;
这样128个点对可以组成一个128维的比特字符串vec:
依照上面的方法,对左视图的特征点集合D1进行特征描述,左视图的特征点集合D1中的每一个特征点可以得到一个128维的二进制向量vec,记为该特征点对应的特征向量;
同理,对右视图的特征点集合D2进行特征描述,右视图的特征点集合D2中的每一个特征点可以得到一个128维的二进制向量vec,记为该特征点对应的特征向量。
5.根据权利要求4所述的激光散射斑点辅助下的双目立体匹配算法,其特征在于:步骤S5的方法为:通过最近距离比对两个特征点集合D1和D2进行特征匹配,共得到M对特征点匹配结果{(d1i,d2i)|d1i∈D1,d2i∈D2,i=1,…,M};其中d1i是D1中的特征点,d2i是D2中的特征点,i表示匹配的序号,一共有M对。
6.根据权利要求5所述的激光散射斑点辅助下的双目立体匹配算法,其特征在于:步骤S6中,假设(d11,d21)和(d12,d22)是匹配集合的距离较近的两个匹配对,则邻近点距离约束条件定义如下:
其中ε1是距离约束阈值,取值0.2;
点d11到d12的向量用α表示,点d21到d22的向量用β表示,则两个向量夹角的约束条件如下:
其中ε2是角度约束阈值,取值10度。
7.根据权利要求6所述的激光散射斑点辅助下的双目立体匹配算法,其特征在于:步骤S6的方法是:
S6.1任选匹配集合中的一个匹配对,计算它和近邻的10个匹配对的邻近点距离约束和角度约束,记录违反上述两种约束条件的次数作为该匹配对的错误率;
S6.2统计所有匹配对的错误率,如果每个匹配对的错误率都为0,则结束;否则将错误率最大的匹配对作为误匹配从匹配集合中剔除,再转到步骤S6.1;
当剔除所有误匹配后,匹配点对从开始的M对降低到N对,记新的匹配集合也即最终的立体匹配结果为{(d1i,d2i)|d1i∈D1,d2i∈D2,i=1,…,N},其中d1i是D1中的特征点,d2i是D2中的特征点,i表示匹配的序号,一共有N对。
8.一种激光散射斑点辅助下的双目立体匹配装置,其特征在于:包括左右两个摄像机以及设置在左右两个摄像机之间的红外激光器,所述红外激光器的前方设置有一块毛玻璃,红外激光器对准目标射出准直后的激光束,通过毛玻璃进行散射,从而在目标表面得到所需的散斑图案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610153485.7A CN105844616B (zh) | 2016-03-17 | 2016-03-17 | 激光散射斑点辅助下的双目立体匹配算法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610153485.7A CN105844616B (zh) | 2016-03-17 | 2016-03-17 | 激光散射斑点辅助下的双目立体匹配算法与装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105844616A true CN105844616A (zh) | 2016-08-10 |
CN105844616B CN105844616B (zh) | 2019-06-11 |
Family
ID=56587435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610153485.7A Active CN105844616B (zh) | 2016-03-17 | 2016-03-17 | 激光散射斑点辅助下的双目立体匹配算法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105844616B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090418A (zh) * | 2017-11-29 | 2018-05-29 | 重庆邮电大学 | 一种工业环境下工业机器人分层式定位方法 |
CN109887022A (zh) * | 2019-02-25 | 2019-06-14 | 北京超维度计算科技有限公司 | 一种双目深度相机的特征点匹配方法 |
CN111028284A (zh) * | 2019-10-31 | 2020-04-17 | 浙江未来技术研究院(嘉兴) | 一种基于同名标记点的双目视觉立体匹配方法及装置 |
CN111630523A (zh) * | 2018-05-21 | 2020-09-04 | 华为技术有限公司 | 一种图像特征提取方法及装置 |
CN111753799A (zh) * | 2020-07-03 | 2020-10-09 | 深圳市目心智能科技有限公司 | 一种基于主动双目的视觉传感器及机器人 |
CN112130166A (zh) * | 2020-09-04 | 2020-12-25 | 江苏智库智能科技有限公司 | 基于反光板网络的agv定位方法及装置 |
CN113192113A (zh) * | 2021-04-30 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 双目视觉特征点匹配方法、系统、介质及电子设备 |
CN115205562A (zh) * | 2022-07-22 | 2022-10-18 | 四川云数赋智教育科技有限公司 | 一种基于特征点的任意试卷配准方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030091225A1 (en) * | 1999-08-25 | 2003-05-15 | Eastman Kodak Company | Method for forming a depth image from digital image data |
CN104167003A (zh) * | 2014-08-29 | 2014-11-26 | 福州大学 | 一种遥感影像的快速配准方法 |
CN105203044A (zh) * | 2015-05-27 | 2015-12-30 | 珠海真幻科技有限公司 | 以计算激光散斑为纹理的立体视觉三维测量方法及系统 |
-
2016
- 2016-03-17 CN CN201610153485.7A patent/CN105844616B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030091225A1 (en) * | 1999-08-25 | 2003-05-15 | Eastman Kodak Company | Method for forming a depth image from digital image data |
CN104167003A (zh) * | 2014-08-29 | 2014-11-26 | 福州大学 | 一种遥感影像的快速配准方法 |
CN105203044A (zh) * | 2015-05-27 | 2015-12-30 | 珠海真幻科技有限公司 | 以计算激光散斑为纹理的立体视觉三维测量方法及系统 |
Non-Patent Citations (7)
Title |
---|
WANG XIAOLI ETALS: "Characteristic Point Match Algorithm Based on the SURF in Binocular Stereo Vision", 《IEEE》 * |
孟琭: "《计算机视觉原理与应用》", 30 November 2011, 沈阳:东北大学出版社 * |
安如 等: "《遥感图像匹配方法研究》", 30 September 2006, 南京:河海大学出版社 * |
张茂峰 等: "基于区域划分的角点检测", 《计算机系统应用》 * |
懒人: "Kinect红外激光器拆解", 《SINA BLOG》 * |
李小红 等: "基于ORB特征的快速目标检测算法", 《电子测量与仪器学报》 * |
郭颖平 等: "一种基于角点特征的场景锁定新方法", 《舰船科学技术》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090418A (zh) * | 2017-11-29 | 2018-05-29 | 重庆邮电大学 | 一种工业环境下工业机器人分层式定位方法 |
CN111630523A (zh) * | 2018-05-21 | 2020-09-04 | 华为技术有限公司 | 一种图像特征提取方法及装置 |
CN109887022A (zh) * | 2019-02-25 | 2019-06-14 | 北京超维度计算科技有限公司 | 一种双目深度相机的特征点匹配方法 |
CN111028284A (zh) * | 2019-10-31 | 2020-04-17 | 浙江未来技术研究院(嘉兴) | 一种基于同名标记点的双目视觉立体匹配方法及装置 |
CN111753799A (zh) * | 2020-07-03 | 2020-10-09 | 深圳市目心智能科技有限公司 | 一种基于主动双目的视觉传感器及机器人 |
CN112130166A (zh) * | 2020-09-04 | 2020-12-25 | 江苏智库智能科技有限公司 | 基于反光板网络的agv定位方法及装置 |
CN112130166B (zh) * | 2020-09-04 | 2023-11-28 | 江苏智库智能科技有限公司 | 基于反光板网络的agv定位方法及装置 |
CN113192113A (zh) * | 2021-04-30 | 2021-07-30 | 山东产研信息与人工智能融合研究院有限公司 | 双目视觉特征点匹配方法、系统、介质及电子设备 |
CN113192113B (zh) * | 2021-04-30 | 2022-12-23 | 山东产研信息与人工智能融合研究院有限公司 | 双目视觉特征点匹配方法、系统、介质及电子设备 |
CN115205562A (zh) * | 2022-07-22 | 2022-10-18 | 四川云数赋智教育科技有限公司 | 一种基于特征点的任意试卷配准方法 |
CN115205562B (zh) * | 2022-07-22 | 2023-03-14 | 四川云数赋智教育科技有限公司 | 一种基于特征点的任意试卷配准方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105844616B (zh) | 2019-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105844616A (zh) | 激光散射斑点辅助下的双目立体匹配算法与装置 | |
Kim et al. | A dense stereo matching using two-pass dynamic programming with generalized ground control points | |
CN104463899B (zh) | 一种目标对象检测、监控方法及其装置 | |
US8406526B2 (en) | Two-dimensional code generation method, two-dimensional code, two-dimensional code recognition method, and image recognition device | |
CN104867135B (zh) | 一种基于指导图像引导的高精度立体匹配方法 | |
CN110175986B (zh) | 一种基于卷积神经网络的立体图像视觉显著性检测方法 | |
CN111046964B (zh) | 一种基于卷积神经网络的人和车辆红外热图像识别方法 | |
CN107680158A (zh) | 一种基于卷积神经网络模型的三维人脸重建方法 | |
CN105303615A (zh) | 一种图像二维拼接与三维表面重建的组合方法 | |
CN104680516B (zh) | 一种图像优质特征匹配集的获取方法 | |
JP2008537190A (ja) | 赤外線パターンを照射することによる対象物の三次元像の生成 | |
CN102834845A (zh) | 用于多摄像装置校准的方法与装置 | |
CN104182974B (zh) | 一种基于特征点进行图像匹配的加速方法 | |
CN104851127B (zh) | 一种基于交互的建筑物点云模型纹理映射方法及装置 | |
CN112907573B (zh) | 一种基于3d卷积的深度补全方法 | |
Santoši et al. | Evaluation of synthetically generated patterns for image-based 3D reconstruction of texture-less objects | |
CN103733225B (zh) | 特征点对等系统、特征点对等方法、以及记录介质 | |
CN113362251B (zh) | 基于双判别器与改进损失函数的对抗网络图像去雾方法 | |
US20020085747A1 (en) | Image processing apparatus and method, image capturing apparatus, and information provision medium | |
CN110929773A (zh) | 一种基于深度学习的芯片表面缺陷分类装置和方法 | |
US11360744B2 (en) | Two-dimensional data matching method, device and logic circuit | |
Min et al. | Inferring segmented dense motion layers using 5D tensor voting | |
Li et al. | High dynamic range 3D measurements based on space–time speckle correlation and color camera | |
Skuratovskyi et al. | Outdoor mapping framework: from images to 3d model | |
CN109801317A (zh) | 基于卷积神经网络进行特征提取的图像匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |