CN108090418A - 一种工业环境下工业机器人分层式定位方法 - Google Patents
一种工业环境下工业机器人分层式定位方法 Download PDFInfo
- Publication number
- CN108090418A CN108090418A CN201711227931.5A CN201711227931A CN108090418A CN 108090418 A CN108090418 A CN 108090418A CN 201711227931 A CN201711227931 A CN 201711227931A CN 108090418 A CN108090418 A CN 108090418A
- Authority
- CN
- China
- Prior art keywords
- point
- interest point
- interest
- pair
- point pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Abstract
本发明涉及一种工业环境下工业机器人分层式定位方法,属于物体定位领域。包含如下步骤:S1:根据双目视觉系统采集需定位物体的图像信息;S2:物体的图像信息,采用MeanShift算法进行初步处理,切割出目标图片信息;S3:针对目标图片信息,使用改进后SURF算法对目标区域进行兴趣点对的匹配以及筛选;S4:根据匹配和筛选出的兴趣点对,利用三角形测量算法计算出点位的三维坐标,精确定位物体三维坐标。本发明针对工业机器人进行抓取物品操作时定位耗时长,精度低问题提出了一种新的分层式目标物体定位方法,避免了无关点对整体结果的影响,提高了整体匹配精度,加快了整体匹配速度。
Description
技术领域
本发明属于物体定位领域,涉及一种工业环境下工业机器人分层式定位方法。
背景技术
随着工业化的普及,人们对工业机器人性能要求越来越高。在过去二十年,工业机器人已经广泛应用于烟包码垛,物流分类,工业生产等多个工业环境自主操作任务,而拾取和放置操作是工业机器人的主要任务之一。工业机器人抓取方法通常采用的是预先描点再重复操作,这种方式鲁棒性差,不能应对工业上的一些突发情况且工作形势单一,对所抓取物品摆放位置精度要求很高,限制了工业机器人在工业中的柔性运用。视觉传感器的引入有效的提高了工业机器人抓取鲁棒性,能及时反馈物体信息及其三维坐标。借助视觉系统的工业机器人不需要对工业机器人进行离线编程,可节约大量的编程时间,提高生产效率和系统柔性程度,进一步提升工业机器人的加工效率。
发明内容
有鉴于此,本发明的目的在于提供一种工业环境下工业机器人分层式定位方法,针对工业机器人进行抓取物品操作时定位耗时长,精度低问题提出了一种新的分层式目标物体定位方法。
为达到上述目的,本发明提供如下技术方案:
一种工业环境下工业机器人分层式定位方法,包含如下步骤:
S1:根据双目视觉系统采集需定位物体的图像信息;
S2:物体的图像信息,采用MeanShift算法进行初步处理,切割出目标图片信息;
S3:针对目标图片信息,使用改进后SURF算法对目标区域进行兴趣点对的匹配以及筛选;
S4:根据匹配和筛选出的兴趣点对,利用三角形测量算法计算出点位的三维坐标,精确定位物体三维坐标。
进一步,步骤S2具体为:
S21:通过MeanShift向量与渐变协调将x朝向x=x+Δx的方向移动点,经过多次迭代之后满足平均向量指向数据最密集点mh(x),
其中,fh,G(x)为标准密度梯度估计为梯度密度的估计概率,mh,G(x)为标准密度的数据最密集点,h为MeanShift算法所选高斯球半径,c为MeanShift算法所选单位球体的体积;
S22:给定一个初始点x,核函数G(x),容许误差ε,MeanShift算法循环执行如下步骤:
S221:计算mh(x);
S222:把mh(x)值赋予x;
S223:若‖mh(x)-x‖<ε则结束,若‖mh(x)-x‖≥ε则执行S21。
进一步,步骤S3包含如下步骤:
S31:根据特征描述符的最邻近距离将兴趣点对进行升序排列得到两个点集,左图像P={P1,P2,P3,…,Pn}和右图像P′={P′1,P′2,P′3,…,P′n},其中Pn、P′n表示匹配的兴趣点对,n为兴趣点数;
S32:对兴趣点进行距离、角度参数检验。
进一步,步骤S32具体为:
S321:在左图像和右图像中,设Pi、P′i点为基准点,其中i∈{1,2,3,…,n},其余兴趣点到基准点的所有欧式距离记为dim={di1,di2,di3,…,din}和d′im={d′i1,d′i2,d′i3,…,d′in},其中m为第m个兴趣点到基准点的欧式距离,若|dim-d′im|<λ,λ为预设距离阈值,则判定兴趣点对Pm与P′m为距离不变;
S322:计算左图像点Pm到基准点Pi连线向量与右图像P′m到点P′i连线向量之间的夹角α,满足,α<θ,其中θ为预设角度阈值,则判定兴趣点对Pm与P′m为角度不变;
S323:对兴趣点对进行距离和角度特征匹配参数的一致性检验,若同时满足两个匹配条件,则判定该兴趣点对为正确的兴趣点对,否则作为错误的兴趣点对。
进一步,所述基准点Pi随机选取,对于任一兴趣点对的筛选做重复率设置,若兴趣点对与任意随机的基准点Pi累积参考不少于3次且均满足判定条件,则判断该兴趣点对是正确的。
进一步,步骤S4包含如下步骤:
S41:建立以双目视觉系统中的左相机为原点O1的坐标系,根据公式:
计算出正确的兴趣点对的三维坐标,其中,X,Y,Z兴趣点三维坐标,f为双目视觉系统的左右摄像头的焦距,b为基线距离,(u0,v0)为主光轴与左图像平面的交点,(u1,v1)为左成像平面的图像坐标,(u2,v2)为右成像平面的图像坐标;
S42:对各个正确的兴趣点对进行三维坐标的计算,并汇总各个兴趣点的三维坐标,还原物体的三维坐标。
本发明的有益效果在于:针对工业机器人进行抓取物品操作时定位耗时长,精度低问题提出了一种新的分层式目标物体定位方法。采用MeanShift算法将目标物体图像分割,对图像进行一些无关物体的剔除,避免了无关点对整体结果的影响。针对分割后的图像运用改进SURF算法对目标区域进行特征点匹配,较SURF算法而言再次减少了无关点的错误匹配。提高了整体匹配精度,加快了整体匹配速度。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明的系统流程图;
图2为改进SURF算法原理图;
图3为三角形测量原理图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
在工业环境中,针对工业机器人进行抓取物品操作时定位耗时长,精度低问题,提出一种融合MeanShift算法和改进SURF算法的分层式定位方法,快速精确地定位物体。首先根据双目视觉系统采集的目标物体图片信息,采用MeanShift算法进行初步处理,切割出目标图片信息;然后利用改进后SURF算法对目标区域进行特征点对的匹配以及筛选;最后将匹配好的特征点对进行三角形测量原理处理,获得物体三维坐标。
如图1所示,为本发明的系统框图,该方法根据双目视觉系统采集的目标物体图片信息,采用MeanShift算法进行初步处理,切割出目标图片信息;然后利用改进后SURF算法对目标区域进行特征点对的匹配以及筛选;最后将匹配好的特征点对进行三角形测量原理处理,精确定位物体三维坐标。
具体包含如下步骤:
S1:根据双目视觉系统采集的需定位物体图像信息;
S2:步骤S11得到的需定位物体图像信息,采用MeanShift算法进行初步处理,切割出目标图片信息;
S3:步骤S12得到的切割后的目标图片信息,使用改进后SURF算法对目标区域进行特征点对的匹配以及筛选;
S4:步骤S13得到的多组特征匹配点对,利用三角形测量算法计算出点位的三维坐标,精确定位物体三维坐标。
步骤S2包含如下步骤:
S21:MeanShift向量与渐变协调将x朝向x=x+Δx的方向移动点,经过多次迭代之后到达。平均向量将指向数据最密集点mh(x),
其中,fh,G(x)为标准密度梯度估计,为梯度密度的估计概率,mh,G(x)为标准密度的数据最密集点,h为MeanShift算法所选高斯球半径,c为MeanShift算法所选单位球体的体积;梯度的方向是根据变化的方向随着概率密度的变化。
S22:给定一个初始点x,核函数G(x),容许误差ε,MeanShift算法循环的执行下面三步,直至结束条件满足。
(1).计算mh(x);
(2).把mh(x)赋给x;
(3).如果‖mh(x)-x‖<ε,结束循环,否则,继续执行步骤S21所示式子。
上面循环的目的就是向概率密度的梯度方向不停地移动,其中步长与该点的概率密度以及梯度的大小有关。在密度大的地方,由于接近概率密度的峰值,移动的步长小一些,相反,在密度小的地方,移动的步长就大一些。在满足一定条件下,会收敛到该点附近的峰值。
使用改进后SURF算法对目标区域进行特征点对的匹配以及筛选,使用SURF算法对左右两张图片进行特征匹配,再对匹配结果分别进行本专利提出的距离判别和角度判别筛选,得到正确率高的特征点对。
SURF算法原理:
SURF算法是一种检测局部特征的方法,其包括检测器和描述符。检测器是用于搜索图像并找到兴趣点,描述符是用来确定点的特征并构建特征数组。SURF算法是在SIFT算法的基础上进行改进的,基于积分图像的特征描述子,具有较好的可靠性、可区分性和鲁棒性。
运用积分图像特征检测器的高斯导数提取兴趣点,将该方法所提取的兴趣点作为中心正方形区域。这个区域分为4×4方格网格,每网格内有5×5个规则间隔的采样点。对于每个网格,Haar小波响应dx和dy由这些间隔的5×5个采样点计算,然后将小波响应dx和dy相加以形成4-D向量V,
V=(∑dx,∑dy,∑d|x|,∑d|y|)
连接这个为所有4×4网格形成64-D描述符向量。
如图2所示,为本发明中改进SURF算法原理图:
距离判别法:
将SURF算法得到的匹配点对作为初匹配点对,根据特征描述符的最邻近距离将这些初匹配点对进行一个升序排列得到两个点集,左图像P={P1,P2,P3,…,Pn}和右图像P′={P′1,P′2,P′3,…,P′n}。其中Pi和P′i被上述SURF算法认为是匹配的兴趣点对,n为兴趣点对数,i∈{1,2,3,…,n}。在判断每个兴趣点匹配精准与否时,最邻近的兴趣点参考价值最大,所以下面对兴趣点进行距离参数的检验。
在左图像和右图像中,设Pi和P′i点为基准点,其余兴趣点到基准点的所有欧式距离,分别记为dim={di1,di2,di3,…,din}和d′im={d′i1,d′i2,d′i3,…,d′in},若dim和d′im差值小于预设值λ,则认为特征点对Pm和P′m具有距离不变性。
角度判别法:
角度匹配参数的一致性检验需计算左图像中匹配点Pm与基准点Pi连线向量与右图像中匹配点P′m与基准点P′i连线向量之间的夹角α是否小于预设阈值θ。若α小于预设阈值θ,则认为特征点对Pm与P′m具有角度不变特性。
使用该方法对SURF算法得到的初匹配点对进行距离和角度特征匹配参数的一致性检验。若同时满足两个匹配参数,则判定该兴趣点是正确的特征点,否则作为错误的匹配点对,除去不做参考。
由于基准点Pi是随机取的,对于任一点的筛选需做一个重复率设置。若点与任意随机的基准点Pi累积参考过3次且均匹配成功,则将其筛选出不进行下一步的筛选。三次均满足上述|dim-d′im|<λ和α<θ,则判断该匹配点对是正确的,否则作为错误的匹配点对处理不进入下一步计算。
如图3所示,为本发明中的三角形定位算法。上述的改进SURF算法先对特征点对进行匹配,然后将特征点对进行三角形算法的计算,获得每个特征点的三维坐标。再针对各特征点的三维坐标进行处理,计算汇总坐标,得到目标物体的三维信息。
步骤S4包含:
S41:在各设左相机O1为原点坐标系,可知点P(X,Y,Z),如附图3所示,两摄像头的焦距均为f,基线距离为b,空间场景点为P,在左右成像平面的图像坐标分别为P1(u1,v1)和P2(u2,v2),投影中心为O1和O2;主光轴与左图像平面相交于主点(u0,v0),
根据上述算法所得到的特征点对,运用上式可算出各个特征点的三维坐标。
S42:运用上述步骤S41所述方法,对各个正确的兴趣点对进行三维坐标的计算,并汇总各个兴趣点的三维坐标,还原物体的三维坐标。
最后说明的是,以上优选实施例仅用以说明发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (6)
1.一种工业环境下工业机器人分层式定位方法,其特征在于:包含如下步骤:
S1:根据双目视觉系统采集需定位物体的图像信息;
S2:物体的图像信息,采用MeanShift算法进行初步处理,切割出目标图片信息;
S3:针对目标图片信息,使用改进后SURF算法对目标区域进行兴趣点对的匹配以及筛选;
S4:根据匹配和筛选出的兴趣点对,利用三角形测量算法计算出点位的三维坐标,精确定位物体三维坐标。
2.根据权利要求1所述的一种工业环境下工业机器人分层式定位方法,其特征在于:步骤S2具体为:
S21:通过MeanShift向量与渐变协调将x朝向x=x+Δx的方向移动点,经过多次迭代之后满足平均向量指向数据最密集点mh(x),
<mrow>
<msub>
<mi>m</mi>
<mrow>
<mi>h</mi>
<mo>,</mo>
<mi>G</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msup>
<mi>h</mi>
<mn>2</mn>
</msup>
<mi>c</mi>
<mfrac>
<mrow>
<mover>
<mo>&dtri;</mo>
<mo>^</mo>
</mover>
<msub>
<mi>f</mi>
<mrow>
<mi>h</mi>
<mo>,</mo>
<mi>G</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>h</mi>
<mo>,</mo>
<mi>G</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,fh,G(x)为标准密度梯度估计,为梯度密度的估计概率,mh,G(x)为标准密度的数据最密集点,h为MeanShift算法所选高斯球半径,c为MeanShift算法所选单位球体的体积;
S22:给定一个初始点x,核函数G(x),容许误差ε,MeanShift算法循环执行如下步骤:
S221:计算mh(x);
S222:把mh(x)值赋予x;
S223:若‖mh(x)-x‖<ε则结束,若‖mh(x)-x‖≥ε则执行S21。
3.根据权利要求2所述的一种工业环境下工业机器人分层式定位方法,其特征在于:步骤S3包含如下步骤:
S31:根据特征描述符的最邻近距离将兴趣点对进行升序排列得到两个点集,左图像P={P1,P2,P3,…,Pn}和右图像P′={P′1,P′2,P′3,…,P′n},其中Pn、P′n表示匹配的第n对兴趣点对,n为兴趣点对数;
S32:对兴趣点对进行距离、角度参数检验。
4.根据权利要求3所述的一种工业环境下工业机器人分层式定位方法,其特征在于:步骤S32具体为:
S321:在左图像和右图像中,设Pi、P′i点为基准点,其中i∈{1,2,3,…,n},其余兴趣点对到基准点的所有欧式距离分别记为dim={di1,di2,di3,…,din}和d′im={d′i1,d′i2,d′i3,…,d′in},其中m为第m个兴趣点对分别到对应基准点的欧式距离,若|dim-d′im|<λ,λ为预设距离阈值,则判定兴趣点对Pm与P′m为距离不变;
S322:计算左图像点Pm到基准点Pi连线向量与右图像P′m到点P′i连线向量之间的夹角α,满足,α<θ,其中θ为预设角度阈值,则判定兴趣点对Pm与P′m为角度不变;
S323:对兴趣点对进行距离和角度特征匹配参数的一致性检验,若同时满足两个匹配条件,则判定该兴趣点对为正确的兴趣点对,否则作为错误的兴趣点对。
5.根据权利要求4所述的一种工业环境下工业机器人分层式定位方法,其特征在于:所述基准点Pi随机选取,对于任一兴趣点对的筛选做重复率设置,若兴趣点对与任意随机的基准点Pi累积参考不少于3次且均满足判定条件,则判断该兴趣点对是正确的。
6.根据权利要求4所述的一种工业环境下工业机器人分层式定位方法,其特征在于:步骤S4包含如下步骤:
S41:建立以双目视觉系统中的左相机为原点O1的坐标系,根据公式:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mi>X</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>b</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>2</mn>
</msub>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>Y</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>b</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>v</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>2</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>Z</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>b</mi>
<mi>f</mi>
</mrow>
<mrow>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>u</mi>
<mn>2</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
计算出正确的兴趣点对的三维坐标,其中,X,Y,Z是兴趣点对所对应实际点的三维坐标,f为双目视觉系统的左右摄像头的焦距,b为基线距离,(u0,v0)为主光轴与左图像平面的交点,(u1,v1)为左成像平面的图像坐标,(u2,v2)为右成像平面的图像坐标;
S42:对各个正确的兴趣点对进行三维坐标的计算,并汇总各个兴趣点对所对应实际点的三维坐标,还原物体的三维坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711227931.5A CN108090418A (zh) | 2017-11-29 | 2017-11-29 | 一种工业环境下工业机器人分层式定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711227931.5A CN108090418A (zh) | 2017-11-29 | 2017-11-29 | 一种工业环境下工业机器人分层式定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108090418A true CN108090418A (zh) | 2018-05-29 |
Family
ID=62172429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711227931.5A Pending CN108090418A (zh) | 2017-11-29 | 2017-11-29 | 一种工业环境下工业机器人分层式定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108090418A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102117487A (zh) * | 2011-02-25 | 2011-07-06 | 南京大学 | 一种针对视频运动目标的尺度方向自适应Mean-shift跟踪方法 |
CN102679937A (zh) * | 2011-03-17 | 2012-09-19 | 镇江亿海软件有限公司 | 基于多目视觉的船舶钢板动态三维测量方法 |
CN103093479A (zh) * | 2013-03-01 | 2013-05-08 | 杭州电子科技大学 | 一种基于双目视觉的目标定位方法 |
CN104915957A (zh) * | 2015-05-29 | 2015-09-16 | 何再兴 | 一种提高工业机器人三维视觉识别精度的匹配矫正方法 |
CN105844616A (zh) * | 2016-03-17 | 2016-08-10 | 湖南优象科技有限公司 | 激光散射斑点辅助下的双目立体匹配算法与装置 |
-
2017
- 2017-11-29 CN CN201711227931.5A patent/CN108090418A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102117487A (zh) * | 2011-02-25 | 2011-07-06 | 南京大学 | 一种针对视频运动目标的尺度方向自适应Mean-shift跟踪方法 |
CN102679937A (zh) * | 2011-03-17 | 2012-09-19 | 镇江亿海软件有限公司 | 基于多目视觉的船舶钢板动态三维测量方法 |
CN103093479A (zh) * | 2013-03-01 | 2013-05-08 | 杭州电子科技大学 | 一种基于双目视觉的目标定位方法 |
CN104915957A (zh) * | 2015-05-29 | 2015-09-16 | 何再兴 | 一种提高工业机器人三维视觉识别精度的匹配矫正方法 |
CN105844616A (zh) * | 2016-03-17 | 2016-08-10 | 湖南优象科技有限公司 | 激光散射斑点辅助下的双目立体匹配算法与装置 |
Non-Patent Citations (5)
Title |
---|
ZHIHENG ZHOU ET AL: "SURF FEATURE DETECTION METHOD USED IN OBJECT TRACKING", 《PROCEEDINGS OF THE 2013 INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND CYBERNTICS》 * |
包旭 等: "基于改进 Mean Shift和 SURF 的目标跟踪", 《计算机工程与应用》 * |
孟琭: "《计算机视觉原理与应用》", 30 November 2011, 东北大学出版社 * |
韩峰 等: "一种改进SURF算法的视觉定位", 《电光与控制》 * |
韩峰 等: "基于改进SURF算法的双目视觉定位", 《电视技术》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11668571B2 (en) | Simultaneous localization and mapping (SLAM) using dual event cameras | |
CN109685141B (zh) | 一种基于深度神经网络的机器人物品分拣视觉检测方法 | |
CN104573614B (zh) | 用于跟踪人脸的设备和方法 | |
Sodhi et al. | In-field segmentation and identification of plant structures using 3D imaging | |
CN112070818A (zh) | 基于机器视觉的机器人无序抓取方法和系统及存储介质 | |
CN112836734A (zh) | 一种异源数据融合方法及装置、存储介质 | |
US20150317821A1 (en) | Geodesic Distance Based Primitive Segmentation and Fitting for 3D Modeling of Non-Rigid Objects from 2D Images | |
WO2018145291A1 (en) | System and method for real-time location tracking of drone | |
CN112419429B (zh) | 一种基于多视角的大型工件表面缺陷检测标定方法 | |
Sansoni et al. | Optoranger: A 3D pattern matching method for bin picking applications | |
Mateo et al. | Visual perception for the 3D recognition of geometric pieces in robotic manipulation | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
KR101460313B1 (ko) | 시각 특징과 기하 정보를 이용한 로봇의 위치 추정 장치 및 방법 | |
Muñoz et al. | Fast 6D pose from a single RGB image using Cascaded Forests Templates | |
CN111598172B (zh) | 基于异构深度网络融合的动态目标抓取姿态快速检测方法 | |
CN111127556A (zh) | 基于3d视觉的目标物体识别和位姿估算方法以及装置 | |
Kallasi et al. | Computer vision in underwater environments: A multiscale graph segmentation approach | |
US11350078B2 (en) | 3D pose detection by multiple 2D cameras | |
Liu et al. | Deep-learning based robust edge detection for point pair feature-based pose estimation with multiple edge appearance models | |
Kim et al. | Structured light camera base 3D visual perception and tracking application system with robot grasping task | |
CN108090418A (zh) | 一种工业环境下工业机器人分层式定位方法 | |
Arbeiter et al. | Efficient segmentation and surface classification of range images | |
Ali et al. | Segmentation and pose estimation of planar metallic objects | |
Ling et al. | Aircraft pose estimation based on mathematical morphological algorithm and Radon transform | |
Chen et al. | A High Reliability 3D Object Tracking Method for Robot Teaching Application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180529 |
|
RJ01 | Rejection of invention patent application after publication |