CN103112015A - 一种适用于工业机器人的操作物位置姿态识别方法 - Google Patents

一种适用于工业机器人的操作物位置姿态识别方法 Download PDF

Info

Publication number
CN103112015A
CN103112015A CN2013100342269A CN201310034226A CN103112015A CN 103112015 A CN103112015 A CN 103112015A CN 2013100342269 A CN2013100342269 A CN 2013100342269A CN 201310034226 A CN201310034226 A CN 201310034226A CN 103112015 A CN103112015 A CN 103112015A
Authority
CN
China
Prior art keywords
image
operating article
industrial robot
right camera
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100342269A
Other languages
English (en)
Other versions
CN103112015B (zh
Inventor
王振利
鲁守银
赵玉良
吕曦晨
李健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Intelligent Technology Co Ltd
Original Assignee
State Grid Corp of China SGCC
Electric Power Research Institute of State Grid Shandong Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Corp of China SGCC, Electric Power Research Institute of State Grid Shandong Electric Power Co Ltd filed Critical State Grid Corp of China SGCC
Priority to CN201310034226.9A priority Critical patent/CN103112015B/zh
Publication of CN103112015A publication Critical patent/CN103112015A/zh
Application granted granted Critical
Publication of CN103112015B publication Critical patent/CN103112015B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种适用于工业机器人的操作物位置姿态识别方法,该方法可以应用于基于位置的视觉伺服系统中,实时为系统提供操作物的位置和姿态信息,方法运算时间短,精度高,能适应室内室外等不同光照条件,为工业机器人在非结构化环境内的使用提供技术支撑。其步骤如下:步骤1,初始化操作,将左右相机和操作物初始进行标定,然后利用左右相机获取图像数据;步骤2,利用图像采集过程中前后两帧图像的对运动的操作物进行跟踪;步骤3,通过卡尔曼滤波平滑前后两帧图像中操作物跟踪窗口的变化;步骤4,采用图像数据降维方式,从而降低数据处理的维数;步骤5,计算操作物的立体位置和姿态,并将数据反馈给机器人伺服控制系统实现伺服控制。

Description

一种适用于工业机器人的操作物位置姿态识别方法
技术领域
本发明涉及一种适用于工业机器人的操作物位置姿态识别方法,属于工业机器人领域。
背景技术
目前,工业机器人主要应用于结构化环境中,采用试教再现方式完成相应的功能,即首先由人工导引机器人末端执行器使机器人完成预期的动作,机器人将该动作序列进行存储,然后机器人凭记忆不断重复该动作,完成作业功能。为使机器人能够胜任复杂的非结构化环境中的工作,不但要有更好的控制系统,还需要更多地感知环境的变化。其中机器人视觉以其信息量大、信息完整成为最重要的机器人感知功能,因此机器人视觉伺服系统应运而生。
视觉伺服系统按照摄像机的数目的不同,可分为单目视觉伺服系统、双目视觉伺服系统以及多目视觉伺服系统;按照摄像机放置位置的不同,可以分为手眼系统和固定摄像机系统;按照系统反馈控制量的不同,视觉伺服系统分为基于位置的视觉伺服系统和基于图像的视觉伺服系统。目前,国内外对该领域的相应研究相对较少,且主要集中在基于图像的单目手眼系统,其中主要研究成果包括:
国家知识产权局2011年10月15日公开的专利号为201020685635.7的“基于视觉伺服的移动机器人精确定位云台系统”发明中公开了一种基于视觉伺服的移动机器人精确定位云台系统,该发明为典型的基于图像的视觉伺服系统,发明通过单目相机获取图像,通过相应的算法提取图像特征,并与模板图像比较,实现伺服功能。
国家知识产权局2005年3月30公告的专利号为CN200410067328.1的“焊接机器人伺服双目视觉传感器”发明中公开了一种应用于焊接机器人的双目视觉传感器,该发明为典型的基于位置的视觉伺服系统,发明采用双目视觉算法实现操作物的三维信息的获取,将该位置信息反馈机器人系统实现伺服功能。
上述研究都取得了一定程度上的有益效果,但仍存在如下问题:
“基于视觉伺服的移动机器人精确定位云台系统”中由于采用单目相机,只能获取操作物的二维信息,无法获取深度信息,控制精度不高。
“焊接机器人伺服双目视觉传感器”中由于双目算法的复杂度较高,算法运算时间长,无法实现机器人系统的实时控制。
发明内容
本发明的目的在于解决上述问题,提供一种适用于工业机器人的操作物位置姿态识别方法,该方法可以应用于基于位置的视觉伺服系统中,采用双目立体相机,通过立体视觉算法、目标跟踪算法、卡尔曼滤波算法,实时为系统提供操作物的位置和姿态信息,方法运算时间短,精度高,能适应室内室外等不同光照条件,为工业机器人在非结构化环境内的使用提供技术支撑。
为实现上述目的,本发明采用如下技术方案:
一种适用于工业机器人的操作物位置姿态识别方法,步骤如下:
步骤1,初始化操作,将左右相机和操作物初始进行标定,然后利用左右相机获取图像数据;
步骤2,利用图像采集过程中前后两帧图像的对运动的操作物进行跟踪;
步骤3,通过卡尔曼滤波平滑前后两帧图像中操作物跟踪窗口的变化;
步骤4,采用图像数据降维方式,将双目相机采集的整幅图像的立体视觉数据即位置和姿态数据限定在步骤3的跟踪窗内进行处理,从而降低数据处理的维数;
步骤5,计算操作物的立体位置和姿态,并将数据反馈给机器人伺服控制系统实现伺服控制。
所述步骤1中,左右相机图像采集频率应大于每秒8帧;
所述左右相机的标定包括左右相机的内参标定和左右相机相对位置的标定,其中左右相机内参的畸变校正;左右相机相对位置标定为确定左右相机的相对位置;
所述操作物初始位置标定为人工在左相机采集到的图像中对操作物初始位置进行标定。
所述步骤2中,跟踪过程为:
2-1)在前一帧图像中初始化操作物跟踪窗;
2-2)计算跟踪窗内图像的颜色概率分布;
2-3)运用均值漂移算法,获得图像中操作物新的大小和位置;
2-4)在后一帧视频图像中用2-3)中的值重新初始化跟踪窗的大小和位置,再跳转到2-2)继续进行。
所述跟踪窗为图像中的包含操作物的矩形区域,初始位置由步骤1中所述操作物初始位置标定操作来确定。
所述颜色概率分布为所述均值漂移算法的输入数据,其主要实现过程如下:
1)首先将图像从RGB空间转换到HSV空间;
2)然后对其中的H分量作统计直方图,直方图数据代表了不同H分量值在图像中出现的概率;
3)将图像中每个像素的值用其H分量出现的概率替换,就得到了颜色概率分布。
所述均值漂移算法是一种密度函数梯度估计的非参数方法,该算法通过迭代寻优找到概率分布的极值来定位目标,其实现过程如下:
a在图像颜色概率分布中选取跟踪窗;
b计算跟踪窗内图像零阶距M00、一阶距M10,M01和跟踪窗质心,其中I(x,y)为图像方程,x为图像横坐标,y为图像纵坐标,(xc,yc)为跟踪窗质心;
M 00 = Σ x Σ y I ( x , y ) , M 10 = Σ x Σ y xI ( x , y ) , M 01 = Σ x Σ y yI ( x , y ) ,
xc=M10/M00,yc=M01/M00
c调整跟踪窗大小,调整后宽度为长度为1.2s;
d移动跟踪窗的中心到质心,如果移动距离大于预设的固定阈值,则重复b、c和d,直到跟踪窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算。
所述步骤5中,计算操作物位置和姿态的过程为:
5-1)图像校正;
5-2)位差图获取;
5-3)三维点云获取;
5-4)操作物位置姿态获取。
所述步骤5-1)中,图像校正是通过步骤1中获取的左右相机的内参和左右相机的相对位置关系,对左右相机获取的图像进行畸变校正和双目校正,其中畸变校正用于消除相机自身存在的畸变,而双目校正的就是要把消除畸变后的两幅图像严格地行对应,使得两幅图像的极线恰好在同一水平线上,这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,在所述步骤2中只需在该行进行一维搜索即可匹配到对应点。
所述步骤5-2)位差图获取是在所述步骤5-1)所得的校正后的左右图像中的相同行中进行匹配点搜索;匹配点搜索是在规定匹配窗口内采用平方和距离方法搜索相应的匹配点,其原理公式如下,其中g1为左图像方程;g2为右图像方程;g1(r,c)为左图像在坐标(r,c)位置的灰度值;g2(r,c)为右图像在坐标(r,c)位置的灰度值;规定匹配窗口宽度为2m+1,高度为2n+1,m和n取3,5,7,9,11;d为位差,即左右图像中匹配点的像素距离,其取值范围为0到图像宽度;s为位差函数;s(r,c,d)为左图像中在坐标(r,c)位置不同位差d情况下的值;
s ( r , c , d ) = Σ x = - m m Σ y = - n n | g 1 ( r + x , c + y ) - g 2 ( r + x , c + y + d ) |
位差函数s取得最小值时的位差d即为在坐标(r,c)下的位差,遍历整幅图像即可得到位差图。所述步骤5-3)三维点云获取是通过左右相机的内参和位差图,获取图像中各点三维坐标信息进行计算;所述操作物位置姿态获取即通过三维点云信息获取操作物的位置和姿态,其中位置通过计算三维点云的重心得到,位置使用三维点云中与重心距离最远的点与重心间的矢量表示为操作物的位姿。
本发明的有益效果包括:
1、本发明采用采用双目立体相机可以实现操作物的三维坐标信息的获取,三维信息的获取将极高控制算法的智能型,提高伺服控制精度。
2、本发明采用移动目标跟踪算法,对大数据量的图像信息进行降维处理,减轻了立体视觉算法的负担,提高算法处理速度,保证算法的实时性应用。
3、本发明采用卡尔曼滤波平滑前后两帧图像中操作物跟踪窗口的变化,消除操作物跟踪过程中出现的误跟踪的情况,提高跟踪的准确性。
附图说明
图1是一种适用于工业机器人的操作物位置姿态识别方法流程图;
图2是操作物跟踪算法流程图;
图3是立体视觉算法流程是图。
具体实施方式
下面结合附图与实施例对本发明做进一步说明。
参考图1,一种适用于工业机器人的操作物位置姿态识别方法,其包括五个步骤:初始化操作、操作物跟踪、卡尔曼滤波、图像数据降维、立体视觉获取位置姿态。
步骤1:初始化操作
初始化操作主要包括:图像数据的采集、双目相机的标定、操作物初始位置标定。
所述图像数据采集为分别实时采集左右相机的图像,为保证方法的实时性,其采集频率应大于每秒8帧。
所述双目相机的标定包括左右相机的内参标定和左右相机相对位置的标定,其中左右相机内参的标定主要用于消除相机本身存在的畸变,提高算法精度;左右相机相对位置标定主要确定左右相机的相对位置,为后续立体视觉算法提供基础。
所述操作物初始位置标定为人工在左相机采集到的图像中对操作物初始位置进行标定。
步骤2:操作物跟踪
参考图2,所述操作物跟踪是利用图像采集过程中的前后两帧图像的相关信息实现运动操作物的跟踪,其过程如下:
(1)在前一帧图像中初始化操作物跟踪窗
(2)计算跟踪窗内图像的颜色概率分布
(3)运用均值漂移算法,获得图像中操作物新的大小和位置。
(4)在后一帧视频图像中用(3)中的值重新初始化跟踪窗的大小和位置,再跳转到(2)继续进行。
所述操作物跟踪窗即为图像中的包含操作物的矩形区域,初始位置由所述步骤1中所述操作物初始位置标定操作来确定。
所述颜色概率分布为所述均值漂移算法的输入数据,其主要实现过程如下所示:
1)首先将图像从RGB空间转换到HSV空间;
2)然后对其中的H分量作统计直方图,直方图数据代表了不同H分量值在图像中出现的概率;
3)将图像中每个像素的值用其H分量出现的概率替换,就得到了颜色概率分布。
所述均值漂移算法是一种密度函数梯度估计的非参数方法,该算法通过迭代寻优找到概率分布的极值来定位目标。其实现过程如下所示:
1)在图像颜色概率分布中选取跟踪窗
2)计算跟踪窗内图像零阶距M00、一阶距M10,M01和跟踪窗质心,其中I(x,y)为图像方程,x为图像横坐标,y为图像纵坐标,(xc,yc)为跟踪窗质心,xc,yc分别为跟踪窗质心坐标的横坐标和纵坐标;
M 00 = Σ x Σ y I ( x , y ) , M 10 = Σ x Σ y xI ( x , y ) , M 01 = Σ x Σ y yI ( x , y ) ,
xc=M10/M00,yc=M01/M00
3)调整跟踪窗大小,调整后宽度为
Figure BDA00002787118700054
长度为1.2s;
4)移动跟踪窗的中心到质心,如果移动距离大于预设的固定阈值,则重复2)、3)和4),直到跟踪窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算。
步骤3:卡尔曼滤波
所述卡尔曼滤波是一种高效率的递归滤波器,它能够从一系列的不完全及包含噪声的测量中,估计动态系统的状态,其具体实现方式可参考1960年Transactions of the ASME-Journal of Basic Engineering中发表的《A New Approach to Linear Filtering andPrediction Problems》。
通过卡尔曼滤波可以平滑前后两帧图像中操作物跟踪窗口的变化,消除所述步骤2操作物跟踪过程中出现的误跟踪的情况,提高跟踪的准确性。
步骤4:图像数据降维
对双目相机采集的整幅图像做立体视觉算法,算法运算量大,运算时间长,无法达到实时处理的效果。
所述图像数据降维是将处理数据限制在所述步骤3得到的跟踪窗内,降低数据处理的维数,提高运算速度,使其满足实时处理的要求。
步骤5:立体视觉获取位置姿态
参考图3,所述立体视觉获取位置姿态是通过立体视觉算法对步骤4得到的降维图像数据进行处理,得到操作物的位置和姿态,将此数据反馈给机器人伺服控制系统实现伺服控制。
其主要实现过程如下所示:
(1)图像校正
(2)位差图获取
(3)三维点云获取
(4)操作物位置姿态获取
所述图像校正是通过步骤1中获取的左右相机的内参和左右相机的相对位置关系,对左右相机获取的图像进行畸变校正和双目校正,其中畸变校正用于消除相机自身存在的畸变,而双目校正的作用就是要把消除畸变后的两幅图像严格地行对应,使得两幅图像的极线恰好在同一水平线上,这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,在所述步骤2中只需在该行进行一维搜索即可匹配到对应点。
所述位差图获取是在所述步骤1所得的校正后的左右图像中的相同行中进行匹配点搜索。
所述匹配点搜索算法是在规定匹配窗口内采用平方和距离方法搜索相应的匹配点,其原理公式如下,其中g1为左图像方程;g2为右图像方程;g1(r,c)为左图像在坐标(r,c)位置的灰度值;g2(r,c)为右图像在坐标(r,c)位置的灰度值;规定匹配窗口宽度为2m+1,高度为2n+1,m和n可取3,5,7,9,11;d为位差,即左右图像中匹配点的像素距离,其取值范围为0到图像宽度;s为位差函数;s(r,c,d)为左图像中在坐标(r,c)位置不同位差d情况下的值。
s ( r , c , d ) = Σ x = - m m Σ y = - n n | g 1 ( r + x , c + y ) - g 2 ( r + x , c + y + d ) |
位差函数s取得最小值时的位差d即为在坐标(r,c)下的位差,遍历整幅图像即可得到位差图。
所述三维点云获取是通过左右相机的内参和位差图,获取图像中各点三维坐标信息,其具体原理可参考2009年7月光子学报发表的《基于双目立体视觉实现物体三维测量的研究》。
所述操作物位置姿态获取即通过三维点云信息获取操作物的位置和姿态,其中位置通过计算三维点云的重心得到,位置使用三维点云中与重心距离最远的点与重心间的矢量表示为操作物的位姿。

Claims (10)

1.一种适用于工业机器人的操作物位置姿态识别方法,其特征是,步骤如下:
步骤1,初始化操作,将左右相机和操作物初始进行标定,然后利用左右相机获取图像数据;
步骤2,利用图像采集过程中前后两帧图像的对运动的操作物进行跟踪;
步骤3,通过卡尔曼滤波平滑前后两帧图像中操作物跟踪窗口的变化;
步骤4,采用图像数据降维方式,将双目相机采集的整幅图像的立体视觉数据即位置和姿态数据限定在步骤3的跟踪窗内进行处理,从而降低数据处理的维数;
步骤5,计算操作物的立体位置和姿态,并将数据反馈给机器人伺服控制系统实现伺服控制。
2.如权利要求1所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述步骤1中,左右相机图像采集频率应大于每秒8帧;
所述左右相机的标定包括左右相机的内参标定和左右相机相对位置的标定,其中左右相机内参的畸变校正;左右相机相对位置标定为确定左右相机的相对位置;
所述操作物初始位置标定为人工在左相机采集到的图像中对操作物初始位置进行标定。
3.如权利要求1所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述步骤2中,跟踪过程为:
2-1)在前一帧图像中初始化操作物跟踪窗;
2-2)计算跟踪窗内图像的颜色概率分布;
2-3)运用均值漂移算法,获得图像中操作物新的大小和位置;
2-4)在后一帧视频图像中用2-3)中的值重新初始化跟踪窗的大小和位置,再跳转到2-2)继续进行。
4.如权利要求3所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述跟踪窗为图像中的包含操作物的矩形区域,初始位置由步骤1中所述操作物初始位置标定操作来确定。
5.如权利要求3所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述颜色概率分布为所述均值漂移算法的输入数据,其主要实现过程如下:
1)首先将图像从RGB空间转换到HSV空间;
2)然后对其中的H分量作统计直方图,直方图数据代表了不同H分量值在图像中出现的概率;
3)将图像中每个像素的值用其H分量出现的概率替换,就得到了颜色概率分布。
6.如权利要求3所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述均值漂移算法是一种密度函数梯度估计的非参数方法,该算法通过迭代寻优找到概率分布的极值来定位目标,其实现过程如下:
a在图像颜色概率分布中选取跟踪窗;
b计算跟踪窗内图像零阶距M00、一阶距M10,M01和跟踪窗质心,其中I(x,y)为图像方程,x为图像横坐标,y为图像纵坐标,(xc,yc)为跟踪窗质心;
M 00 = Σ x Σ y I ( x , y ) , M 10 = Σ x Σ y xI ( x , y ) , M 01 = Σ x Σ y yI ( x , y ) ,
xc=M10/M00,yc=M01/M00
c调整跟踪窗大小,调整后宽度为长度为1.2s;
d移动跟踪窗的中心到质心,如果移动距离大于预设的固定阈值,则重复b、c和d,直到跟踪窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算。
7.如权利要求1所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述步骤5中,计算操作物位置和姿态的过程为:
5-1)图像校正;
5-2)位差图获取;
5-3)三维点云获取;
5-4)操作物位置姿态获取。
8.如权利要求7所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述步骤5-1)中,图像校正是通过步骤1中获取的左右相机的内参和左右相机的相对位置关系,对左右相机获取的图像进行畸变校正和双目校正,其中畸变校正用于消除相机自身存在的畸变,而双目校正的就是要把消除畸变后的两幅图像严格地行对应,使得两幅图像的极线恰好在同一水平线上,这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,在所述步骤2中只需在该行进行一维搜索即可匹配到对应点。
9.如权利要求7所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述步骤5-2)位差图获取是在所述步骤5-1)所得的校正后的左右图像中的相同行中进行匹配点搜索;匹配点搜索是在规定匹配窗口内采用平方和距离方法搜索相应的匹配点,其原理公式如下,其中g1为左图像方程;g2为右图像方程;g1(r,c)为左图像在坐标(r,c)位置的灰度值;g2(r,c)为右图像在坐标(r,c)位置的灰度值;规定匹配窗口宽度为2m+1,高度为2n+1,m和n取3,5,7,9,11;d为位差,即左右图像中匹配点的像素距离,其取值范围为0到图像宽度;s为位差函数;s(r,c,d)为左图像中在坐标(r,c)位置不同位差d情况下的值;
s ( r , c , d ) = Σ x = - m m Σ y = - n n | g 1 ( r + x , c + y ) - g 2 ( r + x , c + y + d ) |
位差函数s取得最小值时的位差d即为在坐标(r,c)下的位差,遍历整幅图像即可得到位差图。
10.如权利要求7所述的适用于工业机器人的操作物位置姿态识别方法,其特征是,所述步骤5-3)三维点云获取是通过左右相机的内参和位差图,获取图像中各点三维坐标信息进行计算;所述操作物位置姿态获取即通过三维点云信息获取操作物的位置和姿态,其中位置通过计算三维点云的重心得到,位置使用三维点云中与重心距离最远的点与重心间的矢量表示为操作物的位姿。
CN201310034226.9A 2013-01-29 2013-01-29 一种适用于工业机器人的操作物位置姿态识别方法 Active CN103112015B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310034226.9A CN103112015B (zh) 2013-01-29 2013-01-29 一种适用于工业机器人的操作物位置姿态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310034226.9A CN103112015B (zh) 2013-01-29 2013-01-29 一种适用于工业机器人的操作物位置姿态识别方法

Publications (2)

Publication Number Publication Date
CN103112015A true CN103112015A (zh) 2013-05-22
CN103112015B CN103112015B (zh) 2015-03-04

Family

ID=48410433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310034226.9A Active CN103112015B (zh) 2013-01-29 2013-01-29 一种适用于工业机器人的操作物位置姿态识别方法

Country Status (1)

Country Link
CN (1) CN103112015B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104842362A (zh) * 2015-06-18 2015-08-19 厦门理工学院 一种机器人抓取物料包的方法和机器人抓取装置
CN105513074A (zh) * 2015-06-17 2016-04-20 电子科技大学 一种羽毛球机器人相机标定方法
CN105869166A (zh) * 2016-03-29 2016-08-17 北方工业大学 一种基于双目视觉的人体动作识别方法及系统
CN105957106A (zh) * 2016-04-26 2016-09-21 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN107403451A (zh) * 2017-06-16 2017-11-28 西安电子科技大学 自适应二值特征单目视觉里程计方法及计算机、机器人
CN107631960A (zh) * 2017-08-18 2018-01-26 浙江海洋大学 海洋物质输移扩散系数ccd自动监测实验装置及其监测方法
CN108513414A (zh) * 2018-03-26 2018-09-07 中国地质大学(武汉) 一种焦点自跟踪的舞台追光灯系统及方法
CN109878926A (zh) * 2019-04-17 2019-06-14 上海振华重工(集团)股份有限公司 集装箱固定锁钮的定位方法及装置
CN111121744A (zh) * 2018-10-30 2020-05-08 千寻位置网络有限公司 基于传感单元的定位方法及装置、定位系统及移动终端
CN112905824A (zh) * 2021-02-08 2021-06-04 智慧眼科技股份有限公司 目标车辆追踪方法、装置、计算机设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101187990A (zh) * 2007-12-14 2008-05-28 华南理工大学 一种会话机器人系统
US20090059033A1 (en) * 2007-08-30 2009-03-05 Honda Motor Co., Ltd. Camera exposure controller
CN101402199A (zh) * 2008-10-20 2009-04-08 北京理工大学 基于视觉的手眼式低伺服精度机器人移动目标抓取方法
CN101447021A (zh) * 2008-12-30 2009-06-03 爱德威软件开发(上海)有限公司 人脸快速识别系统及其识别方法
CN101623867A (zh) * 2008-07-11 2010-01-13 中国科学院沈阳自动化研究所 一种使机器人高精度跟踪指定路径的设备和方法
CN101733746A (zh) * 2009-12-22 2010-06-16 哈尔滨工业大学 空间机器人非合作目标自主识别与捕获方法
US20100174409A1 (en) * 2009-01-07 2010-07-08 Samsung Electronics Co., Ltd. Robot slip detection apparatus and method
CN101872423A (zh) * 2010-05-27 2010-10-27 天津大学 一种生产线上运动目标追踪方法
CN102184401A (zh) * 2011-04-29 2011-09-14 苏州两江科技有限公司 一种人脸特征提取方法
CN102750708A (zh) * 2012-05-11 2012-10-24 天津大学 基于快速鲁棒特征匹配的仿射运动目标跟踪算法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090059033A1 (en) * 2007-08-30 2009-03-05 Honda Motor Co., Ltd. Camera exposure controller
CN101187990A (zh) * 2007-12-14 2008-05-28 华南理工大学 一种会话机器人系统
CN101623867A (zh) * 2008-07-11 2010-01-13 中国科学院沈阳自动化研究所 一种使机器人高精度跟踪指定路径的设备和方法
CN101402199A (zh) * 2008-10-20 2009-04-08 北京理工大学 基于视觉的手眼式低伺服精度机器人移动目标抓取方法
CN101447021A (zh) * 2008-12-30 2009-06-03 爱德威软件开发(上海)有限公司 人脸快速识别系统及其识别方法
US20100174409A1 (en) * 2009-01-07 2010-07-08 Samsung Electronics Co., Ltd. Robot slip detection apparatus and method
CN101733746A (zh) * 2009-12-22 2010-06-16 哈尔滨工业大学 空间机器人非合作目标自主识别与捕获方法
CN101872423A (zh) * 2010-05-27 2010-10-27 天津大学 一种生产线上运动目标追踪方法
CN102184401A (zh) * 2011-04-29 2011-09-14 苏州两江科技有限公司 一种人脸特征提取方法
CN102750708A (zh) * 2012-05-11 2012-10-24 天津大学 基于快速鲁棒特征匹配的仿射运动目标跟踪算法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513074A (zh) * 2015-06-17 2016-04-20 电子科技大学 一种羽毛球机器人相机标定方法
CN105513074B (zh) * 2015-06-17 2018-12-11 电子科技大学 一种羽毛球机器人相机以及车身到世界坐标系的标定方法
CN104842362A (zh) * 2015-06-18 2015-08-19 厦门理工学院 一种机器人抓取物料包的方法和机器人抓取装置
CN105869166B (zh) * 2016-03-29 2018-07-10 北方工业大学 一种基于双目视觉的人体动作识别方法及系统
CN105869166A (zh) * 2016-03-29 2016-08-17 北方工业大学 一种基于双目视觉的人体动作识别方法及系统
CN105957106A (zh) * 2016-04-26 2016-09-21 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN105957106B (zh) * 2016-04-26 2019-02-22 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN107403451A (zh) * 2017-06-16 2017-11-28 西安电子科技大学 自适应二值特征单目视觉里程计方法及计算机、机器人
CN107403451B (zh) * 2017-06-16 2020-11-10 西安电子科技大学 自适应二值特征单目视觉里程计方法及计算机、机器人
CN107631960A (zh) * 2017-08-18 2018-01-26 浙江海洋大学 海洋物质输移扩散系数ccd自动监测实验装置及其监测方法
CN108513414A (zh) * 2018-03-26 2018-09-07 中国地质大学(武汉) 一种焦点自跟踪的舞台追光灯系统及方法
CN108513414B (zh) * 2018-03-26 2023-12-19 中国地质大学(武汉) 一种焦点自跟踪的舞台追光灯系统及方法
CN111121744A (zh) * 2018-10-30 2020-05-08 千寻位置网络有限公司 基于传感单元的定位方法及装置、定位系统及移动终端
CN109878926A (zh) * 2019-04-17 2019-06-14 上海振华重工(集团)股份有限公司 集装箱固定锁钮的定位方法及装置
CN112905824A (zh) * 2021-02-08 2021-06-04 智慧眼科技股份有限公司 目标车辆追踪方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN103112015B (zh) 2015-03-04

Similar Documents

Publication Publication Date Title
CN103112015B (zh) 一种适用于工业机器人的操作物位置姿态识别方法
Vidal et al. Ultimate SLAM? Combining events, images, and IMU for robust visual SLAM in HDR and high-speed scenarios
CN106780601B (zh) 一种空间位置追踪方法、装置及智能设备
KR101913168B1 (ko) 에고모션 추정 시스템 및 방법
CN108469823B (zh) 一种基于单应性的移动机器人编队跟随方法
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN108235725B (zh) 基于云端的轨迹地图生成方法、装置、设备及应用程序
CN106940704A (zh) 一种基于栅格地图的定位方法及装置
CN106887037B (zh) 一种基于gpu和深度相机的室内三维重建方法
CN108600620B (zh) 一种基于电液可调焦镜头的移动机器人的目标跟踪方法
CN109102525A (zh) 一种基于自适应位姿估计的移动机器人跟随控制方法
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN104408408A (zh) 基于曲线三维重建的机器人喷涂轨迹提取方法及提取装置
WO2024027647A1 (zh) 机器人控制方法、系统和计算机程序产品
CN110163963B (zh) 一种基于slam的建图装置和建图方法
CN105261039B (zh) 一种基于深度图像的自适应调整目标跟踪算法
Lee et al. Mav visual slam with plane constraint
CN105196292A (zh) 一种基于迭代变时长视觉伺服控制方法
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
CN112288815B (zh) 一种目标模位置测量方法、系统、存储介质及设备
CN103729860A (zh) 一种图像目标跟踪的方法和装置
CN113848931A (zh) 农机自动驾驶障碍物识别方法、系统、设备和存储介质
CN111862236A (zh) 定焦双目相机自标定方法及系统
Ericson et al. Analysis of two visual odometry systems for use in an agricultural field environment
Vidal et al. Hybrid, frame and event based visual inertial odometry for robust, autonomous navigation of quadrotors

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 250002, No. 1, South Second Ring Road, Shizhong District, Shandong, Ji'nan

Co-patentee after: State Grid Corporation of China

Patentee after: Electric Power Research Institute of State Grid Shandong Electric Power Company

Address before: 250002, No. 1, South Second Ring Road, Shizhong District, Shandong, Ji'nan

Co-patentee before: State Grid Corporation of China

Patentee before: Electric Power Research Institute of Shandong Electric Power Corporation

CP01 Change in the name or title of a patent holder
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20130522

Assignee: National Network Intelligent Technology Co., Ltd.

Assignor: Electric Power Research Institute of State Grid Shandong Electric Power Company

Contract record no.: X2019370000006

Denomination of invention: Operating object position and posture recognition method applicable to industrial robot

Granted publication date: 20150304

License type: Exclusive License

Record date: 20191014

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201102

Address after: 250101 Electric Power Intelligent Robot Production Project 101 in Jinan City, Shandong Province, South of Feiyue Avenue and East of No. 26 Road (ICT Industrial Park)

Patentee after: National Network Intelligent Technology Co.,Ltd.

Address before: 250002, No. 1, South Second Ring Road, Shizhong District, Shandong, Ji'nan

Patentee before: ELECTRIC POWER RESEARCH INSTITUTE OF STATE GRID SHANDONG ELECTRIC POWER Co.

Patentee before: STATE GRID CORPORATION OF CHINA

EC01 Cancellation of recordation of patent licensing contract
EC01 Cancellation of recordation of patent licensing contract

Assignee: National Network Intelligent Technology Co.,Ltd.

Assignor: ELECTRIC POWER RESEARCH INSTITUTE OF STATE GRID SHANDONG ELECTRIC POWER Co.

Contract record no.: X2019370000006

Date of cancellation: 20210324