CN113592907A - 基于光流的视觉伺服跟踪方法及装置 - Google Patents

基于光流的视觉伺服跟踪方法及装置 Download PDF

Info

Publication number
CN113592907A
CN113592907A CN202110832720.4A CN202110832720A CN113592907A CN 113592907 A CN113592907 A CN 113592907A CN 202110832720 A CN202110832720 A CN 202110832720A CN 113592907 A CN113592907 A CN 113592907A
Authority
CN
China
Prior art keywords
image
gray
camera
speed
gray scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110832720.4A
Other languages
English (en)
Other versions
CN113592907B (zh
Inventor
陈新度
刘起阳
吴磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110832720.4A priority Critical patent/CN113592907B/zh
Publication of CN113592907A publication Critical patent/CN113592907A/zh
Application granted granted Critical
Publication of CN113592907B publication Critical patent/CN113592907B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及基于光流的视觉伺服跟踪方法,包括以下:步骤110、获取预设位置预处理后的第一图像作为灰度特征的期望图像;步骤120、获取其他不同于预设位置预处理后的第二图像;步骤130、计算所述第二图像与所述第一图像之间的灰度变化特征误差;步骤140、通过所述灰度变化特征误差计算机器人运动到预设位置所需的速度,本发明去除几何测量的提取以匹配和跟踪过程,为了实现这一目标,使用了可以考虑的最简单的特征:图像强度,利用光流的灰度匹配变化来代替常规的图像视觉伺服中使用特征像素坐标变化来进行视觉伺服的任务,解决了在视觉伺服过程中稳定性低、可靠性差的问题。

Description

基于光流的视觉伺服跟踪方法及装置
技术领域
本发明涉及机器视觉技术领域,尤其涉及基于光流的视觉伺服跟踪方法及装置。
背景技术
基于图像的视觉伺服,是直接利用图像特征来定义,参照图7,常见的图像特征有点特征,直线特征,圆特征等,其基本原理是利用期望图像和当前图像特征点像素坐标的误差信号计算出控制量,通过构建特征对应的图像雅可比矩阵,并将其变换到机器人工作空间中去,从而使机械手向目标运动,完成伺服任务,相当于把位姿估计变为控制图像的特征匹配问题,基于图像的视觉伺服系统的定位进度对于摄像机标定误差并不敏感,仅仅需要计算图像特征误差函数,与逆图像雅可比矩阵,相比于基于位置的视觉伺服具有较少的计算量,广泛应用于高速装配与抓取任务当中。
无论是使用点特征还是使用线特征来设计跟踪控制器,都要求有足够数量的相应特征,对于没有规则特征的目标物,进行跟踪控制则会出现较大困难,在运动过程中有时候因为相机的运动也可能导致图像中的特征点数量不足,而在利用结构光的跟踪问题时候,由于不同物体结构的多样性,不同的结构光形状需要不同的特征提取算法,大大降低了研发效率。对于不规则物体视觉伺服的特征使用困难,以及在跟踪过程中由于目标图像发生变化所导致的跟踪失败,一直有待解决。
有的方案将整个图像作为一个特征进行视觉伺服,也不需要匹配过程。该方案不直接利用图像的强度,而是通过特征空间分解对图像数据进行降维,然后在特征空间直接执行控制,而不是直接与图像强度。这需要离线计算这个特征空间(使用主成分分析),然后,对于每个新帧,得到图像在这个子空间上的投影。其次,与特征空间相关的交互矩阵不是解析计算的,而是在离线步骤中学习的。这种学习过程有两个缺点:必须对每个新对象进行学习,并且需要在不同的摄像机位置获取场景的许多图像。
发明内容
本发明的目的是为了至少解决现有技术的不足之一,提供基于光流的视觉伺服跟踪方法及装置。
为了实现上述目的,本发明采用以下的技术方案:
具体的,提出基于光流的视觉伺服跟踪方法,包括以下:
步骤110、获取预设位置预处理后的第一图像作为灰度特征的期望图像;
步骤120、初始化计算期望图像的雅可比矩阵与海塞矩阵;
步骤130、获取其他不同于预设位置预处理后的第二图像;
步骤140、计算所述第二图像与所述第一图像之间的灰度变化特征误差;
步骤150、通过所述灰度变化特征误差计算机器人运动到预设位置所需的速度;
定位过程:
重复上述步骤130至150,实时更新所述速度,直到所述灰度变化特征误差小于第一阈值,完成定位;
跟踪过程:
控制机器人沿选定方向前进,重复步骤130至150,判断所述灰度变化特征误差是否大于第二阈值,若是,则判断当前轨迹发生偏离,重复定位过程对机器人移动方向进行实时纠正,然后通过图像处理算法,提取当前帧图片与期望图片的灰度匹配特征判断是否结束跟踪任务,如果能够成功提取到特征,则循环以上过程,否则当经过图像处理算法,当前帧图片和期望图片灰度匹配,则结束跟踪任务,完成跟踪。
进一步,具体的,所述第一图像以及第二图像的获取过程,具体包括以下;
通过VideoCapture函数实例化摄像机捕获对象,使用open函数实现系统与摄像机的连接,再使用参数设置函数set函数设定工业摄像机采集图像的分辨率为原始大小1080×720,通过摄像机进行图像的获取;
使用OpenCV的cvtColor函数将原始三通道RGB图像转化为单通道灰度图像;
使用OpenCV的图像缩放resize函数将分辨率为1080×720的单通道灰度图像的大小缩放为320×240;
使用OpenCV的GaussianBlur滤波函数对图像进行平滑处理;
使用OpenCV的阈值处理threshold函数对图像进行二值化处理,最终得到预处理后的图像。
进一步,上述实时更新所述速度的过程具体包括以下,
假设第一图像的像素灰度为I(c),即
s(c)=I(c)=(I1*,I2*,I3*,…,In*)T
其中I(c)为n×m的向量,也就是当前灰度图像尺寸大小,In*为目标物图像的像素灰度值,I(d)为预期图像每个点的像素灰度值,记Jr为对应的灰度特征的图像雅可比矩阵,从而得到光流特征的运动速度控制律:
Figure BDA0003176123700000021
根据两个图像中同一物理点的灰度在时间上恒定不变,得到
I(x+dx,y+dy,t+dt)=I(x,y,t)
对上式进行一阶秦勒展开得到:
Figure BDA0003176123700000031
定义
Figure BDA0003176123700000032
分别为该点在图像坐标中的x,y方向的运动速度,
Figure BDA0003176123700000033
Figure BDA0003176123700000034
分别为该点在图像坐标中的x,y方向的灰度空间梯度,
Figure BDA0003176123700000035
为灰度随时间的变化速度,代入展开式得到:
Figure BDA0003176123700000036
根据普通图像雅可比的定义,图像坐标x,y的变化速率与相机变化速率的关系有:
Figure BDA0003176123700000037
在结合灰度变化展开式得到:
Figure BDA0003176123700000038
Figure BDA0003176123700000039
得到了利用光流的相机速度控制律的基本表达形式:
Figure BDA00031761237000000310
基于当前图像灰度与期望图像灰度特征的函数可以定义为:
E(c)=(I(c)-I(d))T(I(c)-I(d))
假设已经迭代k次,用ek代表迭代到第k次的相机位姿,则第k+1次相机的位姿可以表示为:
Figure BDA00031761237000000311
其中
Figure BDA00031761237000000312
是定义在相邻两帧图像变换的算子,tk是正数,表示最优步长,若
Figure BDA00031761237000000313
则d(ek)为式子的下降搜索方向,当tk足够小的时候,可以得到相机速度迭代更新控制律的基本形式:
v=λkd(ek)
其中的入k为标量,通常为常数,
基于LM法来设计相机运动实时更新策略:
Figure BDA00031761237000000314
其中λ为控制增益,
Figure BDA00031761237000000315
为简化的海塞矩阵,而Jr为之前推导的反映灰度特征速度变化与机器人空间速度变化关系的雅可比矩阵,
为了加快系统响应速度与消除稳态跟踪误差,在跟踪算法中引入比例、积分项:
Figure BDA0003176123700000041
其中,Kp,Ki分别为比例、积分控制系数,所以得到相机运动控制律为
Figure BDA0003176123700000042
此时的vT为相机运动速度,vT=(uT,ωT)T,相机坐标系与机器人末端坐标系的关系需要手眼标定矩阵
Figure BDA0003176123700000043
转换,机器人末端坐标系与基坐标系之间关系可以通过实时读取示教器数据得到记作
Figure BDA0003176123700000044
通过转换可以得到摄像机运动速度在机器人基坐标系表达式:
Figure BDA0003176123700000045
所以vrt=(urt,ωrt)T是在跟踪过程中实时更新的机器人运动速度值。
本发明还提出基于光流的视觉伺服跟踪装置,包括以下:
图像采集处理模块,用于获取预设位置预处理后的第一图像作为灰度特征的期望图像,以及获取其他不同于预设位置预处理后的第二图像;
灰度特征定位跟踪模块,用于计算所述第二图像与所述第一图像之间的灰度变化特征误差,并通过所述灰度变化特征误差计算机器人运动到预设位置所需的速度;
系统通信模块,用于根据所述灰度特征定位追踪模块所计算得到的速度,告知执行机构进行执行。
本发明还提出一种计算机可读存储的介质,所述计算机可读存储的介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-3中任一项所述方法的步骤。
本发明的有益效果为:
本发明去除几何测量的提取以匹配和跟踪过程,为了实现这一目标,使用了可以考虑的最简单的特征:图像强度,利用光流的灰度匹配变化来代替常规的图像视觉伺服中使用特征像素坐标变化来进行视觉伺服的任务,解决了在视觉伺服过程中稳定性低、可靠性差的问题。
附图说明
通过对结合附图所示出的实施方式进行详细说明,本公开的上述以及其他特征将更加明显,本公开附图中相同的参考标号表示相同或相似的元素,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,在附图中:
图1所示为本发明基于光流的视觉伺服跟踪方法的流程图;
图2所示为本发明基于光流的视觉伺服跟踪方法的功能原理图;
图3所示为本发明基于光流的视觉伺服跟踪方法的定位过程的流程图;
图4为本发明基于光流的视觉伺服跟踪方法的跟踪过程的流程图;
图5为本发明基于光流的视觉伺服跟踪方法的图像处理过程的流程图;
图6为本发明基于光流的视觉伺服跟踪装置的结构框图;
图7为本发明背景技术中所提到的普遍的基于图像视觉伺服控制流程原理图。
具体实施方式
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本发明的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。附图中各处使用的相同的附图标记指示相同或相似的部分。
参照图1以及图2,实施例1,本发明提出基于光流的视觉伺服跟踪方法,包括以下:
步骤110、获取预设位置预处理后的第一图像作为灰度特征的期望图像;
步骤120、初始化计算期望图像的雅可比矩阵与海塞矩阵;
步骤130、获取其他不同于预设位置预处理后的第二图像;
步骤140、计算所述第二图像与所述第一图像之间的灰度变化特征误差;
步骤150、通过所述灰度变化特征误差计算机器人运动到预设位置所需的速度;
参照图3,定位过程:
重复上述步骤120至140,实时更新所述速度,直到所述灰度变化特征误差小于第一阈值,完成定位;
参照图4,跟踪过程:
控制机器人沿选定方向前进,重复步骤130至150,判断所述灰度变化特征误差是否大于第二阈值,若是,则判断当前轨迹发生偏离,重复定位过程对机器人移动方向进行实时纠正,然后通过图像处理算法,提取当前帧图片与期望图片的灰度匹配特征判断是否结束跟踪任务,如果能够成功提取到特征,则循环以上过程,否则当经过图像处理算法,当前帧图片和期望图片灰度匹配,则结束跟踪任务,完成跟踪。
具体在应用时,首先在理想的焊接位置处采集一幅图像作为灰度特征的期望图像,并初始化计算期望图像的雅可比矩阵与黑塞矩阵;然后移动机器人到其它位置作为初始位置,在此位置采集一幅图像并计算该图像与期望图像之间的灰度变化特征误差。最后,利用特征误差计算机器人运动到理想位置所需的速度,循环该过程,实时更新速度,直到灰度特征误差小于设定值(第一阈值),此时定位完成。在进行跟踪时候,机器人开始沿一定方向前进,当特征误差大于阈值时,表示轨迹与目标物体轨迹出现偏离,再次调用定位算法对轨迹进行实纠正;然后通过提取图像特征判断是否结束跟踪任务,如果能够成功提取到特征,则循环以上过程,否则结束跟踪任务。
参照图5,作为本发明的优选实施方式,具体的,所述第一图像以及第二图像的获取过程,具体包括以下;
通过VideoCapture函数实例化摄像机捕获对象,使用open函数实现系统与摄像机的连接,再使用参数设置函数set函数设定工业摄像机采集图像的分辨率为原始大小1080×720,通过摄像机进行图像的获取;
使用OpenCV的cvtColor函数将原始三通道RGB图像转化为单通道灰度图像;
使用OpenCV的图像缩放resize函数将分辨率为1080×720的单通道灰度图像的大小缩放为320×240;
使用OpenCV的GaussianBlur滤波函数对图像进行平滑处理;
使用OpenCV的阈值处理threshold函数对图像进行二值化处理,最终得到预处理后的图像。
最为本发明的优选实施方式,上述实时更新所述速度的过程具体包括以下,
从光流法得到启发,直接将图像的像素灰度信息作为图像特征,用目标物体在相机成像平面的灰度值代替特征点的坐标值,估计摄像机从当前位置运动打期望位置所需的速度,假设第一图像的像素灰度为I(c),即
s(c)=I(c)=(I1*,I2*,I3*,…,In*)T
其中I(c)为n×m的向量,也就是当前灰度图像尺寸大小,In*为目标物图像的像素灰度值,I(d)为预期图像每个点的像素灰度值,记Jr为对应的灰度特征的图像雅可比矩阵,从而得到光流特征的运动速度控制律:
Figure BDA0003176123700000061
因为基于图像的视觉伺服是根据当前图像与预期图像的特征差值来构建控制律,将图像中特征的变化速度通过图像雅可比矩阵映射到相机的变化速度,这种方法首先就要确定相应的特征来构建图像雅可比矩阵,目前存在利用点特征,直线特征,圆特征来进行视觉伺服的控制,而这些特征所分别对应不同的图像雅可比矩阵,而利用跟踪目标的像素灰度值的变化速度来映射相机的变化速度,则可以避免特征点提取、匹配出错、也避免了在跟踪过程中缺失特征点的情况,普通的常规基于图像的视觉伺服中,利用特征点坐标的图像雅可比矩阵J不能满足本发明中利用灰度值变化来进行速度更新的需求,所以接下来将介绍用于反映灰度值变化速度与相机变化速度的雅可比矩阵Jr的推导过程,假设两个图像之中的同一物理点的灰度在时间上使恒定不变的,所以这一物理点在时间间隔dt内的位移为(dx,dt)T,根据之前的假设可以知道,其灰度变化不变,得到
I(x+dx,y+dy,t+dt)=I(x,y,t)
对上式进行一阶秦勒展开得到:
Figure BDA0003176123700000071
定义
Figure BDA0003176123700000072
分别为该点在图像坐标中的x,y方向的运动速度,
Figure BDA0003176123700000073
Figure BDA0003176123700000074
分别为该点在图像坐标中的x,y方向的灰度空间梯度,
Figure BDA0003176123700000075
为灰度随时间的变化速度,代入展开式得到:
Figure BDA0003176123700000076
根据普通图像雅可比的定义,图像坐标x,y的变化速率与相机变化速率的关系有:
Figure BDA0003176123700000077
在结合灰度变化展开式得到:
Figure BDA0003176123700000078
Figure BDA0003176123700000079
得到了利用光流的相机速度控制律的基本表达形式:
Figure BDA00031761237000000710
相机运动速度更新的实时性与准确性使决定视觉伺服跟踪控制器性能的重要因素,其本质使通过迭代反馈控制以最小化当前图像与期望图像的灰度特征误差函数,因此摄像机的运动速度更新任务可以转化为灰度特征误差函数最优化问题,基于当前图像灰度与期望图像灰度特征的函数可以定义为:
E(c)=(I(c)-I(d))T(I(c)-I(d))
假设已经迭代k次,用ek代表迭代到第k次的相机位姿,则第k+1次相机的位姿可以表示为:
Figure BDA00031761237000000711
其中
Figure BDA0003176123700000081
是定义在相邻两帧图像变换的算子,tk是正数,表示最优步长,若
Figure BDA0003176123700000082
则d(ek)为式子的下降搜索方向,当tk足够小的时候,可以得到相机速度迭代更新控制律的基本形式:
v=λkd(ek)
其中的λk为标量,通常为常数,
基于LM法来设计相机运动实时更新策略:
Figure BDA0003176123700000083
其中λ为控制增益,
Figure BDA0003176123700000084
为简化的海塞矩阵,而Jr为之前推导的反映灰度特征速度变化与机器人空间速度变化关系的雅可比矩阵。应用LM方法时通过迭代过程中修改参数μ,以结合高斯-牛顿法以及梯度下降法的优点、规避两种算法缺点的效果。当当前位置图像与期望位置图像灰度特征误差较大时,此时高斯-牛顿法不收敛而梯度下降法收敛快,采用较大的μ,使LM法更接近梯度下降法;当当前位置图像与期望位置图像灰度特征误差较小时,此时高斯-牛顿法收敛快而梯度下降法收敛慢,采用较小的μ,使LM法更接近高斯-牛顿法。
在视觉伺服过程中首先计算相机从初始位姿运动到期望位姿所需速度,该速度使得相机从初始位姿向期望位姿逼近,在相机运动过程中,以实时采集的当前灰度图像更新速度,从而达到最终到达期望位置的目的。在任意理想位姿处采集一副图像作为期望图像,沿着某一方向给定相机一个初始速度,在相机前进过程中,当前图像与期望图像之间的误差,利用实时更新策略纠正相机的轨迹,直到相机达到离初始位姿最近的位姿处,这个特性在目标物是移动的时候也就保证了相机的跟踪运动。
为了加快系统响应速度与消除稳态跟踪误差,在跟踪算法中引入比例、积分项:
Δ=Kp(I(c)-I(d))+Ki∫(I(c)-I(d))d(t)
其中,Kp,Ki分别为比例、积分控制系数,所以得到相机运动控制律为
Figure BDA0003176123700000085
此时的vT为相机运动速度,vT=(uT,ωT)T,相机坐标系与机器人末端坐标系的关系需要手眼标定矩阵
Figure BDA0003176123700000086
转换,机器人末端坐标系与基坐标系之间关系可以通过实时读取示教器数据得到记作
Figure BDA0003176123700000087
通过转换可以得到摄像机运动速度在机器人基坐标系表达式:
Figure BDA0003176123700000091
所以vrt=(urt,ωrt)T是在跟踪过程中实时更新的机器人运动速度值。
参照图6,本发明还提出基于光流的视觉伺服跟踪装置,包括以下:
图像采集处理模块,用于获取预设位置预处理后的第一图像作为灰度特征的期望图像,以及获取其他不同于预设位置预处理后的第二图像;
灰度特征定位跟踪模块,用于计算所述第二图像与所述第一图像之间的灰度变化特征误差,并通过所述灰度变化特征误差计算机器人运动到预设位置所需的速度;
系统通信模块,用于根据所述灰度特征定位追踪模块所计算得到的速度,告知执行机构进行执行。
本发明还提出一种计算机可读存储的介质,所述计算机可读存储的介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-3中任一项所述方法的步骤。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例中的方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储的介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包括的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
尽管本发明的描述已经相当详尽且特别对几个所述实施例进行了描述,但其并非旨在局限于任何这些细节或实施例或任何特殊实施例,而是应当将其视作是通过参考所附权利要求考虑到现有技术为这些权利要求提供广义的可能性解释,从而有效地涵盖本发明的预定范围。此外,上文以发明人可预见的实施例对本发明进行描述,其目的是为了提供有用的描述,而那些目前尚未预见的对本发明的非实质性改动仍可代表本发明的等效改动。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,都应属于本发明的保护范围。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。

Claims (5)

1.基于光流的视觉伺服跟踪方法,其特征在于,包括以下:
步骤110、获取预设位置预处理后的第一图像作为灰度特征的期望图像;
步骤120、初始化计算期望图像的雅可比矩阵与海塞矩阵;
步骤130、获取其他不同于预设位置预处理后的第二图像;
步骤140、计算所述第二图像与所述第一图像之间的灰度变化特征误差;
步骤150、通过所述灰度变化特征误差计算机器人运动到预设位置所需的速度;
定位过程:
重复上述步骤130至150,实时更新所述速度,直到所述灰度变化特征误差小于第一阈值,完成定位;
跟踪过程:
控制机器人沿选定方向前进,重复步骤130至150,判断所述灰度变化特征误差是否大于第二阈值,若是,则判断当前轨迹发生偏离,重复定位过程对机器人移动方向进行实时纠正,然后通过图像处理算法,提取当前帧图片与期望图片的灰度匹配特征判断是否结束跟踪任务,如果能够成功提取到特征,则循环以上过程,否则当经过图像处理算法,当前帧图片和期望图片灰度匹配,则结束跟踪任务,完成跟踪。
2.根据权利要求1所述的基于光流的视觉伺服跟踪方法,其特征在于,具体的,所述第一图像以及第二图像的获取过程,具体包括以下;
通过VideoCapture函数实例化摄像机捕获对象,使用open函数实现系统与摄像机的连接,再使用参数设置函数set函数设定工业摄像机采集图像的分辨率为原始大小1080×720,通过摄像机进行图像的获取;
使用OpenCV的cvtColor函数将原始三通道RGB图像转化为单通道灰度图像;
使用OpenCV的图像缩放resize函数将分辨率为1080×720的单通道灰度图像的大小缩放为320×240;
使用OpenCV的GaussianBlur滤波函数对图像进行平滑处理;
使用OpenCV的阈值处理threshold函数对图像进行二值化处理,最终得到预处理后的图像。
3.根据权利要求2所述的基于光流的视觉伺服跟踪方法,其特征在于,上述实时更新所述速度的过程具体包括以下,
假设第一图像的像素灰度为I(c),即
s(c)=I(c)=(I1*,I2*,I3*,...,In*)T
其中I(c)为n×m的向量,也就是当前灰度图像尺寸大小,In*为目标物图像的像素灰度值,I(d)为预期图像每个点的像素灰度值,记Jr为对应的灰度特征的图像雅可比矩阵,从而得到光流特征的运动速度控制律:
Figure FDA0003176123690000021
根据两个图像中同一物理点的灰度在时间上恒定不变,得到
I(x+dx,y+dy,t+dt)=I(x,y,t)
对上式进行一阶泰勒展开得到:
Figure FDA0003176123690000022
定义
Figure FDA0003176123690000023
分别为该点在图像坐标中的x,y方向的运动速度,
Figure FDA0003176123690000024
Figure FDA0003176123690000025
分别为该点在图像坐标中的x,y方向的灰度空间梯度,
Figure FDA0003176123690000026
为灰度随时间的变化速度,代入展开式得到:
Figure FDA0003176123690000027
根据普通图像雅可比的定义,图像坐标x,y的变化速率与相机变化速率的关系有:
Figure FDA0003176123690000028
在结合灰度变化展开式得到:
Figure FDA0003176123690000029
Figure FDA00031761236900000210
得到了利用光流的相机速度控制律的基本表达形式:
Figure FDA00031761236900000211
基于当前图像灰度与期望图像灰度特征的函数可以定义为:
E(c)=(I(c)-I(d))T(I(c)-I(d))
假设已经迭代k次,用ek代表迭代到第k次的相机位姿,则第k+1次相机的位姿可以表示为:
Figure FDA00031761236900000212
其中
Figure FDA00031761236900000213
是定义在相邻两帧图像变换的算子,tk是正数,表示最优步长,若
Figure FDA00031761236900000214
则d(ek)为式子的下降搜索方向,当tk足够小的时候,可以得到相机速度迭代更新控制律的基本形式:
v=λkd(ek)
其中的λk为标量,通常为常数,
基于LM法来设计相机运动实时更新策略:
Figure FDA0003176123690000031
其中λ为控制增益,
Figure FDA0003176123690000032
为简化的海塞矩阵,而Jr为之前推导的反映灰度特征速度变化与机器人空间速度变化关系的雅可比矩阵,
为了加快系统响应速度与消除稳态跟踪误差,在跟踪算法中引入比例、积分项:
Δ=Kp(I(c)-I(d))+Ki∫(I(c)-I(d))d(t)
其中,Kp,Ki分别为比例、积分控制系数,所以得到相机运动控制律为
Figure FDA0003176123690000033
此时的vT为相机运动速度,vT=(uTT)T,相机坐标系与机器人末端坐标系的关系需要手眼标定矩阵
Figure FDA0003176123690000034
转换,机器人末端坐标系与基坐标系之间关系可以通过实时读取示教器数据得到记作
Figure FDA0003176123690000035
通过转换可以得到摄像机运动速度在机器人基坐标系表达式:
Figure FDA0003176123690000036
所以vrt=(urtrt)T是在跟踪过程中实时更新的机器人运动速度值。
4.基于光流的视觉伺服跟踪装置,其特征在于,包括以下:
图像采集处理模块,用于获取预设位置预处理后的第一图像作为灰度特征的期望图像,以及获取其他不同于预设位置预处理后的第二图像;
灰度特征定位跟踪模块,用于计算所述第二图像与所述第一图像之间的灰度变化特征误差,并通过所述灰度变化特征误差计算机器人运动到预设位置所需的速度;
系统通信模块,用于根据所述灰度特征定位追踪模块所计算得到的速度,告知执行机构进行执行。
5.一种计算机可读存储的介质,所述计算机可读存储的介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-3中任一项所述方法的步骤。
CN202110832720.4A 2021-07-22 2021-07-22 基于光流的视觉伺服跟踪方法及装置 Active CN113592907B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110832720.4A CN113592907B (zh) 2021-07-22 2021-07-22 基于光流的视觉伺服跟踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110832720.4A CN113592907B (zh) 2021-07-22 2021-07-22 基于光流的视觉伺服跟踪方法及装置

Publications (2)

Publication Number Publication Date
CN113592907A true CN113592907A (zh) 2021-11-02
CN113592907B CN113592907B (zh) 2023-06-06

Family

ID=78249241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110832720.4A Active CN113592907B (zh) 2021-07-22 2021-07-22 基于光流的视觉伺服跟踪方法及装置

Country Status (1)

Country Link
CN (1) CN113592907B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117474993A (zh) * 2023-10-27 2024-01-30 哈尔滨工程大学 水下图像特征点亚像素位置估计方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180218618A1 (en) * 2016-10-11 2018-08-02 Insitu, Inc. Method and apparatus for target relative guidance
CN109015633A (zh) * 2018-07-12 2018-12-18 深圳市寒武纪智能科技有限公司 一种视觉伺服跟踪方法、装置及系统
CN110039542A (zh) * 2019-06-13 2019-07-23 东北大学 具有速度方向控制的视觉伺服跟踪控制方法及机器人系统
CN112734823A (zh) * 2020-12-30 2021-04-30 东北大学 一种基于图像的视觉伺服的雅可比矩阵深度估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180218618A1 (en) * 2016-10-11 2018-08-02 Insitu, Inc. Method and apparatus for target relative guidance
CN109015633A (zh) * 2018-07-12 2018-12-18 深圳市寒武纪智能科技有限公司 一种视觉伺服跟踪方法、装置及系统
CN110039542A (zh) * 2019-06-13 2019-07-23 东北大学 具有速度方向控制的视觉伺服跟踪控制方法及机器人系统
CN112734823A (zh) * 2020-12-30 2021-04-30 东北大学 一种基于图像的视觉伺服的雅可比矩阵深度估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陶波;龚泽宇;丁汉;: "机器人无标定视觉伺服控制研究进展", 力学学报, no. 04, pages 35 - 51 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117474993A (zh) * 2023-10-27 2024-01-30 哈尔滨工程大学 水下图像特征点亚像素位置估计方法及装置
CN117474993B (zh) * 2023-10-27 2024-05-24 哈尔滨工程大学 水下图像特征点亚像素位置估计方法及装置

Also Published As

Publication number Publication date
CN113592907B (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
EP3414710B1 (en) Deep machine learning methods and apparatus for robotic grasping
JP2023509953A (ja) ターゲット追跡方法、装置、電子機器及び記憶媒体
CN111476841B (zh) 一种基于点云和图像的识别定位方法及系统
CN112907735B (zh) 一种基于点云的柔性电缆识别与三维重建方法
CN111127519B (zh) 一种双模型融合的目标跟踪控制系统及其方法
CN112381061B (zh) 一种面部表情识别方法及系统
CN112200157A (zh) 一种降低图像背景干扰的人体3d姿态识别方法及其系统
CN115810133B (zh) 基于图像处理和点云处理的焊接控制方法及相关设备
CN113284179A (zh) 一种基于深度学习的机器人多物体分拣方法
WO2018235219A1 (ja) 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
CN112967340A (zh) 同时定位和地图构建方法、装置、电子设备及存储介质
CN112947458A (zh) 基于多模态信息的机器人准确抓取方法及计算机可读介质
CN113592907A (zh) 基于光流的视觉伺服跟踪方法及装置
CN115205926A (zh) 一种基于多任务学习的轻量化鲁棒人脸对齐方法及系统
CN113888607A (zh) 基于事件相机的目标检测与跟踪方法、系统和存储介质
CN112365537A (zh) 一种基于三维点云对齐的主动相机重定位方法
Macesanu et al. A time-delay control approach for a stereo vision based human-machine interaction system
CN116460851A (zh) 一种视觉迁移的机械臂装配控制方法
CN115219492A (zh) 一种三维物体的外观图像采集方法及装置
KR102220173B1 (ko) 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
CN110147747B (zh) 一种基于累积一阶导数高置信度策略的相关滤波跟踪方法
CN108010130B (zh) 一种面向图形的机器人操作方法
CN111951303A (zh) 一种机器人运动姿态视觉估计方法
CN112906432A (zh) 一种应用于人脸关键点定位任务的检错纠错方法
Liu Research on robot vision target tracking detection method based on image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant