CN109015633B - 一种视觉伺服跟踪方法、装置及系统 - Google Patents

一种视觉伺服跟踪方法、装置及系统 Download PDF

Info

Publication number
CN109015633B
CN109015633B CN201810769346.6A CN201810769346A CN109015633B CN 109015633 B CN109015633 B CN 109015633B CN 201810769346 A CN201810769346 A CN 201810769346A CN 109015633 B CN109015633 B CN 109015633B
Authority
CN
China
Prior art keywords
joint angle
image
coordinate
robot
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810769346.6A
Other languages
English (en)
Other versions
CN109015633A (zh
Inventor
张学武
宋洋鹏
严盼辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Hanwuji Intelligent Technology Co ltd
Original Assignee
Shenzhen Hanwuji Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Hanwuji Intelligent Technology Co ltd filed Critical Shenzhen Hanwuji Intelligent Technology Co ltd
Priority to CN201810769346.6A priority Critical patent/CN109015633B/zh
Publication of CN109015633A publication Critical patent/CN109015633A/zh
Application granted granted Critical
Publication of CN109015633B publication Critical patent/CN109015633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明提供了一种视觉伺服跟踪方法、装置及系统,涉及视觉伺服控制的技术领域,该方法包括:获取视频帧数据,如果获取的视频帧数据中有目标物体的图像,提取该图像的形心坐标;计算该形心坐标与像素平面空间的中心的坐标差值,根据坐标差值判断形心坐标是否位于预先设定的稳定区域,如果否,根据坐标差值计算机器人的关节角度;对关节角度进行滤波处理,生成期望关节角度;将期望关节角度发送至关节控制器,以对目标物体进行跟踪。本发明提供的视觉伺服跟踪方法、装置及系统,能避免关节角度突变引起的骤然抖动,具有一定的稳定性、可靠性,同时降低了计算的复杂度。

Description

一种视觉伺服跟踪方法、装置及系统
技术领域
本发明涉及视觉伺服控制技术领域,尤其是涉及一种视觉伺服跟踪方法、装置及系统。
背景技术
视觉伺服是以实现机器人的控制目的而对图像进行的自动获取和分析的过程,而针对人脸等目标物体的跟踪,通常采用的方式为基于图像的视觉伺服跟踪方法。
当前较为相似的应用有安防领域中的云台相机,可实现对目标物体的跟随,其中双目云台相机实现起来较为常见和简单,但是双目相机成本较贵,相机标定以及数据处理较为复杂,因此单目相机成为关注的热点,由于单目相机缺乏深度信息,因此无法准确获取目标物体的位置和运动信息,降低了对目标物体跟踪过程的稳定性和可靠性。
针对上述对目标物体跟踪过程的稳定性和可靠性较低的技术问题,目前尚未提出有效的解决方式。
发明内容
有鉴于此,本发明的目的在于提供一种视觉伺服跟踪方法、装置及系统,以缓解现有技术中存在的稳定性低、可靠性差等的问题。
第一方面,本发明实施例提供了一种视觉伺服跟踪方法,该方法应用于视觉控制器,用于对机器人的关节角度进行控制,该方法包括:获取视频帧数据;如果视频帧数据中有目标物体的图像,提取图像的形心坐标,其中,形心坐标为图像的形心在像素平面空间中的位置坐标;计算形心坐标与像素平面空间的中心的坐标差值;根据坐标差值判断形心坐标是否位于预先设定的稳定区域;如果否,根据坐标差值计算机器人的关节角度;对关节角度进行滤波处理,生成期望关节角度;将期望关节角度发送至关节控制器,以对目标物体进行跟踪。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,根据坐标差值计算机器人的关节角度的步骤包括:获取坐标差值与关节角度差值的映射关系,计算机器人的关节角度差值,其中,映射关系为基于图像雅克比矩阵的映射关系;根据关节角度差值计算机器人的关节角度。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第二种可能的实施方式,其中,计算机器人的关节角度差值的步骤包括:获取图像雅克比矩阵,对图像雅克比矩阵初始化,生成初始图像雅克比矩阵;根据初始图像雅克比矩阵以及状态方程计算当前时刻的图像雅克比矩阵;基于当前时刻的图像雅克比矩阵,以及映射关系计算机器人的关节角度差值,其中,计算机器人的关节角度差值的公式为:
Figure BDA0001728657880000021
Figure BDA0001728657880000022
其中,qk为k时刻机器人的关节角度,Jk为k时刻的图像雅克比矩阵,Δq为k-1时刻与k-2时刻机器人的关节角度差值,fk为k时刻坐标差值,tk+1为k+1时刻所对应的时间值。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,对关节角度进行滤波处理的步骤包括:判断获取视频帧数据的次数是否大于预先设定的次数;如果否,采用限幅滤波算法对关节角度进行滤波处理;如果是,采用限幅滤波算法,以及采用加权递推算法对关节角度进行滤波处理。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,采用限幅滤波算法对关节角度进行滤波处理的步骤包括:计算关节角度的幅值,当幅值大于预先设置的幅值阈值时,对关节角度进行滤波处理;滤波处理的公式为:θk=C1θk-1+C2θk-2+C3θk-3+Cnθk-n,其中,θk为k时刻机器人的关节角度,C1、C2、C3和Cn为第一滤波系数,n为时刻的数量。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,其中,采用加权递推算法对关节角度进行滤波处理的步骤包括:获取预先设置的权重值;根据权重值对关节角度进行滤波处理,其中,滤波处理的公式为:θk=D1θk+D2θk-1+D3θk-2+D4θk-3+D5θk-4+Dnθk-n,其中,θk为k时刻机器人的关节角度,D1、D2、D3、D4、D5和Dn为第二滤波系数,n为时刻的数量。
结合第一方面,本发明实施例提供了第一方面的第六种可能的实施方式,其中,根据坐标差值判断形心坐标是否位于预先设定的稳定区域的步骤包括:判断坐标差值是否大于预先设定的差值阈值;如果是,确定形心坐标不在预先设定的稳定区域;如果否,确定形心坐标位于预先设定的稳定区域。
第二方面,本发明实施例还提供一种视觉伺服跟踪装置,该装置设置于视觉控制器,用于对机器人的关节角度进行控制,该装置包括:数据获取模块,用于获取视频帧数据;提取模块,用于如果视频帧数据中有目标物体的图像,提取图像的形心坐标;其中,形心坐标为图像的形心在像素平面空间中的位置坐标;第一计算模块,用于计算形心坐标与像素平面空间的中心的坐标差值;判断模块,用于根据坐标差值判断形心坐标是否位于预先设定的稳定区域;第二计算模块,用于当判断模块的判断结果为否时,根据坐标差值计算机器人的关节角度;滤波模块,用于对关节角度进行滤波处理,生成期望关节角度;发送模块,用于将期望关节角度发送至关节控制器,以对目标物体进行跟踪。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,第二计算模块用于获取坐标差值与关节角度差值的映射关系,计算机器人的关节角度差值,其中,映射关系为基于图像雅克比矩阵的映射关系;根据关节角度差值计算机器人的关节角度。
第三方面,本发明实施例还提供一种视觉伺服跟踪系统,该系统包括视觉控制器,以及与视觉控制器连接的关节控制器和图像采集模块;
其中,视觉控制器设置有第二方面所述的视觉伺服跟踪装置。
本发明实施例提供的视觉伺服跟踪方法、装置及系统,通过对获取的视频帧数据进行分析处理,可以判断出视频帧数据中有目标物体的图像,进而提取图像的形心坐标,并计算该形心坐标与像素平面空间的中心的坐标差值,以此来判断该形心坐标是否位于预先设定的稳定区域,当形心坐标不在稳定区域内时,则根据坐标差值计算出机器人的关节角度,对该关节角度进行滤波处理,生成期望关节角度,并发送至关节控制器,对目标物体进行跟踪,有效提高了对目标物体跟踪的稳定性和可靠性。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种视觉伺服跟踪方法的流程图;
图2为本发明实施例提供的另一种视觉伺服跟踪方法的流程图;
图3为本发明实施例提供的一种视觉伺服跟踪装置的结构示意图;
图4为本发明实施例提供的一种视觉伺服跟踪系统的结构示意图。
图标:30-数据获取模块;32-提取模块;34-第一计算模块;36-判断模块;38-第二计算模块;40-滤波模块;42-发送模块;400-视觉控制器;401-关节控制器;402-图像采集模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,针对人脸等目标物体的跟踪常采用的方法是利用图像雅克比矩阵的求解方式,通过给定目标点在像素平面空间的运动速度,求出对应的关节角速度,从而驱动控制电机实现对目标物体的跟随,但是,图像雅克比矩阵的求解没有统一的方法,较常用的计算方法主要有:雅可比矩阵Broyden在线估计方法;基于卡尔曼滤波的雅可比在线估计方法和平方根无迹卡尔曼滤波的图像雅克比估计方法。
其中,雅可比矩阵Broyden在线估计方法的计算量大,且其实时性较差;基于卡尔曼滤波的雅可比在线估计方法在对目标物体进行跟踪时,容易引起机械臂末端出现震颤现象;平方根无迹卡尔曼滤波的图像雅克比估计方法常用于平面内目标物体的跟踪,对三维运动的跟踪效果不理想。
基于此,本发明实施例提供的一种视觉伺服跟踪方法、装置以及系统,下面通过具体的实施例进行描述。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种视觉伺服跟踪方法进行详细介绍。
实施例一:
本发明实施例提供了一种视觉伺服跟踪方法,该方法应用于视觉控制器,其中,视觉控制器可以是机器人控制系统的视觉控制器,用于对机器人的关节角度进行控制。
参见图1所示的一种视觉伺服跟踪方法的流程图,该方法包括如下步骤:
步骤S101,获取视频帧数据;
具体的,该视频帧数据可以是机器人系统的摄像装置拍摄的视频数据,视觉控制器可以提取到该视频数据,对视频帧数据进行处理分析,进而获取到视频帧数据。
步骤S102,如果视频帧数据中有目标物体的图像,提取图像的形心坐标,其中,形心坐标为图像的形心在像素平面空间中的位置坐标;
一般的,对目标物体,如人脸等的图像进行检测时,在目标物体的图像四周会出现矩形框,该矩形框对目标物体的图像进行包围,通常规定该矩形框的中心为目标物体图像的形心,通过计算可以得出图像的形心在像素平面空间中的位置坐标,该位置坐标即为形心坐标。
步骤S103,计算形心坐标与像素平面空间的中心的坐标差值;
步骤S104,根据坐标差值判断形心坐标是否位于预先设定的稳定区域;
具体实现时,规定像素平面空间的中心所在的一定区域范围内为稳定区域,上述坐标差值通常是形心坐标与稳定区域中心点的距离,因此,步骤S104的判断过程,可以基于该距离实现,具体地,可以判断坐标差值是否大于预先设定的差值阈值,如果是,则确定该形心坐标不在稳定区域内,如果否,则确定该形心坐标位于稳定区域内。
步骤S105,如果否,根据坐标差值计算机器人的关节角度;
通常坐标值与关节角度存在一定的映射关系,因此,在计算关节角度时,可以通过该映射关系实现。
步骤S106,对关节角度进行滤波处理,生成期望关节角度;
步骤S107,将期望关节角度发送至关节控制器,以对目标物体进行跟踪。
本发明实施例提供的视觉伺服跟踪方法,通过对获取的视频帧数据进行处理分析,可以判断出视频帧数据中有目标物体的图像,进而提取该图像的形心坐标,并计算形心坐标与像素平面空间的中心的坐标差值,以此来判断该形心坐标是否位于预先设定的稳定区域,当形心坐标不在稳定区域内时,则根据坐标差值计算出机器人的关节角度,对该关节角度进行滤波处理,生成期望关节角度,并发送至关节控制器,对目标物体进行跟踪,有效提高了对目标物体跟踪的稳定性和可靠性。
在实际计算过程,上述坐标差值与关节角度之间的映射关系通常为基于图像雅克比矩阵的映射关系,因此,在上述图1的基础上,本发明实施例还提供了另一种视觉伺服跟踪方法的流程图,如图2所示,包括如下步骤:
其中,步骤S201~步骤S203的过程,与图1所示的步骤S101~步骤S103的过程一致,在此不在赘述。
步骤S204,根据坐标差值判断形心坐标是否位于预先设定的稳定区域;如果是,返回步骤S201;如果否,执行步骤S205;
具体的,如果该形心坐标位于预先设定的稳定区域,则抛弃此时获得的所有信息,回到步骤S201继续对目标物体进行跟踪。
步骤S205,获取坐标差值与关节角度差值的映射关系,计算机器人的关节角度差值;
其中,上述映射关系为基于图像雅克比矩阵的映射关系,通常可以表示为以下形式:
Figure BDA0001728657880000081
其中,
Figure BDA0001728657880000082
表示目标点在像素平面的坐标,通常用(u,v)表示,
Figure BDA0001728657880000083
表示关节空间变量,通常表示为θ=[θ1 θ2]T,其中,θ1和θ2为关节空间变量的角度变量,依据图像雅克比矩阵,则有映射关系:Δy=J*Δθ;其中,Δy为坐标差值,Δθ为关节角度差值,J为图像雅克比矩阵,可以表示为微分的形式:
Figure BDA0001728657880000084
因此,依据上述关系,当获得像素平面空间中的坐标差值,并且估计出图像雅克比矩阵J时,则可求得关节角度差值,进而得出关节转动角度,从而控制机器人转到期望的角度,实现对人脸等目标物体进行跟随。
具体实现时,计算机器人关节角度差值的过程可以包括以下过程:
(1)获取图像雅克比矩阵,对图像雅克比矩阵初始化,生成初始图像雅克比矩阵;
其中,初始化过程,可以在机器人运动之初,任意做两步线性无关的动作,通过伺服控制系统可以得到两个不相关的动作增量(Δq1,Δq2),依据两个图像特征变化(Δf1,Δf2),可以较为准确的估计出图像雅克比矩阵的初值,即初始图像雅克比矩阵,可以表示为:J=[Δf1 Δf2]*[Δq1 Δq2]-1
(2)根据初始图像雅克比矩阵以及状态方程计算当前时刻的图像雅克比矩阵;
具体的,状态方程为
Figure BDA0001728657880000091
其中,C(k-1)是由k时刻关节角度偏差Δθk组成的噪声输入矩阵,X(k-1)是由图像雅克比矩阵的元素组成的系统的状态矩阵,y(k-1)为坐标差值的差值,即误差值,η(k-1)、v(k-1)为噪声矩阵,其中,C(k)可以表示为:
Figure BDA0001728657880000092
X(k-1)可以表示为:
X(k-1)=[J{k}(1,1) J{k}(1,2) J{k}(2,1) J{k}(2,2)]T
在实际计算过程中,还需要考虑误差的影响,因此,通常会定义预测误差,预测误差矩阵可以表示为:Q{k}=P{k-1}+Rv{k-1},其中,P{k-1}为估计的均方误差,Rv{k-1}为噪声矩阵,如,图像观测噪声方差矩阵,具体的,均方误差可以表示为:P{k-1}=105*eye(4),Rv{k-1}=0.5*eye(4),其中,eye(4)为4*4的对角矩阵且对角元素为1;
噪声矩阵可以表示为:
Rv(k)=(1-d(k-1))Rv(k-1)+d(k-1)[y(k-1)-C(k-1)X(k-1)][y(k-1)-C(k-1)X(k)]T-C(k-1)Q(k)C(k-1)T,其中计算加权系数的公式为:d(k)=(1-b)/(1-bk),b为取值在0到1之间的常数,例如,b可以取值为0.99;
进一步,定义增益矩阵为:K(k)=Q(k)C(k-1)T[C(k-1)Q(k)C(k-1)+Rv(k)]-1
此时,均方误差可以表示为包含增益矩阵的形式,如:
P{k}=(eye(4)-K{k}*C{k-1})*Q{k};
此时,状态矩阵可以表示为:
X{k}=X{k-1}+K{k}*(Δek-1-C{k-1}*X{k-1});
由此可得到当前时刻的图像雅克比矩阵:
Figure BDA0001728657880000101
(3)基于当前时刻的图像雅克比矩阵,以及映射关系计算机器人的关节角度差值;
具体实现时,计算机器人的关节角度差值的公式为:
Figure BDA0001728657880000102
Figure BDA0001728657880000103
其中,qk为k时刻机器人的关节角度,Jk为k时刻的图像雅克比矩阵,Δq为k-1时刻与k-2时刻机器人的关节角度差值,fk为k时刻坐标差值,tk+1为k+1时刻所对应的时间值。
步骤S206,根据关节角度差值计算机器人的关节角度;
具体地,视觉控制器可以获取前一时刻的关节角度,在根据上述关节角度差值,计算出机器人当前的关节角度。
应当理解,上述关节角度差值,以及关节角度的计算过程,是本发明实施例的一种优选形式,而不是唯一的形式,具体还可以参考相关资料实现,或者以实际使用情况为准,本发明实施例对此不进行限制。
步骤S207,对关节角度进行滤波处理,生成期望关节角度;
考虑到在对目标物体进行追踪的过程会出现形心坐标位于预先设定的稳定区域的情况,并且,当形心坐标位于预先设定的稳定区域时,会重新获取视频帧数据,因此,会出现多次获取视频帧的情况,通常为了保证计算的准确性,避免出现关节抖动,通常会对关节角度进行滤波处理,具体地,本发明实施例提供的滤波过程可以包括以下步骤:
(1)判断获取视频帧数据的次数是否大于预先设定的次数;
通常,该预先设定的次数为计算初始化所需的帧数;
(2)如果否,采用限幅滤波算法对关节角度进行滤波处理;
(3)如果是,采用限幅滤波算法,以及采用加权递推算法对关节角度进行滤波处理。
具体地,采用限幅滤波算法对关节角度进行滤波处理的过程为:
计算关节角度的幅值,当幅值大于预先设置的幅值阈值,即相比前一次角度计算值的偏差较大时,对关节角度进行滤波处理,其中,计算关节角度的幅值的公式为:
Figure BDA0001728657880000111
其中,F1为机器人关节角度θk的幅值,θ1、θ2分别为θk在不同方向上的角度变量;限幅滤波算法的公式为:θk=C1θk-1+C2θk-2+C3θk-3+Cnθk-n,其中,θk为k时刻所述机器人的关节角度,C1、C2、C3和Cn为第一滤波系数,n为时刻的数量,通常,为了简化计算过程,通常选取3个第一滤波系数,此时,限幅滤波算法的公式可以表示为:θk=0.4θk-1+0.3θk-2+0.3θk-3,其中,θk为k时刻机器人的关节角度。
进一步的,采用加权递推算法对关节角度进行滤波处理的过程包括:获取预先设置的权重值;根据权重值对关节角度进行滤波处理,其中,滤波处理的公式为:θk=D1θk+D2θk-1+D3θk-2+D4θk-3+D5θk-4+Dnθk-n,其中,θk为k时刻所述机器人的关节角度,D1、D2、D3、D4、D5和Dn为第二滤波系数,n为时刻的数量,同样考虑到简化计算过程的需要,通常选取5个第二滤波系数,此时,滤波处理的公式为:θk=0.5θk+0.2θk-1+0.1θk-2+0.1θk-3+0.1θk-4,其中,θk为k时刻机器人的关节角度。
应当理解,上述第一滤波系数和第二滤波系数的选取方式,以及,选取的大小,可以根据实际计算情况进行设置,本发明实施例对此不进行限制。
步骤S208,将期望关节角度发送至关节控制器,以对目标物体进行跟踪。
本发明实施例提供的视觉伺服跟踪方法,通过对获取的视频帧数据进行分析处理,可以判断出视频帧数据中有目标物体的图像,进而提取图像的形心坐标,并计算该形心坐标与像素平面空间的中心的坐标差值,以此来判断该形心坐标是否位于预先设定的稳定区域,当形心坐标不在稳定区域内时,则根据坐标差值计算出机器人的关节角度,对该关节角度进行滤波处理,生成期望关节角度,并发送至关节控制器,对目标物体进行跟踪,有效提高了对目标物体跟踪的稳定性和可靠性。
实施例二:
在上述实施例的基础上,本发明实施例提供了一种视觉伺服跟踪装置,该装置设置于视觉控制器上,用于对机器人的关节角度进行控制,如图3所示的一种视觉伺服跟踪装置的结构示意图,该装置包括如下模块:
数据获取模块30,用于获取视频帧数据;
提取模块32,用于如果视频帧数据中有目标物体的图像,提取图像的形心坐标;其中,形心坐标为图像的形心在像素平面空间中的位置坐标;
第一计算模块34,用于计算形心坐标与像素平面空间的中心的坐标差值;
判断模块36,用于根据坐标差值判断形心坐标是否位于预先设定的稳定区域;
第二计算模块38,用于当判断模块的判断结果为否时,根据坐标差值计算机器人的关节角度;
滤波模块40,用于对关节角度进行滤波处理,生成期望关节角度;
发送模块42,用于将期望关节角度发送至关节控制器,以对目标物体进行跟踪。
进一步的,上述第二计算模块还用于,获取坐标差值与关节角度差值的映射关系,计算机器人的关节角度差值,其中,映射关系为基于图像雅克比矩阵的映射关系;根据关节角度差值计算机器人的关节角度。
本发明实施例提供的视觉伺服跟踪装置,与上述实施例提供的视觉伺服跟踪方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
实施例三:
在上述实施例的基础上,本发明实施例提供了一种视觉伺服跟踪系统,如图4所示的一种视觉伺服跟踪系统的结构示意图,该系统包括视觉控制器400,以及与视觉控制器400连接的关节控制器401和图像采集模块402,其中,上述视觉控制器设置有视觉伺服跟踪装置。
具体实现时,该视觉伺服跟踪系统可以是配置在机器人上的系统,图像采集模块可以在机器人控制器触发下采集视频图像,并传输至视觉控制器进行特征提取,视觉控制器可以通过实施例一所述的方法计算关节角度,并传输至关节控制器,进而实现对机器人的关节运动进行控制。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例所提供的进行视觉伺服跟踪方法、装置及系统的计算机程序产品,包括存储了处理器可执行的非易失的程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (7)

1.一种视觉伺服跟踪方法,其特征在于,所述方法应用于视觉控制器,用于对机器人的关节角度进行控制,所述方法包括:
获取视频帧数据;
如果所述视频帧数据中有目标物体的图像,提取所述图像的形心坐标,其中,所述形心坐标为所述图像的形心在像素平面空间中的位置坐标;
计算所述形心坐标与像素平面空间的中心的坐标差值;
根据所述坐标差值判断所述形心坐标是否位于预先设定的稳定区域;
如果否,根据所述坐标差值计算所述机器人的关节角度;
对所述关节角度进行滤波处理,生成期望关节角度;
将所述期望关节角度发送至关节控制器,以对所述目标物体进行跟踪;
其中,所述根据所述坐标差值计算所述机器人的关节角度的步骤包括:
获取所述坐标差值与关节角度差值的映射关系,计算所述机器人的关节角度差值,其中,所述映射关系为基于图像雅克比矩阵的映射关系;
根据所述关节角度差值计算所述机器人的关节角度;
其中,所述计算所述机器人的关节角度差值的步骤包括:
获取所述图像雅克比矩阵,对所述图像雅克比矩阵初始化,生成初始图像雅克比矩阵;
根据所述初始图像雅克比矩阵以及状态方程计算当前时刻的图像雅克比矩阵;
基于所述当前时刻的图像雅克比矩阵,以及所述映射关系计算所述机器人的关节角度差值,其中,计算所述机器人的关节角度差值的公式为:
Figure FDA0002765859360000011
其中,qk为k时刻所述机器人的关节角度,Jk为k时刻的图像雅克比矩阵,Δq为k-1时刻与k-2时刻所述机器人的关节角度差值,fk为k时刻所述坐标差值,tk+1为k+1时刻所对应的时间值。
2.根据权利要求1所述的方法,其特征在于,所述对所述关节角度进行滤波处理的步骤包括:
判断获取所述视频帧数据的次数是否大于预先设定的次数;
如果否,采用限幅滤波算法对所述关节角度进行滤波处理;
如果是,采用所述限幅滤波算法,以及采用加权递推算法对所述关节角度进行滤波处理。
3.根据权利要求2所述的方法,其特征在于,所述采用限幅滤波算法对所述关节角度进行滤波处理的步骤包括:
计算所述关节角度的幅值,当所述幅值大于预先设置的幅值阈值时,对所述关节角度进行滤波处理;
所述滤波处理的公式为:θk=C1θk-1+C2θk-2+C3θk-3+Cnθk-n,其中,θk为k时刻所述机器人的关节角度,C1、C2、C3和Cn为第一滤波系数,n为时刻的数量。
4.根据权利要求2所述的方法,其特征在于,所述采用加权递推算法对所述关节角度进行滤波处理的步骤包括:
获取预先设置的权重值;
根据所述权重值对所述关节角度进行滤波处理,其中,所述滤波处理的公式为:θk=D1θk+D2θk-1+D3θk-2+D4θk-3+D5θk-4+Dnθk-n,其中,θk为k时刻所述机器人的关节角度,D1、D2、D3、D4、D5和Dn为第二滤波系数,n为时刻的数量。
5.根据权利要求1所述的方法,其特征在于,所述根据所述坐标差值判断所述形心坐标是否位于预先设定的稳定区域的步骤包括:
判断所述坐标差值是否大于预先设定的差值阈值;
如果是,确定所述形心坐标不在预先设定的稳定区域;
如果否,确定所述形心坐标位于预先设定的稳定区域。
6.一种视觉伺服跟踪装置,其特征在于,所述装置设置于视觉控制器,用于对机器人的关节角度进行控制,所述装置包括:
数据获取模块,用于获取视频帧数据;
提取模块,用于如果所述视频帧数据中有目标物体的图像,提取所述图像的形心坐标;其中,所述形心坐标为所述图像的形心在像素平面空间中的位置坐标;
第一计算模块,用于计算所述形心坐标与像素平面空间的中心的坐标差值;
判断模块,用于根据所述坐标差值判断所述形心坐标是否位于预先设定的稳定区域;
第二计算模块,用于当所述判断模块的判断结果为否时,根据所述坐标差值计算所述机器人的关节角度;
滤波模块,用于对所述关节角度进行滤波处理,生成期望关节角度;
发送模块,用于将所述期望关节角度发送至关节控制器,以对所述目标物体进行跟踪;
其中,所述第二计算模块用于:
获取所述坐标差值与关节角度差值的映射关系,计算所述机器人的关节角度差值,其中,所述映射关系为基于图像雅克比矩阵的映射关系;根据所述关节角度差值计算所述机器人的关节角度;
其中,所述计算所述机器人的关节角度差值的步骤包括:
获取所述图像雅克比矩阵,对所述图像雅克比矩阵初始化,生成初始图像雅克比矩阵;
根据所述初始图像雅克比矩阵以及状态方程计算当前时刻的图像雅克比矩阵;
基于所述当前时刻的图像雅克比矩阵,以及所述映射关系计算所述机器人的关节角度差值,其中,计算所述机器人的关节角度差值的公式为:
Figure FDA0002765859360000041
其中,qk为k时刻所述机器人的关节角度,Jk为k时刻的图像雅克比矩阵,Δq为k-1时刻与k-2时刻所述机器人的关节角度差值,fk为k时刻所述坐标差值,tk+1为k+1时刻所对应的时间值。
7.一种视觉伺服跟踪系统,其特征在于,所述系统包括视觉控制器,以及与所述视觉控制器连接的关节控制器和图像采集模块;
其中,所述视觉控制器设置有权利要求6所述的视觉伺服跟踪装置。
CN201810769346.6A 2018-07-12 2018-07-12 一种视觉伺服跟踪方法、装置及系统 Active CN109015633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810769346.6A CN109015633B (zh) 2018-07-12 2018-07-12 一种视觉伺服跟踪方法、装置及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810769346.6A CN109015633B (zh) 2018-07-12 2018-07-12 一种视觉伺服跟踪方法、装置及系统

Publications (2)

Publication Number Publication Date
CN109015633A CN109015633A (zh) 2018-12-18
CN109015633B true CN109015633B (zh) 2021-01-29

Family

ID=64640442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810769346.6A Active CN109015633B (zh) 2018-07-12 2018-07-12 一种视觉伺服跟踪方法、装置及系统

Country Status (1)

Country Link
CN (1) CN109015633B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110883770A (zh) * 2019-05-08 2020-03-17 丁亚东 一种基于位置和图像的机器人混合视觉伺服控制方法
CN111258426B (zh) * 2020-01-17 2023-03-21 杭州电子科技大学 基于肌电肌音模型和无迹粒子滤波的关节运动估计方法
CN113297997B (zh) * 2021-05-31 2022-08-02 合肥工业大学 非接触式生理检测机器人的6自由度人脸追踪方法和装置
CN113592907B (zh) * 2021-07-22 2023-06-06 广东工业大学 基于光流的视觉伺服跟踪方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108177146A (zh) * 2017-12-28 2018-06-19 北京奇虎科技有限公司 机器人头部的控制方法、装置及计算设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012236266A (ja) * 2011-05-13 2012-12-06 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
CN105196292B (zh) * 2015-10-09 2017-03-22 浙江大学 一种基于迭代变时长视觉伺服控制方法
CN106272416B (zh) * 2016-08-29 2020-12-29 上海交通大学 基于力觉和视觉的机器人细长轴精密装配系统及方法
CN107139178B (zh) * 2017-05-10 2024-02-23 哈尔滨工业大学深圳研究生院 一种无人机及其基于视觉的抓取方法
CN107097231A (zh) * 2017-07-06 2017-08-29 哈尔滨工业大学深圳研究生院 一种基于视觉伺服的同心管机器人精确运动控制方法
CN107901041B (zh) * 2017-12-15 2021-06-15 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108177146A (zh) * 2017-12-28 2018-06-19 北京奇虎科技有限公司 机器人头部的控制方法、装置及计算设备

Also Published As

Publication number Publication date
CN109015633A (zh) 2018-12-18

Similar Documents

Publication Publication Date Title
CN109015633B (zh) 一种视觉伺服跟踪方法、装置及系统
JP6871416B2 (ja) 顔画像品質を決定する方法および装置、電子機器ならびにコンピュータ記憶媒体
CN110631554B (zh) 机器人位姿的确定方法、装置、机器人和可读存储介质
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
EP2917754B1 (en) Image processing method, particularly used in a vision-based localization of a device
US9947077B2 (en) Video object tracking in traffic monitoring
JP7151488B2 (ja) 移動物体検出装置、移動物体検出方法及びプログラム
KR101071352B1 (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
WO2019119328A1 (zh) 一种基于视觉的定位方法及飞行器
Lee et al. Simultaneous localization, mapping and deblurring
WO2015043872A1 (en) Semi-dense simultaneous localization and mapping
JP7422105B2 (ja) 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム
CN109922258B (zh) 车载相机的电子稳像方法、装置及可读存储介质
CN109743495B (zh) 视频图像电子增稳方法及装置
CN112083403B (zh) 用于虚拟场景的定位追踪误差校正方法及系统
CN112884840A (zh) 一种视觉定位方法、装置、设备及存储介质
JP7253621B2 (ja) パノラマ映像の手ぶれ補正方法及び携帯端末
CN113639782A (zh) 车载传感器的外参标定方法和装置、设备和介质
CN111684458B (zh) 目标检测方法、目标检测装置和无人机
CN110382358A (zh) 云台姿态修正方法、云台姿态修正装置、云台、云台系统和无人机
CN114037977B (zh) 道路灭点的检测方法、装置、设备及存储介质
CN112767482B (zh) 一种多传感器融合的室内外定位方法及系统
JP5677234B2 (ja) エッジ検出装置およびそのプログラム
CN107967691B (zh) 一种视觉里程计算方法和装置
CN112734768B (zh) 一种影像消失点的搜寻方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant