CN107204005B - 一种手部标志物跟踪方法及系统 - Google Patents

一种手部标志物跟踪方法及系统 Download PDF

Info

Publication number
CN107204005B
CN107204005B CN201710438819.XA CN201710438819A CN107204005B CN 107204005 B CN107204005 B CN 107204005B CN 201710438819 A CN201710438819 A CN 201710438819A CN 107204005 B CN107204005 B CN 107204005B
Authority
CN
China
Prior art keywords
marker
image
state space
representing
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710438819.XA
Other languages
English (en)
Other versions
CN107204005A (zh
Inventor
李健
和海渔
刘向东
陈振
黄毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RESEARCH INSTITUTE OF BIT IN ZHONGSHAN
Zhongshan Changfeng Intelligent Automation Equipment Research Institute Co Ltd
Beijing University of Technology
Original Assignee
RESEARCH INSTITUTE OF BIT IN ZHONGSHAN
Zhongshan Changfeng Intelligent Automation Equipment Research Institute Co Ltd
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RESEARCH INSTITUTE OF BIT IN ZHONGSHAN, Zhongshan Changfeng Intelligent Automation Equipment Research Institute Co Ltd, Beijing University of Technology filed Critical RESEARCH INSTITUTE OF BIT IN ZHONGSHAN
Priority to CN201710438819.XA priority Critical patent/CN107204005B/zh
Publication of CN107204005A publication Critical patent/CN107204005A/zh
Application granted granted Critical
Publication of CN107204005B publication Critical patent/CN107204005B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种手部标志物跟踪方法及系统。所述方法首先获取被测人员手部的彩色图像;然后根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果;当所述检测结果表示所述彩色图像中具有所述标志物信息时,机器人开始跟踪所述标志物进行头部旋转运动;当所述检测结果表示所述彩色图像中不具有所述标志物信息时,所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置。所述方法及系统使机器人可以跟踪被测人员手部的标志物运动至练习需要的角度和位置,能够真实模拟实际的医患之间的交互操作,为医生提供治疗手法的练习平台。

Description

一种手部标志物跟踪方法及系统
技术领域
本发明涉及机器单目视觉技术领域和医疗设备技术领域,特别是涉及一种手部标志物跟踪方法及系统。
背景技术
随着社会的发展,越来越多的人受到颈椎病的困扰。目前采用的颈椎病的治疗方法主要是保守治疗,其中中医旋转类手法作为一种操作简单、见效快的治疗方法被广泛采用。中医旋转类手法可以分为自定位、预加载、快速动作、恢复四个步骤,以右侧旋转类手法为例:患者端坐位,颈部自然放松,医者采用按法、揉法、滚法等手法放松颈部软组织5-10min;让患者头部主动水平旋转至极限角度,最大屈曲后再旋转,达到固定感;医生以肘部托患者下颌,轻轻向上牵引3-5s;让患者放松肌肉,肘部用短力快速向上提拉;操作成功后可以听到一声或多声弹响;应用提、拿等手法再次将颈部肌肉放松。
在临床操作的自定位步骤中,患者首先需要跟随医生的手部动作来转动头部,以达到自身的生理极限角度,然后在该角度位置进行中医旋转类手法治疗。然而患者的头颈部是比较脆弱的地方,在中医旋转类手法治疗过程中,需要医生能够进行力度和位置准确的按摩治疗,因此需要医生进行大量的中医旋转类手法练习。目前中医旋转类手法培训中采用机器人来模拟颈椎病人以为医生提供练习平台,但是控制机器人采用的方法主要为使用遥控器遥控操作,采用遥控器控制机器人的头部转到需要的位置。然而在临床实际操作中,患者是需要跟随医生的手部动作来转动头部,以达到自身的生理极限角度的,因此采用遥控器控制机器人的头部转到需要位置的办法在临床应用中不能模拟实际的医患之间的交互操作。
发明内容
本发明的目的是提供一种手部标志物跟踪方法及系统,使机器人可以跟踪被测人员手部的标志物进行运动,真实模拟实际的医患之间的交互操作,以为医生提供练习平台。
为实现上述目的,本发明提供了如下方案:
一种手部标志物跟踪方法,所述方法包括:
获取被测人员手部的彩色图像;
根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果;
当所述检测结果表示所述彩色图像中具有所述标志物信息时,所述机器人开始跟踪所述标志物进行头部旋转运动;
当所述检测结果表示所述彩色图像中不具有所述标志物信息时,所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置。
可选的,在所述根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果之前,还包括:
根据所述标志物的特征建立第一直方图;
根据所述彩色图像中所述标志物的环境背景特征建立第二直方图;
根据特征判别式计算特征值,所述特征判别式的计算公式如下:
其中,N1表示所述第一直方图中的所述特征,N2表示所述第二直方图中的所述环境背景特征,δu表示所述特征值;
将所述特征值与给定阈值进行比较;
当所述特征值大于所述给定阈值时,将所述第一直方图中的所述特征保留,当所述特征值小于所述给定阈值时,将所述第一直方图中的所述特征剔除,获得标志物特征直方图。
可选的,所述根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果,具体包括:
将所述彩色图像转换到对应的颜色空间;
根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图;
计算所述标志物概率图中表示所述标志物的像素点的数量和密集程度;
判断所述数量是否大于设定数量,获得第一判断结果;
判断所述密集程度是否大于设定密度,获得第二判断结果;
当所述第一判断结果和所述第二判断结果均为是时,确定所述彩色图像中具有所述标志物信息,否则确定所述彩色图像中不具有所述标志物信息。
可选的,所述当所述检测结果表示所述彩色图像中具有所述标志物信息时,所述机器人开始跟踪所述标志物进行头部旋转运动,具体包括:
根据所述标志物概率图确定所述机器人头部的旋转方向;
根据所述标志物概率图计算所述机器人头部的水平旋转速度和竖直旋转速度;
根据所述旋转方向、所述水平旋转速度和所述竖直旋转速度控制所述机器人头部按照所述旋转方向和所述水平旋转速度进行水平旋转,按照所述旋转方向和所述竖直旋转速度进行竖直旋转。
可选的,所述根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图之后,还包括:
采用形态学腐蚀膨胀算法对所述标志物概率图进行去噪处理。
本发明还公开了一种手部标志物跟踪系统,所述系统包括:
彩色图像获取模块,用于获取被测人员手部的彩色图像;
标志物检测结果获取模块,用于根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果;
机器人头部旋转控制模块,用于当所述检测结果表示所述彩色图像中具有所述标志物信息时,控制所述机器人开始跟踪所述标志物进行头部旋转运动;
机器人头部旋转停止模块,用于当所述检测结果表示所述彩色图像中不具有所述标志物信息时,控制所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置。
可选的,所述系统还包括标志物特征直方图获取模块,具体包括:
第一直方图建立单元,用于根据所述标志物的特征建立第一直方图;
第二直方图建立单元,用于根据所述彩色图像中所述标志物的环境背景特征建立第二直方图;
特征值计算单元,用于根据特征判别式计算特征值,所述特征判别式的计算公式如下:
Figure BDA0001319290450000031
其中,N1表示所述第一直方图中的所述特征,N2表示所述第二直方图中的所述环境背景特征,δu表示所述特征值;
比较单元,用于将所述特征值与给定阈值进行比较;
标志物特征直方图获取单元,用于当所述特征值大于所述给定阈值时,将所述第一直方图中的所述特征保留,当所述特征值小于所述给定阈值时,将所述第一直方图中的所述特征剔除,获得标志物特征直方图。
可选的,所述标志物检测结果获取模块具体包括:
图像转换单元,用于将所述彩色图像转换到对应的颜色空间;
标志物概率图获取单元,用于根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图;
标志物数量密度计算单元,用于计算所述标志物概率图中表示所述标志物的像素点的数量和密集程度;
第一判断结果获取单元,用于判断所述数量是否大于设定数量,获得第一判断结果;
第二判断结果获取单元,用于判断所述密集程度是否大于设定密度,获得第二判断结果;
标志物检测结果获取单元,用于当所述第一判断结果和所述第二判断结果均为是时,确定所述彩色图像中具有所述标志物信息,否则确定所述彩色图像中不具有所述标志物信息。
可选的,所述机器人头部旋转控制模块具体包括:
旋转方向获取单元,用于根据所述标志物概率图确定所述机器人头部的旋转方向;
旋转速度获取单元,用于根据所述标志物概率图计算所述机器人头部的水平旋转速度和竖直旋转速度;
机器人头部旋转控制单元,用于根据所述旋转方向、所述水平旋转速度和所述竖直旋转速度控制所述机器人头部按照所述旋转方向和所述水平旋转速度进行水平旋转,按照所述旋转方向和所述竖直旋转速度进行竖直旋转。
可选的,所述标志物检测结果获取模块,还包括:
去噪处理单元,用于采用形态学腐蚀膨胀算法对所述标志物概率图进行去噪处理。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种手部标志物跟踪方法及系统。所述方法首先获取被测人员手部的彩色图像;然后根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果;当所述检测结果表示所述彩色图像中具有所述标志物信息时,所述机器人开始跟踪所述标志物进行头部旋转运动;当所述检测结果表示所述彩色图像中不具有所述标志物信息时,所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置。所述方法及系统使机器人可以跟踪被测人员手部的标志物运动至练习需要的角度和位置,能够真实模拟实际的医患之间的交互操作,为医生提供治疗手法的练习平台。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例手部标志物跟踪方法的方法流程图;
图2为本发明所述状态空间和所述稳态空间坐标系的示意图;
图3为采用本发明所述的手部标志物跟踪方法控制机器人头部运动的示意图;
图4为本发明实施例手部标志物跟踪系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种手部标志物跟踪方法及系统。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例手部标志物跟踪方法的方法流程图。
参见图1,一种手部标志物跟踪方法,包括:
步骤101:获取被测人员手部的彩色图像。
所述被测人员的手部佩戴有标志物。所述标志物为与环境背景有明显区分特征的物体,比如在白色背景下手带一个红色(绿色、蓝色、黑色等)的手套,因为红色与背景白色具有明显不相同的特征,所以可以作为标志物;或者手上贴上印有黑色(红色、绿色、蓝色等)颜色的圆形(方格状等)形状的纸张等等类似的具有与环境背景有明显区别的颜色、形状的物体都可以作为标志物。
所述彩色图像通过固定于机器人头部的图像传感器拍摄获得。所述图像传感器为摄像头或其他网络摄像头。所述彩色图像为RGB图像。
在步骤101之后,还包括:
根据所述标志物的特征建立第一直方图;
根据所述彩色图像中标志物的环境背景特征建立第二直方图;
根据特征判别式计算特征值,所述特征判别式的计算公式如下:
Figure BDA0001319290450000061
其中,N1表示所述第一直方图中的所述特征,N2表示所述第二直方图中的所述环境背景特征,δu表示所述特征值;
将所述特征值与给定阈值进行比较;
当所述特征值大于所述给定阈值时,将所述第一直方图中的所述特征保留,当所述特征值小于所述给定阈值时,将所述第一直方图中的所述特征剔除,获得标志物特征直方图。
上述方法通过比较所述第一直方图和所述第二直方图的差异,将所述第一直方图中更为显著的特征保留,将所述第一直方图中易被所述第二直方图混淆的特征进行剔除,特征是否显著由式(1)确定,从而获得具有显著特征的标志物特征直方图。
步骤102:根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果。
所述步骤102具体包括:
将所述彩色图像转换到对应的颜色空间;所述颜色空间为YCrCb颜色空间。
根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图,所述标志物概率图为一幅黑白灰度图像。采用形态学腐蚀膨胀算法对所述标志物概率图进行去噪处理,去除噪声对所述所述标志物概率图的影响。
计算所述标志物概率图中表示所述标志物的像素点的数量和密集程度。
判断所述数量是否大于设定数量,获得第一判断结果。
判断所述密集程度是否大于设定密度,获得第二判断结果。
当所述第一判断结果和所述第二判断结果均为是时,确定所述彩色图像中具有所述标志物信息,否则确定所述彩色图像中不具有所述标志物信息。
步骤103:当所述检测结果表示所述彩色图像中具有所述标志物信息时,所述机器人开始跟踪所述标志物进行头部旋转运动。
步骤103中,通过对所述标志物概率图进行计算可得到当前所述标志物在所述彩色图像中的坐标,再对所述标志物的图像坐标进行计算可以得到机器人各个关节的运动速度。
所述机器人是面向中医旋转类手法培训的培训机器人,所述机器人用来模拟颈椎病人以为医生提供练习平台。所述培训机器人头颈部具有两个关节,其中第一关节可以水平旋转,第二关节可以竖直旋转,并且具有一种变刚度的结构模拟人体颈椎。
所述步骤103具体包括:
根据所述标志物概率图确定所述机器人头部的旋转方向,通过对所述标志物概率图进行计算得到当前所述标志物在所述彩色图像中的坐标。
首先,在所述标志物概率图内定义任一点的坐标为(x,y),(x,y)点的灰度值为p(x,y),所述标志物概率图的p+q阶几何矩为:
Figure BDA0001319290450000071
则:
M00=∑p(x,y) (3)
M10=∑xp(x,y) (4)
M01=∑yp(x,y) (5)
标志物在所述标志物概率图内的重心Pc(xc,yc)为
Figure BDA0001319290450000081
Figure BDA0001319290450000082
其中,xc表示所述重心的x坐标,yc表示所述重心的y坐标。
定义当前图像平面为图像的状态空间,所述图像平面为根据所述图像传感器分辨率定义的平面,所述图像和所述图像平面与所述图像传感器的分辨率相同,比如当采用的所述图像传感器分辨率为1440×900时,所述图像平面和所述图像的分辨率也为1440×900。则当前的所述状态空间为
X=(xc,yc)T (8)
在所述状态空间内定义稳态空间为Ωs,
其中,uw表示所述状态空间的宽度,β表示比例系数,且β为取值小于二分之一的正数,vh表示所述状态空间的高度。
根据所述标志物概率图计算当前所述标志物在所述状态空间中的坐标。根据所述坐标与所述稳态空间边界之间的相对位置关系,确定所述机器人头部的旋转方向。
图2为本发明所述状态空间和所述稳态空间坐标系的示意图。如图2所示,u0,u1,v0,v1分别表示所述稳态空间Ωs的左、右、上、下边界。当所述标志物在所述状态空间中的水平坐标位于所述稳态空间左边界的左边,即所述水平坐标的值小于u0时,确定所述机器人头部顺时针旋转;当所述水平坐标大于u1时,确定所述机器人头部逆时针旋转。也可以当所述水平坐标的值小于u0时,确定所述机器人头部逆时针旋转;当所述水平坐标大于u1时,确定所述机器人头部顺时针旋转。当所述标志物在所述状态空间中的竖直坐标的值小于v0时,确定所述机器人头部向低头方向旋转;当所述水平坐标大于v1时,确定所述机器人头部向抬头方向旋转;或当所述竖直坐标的值小于v0时,确定所述机器人头部向抬头方向旋转;当所述水平坐标大于v1时,确定所述机器人头部向低头方向旋转。
再根据当前所述标志物在所述状态空间中的坐标位置与所述稳态空间边界的位置计算位置误差,计算所述位置误差就是把所述标志物的所述当前状态空间与所述稳态空间最临近的边界作差。
根据所述状态空间和所述稳态空间,计算当前的所述位置误差,所述位置误差e的计算公式如下:
Figure BDA0001319290450000091
其中,R表示所述稳态空间边界的转换公式,
Figure BDA0001319290450000092
其中a、b、c、d的取值分别为:
Figure BDA0001319290450000093
Figure BDA0001319290450000094
其中,c是一个列向量,表示所述稳态空间的边界,
Figure BDA0001319290450000097
u0表示所述稳态空间Ωs的边界,u1分别表示所述稳态空间Ωs的右边界,v0分别表示所述稳态空间Ωs的上边界,v1分别表示所述稳态空间Ωs的下边界。
其中,X表示当前的所述状态空间,X=(xc,yc)T
根据所述位置误差e计算控制所述机器人头部旋转速度的输入ut
ut=ke (15)
其中,k表示尺度缩放系数,用于进行所述位置误差的尺度缩放,
Figure BDA0001319290450000098
其中ηuv表示比例系数,所述ηu、ηv是两个常数。
为了使所述机器人的旋转运动更加平稳,对所述位置误差求取符号函数,即:
Figure BDA0001319290450000101
其中,eu表示所述位置误差在图像水平方向的误差,ev表示所述位置误差在图像竖直方向的误差,
Figure BDA0001319290450000104
表示所述图像水平方向的速度,表示所述图像竖直方向的速度。
利用图像雅可比矩阵计算得到所述机器人末端的运行速度wx和wy,计算公式如下:
Figure BDA0001319290450000102
其中,ωx表示所述机器人头部绕图像横轴旋转的旋转速度,也就是所述机器人头部的竖直旋转速度;ωy表示所述机器人头部的绕图像纵轴旋转的旋转速度,也就是所述机器人头部的水平旋转速度;(up,vp)为所述图像传感器的图像坐标系主点;λ表示所述图像传感器焦距转换成像素的长度;u表示所述标志物在所述标志物概率图上的行坐标,v表示所述标志物在所述标志物概率图上的列坐标;Js表示图像雅可比矩阵,
Figure BDA0001319290450000103
所述的机器人是面向中医旋转类手法培训的培训机器人,所述的机器人用来模拟颈椎病人以为医生提供练习平台。所述的机器人为两关节机器人,所述机器人的头颈部具有两个关节,其中第一关节可以水平旋转,第二关节可以竖直旋转,并且使用一种变刚度的结构模拟人体颈椎。
最后根据所述旋转方向、所述竖直旋转速度ωx和所述水平旋转速度ωy控制所述机器人头部按照所述旋转方向和所述水平旋转速度进行水平旋转,按照所述旋转方向和所述竖直旋转速度进行竖直旋转。当所述旋转方向表示顺时针旋转时,控制所述第一关节按照所述水平旋转速度进行顺时针旋转,当所述旋转方向表示逆时针旋转时,控制所述第一关节按照所述水平旋转速度进行逆时针旋转,即控制所述机器人头部的左右转动。同时当所述旋转方向表示向低头方向旋转时,控制所述第二关节按照所述竖直旋转速度向所述低头方向旋转,当所述旋转方向表示向抬头方向旋转时,控制所述第二关节按照所述竖直旋转速度向所述抬头方向旋转,即控制所述机器人头部的上下转动。
步骤104:当所述检测结果表示所述彩色图像中不具有所述标志物信息时,所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置。
当所述机器人头部旋转到练习所需的位置时,去掉所述标志物或将所述标志物隐藏,所述彩色图像中检测不到所述标志物信息,机器人停止旋转,即,所述机器人头部跟踪所述标志物旋转到所需位置后,静止固定在了练习所需位置。
图3为采用本发明所述的手部标志物跟踪方法控制机器人头部运动的示意图。本发明中进行图像处理采用的是连续自适应均值飘移算法(Camshift目标跟踪算法)。如图3所示,被测人员在手部301佩戴标志物302,置于图像传感器303前移动,所述机器人头部具有第一关节304和第二关节305,根据计算出的所述旋转方向、所述竖直旋转速度ωx和所述水平旋转速度ωy。控制所述机器人头部的所述第一关节304按照所述旋转方向和所述水平旋转速度进行水平旋转,当所述旋转方向表示顺时针旋转时,控制所述第一关节304按照所述水平旋转速度进行顺时针旋转,当所述旋转方向表示逆时针旋转时,控制所述第一关节304按照所述水平旋转速度进行逆时针旋转,即控制所述机器人头部的左右转动。同时控制所述机器人头部的所述第二关节305按照所述旋转方向和所述竖直旋转速度进行竖直旋转,当所述旋转方向表示向低头方向旋转时,控制所述第二关节305按照所述竖直旋转速度向所述低头方向旋转,当所述旋转方向表示向抬头方向旋转时,控制所述第二关节305按照所述竖直旋转速度向所述抬头方向旋转,即控制所述机器人头部的上下转动。当所述机器人头部旋转到练习所需的位置时,去掉所述标志物或将所述标志物隐藏,所述彩色图像中检测不到所述标志物信息,机器人停止旋转,最终使机器人跟踪被测人员手部的标志物运动至练习需要的角度和位置,能够真实模拟实际的医患之间的交互操作,为医生提供治疗手法的练习平台。
图4为本发明实施例手部标志物跟踪系统的结构示意图。
如图4所示,所述手部标志物跟踪系统,包括:
彩色图像获取模块401,用于获取被测人员手部的彩色图像。
标志物检测结果获取模块402,用于根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果。
机器人头部旋转控制模块403,用于当所述检测结果表示所述彩色图像中具有所述标志物信息时,控制所述机器人开始跟踪所述标志物进行头部旋转运动。
机器人头部旋转停止模块404,用于当所述检测结果表示所述彩色图像中不具有所述标志物信息时,控制所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置。
标志物特征直方图获取模块405,用于根据所述标志物获取标志物特征直方图。
所述标志物检测结果获取模块402具体包括:
图像转换单元,用于将所述彩色图像转换到对应的颜色空间;
标志物概率图获取单元,用于根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图;
去噪处理单元,用于采用形态学腐蚀膨胀算法对所述标志物概率图进行去噪处理;
标志物数量密度计算单元,用于计算所述标志物概率图中表示所述标志物的像素点的数量和密集程度;
第一判断结果获取单元,用于判断所述数量是否大于设定数量,获得第一判断结果;
第二判断结果获取单元,用于判断所述密集程度是否大于设定密度,获得第二判断结果;
标志物检测结果获取单元,用于当所述第一判断结果和所述第二判断结果均为是时,确定所述彩色图像中具有所述标志物信息,否则确定所述彩色图像中不具有所述标志物信息。
所述机器人头部旋转控制模块403具体包括:
旋转方向获取单元,用于根据所述标志物概率图确定所述机器人头部的旋转方向;
旋转速度获取单元,用于根据所述标志物概率图计算所述机器人头部的水平旋转速度和竖直旋转速度;
机器人头部旋转控制单元,用于根据所述旋转方向、所述水平旋转速度和所述竖直旋转速度控制所述机器人头部按照所述旋转方向和所述水平旋转速度进行水平旋转,按照所述旋转方向和所述竖直旋转速度进行竖直旋转。
所述标志物特征直方图获取模块405具体包括:
第一直方图建立单元,用于根据所述标志物的特征建立第一直方图;
第二直方图建立单元,用于根据所述彩色图像中所述标志物的环境背景特征建立第二直方图;
特征值计算单元,用于根据特征判别式计算特征值,所述特征判别式的计算公式如下:
Figure BDA0001319290450000131
其中,N1表示所述第一直方图中的所述特征,N2表示所述第二直方图中的所述环境背景特征,δu表示所述特征值;
比较单元,用于将所述特征值与给定阈值进行比较;
标志物特征直方图获取单元,用于当所述特征值大于所述给定阈值时,将所述第一直方图中的所述特征保留,当所述特征值小于所述给定阈值时,将所述第一直方图中的所述特征剔除,获得标志物特征直方图。
本发明所述的机器人手部跟踪系统使机器人可以跟踪被测人员手部的标志物运动至练习需要的角度和位置,能够真实模拟实际的医患之间的交互操作,为医生提供治疗手法的练习平台。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (4)

1.一种手部标志物跟踪方法,其特征在于,所述方法包括:
获取被测人员手部的彩色图像;
根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果;
在所述根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果之前,还包括:
根据所述标志物的特征建立第一直方图;
根据所述彩色图像中所述标志物的环境背景特征建立第二直方图;
根据特征判别式计算特征值,所述特征判别式的计算公式如下:
Figure FDA0002263374680000011
其中,N1表示所述第一直方图中的所述特征,N2表示所述第二直方图中的所述环境背景特征,δu表示所述特征值;
将所述特征值与给定阈值进行比较;
当所述特征值大于所述给定阈值时,将所述第一直方图中的所述特征保留,当所述特征值小于所述给定阈值时,将所述第一直方图中的所述特征剔除,获得标志物特征直方图;
所述根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果,具体包括:
将所述彩色图像转换到对应的颜色空间;
根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图;
计算所述标志物概率图中表示所述标志物的像素点的数量和密集程度;
判断所述数量是否大于设定数量,获得第一判断结果;
判断所述密集程度是否大于设定密度,获得第二判断结果;
当所述第一判断结果和所述第二判断结果均为是时,确定所述彩色图像中具有所述标志物信息,否则确定所述彩色图像中不具有所述标志物信息;
当所述检测结果表示所述彩色图像中具有所述标志物信息时,机器人开始跟踪标志物进行头部旋转运动;所述当所述检测结果表示所述彩色图像中具有所述标志物信息时,所述机器人开始跟踪所述标志物进行头部旋转运动,具体包括:
根据所述标志物概率图确定所述机器人头部的旋转方向;具体包括:
定义当前图像平面为图像的状态空间,所述图像平面为根据图像传感器分辨率定义的平面;则当前的所述状态空间为
X=(xc,yc)T (8)
Pc(xc,yc)为标志物在所述标志物概率图内的重心;
在所述状态空间内定义稳态空间为Ωs,
Figure FDA0002263374680000021
其中,uw表示所述状态空间的宽度,β表示比例系数,且β为取值小于二分之一的正数,vh表示所述状态空间的高度;
根据所述标志物概率图计算当前所述标志物在所述状态空间中的坐标;根据所述坐标与所述稳态空间边界之间的相对位置关系,确定所述机器人头部的旋转方向;
根据所述标志物概率图计算所述机器人头部的水平旋转速度和竖直旋转速度;具体包括:
根据所述状态空间和所述稳态空间,计算当前的所述位置误差,所述位置误差e的计算公式如下:
Figure FDA0002263374680000022
其中,R表示所述稳态空间边界的转换公式,
Figure FDA0002263374680000023
其中a、b、c、d的取值分别为:
Figure FDA0002263374680000024
Figure FDA0002263374680000027
其中,H是一个列向量,表示所述稳态空间的边界,u0表示所述稳态空间Ωs的左边界,u1表示所述稳态空间Ωs的右边界,v0表示所述稳态空间Ωs的上边界,v1表示所述稳态空间Ωs的下边界;
其中,X表示当前的所述状态空间,X=(xc,yc)T
根据所述位置误差e计算控制所述机器人头部旋转速度的输入ut
ut=ke (15)
其中,k表示尺度缩放系数,用于进行所述位置误差的尺度缩放,其中ηuv表示比例系数;
为了使机器人的旋转运动更加平稳,对所述位置误差求取符号函数,即:
Figure FDA0002263374680000033
其中,eu表示所述位置误差在图像水平方向的误差,ev表示所述位置误差在图像竖直方向的误差,表示所述图像水平方向的速度,
Figure FDA0002263374680000035
表示所述图像竖直方向的速度;
利用图像雅可比矩阵计算得到所述机器人末端的运行速度ωx和ωy,计算公式如下:
Figure FDA0002263374680000036
其中,ωx表示所述机器人头部绕图像横轴旋转的旋转速度,也就是所述机器人头部的竖直旋转速度;ωy表示所述机器人头部的绕图像纵轴旋转的旋转速度,也就是所述机器人头部的水平旋转速度;(up,vp)为所述图像传感器的图像坐标系主点;λ表示所述图像传感器焦距转换成像素的长度;u表示所述标志物在所述标志物概率图上的行坐标,v表示所述标志物在所述标志物概率图上的列坐标;Js表示图像雅可比矩阵;
根据所述旋转方向、所述水平旋转速度和所述竖直旋转速度控制所述机器人头部按照所述旋转方向和所述水平旋转速度进行水平旋转,按照所述旋转方向和所述竖直旋转速度进行竖直旋转;
当所述检测结果表示所述彩色图像中不具有所述标志物信息时,所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置。
2.根据权利要求1所述的方法,其特征在于,所述根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图之后,还包括:
采用形态学腐蚀膨胀算法对所述标志物概率图进行去噪处理。
3.一种手部标志物跟踪系统,其特征在于,所述系统包括:
彩色图像获取模块,用于获取被测人员手部的彩色图像;
标志物检测结果获取模块,用于根据所述彩色图像检测所述彩色图像中是否具有标志物信息,获得检测结果;
机器人头部旋转控制模块,用于当所述检测结果表示所述彩色图像中具有所述标志物信息时,控制所述机器人开始跟踪所述标志物进行头部旋转运动;
机器人头部旋转停止模块,用于当所述检测结果表示所述彩色图像中不具有所述标志物信息时,控制所述机器人停止跟踪所述标志物进行头部旋转运动,所述机器人头部固定于停止位置;
所述系统还包括标志物特征直方图获取模块,所述标志物特征直方图获取模块具体包括:
第一直方图建立单元,用于根据所述标志物的特征建立第一直方图;
第二直方图建立单元,用于根据所述彩色图像中所述标志物的环境背景特征建立第二直方图;
特征值计算单元,用于根据特征判别式计算特征值,所述特征判别式的计算公式如下:
Figure FDA0002263374680000041
其中,N1表示所述第一直方图中的所述特征,N2表示所述第二直方图中的所述环境背景特征,δu表示所述特征值;
比较单元,用于将所述特征值与给定阈值进行比较;
标志物特征直方图获取单元,用于当所述特征值大于所述给定阈值时,将所述第一直方图中的所述特征保留,当所述特征值小于所述给定阈值时,将所述第一直方图中的所述特征剔除,获得标志物特征直方图;
所述标志物检测结果获取模块具体包括:
图像转换单元,用于将所述彩色图像转换到对应的颜色空间;
标志物概率图获取单元,用于根据所述标志物特征直方图在所述颜色空间内进行反向投影得到标志物概率图;
标志物数量密度计算单元,用于计算所述标志物概率图中表示所述标志物的像素点的数量和密集程度;
第一判断结果获取单元,用于判断所述数量是否大于设定数量,获得第一判断结果;
第二判断结果获取单元,用于判断所述密集程度是否大于设定密度,获得第二判断结果;
标志物检测结果获取单元,用于当所述第一判断结果和所述第二判断结果均为是时,确定所述彩色图像中具有所述标志物信息,否则确定所述彩色图像中不具有所述标志物信息;
所述机器人头部旋转控制模块具体包括:
旋转方向获取单元,用于根据所述标志物概率图确定所述机器人头部的旋转方向;具体包括:
定义当前图像平面为图像的状态空间,所述图像平面为根据图像传感器分辨率定义的平面;则当前的所述状态空间为
X=(xc,yc)T (8)
Pc(xc,yc)为标志物在所述标志物概率图内的重心;
在所述状态空间内定义稳态空间为Ωs,
Figure FDA0002263374680000051
其中,uw表示所述状态空间的宽度,β表示比例系数,且β为取值小于二分之一的正数,vh表示所述状态空间的高度;
根据所述标志物概率图计算当前所述标志物在所述状态空间中的坐标;根据所述坐标与所述稳态空间边界之间的相对位置关系,确定所述机器人头部的旋转方向;
旋转速度获取单元,用于根据所述标志物概率图计算所述机器人头部的水平旋转速度和竖直旋转速度;具体包括:
根据所述状态空间和所述稳态空间,计算当前的所述位置误差,所述位置误差e的计算公式如下:
其中,R表示所述稳态空间边界的转换公式,
Figure FDA0002263374680000062
其中a、b、c、d的取值分别为:
Figure FDA0002263374680000064
Figure FDA0002263374680000065
Figure FDA0002263374680000066
其中,H是一个列向量,表示所述稳态空间的边界,
Figure FDA0002263374680000067
u0表示所述稳态空间Ωs的左边界,u1表示所述稳态空间Ωs的右边界,v0表示所述稳态空间Ωs的上边界,v1表示所述稳态空间Ωs的下边界;
其中,X表示当前的所述状态空间,X=(xc,yc)T
根据所述位置误差e计算控制所述机器人头部旋转速度的输入ut
ut=ke (15)
其中,k表示尺度缩放系数,用于进行所述位置误差的尺度缩放,其中ηuv表示比例系数;
为了使机器人的旋转运动更加平稳,对所述位置误差求取符号函数,即:
Figure FDA0002263374680000069
其中,eu表示所述位置误差在图像水平方向的误差,ev表示所述位置误差在图像竖直方向的误差,
Figure FDA00022633746800000610
表示所述图像水平方向的速度,
Figure FDA00022633746800000611
表示所述图像竖直方向的速度;
利用图像雅可比矩阵计算得到所述机器人末端的运行速度ωx和ωy,计算公式如下:
Figure FDA0002263374680000071
其中,ωx表示所述机器人头部绕图像横轴旋转的旋转速度,也就是所述机器人头部的竖直旋转速度;ωy表示所述机器人头部的绕图像纵轴旋转的旋转速度,也就是所述机器人头部的水平旋转速度;(up,vp)为所述图像传感器的图像坐标系主点;λ表示所述图像传感器焦距转换成像素的长度;u表示所述标志物在所述标志物概率图上的行坐标,v表示所述标志物在所述标志物概率图上的列坐标;Js表示图像雅可比矩阵;
机器人头部旋转控制单元,用于根据所述旋转方向、所述水平旋转速度和所述竖直旋转速度控制所述机器人头部按照所述旋转方向和所述水平旋转速度进行水平旋转,按照所述旋转方向和所述竖直旋转速度进行竖直旋转。
4.如权利要求3所述的系统,其特征在于,所述标志物检测结果获取模块,还包括:
去噪处理单元,用于采用形态学腐蚀膨胀算法对所述标志物概率图进行去噪处理。
CN201710438819.XA 2017-06-12 2017-06-12 一种手部标志物跟踪方法及系统 Active CN107204005B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710438819.XA CN107204005B (zh) 2017-06-12 2017-06-12 一种手部标志物跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710438819.XA CN107204005B (zh) 2017-06-12 2017-06-12 一种手部标志物跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN107204005A CN107204005A (zh) 2017-09-26
CN107204005B true CN107204005B (zh) 2020-01-14

Family

ID=59907506

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710438819.XA Active CN107204005B (zh) 2017-06-12 2017-06-12 一种手部标志物跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN107204005B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247466B (zh) * 2017-06-12 2020-10-20 中山长峰智能自动化装备研究院有限公司 一种机器人头部手势控制方法及系统
CN115145403B (zh) * 2022-09-05 2022-12-02 北京理工大学 一种基于手势的手部标记物跟踪方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101582166A (zh) * 2008-05-12 2009-11-18 皇家飞利浦电子股份有限公司 目标的跟踪系统和方法
CN102179814A (zh) * 2011-03-23 2011-09-14 浙江大学 以用户手部命令控制机器人的方法
CN106502272A (zh) * 2016-10-21 2017-03-15 上海未来伙伴机器人有限公司 一种目标跟踪控制方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101582166A (zh) * 2008-05-12 2009-11-18 皇家飞利浦电子股份有限公司 目标的跟踪系统和方法
CN102179814A (zh) * 2011-03-23 2011-09-14 浙江大学 以用户手部命令控制机器人的方法
CN106502272A (zh) * 2016-10-21 2017-03-15 上海未来伙伴机器人有限公司 一种目标跟踪控制方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于改进的CamShift算法的目标跟踪研究;王寻 等;《电子世界》;20131120;全文 *
改进反向投影的Camshift人脸跟踪算法;寇超 等;《计算机仿真》;20090630;第229-230页 *

Also Published As

Publication number Publication date
CN107204005A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
Chen et al. Computer-assisted yoga training system
Tendick et al. A virtual environment testbed for training laparoscopic surgical skills
KR101930652B1 (ko) 보행 해석 시스템 및 기록 매체에 기록된 컴퓨터 프로그램
US20130190093A1 (en) System and method for tracking and mapping an object to a target
Kurillo et al. Upper extremity reachable workspace evaluation with Kinect
CN107247466B (zh) 一种机器人头部手势控制方法及系统
Gaber et al. Quantifying facial paralysis using the kinect v2
CN108154551A (zh) 实时动态重建三维人体模型的方法及系统
CN104035557B (zh) 一种基于关节活跃度的Kinect动作识别方法
JP2015207285A (ja) 呼吸の属性からコンピュータ制御信号を生成するシステムおよび方法
Hsiao et al. The Digital Box and Block Test Automating traditional post-stroke rehabilitation assessment
CN106599770A (zh) 一种基于体感动作识别及抠像的滑雪场景显示方法
CN107204005B (zh) 一种手部标志物跟踪方法及系统
WO2006108279A1 (en) Method and apparatus for virtual presence
CN116051631A (zh) 光斑标注方法及系统
Štrbac et al. Kinect in neurorehabilitation: computer vision system for real time hand and object detection and distance estimation
Robertson et al. Mixed reality Kinect Mirror box for stroke rehabilitation
LIU et al. A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery
TW201016275A (en) Image system for adjusting displaying angle by detecting human face and visual simulation control apparatus thereof
Samosky et al. Real-time “x-ray vision” for healthcare simulation: an interactive projective overlay system to enhance intubation training and other procedural training
JP6863572B2 (ja) 表示制御装置及び表示制御プログラム
Jain et al. Human computer interaction–Hand gesture recognition
CN111860275A (zh) 手势识别数据采集系统、方法
CN115145403B (zh) 一种基于手势的手部标记物跟踪方法及系统
Liu et al. A framework for webcam-based hand rehabilitation exercises

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant