CN107562207A - 一种基于手势识别控制的智能医疗系统 - Google Patents
一种基于手势识别控制的智能医疗系统 Download PDFInfo
- Publication number
- CN107562207A CN107562207A CN201710861761.XA CN201710861761A CN107562207A CN 107562207 A CN107562207 A CN 107562207A CN 201710861761 A CN201710861761 A CN 201710861761A CN 107562207 A CN107562207 A CN 107562207A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- gesture
- msubsup
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
一种基于手势识别控制的智能医疗系统,包括摄像头,手势识别装置和控制装置,所述摄像头用于采集操作人员的手势视频图像;所述手势识别装置用于接收所述手势视频图像,根据手势视频图像识别操作人员的当前手势,并根据预先存储的手势与手势代码对应关系,输出所述当前手势对应的手势代码;所述控制装置用于根据所述手势代码,控制医疗装置进行相应的操作。本发明通过手势控制,操作方便,识别准确度高。
Description
技术领域
本发明涉及医疗设备领域,特别是一种基于手势识别控制的智能医疗系统。
背景技术
在现有技术中,一些医疗设备通常会存在各种人机接口部件以实现对该医疗设备的操作,以CT(computed tomogtaphy)机为例,人机接口部件可包括:键盘、鼠标、脚踏开关、介入治疗辅助设备、控制盒和滑动门控制器等设备。目前,各种人机接口部件都是通过直接接触来实现控制的,但是在某些特定的情况下,例如是在进行介入治疗手术等操作室,现有的控制系统会显得控制效率较低,不仅需要增设专门的控制人员,增加了人员的配备,同时较低的控制效率也可能会影响手术的进行。
发明内容
针对上述问题,本发明旨在提供一种办公室智能监控系统。
本发明的目的采用以下技术方案来实现:
一种基于手势识别控制的智能医疗系统,包括摄像头,手势识别装置和控制装置,所述摄像头用于采集操作人员的当前手势视频图像,将所述手势视频图像传输到所述手势识别装置;所述手势识别装置用于接收所述手势视频图像,根据手势视频图像识别操作人员的当前手势,并根据预先存储的手势与手势代码对应关系,输出所述当前手势对应的手势代码;所述控制装置用于根据所述手势代码,发出相应的控制命令。
其中,所述系统进一步包括至少一个执行部件;所述执行部件用于根据所述控制命令,执行相应的操作。
其中,所述系统进一步包括存储装置,用于存储所述手势视频图像。
其中,所述手势识别装置包括第二存储模块、图像增强模块、手势检测模块、手势跟踪模块和手势识别模块,所述存第二储模块用于存储所预先设定的述手势与手势代码对应关系和执行部件相关资料;所述图像增强模块用于对获取到的图像进行增强处理;所述手势检测模块用于获取所述手势视频图像中的手势;所述手势跟踪模块用于跟踪视频图像中的手势,获取手势的运动轨迹;所述手势识别模块用于根据获取手势和手势运动轨迹,获取相应的手势代码。
本发明的有益效果为:本发明的智能医疗系统通过摄像头实时获取手势视频图像,然后根据获取的手势视频图像识别出控制命令,实现通过手势控制整个系统,操作方便,识别准确度高,能够有效地提高了系统中人机接口设备的控制效率,从而提高介入手术进行的质量。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1本发明的框架结构图;
图2是本发明手势识别装置的框架结构图。
附图标记:
摄像头1、手势识别装置2、控制装置3、存储装置4、执行部件5、第二存储模块21、图像增强模块22、手势检测模块23、手势跟踪模块2和手势识别模块25
具体实施方式
结合以下应用场景对本发明作进一步描述。
一种基于手势识别控制的智能医疗系统,包括摄像头1,手势识别装置2和控制装置3,所述摄像头1用于采集操作人员的当前手势视频图像,将所述手势视频图像传输到所述手势识别装置2;所述手势识别装置2用于接收所述手势视频图像,根据手势视频图像识别操作人员的当前手势,并根据预先存储的手势与手势代码对应关系,输出所述当前手势对应的手势代码;所述控制装置3用于根据所述手势代码,发出相应的控制命令。
其中,所述系统进一步包括至少一个执行部件5;所述执行部件用于根据所述控制命令,执行相应的操作。
其中,所述系统进一步包括存储装置4,用于存储所述手势视频图像。
其中,所述手势识别装置2包括第二存储模块21、图像增强模块22、手势检测模块23、手势跟踪模块24和手势识别模块25,所述存第二储模块21用于存储所预先设定的述手势与手势代码对应关系和执行部件相关资料;所述图像增强模块22用于对获取到的图像进行增强处理;所述手势检测模块23用于获取所述手势视频图像中的手势;所述手势跟踪模块24用于跟踪视频图像中的手势,获取手势的运动轨迹;所述手势识别模块25用于根据获取手势和手势运动轨迹,获取相应的手势代码。
本发明上述实施例,通过摄像头实时获取手势视频图像,然后根据获取的手势视频图像识别出控制命令,实现通过手势控制整个系统,操作方便,识别准确度高,能够有效地提高了系统中人机接口设备的控制效率,从而提高介入手术进行的质量。
优选地,所述手势检测模块用于获取所述手势视频图像中的手势目标,包括:
把手势视频图像划分成大小相同的多个小块;
在t时刻,每一小块的背景模型用K个分别带有权值的统一LBP纹理特征向量和局部色度向量表示,则背景模型可以表达为每个称为一个背景模式,其中t表示t时刻,K表示背景模型中背景模式的总数;
对于每一个小块,每当得到新的一帧图像后,提取该小块的统一LBP纹理特征向量Wt,和局部色度向量St,将其依次与背景模型中对应小块的K个背景模式进行对比,获取他们的相似度,其中采用的自定义背景相似度函数为:
式中,表示t时刻目标小块特征It与该小块背景模型中第k个背景模式特征的相似度,γ表示判定结果融合参数,k=1,2,…,K,K表示背景模型中背景模式的总数,Wt(ιD)和分别表示目标小块的统一LBP纹理特征Wt和该小块背景模型中第k个统一LBP纹理特征中的第ιD个分向量,St(ιS)和分别表示目标小块的局部色度特征St与该小块背景模型中第k个局部色度特征中的第ιS个分向量,DC×DH表示小块的像素尺寸大小,DC和DH分别表示小块的长和宽;
优选地,取DC=DH=5;
其中,由于视频中每帧图像的相邻像素之间的相关性很大,相邻像素值突变的可能性很小,所以LBP算子得到的二进制编码的变化不可能太剧烈。为了在视频处理的时候达到较好的实时性,可将LBP纹理的种类压缩,使得01跳变的次数为0或2的LBP编码中1的数量相同的编码作为一类,此时会出现P+1类统一LBP纹理模式,并根据其中1的数目,分配一个唯一编号(0~P)作为其统一LBP纹理特征值,对于那些01跳变的次数大于2的模式,统计为非统一类,分配编号P+1作为其统一LBP纹理特征值,其中P表示计算目标像素点LBP纹理特征时选取参考点的数目;
对于每一个小块,当存在至少一个背景模式k,使得小于设定的阈值P‘,则该小块被判定为背景,否则为前景;
对于判定为背景的小块,对与之匹配的背景模式进行更新:
式中,表示t时刻该小块背景模型中第k个统一LBP纹理特征,为高斯分布函数,表示t时刻目标小块特征It与该小块背景模型中第k个背景模式特征的相似度,σt,k表示标准差,a表示背景更新权值,表示该小块背景模型中第k个局部色度特征;
选取视频中的前景部分标记为手势目标。
本优选实施例,采用上述的方法检测视频图像中的手势目标,重点获取视频图像中的纹理和色度特征,把视频图像分为不同的小块进行背景模型的建立,在新的一帧图像进入时,通过和建立好的背景模型进行比较,区分图像中的前景和背景图像,从而选取区分的前景图像作为手势目标,适应性强,且获取手势目标的准确度高,为之后医疗系统中进一步对手势目标的手势识别奠定了基础。
优选地,所述图像增强模块用于对获取到的图像进行增强处理,包括:
当检测到当前手势视频背景亮度值QN小于设定的灰暗视频亮度参考值时,采用自定义亮度补偿函数对手势视频图像进行增强处理:
式中,QENH(x,y)表示增强后手势视频图像坐标点(x,y)的亮度值,QN表示当前手势视频图像的背景亮度值,QDB表示明亮视频亮度参考值,T表示设定的阈值,QNB表示灰暗视频亮度参考值,其中QDB和QNB由系统根据之前获取的视频背景亮度获得,M(x,y)表示为前景目标的二值函数,当像素点(x,y)为前景目标时M(x,y)=1,当像素点(x,y)为背景图像时M(x,y)=0,ω′(x,y)表示前景目标亮度权重,
本优选实施例,采用上述的方法对图像进行增强,通过对视频图像背景亮度的检测,当发现背景亮度不足,即视频整体偏暗时,通过上述的增强算法,能够自适应地调整视频整体亮度回到合适的水平,适应性强,特别是在手术室聚光灯把灯光都聚集在手术台的情况下,对周围的环境进行亮度补偿,使得获取的手势视频图像保持清晰,为之后医疗系统中进一步对手势目标的手势识别奠定基础。
优选地,所述手势跟踪模块用于跟踪视频图像中的手势,获取手势的运动轨迹,包括:
(1)根据手势目标所在的区域,获取手势目标的中心位置并计算该区域的纹理色度联合特征,设定手势目标区域纹理色度联合特征概率模型为其中j表示纹理色度联合特征中特征分量的总数,迭代次数k=0,手势目标的初始位置为
优选地,该运动目标所在的区域为矩形区域;
优选地,所述纹理色度联合特征前P+2个特征向量表示统一LBP纹理特征,后个特征向量表示色度特征,其中P表示计算目标像素点LBP纹理特征时选取参考点的数目,a表示设定的色度特征跨度参数,
(2)从视频图像中读入下一帧图像,以为中心,长宽为手势目标矩形区域长宽的一半的矩形范围作为候选区域,计算该候选区域的纹理色度联合特征,获取候选区域纹理色度联合特征概率模型
(3)获取下一帧图像中可能出现手势目标的位置采用的自定义手势目标中心位置迭代方程为:
式中,表示迭代次数为k+1时预测手势目标所在位置的像素点,Cr表示候选区域中的一个像素点,r=1,2,…,i,i表示候选区域像素点的总数,为核函数,当Cr与的距离越短时取值越大,Hd表示核函数的带宽,表示手势目标区域纹理色度联合特征概率模型中第z个特征分量的概率密度,z=1,2,…,j,其中j表示纹理色度联合特征中特征分量的总数,其中C表示手势目标区域纹理色度联合特征概率模型归一化因子,g(||Cr-C′||2)为核函数,当Cr与C′的距离越短时取值越大,C′表示手势目标区域的中心像素点,δ[F(Cr)-z]表示Kroiecker脉冲函数,F(Cr)表示像素点Cr对应的纹理色度联合特征,μ(z)表示手势目标区域纹理色度联合特征概率模型中第z个分量对应的特征,表示候选区域纹理色度联合特征概率模型中第z个特征分量的概率密度,其中C’表示候选区域纹理色度联合特征概率模型归一化因子;
(4)如果小于设定的距离阈值,则停止迭代函数,标记的位置为手势目标在当前帧的中心位置,并返回步骤(1),调整目标位置否则,调整目标位置返回步骤(2)继续当前帧的迭代;
(5)记录手势目标的中心位置变化获取手势目标的运动轨迹。
本优选实施例,采用上述的方法对手势目标进行跟踪,首先通过在之前手势检测模块中检测的手势目标的区域范围建立概率模型,然后根据当新的一帧图像进入时根据建立的概率模型对候选目标区域进行匹配,重点根据手势目标的纹理和色度特征进行匹配,通过迭代算法进行校正,准确地获取手势目标所在的位置,从而准确地获取手势目标的运动轨迹,为之后的手势识别模块对手势目标的准确识别提供了保证。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细地说明,本领域的普通技术人员应当分析,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。
Claims (7)
1.一种基于手势识别控制的智能医疗系统,其特征在于,包括摄像头,手势识别装置和控制装置,所述摄像头用于采集操作人员的当前手势视频图像,将所述手势视频图像传输到所述手势识别装置;所述手势识别装置用于接收所述手势视频图像,根据手势视频图像识别操作人员的当前手势,并根据预先存储的手势与手势代码对应关系,输出所述当前手势对应的手势代码;所述控制装置用于根据所述手势代码,发出相应的控制命令。
2.根据权利要求1所述的一种基于手势识别控制的智能医疗系统,其特征在于,所述系统进一步包括至少一个执行部件;所述执行部件用于根据所述控制命令,执行相应的操作。
3.根据权利要求2所述的一种基于手势识别控制的智能医疗系统,其特征在于,所述系统进一步包括存储装置,用于存储所述手势视频图像。
4.根据权利要求3所述的一种基于手势识别控制的智能医疗系统,其特征在于,所述手势识别装置包括第二存储模块、图像增强模块、手势检测模块、手势跟踪模块和手势识别模块,所述存第二储模块用于存储所预先设定的述手势与手势代码对应关系和执行部件相关资料;所述图像增强模块用于对获取到的图像进行增强处理;所述手势检测模块用于获取所述手势视频图像中的手势;所述手势跟踪模块用于跟踪视频图像中的手势,获取手势的运动轨迹;所述手势识别模块用于根据获取手势和手势运动轨迹,获取相应的手势代码。
5.根据权利要求4所述的一种基于手势识别控制的智能医疗系统,其特征在于,所述手势检测模块用于获取所述手势视频图像中的手势目标,包括:
把手势视频图像划分成大小相同的多个小块;
在t时刻,每一小块的背景模型用K个分别带有权值的统一LBP纹理特征向量和局部色度向量表示,则背景模型可以表达为每个称为一个背景模式,其中t表示t时刻,K表示背景模型中背景模式的总数;
对于每一个小块,每当得到新的一帧图像后,提取该小块的统一LBP纹理特征向量Wt,和局部色度向量St,将其依次与背景模型中对应小块的K个背景模式进行对比,获取他们的相似度,其中采用的自定义背景相似度函数为:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>&gamma;</mi>
<munder>
<mo>&Sigma;</mo>
<msub>
<mi>i</mi>
<mi>D</mi>
</msub>
</munder>
<mo>|</mo>
<msub>
<mi>W</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>i</mi>
<mi>D</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msubsup>
<mi>W</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>i</mi>
<mi>D</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>+</mo>
<mfrac>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&gamma;</mi>
<mo>)</mo>
</mrow>
<mn>180</mn>
</mfrac>
<mo>&times;</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<msub>
<mi>i</mi>
<mi>S</mi>
</msub>
</msub>
<mo>|</mo>
<msub>
<mi>S</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>i</mi>
<mi>S</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msubsup>
<mi>S</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>i</mi>
<mi>S</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>|</mo>
</mrow>
<mrow>
<msub>
<mi>D</mi>
<mi>C</mi>
</msub>
<mo>&times;</mo>
<msub>
<mi>D</mi>
<mi>H</mi>
</msub>
</mrow>
</mfrac>
</mrow>
式中,表示t时刻目标小块特征It与该小块背景模型中第k个背景模式特征的相似度,γ表示判定结果融合参数,k=1,2,…,K,K表示背景模型中背景模式的总数,Wt(ιD)和分别表示目标小块的统一LBP纹理特征Wt和该小块背景模型中第k个统一LBP纹理特征中的第ιD个分向量,St(ιS)和分别表示目标小块的局部色度特征St与该小块背景模型中第k个局部色度特征中的第ιS个分向量,DC×DH表示小块的尺寸大小,DC和DH分别表示小块的长和宽;
对于每一个小块,当存在至少一个背景模式k,使得小于设定的阈值P‘,则该小块被判定为背景,否则为前景;
对于判定为背景的小块,对与之匹配的背景模式进行更新:
<mrow>
<msubsup>
<mi>W</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<mo>&lsqb;</mo>
<mn>1</mn>
<mo>-</mo>
<mi>a</mi>
<mo>&CenterDot;</mo>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>I</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
</mrow>
<mo>)</mo>
<mo>,</mo>
<mn>0</mn>
<mo>,</mo>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>t</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<msubsup>
<mi>W</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mi>k</mi>
</msubsup>
<mo>+</mo>
<mi>a</mi>
<mo>&CenterDot;</mo>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>I</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
</mrow>
<mo>)</mo>
<mo>,</mo>
<mn>0</mn>
<mo>,</mo>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>t</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<msub>
<mi>W</mi>
<mi>t</mi>
</msub>
</mrow>
<mrow>
<msubsup>
<mi>S</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<mo>&lsqb;</mo>
<mn>1</mn>
<mo>-</mo>
<mi>a</mi>
<mo>&CenterDot;</mo>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>I</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
</mrow>
<mo>)</mo>
<mo>,</mo>
<mn>0</mn>
<mo>,</mo>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>t</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<msubsup>
<mi>S</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mi>k</mi>
</msubsup>
<mo>+</mo>
<mi>a</mi>
<mo>&CenterDot;</mo>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>I</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
</mrow>
<mo>)</mo>
<mo>,</mo>
<mn>0</mn>
<mo>,</mo>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>t</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<msub>
<mi>S</mi>
<mi>t</mi>
</msub>
</mrow>
<mrow>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>t</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
<mn>2</mn>
</msubsup>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>a</mi>
<mo>)</mo>
</mrow>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>k</mi>
</mrow>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>a</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>P</mi>
<mo>(</mo>
<mrow>
<msub>
<mi>I</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msubsup>
<mi>I</mi>
<mi>t</mi>
<mi>k</mi>
</msubsup>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
式中,表示t时刻该小块背景模型中第k个统一LBP纹理特征,为高斯分布函数, 表示t时刻目标小块特征It与该小块背景模型中第k个背景模式特征的相似度,σt,k表示标准差,a表示背景更新权值,表示该小块背景模型中第k个局部色度特征;
选取视频中的前景部分标记为手势目标。
6.根据权利要求5所述的一种基于手势识别控制的智能医疗系统,其特征在于,所述图像增强模块用于对获取到的图像进行增强处理,包括:
当检测到当前手势视频背景亮度值QN小于设定的灰暗视频亮度参考值时,采用自定义亮度补偿函数对手势视频图像进行增强处理:
<mrow>
<msub>
<mi>Q</mi>
<mrow>
<mi>E</mi>
<mi>N</mi>
<mi>H</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Q</mi>
<mi>N</mi>
</msub>
<mo>+</mo>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>Q</mi>
<mi>N</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>N</mi>
<mi>B</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
</mrow>
<mi>T</mi>
</mfrac>
</mrow>
<mo>)</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>D</mi>
<mi>B</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>N</mi>
<mi>B</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>M</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>0</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Q</mi>
<mi>N</mi>
</msub>
<mo>+</mo>
<msup>
<mi>&omega;</mi>
<mo>&prime;</mo>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>D</mi>
<mi>B</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Q</mi>
<mrow>
<mi>N</mi>
<mi>B</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>M</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
式中,QENH(x,y)表示增强后手势视频图像坐标点(x,y)的亮度值,QN表示当前手势视频图像的背景亮度值,QDB表示明亮视频亮度参考值,T表示设定的阈值,QNB表示灰暗视频亮度参考值,其中QDB和QNB由系统根据之前获取的视频背景亮度获得,QNB(x,y)表示灰暗视频坐标点(x,y)的亮度参考值,M(x,y)表示为前景目标的二值函数,当像素点(x,y)为前景目标时M(x,y)=1,当像素点(x,y)为背景图像时M(x,y)=0,ω′(x,y)表示前景目标亮度权重,
7.根据权利要求6所述的一种基于手势识别控制的智能医疗系统,其特征在于,所述手势跟踪模块用于跟踪视频图像中的手势,获取手势的运动轨迹,包括:
(1)根据手势目标所在的区域,获取手势目标的中心位置并计算该区域的纹理色度联合特征,设定手势目标区域纹理色度联合特征概率模型为其中j表示纹理色度联合特征中特征分量的总数,迭代次数k=0,手势目标的初始位置为
(2)从视频图像中读入下一帧图像,以为中心,长宽为手势目标矩形区域长宽的一半的矩形范围作为候选区域,计算该候选区域的纹理色度联合特征,获取候选区域纹理色度联合特征概率模型
(3)获取下一帧图像中可能出现手势目标的位置采用的自定义手势目标中心位置迭代方程为:
<mrow>
<msub>
<mover>
<mi>Y</mi>
<mo>^</mo>
</mover>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>i</mi>
<mo>&prime;</mo>
</msup>
</msubsup>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>z</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>j</mi>
</msubsup>
<msqrt>
<mfrac>
<msub>
<mover>
<mi>&mu;</mi>
<mo>^</mo>
</mover>
<mi>z</mi>
</msub>
<mrow>
<msub>
<mover>
<mi>&tau;</mi>
<mo>^</mo>
</mover>
<mi>z</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>Y</mi>
<mo>^</mo>
</mover>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</msqrt>
<mi>&delta;</mi>
<mo>&lsqb;</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<mi>r</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>&mu;</mi>
<mrow>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<msub>
<mi>C</mi>
<mi>r</mi>
</msub>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<mfrac>
<mrow>
<msub>
<mi>C</mi>
<mi>r</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>Y</mi>
<mo>^</mo>
</mover>
<mi>k</mi>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mi>d</mi>
</msub>
</mfrac>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>r</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mi>i</mi>
<mo>&prime;</mo>
</msup>
</msubsup>
<msub>
<mi>C</mi>
<mi>r</mi>
</msub>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<mfrac>
<mrow>
<msub>
<mi>C</mi>
<mi>r</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>Y</mi>
<mo>^</mo>
</mover>
<mi>k</mi>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mi>d</mi>
</msub>
</mfrac>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
式中,表示迭代次数为k+1时预测手势目标所在位置的像素点,Cr表示候选区域中的一个像素点,r=1,2,…,i,i表示候选区域像素点的总数,为核函数,当Cr与的距离越短时取值越大,Hd表示核函数的带宽,表示手势目标区域纹理色度联合特征概率模型中第z个特征分量的概率密度,z=1,2,…,j,其中j表示纹理色度联合特征中特征分量的总数,其中C表示手势目标区域纹理色度联合特征概率模型归一化因子,g(||Cr-C′||2)为核函数,当Cr与C′的距离越短时取值越大,C′表示手势目标区域的中心像素点,δ[F(Cr)-z]表示Kroiecker脉冲函数,F(Cr)表示像素点Cr对应的纹理色度联合特征,μ(z)表示手势目标区域纹理色度联合特征概率模型中第z个分量对应的特征,表示候选区域纹理色度联合特征概率模型中第z个特征分量的概率密度,其中C’表示候选区域纹理色度联合特征概率模型归一化因子;
(4)如果小于设定的距离阈值,则停止迭代函数,标记的位置为手势目标在当前帧的中心位置,并返回步骤(1),调整目标位置否则,调整目标位置返回步骤(2)继续当前帧的迭代;
(5)记录手势目标的中心位置变化获取手势目标的运动轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710861761.XA CN107562207A (zh) | 2017-09-21 | 2017-09-21 | 一种基于手势识别控制的智能医疗系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710861761.XA CN107562207A (zh) | 2017-09-21 | 2017-09-21 | 一种基于手势识别控制的智能医疗系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107562207A true CN107562207A (zh) | 2018-01-09 |
Family
ID=60982553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710861761.XA Pending CN107562207A (zh) | 2017-09-21 | 2017-09-21 | 一种基于手势识别控制的智能医疗系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107562207A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116994339A (zh) * | 2023-09-27 | 2023-11-03 | 成都谷帝科技有限公司 | 一种基于图像处理的用于坐位体前屈测试的方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204925994U (zh) * | 2015-05-07 | 2015-12-30 | 上海西门子医疗器械有限公司 | 用于医疗设备的操作控制系统和医疗设备 |
CN106325485A (zh) * | 2015-06-30 | 2017-01-11 | 芋头科技(杭州)有限公司 | 一种手势检测识别方法及系统 |
-
2017
- 2017-09-21 CN CN201710861761.XA patent/CN107562207A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN204925994U (zh) * | 2015-05-07 | 2015-12-30 | 上海西门子医疗器械有限公司 | 用于医疗设备的操作控制系统和医疗设备 |
CN106325485A (zh) * | 2015-06-30 | 2017-01-11 | 芋头科技(杭州)有限公司 | 一种手势检测识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
袁国武: "智能视频监控中的运动目标检测和跟踪算法研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
饶云波: "夜间视频增强的关键技术研究", 《万方学位论文》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116994339A (zh) * | 2023-09-27 | 2023-11-03 | 成都谷帝科技有限公司 | 一种基于图像处理的用于坐位体前屈测试的方法和系统 |
CN116994339B (zh) * | 2023-09-27 | 2024-01-23 | 成都谷帝科技有限公司 | 一种基于图像处理的用于坐位体前屈测试的方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105405154B (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
CN110243370A (zh) | 一种基于深度学习的室内环境三维语义地图构建方法 | |
CN105869178B (zh) | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 | |
CN107424412A (zh) | 一种交通行为分析系统 | |
CN109102547A (zh) | 基于物体识别深度学习模型的机器人抓取位姿估计方法 | |
CN110688965B (zh) | 基于双目视觉的ipt模拟训练手势识别方法 | |
CN108701376A (zh) | 三维图像的基于识别的对象分割 | |
CN110084243B (zh) | 一种基于二维码和单目相机的档案识别与定位方法 | |
CN108217045B (zh) | 一种用于数据中心物理设备上下架的智能机器人 | |
CN107292907A (zh) | 一种对跟随目标进行定位的方法以及跟随设备 | |
CN104145296A (zh) | 头部跟踪方法、装置及计算机可读记录介质 | |
CN109685045A (zh) | 一种运动目标视频跟踪方法及系统 | |
CN115388902B (zh) | 室内定位方法和系统、ar室内定位导航方法和系统 | |
CN109522963A (zh) | 一种单机运行的特征建筑目标检测方法和系统 | |
CN115035260A (zh) | 一种室内移动机器人三维语义地图构建方法 | |
Utasi et al. | A multi-view annotation tool for people detection evaluation | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
CN108256567A (zh) | 一种基于深度学习的目标识别方法及系统 | |
CN115880415A (zh) | 三维重建方法、装置、电子设备及存储介质 | |
Yang et al. | Visual SLAM based on semantic segmentation and geometric constraints for dynamic indoor environments | |
CN103533332B (zh) | 一种2d视频转3d视频的图像处理方法 | |
Chu et al. | Target tracking via particle filter and convolutional network | |
CN107562207A (zh) | 一种基于手势识别控制的智能医疗系统 | |
WO2000018128A1 (en) | System and method for semantic video object segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180109 |
|
RJ01 | Rejection of invention patent application after publication |