CN104898971A - 一种基于视线跟踪技术的鼠标指针控制方法及系统 - Google Patents

一种基于视线跟踪技术的鼠标指针控制方法及系统 Download PDF

Info

Publication number
CN104898971A
CN104898971A CN201510236724.0A CN201510236724A CN104898971A CN 104898971 A CN104898971 A CN 104898971A CN 201510236724 A CN201510236724 A CN 201510236724A CN 104898971 A CN104898971 A CN 104898971A
Authority
CN
China
Prior art keywords
angle point
human eye
harris
mouse pointer
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510236724.0A
Other languages
English (en)
Other versions
CN104898971B (zh
Inventor
王彬
翁政魁
刘辉
王瑞
王坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming University of Science and Technology
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN201510236724.0A priority Critical patent/CN104898971B/zh
Publication of CN104898971A publication Critical patent/CN104898971A/zh
Application granted granted Critical
Publication of CN104898971B publication Critical patent/CN104898971B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明涉及一种基于视线跟踪技术的鼠标指针控制方法及系统,属于机器视觉和人机交互技术领域。包括图像采集模块,用于通过摄像头采集图像数据,为下一步图像的处理提供数据;人眼检测模块,用于对采集到的图像数据进行人眼区域的检测;特征点提取模块,用于在检测到的人眼区域内提取Harris角点,并计算其角点中心位置;特征点匹配模块,用于对检测到的前后帧人眼Harris角点进行匹配;鼠标指针控制模块,用于根据前后两帧中人眼Harris角点的平均位移量控制鼠标指针的移动。本发明使双手有残疾的人员能够在双手行动受到限制的情况下对鼠标指针进行控制,并且达到了良好的控制效果;实现了鼠标指针控制系统的精确性、实时性。

Description

一种基于视线跟踪技术的鼠标指针控制方法及系统
技术领域
本发明涉及一种基于视线跟踪技术的鼠标指针控制方法及系统,属于机器视觉和人机交互技术领域。
背景技术
随着计算机技术的高速发展,特别是图形用户界面诞生以来,我们与计算机的交互变得更加容易、快捷。网络购物、信息查询、辅助办公、多媒体娱乐等功能为我们的生活和工作提供了方便,带来了乐趣。然而,目前存在的交互方式大都需要人手操作,从而对上肢残障人士或上肢不便者造成现代信息共享障碍,仅仅通过手操作鼠标和键盘来实现与电脑的交互,将众多想要享受其便利的上肢残疾的人拒之门外。
目前,国内通常采用的鼠标指针控制系统是以硬件为基础的鼠标指针控制方法,以硬件为基础的方法需要用户带上特制的头盔、特殊的隐形眼镜、或者使用头部固定支架、置于用户头顶的摄像机等,对用户的干扰较大。
因此,有必要在上述鼠标指针控制系统的基础上提出一种准确、实时、且有较好用户体验的鼠标指针控制系统,从而帮助残障、专业技术人员在无法使用双手的情况下实现与计算机等设备的人机交互。
发明内容
本发明提供了一种基于视线跟踪技术的鼠标指针控制方法及系统,以用于解决现有鼠标指针控制方法主要依靠双手,人机交互性较差,使得很多残疾人无法使用鼠标的问题。
本发明的技术方案是:一种基于视线跟踪技术的鼠标指针控制方法,所述方法的具体步骤如下:
Step1、通过摄像头采集图像数据,为下一步图像的处理提供数据;
Step2、使用Viola-Jones算法对采集到的第n帧图像数据进行人眼区域的检测:
采取单眼检测策略,在采集到图像中,仅检测左右任意眼区域,如果检测到人眼区域,则记录该人眼区域为Wn;接着执行步骤Step3;
如果没有检测到人眼区域,则返回步骤Step1;
Step3、在检测到的人眼区域Wn内使用Harris角点算法提取Harris角点,并记录Harris角点位置为pn 1、pn 2、pn 3…pn n;并由第n帧所有角点位置计算得到其中心位置 ( x , y ) = ( x 1 n + x 2 n + · · · x n n n , y 1 n + y 2 n + · · · y n n n ) , 接着执行步骤Step4;
Step4、重新获取一帧图像n+1,重复Step1~Step3,得到第n+1帧的人眼区域Wn+1和Harris角点位置pn+1 1、pn+1 2、pn+1 3…pn+1 n
Step5、根据检测到的前后帧Harris角点位置进行匹配操作,匹配方法如下:
以每个Harri角点为中心,将其邻域窗口M的像素值作为该Harris角点的描述符,对于图像n中的每一个Harris角点分别计算其与图像n+1中提取的各个Harris角点的邻域值差的平方和:取其最小值作为图像n+1与图像n匹配成功的Harris角点;
若匹配成功的角点大于等于三个,则执行Step6,否则返回Step3;
Step6、若根据步骤Step5匹配成功的角点分别为pn 1、pn 2、pn 3…pn n,pn+1 1、pn+1 2、pn+1 3…pn+1 n,则计算其移动平均位移量并根据和第n帧Harris角点的中心位置(x,y)和前后帧间Harris角点的平均移动矢量控制鼠标指针移动,则得到最终的鼠标指针移动方向为(x+dx,y+dy)。
一种基于视线跟踪技术的鼠标指针控制系统,包括:
图像采集模块,用于通过摄像头采集图像数据,为下一步图像的处理提供数据;
人眼检测模块,用于对采集到的图像数据进行人眼区域的检测;
特征点提取模块,用于在检测到的人眼区域内提取Harris角点,并计算检测到的Harris角点中心位置;
特征点匹配模块,用于对检测到的前后帧人眼Harris角点进行匹配;
鼠标指针控制模块,用于根据前后两帧中人眼Harris角点的平均位移量控制鼠标指针的移动。
本发明的工作原理是:
所述特征点提取模块Harris角点检测算法的使用如下:
Harris算子直接利用图像的灰度信息进行检测,广泛地应用在目标识别与跟踪、运动检测等领域。其基本原理是用图像局部窗口内的平均灰度变化率来表示该窗口中心像素点的角点量,灰度变化越显著,该点的角点量越大。记像素点(x,y)的灰度为f(x,y),图像每个像素点(x,y)移动(u,v)的灰度强度变化表示为:
E u , v = Σ u , v ω u , v [ f ( x + u , y + v ) - f ( x , y ) ] 2 = Σ u , v ω u , v [ u ∂ f ∂ x + v ∂ f ∂ y + O ( u 2 + v 2 ) ] 2 ≈ Σ u , v ω u , v ( u ∂ f ∂ x + v ∂ f ∂ y ) 2 = Σ u , v ω u , v ( u , v ) ( ∂ f ∂ x ) 2 ∂ f ∂ x ∂ f ∂ y ∂ f ∂ x ∂ f ∂ y ( ∂ f ∂ y ) 2 ( u , v ) T - - - ( 1 )
其中ωu,v为高斯窗口在(u,v)处的系数,对图像进行平滑滤波。在Harris角点检测算法中,分别反映图像在不同方向上的灰度变化,若某一像素点(x,y)在每个方向都发生了较大的灰度变化,则提取为角点。
M = ( ∂ f ∂ x ) 2 ∂ f ∂ x ∂ f ∂ y ∂ f ∂ x ∂ f ∂ y ( ∂ f ∂ y ) 2 , 则M称为像素点(x,y)的自相关矩阵并由此得到Harris的角点相应函数(CRF)的表达式为:CRF(x,y)=det(M)-k[trace(M)]2。其中det(M)表示矩阵M的行列式,trace(M)表示矩阵的迹。当所检测像素点的CRF值大于算法给定阈值0.2时,该像素点即为角点。
本发明的有益效果是:
本发明是一种基于视线跟踪技术的鼠标指针控制方法及系统,它是针对现有鼠标指针控制方法的不足而提出来的。通过使用本鼠标指针控制系统,使双手有残疾的人员能够在双手行动受到限制的情况下对鼠标指针进行控制,并且达到了良好的控制效果;使残疾人能尽可能的正常工作和生活;同时对于四肢健全的人来说本发明可以将人的双手解放出来做一些其他重要的工作,另外,利用本发明还可以帮助长期使用鼠标的人预防一些职业疾病,如肩周炎、小臂肌肉麻木等。
通过结合了Viola-Jones人眼检测算法、Harris角点提取算法。这样不仅保证了特征点的检测,还能通过Harris角点的多重匹配提高系统精度,从而实现了鼠标指针控制系统的准确性、实时性。
附图说明
图1为本发明的整体模块框图;
图2为本发明中系统算法原理流程图;
图3为本发明中人眼特征检测流程图;
图4为本发明中鼠标指针控制原理图;
图5为本发明中鼠标指针控制效果图;
图6为其他同类鼠标指针控制系统控制效果图。
具体实施方式
实施例1:如图1-6所示,一种基于视线跟踪技术的鼠标指针控制方法,所述方法的具体步骤如下:
Step1、通过摄像头采集图像数据,为下一步图像的处理提供数据;
Step2、使用Viola-Jones算法对采集到的第n帧图像数据进行人眼区域的检测:
采取单眼检测策略,在采集到图像中,仅检测左右任意眼区域,如果检测到人眼区域,则记录该人眼区域为Wn;接着执行步骤Step3;
如果没有检测到人眼区域,则返回步骤Step1;
Step3、在检测到的人眼区域Wn内使用Harris角点算法提取Harris角点,并记录Harris角点位置为pn 1、pn 2、pn 3…pn n;并由第n帧所有角点位置计算得到其中心位置 ( x , y ) = ( x 1 n + x 2 n + · · · x n n n , y 1 n + y 2 n + · · · y n n n ) , 接着执行步骤Step4;
Step4、重新获取一帧图像n+1,重复Step1~Step3,得到第n+1帧的人眼区域Wn+1和Harris角点位置pn+1 1、pn+1 2、pn+1 3…pn+1 n
Step5、根据检测到的前后帧Harris角点位置进行匹配操作,匹配方法如下:
以每个Harri角点为中心,将其邻域窗口M的像素值作为该Harris角点的描述符,对于图像n中的每一个Harris角点分别计算其与图像n+1中提取的各个Harris角点的邻域值差的平方和:取其最小值作为图像n+1与图像n匹配成功的Harris角点;
若匹配成功的角点大于等于三个,则执行Step6,否则返回Step3;
Step6、若根据步骤Step5匹配成功的角点分别为pn 1、pn 2、pn 3…pn n,pn+1 1、pn+1 2、pn+1 3…pn+1 n,则计算其移动平均位移量并根据和第n帧Harris角点的中心位置(x,y)和前后帧间Harris角点的平均移动矢量控制鼠标指针移动,则得到最终的鼠标指针移动方向为(x+dx,y+dy)。
所述的基于视线跟踪技术的鼠标指针控制系统,包括:
图像采集模块,用于通过摄像头采集图像数据,为下一步图像的处理提供数据;
人眼检测模块,用于对采集到的图像数据进行人眼区域的检测;
特征点提取模块,用于在检测到的人眼区域内提取Harris角点,并计算检测到的Harris角点中心位置;
特征点匹配模块,用于对检测到的前后帧人眼Harris角点进行匹配;
鼠标指针控制模块,用于根据前后两帧中人眼Harris角点的平均位移量控制鼠标指针的移动。
实施例2:如图1-6所示,一种基于视线跟踪技术的鼠标指针控制方法,所述方法的具体步骤如下:
Step1、通过摄像头采集图像数据,为下一步图像的处理提供数据;
具体为:选取配置CPU为Intel酷睿2双核T66702.2GHz,3GB DDR31066内存,摄像头为笔记本自带集成130万像素摄像头(640*480)的笔记本电脑作为硬件平台,操作系统为Window7;
Step2、使用Viola-Jones算法对采集到的第n帧图像数据进行人眼区域的检测:
具体为:鉴于人眼位置在面部中间且对称,单一眼睛的移动即可较好的反映人眼的移动轨迹,因此为了保证本系统的实时性,本发明采取单眼检测策略如果检测到人眼区域,当人脸向右偏转时,则检测左眼区域,当人脸向左偏转时,则检测右眼区域。记录检测到的人眼区域Wn,接着执行步骤Step3;
如果没有检测到人眼区域,则返回步骤Step1;
具体为:使用Viola-Jones算法对采集到的的第n帧图像数据进行人眼区域的检测的流程如图3所示:首先截取图像进入分类器,然后判断是否为系统所需要的人眼区域,若是,则由系统标注人眼区域所在位置;若没有检测到人眼区域,则重新截取图像进入分类器;
不同参数下检测一帧所用时间如表1所示:
表1不同参数下检测一帧所用时间
Step3、在检测到的人眼区域Wn内使用Harris角点算法提取Harris角点,并记录Harris角点位置为pn 1、pn 2、pn 3…pn n;并由第n帧所有角点位置计算得到其中心位置 ( x , y ) = ( x 1 n + x 2 n + · · · x n n n , y 1 n + y 2 n + · · · y n n n ) , 接着执行步骤Step4。
具体为:使用Harris角点检测算法对Step2中得到的人眼区域进行Harris角点提取操作,这样做的目的是为求得Harris角点的平均位移矢量,从而提升系统的整体精度;
Step4、重新获取一帧图像n+1,重复Step1~Step3,得到第n+1帧的人眼区域Wn+1和Harris角点位置pn+1 1、pn+1 2、pn+1 3…pn+1 n
Step5、根据检测到的前后帧Harris角点位置进行匹配操作;
具体为:以每个Harri角点为中心,将其邻域窗口O的像素值作为该Harris角点的描述符,对于图像n中的每一个Harris角点分别计算其与图像n+1中提取的各个Harris角点的邻域值差的平方和:取其最小值作为图像n+1与图像n匹配成功的Harris角点;
若匹配成功的角点大于等于三个,则执行Step6,否则返回Step3;
Step6、若根据步骤Step5匹配成功的角点分别为pn 1、pn 2、pn 3…pn n,pn+1 1、pn+1 2、pn+1 3…pn+1 n,则计算其移动平均位移量并根据和第n帧Harris角点的中心位置(x,y)和前后帧间Harris角点的平均移动矢量控制鼠标指针移动,则得到最终的鼠标指针移动方向为(x+dx,y+dy)。
如图4所示为鼠标指针控制原理图,通过对前后帧人眼区域内的Harris角点进行匹配得到其平均移动矢量,然后根据第n帧中Harris角点的中心位置作为起点来控制鼠标指针移动。
图5所示为本发明鼠标指针控制效果图。将图5与图6所示其他同类鼠标指针控制系统控制效果图(图6为Kalman滤波器的鼠标指针控制系统效果图)相对比可以看出,本发明的鼠标指针控制效果流畅,能较为准确的达到所需特征点,有较高的使用价值。
一种基于视线跟踪技术的鼠标指针控制系统,包括:
图像采集模块,用于通过摄像头采集图像数据,为下一步图像的处理提供数据;
人眼检测模块,用于对采集到的图像数据进行人眼区域的检测;
特征点提取模块,用于在检测到的人眼区域内提取Harris角点,并计算检测到的Harris角点中心位置;
特征点匹配模块,用于对检测到的前后帧人眼Harris角点进行匹配;
鼠标指针控制模块,用于根据前后两帧中人眼Harris角点的平均位移量控制鼠标指针的移动。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (2)

1.一种基于视线跟踪技术的鼠标指针控制方法,其特征在于:所述方法的具体步骤如下:
Step1、通过摄像头采集图像数据,为下一步图像的处理提供数据;
Step2、使用Viola-Jones算法对采集到的第n帧图像数据进行人眼区域的检测:
采取单眼检测策略,在采集到图像中,仅检测左右任意眼区域,如果检测到人眼区域,则记录该人眼区域为Wn;接着执行步骤Step3;
如果没有检测到人眼区域,则返回步骤Step1;
Step3、在检测到的人眼区域Wn内使用Harris角点算法提取Harris角点,并记录Harris角点位置为pn 1、pn 2、pn 3…pn n;并由第n帧所有角点位置计算得到其中心位置 ( x , y ) = ( x 1 n + x 2 n + · · · x n n n , y 1 n + y 2 n + · · · y n n n ) , 接着执行步骤Step4;
Step4、重新获取一帧图像n+1,重复Step1~Step3,得到第n+1帧的人眼区域Wn+1和Harris角点位置pn+1 1、pn+1 2、pn+1 3…pn+1 n
Step5、根据检测到的前后帧Harris角点位置进行匹配操作,匹配方法如下:
以每个Harri角点为中心,将其邻域窗口M的像素值作为该Harris角点的描述符,对于图像n中的每一个Harris角点分别计算其与图像n+1中提取的各个Harris角点的邻域值差的平方和:取其最小值作为图像n+1与图像n匹配成功的Harris角点;
若匹配成功的角点大于等于三个,则执行Step6,否则返回Step3;
Step6、若根据步骤Step5匹配成功的角点分别为pn 1、pn 2、pn 3…pn n,pn+1 1、pn+1 2、pn+1 3…pn+1 n,则计算其移动平均位移量并根据和第n帧Harris角点的中心位置(x,y)和前后帧间Harris角点的平均移动矢量控制鼠标指针移动,则得到最终的鼠标指针移动方向为(x+dx,y+dy)。
2.一种基于视线跟踪技术的鼠标指针控制系统,其特征在于:包括:
图像采集模块,用于通过摄像头采集图像数据,为下一步图像的处理提供数据;
人眼检测模块,用于对采集到的图像数据进行人眼区域的检测;
特征点提取模块,用于在检测到的人眼区域内提取Harris角点,并计算检测到的Harris角点中心位置;
特征点匹配模块,用于对检测到的前后帧人眼Harris角点进行匹配;
鼠标指针控制模块,用于根据前后两帧中人眼Harris角点的平均位移量控制鼠标指针的移动。
CN201510236724.0A 2015-05-11 2015-05-11 一种基于视线跟踪技术的鼠标指针控制方法及系统 Expired - Fee Related CN104898971B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510236724.0A CN104898971B (zh) 2015-05-11 2015-05-11 一种基于视线跟踪技术的鼠标指针控制方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510236724.0A CN104898971B (zh) 2015-05-11 2015-05-11 一种基于视线跟踪技术的鼠标指针控制方法及系统

Publications (2)

Publication Number Publication Date
CN104898971A true CN104898971A (zh) 2015-09-09
CN104898971B CN104898971B (zh) 2017-12-22

Family

ID=54031656

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510236724.0A Expired - Fee Related CN104898971B (zh) 2015-05-11 2015-05-11 一种基于视线跟踪技术的鼠标指针控制方法及系统

Country Status (1)

Country Link
CN (1) CN104898971B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159460A (zh) * 2015-09-10 2015-12-16 哈尔滨理工大学 基于眼动跟踪的智能家居控制器及其控制方法
CN106406526A (zh) * 2016-09-07 2017-02-15 长安大学 一种能够预判驾驶员转向意图的辅助车灯控制方法
CN107945213A (zh) * 2017-11-15 2018-04-20 广东工业大学 一种人眼位置跟踪确定方法、装置、设备及存储介质
CN108416801A (zh) * 2018-02-28 2018-08-17 哈尔滨工程大学 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
US11481460B2 (en) 2020-07-01 2022-10-25 International Business Machines Corporation Selecting items of interest

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201695A (zh) * 2006-12-26 2008-06-18 谢振华 一种基于眼部区域运动特征提取与跟踪的鼠标系统
CN101344919A (zh) * 2008-08-05 2009-01-14 华南理工大学 视线跟踪方法及应用该方法的残疾人辅助系统
CN104123000A (zh) * 2014-07-09 2014-10-29 昆明理工大学 一种基于人脸特征检测的非侵入式鼠标指针控制方法及系统
US20150077323A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Dynamic object tracking for user interfaces

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201695A (zh) * 2006-12-26 2008-06-18 谢振华 一种基于眼部区域运动特征提取与跟踪的鼠标系统
CN101344919A (zh) * 2008-08-05 2009-01-14 华南理工大学 视线跟踪方法及应用该方法的残疾人辅助系统
US20150077323A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
CN104123000A (zh) * 2014-07-09 2014-10-29 昆明理工大学 一种基于人脸特征检测的非侵入式鼠标指针控制方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈秋香: "基于瞳孔-角膜反射的视线跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159460A (zh) * 2015-09-10 2015-12-16 哈尔滨理工大学 基于眼动跟踪的智能家居控制器及其控制方法
CN105159460B (zh) * 2015-09-10 2018-01-23 哈尔滨理工大学 基于眼动跟踪的智能家居控制器的控制方法
CN106406526A (zh) * 2016-09-07 2017-02-15 长安大学 一种能够预判驾驶员转向意图的辅助车灯控制方法
CN106406526B (zh) * 2016-09-07 2019-07-26 长安大学 一种能够预判驾驶员转向意图的辅助车灯控制方法
CN107945213A (zh) * 2017-11-15 2018-04-20 广东工业大学 一种人眼位置跟踪确定方法、装置、设备及存储介质
CN108416801A (zh) * 2018-02-28 2018-08-17 哈尔滨工程大学 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
CN108416801B (zh) * 2018-02-28 2022-02-22 哈尔滨工程大学 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
US11481460B2 (en) 2020-07-01 2022-10-25 International Business Machines Corporation Selecting items of interest

Also Published As

Publication number Publication date
CN104898971B (zh) 2017-12-22

Similar Documents

Publication Publication Date Title
CN101561710B (zh) 一种基于人脸姿态估计的人机交互方法
CN102567703B (zh) 一种基于分类特征的手部动作识别信息处理方法
CN107545302B (zh) 一种人眼左右眼图像联合的视线方向计算方法
CN110221699B (zh) 一种前置摄像头视频源的眼动行为识别方法
CN103076876B (zh) 基于视线跟踪与语音识别的字符输入装置和方法
CN104898971A (zh) 一种基于视线跟踪技术的鼠标指针控制方法及系统
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及系统
CN105955465A (zh) 一种桌面便携式视线跟踪方法及装置
CN109344694B (zh) 一种基于三维人体骨架的人体基本动作实时识别方法
CN101201695A (zh) 一种基于眼部区域运动特征提取与跟踪的鼠标系统
CN105739702A (zh) 用于自然人机交互的多姿态指尖跟踪方法
CN103995595A (zh) 一种基于手势的游戏体感控制方法
CN102214291A (zh) 一种快速准确的基于视频序列的人脸检测跟踪方法
CN102609683A (zh) 一种基于单目视频的人体关节自动标注方法
CN102592115B (zh) 一种人手定位方法及系统
CN105930795A (zh) 一种基于人体骨骼关节点间空间向量的行走状态识别方法
CN103218605A (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN102096471A (zh) 一种基于机器视觉的人机交互方法
Zhao et al. Performance evaluation of visual object detection and tracking algorithms used in remote photoplethysmography
CN108681403A (zh) 一种采用视线跟踪的小车控制方法
CN103426000B (zh) 一种静态手势指尖检测方法
CN105741326B (zh) 一种基于聚类融合的视频序列的目标跟踪方法
CN109634407A (zh) 一种基于多模人机传感信息同步采集与融合的控制方法
CN106599873A (zh) 基于三维姿态信息的人物身份识别方法
He et al. A New Kinect‐Based Posture Recognition Method in Physical Sports Training Based on Urban Data

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171222