CN111290584A - 一种基于嵌入式的红外双目手势控制系统及方法 - Google Patents

一种基于嵌入式的红外双目手势控制系统及方法 Download PDF

Info

Publication number
CN111290584A
CN111290584A CN202010190224.9A CN202010190224A CN111290584A CN 111290584 A CN111290584 A CN 111290584A CN 202010190224 A CN202010190224 A CN 202010190224A CN 111290584 A CN111290584 A CN 111290584A
Authority
CN
China
Prior art keywords
point
gesture
binocular
data
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010190224.9A
Other languages
English (en)
Inventor
杜国铭
蒋大宇
冯大志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Tuobo Technology Co ltd
Original Assignee
Harbin Tuobo Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Tuobo Technology Co ltd filed Critical Harbin Tuobo Technology Co ltd
Priority to CN202010190224.9A priority Critical patent/CN111290584A/zh
Publication of CN111290584A publication Critical patent/CN111290584A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提出一种基于嵌入式的红外双目手势控制系统及方法,所述系统包括主控制器、红外双目模块、嵌入式数据分析处理器和数据传输器;红外双目模块包括双目相机和光源亮度控制器;双目相机捕获用户手势数据,处理器先根据该数据进行人手掌的检测,对于检测到的手掌按照比例进行扩充,再对扩充区域进行指尖的回归分析和指尖的轨迹分析,从而得到手势识别结果,并将识别结果发送给主控制器,主控制器将识别结果转换成手势控制指令发送给数据传输器,数据传输器将手势控制指令发送给外部设备使用。所述系统可以在嵌入式端运行,与高端的手势识别设备相比本发明所述系统对于处理终端要求低,成本低,与此同时又可以适用于复杂手势的识别。

Description

一种基于嵌入式的红外双目手势控制系统及方法
技术领域
本发明属于手势识别技术领域,特别是涉及一种基于嵌入式的红外双目手势控制系统及方法。
背景技术
近年来手势识别技术取得了飞速的发展,手势识别是为了跟踪人类手势并通过识别将其转换为有意义的语义的过程。一般而言手势交互信息的采集途径分为接触式和非接触式,因此可以将手势交互划分为基于接触式传感器和非接触式传感器两类。
本发明是对非接触式传感器的研究,基于非接触式传感器的手势识别通常基于使用光学传感、雷达探测等技术。2002年,Bretzner等人提出了使用摄像头采集多尺度颜色特征的手势识别。2010年,清华大学的沙亮等人研究了基于无标记全手势视觉的人机交互技术,提出了一种使用通用摄像头的车载手势视觉交互系统的解决方案,复杂环境识别率达80%。2011年,微软公司公布了Kinect,该摄像头可以借助红外线来识别手势运动。2013年Leap Motion推出,将双目应用在手势识别中,其中Leap Motion作为手势识别的信号采集装置得到了很好的应用。2015年,江南大学的姜克等人使用Kinect研究了基于深度图像的3D手势识别,识别率达76.6%。2015年,谷歌ATAP部门公布了Project Soli,该项目采用微型雷达来识别手势运动,可以捕捉微小动作。
目前基于Leap Motion和Kinect的识别方案都是基于PC端,由于这类传感器需要极大的算力,于是对于硬件的要求极高,系统无法在嵌入式端运行。成本高、无法大范围推广。那些基于双目采用的背景差分、手部轮廓、运动检测等方法大都是在理想环境下,很难在复杂的环境中对人手进行检测,由于人手的多关节和形变性导致人手的检测其实是最难的部分,目前的方法大都提供了三维手部点或者能较容易的检测出人手,考虑的问题较为简单并且都不能在嵌入式端运行。一些能在嵌入式端运行的空间手势识别系统,仅仅包含几种少数的特定手势,无法获取到手部关节点的空间信息,这样对于一些指尖的细微动作就无捕捉,因此也无法识别。
发明内容
本发明目的是为了解决现有技术中的问题,提出了一种基于嵌入式的红外双目手势控制系统及方法。
本发明是通过以下技术方案实现的,本发明提出一种基于嵌入式的红外双目手势控制系统,所述系统包括主控制器、红外双目模块、嵌入式数据分析处理器和数据传输器;所述红外双目模块包括双目相机和光源亮度控制器;
所述主控制器调用光源亮度控制器调节红外光源亮度,所述双目相机捕获用户手势数据,并将捕获到的用户手势数据发送给嵌入式数据分析处理器;所述嵌入式数据分析处理器接收到所述数据后,先根据该数据进行人手掌的检测,对于检测到的手掌按照比例进行扩充,扩充区域包含三个手指,再对扩充区域进行指尖的回归分析和指尖的轨迹分析,从而得到手势识别结果,并将识别结果发送给主控制器,所述主控制器将所述识别结果转换成手势控制指令发送给所述数据传输器,所述数据传输器将所述手势控制指令发送给外部设备使用。
进一步地,所述三个手指为拇指、食指和中指。
进一步地,所述手势包括手指捏合操作、捏合后的水平运动和捏合后的垂直运动。
进一步地,所述双目相机的镜头带有红外带通过滤膜。
本发明还提出一种基于嵌入式的红外双目手势控制方法,所述方法具体包括以下步骤:
步骤1、主控制器调用光源亮度控制器调节红外光源亮度;
步骤2、双目相机捕获用户手势数据,并将捕获到的用户手势数据发送给嵌入式数据分析处理器;
步骤3、所述嵌入式数据分析处理器接收到所述数据后,先根据该数据进行人手掌的检测,对于检测到的手掌按照比例进行扩充,扩充区域包含三个手指,再对扩充区域进行指尖的回归分析;
步骤4、根据两个相机中指尖校正后的位置计算视差,计算出三个指尖的三维信息;
步骤5、根据三个指尖的空间轨迹信息或者预设的手势模型进行手势识别,给出当前识别的手势,并将识别的手势结果发送给主控制器;
步骤6、所述主控制器将所述识别结果转换成手势控制指令发送给数据传输器;
步骤7、所述数据传输器将所述手势控制指令发送给外部设备使用。
进一步地,所述人手掌的检测采用深度学习BlazePalm模型,所述BlazePalm模型利用DW Conv的感受野配合1x1卷积核来进行特征提速,并采用了嵌套Single Blaze的方式来增加模型的表达能力。
进一步地,所述指尖的回归分析利用CenterNet模型,所述CenterNet模型将目标作为一个点即目标BBox的中心点,采用关键点估计来找到中心点;利用CenterNet进行完回归后,直接输出heatmap图,在heatmap图中找到区域极值作为回归点。
进一步地,在步骤2中需要对双目相机进行双目标定,所述双目标定采用离线标定方式,首先利用双目相机拍摄带有标定物件的视频,然后对视频进行逐帧检测,挑选出合适的标定图片,利用标定软件进行最终的标定,最后将标定参数提供给后续流程进行调用,进行完双目标定后,会得出两个相机的映射矩阵,但是此映射矩阵是从标定后的点到畸变点的映射,在双目标定时给出的是反向映射;根据反映射关系,将校正后的点对应到畸变的点,由于已知畸变点xerror和yerror,需要反求校正后的点xrectify和yrectify
进一步地,所述反求校正后的点xrectify和yrectify,具体为:根据双目标定后的结果,能得出校正图像的实际有效区域在原图中的位置,找到单个相机校正后的有效区域的四个顶点和带有畸变的四个顶点的X,Y方向的距离差,然后根据这8个距离找出最大的横向距离和纵向距离,记录这两个最大距离为Width和Height;根据畸变原理,校正后的某个点的位置,都应该在畸变点的位置的周围处,那么根据求得的Width和Height,在校正的图上以畸变点的位置为中心构建一个矩形框;由于已知畸变点,并且在校正点周围已经构建了搜索框,于是利用遍历矩形框中的点位置,配合反向映射,求出潜在畸变点;计算求出的潜在畸变点与原畸变点的欧式距离,能生成最小距离的那个校正点就是要找到的那个畸变点对应的校正点,最终能给出畸变点映射到的校正点。
进一步地,所述三个手指为拇指、食指和中指。
本发明所述系统可以在嵌入式端运行,与高端的手势识别设备相比本发明所述系统对于处理终端要求低,成本低,与此同时又可以适用于复杂手势的识别。经过大量的实验分析,对于人们可以完成的手势其实多数都是由拇指、食指和中指完成的,于是折中在人手多关节中只进行这三个手指指尖的三维数据的获取,这样给在嵌入式端的移植带来了可能。并且对于这三个指尖的空间位置也能做出更多的手势,在此基础上利用了两种深度模型进行了训练,并将模型移植到嵌入式端,经过系统的优化可以做到实时性。
附图说明
图1为本发明所述的基于嵌入式的红外双目手势控制系统框图;
图2为红外双目模块俯视图;
图3为系统主控制器和嵌入式数据分析处理器示意图;
图4为BlazePalm模型示意图;
图5为本发明所述手势控制方法流程图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
结合图1-图3,本发明提出一种基于嵌入式的红外双目手势控制系统,所述系统包括主控制器、红外双目模块、嵌入式数据分析处理器和数据传输器;所述红外双目模块包括双目相机和光源亮度控制器;
所述主控制器调用光源亮度控制器调节红外光源亮度,所述双目相机捕获用户手势数据,并将捕获到的用户手势数据发送给嵌入式数据分析处理器;所述嵌入式数据分析处理器接收到所述数据后,先根据该数据进行人手掌的检测,对于检测到的手掌按照比例进行扩充,扩充区域包含三个手指,再对扩充区域进行指尖的回归分析和指尖的轨迹分析,从而得到手势识别结果,并将识别结果发送给主控制器,所述主控制器将所述识别结果转换成手势控制指令发送给所述数据传输器,所述数据传输器将所述手势控制指令发送给外部设备使用。所述双目相机的镜头带有红外带通过滤膜。
所述三个手指为拇指、食指和中指。
所述手势包括手指捏合操作、捏合后的水平运动和捏合后的垂直运动。
数据传输器作为与其他设备的通信中介,系统可以通过串口或者wifi网络通信来进行。
为了减少外部的干扰,系统将双目相机的镜头进行了处理,通过红外带通过滤膜和相机的参数调整过滤掉远场中的干扰信息,然后利用STM32控制三个光源的功率来调整光源的亮度。这样系统可以通过主控制器来调整光源的亮度,然后过滤掉大部分的外界干扰。
所述主控制器具备视频数据捕获模块的调用、数据调度、数据分析处理器调用和控制信号发送的功能,具体工作流程如下:
步骤a、调用视频数据捕获模块捕获使用者的视频数据,控制光源亮度调节初始化;
步骤b、调用嵌入式数据分析处理器处理视频数据;
步骤c、根据嵌入式数据分析处理器给出的深度坐标,调节光源亮度;
步骤d、重复步骤b~c,直至嵌入式数据分析处理器返回手势识别结果;
步骤e、通过数据传输器给出手势控制指令。
结合图5,本发明还提出一种基于嵌入式的红外双目手势控制方法,所述方法具体包括以下步骤:
步骤1、主控制器调用光源亮度控制器调节红外光源亮度;
步骤2、双目相机捕获用户手势数据,并将捕获到的用户手势数据发送给嵌入式数据分析处理器;
在步骤2中需要对双目相机进行双目标定,在标定过程中需要关注相机镜头畸变模型,由于相机的摄像头在成像过程中存在两种不同类型的畸变,一种是由透镜的形状引起的畸变称为径向畸变,另一种是相机组装过程中透镜和成像面不能严格平行引起的畸变称为切向畸变:
径向畸变:
Figure BDA0002415603900000051
切向畸变:
Figure BDA0002415603900000052
综合以上两种畸变,得到畸变图像和校正后图像的映射关系:
Figure BDA0002415603900000053
其中k1、k2、k3、p1、p2均为相机的内参数,
Figure BDA0002415603900000054
所述双目标定采用离线标定方式,首先利用双目相机拍摄带有标定物件的视频,然后对视频进行逐帧检测,挑选出合适的标定图片,利用标定软件(张正友提出的标定方式)进行最终的标定,最后将标定参数提供给后续流程进行调用,进行完双目标定后,会得出两个相机的映射矩阵,但是此映射矩阵是从标定后的点到畸变点的映射,在双目标定时给出的是反向映射;根据反映射关系,将校正后的点对应到畸变的点,由于已知畸变点xerror和yerror,需要反求校正后的点xrectify和yrectify
所述反求校正后的点xrectify和yrectify,具体为:根据双目标定后的结果,能得出校正图像的实际有效区域在原图中的位置,找到单个相机校正后的有效区域的四个顶点和带有畸变的四个顶点的X,Y方向的距离差,然后根据这8个距离找出最大的横向距离和纵向距离,记录这两个最大距离为Width和Height;根据畸变原理,校正后的某个点的位置,都应该在畸变点的位置的周围处,那么根据求得的Width和Height,在校正的图上以畸变点的位置为中心构建一个矩形框;由于已知畸变点,并且在校正点周围已经构建了搜索框,于是利用遍历矩形框中的点位置,配合反向映射,求出潜在畸变点;计算求出的潜在畸变点与原畸变点的欧式距离,能生成最小距离的那个校正点就是要找到的那个畸变点对应的校正点,最终能给出畸变点映射到的校正点。
步骤3、所述嵌入式数据分析处理器接收到所述数据后,先根据该数据进行人手掌的检测,对于检测到的手掌按照比例进行扩充,扩充区域包含三个手指,再对扩充区域进行指尖的回归分析;所述三个手指为拇指、食指和中指。
步骤4、根据两个相机中指尖校正后的位置计算视差,计算出三个指尖的三维信息;
步骤5、根据三个指尖的空间轨迹信息或者预设的手势模型进行手势识别,给出当前识别的手势,并将识别的手势结果发送给主控制器;
步骤6、所述主控制器将所述识别结果转换成手势控制指令发送给数据传输器;
步骤7、所述数据传输器将所述手势控制指令发送给外部设备使用。
所述人手掌的检测采用深度学习BlazePalm模型,如图4所示,所述BlazePalm模型利用DW Conv的感受野配合1x1卷积核来进行特征提速,并采用了嵌套Single Blaze的方式来增加模型的表达能力。在较低层次的特征提取中,通过增加DW Conv的感受野,用以增加特征的提取能力,通过降低1x1卷积核的输出通道数,用以提升推理速度,这里称作SingleBlaze。在高层次的特征提取中,采取大感受野的DW Conv配合小维度的1x1卷积核。采用了嵌套Single Blaze的方式来增加模型的表达能力。从图4中可以看出其在第一个SingleBlaze的输出为24,而在第二个Single Blaze的输出为96。相比于MobileNet动则256、512、1024的1x1卷积核输出通道数,本发明所述模型仅用了一个24和一个96的1x1卷积核就完成了操作。在相同的模型层数下,BlazePalm的网络大小要小于MobileNet很多,速度上也会快上不少。并且,BlazePalm仅仅级联了2个尺度的特征进行人手检测,且在16x16特征下每个点仅采用2个anchor,在8x8特征下每个点采用6个anchor,在数据分布不复杂的情况下,既能解决问题,又可以提升网络推理的速度。
所述指尖的回归分析利用CenterNet模型,所述CenterNet模型将目标作为一个点即目标BBox的中心点,采用关键点估计来找到中心点;利用CenterNet进行完回归后,直接输出heatmap图,在heatmap图中找到区域极值作为回归点。CenterNet相比较传统目标检测而言(缩放16倍尺度),使用更大分辨率的输出特征图(缩放了4倍),因此无需用到多重特征图锚点。
所述手势包括手指捏合操作、捏合后的水平运动和捏合后的垂直运动。所述手指捏合操作表示选定,所述捏合后的水平运动表示平移,所述捏合后的垂直运动表示缩放。本发明也可以采用其他手势,在此不做具体限定。
以上对本发明所提出的一种基于嵌入式的红外双目手势控制系统及方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于嵌入式的红外双目手势控制系统,其特征在于:所述系统包括主控制器、红外双目模块、嵌入式数据分析处理器和数据传输器;所述红外双目模块包括双目相机和光源亮度控制器;
所述主控制器调用光源亮度控制器调节红外光源亮度,所述双目相机捕获用户手势数据,并将捕获到的用户手势数据发送给嵌入式数据分析处理器;所述嵌入式数据分析处理器接收到所述数据后,先根据该数据进行人手掌的检测,对于检测到的手掌按照比例进行扩充,扩充区域包含三个手指,再对扩充区域进行指尖的回归分析和指尖的轨迹分析,从而得到手势识别结果,并将识别结果发送给主控制器,所述主控制器将所述识别结果转换成手势控制指令发送给所述数据传输器,所述数据传输器将所述手势控制指令发送给外部设备使用。
2.根据权利要求1所述的系统,其特征在于:所述三个手指为拇指、食指和中指。
3.根据权利要求1所述的系统,其特征在于:所述手势包括手指捏合操作、捏合后的水平运动和捏合后的垂直运动。
4.根据权利要求1所述的系统,其特征在于:所述双目相机的镜头带有红外带通过滤膜。
5.一种基于嵌入式的红外双目手势控制方法,其特征在于:所述方法具体包括以下步骤:
步骤1、主控制器调用光源亮度控制器调节红外光源亮度;
步骤2、双目相机捕获用户手势数据,并将捕获到的用户手势数据发送给嵌入式数据分析处理器;
步骤3、所述嵌入式数据分析处理器接收到所述数据后,先根据该数据进行人手掌的检测,对于检测到的手掌按照比例进行扩充,扩充区域包含三个手指,再对扩充区域进行指尖的回归分析;
步骤4、根据两个相机中指尖校正后的位置计算视差,计算出三个指尖的三维信息;
步骤5、根据三个指尖的空间轨迹信息或者预设的手势模型进行手势识别,给出当前识别的手势,并将识别的手势结果发送给主控制器;
步骤6、所述主控制器将所述识别结果转换成手势控制指令发送给数据传输器;
步骤7、所述数据传输器将所述手势控制指令发送给外部设备使用。
6.根据权利要求5所述的方法,其特征在于:所述人手掌的检测采用深度学习BlazePalm模型,所述BlazePalm模型利用DW Conv的感受野配合1x1卷积核来进行特征提速,并采用了嵌套Single Blaze的方式来增加模型的表达能力。
7.根据权利要求5所述的方法,其特征在于:所述指尖的回归分析利用CenterNet模型,所述CenterNet模型将目标作为一个点即目标BBox的中心点,采用关键点估计来找到中心点;利用CenterNet进行完回归后,直接输出heatmap图,在heatmap图中找到区域极值作为回归点。
8.根据权利要求5所述的方法,其特征在于:在步骤2中需要对双目相机进行双目标定,所述双目标定采用离线标定方式,首先利用双目相机拍摄带有标定物件的视频,然后对视频进行逐帧检测,挑选出合适的标定图片,利用标定软件进行最终的标定,最后将标定参数提供给后续流程进行调用,进行完双目标定后,会得出两个相机的映射矩阵,但是此映射矩阵是从标定后的点到畸变点的映射,在双目标定时给出的是反向映射;根据反映射关系,将校正后的点对应到畸变的点,由于已知畸变点
Figure 766367DEST_PATH_IMAGE001
Figure 852003DEST_PATH_IMAGE002
,需要反求校正后的点
Figure 624787DEST_PATH_IMAGE003
Figure 572015DEST_PATH_IMAGE004
9.根据权利要求8所述的方法,其特征在于:所述反求校正后的点
Figure 746644DEST_PATH_IMAGE003
Figure 737603DEST_PATH_IMAGE004
,具体为:根据双目标定后的结果,能得出校正图像的实际有效区域在原图中的位置,找到单个相机校正后的有效区域的四个顶点和带有畸变的四个顶点的X,Y方向的距离差,然后根据这8个距离找出最大的横向距离和纵向距离,记录这两个最大距离为Width和Height;根据畸变原理,校正后的某个点的位置,都应该在畸变点的位置的周围处,那么根据求得的Width和Height,在校正的图上以畸变点的位置为中心构建一个矩形框;由于已知畸变点,并且在校正点周围已经构建了搜索框,于是利用遍历矩形框中的点位置,配合反向映射,求出潜在畸变点;计算求出的潜在畸变点与原畸变点的欧式距离,能生成最小距离的那个校正点就是要找到的那个畸变点对应的校正点,最终能给出畸变点映射到的校正点。
10.根据权利要求5所述的方法,其特征在于:所述三个手指为拇指、食指和中指。
CN202010190224.9A 2020-03-18 2020-03-18 一种基于嵌入式的红外双目手势控制系统及方法 Pending CN111290584A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010190224.9A CN111290584A (zh) 2020-03-18 2020-03-18 一种基于嵌入式的红外双目手势控制系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010190224.9A CN111290584A (zh) 2020-03-18 2020-03-18 一种基于嵌入式的红外双目手势控制系统及方法

Publications (1)

Publication Number Publication Date
CN111290584A true CN111290584A (zh) 2020-06-16

Family

ID=71030292

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010190224.9A Pending CN111290584A (zh) 2020-03-18 2020-03-18 一种基于嵌入式的红外双目手势控制系统及方法

Country Status (1)

Country Link
CN (1) CN111290584A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488059A (zh) * 2020-12-18 2021-03-12 哈尔滨拓博科技有限公司 一种基于深度学习模型级联的空间手势控制方法
CN112990310A (zh) * 2021-03-12 2021-06-18 国网智能科技股份有限公司 服务于电力机器人的人工智能系统及方法
CN113065482A (zh) * 2021-04-09 2021-07-02 上海云从企业发展有限公司 基于图像识别的行为检测方法、系统、计算机设备及介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488059A (zh) * 2020-12-18 2021-03-12 哈尔滨拓博科技有限公司 一种基于深度学习模型级联的空间手势控制方法
CN112488059B (zh) * 2020-12-18 2022-10-04 哈尔滨拓博科技有限公司 一种基于深度学习模型级联的空间手势控制方法
CN112990310A (zh) * 2021-03-12 2021-06-18 国网智能科技股份有限公司 服务于电力机器人的人工智能系统及方法
CN112990310B (zh) * 2021-03-12 2023-09-05 国网智能科技股份有限公司 服务于电力机器人的人工智能系统及方法
CN113065482A (zh) * 2021-04-09 2021-07-02 上海云从企业发展有限公司 基于图像识别的行为检测方法、系统、计算机设备及介质

Similar Documents

Publication Publication Date Title
CN109684924B (zh) 人脸活体检测方法及设备
Berman et al. Sensors for gesture recognition systems
Ng et al. Multi-view face detection and pose estimation using a composite support vector machine across the view sphere
US8897490B2 (en) Vision-based user interface and related method
CN111290584A (zh) 一种基于嵌入式的红外双目手势控制系统及方法
CN116018616A (zh) 保持帧中的目标对象的固定大小
WO2015172679A1 (zh) 一种图像处理方法和装置
KR101679290B1 (ko) 영상 처리 방법 및 장치
US9256324B2 (en) Interactive operation method of electronic apparatus
KR101491461B1 (ko) 공분산 기술자를 이용하는 물체 인식 방법 및 장치
CN106934351B (zh) 手势识别方法、装置及电子设备
CN109359514B (zh) 一种面向deskVR的手势跟踪识别联合策略方法
US20220221943A1 (en) Using natural movements of a hand-held device to manipulate digital content
KR20160138062A (ko) 적응적 호모그래피 매핑에 기초한 눈 시선 추적
CN109313799A (zh) 图像处理方法及设备
Nakamura Real-time 3-D object tracking using Kinect sensor
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及系统
CN114119739A (zh) 一种基于双目视觉的手部关键点空间坐标获取方法
WO2010144050A1 (en) Method and system for gesture based manipulation of a 3-dimensional image of object
Itkarkar et al. A survey of 2D and 3D imaging used in hand gesture recognition for human-computer interaction (HCI)
Labati et al. Fast 3-D fingertip reconstruction using a single two-view structured light acquisition
TW202145065A (zh) 一種圖像處理方法、電子設備及電腦可讀儲存介質
KR20140074201A (ko) 추적 장치
Perra et al. Adaptive eye-camera calibration for head-worn devices
CN105929939A (zh) 一种远距离手势控制终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination