CN108885487B - 一种可穿戴式系统的手势控制方法以及可穿戴式系统 - Google Patents
一种可穿戴式系统的手势控制方法以及可穿戴式系统 Download PDFInfo
- Publication number
- CN108885487B CN108885487B CN201680080068.2A CN201680080068A CN108885487B CN 108885487 B CN108885487 B CN 108885487B CN 201680080068 A CN201680080068 A CN 201680080068A CN 108885487 B CN108885487 B CN 108885487B
- Authority
- CN
- China
- Prior art keywords
- wearable system
- gesture
- camera
- wearable
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
提供了一种可穿戴式系统的手势控制方法以及可穿戴式系统,用于当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的视野范围内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。可穿戴式系统创建手势工作区域和兴趣区域(201),兴趣区域包含于第一摄像头的拍摄范围,第一摄像头包含于可穿戴设备;可穿戴式系统获取自身的位置参数(202);可穿戴式系统根据位置参数调整兴趣区域(203),以使得兴趣区域覆盖手势工作区域;可穿戴式系统采集手势工作区域内的手势图像(204);可穿戴式系统识别手势图像得到手势指令(205);可穿戴式系统根据手势指令执行相应操作(206)。
Description
技术领域
本申请实施例涉及到通信领域,尤其涉及到一种可穿戴式系统的手势控制方法以及可穿戴式系统。
背景技术
随着可穿戴式系统的普及,可穿戴式系统的控制方法也由传统的基于键盘和触屏的控制方法变为了手势控制方法。手势控制方法与基于键盘和触屏的控制方法相比,手势控制方法具有装置简单、操控容易和指令丰富等优点,从而能极大地减轻设备的设计难度。目前手势控制方法已成为可穿戴式系统的炙手可热的控制方法之一,并且已逐渐开始应用于各种设备中。
目前的可穿戴式系统可以通过摄像头采集反射的红外光或者通过摄像头对自然光下的手势进行立体成像来确定手势图像,进而实现的手势控制。而目前的可穿戴式系统配备的是相对于可穿戴式系统固定的摄像头,从而导致摄像头的拍摄范围是固定的。
从而导致可穿戴式系统的视野范围固定,当可穿戴式系统的位置发生变化时,其视野范围也发生变化,导致手势工作区域超出视野范围,从而导致可穿戴式系统无法采集识别手势图像,进而实现手势控制。
发明内容
本申请实施例提供一种可穿戴式系统的手势控制方法以及可穿戴式系统,当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的兴趣区域内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。
第一方面,本申请实施例提供一种可穿戴式系统的手势控制方法,包括:
可穿戴式系统建立手势工作区域和兴趣区域,该兴趣区域包含于该可穿戴式系统的第一摄像头的拍摄范围内;
本申请实施例中的该兴趣区域可以只是该可穿戴式系统的第一摄像头的一部分拍摄范围也可以是全部的拍摄范围,具体创建方法,此处不做限定。
该可穿戴式系统获取自身的位置参数;
本申请实施例中可穿戴式系统可以通过多种方式来获取自身的位置参数,比如可穿戴式系统可以通过但不限于重力传感器和/或加速度传感器和/或陀螺仪等来获取自身的位置信息,具体做法此处不做限定。
该可穿戴式系统根据该位置参数调整该兴趣区域,以使得该兴趣区域覆盖该手势工作区域;该可穿戴式系统采集该手势工作区域内的手势图像,该手势图像包括静态手的姿势和/或动态手势动作;该可穿戴式系统识别该手势图像得到手势指令;该可穿戴式系统根据该手势指令执行相应操作。
本申请提供的方案中,在可穿戴式系统创建好手势工作区域以及兴趣区域之后,可穿戴式系统获取自身的位置参数,并根据该位置参数调整可穿戴式系统的兴趣区域,以使得该兴趣区域能覆盖到手势工作区域,该兴趣区域为该可穿戴式系统包含于该第一摄像头的拍摄范围内。当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的视野范围内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。
可选的,该可穿戴式系统在根据该位置参数调整该兴趣区域具体方法如下:
该可穿戴式系统在获取到该可穿戴式系统的偏移角度之后,该可穿戴式系统根据该偏移角度利用该第一关系式计算该摄像头的第一调整角度,该第一关系式由该可穿戴式系统根据第一坐标系,第二坐标系与第三坐标系确定,该第一坐标系由该可穿戴式系统根据该手势工作区域创建,该第二坐标系由该可穿戴式系统根据该兴趣区域创建,该第三坐标系由该可穿戴式系统根据该可穿戴式系统自身创建;该可穿戴式系统根据该第一调整角度调整反射镜的角度和/或通过旋转马达调整该摄像头的拍摄角度,进而调整该可穿戴式系统的兴趣区域。在本申请实施例中,该反射镜用于将该可穿戴式系统的兴趣区域内的影像反射进该可穿戴式系统的摄像头的拍摄范围内。
在本申请实施例中,该可穿戴式系统创建的该第一坐标系,该第二坐标系以及该第三坐标系可以是直角坐标系也可以是欧拉角坐标系或其他坐标系,具体此处不做限定,本申请实施例中以直角坐标系为例说明时,该第一关系式包括:
a31Xw+a32Yw+a33Zw+ΔZew=C;
所述γ为需要调整兴趣区域的临界值,所述C根据手势图像大小,由比例关系确定,所述α,β为所述第一摄像头的第一调整角度,其中α为绕x轴旋转的角度,β为绕y轴旋转的角度;第一坐标系:Ow-XwYwZw;第二坐标系:Oc-XcYcZc;第三坐标系:Oe-XeYeZe,所述(Xw,Yw,Zw)为所述第一坐标系的点的坐标值,所述(Xe,Ye,Ze)为所述(Xw,Yw,Zw)在所述第三坐标系的点的坐标值,所述(Xc(i-1),Yc(i-1),Zc(i-1))为所述第二坐标系旋转后当前成像中心点在所述第三坐标系的坐标值,所述为所述第二坐标系旋转前当前成像中心点在所述第三坐标系的坐标值(Xc(i-2),Yc(i-2),Zc(i-2));所述(ΔXew,ΔYew,ΔZew)为第一坐标系转换到第三坐标系时x,y,z三个方向的平移位移,所述(a11,a12,a13,a21,a22,a23,a31,a32,a33)由如下公式确定:
其中所述(εx,εy,εz)分别为第一坐标系转换到第三坐标系时x,y,z三个方向的旋转角度。
本申请实施例提供的方案中,采用调整反射镜的安装角度和/或利用旋转马达来调整该摄像头的拍摄角度的两种方式来调整该可穿戴式系统的兴趣区域,这样可以灵活实现兴趣区域的调整。
可选的,当可穿戴式系统进行俯视或仰视时,当该可穿戴式系统进行俯视或仰视时,该可穿戴式系统通过该位置参数获得俯仰角,该俯仰角用于指示该可穿戴式系统向下或向上偏移的角度;
该可穿戴式系统根据该俯仰角利用该第二关系式计算该摄像头的第二调整角度,所述第二关系式为所述可穿戴式系统根据所述第一坐标系,所述第二坐标系与所述第三坐标系确定;
该可穿戴式系统根据该第二调整角度调整反射镜的角度和/或通过旋转马达调整摄像头的拍摄角度,进而调整该兴趣区域,该反射镜用于将该可穿戴式系统的视野范围内的影像反射进该摄像头的拍摄范围内;
所述第二关系式为:
或,
所述(Xworld,Yworld,Zworld)为所述手势工作区域的坐标,所述(Xcamera,Ycamera,Zcamera)为所述兴趣区域的坐标,所述为所述俯仰角,所述φ为所述第二调整角度,所述θ为所述兴趣区域的视角度,所述1为所述摄像头的长度,所述dx为所述摄像头与所述手势工作区域的垂直距离,所述dz为所述摄像头与所述手势工作区域的水平距离。
可选的,该可穿戴式系统在采集手势图像的过程中还可以通过自身的红外光发射器发射红外光覆盖该手势工作区域;同时通过红外滤光片进行过滤得到该手势工作区域反射的红外光,并通过该可穿戴式系统的第一摄像头与第二摄像头接收该反射的红外光,该第二摄像头包含于该可穿戴式系统;该第一摄像头接收到该反射的红外光之后就可以生成第一手势图像,该第二摄像头接收到该反射的红外光之后就可以生成第二手势图像;该可穿戴式系统再对该第一手势图像和该第二手势图像进行计算得到该手势图像。
本申请实施例中,该可穿戴式系统对该第一手势图像和该第二手势图像可以通过坐标变换,立体校正,立体匹配等计算得到该手势图像。
本申请实施例提供的方案中,采用自身的红外光发射器发射红外光覆盖手势工作区域能增强手势信号;采用红外光滤光片可以滤除掉红外光以外的杂光,从而简化图像的色彩处理;采用双摄像头进行双目视觉采集手势图像,可以使得得到的手势图像中包含有图像深度信息,从而提高手势图像的识别精度。
可选的,在可穿戴式系统采集手势图像的过程中,该可穿戴式系统可实时检测采集到的手势图像中是否存在该第一摄像头携带的激光器发射激光形成的光斑,当手势图像中不存在光斑时,该可穿戴式系统可以调整该兴趣区域,以使得该可穿戴式系统重新采集的手势图像中存在该光斑,从而实现实时追踪。
本申请实施例提供的方案中,该可穿戴式系统在手势图像中不存在激光器发射激光形成的光斑时调整兴趣区域从而实现第一摄像头对手势精确跟踪与对准,进一步保证了跟踪能力和识别精度。
第二方面,本申请实施例提供一种可穿戴式系统,该可穿戴式系统具有实现上述方法中可穿戴式系统实现的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
该可穿戴式系统包括第一摄像头,传感器以及处理器,总线;
该第一摄像头,该传感器与该处理器通过该总线相连;
该传感器包含于该可穿戴式系统;
该处理器包含于该可穿戴式系统;
该处理器创建手势工作区域并根据该手势工作区域创建兴趣区域,该兴趣区域包含于该第一摄像头的拍摄范围,该第一摄像头包含于该可穿戴式系统;
该传感器获取该可穿戴式系统的位置参数;
该处理器根据该传感器获取的位置参数调整该兴趣区域,以使得该兴趣区域覆盖该手势工作区域;
该第一摄像头采集该手势工作区域内的手势图像,该手势图像包括静态手的姿势和/或动态手势动作;
该处理器识别该第一摄像头采集到的该手势图像得到手势指令;根据该手势指令执行相应操作。
第三方面,提供了一种计算机存储介质,该计算机存储介质中存储有程序代码,该程序代码用于指示执行上述第一方面的方法。
本申请方案的有益效果:
本申请提供的方案中,在可穿戴式系统创建好手势工作区域以及兴趣区域之后,可穿戴式系统获取自身的位置参数,并根据该位置参数调整可穿戴式系统的兴趣区域,以使得该兴趣区域能覆盖到手势工作区域,该兴趣区域包含于该第一摄像头的拍摄范围内。当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的视野范围内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。
附图说明
图1为本申请实施例中可穿戴式系统的系统框架示意图;
图2为本申请实施例中可穿戴式系统的手势控制方法的一个实施例示意图;
图3为本申请实施例中手势图像与手势指令的映射关系集合示意图;
图4为本申请实施例中可穿戴式系统的一个示意图;
图5为本申请实施例中可穿戴式系统的另一个示意图。
具体实施方式
本申请实施例提供一种可穿戴式系统的手势控制方法以及可穿戴式系统,当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的兴趣区域内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。
为了使本技术领域的人员更好地理解本申请实施例方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请实施例一部分的实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请实施例保护的范围。
本申请实施例的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
随着可穿戴式系统的普及,手势控制方法已逐渐开始应用于各种设备中。可穿戴式系统的手势控制方法可以通过摄像头采集辅助设备反射的红外光或者通过摄像头对自然光下的手势进行立体成像来确定手势图像,进而实现手势控制。而可穿戴式系统配备的是相对于可穿戴式系统固定的摄像头,从而导致摄像头的拍摄范围是固定的。从而导致可穿戴式系统的视野范围固定,当可穿戴式系统的位置发生变化时,其视野范围也发生变化,导致手势工作区域超出视野范围,从而导致可穿戴式系统无法采集识别手势图像,进而实现手势控制。
请参阅图1所示,为解决当可穿戴式系统的位置发生变化时,该可穿戴式系统无法采集识别手势图像这一问题,本申请实施例提供了如下技术方案:该可穿戴式系统包括第一摄像头,传感器,以及处理器,总线;该处理器创建手势工作区域和兴趣区域,该兴趣区域包含于该第一摄像头的拍摄范围内;该传感器获取该可穿戴式系统的当前位置参数;该处理器根据该传感器获取的位置参数调整该兴趣区域,即确保该兴趣区域覆盖该手势工作区域;该第一摄像头采集该手势工作区域内的手势图像;该处理器识别该第一摄像头采集到的该手势图像得到手势指令并根据该手势指令执行相应操作。
在本申请实施例中,该第一摄像头,该传感器,以及该处理器可以采用集成式组成该可穿戴式系统,即所有组成部件都位于一个设备中;也可以采用分布式的形式组成该可穿戴式系统,即各个组成部件不都在一个设备中。此处该可穿戴式系统的组成方式不做限定。
具体请参阅图2:
201、处理器创建手势工作区域和兴趣区域。
该处理器可以根据用户的体验创建手势工作区域和兴趣区域。比如用户在使用过程中比较习惯在设备的正前方半米处做手势,且手势划动的区域不超过0.5平方米,则处理器可以将设备的正前方半米处设置一个大小为0.5平方米的区域作为手势工作区域。该兴趣区域可以是可穿戴式系统的摄像头的全部视野范围也可以是可穿戴式系统的摄像头的一部分视野范围。比如该摄像头可的视野范围为60度角,该兴趣区域的视野范围可以为60度也可以只有30度的范围。
本申请实施例中该处理器可以是集成在可穿戴式系统中特定的处理器,也可以是其他可以终端设备,比如手机或平板电脑等,此处处理器的形式并不做限定。
202、传感器获取可穿戴式系统的位置参数。
可穿戴式系统可能通过各种传感器来获取自身当前的位置参数。
这里的传感器包括但不限于重力传感器,加速度传感器等传感器。这里的位置参数包括但不限于方向,角度等参数。
203、处理器根据位置参数调整兴趣区域。
处理器根据该位置参数得到该可穿戴式系统相对与手势工作区域发生的偏移角度,然后再根据关系式计算得到该可穿戴式系统的摄像头的调整角度,再根据该调整角度调整反射镜来调整摄像头的拍摄范围进而调整该兴趣区域,也可以根据该调整角度利用旋转马达来调整摄像头的拍摄范围进而调整该兴趣区域,以使得该兴趣区域能覆盖住该手势工作区域。
可选的,该关系式可以由该手势区域的第一坐标系,该兴趣区域的第二坐标系以及该可穿戴式系统的第三坐标系来确定,根据该可穿戴式系统建立该第一坐标系,该第二坐标系以及该第三坐标系采用的方法不同,该关系式也不同,该可穿戴式系统可以建立直角坐标系也可以建立欧拉角坐标系或其他不同的坐标系,具体的建立坐标系的方法,此处不做限定。本申请实施例中以直角坐标系为例。
第一关系式包括:
a31Xw+a32Yw+a33Zw+ΔZew=C;
所述γ为需要调整兴趣区域的临界值,所述C根据手势图像大小,由比例关系确定,所述α,β为所述第一摄像头的第一调整角度,其中α为绕x轴旋转的角度,β为绕y轴旋转的角度;第一坐标系:Ow-XwYwZw;第二坐标系:Oc-XcYcZc;第三坐标系:Oe-XeYeZe,所述(Xw,Yw,Zw)为所述第一坐标系的点的坐标值,所述(Xe,Ye,Ze)为所述(Xw,Yw,Zw)在所述第三坐标系的点的坐标值,所述(Xc(i-1),Yc(i-1),Zc(i-1))为所述第二坐标系旋转后当前成像中心点在所述第三坐标系的坐标值,所述为所述第二坐标系旋转前当前成像中心点在所述第三坐标系的坐标值(Xc(i-2),Yc(i-2),Zc(i-2));所述(ΔXew,ΔYew,ΔZew)为第一坐标系转换到第三坐标系时x,y,z三个方向的平移位移,所述(a11,a12,a13,a21,a22,a23,a31,a32,a33)由如下公式确定:
其中所述(εx,εy,εz)分别为第一坐标系转换到第三坐标系时x,y,z三个方向的旋转角度。
比如当该可穿戴式系统相对于水平线仰视时,该处理器根据当前的位置参数得出当前的偏移角度只有一个即相对于水平线偏移了15度,那么根据该关系式可以得出该调整角度为10度,则该处理器可以将反射镜根据10度这个值进行相应的调整或者直接通过旋转马达将该摄像头的镜头根据10度这个值进行相应的调整。
当该可穿戴式系统相对于垂直线进行左视时,该处理器根据当前的位置参数得出当前的偏移角度只有一个即相对于垂直线偏移了15度,那么根据该关系式可以得出该调整角度为15度,则该处理器可以将反射镜根据15度这个值进行相应的调整或者直接通过旋转马达将该摄像头的镜头根据15度这个值进行相应的调整。
当该可穿戴式系统转向斜上方时,该处理器根据当前的位置参数得出当前的偏移角度有两个即相对于水平线偏移了10度,相对于垂直线偏移了15度,那么根据该关系式可以得出该调整角度为8度和15度,则该处理器可以将反射镜根据8度和15度这个值进行相应的调整或者直接通过旋转马达将该摄像头的镜头根据8度和15度这个值进行相应的调整。
204、可穿戴式系统采集手势工作区域内的手势图像。
该可穿戴式系统建立手势模板,并采集在手势工作区域内的用户的手势,根据采集到的手势对应该手势模块生成手势图像,该手势图像包括静态手的姿势或者是动态手的动作。
可选的,该可穿戴式系统在采集手势工作区域内的手势图像的过程中还可以采用如下方法:
该可穿戴式系统可以通过自身的红外光发射器发射红外光覆盖手势工作区域,这样可以增强用户的手势图像的信号;
该可穿戴式系统可以通过红外光滤光片进行过滤杂光得到该手势工作区域反射回来的红外光,这样可以减少杂光的进入从而减轻可穿戴式系统在手势图像上的色彩的处理复杂度;
同时在本申请实施例中,该可穿戴式系统采用了双目视觉的两个摄像头采集手势图像,即该可穿戴式系统还可以包含第二摄像头。这里第一摄像头接收到该手势工作区域反射的红外光之后生成第一手势图像,第二摄像头接收到该手势工作区域反射的红外光之后生成第二手势图像,该可穿戴式系统再通过坐标变换,立体校正立体匹配等计算方法对第一手势图像和第二手势图像进行计算得到手势图像,这样该手势图像包含了视差图像和深度图像,从而使得该可穿戴式系统可以更精确的识别该手势图像。
可选的,该可穿戴式系统还可以对手势实现更精确的跟踪识别,具体方法如下:
该可穿戴式系统在摄像头上携带有激光器,该激光器发出的激光可以在手势图像上形成光斑,当该可穿戴式系统采集到的手势图像上不存在光斑时,该可穿戴式系统确定自身的兴趣区域与手势区域未完全覆盖,即采集到的手势图像不清晰,这时,该可穿戴式系统可以调整兴趣区域,从而保证再次采集到的手势图像中存在光斑。
可选的,该可穿戴式系统建立手势模板方法可以为通过动力学参数和其的二维投影建立三维手势模型。比如,基于隐马尔克夫模型-模糊神经网络(hidden markov model-fuzzy neural network,简称HMM-FNN)的复杂动态手势模型,手势特征值V可以用如下公式描述:
其中:α(0-100)为比例数,n为手势图像中可见的手指个数,E为为当前手势区域的偏心率,可以按照如下公式计算:
公式中,A,B分别为刚体绕x,y轴的转动惯量,H为惯性积。在实际应用中建立手势模板的方法可以有很多种,并不限定于使用如上方法。
205、可穿戴式系统识别手势图像得到手势指令。
可穿戴式系统建立手势图像与手势指令之间的映射关系集合,该可穿戴式系统再根据该映射关系集合将该手势图像转换为对应的手势指令。
比如该可穿戴式系统建立的映射关系集合可以如图3所示:编号02可以表示停止当前应用,编号03表示播放歌曲列表里的第一首音乐,编号04表示播放歌曲列表里的第二首音乐,编号10表示缩小当前图片,编号11表示放大当前图片,具体的映射关系可以由用户自己设定,此处不做限定。
206、可穿戴式系统根据所述手势指令执行相应操作。
该可穿戴式系统根据得到的该手势指令执行相应的操作,比如该可穿戴式系统根据手势图像得到的手势指令为播放音乐,则该可穿戴式系统启动音乐播放器播放音乐。
本申请提供的方案中,在可穿戴式系统创建好手势工作区域以及兴趣区域之后,可穿戴式系统获取自身的位置参数,并根据该位置参数调整可穿戴式系统的兴趣区域,以使得该兴趣区域能覆盖到手势工作区域,该兴趣区域包含于可穿戴式系统的摄像头的视野范围。当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的视野范围内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。同时该可穿戴式系统采用自身的红外光发射器发射红外光覆盖手势工作区域能增强手势信号;采用红外光滤光片可以滤除掉红外光以外的杂光,从而简化图像的色彩处理;采用双摄像头进行双目视觉采集手势图像,可以使得得到的手势图像中包含有图像深度信息,从而提高手势图像的识别精度。该可穿戴式系统在手势图像中不存在激光器发射激光形成的光斑时调整兴趣区域从而实现第一摄像头对手势精确跟踪与对准,进一步保证了跟踪能力和识别精度。上面对本申请实施例中的可穿戴式系统的手势控制方法进行了描述,下面根据该可穿戴式系统的不同组成方式对本申请实施例中的可穿戴式系统进行描述,
一、该可穿戴式系统采用集成式组成方式,以头戴式眼镜为例,具体请参阅图4:
该可穿戴式系统4400包括:镜架:401,镜片402,第一摄像头403,红外光发光二极管LED404,传感器405,显示设备406以及处理器407,总线408;
该第一摄像头403,该传感器405,该显示设备406与该处理器407通过总线408相连;
总线408可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条线表示,但并不表示仅有一根总线或一种类型的总线。
该第一摄像头403携带有激光器410和红外滤光片411,该可穿戴式系统还包括第二摄像头409,该第二摄像头409也携带有激光器410和红外滤光片411;该第一摄像头403和该第二摄像头409分别位于该镜架401的横向两侧;该第一摄像头403和该第二摄像头409还包括反射镜和/或旋转马达,该反射镜用于将该兴趣区域内的影像反射进该第一摄像头和该第二摄像头的拍摄范围内;该旋转马达用于调整该第一摄像头和该第二摄像头的拍摄角度;
该红外光LED404包含于该可穿戴式系统400;
该传感器405包含于该可穿戴式系统400;
该显示设备406包含于该可穿戴式系统400;该处理器407包含于该可穿戴式系统400;
该处理器407,用于创建手势工作区域并根据该手势工作区域创建兴趣区域,该兴趣区域包含于该第一摄像头403的拍摄范围,该第一摄像头403包含于该可穿戴式系统;
该传感器405,用于获取该可穿戴式系统的位置参数;
该处理器407,用于根据该传感器405获取的位置参数调整该兴趣区域,以使得该兴趣区域覆盖该手势工作区域;
该摄像头403,用于采集该手势工作区域内的手势图像,该手势图像包括静态手的姿势和/或动态手势动作;
该处理器407,用于识别该第一摄像头403采集到的该手势图像得到手势指令;根据该手势指令执行相应操作。
该处理器407,具体还具有的功能如图2所示的方法相同,此处不再赘述。
可选的,该红外光LED404,用于发射红外光覆盖该处理器创建的该手势工作区域;
该红外滤光片411,用于过滤得到该处理器创建的该手势工作区域反射的红外光;
第一摄像头403与第二摄像头409,用于接收该红外滤光片411得到的该反射的红外光;
该处理器407,用于根据该第一摄像头403接收的该反射的红外光生成第一手势图像,根据该第二摄像头409接收的该反射的红外光生成第二手势图像;并对该第一手势图像以及该第二手势图像计算得到该手势图像。
可选的,该处理器407,用于当该确定该手势图像中不存在光斑时,重新调整该摄像头的拍摄角度,进而调整该兴趣区域,以使得重新采集的手势图像中存在该光斑,该光斑为该激光器410发射激光生成。
本申请提供的方案中,在处理器407创建好手势工作区域以及兴趣区域之后,传感器405获取自身的位置参数,处理器407并根据该位置参数调整可穿戴式系统的兴趣区域,以使得该兴趣区域能覆盖到手势工作区域,该兴趣区域包含于第一摄像头403的视野范围。当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的视野范围内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。同时该可穿戴式系统采用红外光发光二极管LED404发射红外光覆盖手势工作区域能增强手势信号;采用红外滤光片411可以滤除掉红外光以外的杂光,从而简化图像的色彩处理;采用双摄像头,即第一摄像头403和第二摄像头409进行双目视觉采集手势图像,可以使得得到的手势图像中包含有图像深度信息,从而提高手势图像的识别精度。该可穿戴式系统在手势图像中不存在激光器410发射激光形成的光斑时调整兴趣区域从而实现第一摄像头403和第二摄像头409对手势精确跟踪与对准,进一步保证了跟踪能力和识别精度。
二、该可穿戴式系统采用分布式组成方式,以头戴式眼镜为例,具体请参阅图5:
该可穿戴式系统500包括:镜架501,镜片502,第一摄像头503,红外光发光二极管LED504,传感器505,显示设备506以及处理器507;
该可穿戴式系统中的处理器507为其他终端设备,比如手机,平板电话等,同时该处理器507可以通过蓝牙或其他无线连接的方式与该可穿戴式系统中的该第一摄像头503,该传感器505,该显示设备506进行连接;
该第一摄像头503携带有激光器509和红外滤光片510,该可穿戴式系统还包括第二摄像头509,该第二摄像头508也携带有激光器509和红外滤光片510;该第一摄像头503和该第二摄像头508分别位于该镜架501的横向两侧;该第一摄像头503和该第二摄像头508还包括反射镜和/或旋转马达,该反射镜用于将该兴趣区域内的影像反射进该第一摄像头和该第二摄像头的拍摄范围内;该旋转马达用于调整该第一摄像头和该第二摄像头的拍摄角度;
该红外光LED504包含于该可穿戴式系统500;
该传感器505包含于该可穿戴式系统500;
该显示设备506包含于该可穿戴式系统500;该处理器507包含于该可穿戴式系统500;
该处理器507,用于创建手势工作区域并根据该手势工作区域创建兴趣区域,该兴趣区域包含于该第一摄像头503的拍摄范围,该第一摄像头503包含于该可穿戴式系统;
该传感器505,用于获取该可穿戴式系统的位置参数;
该处理器507,用于根据该传感器505获取的位置参数调整该兴趣区域,以使得该兴趣区域覆盖该手势工作区域;
该摄像头503,用于采集该手势工作区域内的手势图像,该手势图像包括静态手的姿势和/或动态手势动作;
该处理器507,用于识别该第一摄像头503采集到的该手势图像得到手势指令;根据该手势指令执行相应操作。
该处理器507,具体还具有的功能如图2所示的方法相同,此处不再赘述。
可选的,该红外光LED504,用于发射红外光覆盖该处理器创建的该手势工作区域;
该红外滤光片510,用于过滤得到该处理器创建的该手势工作区域反射的红外光;
第一摄像头503与第二摄像头508,用于接收该红外滤光片510得到的该反射的红外光;
该处理器507,用于根据该第一摄像头503接收的该反射的红外光生成第一手势图像,根据该第二摄像头508接收的该反射的红外光生成第二手势图像;并对该第一手势图像以及该第二手势图像计算得到该手势图像。
可选的,该处理器507,用于当该确定该手势图像中不存在光斑时,重新调整该摄像头的拍摄角度,进而调整该兴趣区域,以使得重新采集的手势图像中存在该光斑,该光斑为该激光器509发射激光生成。本申请提供的方案中,在处理器507创建好手势工作区域以及兴趣区域之后,传感器505获取自身的位置参数,处理器507并根据该位置参数调整可穿戴式系统的兴趣区域,以使得该兴趣区域能覆盖到手势工作区域,该兴趣区域包含于第一摄像头503的视野范围。当可穿戴式系统位置发生变化时,可穿戴式系统可以保证手势工作区域一直处于可穿戴式系统的视野范围内,因此可穿戴式系统仍能采集识别手势图像,实现手势控制。同时该可穿戴式系统采用红外光发光二极管LED504发射红外光覆盖手势工作区域能增强手势信号;采用红外滤光片510可以滤除掉红外光以外的杂光,从而简化图像的色彩处理;采用双摄像头,即第一摄像头503和第二摄像头508进行双目视觉采集手势图像,可以使得得到的手势图像中包含有图像深度信息,从而提高手势图像的识别精度。该可穿戴式系统在手势图像中不存在激光器509发射激光形成的光斑时调整兴趣区域从而实现第一摄像头503和第二摄像头508对手势精确跟踪与对准,进一步保证了跟踪能力和识别精度。同时该处理器507由其他终端设备代替,可以节省可穿戴式系统的成本。
本发明实施例提供的可穿戴式系统,并不局限于眼镜的形式,也可以是智能手表、智能手环、头盔等形式,如前所述,也可以是分布式的形式。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请实施例各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述,以上实施例仅用以说明本申请实施例的技术方案,而非对其限制;尽管参照前述实施例对本申请实施例进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请实施例各实施例技术方案的精神和范围。
Claims (10)
1.一种可穿戴式系统的手势控制方法,其特征在于,包括:
可穿戴式系统创建手势工作区域和兴趣区域,所述兴趣区域包含于第一摄像头的拍摄范围,所述第一摄像头包含于所述可穿戴式系统;
所述可穿戴式系统获取自身的位置参数;
所述可穿戴式系统根据所述位置参数调整所述兴趣区域,以使得所述兴趣区域覆盖所述手势工作区域;
所述可穿戴式系统采集所述手势工作区域内的手势图像,所述手势图像包括静态手的姿势和/或动态手势动作;
所述可穿戴式系统识别所述手势图像得到手势指令;
所述可穿戴式系统根据所述手势指令执行相应操作;
所述可穿戴式系统采集所述手势工作区域内的手势图像之后,所述可穿戴式系统识别所述手势图像得到手势指令之前,所述方法还包括:
当所述可穿戴式系统确定所述手势图像中不存在光斑时,所述可穿戴式系统重新调整所述兴趣区域,以使得所述可穿戴式系统重新采集的手势图像中存在所述光斑,所述光斑为所述可穿戴式系统的所述第一摄像头携带的激光器发射激光生成。
2.根据权利要求1所述的可穿戴式系统的手势控制方法,其特征在于,所述可穿戴式系统根据所述位置参数调整所述兴趣区域包括:
所述可穿戴式系统根据所述位置参数得到所述可穿戴式系统的偏移角度;
所述可穿戴式系统根据所述偏移角度利用第一关系式计算所述第一摄像头的第一调整角度,所述第一关系式由所述可穿戴式系统根据第一坐标系,第二坐标系与第三坐标系确定,所述第一坐标系由所述可穿戴式系统根据所述手势工作区域创建,所述第二坐标系由所述可穿戴式系统根据所述兴趣区域创建,所述第三坐标系由所述可穿戴式系统根据所述可穿戴式系统自身创建;
所述可穿戴式系统根据所述第一调整角度调整反射镜的角度和/或通过旋转马达调整所述第一摄像头的拍摄角度,进而调整所述兴趣区域,所述反射镜用于将所述兴趣区域内的影像反射进所述第一摄像头的拍摄范围内。
3.根据权利要求2所述的可穿戴式系统的手势控制方法,其特征在于,所述第一关系式包括:
a31Xw+a32Yw+a33Zw+ΔZew=C;
所述γ为需要调整兴趣区域的临界值,所述C根据手势图像大小,由比例关系确定,所述α,β为所述第一摄像头的第一调整角度,其中α为绕x轴旋转的角度,β为绕y轴旋转的角度;第一坐标系:Ow-XwYwZw;第二坐标系:Oc-XcYcZc;第三坐标系:Oe-XeYeZe,所述(Xw,Yw,Zw)为所述第一坐标系的点的坐标值,所述(Xe,Ye,Ze)为所述(Xw,Yw,Zw)在所述第三坐标系的点的坐标值,所述(Xc(i-1),Yc(i-1),Zc(i-1))为所述第二坐标系旋转后当前成像中心点在所述第三坐标系的坐标值,所述为所述第二坐标系旋转前当前成像中心点在所述第三坐标系的坐标值(Xc(i-2),Yc(i-2),Zc(i-2));所述(ΔXew,ΔYew,ΔZew)为第一坐标系转换到第三坐标系时x,y,z三个方向的平移位移,所述(a11,a12,a13,a21,a22,a23,a31,a32,a33)由如下公式确定:
其中所述(εx,εy,εz)分别为第一坐标系转换到第三坐标系时x,y,z三个方向的旋转角度。
4.根据权利要求1所述的可穿戴式系统的手势控制方法,其特征在于,所述可穿戴式系统根据所述位置参数调整所述兴趣区域包括:
当所述可穿戴式系统进行俯视或仰视时,所述可穿戴式系统通过所述位置参数获得俯仰角,所述俯仰角用于指示所述可穿戴式系统向下或向上偏移的角度;
所述可穿戴式系统根据所述俯仰角利用第二关系式计算所述第一摄像头的第二调整角度,所述第二关系式为所述可穿戴式系统根据第一坐标系,第二坐标系与第三坐标系确定,所述第一坐标系由所述可穿戴式系统根据所述手势工作区域创建,所述第二坐标系由所述可穿戴式系统根据所述兴趣区域创建,所述第三坐标系由所述可穿戴式系统根据所述可穿戴式系统自身创建;
所述可穿戴式系统根据所述第二调整角度调整反射镜的角度和/或通过旋转马达调整所述第一摄像头的拍摄角度,进而调整所述兴趣区域,所述反射镜用于将所述可穿戴式系统的视野范围内的影像反射进所述第一摄像头的拍摄范围内;
所述第二关系式为:
或,
5.根据权利要求1至4中的任一项所述的可穿戴式系统的手势控制方法,其特征在于,所述可穿戴式系统采集所述手势工作区域内的手势图像包括:
所述可穿戴式系统通过自身的红外光发射器发射红外光覆盖所述手势工作区域;
所述可穿戴式系统通过红外滤光片进行过滤得到所述手势工作区域反射的红外光,并通过所述第一摄像头与第二摄像头接收所述反射的红外光,所述第二摄像头包含于所述可穿戴式系统;
所述可穿戴式系统通过所述第一摄像头生成第一手势图像,通过所述第二摄像头生成第二手势图像;
所述可穿戴式系统对所述第一手势图像以及所述第二手势图像进行计算得到所述手势图像。
6.一种可穿戴式系统,其特征在于,包括:
第一摄像头,传感器以及处理器,总线;
所述第一摄像头,所述传感器与所述处理器通过所述总线相连;
所述传感器包含于所述可穿戴式系统;
所述处理器包含于所述可穿戴式系统;
所述处理器创建手势工作区域和兴趣区域,所述兴趣区域包含于所述摄像头的拍摄范围,所述摄像头包含于所述可穿戴式系统;
所述传感器获取所述可穿戴式系统的位置参数;
所述处理器根据所述传感器获取的位置参数调整所述兴趣区域,以使得所述兴趣区域覆盖所述手势工作区域;
所述第一摄像头采集所述手势工作区域内的手势图像,所述手势图像包括静态手的姿势和/或动态手势动作;
所述处理器识别所述第一摄像头采集到的所述手势图像得到手势指令;根据所述手势指令执行相应操作;
所述处理器,还用于当确定所述第一摄像头采集到的所述手势图像中不存在光斑时,重新调整所述第一摄像头的拍摄角度,进而调整所述兴趣区域,以使得重新采集的手势图像中存在光斑,所述光斑为所述第一摄像头携带的激光器发射激光生成。
7.根据权利要求6所述的可穿戴式系统,其特征在于,
所述第一摄像头还包括反射镜和/或旋转马达,所述反射镜用于将所述兴趣区域内的影像反射进所述第一摄像头的拍摄范围内;所述旋转马达用于调整所述第一摄像头的拍摄角度;
所述处理器,用于根据所述传感器获取的位置参数得到所述可穿戴式系统的偏移角度;根据所述偏移角度利用第一关系式计算第一调整角度,所述第一关系式由所述可穿戴式系统根据第一坐标系,第二坐标系与第三坐标系确定,所述第一坐标系由所述可穿戴式系统根据所述手势工作区域创建,所述第二坐标系由所述可穿戴式系统根据所述兴趣区域创建,所述第三坐标系由所述可穿戴式系统根据所述可穿戴式系统自身创建;根据所述第一调整角度调整反射镜的角度和/或通过旋转马达调整所述摄像头的拍摄角度,进而调整所述兴趣区域。
8.根据权利要求7所述的可穿戴式系统,其特征在于,
所述第一关系式包括:
a31Xw+a32Yw+a33Zw+ΔZew=C;
所述γ为需要调整兴趣区域的临界值,所述C根据手势图像大小,由比例关系确定,所述α,β为所述第一摄像头的第一调整角度,其中α为绕x轴旋转的角度,β为绕y轴旋转的角度;第一坐标系:Ow-XwYwZw;第二坐标系:Oc-XcYcZc;第三坐标系:Oe-XeYeZe,所述(Xw,Yw,Zw)为所述第一坐标系的点的坐标值,所述(Xe,Ye,Ze)为所述(Xw,Yw,Zw)在所述第三坐标系的点的坐标值,所述(Xc(i-1),Yc(i-1),Zc(i-1))为所述第二坐标系旋转后当前成像中心点在所述第三坐标系的坐标值,所述为所述第二坐标系旋转前当前成像中心点在所述第三坐标系的坐标值(Xc(i-2),Yc(i-2),Zc(i-2));所述(ΔXew,ΔYew,ΔZew)为第一坐标系转换到第三坐标系时x,y,z三个方向的平移位移,所述(a11,a12,a13,a21,a22,a23,a31,a32,a33)由如下公式确定:
其中所述(εx,εy,εz)分别为第一坐标系转换到第三坐标系时x,y,z三个方向的旋转角度。
9.根据权利要求6所述的可穿戴式系统,其特征在于,所述处理器用于当所述可穿戴式系统进行俯视或仰视时,通过所述传感器获取的所述位置参数获得俯仰角,所述俯仰角用于指示所述可穿戴式系统向下或向上偏移的角度;根据所述俯仰角利用第二关系式计算所述摄像头的第二调整角度,所述第二关系式为所述可穿戴式系统根据第一坐标系,第二坐标系与第三坐标系确定,所述第一坐标系由所述可穿戴式系统根据所述手势工作区域创建,所述第二坐标系由所述可穿戴式系统根据所述兴趣区域创建,所述第三坐标系由所述可穿戴式系统根据所述可穿戴式系统自身创建;根据所述第二调整角度调整反射镜的角度和/或通过旋转马达调整摄像头的拍摄角度,进而调整所述兴趣区域;所述第二关系式为:
或,
10.根据权利要求6至9中任一项所述的可穿戴式系统,其特征在于,
所述可穿戴式系统还包括红外光发光二极管LED,显示设备,所述第一摄像头装载激光器和红外滤光片;
所述红外光LED含于所述可穿戴式系统;
所述红外光LED,用于发射红外光覆盖所述处理器创建的所述手势工作区域;
所述红外滤光片,用于过滤得到所述处理器创建的所述手势工作区域反射的红外光;
所述可穿戴式系统还包括第二摄像头,所述第二摄像头装载激光器和红外滤光片,所述第二摄像头与所述第一摄像头用于接收所述红外滤光片得到的所述反射的红外光;
所述处理器,用于根据所述第一摄像头接收的所述反射的红外光生成第一手势图像,根据所述第二摄像头接收的所述反射的红外光生成第二手势图像;并对所述第一手势图像以及所述第二手势图像计算得到所述手势图像。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/074822 WO2017147748A1 (zh) | 2016-02-29 | 2016-02-29 | 一种可穿戴式系统的手势控制方法以及可穿戴式系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108885487A CN108885487A (zh) | 2018-11-23 |
CN108885487B true CN108885487B (zh) | 2021-01-29 |
Family
ID=59743397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680080068.2A Active CN108885487B (zh) | 2016-02-29 | 2016-02-29 | 一种可穿戴式系统的手势控制方法以及可穿戴式系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10948994B2 (zh) |
EP (1) | EP3413165B1 (zh) |
CN (1) | CN108885487B (zh) |
WO (1) | WO2017147748A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111756960B (zh) * | 2019-03-27 | 2021-11-05 | 广东小天才科技有限公司 | 一种基于可穿戴设备的拍摄控制方法及可穿戴设备 |
CN110109539A (zh) * | 2019-04-02 | 2019-08-09 | 努比亚技术有限公司 | 一种手势控制方法、穿戴式设备及计算机可读存储介质 |
TWI722674B (zh) * | 2019-11-21 | 2021-03-21 | 國立雲林科技大學 | 姿態影像訊號與運動訊號之訊號匹配系統以及訊號匹配方法 |
CN111381675B (zh) * | 2020-03-13 | 2023-06-27 | 广东小天才科技有限公司 | 应用于智能音箱的手势控制方法及智能音箱、存储介质 |
CN113495615A (zh) * | 2020-03-20 | 2021-10-12 | 代傲阿扣基金两合公司 | 手势控制模块、家用电器和手势控制模块在电器中的应用 |
KR20210118616A (ko) * | 2020-03-23 | 2021-10-01 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN111589099A (zh) * | 2020-04-02 | 2020-08-28 | 深圳创维-Rgb电子有限公司 | 一种激光感应系统及激光感应方法 |
CN116382476B (zh) * | 2023-03-30 | 2023-10-13 | 哈尔滨工业大学 | 一种用于月表人机协同作业的穿戴式交互系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8179604B1 (en) * | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6757068B2 (en) | 2000-01-28 | 2004-06-29 | Intersense, Inc. | Self-referenced tracking |
KR100588042B1 (ko) | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
CN1304931C (zh) | 2005-01-27 | 2007-03-14 | 北京理工大学 | 一种头戴式立体视觉手势识别装置 |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8976086B2 (en) * | 2010-12-03 | 2015-03-10 | Esight Corp. | Apparatus and method for a bioptic real time video system |
US10007330B2 (en) * | 2011-06-21 | 2018-06-26 | Microsoft Technology Licensing, Llc | Region of interest segmentation |
US20120327116A1 (en) | 2011-06-23 | 2012-12-27 | Microsoft Corporation | Total field of view classification for head-mounted display |
EP2734838B1 (en) * | 2011-07-20 | 2019-04-24 | Mikroscan Technologies, Inc. | Network-based pathology system with desktop slide scanner |
US20130191741A1 (en) * | 2012-01-24 | 2013-07-25 | Motorola Mobility, Inc. | Methods and Apparatus for Providing Feedback from an Electronic Device |
US8947382B2 (en) * | 2012-02-28 | 2015-02-03 | Motorola Mobility Llc | Wearable display device, corresponding systems, and method for presenting output on the same |
US20150379238A1 (en) * | 2012-06-14 | 2015-12-31 | Medibotics Llc | Wearable Imaging Device for Monitoring Food Consumption Using Gesture Recognition |
CN102799318B (zh) | 2012-08-13 | 2015-07-29 | 深圳先进技术研究院 | 一种基于双目立体视觉的人机交互方法及系统 |
US9285893B2 (en) * | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
CN103067727A (zh) | 2013-01-17 | 2013-04-24 | 乾行讯科(北京)科技有限公司 | 一种3d眼镜和3d显示系统 |
US9304594B2 (en) * | 2013-04-12 | 2016-04-05 | Microsoft Technology Licensing, Llc | Near-plane segmentation using pulsed light source |
US9113154B2 (en) * | 2013-07-10 | 2015-08-18 | Faro Technologies, Inc. | Three-dimensional measurement device having three-dimensional overview camera |
KR20150026201A (ko) * | 2013-09-02 | 2015-03-11 | 엘지전자 주식회사 | 디지털 디바이스 및 제어 방법 |
CN104679222B (zh) * | 2013-11-26 | 2018-02-06 | 深圳先进技术研究院 | 基于人机交互的医疗办公系统、医疗信息共享系统及方法 |
KR20160113592A (ko) * | 2014-01-27 | 2016-09-30 | 엘지전자 주식회사 | 안경형 단말기와 그 안경형 단말기의 제어방법 |
US9317129B2 (en) * | 2014-03-25 | 2016-04-19 | Dell Products, Lp | System and method for using a side camera for a free space gesture inputs |
CN103941864A (zh) * | 2014-04-03 | 2014-07-23 | 北京工业大学 | 一种基于人眼双目视角的体感控制器 |
WO2015176228A1 (zh) | 2014-05-20 | 2015-11-26 | 华为技术有限公司 | 手势操作智能穿戴设备的方法和智能穿戴设备 |
CN103995592A (zh) | 2014-05-21 | 2014-08-20 | 上海华勤通讯技术有限公司 | 穿戴式设备与终端进行信息交互的方法及终端 |
KR102287160B1 (ko) | 2014-07-31 | 2021-08-06 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그것의 제어방법 |
CN105323487A (zh) * | 2015-11-20 | 2016-02-10 | 广州亿航智能技术有限公司 | 摄像设备指向方位控制装置 |
-
2016
- 2016-02-29 EP EP16891941.3A patent/EP3413165B1/en active Active
- 2016-02-29 WO PCT/CN2016/074822 patent/WO2017147748A1/zh active Application Filing
- 2016-02-29 CN CN201680080068.2A patent/CN108885487B/zh active Active
- 2016-02-29 US US16/080,589 patent/US10948994B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8179604B1 (en) * | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
Also Published As
Publication number | Publication date |
---|---|
WO2017147748A1 (zh) | 2017-09-08 |
EP3413165A1 (en) | 2018-12-12 |
EP3413165A4 (en) | 2019-02-06 |
CN108885487A (zh) | 2018-11-23 |
EP3413165B1 (en) | 2021-10-13 |
US10948994B2 (en) | 2021-03-16 |
US20190073041A1 (en) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108885487B (zh) | 一种可穿戴式系统的手势控制方法以及可穿戴式系统 | |
US11087728B1 (en) | Computer vision and mapping for audio applications | |
JP6860488B2 (ja) | 複合現実システム | |
US20160225164A1 (en) | Automatic generation of virtual materials from real-world materials | |
EP2984541B1 (en) | Near-plane segmentation using pulsed light source | |
US9824497B2 (en) | Information processing apparatus, information processing system, and information processing method | |
CN104536579B (zh) | 交互式三维实景与数字图像高速融合处理系统及处理方法 | |
US11755102B2 (en) | User interface interaction paradigms for eyewear device with limited field of view | |
US20140168261A1 (en) | Direct interaction system mixed reality environments | |
WO2016109121A1 (en) | Virtual representations of real-world objects | |
US20220124295A1 (en) | Marker-based guided ar experience | |
US20130120224A1 (en) | Recalibration of a flexible mixed reality device | |
EP3230952A2 (en) | Natural user interface camera calibration | |
KR20220110205A (ko) | 헤드 장착식 디스플레이들에 대한 컨텐츠 안정화 | |
KR20220120649A (ko) | 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템 | |
US11240481B2 (en) | Creation and user interactions with three-dimensional wallpaper on computing devices | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
EP4172740A1 (en) | Augmented reality eyewear with speech bubbles and translation | |
WO2015093130A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2021061332A1 (en) | Stylized image painting | |
EP4172681A1 (en) | Augmented reality eyewear with 3d costumes | |
EP4042230A1 (en) | Multi-dimensional rendering | |
CN110688002A (zh) | 虚拟内容的调整方法、装置、终端设备及存储介质 | |
EP4172732A1 (en) | Augmented reality eyewear with mood sharing | |
US20190339768A1 (en) | Virtual reality interaction system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |