CN105988562A - 智能穿戴设备及基于智能穿戴设备实现手势输入的方法 - Google Patents
智能穿戴设备及基于智能穿戴设备实现手势输入的方法 Download PDFInfo
- Publication number
- CN105988562A CN105988562A CN201510063528.8A CN201510063528A CN105988562A CN 105988562 A CN105988562 A CN 105988562A CN 201510063528 A CN201510063528 A CN 201510063528A CN 105988562 A CN105988562 A CN 105988562A
- Authority
- CN
- China
- Prior art keywords
- worn device
- intelligent worn
- display
- virtual unit
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明提供了一种智能穿戴设备及基于智能穿戴设备实现手势输入的方法,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,所述方法包括:获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息,若根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以完成基于智能穿戴设备的手势输入,以此可丰富智能穿戴设备的功能,增加智能穿戴设备的应用场合,更好地实现基于智能穿戴设备与其他设备之间进行交互,且操作方式灵活及具有较高的操作效率。
Description
技术领域
本发明涉及智能设备领域,特别地,涉及一种智能穿戴设备及基于智能穿戴设备实现手势输入的方法。
背景技术
随着科技的进步,智能穿戴设备越来越多的走进了我们的生活,常见的智能穿戴设备包括智能眼镜、智能手环、智能手表等等,穿戴设备就像是缩小版的智能终端设备,其可视为智能终端设备的延伸使用,可更方便人们随身携带,且可为智能终端设备提供数据支持、对智能终端设备进行控制等。
另一方面,虚拟设备也逐渐了走进了我们的生活,所谓虚拟设备即为使用软件虚拟出来的具有现实功能意义的硬件设备,比如通过虚拟机操作系统虚拟出各种硬件设备以支持虚拟机操作系统等。
但在现有技术中,基于智能穿戴设备(比如智能眼镜、智能游戏头盔等)对真实设备(比如电脑、键盘等)实现手势输入的方案比较少且实现方式比较单一,基于智能穿戴设备与虚拟设备之间交互的方案更是鲜见,实现方式更为不够完善。
因此,如何提出一种更好的基于智能穿戴设备实现手势输入的方案,成为目前最需要解决的问题。
发明内容
本发明提供了一种智能穿戴设备及基于智能穿戴设备实现手势输入的方法,可解决上述现有基于智能穿戴设备实现手势输入方案中存在的问题,可更好的基于智能穿戴设备实现手势输入,以更方便与其他设备等之间进行交互,操作方式更为灵活,操作效率更高。
为了解决上述问题,一方面,提供了一种基于智能穿戴设备实现手势输入的方法,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,所述方法包括:
获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息;
若根据所述第一空间位置信息判定符合触发预设功能的条件,则触发实现对应的功能,以完成基于智能穿戴设备的手势输入。
进一步的,在智能穿戴设备的显示器为不透明的情况下,在获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息之前,所述方法还包括:
当接收到执行预设任务的指令后,则执行相应的任务。
进一步的,所述预设任务包括采集任务,
当接收到执行预设任务的指令后,则执行相应的任务,包括:
当接收到执行采集任务的指令后,则执行采集图像的任务并将采集到的图像显示于显示器上。
进一步的,所述若根据所述第一空间位置信息判定符合触发预设功能的条件,则触发实现对应的功能,包括:
根据所述第一空间位置信息获取手的运动轨迹并显示于所述显示器上;
根据手的运动轨迹选定截取区域,若选定的截取区域符合预设截取标准,则对截取区域中的图像进行截取并触发实现选定的预设功能。
进一步的,所述预设任务包括调取显示任务,
所述智能穿戴设备中存储有预设虚拟设备的3D模型信息,所述3D模型信息包括预设虚拟设备的3D虚拟模型及预设虚拟设备包括的触发位置相对于智能穿戴设备的空间位置信息,所述预设虚拟设备为对3D虚拟模型赋予预设现实功能的虚拟设备,
当接收到执行预设任务的指令后,则执行相应的任务,包括:
当接收到调取显示任一预设虚拟设备的指令后,则调取该预设虚拟设备的3D模型信息,根据该预设虚拟设备的3D模型信息获得该预设虚拟设备对应的2D图像并在智能穿戴设备的显示器上进行显示。
进一步的,所述若根据所述第一空间位置信息判定符合触发预设功能的条件,则触发实现对应的功能,包括:
若所述第一空间位置信息与该预设虚拟设备的任一触发位置相对于智能穿戴设备的第二空间位置信息的比较结果符合预设触发标准,则判定该触发位置被触发,以触发实现该触发位置对应的功能。
进一步的,所述方法还包括:
采集智能穿戴设备的佩戴部位的第一位移信息,根据所述第一位移信息对手的运动轨迹显示于显示器上的位置进行矫正;和/或
采集智能穿戴设备的佩戴者眼睛的第二位移信息,根据所述第二位移信息对手的运动轨迹显示于显示器上的位置进行矫正。
进一步的,所述方法还包括:
采集智能穿戴设备的佩戴部位的第一位移信息,根据所述第一位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置进行矫正;和/或
采集智能穿戴设备的佩戴者眼睛的第二位移信息,根据所述第二位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置进行矫正。
另一方面,还提供了一种智能穿戴设备,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,在智能穿戴设备本体内部包括:
获取单元,用于获取在检测区中位移的手相对于智能穿戴设备的第一空间位置信息;
触发单元,用于当根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以实现基于智能穿戴设备的手势输入。
进一步的,在智能穿戴设备的显示器为不透明的情况下,在智能穿戴设备本体内部还包括:
执行单元,用于当接收到执行预设任务的指令后,则执行相应的任务。
在本发明实施例提供的智能穿戴设备及基于智能穿戴设备实现手势输入的方法中,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,以透过显示器看到的实物来引导手的位移,并获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息,若根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以完成基于智能穿戴设备的手势输入,以此,可丰富智能穿戴设备的功能,增加智能穿戴设备的应用场合,更好地实现基于智能穿戴设备与其他设备等之间进行交互,且操作方式灵活及具有较高的操作效率。
附图说明
图1是本发明实施例提供的基于智能穿戴设备实现手势输入的方法的流程示意图;
图2是本发明实施例提供的智能穿戴设备本体内部的结构示意图。
具体实施方式
为了更好的理解本发明实施例提供的技术方案,也更好的与本发明实施例的技术方案进行对比,下面首先通过举例的方式对现有技术中的实现方案进行简单的介绍。
参看图1,示出了本发明实施例提供的基于智能穿戴设备实现手势输入的方法的流程示意图。
在本实施例中,所述智能穿戴设备为视觉类智能穿戴设备,比如可为智能眼镜、智能头盔等,以下将以智能眼镜为例进行说明。
该智能眼镜包括镜片和镜框,在眼镜镜片前方可悬置有摄像头,在镜框内部可预置有处理器,镜片上可配备头戴式微型显示器以将数据投射到用户眼中。其中,根据实际需求,显示器可设置为不透明的(即全封闭状态),也可设置为透明的(即开放状态),也可设置为可由透明模式调为不透明模式的。
在智能穿戴设备的显示器为透明的情况下,所述方法包括:
S101,获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息。
在所述智能穿戴设备中可包括预置传感器并基于所述预置传感器形成所述预置检测区,所述预置检测区的形成为根据传感器的硬件特性所决定,所述预置传感器可选用图像传感器、超声波传感器、电场传感器、光电传感器等。
用户可透过智能穿戴设备的显示器看到实物(比如显示于某终端设备屏幕上的文字、显示于某终端设备屏幕上的二维码等),并可根据看到的实物的位置来引导手的位移,可通过预置传感器获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息。
比如,可通过一个图像传感器直接采集手的距离图像及RGB图像,并通过采集到的距离图像及RGB图像计算出手相对于智能穿戴设备的第一空间位置信息,也可通过两个图像传感器分别采集手的RGB图像,并通过采集到的RGB图像计算出手相对于智能穿戴设备的第一空间位置信息,当然也可通过超声波传感器、电场传感器、光电传感器等以相关的现有技术手段来实现对所述第一空间位置信息的获取。
此外,也可在智能穿戴设备中预置有射频读写器,用户可手持射频标签(比如具有射频标签的设备等),通过射频读写器获取射频标签与射频读写器之间的距离,并根据获取到的距离计算出射频标签相对于射频读写器(也就是手相对于智能穿戴设备)的空间位置信息,即第一空间位置信息。
S102,若根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以完成基于智能穿戴设备的手势输入。
此步骤可先根据获得的第一空间位置信息来获取手的运动轨迹并可将手的运动轨迹显示于显示器上,以便用户及时了解手的移动情况,且可根据显示对手的位置做相应的调整等。
然后可根据手的运动轨迹选定截取区域,也即对截取区域进行编辑,若编辑的截取区域不满意,还可通过手的位移对截取区域进行调整直至满意,若选定的截取区域符合预设截取标准,则对截取区域中的图像进行截取并触发实现选定的预设功能。
若选定的截取区域符合预设截取标准,比如可设置为当截取区域在显示器上形成封闭框时,此时可调取预置截取功能对截取区域中的图像进行截取,然后可触发实现选定的功能,该选定的功能可为通过触发设置于智能穿戴设备上的预设功能按键来选定,也可通过在显示器上显示的功能菜单上进行选定,等等,且可为在截取操作之前预先选定,也可在截取操作之后再进行选定。
此外,在智能穿戴设备的显示器为不透明的情况下,在S101之前,所述方法还可包括:当接收到执行预设任务的指令后,则执行相应的任务。
在本实施例中,所述预设任务可包括采集任务及调取显示任务,接收到执行不同任务的指令,则对应不同执行内容,以下将分别进行说明。
一种实现方式中,当接收到执行采集任务的指令后,则执行采集图像的任务并将采集到的图像显示于显示器上。
比如,可在智能眼镜中预置有图像传感器,且镜框上设置有采集任务按钮,当用户触发该采集任务按钮,则智能眼镜即可接收到执行采集任务的指令。
然后则可通过调用图像传感器执行采集用户视野范围内的图像的任务,比如可为显示于电脑屏幕上的文字、显示于某终端屏幕上的二维码等,在采集到到相关图像后,将采集到的图像显示于显示器上,当然,也可根据需要设置为将采集到的图像传送至智能穿戴设备中的预置处理器,以便根据需要进行后续处理。
另一种实现方式中,当接收到调取显示任一预设虚拟设备的指令后,则调取该预设虚拟设备的3D模型信息,根据该预设虚拟设备的3D模型信息获得该预设虚拟设备对应的2D图像并在智能穿戴设备的显示器上进行显示。
其中,所述智能穿戴设备中存储有预设虚拟设备的3D模型信息,所述3D模型信息包括预设虚拟设备的3D虚拟模型及预设虚拟设备包括的触发位置相对于智能穿戴设备的空间位置信息,所述预设虚拟设备为对3D虚拟模型赋予预设现实功能的虚拟设备,所述预设虚拟设备比如可为虚拟电脑、虚拟键盘等常见的电子设备,预设虚拟设备包括的触发位置相对于智能穿戴设备的空间位置信息,比如可为键盘上的某个按键相对于智能穿戴设备的空间位置信息,可为电脑上的某个按钮相对于智能穿戴设备的空间位置信息,等等。
比如可在智能眼镜的镜框上设置有调取显示按钮,当然也可在显示器中显示预设虚拟设备列表(比如列表中包括虚拟电脑、虚拟键盘等),当用户触发预设虚拟设备列表中的任一个虚拟设备(比如虚拟键盘),智能眼镜则为接收到调取显示该虚拟键盘的指令,然后去调取该虚拟键盘的3D模型信息,并根据调取到的3D模型信息(也可结合智能眼镜与佩戴部位的位置关系等因素)获得虚拟键盘的2D图像并显示于智能眼镜的显示器上。
在显示器为不透明的且其中显示采集到的图像、预设虚拟设备的2D图像的情况下,则用户可根据显示器中的图像来引导手的位移,且通过预置传感器获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息。
基于预设任务可包括采集任务及调取显示任务,S102也对应为两种实现方式,以下将分别进行说明。
对应于采集任务,在已经执行了采集任务的情况下,此步骤可先根据获得的第一空间位置信息来获取手的运动轨迹并可将手的运动轨迹显示于显示器上,以便用户及时了解手的移动情况,且可根据显示对手的位置做相应的调整等。
此步骤可先根据获得的第一空间位置信息来获取手的运动轨迹并可将手的运动轨迹显示于显示器上,以便用户及时了解手的移动情况,且可根据显示对手的位置做相应的调整等。
然后可根据手的运动轨迹选定截取区域,也即对截取区域进行编辑,若编辑的截取区域不满意,还可通过手的位移对截取区域进行调整直至满意,若选定的截取区域符合预设截取标准,则对截取区域中的图像进行截取并触发实现选定的预设功能。
若选定的截取区域符合预设截取标准,比如可设置为当截取区域在显示器上形成封闭框时,此时可调取预置截取功能对截取区域中的图像进行截取,然后可触发实现选定的功能,该选定的功能可为通过触发设置于智能穿戴设备上的预设功能按键来选定,也可通过在显示器上显示的功能菜单上进行选定,等等,且可为在截取操作之前预先选定,也可在截取操作之后再进行选定。
对应于调取显示任务,在已经执行了调取显示任务的情况下,此步骤可为将第一空间位置信息与预设虚拟设备的任一触发位置相对于智能穿戴设备的第二空间位置信息进行比较,若比较结果符合预设触发标准,则可判定该触发位置被用户触发,并触发实现该触发位置对应的功能。
比如调取显示的预设虚拟设备为虚拟电脑及虚拟键盘,且此时电脑屏幕上显示有输入框,用户想要在输入框中输入字母“Y”,此时,用户可通过智能眼镜的显示器中所显示图像的引导,将手移动到虚拟键盘上的“Y”按键处,此时,可将手的第一空间位置信息与虚拟键盘上的“Y”按键相对于智能眼镜的第二空间位置信息进行比较,此时该第一空间位置信息与第二空间位置信息可达到基本重合,则可判定“Y”按键被触发,则可在输入框中显示“Y”。
此外,智能穿戴设备中还可设置有陀螺仪加速度传感器,通过该陀螺仪加速度传感器可采集智能穿戴设备的佩戴部位(比如用户头部)的第一位移信息,并可根据所述第一位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置、手的运动轨迹显示于显示器上的位置进行矫正,比如头部向左移动5度,则可将显示于显示器上的2D图像的位置、手的运动轨迹显示于显示器上的位置向右移动5度,以此来避免显示器中的显示图像随佩戴部位的移动而发生变化、偏移等情况的发生。
而且,还可通过智能穿戴设备中的图像传感器采集佩戴者眼睛的第二位移信息,并根据所述第二位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置、手的运动轨迹显示于显示器上的位置进行矫正,比如佩戴者的眼睛向右移动3度,则可将显示于显示器上的2D图像的位置、手的运动轨迹显示于显示器上的位置向左移动3度,以此来对显示器中显示的图像进行精准定位,以获得理想的图像显示效果。当然,也可通过图像传感器等采集佩戴者眼球的位移信息,以根据眼球的位移信息对显示器中显示的图像的位置进行更精确的矫正,从而获得更理想的图像显示效果。
在本发明实施例提供的基于智能穿戴设备实现手势输入的方法中,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,以透过显示器看到的实物来引导手的位移,并获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息,若根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以完成基于智能穿戴设备的手势输入,以此,可丰富智能穿戴设备的功能,增加智能穿戴设备的应用场合,更好地实现基于智能穿戴设备与现实设备、虚拟设备之间进行交互,且操作方式灵活及具有较高的操作效率。
相应的,本发明还提供了一种智能穿戴设备,下面结合附图进行具体说明。
图2示出了本发明实施例提供的智能穿戴设备本体内部的结构示意图。
在本实施例中,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,在智能穿戴设备本体内部可包括:
获取单元21,用于获取在检测区中位移的手相对于智能穿戴设备的第一空间位置信息。
触发单元22,用于当根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以实现基于智能穿戴设备的手势输入。
此外,在智能穿戴设备的显示器为不透明的情况下,在智能穿戴设备本体内部还可包括:执行单元,用于当接收到执行预设任务的指令后,则执行相应的任务。
其中,预设任务可包括采集任务,基于此,执行单元,可具体用于:
当接收到执行采集任务的指令后,则执行采集图像的任务并将采集到的图像显示于显示器上。
且所述触发单元22,可具体用于:
根据所述第一空间位置信息获取手的运动轨迹并显示于所述显示器上;
根据手的运动轨迹选定截取区域,若选定的截取区域符合预设截取标准,则对截取区域中的图像进行截取并触发实现选定的预设功能。
其中,预设任务可包括调取显示任务,所述预设任务指令包括调取显示任务,所述智能穿戴设备中存储有预设虚拟设备的3D模型信息,所述3D模型信息包括预设虚拟设备的3D虚拟模型及预设虚拟设备包括的触发位置相对于智能穿戴设备的空间位置信息,所述预设虚拟设备为对3D虚拟模型赋予预设现实功能的虚拟设备,基于此,执行单元,可具体用于:
当接收到调取显示任一预设虚拟设备的指令后,则调取该预设虚拟设备的3D模型信息,根据该预设虚拟设备的3D模型信息获得该预设虚拟设备对应的2D图像并在智能穿戴设备的显示器上进行显示。
且所述触发单元22,可具体用于:若所述第一空间位置信息与该预设虚拟设备的任一触发位置相对于智能穿戴设备的第二空间位置信息的比较结果符合预设触发标准,则判定该触发位置被触发,以触发实现该触发位置对应的功能。
具体的,所述智能穿戴设备中包括预置传感器并基于所述预置传感器形成所述预置检测区,所述预置传感器为图像传感器、超声波传感器、电场传感器或光电传感器。
基于此,获取单元21可通过预置传感器获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息。
在本实施例中,比如可通过图像传感器直接采集手的距离图像及RGB图像,并通过采集到的距离图像及RGB图像计算出手相对于智能穿戴设备的第一空间位置信息;或通过两个图像传感器分别采集手的RGB图像,并通过采集到的RGB图像计算出手相对于智能穿戴设备的第一空间位置信息。此外,也可在智能穿戴设备中预置有射频读写器,用户可手持射频标签(比如具有射频标签的设备等),通过射频读写器获取射频标签与射频读写器之间的距离,并根据获取到的距离计算出射频标签相对于射频读写器(也就是手相对于智能穿戴设备)的空间位置信息,即第一空间位置信息。
此外,智能穿戴设备中可设置有陀螺仪加速度传感器,通过该陀螺仪加速度传感器可采集智能穿戴设备的佩戴部位(比如用户头部)的第一位移信息,并可根据所述第一位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置、手的运动轨迹显示于显示器上的位置进行矫正,比如头部向左移动5度,则可将显示于显示器上的2D图像的位置、手的运动轨迹显示于显示器上的位置向右移动5度,以此来避免显示器中的显示图像随佩戴部位的移动而发生变化、偏移等情况的发生。
而且,还可通过智能穿戴设备中的图像传感器采集佩戴者眼睛的第二位移信息,并根据所述第二位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置、手的运动轨迹显示于显示器上的位置进行矫正,比如佩戴者的眼睛向右移动3度,则可将显示于显示器上的2D图像的位置、手的运动轨迹显示于显示器上的位置向左移动3度,以此来对显示器中显示的图像进行精准定位,以获得理想的图像显示效果。当然,也可通过图像传感器等采集佩戴者眼球的位移信息,以根据眼球的位移信息对显示器中显示的图像的位置进行更精确的矫正,从而获得更理想的图像显示效果。
在本发明实施例提供的智能穿戴设备中,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,以透过显示器看到的实物来引导手的位移,并获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息,若根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以完成基于智能穿戴设备的手势输入,以此,可丰富智能穿戴设备的功能,增加智能穿戴设备的应用场合,更好地实现基于智能穿戴设备与现实设备、虚拟设备之间进行交互,且操作方式灵活及具有较高的操作效率。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于设备实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上对本发明所提供的智能穿戴设备及基于智能穿戴设备实现手势输入的方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于智能穿戴设备实现手势输入的方法,其特征在于,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,所述方法包括:
获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息;
若根据所述第一空间位置信息判定符合触发预设功能的条件,则触发实现对应的功能,以完成基于智能穿戴设备的手势输入。
2.如权利要求1所述的方法,其特征在于,在智能穿戴设备的显示器为不透明的情况下,
在获取在预置检测区中位移的手相对于智能穿戴设备的第一空间位置信息之前,还包括:
当接收到执行预设任务的指令后,则执行相应的任务。
3.如权利要求2所述的方法,其特征在于,所述预设任务包括采集任务,
当接收到执行预设任务的指令后,则执行相应的任务,包括:
当接收到执行采集任务的指令后,则执行采集图像的任务并将采集到的图像显示于显示器上。
4.如权利要求1或3所述的方法,其特征在于,所述若根据所述第一空间位置信息判定符合触发预设功能的条件,则触发实现对应的功能,包括:
根据所述第一空间位置信息获取手的运动轨迹并显示于所述显示器上;
根据手的运动轨迹选定截取区域,若选定的截取区域符合预设截取标准,则对截取区域中的图像进行截取并触发实现选定的预设功能。
5.如权利要求2所述的方法,其特征在于,所述预设任务包括调取显示任务,
所述智能穿戴设备中存储有预设虚拟设备的3D模型信息,所述3D模型信息包括预设虚拟设备的3D虚拟模型及预设虚拟设备包括的触发位置相对于智能穿戴设备的空间位置信息,所述预设虚拟设备为对3D虚拟模型赋予预设现实功能的虚拟设备,
当接收到执行预设任务的指令后,则执行相应的任务,包括:
当接收到调取显示任一预设虚拟设备的指令后,则调取该预设虚拟设备的3D模型信息,根据该预设虚拟设备的3D模型信息获得该预设虚拟设备对应的2D图像并在智能穿戴设备的显示器上进行显示。
6.如权利要求5所述的方法,其特征在于,所述若根据所述第一空间位置信息判定符合触发预设功能的条件,则触发实现对应的功能,包括:
若所述第一空间位置信息与该预设虚拟设备的任一触发位置相对于智能穿戴设备的第二空间位置信息的比较结果符合预设触发标准,则判定该触发位置被触发,以触发实现该触发位置对应的功能。
7.如权利要求4所述的方法,其特征在于,还包括:
采集智能穿戴设备的佩戴部位的第一位移信息,根据所述第一位移信息对手的运动轨迹显示于显示器上的位置进行矫正;和/或
采集智能穿戴设备的佩戴者眼睛的第二位移信息,根据所述第二位移信息对手的运动轨迹显示于显示器上的位置进行矫正。
8.如权利要求5所述的方法,其特征在于,还包括:
采集智能穿戴设备的佩戴部位的第一位移信息,根据所述第一位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置进行矫正;和/或
采集智能穿戴设备的佩戴者眼睛的第二位移信息,根据所述第二位移信息对该预设虚拟设备对应的2D图像显示于显示器上的位置进行矫正。
9.一种智能穿戴设备,其特征在于,所述智能穿戴设备为视觉类智能穿戴设备,在智能穿戴设备的显示器为透明的情况下,在智能穿戴设备本体内部包括:
获取单元,用于获取在检测区中位移的手相对于智能穿戴设备的第一空间位置信息;
触发单元,用于当根据所述第一空间位置信息判定符合触发任一预设功能的条件,则触发实现对应的功能,以实现基于智能穿戴设备的手势输入。
10.如权利要求9所述的智能穿戴设备,其特征在于,在智能穿戴设备的显示器为不透明的情况下,在智能穿戴设备本体内部还包括:
执行单元,用于当接收到执行预设任务的指令后,则执行相应的任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510063528.8A CN105988562A (zh) | 2015-02-06 | 2015-02-06 | 智能穿戴设备及基于智能穿戴设备实现手势输入的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510063528.8A CN105988562A (zh) | 2015-02-06 | 2015-02-06 | 智能穿戴设备及基于智能穿戴设备实现手势输入的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105988562A true CN105988562A (zh) | 2016-10-05 |
Family
ID=57037530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510063528.8A Pending CN105988562A (zh) | 2015-02-06 | 2015-02-06 | 智能穿戴设备及基于智能穿戴设备实现手势输入的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105988562A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108766572A (zh) * | 2018-05-30 | 2018-11-06 | 努比亚技术有限公司 | 运动监测控制方法、智能可穿戴设备及存储介质 |
CN109753140A (zh) * | 2017-11-02 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 基于虚拟现实的操作指令获取方法、装置 |
CN110515452A (zh) * | 2018-05-22 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN114578956A (zh) * | 2020-12-02 | 2022-06-03 | Oppo广东移动通信有限公司 | 设备控制方法、装置、虚拟穿戴设备以及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102540463A (zh) * | 2010-09-21 | 2012-07-04 | 微软公司 | 用于透视头戴式显示器的不透明度滤光器 |
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
US20130027572A1 (en) * | 2011-07-27 | 2013-01-31 | Google Inc. | Head-Mounted Display That Displays A Visual Representation Of Physical Interaction With An Input Interface Located Outside Of The Field Of View |
WO2013049248A2 (en) * | 2011-09-26 | 2013-04-04 | Osterhout Group, Inc. | Video display modification based on sensor input for a see-through near-to-eye display |
CN103067727A (zh) * | 2013-01-17 | 2013-04-24 | 乾行讯科(北京)科技有限公司 | 一种3d眼镜和3d显示系统 |
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
CN104301507A (zh) * | 2013-07-15 | 2015-01-21 | Lg电子株式会社 | 移动终端及其控制方法 |
-
2015
- 2015-02-06 CN CN201510063528.8A patent/CN105988562A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102540463A (zh) * | 2010-09-21 | 2012-07-04 | 微软公司 | 用于透视头戴式显示器的不透明度滤光器 |
US20130027572A1 (en) * | 2011-07-27 | 2013-01-31 | Google Inc. | Head-Mounted Display That Displays A Visual Representation Of Physical Interaction With An Input Interface Located Outside Of The Field Of View |
WO2013049248A2 (en) * | 2011-09-26 | 2013-04-04 | Osterhout Group, Inc. | Video display modification based on sensor input for a see-through near-to-eye display |
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
CN103067727A (zh) * | 2013-01-17 | 2013-04-24 | 乾行讯科(北京)科技有限公司 | 一种3d眼镜和3d显示系统 |
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
CN104301507A (zh) * | 2013-07-15 | 2015-01-21 | Lg电子株式会社 | 移动终端及其控制方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753140A (zh) * | 2017-11-02 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 基于虚拟现实的操作指令获取方法、装置 |
CN109753140B (zh) * | 2017-11-02 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 基于虚拟现实的操作指令获取方法、装置 |
CN110515452A (zh) * | 2018-05-22 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN110515452B (zh) * | 2018-05-22 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN108766572A (zh) * | 2018-05-30 | 2018-11-06 | 努比亚技术有限公司 | 运动监测控制方法、智能可穿戴设备及存储介质 |
CN114578956A (zh) * | 2020-12-02 | 2022-06-03 | Oppo广东移动通信有限公司 | 设备控制方法、装置、虚拟穿戴设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11531402B1 (en) | Bimanual gestures for controlling virtual and graphical elements | |
US20220206588A1 (en) | Micro hand gestures for controlling virtual and graphical elements | |
JP7283506B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
KR102585237B1 (ko) | 디바이스를 이용한 화면 처리 방법 및 장치 | |
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
EP4320502A1 (en) | Bimanual interactions between mapped hand regions for controlling virtual and graphical elements | |
EP4217834A1 (en) | Touchless photo capture in response to detected hand gestures | |
EP4327185A1 (en) | Hand gestures for animating and controlling virtual and graphical elements | |
WO2022060549A2 (en) | Tracking hand gestures for interactive game control in augmented reality | |
US11747915B2 (en) | Smart ring for manipulating virtual objects displayed by a wearable device | |
US20220124295A1 (en) | Marker-based guided ar experience | |
US20220366639A1 (en) | Generating ground truth datasets for virtual reality experiences | |
US11889291B2 (en) | Head-related transfer function | |
CN105988562A (zh) | 智能穿戴设备及基于智能穿戴设备实现手势输入的方法 | |
WO2022005715A1 (en) | Augmented reality eyewear with 3d costumes | |
US20240070298A1 (en) | Selective collaborative object access | |
WO2024049578A1 (en) | Scissor hand gesture for a collaborative object | |
WO2024049575A1 (en) | Revealing collaborative object using countdown timer | |
WO2024049579A1 (en) | Physical gesture interaction with objects based on intuitive design | |
WO2024049576A1 (en) | Real-world responsiveness of a collaborative object | |
WO2023034017A1 (en) | Augmented reality prop interactions | |
WO2022245630A1 (en) | Low latency, low power multi-channel audio processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20161005 |
|
WD01 | Invention patent application deemed withdrawn after publication |