CN111752380A - 一种基于腕式穿戴设备的交互方法及腕式穿戴设备 - Google Patents
一种基于腕式穿戴设备的交互方法及腕式穿戴设备 Download PDFInfo
- Publication number
- CN111752380A CN111752380A CN201910274301.6A CN201910274301A CN111752380A CN 111752380 A CN111752380 A CN 111752380A CN 201910274301 A CN201910274301 A CN 201910274301A CN 111752380 A CN111752380 A CN 111752380A
- Authority
- CN
- China
- Prior art keywords
- wrist
- target
- target image
- preset
- wearable device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000000463 material Substances 0.000 claims abstract description 146
- 210000000707 wrist Anatomy 0.000 claims abstract description 111
- 239000003550 marker Substances 0.000 claims description 34
- 230000004927 fusion Effects 0.000 claims description 29
- 230000002452 interceptive effect Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000007639 printing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 239000012774 insulation material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开一种基于腕式穿戴设备的交互方法及腕式穿戴设备,该方法包括:利用腕式穿戴设备的第一拍摄模组采集目标图像;获取目标图像对应的目标媒体素材;对目标图像和目标媒体素材进行融合得到输出画面;将输出画面在腕式穿戴设备的显示屏幕上显示;其中,腕式穿戴设备的显示屏幕与腕式穿戴设备的第二拍摄模组同侧;利用腕式穿戴设备的第二拍摄模组采集用户的交互手势,并依据该交互手势的指示调整输出画面。实施本发明实施例,能够基于腕式穿戴设备实现AR交互。
Description
技术领域
本发明涉及腕式穿戴设备技术领域,具体涉及一种基于腕式穿戴设备的交互方法及腕式穿戴设备。
背景技术
随着AR技术的不断发展,AR技术与移动终端的结合越来越成熟,在实践中发现,用户在利用移动终端实现AR交互时,移动终端的摄像头往往需要实时采集真实环境画面,而目前市面上的多数腕式穿戴设备,如儿童电话手表,它们的摄像头大都与显示屏幕同侧,所以,利用腕式穿戴设备的摄像头采集真实环境画面时,用户通常无法看到输出于显示屏幕的输出画面,由此导致多数腕式穿戴设备通常难以支持AR交互。
发明内容
本发明实施例公开一种基于腕式穿戴设备的交互方法及腕式穿戴设备,能够基于腕式穿戴设备实现AR交互。
本发明实施例第一方面公开一种基于腕式穿戴设备的交互方法,所述腕式穿戴设备包括的智能主机以可转动方式设在所述腕式穿戴设备包括的两侧带端部之间,所述智能主机的主机顶侧正对所述智能主机的主机底侧,所述主机顶侧和所述主机底侧各自设有一个拍摄模组,所述方法包括:
利用所述腕式穿戴设备的第一拍摄模组采集目标图像;
获取所述目标图像对应的目标媒体素材;
对所述目标图像和所述目标媒体素材进行融合得到输出画面;
将所述输出画面在所述腕式穿戴设备的显示屏幕上显示;其中,所述显示屏幕与所述腕式穿戴设备的第二拍摄模组同侧;
利用所述第二拍摄模组采集用户的交互手势,并依据所述交互手势的指示调整所述输出画面;
其中,所述第一拍摄模组为两个所述拍摄模组中的任意一个,所述第二拍摄模组为两个所述拍摄模组中除所述第一拍摄模组外的另一个。
作为一种可选的实施方式,在本发明实施例第一方面中,所述获取所述目标图像对应的目标媒体素材,包括:
判断所述目标图像中是否存在预设标记物;
当所述目标图像中存在所述预设标记物时,获取所述预设标记物对应的预设媒体素材;
从所述预设媒体素材中确定所述目标图像对应的目标媒体素材。
作为一种可选的实施方式,在本发明实施例第一方面中,所述对所述目标图像和所述目标媒体素材进行融合得到输出画面,包括:
确定所述目标媒体素材于所述目标图像中的融合区域;
在所述融合区域加载所述目标媒体素材得到输出画面。
作为一种可选的实施方式,在本发明实施例第一方面中,所述从所述预设媒体素材中确定所述目标图像对应的目标媒体素材,包括:
当所述预设媒体素材的数量为一个时,将所述预设媒体素材作为所述目标图像对应的目标媒体素材;
当所述预设媒体素材的数量为多个时,依据用户输入的针对所述预设媒体素材的选取操作指令或者用户信息,从所述预设媒体素材中确定目标媒体素材;其中,所述用户信息至少包括用户的年龄、性别以及喜好。
作为一种可选的实施方式,在本发明实施例第一方面中,所述将所述输出画面在所述腕式穿戴设备的显示屏幕上显示之后,所述方法还包括:
检测是否接收到针对所述输出画面的投影指令;
当接收到所述投影指令时,开启所述腕式穿戴设备的投影模块;
利用所述投影模块,将所述输出画面投影至目标投影面。
本发明实施例第二方面公开一种腕式穿戴设备,所述腕式穿戴设备包括的智能主机以可转动方式设在所述腕式穿戴设备包括的两侧带端部之间,所述智能主机的主机顶侧正对所述智能主机的主机底侧,所述主机顶侧和所述主机底侧各自设有一个拍摄模组,所述智能主机包括:
采集单元,用于利用所述腕式穿戴设备的第一拍摄模组采集目标图像;
获取单元,用于获取所述目标图像对应的目标媒体素材;
融合单元,用于对所述目标图像和所述目标媒体素材进行融合得到输出画面;
显示单元,用于将所述输出画面在所述腕式穿戴设备的显示屏幕上显示;其中,所述显示屏幕与所述腕式穿戴设备的第二拍摄模组同侧;
交互单元,用于利用所述第二拍摄模组采集用户的交互手势,并依据所述交互手势的指示调整所述输出画面;
其中,所述第一拍摄模组为两个所述拍摄模组中的任意一个,所述第二拍摄模组为两个所述拍摄模组中除所述第一拍摄模组外的另一个。
作为一种可选的实施方式,在本发明实施例第二方面中,所述获取单元包括:
判断子单元,用于判断所述目标图像中是否存在预设标记物;
获取子单元,用于当所述目标图像中存在所述预设标记物时,获取所述预设标记物对应的预设媒体素材;
确定子单元,用于从所述预设媒体素材中确定所述目标图像对应的目标媒体素材。
作为一种可选的实施方式,在本发明实施例第二方面中,所述融合用于对所述目标图像和所述目标媒体素材进行融合得到输出画面的方式具体为:
所述融合单元,用于确定所述目标媒体素材于所述目标图像中的融合区域,以及在所述融合区域加载所述目标媒体素材得到输出画面。
作为一种可选的实施方式,在本发明实施例第二方面中,所述确定子单元用于从所述预设媒体素材中确定所述目标图像对应的目标媒体素材的方式具体为:
所述确定子单元,用于当所述预设媒体素材的数量为一个时,将所述预设媒体素材作为所述目标图像对应的目标媒体素材;以及当所述预设媒体素材的数量为多个时,依据用户输入的针对所述预设媒体素材的选取操作指令或者用户信息,从所述预设媒体素材中确定目标媒体素材;其中,所述用户信息至少包括用户的年龄、性别以及喜好。
作为一种可选的实施方式,在本发明实施例第二方面中,所述智能主机还包括:
检测单元,用于所述显示单元将所述输出画面在所述腕式穿戴设备的显示屏幕上显示之后,检测是否接收到针对所述输出画面的投影指令;
投影单元,用于当接收到所述投影指令时,开启所述腕式穿戴设备的投影模块,以及利用所述投影模块,将所述输出画面投影至目标投影面。
本发明实施例第三方面公开一种腕式穿戴设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本发明第一方面的任意一种方法的部分或全部步骤。
本发明实施例第四方面公开一种计算机可读存储介质,其存储计算机程序,所述计算机程序包括用于执行本发明第一方面的任意一种方法的部分或全部步骤的指令。
本发明实施例第五面公开一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种方法的部分或全部步骤。
本发明实施例第六方面公开一种应用发布平台,所述应用发布平台用于发布计算机程序产品,其中,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种方法的部分或全部步骤。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,可以利用腕式穿戴设备的第一拍摄模组采集目标图像;获取目标图像对应的目标媒体素材;对目标图像和目标媒体素材进行融合得到输出画面;将输出画面在腕式穿戴设备的显示屏幕上显示;其中,腕式穿戴设备的显示屏幕与腕式穿戴设备的第二拍摄模组同侧;利用腕式穿戴设备的第二拍摄模组采集用户的交互手势,并依据该交互手势的指示调整输出画面。
实施本发明实施例,利用腕式穿戴设备的第一拍摄模组采集真实画面,保证显示于腕式穿戴设备的显示屏幕的输出画面可以被用户看到,以及基于该基础,利用腕式穿戴设备的第二拍摄模组采集到的交互手势实现AR操作。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种腕式穿戴设备的结构示意图;
图2是图1所示的腕式穿戴设备包括的智能主机相对底部支架转动90°后的结构示意图;
图3是图2的另一视角的示意图;
图4是本发明实施例公开的一种基于腕式穿戴设备的交互方法的流程示意图;
图5是本发明实施例公开的另一种基于腕式穿戴设备的交互方法的流程示意图;
图6是本发明实施例公开的又一种基于腕式穿戴设备的交互方法的流程示意图;
图7是本发明实施例公开的一种腕式穿戴设备的结构示意图;
图8是本发明实施例公开的另一种腕式穿戴设备的结构示意图;
图9是本发明实施例公开的又一种腕式穿戴设备的结构示意图;
图10是本发明实施例公开的又一种腕式穿戴设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例及附图中的术语“包括”“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例公开一种基于腕式穿戴设备的交互方法及腕式穿戴设备,能够使用户基于腕式穿戴设备实现AR交互。本发明实施例中所描述的基于腕式穿戴设备的交互方法适用于智能手表和智能手环等腕式穿戴设备。其中,腕式穿戴设备的操作系统可包括但不限于Android操作系统、IOS操作系统、Symbian(塞班)操作系统、Black Berry(黑莓)操作系统、Windows Phone8操作系统等等,本发明实施例不做限定。本发明实施例的执行主体为腕式穿戴设备,以下分别进行详细说明。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本发明及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本发明中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
此外,术语“第一”、“第二”等主要是用于区分不同的装置、元件或组成部分(具体的种类和构造可能相同也可能不同),并非用于表明或暗示所指示装置、元件或组成部分的相对重要性和数量。除非另有说明,“多个”的含义为两个或两个以上。
下面将结合实施例和附图对本发明实施例的技术方案作进一步的说明。
为了更好理解本发明实施例公开的一种基于腕式穿戴设备的交互方法,下面先介绍本发明实施例公开的一种腕式穿戴设备。请参阅图1-图3,本发明实施例公开的一种腕式穿戴设备可以包括:底层支架10、智能主机20以及侧带30,底层支架10连接于侧带30的两侧带端部之间。智能主机20的主机顶侧20a正对智能主机20的主机底侧20b,并且智能主机20的主机顶侧20a设有拍摄模组22,智能主机20的主机底侧20b设有拍摄模组23。其中,当智能主机20与底层支架10处于扣合状态时,智能主机20朝上的一侧为主机顶侧20a,智能主机朝下的一侧为主机底侧20b。智能主机20的一端通过旋转轴21与底层支架10的第一端转动连接,智能主机20可以相对底层支架10转动不同的角度,从而使得拍摄模组22、拍摄模组23可以获得不同的拍摄角度。其中,侧带30的一个侧带端部通过旋转轴21轴接于底层支架10的第一端,而侧带30的另一个侧带端部连接底层支架10的第二端。
在本发明实施例公开的腕式穿戴设备中,通过上述所描述的结构,腕式穿戴设备包括的智能主机20通过旋转轴21与底层支架10转动连接。其中,通过旋转轴21可以实现智能主机20相对底层支架10的转动,从而使得设于智能主机20的拍摄模组22、拍摄模组23也能随着智能主机20的转动而获得不同的拍摄角度,这不仅解决了现有的腕式穿戴设备(通常仅有一个顶侧拍摄模组)需要社交用户扭转手臂才能实现的调整拍摄角度的问题,同时还可满足社交用户的不同角度的拍摄需求。
本发明实施例中,在实现智能主机20相对底层支架10转动时,由于侧带30的一个侧带端部通过旋转轴21轴接于底层支架10的第一端,因此,侧带30的一个侧带端部、底层支架10的第一端以及智能主机20的一端三者之间为共用旋转轴21的共轴转动设计,从而能够减少腕式穿戴设备的部件设计,简化腕式穿戴设备的部件组装流程,进而使得腕式穿戴设备的结构更加紧凑。
本发明实施例中,智能主机20的主机顶侧20a上可以设置有顶侧显示屏(图中未标注);可选地,智能主机20的主机底侧20b上也可以设置有底侧显示屏(图中未标注)。在通常情况下,智能主机20可以叠在底层支架10上,即智能主机20的主机底侧20b与底层支架10的上表面贴合;而当智能主机20以旋转轴21发生转动时,智能主机20的主机顶侧20a以及主机底侧20b均与底层支架10的上表面形成一定角度。
在本发明实施例中,该智能主机20作为拍摄角度可调的腕式穿戴设备的主机使用,其不仅包括设于内部的主板、用于实现触控、显示功能的触控屏/或显示屏、对主板、触控屏/显示屏进行供电的电池、实现智能主机20的拍摄功能的拍摄模组22和拍摄模组23、实现智能主机20的通信功能的通信器件(例如无线通信器件、蓝牙通信器件、红外通信器件等)、实现智能主机20的检测功能的传感器(例如重力传感器、加速度传感器、距离传感器、气压传感器、紫外线检测器、玩水检测识别模块)、实现对用户的心率进行检测的心率检测器、实现智能主机20的定时功能的定时器、对用户的身份进行识别的元件,例如指纹模组、面部识别模组,以及实现音频输入和/或输出的麦克风、扬声器等。应该得知的是,上述各器件、功能模组均设于智能主机20内部,且与主板电连接,通过主板实现对这些器件、功能模组的控制,进而控制其实现对应的功能。
因此,本发明实施例中,智能主机20是有别于传统的手表的仅能实现时间显示、定时等功能的表盘的。
进一步地,由于智能主机20与底层支架10通过旋转轴21可以实现可转动连接,因此,可以通过调整智能主机20与底层支架10的转动角度来调整拍摄模组22和拍摄模组23的拍摄角度,其中,智能主机20与底层支架10的转动角度可在0~90°之间。例如,当智能主机20叠在底层支架10上时,智能主机20与底层支架10之间的角度为0°,而当智能主机20发生转动后,该智能主机20与底层支架10之间的角度可优选可以为90°。当智能主机20与底层支架10之间的角度为0°时,智能主机20上的拍摄模组22和拍摄模组23相对底层支架10的夹角也为0°夹角;当智能主机20相对底层支架10转动形成90°夹角时,智能主机20的拍摄模组22和拍摄模组23相对底层支架10的夹角为90°夹角,从而可以实现拍摄模组22和拍摄模组23的拍摄角度的调整。特别的,当智能主机20的主机顶侧20a上设置有顶侧显示屏以及主机底侧20b上也设置有底侧显示屏时,若智能主机20的拍摄模组22和拍摄模组23相对底层支架10的夹角为90°夹角,那么主机顶侧20a上设置的顶侧显示屏以及主机底侧20b上设置的底侧显示屏相对底层支架10的夹角也为90°夹角,从而可以方便位于智能主机20一侧的用户观看顶侧显示屏,以及方便位于智能主机20另一侧的用户观看底侧显示屏。本发明实施例中,智能主机20与底层支架10的转动角度可以在0~90°之间调整,优选地,该转动角度可为0°、30°、45°、60°、75°或90°。
在本发明实施例中,由于智能主机20通过旋转轴21与底层支架10转动连接,因此,智能主机20可以包括相对设置的转动端20c和自由端20d,该转动端20c为智能主机20通过旋转轴21与底层支架10的第一端连接的一端,而该自由端20d则为可随着转动端20c相对底层支架10实现转动并相对底层支架10可形成角度的一端。具体地,为了避免影响拍摄模组22和拍摄模组23的拍摄视角,拍摄模组22可以优选设于该自由端20d的端部顶侧(属于主机顶侧20a的一部分),而拍摄模组23可以优选设于该自由端20d的端部底侧(属于主机底侧20b的一部分)。
在本发明实施例中,该底层支架10可为板状结构。当底层支架10为板状结构时,底层支架10的材质可优选为隔热材质,例如塑胶。当用户佩戴腕式穿戴设备时,能够避免智能主机20发热量大而可能对用户的手腕皮肤造成烫伤的情况。因此,该底层支架10不仅可实现承载智能主机20转动的功能,同时还可实现对智能主机20与用户的手腕皮肤进行隔热的效果。
进一步地,当底层支架10为板状结构时,底层支架10上可以设置有一个或多个通孔10a,以使得智能主机20通过通孔10a可以实现包括对用户的心率进行检测在内的各项生理特征检测。其中,通孔10的形状可以是圆形、方形或者椭圆形等,本发明实施例不作限定。
可以理解的是,在其他实施例中,该底层支架10也可以是闭合环状结构,本发明实施例不作限定。
在用户需调整智能主机20相对底层支架10的角度时,可通过手动调整智能主机20相对底层支架10的转动角度,当智能主机20转动至用户的目标角度时,此时,用户停止调整智能主机20,智能主机20可保持在当前角度不变,此时,拍摄模组22和/或拍摄模组23可处于可拍摄状态,用户可根据实际拍摄需求选择拍摄模组22和/或拍摄模组23执行对应的拍摄操作。
当用户想将智能主机20叠在底层支架10上时,则可再次通过手动调整智能主机20,使得智能主机20可再次被调整而相对底层支架10转动,直至智能主机20叠于底层支架10上,此时用户停止调整智能主机20。
本发明实施例公开的一种腕式穿戴设备使得拍摄模组22和拍摄模组23可随着智能主机的转动而获得不同的拍摄角度,满足用户的不同拍摄角度需求。
请参阅图4,图4是本发明实施例公开的一种基于腕式穿戴设备的交互方法的流程示意图。其中,图4所描述的基于腕式穿戴设备的交互方法可以应用于前面实施例描述的腕式穿戴设备。如前面实施例描述的,该腕式穿戴设备包括的智能主机以可转动方式设在腕式穿戴设备包括的两侧带端部之间,该智能主机的主机顶侧正对智能主机的主机底侧,主机顶侧和主机底侧各自设有一个拍摄模组。如图4所示,该基于腕式穿戴设备的交互方法可以包括以下步骤:
401、利用腕式穿戴设备的第一拍摄模组采集目标图像。
402、获取目标图像对应的目标媒体素材。
在本发明实施例中,用户可以通过翻转腕式穿戴设备的主机,使目标图像对应的被拍摄物处于该腕式穿戴设备的第一拍摄模组的拍摄区域中。需要说明的是,该被拍摄物为存在于真实环境中的物体(如书本、书桌或者沙发等),在本发明实施例中,该腕式穿戴设备可以基于安装于该腕式穿戴设备的指定应用程序支持用户实现AR交互,因此,在执行上述步骤401之前,还可以控制上述指定应用程序处于运行状态。在本发明实施例中,对于上述指定应用程序而言,其所支持的AR交互可以包含两种类型,一种类型为基于预设标记物的AR交互,另一种类型为基于用户操作的AR交互,其中,需要说明的是,基于预设标记物的AR交互和基于用户操作的AR交互的不同点主要在于针对获取目标图像对应的目标媒体素材的途径不一样,关于这两种AR交互获取目标图像对应的目标媒体素材的具体实现方式,将在下述实施例中进行说明,本发明实施例不再赘述。可选的,在本发明实施例中,安装于腕式穿戴设备的上述指定应用程序可支持用户手势启动,即当腕式穿戴设备处于黑屏状态时,通过腕式穿戴设备的加速度感应器检测是否发生甩动作,以及当检测到发生甩动作时,获取该甩动作的甩动方向和甩动力度,以及当甩动方向为预设角度且甩动力度大于预设力度时,控制上述指定应用程序处于运行状态,并执行上述步骤401。通过实施该可选方法,可以提高针对上述指定应用程序的启动效率,增强腕式穿戴设备的趣味性。
403、对目标图像和目标媒体素材进行融合得到输出画面。
404、将输出画面在腕式穿戴设备的显示屏幕上显示;其中,该显示屏幕与腕式穿戴设备的第二拍摄模组同侧。
405、利用第二拍摄模组采集用户的交互手势,并依据该交互手势的指示调整输出画面。
需要说明的是,在本发明实施例中,步骤405中提及的交互手势所指示的调整对象为上述目标媒体素材,基于该交互手势调整的可以是目标媒体素材的融合参数,该融合参数可以包括目标媒体素材的融合尺寸和融合区域位置等参数。
其中,在本发明实施例中,第一拍摄模组为腕式穿戴设备的两个拍摄模组中的任意一个,第二拍摄模组为腕式穿戴设备的两个拍摄模组中除第一拍摄模组外的另一个。
以基于预设标记物的AR交互为例进行说明:若安装于腕式穿戴设备的指定应用程序为一种AR阅读软件,上述目标图像可以为纸质书本上具有预设标记物(如特殊字符、识别码或者图像等)的书本内容,腕式穿戴设备在运行该AR阅读软件时,腕式穿戴设备可以将书本内容和其对应的目标媒体素材(如针对书本内容的解析文字、解析图片或者解析视频等)进行融合得到输出画面,并将该输出画面在腕式穿戴设备的显示屏幕进行显示,还可以基于用户的交互手势实现对书本内容的解析文字、解析图片或者解析视频的融合参数的调整,通过实施该方法,可以激发用户的学习兴趣,有利于提高学习效率,此外,相较于尺寸较大的家教设备,如学习平板,腕式穿戴设备的便携性较强,可以满足用户随时随地的学习要求。
通过实施上述方法,用户可以基于腕式穿戴设备实现AR操作,还可以通过在黑屏状态下启动指定应用程序增强腕式穿戴设备的趣味性,在该指定应用程序为AR阅读软件时,基于腕式穿戴设备的便携性还可以满足用户随时随地的学习要求。
请参阅图5,图5是本发明实施例公开的另一种基于腕式穿戴设备的交互方法的流程示意图。其中,图5所描述的基于腕式穿戴设备的交互方法可以应用于前面实施例描述的腕式穿戴设备。如前面实施例描述的,该腕式穿戴设备包括的智能主机以可转动方式设在腕式穿戴设备包括的两侧带端部之间,该智能主机的主机顶侧正对智能主机的主机底侧,主机顶侧和主机底侧各自设有一个拍摄模组。如图5所示,该基于腕式穿戴设备的交互方法可以包括以下步骤:
501、利用腕式穿戴设备的第一拍摄模组采集目标图像。
其中,关于步骤501的详细描述,请参照上述实施例中针对步骤401的描述,本发明实施例不再赘述。
502、判断目标图像中是否存在预设标记物,如果是,执行步骤503~步骤507;如果否,结束本流程。
503、获取预设标记物对应的预设媒体素材。
在本发明实施例中,上述预设标记物可以为处于物体表面的识别码、图像或者特殊字符等,本发明实施例不做限定。
504、从上述预设媒体素材中确定目标图像对应的目标媒体素材。
作为一种可选的实施方式,在本发明实施例中,从上述预设媒体素材中确定目标图像对应的目标媒体素材,可以包括:当上述预设媒体素材的数量为一个时,将预设媒体素材作为目标图像对应的目标媒体素材;以及当上述预设媒体素材的数量为多个时,依据用户输入的针对上述预设媒体素材的选取操作指令或者用户信息,从预设媒体素材中确定目标媒体素材;其中,该用户信息至少包括用户的年龄、性别以及喜好。通过实施该方法,在基于预设标记物的AR交互中,若预设标记物对应的预设媒体素材的数量为多个,可以依据用户针对上述预设媒体素材的选取操作指令或者用户信息,从预设媒体素材中确定目标媒体素材,可以使得目标图像对应的目标媒体素材更加适用用户。
作为一种可选的实施方式,在本发明实施例中,利用腕式穿戴设备的第一拍摄模组采集目标图像之后,还可以将用户从云端或者本地的媒体素材库所选择的媒体素材作为目标图像对应的目标媒体素材,这种获取目标媒体素材的途径适用基于用户操作的AR交互,这种基于用户操作的AR交互对于存在于真实环境中的物体没有特殊要求,可以基于任何物体实现AR交互,进一步提高腕式穿戴设备的趣味性。步骤502~步骤504所描述的获取目标媒体素材的途径通常适用基于预设标记物的AR交互,这种基于预设标记物的AR交互通常仅针对的是真实环境中带有预设标记物的物体,可以实现目标媒体素材的自动获取,简化用户操作。
下面通过举例方式对基于预设标记物的AR交互进行介绍:假设真实环境为超市,物体为超市的实体商品,每一实体商品表面可以存在识别码,用户可以利用腕式穿戴设备的第一拍摄模组对实体商品进行扫描,进而通过对识别码的识别得到实体商品的商品信息以及生产流程信息,其中,实体商品的商品信息可以包括商品的原材料、生产日期、保质期以及生产厂家信息等,可选的,该实体商品的商品信息可以以文本形式呈现,实体商品的生产流程信息可以以视频形式呈现。通过实施该方法,实体商品的外包装上可以仅印刷识别码,无需印刷商品信息,可以降低印刷成本,节约能源。
505、对目标图像和目标媒体素材进行融合得到输出画面。
作为一种可选的实施方式,在本发明实施例中,对目标图像和目标媒体素材进行融合得到输出画面可以包括:确定目标媒体素材于目标图像中的融合区域;在该融合区域加载目标媒体素材得到输出画面。其中,在该可选实施方式中,上述融合区域可以由用户自主指定也可以依据指定规则确定,本发明实施例不做限定。以基于预设标记物的AR交互为例,上述指定规则可以是,以目标图像中预设标记物所处的区域的中心点为融合区域的中心点,以预设距离值为半径,确定标媒体素材于目标图像中的融合区域。
506、将输出画面在腕式穿戴设备的显示屏幕上显示;其中,该显示屏幕与腕式穿戴设备的第二拍摄模组同侧。
507、利用第二拍摄模组采集用户的交互手势,并依据该交互手势的指示调整输出画面。
在本发明实施例中,关于步骤505~步骤507的详细描述,请参照上述实施例中针对步骤403~步骤405的描述,本发明实施例不再赘述。
通过实施上述方法,用户可以基于腕式穿戴设备实现AR操作,还可以通过在黑屏状态下启动指定应用程序增强腕式穿戴设备的趣味性,在该指定应用程序为AR阅读软件时,基于腕式穿戴设备的便携性还可以满足用户随时随地的学习要求,还可以通过有针对性的媒体素材推荐使目标图像对应的目标媒体素材更加适用用户,还可以降低印刷成本,节约能源。
请参阅图6,图6是本发明实施例公开的又一种基于腕式穿戴设备的交互方法的流程示意图。其中,图6所描述的基于腕式穿戴设备的交互方法可以应用于前面实施例描述的腕式穿戴设备。如前面实施例描述的,该腕式穿戴设备包括的智能主机以可转动方式设在腕式穿戴设备包括的两侧带端部之间,该智能主机的主机顶侧正对智能主机的主机底侧,主机顶侧和主机底侧各自设有一个拍摄模组。如图6所示,该基于腕式穿戴设备的交互方法可以包括以下步骤:
其中,关于步骤601~步骤606的详细描述,请参照上述实施例中针对步骤501~步骤506的描述,本发明实施例不再赘述。
607、检测是否接收到针对输出画面的投影指令,如果是,执行步骤608~步骤609;如果否,执行步骤609。
608、开启腕式穿戴设备的投影模块,并利用该投影模块,将输出画面投影至目标投影面。
609、利用第二拍摄模组采集用户的交互手势,并依据该交互手势的指示调整输出画面。
在本发明实施例中,通过执行步骤607~步骤608,腕式穿戴设备利用其自带的投影模块实现输出画面投影,可以解决腕式穿戴设备的显示屏幕小所导致的用户体验不佳的技术问题,提高用户的使用体验感。作为一种可选的实施方式,当步骤607的判断结果为是时,还可以将输出画面发送至腕式穿戴设备关联的投影装置,以通过该投影装置将输出画面投影至目标投影面。其中,腕式穿戴设备与投影装置的通信连接方式可以为蓝牙连接也可以为网络连接,本发明实施例不做限定。同理,通过实施该可选方法,腕式穿戴设备借助与其关联的投影装置实现输出画面投影,也可以提高用户的使用体验感,此外,借助腕式穿戴设备关联的投影装置实现输出画面的投影还可以降低腕式穿戴设备的制造成本和功耗。
通过实施上述方法,用户可以基于腕式穿戴设备实现AR操作,还可以通过在黑屏状态下启动指定应用程序增强腕式穿戴设备的趣味性,在该指定应用程序为AR阅读软件时,基于腕式穿戴设备的便携性还可以满足用户随时随地的学习要求,还可以通过有针对性的媒体素材推荐使目标图像对应的目标媒体素材更加适用用户,还可以降低印刷成本,节约能源,还可以通过解决腕式穿戴设备的显示屏幕小所导致的用户体验不佳的技术问题,提高用户的使用体验感,还可以降低腕式穿戴设备的制造成本和功耗。
请参阅图7,图7是本发明实施例公开的一种腕式穿戴设备的结构示意图。如图7所示,该腕式穿戴设备包括的智能主机以可转动方式设在腕式穿戴设备包括的两侧带端部之间,该智能主机的主机顶侧正对智能主机的主机底侧,该主机顶侧和主机底侧各自设有一个拍摄模组。如图7所示,该腕式穿戴设备包括的智能主机可以包括:
采集单元701,用于利用腕式穿戴设备的第一拍摄模组采集目标图像。
在本发明实施例中,采集单元701,还可以用于利用腕式穿戴设备的第一拍摄模组采集目标图像之前,控制上述指定应用程序处于运行状态。需要说明的是,在本发明实施例中关于腕式穿戴设备所支持的AR交互类型的介绍,请参照上述方法实施例中的描述,本发明实施例不再赘述。可选的,在本发明实施例中,采集单元701用于控制上述指定应用程序处于运行状态的方式具体可以为:采集单元701,用于当腕式穿戴设备处于黑屏状态时,通过腕式穿戴设备的加速度感应器检测是否发生甩动作,以及当检测到发生甩动作时,获取该甩动作的甩动方向和甩动力度,以及当甩动方向为预设角度且甩动力度大于预设力度时,控制上述指定应用程序处于运行状态。通过实施该可选方式,可以提高针对上述指定应用程序的启动效率,增强腕式穿戴设备的趣味性。
获取单元702,用于获取目标图像对应的目标媒体素材。
融合单元703,用于对目标图像和目标媒体素材进行融合得到输出画面。
显示单元704,用于将输出画面在腕式穿戴设备的显示屏幕上显示;其中,腕式穿戴设备的显示屏幕与腕式穿戴设备的第二拍摄模组同侧。
交互单元705,用于利用第二拍摄模组采集用户的交互手势,并依据该交互手势的指示调整输出画面。
其中,在本发明实施例中,第一拍摄模组为腕式穿戴设备的两个拍摄模组中的任意一个,第二拍摄模组为腕式穿戴设备的两个拍摄模组中除第一拍摄模组外的另一个。
通过实施上述腕式穿戴设备,用户可以实现AR操作,还可以通过在黑屏状态下启动指定应用程序增强腕式穿戴设备的趣味性,在该指定应用程序为AR阅读软件时,基于腕式穿戴设备的便携性还可以满足用户随时随地的学习要求。
请参阅图8,图8是本发明实施例公开的另一种腕式穿戴设备的结构示意图。其中,图8所示的腕式穿戴设备是由图7所示的腕式穿戴设备进行优化得到的。与图7所示的腕式穿戴设备包括的智能主机相比,图8所示的腕式穿戴设备的智能主机的上述获取单元702可以包括:
判断子单元7021,用于判断目标图像中是否存在预设标记物。
在本发明实施例中,预设标记物可以为处于物体表面的识别码、图像或者特殊字符等,本发明实施例不做限定。
获取子单元7022,用于当目标图像中存在预设标记物时,获取该预设标记物对应的预设媒体素材。
确定子单元7023,用于从上述预设媒体素材中确定目标图像对应的目标媒体素材。
作为一种可选的实施方式,在本发明实施例中,确定子单元7023用于从上述预设媒体素材中确定目标图像对应的目标媒体素材的方式具体可以为:
确定子单元7023,用于当上述预设媒体素材的数量为一个时,将该预设媒体素材作为目标图像对应的目标媒体素材;以及当上述预设媒体素材的数量为多个时,依据用户输入的针对上述预设媒体素材的选取操作指令或者用户信息,从上述预设媒体素材中确定目标媒体素材;其中,该用户信息至少包括用户的年龄、性别以及喜好。通过实施该方式,在基于预设标记物的AR交互中,若预设标记物对应的预设媒体素材的数量为多个,可以依据用户针对上述预设媒体素材的选取操作指令或者用户信息,从预设媒体素材中确定目标媒体素材,可以使得目标图像对应的目标媒体素材更加适用用户。
作为一种可选的实施方式,在本发明实施例中,获取单元702,还可以用于利用腕式穿戴设备的第一拍摄模组采集目标图像之后,将用户从云端或者本地的媒体素材库所选择的媒体素材作为目标图像对应的目标媒体素材,这种获取目标媒体素材的途径适用基于用户操作的AR交互,这种基于用户操作的AR交互对于存在于真实环境中的物体没有特殊要求,可以基于任何物体实现AR交互,进一步提高腕式穿戴设备的趣味性;基于预设标记物的AR交互通常仅针对的是真实环境中带有预设标记物的物体,可以实现目标媒体素材的自动获取,简化用户操作。
作为一种可选的实施方式,在本发明实施例中,融合单元703用于对目标图像和目标媒体素材进行融合得到输出画面的方式具体可以为:融合单元703,用于确定目标媒体素材于目标图像中的融合区域,以及在融合区域加载目标媒体素材得到输出画面。其中,关于融合区域的相关描述,请参照上述方法实施例中步骤505下面的描述,本发明实施例不再赘述。
通过实施上述腕式穿戴设备,用户可以实现AR操作,还可以通过在黑屏状态下启动指定应用程序增强腕式穿戴设备的趣味性,在该指定应用程序为AR阅读软件时,基于腕式穿戴设备的便携性还可以满足用户随时随地的学习要求,还可以通过有针对性的媒体素材推荐使目标图像对应的目标媒体素材更加适用用户,还可以降低印刷成本,节约能源。
请参阅图9,图9是本发明实施例公开的又一种腕式穿戴设备的结构示意图。其中,图9所示的腕式穿戴设备是由图8所示的腕式穿戴设备进行优化得到的。与图8所示的腕式穿戴设备包括的智能主机相比,图9所示的腕式穿戴设备包括的智能主机还可以包括:
检测单元706,用于上述显示单元704将输出画面在腕式穿戴设备的显示屏幕上显示之后,检测是否接收到针对输出画面的投影指令。
投影单元707,用于当接收到投影指令时,开启腕式穿戴设备的投影模块,以及利用该投影模块,将输出画面投影至目标投影面。
在本发明实施例中,投影单元707可以利用腕式穿戴设备的投影模块实现输出画面投影,解决腕式穿戴设备的显示屏幕小所导致的用户体验不佳的技术问题,提高用户的使用体验感。作为一种可选的实施方式,检测单元706,还可以用于在接收到针对输出画面的投影指时,将输出画面发送至腕式穿戴设备关联的投影装置,以通过该投影装置将输出画面投影至目标投影面。其中,腕式穿戴设备与该投影装置的通信连接方式可以为蓝牙连接也可以为网络连接,本发明实施例不做限定。同理,实施该可选方式,借助与腕式穿戴设备关联的投影装置实现输出画面投影,也可以提高用户的使用体验感,此外,借助腕式穿戴设备关联的投影装置实现输出画面的投影还可以降低腕式穿戴设备的制造成本和功耗。
通过实施上述腕式穿戴设备,用户可以实现AR操作,还可以通过在黑屏状态下启动指定应用程序增强腕式穿戴设备的趣味性,在该指定应用程序为AR阅读软件时,基于腕式穿戴设备的便携性还可以满足用户随时随地的学习要求,还可以通过有针对性的媒体素材推荐使目标图像对应的目标媒体素材更加适用用户,还可以降低印刷成本,节约能源,还可以通过解决腕式穿戴设备的显示屏幕小所导致的用户体验不佳的技术问题,提高用户的使用体验感,还可以降低腕式穿戴设备的制造成本和功耗。
请参阅图10,图5是本发明实施例公开的又一种腕式穿戴设备的结构示意图。如图10所示,该腕式穿戴设备可以包括:
存储有可执行程序代码的存储器1001;
与存储器1001耦合的处理器1002;
其中,处理器1002调用存储器1001中存储的可执行程序代码,执行图4~图6任意一种基于腕式穿戴设备的交互方法。
本发明实施例公开一种计算机可读存储介质,其存储计算机程序,其中,该计算机程序使得计算机执行图4~图6任意一种基于腕式穿戴设备的交互方法。
本发明实施例公开一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行图4~图6任意一种基于腕式穿戴设备的交互方法。
本发明实施例公开一种应用发布平台,该应用发布平台用于发布计算机程序产品,其中,当计算机程序产品在计算机上运行时,使得计算机执行图4~图6任意一种基于腕式穿戴设备的交互方法。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的一种基于腕式穿戴设备的交互方法及腕式穿戴设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,且上述具体个例中步骤序号的大小并不意味着执行顺序的必然先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,可根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
本文中字符“/”,一般表示前后关联对象是一种“或”的关系。在本发明所提供的实施例中,应理解,“与A相应的B”表示B与A相关联,根据A可以确定B。但还应理解,根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。另外,在本发明各实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。若上述集成的单元以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可获取的存储器中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或者部分,可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干请求用以使得一台计算机设备(可以为个人计算机、服务器或者网络设备等,具体可以是计算机设备中的处理器)执行本发明的各个实施例上述方法的部分或全部步骤。
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于腕式穿戴设备的交互方法,其特征在于,所述腕式穿戴设备包括的智能主机以可转动方式设在所述腕式穿戴设备包括的两侧带端部之间,所述智能主机的主机顶侧正对所述智能主机的主机底侧,所述主机顶侧和所述主机底侧各自设有一个拍摄模组,所述方法包括:
利用所述腕式穿戴设备的第一拍摄模组采集目标图像;
获取所述目标图像对应的目标媒体素材;
对所述目标图像和所述目标媒体素材进行融合得到输出画面;
将所述输出画面在所述腕式穿戴设备的显示屏幕上显示;其中,所述显示屏幕与所述腕式穿戴设备的第二拍摄模组同侧;
利用所述第二拍摄模组采集用户的交互手势,并依据所述交互手势的指示调整所述输出画面;
其中,所述第一拍摄模组为两个所述拍摄模组中的任意一个,所述第二拍摄模组为两个所述拍摄模组中除所述第一拍摄模组外的另一个。
2.根据权利要求1所述的方法,其特征在于,所述获取所述目标图像对应的目标媒体素材,包括:
判断所述目标图像中是否存在预设标记物;
当所述目标图像中存在所述预设标记物时,获取所述预设标记物对应的预设媒体素材;
从所述预设媒体素材中确定所述目标图像对应的目标媒体素材。
3.根据权利要求1或2所述的方法,其特征在于,所述对所述目标图像和所述目标媒体素材进行融合得到输出画面,包括:
确定所述目标媒体素材于所述目标图像中的融合区域;
在所述融合区域加载所述目标媒体素材得到输出画面。
4.根据权利要求2所述的方法,其特征在于,所述从所述预设媒体素材中确定所述目标图像对应的目标媒体素材,包括:
当所述预设媒体素材的数量为一个时,将所述预设媒体素材作为所述目标图像对应的目标媒体素材;
当所述预设媒体素材的数量为多个时,依据用户输入的针对所述预设媒体素材的选取操作指令或者用户信息,从所述预设媒体素材中确定目标媒体素材;其中,所述用户信息至少包括用户的年龄、性别以及喜好。
5.根据权利要求4所述的方法,其特征在于,所述将所述输出画面在所述腕式穿戴设备的显示屏幕上显示之后,所述方法还包括:
检测是否接收到针对所述输出画面的投影指令;
当接收到所述投影指令时,开启所述腕式穿戴设备的投影模块;
利用所述投影模块,将所述输出画面投影至目标投影面。
6.一种腕式穿戴设备,其特征在于,所述腕式穿戴设备包括的智能主机以可转动方式设在所述腕式穿戴设备包括的两侧带端部之间,所述智能主机的主机顶侧正对所述智能主机的主机底侧,所述主机顶侧和所述主机底侧各自设有一个拍摄模组,所述智能主机包括:
采集单元,用于利用所述腕式穿戴设备的第一拍摄模组采集目标图像;
获取单元,用于获取所述目标图像对应的目标媒体素材;
融合单元,用于对所述目标图像和所述目标媒体素材进行融合得到输出画面;
显示单元,用于将所述输出画面在所述腕式穿戴设备的显示屏幕上显示;其中,所述显示屏幕与所述腕式穿戴设备的第二拍摄模组同侧;
交互单元,用于利用所述第二拍摄模组采集用户的交互手势,并依据所述交互手势的指示调整所述输出画面;
其中,所述第一拍摄模组为两个所述拍摄模组中的任意一个,所述第二拍摄模组为两个所述拍摄模组中除所述第一拍摄模组外的另一个。
7.根据权利要求6所述的腕式穿戴设备,其特征在于,所述获取单元包括:
判断子单元,用于判断所述目标图像中是否存在预设标记物;
获取子单元,用于当所述目标图像中存在所述预设标记物时,获取所述预设标记物对应的预设媒体素材;
确定子单元,用于从所述预设媒体素材中确定所述目标图像对应的目标媒体素材。
8.根据权利要求6或7所述的腕式穿戴设备,其特征在于,所述融合用于对所述目标图像和所述目标媒体素材进行融合得到输出画面的方式具体为:
所述融合单元,用于确定所述目标媒体素材于所述目标图像中的融合区域,以及在所述融合区域加载所述目标媒体素材得到输出画面。
9.根据权利要求7所述的腕式穿戴设备,其特征在于,所述确定子单元用于从所述预设媒体素材中确定所述目标图像对应的目标媒体素材的方式具体为:
所述确定子单元,用于当所述预设媒体素材的数量为一个时,将所述预设媒体素材作为所述目标图像对应的目标媒体素材;以及当所述预设媒体素材的数量为多个时,依据用户输入的针对所述预设媒体素材的选取操作指令或者用户信息,从所述预设媒体素材中确定目标媒体素材;其中,所述用户信息至少包括用户的年龄、性别以及喜好。
10.根据权利要求9所述的腕式穿戴设备,其特征在于,所述智能主机还包括:
检测单元,用于所述显示单元将所述输出画面在所述腕式穿戴设备的显示屏幕上显示之后,检测是否接收到针对所述输出画面的投影指令;
投影单元,用于当接收到所述投影指令时,开启所述腕式穿戴设备的投影模块,以及利用所述投影模块,将所述输出画面投影至目标投影面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910274301.6A CN111752380B (zh) | 2019-04-08 | 2019-04-08 | 一种基于腕式穿戴设备的交互方法及腕式穿戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910274301.6A CN111752380B (zh) | 2019-04-08 | 2019-04-08 | 一种基于腕式穿戴设备的交互方法及腕式穿戴设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111752380A true CN111752380A (zh) | 2020-10-09 |
CN111752380B CN111752380B (zh) | 2024-03-19 |
Family
ID=72672769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910274301.6A Active CN111752380B (zh) | 2019-04-08 | 2019-04-08 | 一种基于腕式穿戴设备的交互方法及腕式穿戴设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111752380B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114816301A (zh) * | 2022-04-29 | 2022-07-29 | 歌尔股份有限公司 | 智能腕带设备的运行方法、智能腕带设备以及存储介质 |
CN114816301B (zh) * | 2022-04-29 | 2024-06-04 | 歌尔股份有限公司 | 智能腕带设备的运行方法、智能腕带设备以及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160047189A (ko) * | 2014-10-22 | 2016-05-02 | 엘지전자 주식회사 | 웨어러블 디바이스 및 제스처 인식 방법 |
US20160338642A1 (en) * | 2015-05-23 | 2016-11-24 | Andrew Parara | Wearable Care Security Smart Watch Device |
CN106227028A (zh) * | 2016-09-20 | 2016-12-14 | 台州蜂时电子科技有限公司 | 一种智能手表 |
WO2017107445A1 (zh) * | 2015-12-25 | 2017-06-29 | 乐视控股(北京)有限公司 | 在虚拟现实系统中获得沉浸感的方法、系统及智能手套 |
US20170205939A1 (en) * | 2015-09-10 | 2017-07-20 | Boe Technology Group Co., Ltd. | Method and apparatus for touch responding of wearable device as well as wearable device |
CN107566751A (zh) * | 2017-09-30 | 2018-01-09 | 北京金山安全软件有限公司 | 图像处理方法、装置、电子设备及介质 |
JP2018005211A (ja) * | 2015-12-01 | 2018-01-11 | 孝郎 林 | 腕装着型撮影機能付装置、姿勢変換装置 |
CN107844049A (zh) * | 2017-11-06 | 2018-03-27 | 深圳市蔚蓝滨海产业投资有限公司 | 一种双屏智能手表 |
WO2018053936A1 (zh) * | 2016-09-26 | 2018-03-29 | 华为技术有限公司 | 一种交互方法及电子设备 |
US10007350B1 (en) * | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US20180220973A1 (en) * | 2015-07-28 | 2018-08-09 | Eins Technology Pte Ltd | Smart devices that capture images and sensed signals |
CN108737720A (zh) * | 2018-04-11 | 2018-11-02 | 努比亚技术有限公司 | 可穿戴设备拍摄方法、可穿戴设备及计算机可读存储介质 |
-
2019
- 2019-04-08 CN CN201910274301.6A patent/CN111752380B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10007350B1 (en) * | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
KR20160047189A (ko) * | 2014-10-22 | 2016-05-02 | 엘지전자 주식회사 | 웨어러블 디바이스 및 제스처 인식 방법 |
US20160338642A1 (en) * | 2015-05-23 | 2016-11-24 | Andrew Parara | Wearable Care Security Smart Watch Device |
US20180220973A1 (en) * | 2015-07-28 | 2018-08-09 | Eins Technology Pte Ltd | Smart devices that capture images and sensed signals |
US20170205939A1 (en) * | 2015-09-10 | 2017-07-20 | Boe Technology Group Co., Ltd. | Method and apparatus for touch responding of wearable device as well as wearable device |
JP2018005211A (ja) * | 2015-12-01 | 2018-01-11 | 孝郎 林 | 腕装着型撮影機能付装置、姿勢変換装置 |
WO2017107445A1 (zh) * | 2015-12-25 | 2017-06-29 | 乐视控股(北京)有限公司 | 在虚拟现实系统中获得沉浸感的方法、系统及智能手套 |
CN106227028A (zh) * | 2016-09-20 | 2016-12-14 | 台州蜂时电子科技有限公司 | 一种智能手表 |
WO2018053936A1 (zh) * | 2016-09-26 | 2018-03-29 | 华为技术有限公司 | 一种交互方法及电子设备 |
CN107566751A (zh) * | 2017-09-30 | 2018-01-09 | 北京金山安全软件有限公司 | 图像处理方法、装置、电子设备及介质 |
CN107844049A (zh) * | 2017-11-06 | 2018-03-27 | 深圳市蔚蓝滨海产业投资有限公司 | 一种双屏智能手表 |
CN108737720A (zh) * | 2018-04-11 | 2018-11-02 | 努比亚技术有限公司 | 可穿戴设备拍摄方法、可穿戴设备及计算机可读存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114816301A (zh) * | 2022-04-29 | 2022-07-29 | 歌尔股份有限公司 | 智能腕带设备的运行方法、智能腕带设备以及存储介质 |
CN114816301B (zh) * | 2022-04-29 | 2024-06-04 | 歌尔股份有限公司 | 智能腕带设备的运行方法、智能腕带设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111752380B (zh) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509168B (zh) | 设备及其控制方法 | |
KR102636637B1 (ko) | 운동 정보를 검출하기 위한 방법 및 그 전자 장치 | |
KR102543912B1 (ko) | 복수의 디스플레이를 구비한 전자장치 및 그 제어 방법 | |
US20160093081A1 (en) | Image display method performed by device including switchable mirror and the device | |
EP3023969A2 (en) | Display and method and electronic device | |
CN104052867A (zh) | 移动终端及其控制方法 | |
KR102481486B1 (ko) | 오디오 제공 방법 및 그 장치 | |
CN110970003A (zh) | 屏幕亮度调整方法、装置、电子设备及存储介质 | |
CN108038726A (zh) | 物品展示方法及装置 | |
KR20170110919A (ko) | 지능형 전자 장치 및 그 동작 방법 | |
US20190378611A1 (en) | Healthcare program management method and electronic device thereof | |
US9983688B2 (en) | Protective cover | |
KR102349684B1 (ko) | 활동 정보 제공 방법 및 이를 지원하는 전자 장치 | |
EP3032390A2 (en) | Method and apparatus for providing object-related services | |
CN117032612B (zh) | 基于远光成像学习机的互动教学方法、装置、终端及介质 | |
CN110177239B (zh) | 一种基于远程控制的视频通话方法及可穿戴设备 | |
CN110610354A (zh) | 用于无人商店的物品结算方法、装置及存储介质 | |
CN110175491A (zh) | 一种排队编号生成方法及可穿戴设备 | |
CN110175254B (zh) | 一种照片的分类存储方法及可穿戴设备 | |
CN110135228B (zh) | 一种听写熟练度评估方法及可穿戴设备 | |
CN111744170A (zh) | 一种基于可穿戴设备的游戏控制方法及可穿戴设备 | |
CN111752380B (zh) | 一种基于腕式穿戴设备的交互方法及腕式穿戴设备 | |
CN110139023B (zh) | 一种用于可穿戴设备的定位方法及可穿戴设备 | |
CN111756960B (zh) | 一种基于可穿戴设备的拍摄控制方法及可穿戴设备 | |
CN110174988B (zh) | 一种基于可穿戴设备的学习方法及可穿戴设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |