CN109917922A - 一种交互方法及可穿戴交互设备 - Google Patents

一种交互方法及可穿戴交互设备 Download PDF

Info

Publication number
CN109917922A
CN109917922A CN201910245411.XA CN201910245411A CN109917922A CN 109917922 A CN109917922 A CN 109917922A CN 201910245411 A CN201910245411 A CN 201910245411A CN 109917922 A CN109917922 A CN 109917922A
Authority
CN
China
Prior art keywords
information
judging result
described image
image characteristic
characteristic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910245411.XA
Other languages
English (en)
Inventor
更藏多杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910245411.XA priority Critical patent/CN109917922A/zh
Publication of CN109917922A publication Critical patent/CN109917922A/zh
Priority to PCT/CN2019/128643 priority patent/WO2020192215A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

本发明公开了一种交互方法及可穿戴交互设备,属于通信技术领域。该交互方法包括:获取唤醒指令;基于唤醒指令唤醒主控系统,并启动主控系统的识别控制单元;识别控制单元获取景深图像并提取特征,获得图像特征信息;判断图像特征信息是否为手势特征信息,获得第一判断结果;当第一判断结果为是时,基于手势特征信息,调用与手势特征信息匹配的控制指令并执行;当第一判断结果为否时,判断图像特征信息是否包含待交互设备,获得第二判断结果;当第二判断结果为是时,输出链接提示信息。该交互方法和可穿戴交互设备通过采集并识别佩戴者的手势实现与其他的设备进行互联并控制,简化了佩戴者的操作,提高了佩戴者的体验效果。

Description

一种交互方法及可穿戴交互设备
技术领域
本发明属于通信技术领域,具体涉及一种交互方法及可穿戴交互设备。
背景技术
随着技术的进步和市场的不断成熟,人均拥有的智能设备数量不断增加,环境中同时存在的智能设备数量也不断增加,其中包括:移动设备、可穿戴设备、智能家居设备等。在日常的生活过程中,为了方便,人们越来越期望能够通过一个随身穿戴的智能设备实现与多个设备互联,从而实现远程控制,比如通过智能手表实现与电视或空调等设备的互联,从而利用智能手表对电视或空调进行远程控制。
但是,现有的智能手表还是主要依赖触控屏幕进行交互和操作,由于智能手表的触控屏幕很小,而且还不能单手操控,没有体现出来智能手表的方便特性,体验上没有为手表和智能手机做足够的差异化,导致智能手表变得可有可无。
发明内容
为了解决现有技术存在的上述问题,本发明提供了一种交互方法及可穿戴交互设备,旨在提高与智能手表进行交互的便捷性。
为了实现上述目的,一方面,本发明提供了一种交互方法,所述交互方法包括以下步骤:
获取唤醒指令;
基于所述唤醒指令唤醒主控系统,并启动所述主控系统的识别控制单元;
所述识别控制单元获取景深图像并提取特征,获得图像特征信息;
判断所述图像特征信息是否为手势特征信息,获得第一判断结果;
当所述第一判断结果为是时,基于所述手势特征信息,调用与所述手势特征信息匹配的控制指令并执行;
当所述第一判断结果为否时,判断所述图像特征信息是否包含待交互设备,获得第二判断结果;
当所述第二判断结果为是时,输出链接提示信息。
进一步的,所述获取唤醒指令的方法为:
实时检测拇指点击中指指尖的声音信息,判断所述声音信息是否为有效声音信息;
若是,则所述声音信息为所述唤醒指令;或
实时获取地理位置信息,判断所述地理位置信息是否为指定区域;
若是,则所述地理位置信息为所述唤醒指令。
进一步的,所述有效声音为:
拇指连续两次或连续三次点击中指指尖的声音信息。
进一步的,所述判断所述图像特征信息是否为手势信息的方法为:
将所述图像特征信息与预存于所述主控系统中的若干手势特征图像进行逐一对比判断;
所述判断所述图像特征信息是否包含待交互设备的方法为:
将所述图像特征信息与预存于所述主控系统中的若干设备图像进行对比判断或将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别判断。
进一步的,当所述第二判断结果为否时,所述方法还包括:
利用大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出。
另一方面,本发明还提供了一种可穿戴交互设备,该可穿戴交互设备包括主控系统,所述主控系统中设置有识别控制单元,还包括:
采集模块,用于实时采集声音信息和地理位置信息;
第一分析模块,与所述采集模块连接,用于对所述声音信息和所述地理位置信息进行分析,判断所述声音信息是否为有效声音信息和/或所述地理位置信息是否为指定区域,获得第一判断结果;
第一执行模块,与所述第一分析模块连接,用于当所述第一判断结果为是时,唤醒所述主控系统并启动所述识别控制单元;
所述识别控制单元包括:
景深图像采集模块,用于获取景深图像;
提取模块,与所述景深图像采集模块连接,用于提取所述景深图像中的特征,获得图像特征信息;
第二分析模块,与所述提取模块连接,用于将所述图像特征信息与预存于所述主控系统中的若干手势特征图像进行对比,判断所述图像特征信息是否为手势特征信息,获得第二判断结果;
第二执行模块,与所述第二分析模块连接,用于当所述第二判断结果为是时,基于所述手势特征信息,调用与所述手势特征信息匹配的控制指令并执行;
第三分析模块,与所述第二分析模块连接,用于当所述第二判断结果为否时,将所述图像特征信息与预存于所述主控系统中的若干设备图像进行对比或将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别,判断所述图像特征信息是否包含待交互设备,获得第三判断结果;
第三执行模块,与所述第三分析模块连接,用于当所述第三判断结果为是时,输出链接提示信息。
进一步的,所述采集模块包括骨传导麦克风和定位装置,所述声音信息为拇指点击中指指尖的声音信息。
进一步的,所述有效声音信息为拇指连续两次或连续三次点击中指指尖的声音信息。
进一步的,所述景深图像采集模块为tof摄像头。
进一步的,所述识别控制单元还包括:
第四执行模块,与所述第三分析模块连接,用于当所述第三判断结果为否时,利用大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出。
与现有技术相比,本发明提供的技术方案具有如下有益效果或优点:
本发明提供的交互方法和可穿戴交互设备,通过获取唤醒指令,唤醒主控系统,然后通过采集并识别佩戴者的手势实现与其他的设备进行互联并控制,不仅简化了佩戴者的操作,还实现了单手操作,提高了佩戴者的体验效果。
参照后文的说明和附图,详细公开了本发明的特定实施方式,指明了本发明的原理可以被采用的方式。应该理解,本发明的实施方式在范围上并不因而受到限制。在所附权利要求的精神和条款的范围内,本发明的实施方式包括许多改变、修改和等同。
针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
应该强调,术语“包括/包含”在本文使用时指特征、整件、步骤或组件的存在,但并不排除一个或更多个其它特征、整件、步骤或组件的存在或附加。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种交互方法的方法流程图;
图2为本发明实施例提供的一种可穿戴设备的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明实施例的描述中,需要说明的是,指示方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,或者是本领域技术人员惯常理解的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本发明实施例的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是直接连接,也可以通过中间媒介间接连接。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义型实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
如图1所示,一方面,本发明实施例提供了一种交互方法,所述交互方法包括以下步骤:
步骤S1:获取唤醒指令;
步骤S2:基于所述唤醒指令唤醒主控系统,并启动所述主控系统的识别控制单元;
步骤S3:所述识别控制单元获取景深图像并提取特征,获得图像特征信息;
步骤S4:判断所述图像特征信息是否为手势特征信息,获得第一判断结果;
步骤S5:当所述第一判断结果为是时,基于所述手势特征信息,调用与所述手势特征信息匹配的控制指令并执行;
步骤S6:当所述第一判断结果为否时,判断所述图像特征信息是否包含待交互设备,获得第二判断结果;
步骤S7:当所述第二判断结果为是时,输出链接提示信息。
需要说明的是,本发明实施例中的所述主控系统为现有的智能设备中通用的控制系统,其具备现有控制系统的通用功能,比如既可以作为独立个体利用本身所带资源,又可以与云端通信连接,利用云端资源等,在此不做赘述。
在具体的实施过程中,步骤S1中的所述唤醒指令有很多种类,比如语音唤醒指令,触控唤醒指令等,为了尽量避免出现误唤醒的情况,作为优选的,本发明实施例中的所述唤醒指令采用地理位置信息和拇指点击中指指尖的声音信息。具体的获取方式是:
实时检测拇指点击中指指尖的声音信息,判断所述声音信息是否为有效声音信息;若是,则所述声音信息为所述唤醒指令;或
实施获取地理位置信息,判断所述地理位置信息是否为指定区域;
若是,则所述地理位置信息为所述唤醒指令。
其中,所述有效声音信息为:拇指连续两次或连续三次点击中指指尖的声音信息。所述指定区域则由用户自定义,比如家里、公司等。
采用上述的唤醒指令能够极大地避免出现误唤醒的情况。而且本发明实施例中通过设置唤醒指令,利用唤醒指令唤醒主控系统,能够使主控系统在使用时才全状态工作,而在不使用时则处于待机状态,能够大大节约能耗。
在具体的实施过程中,步骤S4中所述判断所述图像特征信息是否为手势信息的方法有很多种,作为优选的,本发明实施例具体采用将所述图像特征信息与预存于所述主控系统中的若干手势特征图像进行逐一对比判断。
采用对比判断的方式,能够快速准确地获得判断结果。
在具体的实施过程中,步骤S6中判断所述图像特征信息是否包含待交互设备的方法具体为:将所述图像特征信息与预存于所述主控系统中的若干设备图像进行对比判断或将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别判断。
需要说明的是,本发明实施例中将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别判断是在所述主控系统与云端连接的情况下才会进行,如果所述主控系统与云端并未连接,那么判断所述图像特征信息是否包含待交互设备的方法仅是将所述图像特征信息与预存于所述主控系统中的若干设备图像进行对比判断。此外,在所述主控系统与云端连接的情况下,优先将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别判断。
采用上述判断方法能够更快地判断出所述图像特征信息中是否包含待交互设备。
在具体的实施过程中,更进一步的,当所述第二判断结果为否时,本发明实施例所提供的交互方法还包括:
利用大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出。比如利用大数据识别所述图像特征信息,发现所述图像特征信息为衣服,则输出与所述衣服相关的信息,比如相近的衣服及价格;又比如利用大数据识别所述图像特征信息,发现所述图像特征信息为啤酒,则输出所述啤酒对应的相关信息(如品牌、酒精含量、售价等)。
通过大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出大大扩展了交互功能,提高了用户的使用体验。
需要说明的是,所述利用大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出只在所述主控系统与云端连接的情况下才进行,在所述主控系统与云端连接非连接情况下则不进行。
对应于上述交互方法,本发明实施例还提供了一种可穿戴交互设备,如图2所示,该可穿戴交互设备包括主控系统100,主控系统100中设置有识别控制单元200,该可穿戴交互设备还包括:
采集模块300,用于实时采集声音信息和地理位置信息;
第一分析模块400,与采集模块300连接,用于对所述声音信息和所述地理位置信息进行分析,判断所述声音信息是否为有效声音信息和/或所述地理位置信息是否为指定区域,获得第一判断结果;
第一执行模块500,与第一分析模块400连接,用于当所述第一判断结果为是时,唤醒主控系统100并启动识别控制单元200;
识别控制单元200包括:
景深图像采集模块210,用于获取景深图像;
提取模块220,与景深图像采集模块210连接,用于提取所述景深图像中的特征,获得图像特征信息;
第二分析模块230,与提取模块220连接,用于将所述图像特征信息与预存于所述主控系统中的若干手势特征图像进行对比,判断所述图像特征信息是否为手势特征信息,获得第二判断结果。
第二执行模块240,与第二分析模块230连接,用于当所述第二判断结果为是时,基于所述手势特征信息,调用与所述手势特征信息匹配的控制指令并执行;
第三分析模块250,与第二分析模块230连接,用于当所述第二判断结果为否时,将所述图像特征信息与预存于所述主控系统中的若干设备图像进行对比或将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别,判断所述图像特征信息是否包含待交互设备,获得第三判断结果;
第三执行模块260,与第三分析模块250连接,用于当所述第三判断结果为是时,输出链接提示信息。
本发明实施例所提供的可穿戴交互设备可以是智能手表,也可以是智能护腕,在此不做限定。
在具体的实施过程中,为了避免出现误唤醒的情况发生,作为优选的,本发明实施例中采集的所述声音信息为拇指点击中指指尖发出的声音,采集模块300具体包括骨传导麦克风和定位装置,通过骨传导麦克风实时采集拇指点击中指指尖发出的声音信息,通过定位装置实时获取地理位置信息。
骨传导麦克风具有收集声音的距离近、损耗低的特点。收集声音的距离近能够避免外部环境声音的影响,而损耗低则能够收集到很小的声音,确保能够顺利地获取拇指点击中指指尖发出的声音。采用骨传导麦克风采集拇指点击中指指尖发出的声音作为唤醒指令,能够有效避免出现误唤醒的情况出现。
在此需要说明的是,本发明实施例中的定位装置可以是GPS定位芯片,也可以是北斗定位芯片,也可以是其他能够定位的装置,比如蓝牙寻向装置等等,在此不做限定。
在具体的实施过程中,为了进一步避免误唤醒的情况出现,本发明实施例中的所述有效信息具体为拇指连续两次或连续三次点击中指指尖的声音信息。将拇指连续两次或连续三次点击中指指尖的声音信息作为有效信息,能够有效地避免佩戴者的拇指误触中指,从而导致误唤醒的情况,能够进一步节约能耗。
在具体的实施过程中,为了获得更好的景深图像,作为优选的,本发明实施例中的景深图像采集模块200具体采用tof摄像头。tof摄像头可通过距离信息获取物体之间更加丰富的位置关系,能够快速完成对目标的识别与追踪。
在具体的实施过程中,为了进一步扩展该可穿戴交互设备的功能,作为优选的,本发明实施例中的识别控制单元200还包括:
第四执行模块270,与第三分析模块250连接,用于当所述第三判断结果为否时,利用大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出。比如利用大数据识别所述图像特征信息,发现所述图像特征信息为衣服,则输出与所述衣服相关的信息,比如相近的衣服及价格;又比如利用大数据识别所述图像特征信息,发现所述图像特征信息为啤酒,则输出所述啤酒对应的相关信息(如品牌、酒精含量、售价等)。
通过第四执行模块大大扩展了该可穿戴交互设备的功能,进一步提升了用户的使用体验。
本发明提供的交互方法和可穿戴交互设备,通过获取唤醒指令,唤醒主控系统,然后通过采集并识别佩戴者的手势实现与其他的设备进行互联并控制,不仅简化了佩戴者的操作,还实现了单手操作,提高了佩戴者的体验效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种交互方法,其特征在于,所述交互方法包括以下步骤:
获取唤醒指令;
基于所述唤醒指令唤醒主控系统,并启动所述主控系统的识别控制单元;
所述识别控制单元获取景深图像并提取特征,获得图像特征信息;
判断所述图像特征信息是否为手势特征信息,获得第一判断结果;
当所述第一判断结果为是时,基于所述手势特征信息,调用与所述手势特征信息匹配的控制指令并执行;
当所述第一判断结果为否时,判断所述图像特征信息是否包含待交互设备,获得第二判断结果;
当所述第二判断结果为是时,输出链接提示信息。
2.根据权利要求1所述的交互方法,其特征在于,所述获取唤醒指令的方法为:
实时检测拇指点击中指指尖的声音信息,判断所述声音信息是否为有效声音信息;
若是,则所述声音信息为所述唤醒指令;或
实时获取地理位置信息,判断所述地理位置信息是否为指定区域;
若是,则所述地理位置信息为所述唤醒指令。
3.根据权利要求2所述的交互方法,其特征在于,所述有效声音为:
拇指连续两次或连续三次点击中指指尖的声音信息。
4.根据权利要求1所述的交互方法,其特征在于,所述判断所述图像特征信息是否为手势信息的方法为:
将所述图像特征信息与预存于所述主控系统中的若干手势特征图像进行逐一对比判断;
所述判断所述图像特征信息是否包含待交互设备的方法为:
将所述图像特征信息与预存于所述主控系统中的若干设备图像进行对比判断或将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别判断。
5.根据权利要求4所述的交互方法,其特征在于,当所述第二判断结果为否时,所述方法还包括:
利用大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出。
6.一种可穿戴交互设备,包括主控系统,所述主控系统中设置有识别控制单元,其特征在于,还包括:
采集模块,用于实时采集声音信息和地理位置信息;
第一分析模块,与所述采集模块连接,用于对所述声音信息和所述地理位置信息进行分析,判断所述声音信息是否为有效声音信息和/或所述地理位置信息是否为指定区域,获得第一判断结果;
第一执行模块,与所述第一分析模块连接,用于当所述第一判断结果为是时,唤醒所述主控系统并启动所述识别控制单元;
所述识别控制单元包括:
景深图像采集模块,用于获取景深图像;
提取模块,与所述景深图像采集模块连接,用于提取所述景深图像中的特征,获得图像特征信息;
第二分析模块,与所述提取模块连接,用于将所述图像特征信息与预存于所述主控系统中的若干手势特征图像进行对比,判断所述图像特征信息是否为手势特征信息,获得第二判断结果;
第二执行模块,与所述第二分析模块连接,用于当所述第二判断结果为是时,基于所述手势特征信息,调用与所述手势特征信息匹配的控制指令并执行;
第三分析模块,与所述第二分析模块连接,用于当所述第二判断结果为否时,将所述图像特征信息与预存于所述主控系统中的若干设备图像进行对比或将所述图像特征信息通过所述主控系统上传云端,利用大数据进行识别,判断所述图像特征信息是否包含待交互设备,获得第三判断结果;
第三执行模块,与所述第三分析模块连接,用于当所述第三判断结果为是时,输出链接提示信息。
7.根据权利要求6所述的可穿戴交互设备,其特征在于,所述采集模块包括骨传导麦克风和定位装置,所述声音信息为拇指点击中指指尖的声音信息。
8.根据权利要求7所述的可穿戴交互设备,其特征在于,所述有效声音信息为拇指连续两次或连续三次点击中指指尖的声音信息。
9.根据权利要求6所述的可穿戴交互设备,其特征在于,所述景深图像采集模块为tof摄像头。
10.根据权利要求6所述的可穿戴交互设备,其特征在于,所述识别控制单元还包括:
第四执行模块,与所述第三分析模块连接,用于当所述第三判断结果为否时,利用大数据识别所述图像特征信息,获得所述图像特征信息表征的物品信息并输出。
CN201910245411.XA 2019-03-28 2019-03-28 一种交互方法及可穿戴交互设备 Pending CN109917922A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910245411.XA CN109917922A (zh) 2019-03-28 2019-03-28 一种交互方法及可穿戴交互设备
PCT/CN2019/128643 WO2020192215A1 (zh) 2019-03-28 2019-12-26 一种交互方法及可穿戴交互设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910245411.XA CN109917922A (zh) 2019-03-28 2019-03-28 一种交互方法及可穿戴交互设备

Publications (1)

Publication Number Publication Date
CN109917922A true CN109917922A (zh) 2019-06-21

Family

ID=66967447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910245411.XA Pending CN109917922A (zh) 2019-03-28 2019-03-28 一种交互方法及可穿戴交互设备

Country Status (2)

Country Link
CN (1) CN109917922A (zh)
WO (1) WO2020192215A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110780743A (zh) * 2019-11-05 2020-02-11 聚好看科技股份有限公司 一种vr交互方法及vr设备
CN111080537A (zh) * 2019-11-25 2020-04-28 厦门大学 水下机器人智能控制方法、介质、设备及系统
WO2020192215A1 (zh) * 2019-03-28 2020-10-01 更藏多杰 一种交互方法及可穿戴交互设备
CN114785954A (zh) * 2022-04-27 2022-07-22 深圳影目科技有限公司 处理器唤醒方法以及装置、系统、存储介质、ar眼镜

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1653409A (zh) * 2002-05-10 2005-08-10 亨里克·德赖舍留斯 用于生成到电子设备的命令信号的装置
CN103226443A (zh) * 2013-04-02 2013-07-31 百度在线网络技术(北京)有限公司 智能眼镜的控制方法、装置和智能眼镜
CN104410883A (zh) * 2014-11-29 2015-03-11 华南理工大学 一种移动可穿戴非接触式交互系统与方法
CN104484037A (zh) * 2014-12-12 2015-04-01 三星电子(中国)研发中心 通过可穿戴设备进行智能控制的方法及该可穿戴设备
CN105101565A (zh) * 2015-09-01 2015-11-25 广西南宁智翠科技咨询有限公司 车氛围灯开启方法
CN105204742A (zh) * 2015-09-28 2015-12-30 小米科技有限责任公司 电子设备的控制方法、装置及终端
CN106777071A (zh) * 2016-12-12 2017-05-31 北京奇虎科技有限公司 一种图像识别获取参考信息的方法和装置
CN106774850A (zh) * 2016-11-24 2017-05-31 深圳奥比中光科技有限公司 一种移动终端及其交互控制方法
CN106775206A (zh) * 2016-11-24 2017-05-31 广东小天才科技有限公司 一种用户终端的屏幕唤醒方法及装置、用户终端
CN107172744A (zh) * 2017-06-02 2017-09-15 单广会 一种打响指声音控制的卧室氛围灯及其工作方法
CN107450717A (zh) * 2016-05-31 2017-12-08 联想(北京)有限公司 一种信息处理方法及穿戴式设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9851806B2 (en) * 2015-11-24 2017-12-26 International Business Machines Corporation Gesture recognition and control based on finger differentiation
CN106095178B (zh) * 2016-06-14 2019-06-11 广州视睿电子科技有限公司 输入设备识别方法和系统、输入指令识别方法和系统
CN107517313A (zh) * 2017-08-22 2017-12-26 珠海市魅族科技有限公司 唤醒方法及装置、终端及可读存储介质
CN208547816U (zh) * 2018-08-20 2019-02-26 更藏多杰 一种智能手表
CN109917922A (zh) * 2019-03-28 2019-06-21 更藏多杰 一种交互方法及可穿戴交互设备

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1653409A (zh) * 2002-05-10 2005-08-10 亨里克·德赖舍留斯 用于生成到电子设备的命令信号的装置
CN103226443A (zh) * 2013-04-02 2013-07-31 百度在线网络技术(北京)有限公司 智能眼镜的控制方法、装置和智能眼镜
CN104410883A (zh) * 2014-11-29 2015-03-11 华南理工大学 一种移动可穿戴非接触式交互系统与方法
CN104484037A (zh) * 2014-12-12 2015-04-01 三星电子(中国)研发中心 通过可穿戴设备进行智能控制的方法及该可穿戴设备
CN105101565A (zh) * 2015-09-01 2015-11-25 广西南宁智翠科技咨询有限公司 车氛围灯开启方法
CN105204742A (zh) * 2015-09-28 2015-12-30 小米科技有限责任公司 电子设备的控制方法、装置及终端
CN107450717A (zh) * 2016-05-31 2017-12-08 联想(北京)有限公司 一种信息处理方法及穿戴式设备
CN106774850A (zh) * 2016-11-24 2017-05-31 深圳奥比中光科技有限公司 一种移动终端及其交互控制方法
CN106775206A (zh) * 2016-11-24 2017-05-31 广东小天才科技有限公司 一种用户终端的屏幕唤醒方法及装置、用户终端
CN106777071A (zh) * 2016-12-12 2017-05-31 北京奇虎科技有限公司 一种图像识别获取参考信息的方法和装置
CN107172744A (zh) * 2017-06-02 2017-09-15 单广会 一种打响指声音控制的卧室氛围灯及其工作方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020192215A1 (zh) * 2019-03-28 2020-10-01 更藏多杰 一种交互方法及可穿戴交互设备
CN110780743A (zh) * 2019-11-05 2020-02-11 聚好看科技股份有限公司 一种vr交互方法及vr设备
CN111080537A (zh) * 2019-11-25 2020-04-28 厦门大学 水下机器人智能控制方法、介质、设备及系统
CN111080537B (zh) * 2019-11-25 2023-09-12 厦门大学 水下机器人智能控制方法、介质、设备及系统
CN114785954A (zh) * 2022-04-27 2022-07-22 深圳影目科技有限公司 处理器唤醒方法以及装置、系统、存储介质、ar眼镜

Also Published As

Publication number Publication date
WO2020192215A1 (zh) 2020-10-01

Similar Documents

Publication Publication Date Title
CN109917922A (zh) 一种交互方法及可穿戴交互设备
TWI665584B (zh) 語音控制系統及方法
US20180048482A1 (en) Control system and control processing method and apparatus
CN109918975A (zh) 一种增强现实的处理方法、对象识别的方法及终端
CN105264456B (zh) 运动围栏
CN102932212A (zh) 一种基于多通道交互方式的智能家居控制系统
CN110364145A (zh) 一种语音识别的方法、语音断句的方法及装置
CN103544724A (zh) 一种利用增强现实与卡片识别技术在移动智能终端实现虚拟动漫角色的系统及方法
CN104767807A (zh) 一种基于穿戴设备的信息传递方法及相关设备
CN105931645A (zh) 虚拟现实设备的控制方法、装置及虚拟现实设备、系统
CN109870984B (zh) 一种基于可穿戴设备的多家电控制方法
CN104777911A (zh) 一种基于全息技术的智能交互方法
CN110010125A (zh) 一种智能机器人的控制方法、装置、终端设备及介质
WO2018076380A1 (zh) 在电子设备中生成视频缩略图的方法及电子设备
CN109949795A (zh) 一种控制智能设备交互的方法及装置
WO2018006374A1 (zh) 一种基于主动唤醒的功能推荐方法、系统及机器人
CN105976814A (zh) 头戴设备的控制方法和装置
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
CN111197841A (zh) 控制方法、装置、遥控终端、空调器、服务器及存储介质
CN113671846B (zh) 智能设备控制方法、装置、可穿戴设备及存储介质
US20190205786A1 (en) Method and system for classifying time-series data
CN109450747A (zh) 一种唤醒智能家居设备的方法、装置及计算机存储介质
WO2019184679A1 (zh) 游戏实现方法、装置、存储介质及电子设备
CN109271129A (zh) 音效调整方法、装置、电子设备以及存储介质
CN109324515A (zh) 一种控制智能电器的方法及控制终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190621