CN104731315A - 根据手势输入来启用设备特征 - Google Patents
根据手势输入来启用设备特征 Download PDFInfo
- Publication number
- CN104731315A CN104731315A CN201410532361.0A CN201410532361A CN104731315A CN 104731315 A CN104731315 A CN 104731315A CN 201410532361 A CN201410532361 A CN 201410532361A CN 104731315 A CN104731315 A CN 104731315A
- Authority
- CN
- China
- Prior art keywords
- gesture
- electronic equipment
- feature
- module
- described electronic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/30—Security of mobile devices; Security of mobile applications
- H04W12/33—Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/60—Context-dependent security
- H04W12/68—Gesture-dependent or behaviour-dependent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
Abstract
本申请涉及根据手势输入来启用设备特征。公开了一种方法、装置以及程序产品,其用于:使用位于电子设备上的定位传感器来确定电子设备的初始位置;基于离开初始位置的移动、使用位于电子设备上的手势检测器来检测手势;以及响应于所检测到的手势为特征启用手势来启用电子设备的特征。
Description
技术领域
本文中公开的主题涉及手势输入,更具体地,涉及根据手势输入来启用设备特征(feature)。
背景技术
随着智能设备变得更小,可用于物理接口元件如按钮、开关等的空间量正在减少。例如,智能手表由于大部分可用的设备区域专用于显示器所以一般不提供用于物理按钮的大的空间。因此,物理按钮可能被布置在设备上的尴尬位置中。可替代地,设备可以合并触摸启用的显示器;然而,这样的显示器可能难以与具有小的屏幕尺寸的穿戴设备如智能手表交互。其他设备可能不允许一起进行物理交互,例如光学头戴式显示器。
发明内容
公开了一种用于根据手势输入来启用设备特征的方法。装置和计算机程序产品也执行该方法的功能。
在一个实施方式中,描述了一种方法,其包括使用位于电子设备上的定位传感器来确定电子设备的初始位置。在另一实施方式中,该方法包括基于离开初始位置的移动、使用位于电子设备上的手势检测器来检测手势。在又一实施方式中,该方法包括响应于所检测到的手势为特征启用手势来启用电子设备的特征。
在一个实施方式中,电子设备包括可穿戴设备。在另一实施方式中,基于可穿戴设备在用户身体上的位置来确定可穿戴设备的初始位置。在又一实施方式中,启用电子设备的特征包括启用电子设备的语音识别功能,使得电子设备识别由用户提供的语音命令。在又一实施方式中,电子设备包括被配置成检测语音输入的多个麦克风。在一些实施方式中,麦克风中的至少一部分响应于所检测到的手势而被启用。
在另一实施方式中,电子设备响应于检测到预定手势来执行与语音命令相关联的任务。在一个实施方式中,语音识别响应于完成的手势而被启用,使得在做出手势时不接收语音命令。在又一实施方式中,启用电子设备的特征包括启用电子设备的显示器。在某些实施方式中,该方法包括响应于反向做出特征启用手势或再次做出特征启用手势来禁用电子设备的被启用的特征。在另一实施方式中,该方法包括在电子设备上接收到通知之后的预定时间段内检测特征启用手势。在一些实施方式中,忽略在预定时间段内未做出的特征启用手势。
在一个实施方式中,特征启用手势包括主要手势和一个或更多个辅助手势的组合,使得响应于在做出主要手势之后检测到一个或更多个辅助手势来启用特征。在另一实施方式中,电子设备包括低功率状态和高功率状态。在一些实施方式中,低功率状态被配置成检测预定移动阈值内的移动。在另一实施方式中,高功率状态被配置成检测超过预定移动阈值的移动。在又一实施方式中,响应于电子设备从低功率状态切换到高功率状态来检测手势。
在一些实施方式中,该方法包括基于电子设备的初始位置来对位于电子设备上的一个或更多个手势检测器进行校准。在一个实施方式中,电子设备包括被配置成校准电子设备的校准传感器。在另一实施方式中,该方法包括基于用户输入来定义特征启用手势,使得用户定义的手势与电子设备的特征相关联。
在一个实施方式中,装置包括处理器、操作地耦接至处理器的定位传感器以及存储能够由处理器执行的机器可读代码的存储器。在一个实施方式中,装置包括使用位于电子设备上的定位传感器来确定电子设备的初始位置的设置模块。在另一实施方式中,装置包括基于离开初始位置的移动、使用位于电子设备上的手势检测器来检测手势的手势模块。在一些实施方式中,装置包括响应于所检测到的手势为特征启用手势来启用电子设备的特征的特征模块。
在一个实施方式中,装置包括响应于反向做出特征启用手势或再次做出特征启用手势来禁用电子设备的被启用的特征的停用模块。在又一实施方式中,装置包括响应于在接收通知之后的预定时间段内未做出特征启用手势来忽略特征启用手势的通知模块。在某些实施方式中,装置包括基于电子设备的初始位置来对位于电子设备上的一个或更多个手势检测器进行校准的调整模块。在一些实施方式中,电子设备包括被配置成校准电子设备的校准传感器。
在一个实施方式中,装置包括定制模块,其基于用户输入来定义特征启用手势,使得用户定义的手势与电子设备的特征相关联。在又一实施方式中,电子设备包括可穿戴设备。在另一实施方式中,基于可穿戴设备在用户身体上的位置来确定可穿戴设备的初始位置。
公开了一种程序产品,其包括存储能够由处理器执行以执行操作的机器可读代码的计算机可读存储介质。在一个实施方式中,操作包括使用位于电子设备上的定位传感器来确定电子设备的初始位置。在一些实施方式中,操作包括基于离开初始位置的移动、使用位于电子设备上的手势检测器来检测手势。在另一实施方式中,操作包括响应于所检测到的手势为特征启用手势来启用电子设备的特征。
附图说明
将通过参照附图中所示的具体实施方式给出以上所简要描述的实施方式的更具体描述。要理解的是,这些附图仅示出一些实施方式,因此不应被视为对范围的限制,将通过利用附图来更具体和详细地对实施方式进行描述和说明,在附图中:
图1是示出了用于根据手势输入来启用设备特征的系统的一个实施方式的示意性框图;
图2是示出了用于根据手势输入来启用设备特征的装置的一个实施方式的示意性框图;
图3是示出了用于根据手势输入来启用设备特征的装置的另一实施方式的示意性框图;
图4示出了根据输入手势来启用设备特征的一个实施方式;
图5是示出了用于根据手势输入来启用设备特征的方法的一个实施方式的示意性流程图;以及
图6是示出了用于根据手势输入来启用设备特征的方法的另一实施方式的示意性流程图。
具体实施方式
本领域技术人员将理解,实施方式的各个方面可以实施为系统、方法或程序产品。因此,实施方式可以采用下述形式:完全硬件实施方式、完全软件实施方式(包括固件、驻留软件、微代码等)或者结合在本文中通常都可以称为“电路”、“模块”或“系统”的软件方面和硬件方面的实施方式。另外,实施方式可以采用在存储机器可读代码的一个或更多个计算机可读存储设备中实现的程序产品的形式。存储设备可以是有形的、非暂态的和/或非传输的。
在本说明书中描述的许多功能性单元被标记为模块,以更特别地强调其实现独立性。例如,模块可以被实施为包括定制VLSI电路或门阵列、诸如逻辑芯片的现成半导体、晶体管或其他分立部件的硬件电路。模块也可以以可编程硬件器件诸如现场可编程门阵列、可编程阵列逻辑、可编程逻辑器件等来实施。
模块也可以以用于由各种类型的处理器执行的机器可读代码和/或软件来实施。机器可读代码的标识模块可以例如包括可以例如被组织为对象、过程或函数的可执行代码的一个或更多个物理或逻辑块。然而,标识模块的可执行部分不需要物理地位于在一起,而是可以包括存储在不同位置的不同的指令,当这些不同的指令逻辑地结合到一起时,构成模块并且实现针对该模块的规定目的。
实际上,机器可读代码的模块可以是单个指令或多个指令,甚至可以分布到若干不同代码段上、不同程序当中以及若干存储设备中。类似地,操作数据在这里可以在模块内被标识和说明,并且可以以任何适当形式实现并被组织在任何适当类型的数据结构内。操作数据可以被收集为单个数据集,或者可以分布到不同位置上,包括分布到不同计算机可读存储设备上,并且可以至少部分地仅作为系统或网络上的电子信号存在。在模块或模块的一部分以软件实施的情况下,多个软件部分存储在一个或更多个计算机可读存储设备上。
可以使用一个或更多个计算机可读介质的任何组合。计算机可读介质可以是机器可读信号介质或存储设备。计算机可读介质可以是存储机器可读代码的存储设备。存储设备可以是例如但不限于电子、磁性、光学、电磁、红外、全息、微机械或半导体系统、装置或设备,或前述的任何适当组合。
存储设备的更多具体示例(非穷尽清单)可包括以下:具有一条或更多条导线的电气连接件、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪速存储器)、便携式光盘只读存储器(CD-ROM)、光学存储设备、磁性存储设备或前述的任何适当组合。在本文的上下文中,计算机可读存储介质可以是任何有形介质,其可以包含或存储供指令执行系统、装置或设备使用或者与指令执行系统、装置或设备结合使用的程序。
机器可读信号介质可以包括例如基带中的或作为载波的一部分的、其中实现了机器可读代码的传播数据信号。这样的传播信号可以采用各种形式中的任一种,包括但不限于电磁、光或其任何适当组合。机器可读信号介质可以是任何存储设备,该存储设备不是计算机可读存储介质,并且能够传递、传播或传送供指令执行系统、装置或设备使用或者与指令执行系统、装置或设备结合使用的程序。在存储设备上实现的机器可读代码可以使用任何适当介质来传送,所述适当介质包括但不限于无线、有线、光纤线缆、射频(RF)等、或前述的任何适当组合。
可以以一种或更多种编程语言的任何组合来编写用于执行针对实施方式的操作的机器可读代码,所述编程语言包括诸如Java、Smalltalk、C++等的面向对象编程语言以及诸如“C”编程语言或类似的编程语言的传统过程性编程语言。机器可读代码可以全部在用户的计算机上执行,部分地在用户的计算机上执行,作为独立软件包执行,部分地在用户的计算机上执行并且部分地在远程计算机上执行,或者全部在远程计算机或服务器上执行。在后一情况下,远程计算机可以通过任何类型的网络(包括局域网(LAN)或广域网(WAN))连接至用户的计算机,或者可以进行到外部计算机的连接(例如利用互联网服务提供商、通过互联网)。
在整个本说明书中对“一个实施方式”、“实施方式”或类似语言的提及表示结合实施方式所描述的特定的特征、结构或特性包括在至少一个实施方式中。因此,在整个本说明书中短语“在一个实施方式中”、“在实施方式中”以及类似语言的出现可以但未必全部指同一实施方式,而是表示“一个或更多个但不是全部实施方式”,除非另有明确规定。术语“包括(including)”、“包含(comprising)”、“具有(having)”及其变型表示“包括但不限于”,除非另有明确规定。所列举的项的列表并不意味着这些项中的任何项或全部项是互相排斥的,除非另有明确规定。术语“一(a)”、“一个(an)”以及“该(the)”也指“一个或更多个”,除非另有明确规定。
另外,所描述的实施方式的特征、结构或特性可以以任何适当方式进行组合。在以下描述中,提供了许多具体细节,诸如编程、软件模块、用户选择、网络交易、数据库查询、数据库结构、硬件模块、硬件电路、硬件芯片等的示例,以提供对实施方式的透彻理解。然而本领域技术人员将认识到,实施方式可以在没有一个或更多个具体细节的情况下,或者利用其他方法、元件、材料等来实现。在其他示例中,没有详细示出或描述已知的结构、材料或操作,以避免使实施方式的方面变得模糊。
下面参照根据实施方式的方法、装置、系统以及程序产品的示意性流程图和/或示意性框图来描述实施方式的方面。将理解,示意性流程图和/或示意性框图中的每个框以及示意性流程图和/或示意性框图中的框的组合可以由机器可读代码实施。可以将这些机器可读代码提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器以产生机器,使得经由计算机或其他可编程数据处理装置的处理器执行的指令创建用于实施在示意性流程图和/或示意性框图的一个或多个框中指定的功能/动作的装置。
还可以将机器可读代码存储在存储装置中,该机器可读代码可以引导计算机、其他可编程数据处理设备或其他装置以特定方式起作用,使得存储在存储装置中的指令产生包括实施在示意流程图和/或示意框图的一个或多个框中指定的功能/动作的指令的制品。
也可以将机器可读代码加载到计算机、其他可编程数据处理装置或其他设备上,以使得在计算机、其他可编程装置或其他设备上执行一系列操作步骤来生成计算机实施的处理,使得在计算机或其他可编程装置上执行的程序代码提供用于实施在流程图和/或框图的一个或多个框中指定的功能/动作的处理。
图中的示意性流程图和/或示意性框图示出了根据各种实施方式的装置、系统、方法和程序产品的可能实施的架构、功能和操作。关于这点,示意性流程图和/或示意性框图中的每个框可以代表模块、段或部分代码,所述模块、段或部分代码包括用于实施所指定的逻辑功能的程序代码的一个或更多个可执行指令。
还应该注意,在一些替选实施中,框中所注明的功能可以不按图中所注明的顺序发生。例如,根据所涉及的功能,连续示出的两个框实际上可以基本上同时执行,或者各个框有时可以以相反顺序执行。可以考虑在功能、逻辑或效果上与所示图中的一个或更多个框或其一部分等同的其他步骤和方法。
虽然可以在流程图和/或框图中使用各种箭头类型和线类型,但是它们被理解为不限制相应实施方式的范围。实际上,一些箭头或其他连接符可以用于仅指示所示实施方式的逻辑流程。例如,箭头可以指示所示实施方式的所列举步骤之间的未指定持续时间的等待或监视时段。还要注意,框图和/或流程图中的每个框以及框图和/或流程图中的框的组合可以由执行指定功能或动作的基于专用硬件的系统或专用硬件和机器可读代码的组合来实施。
对图的描述可以参考在之前的图中所描述的元件,相同的附图标记指示相同的元件。图1描绘了用于根据手势输入来启用设备特征的系统100的一个实施方式。在一个实施方式中,系统100包括信息处理设备102、手势检测装置104、数据网络106以及服务器108,下面将更加详细地描述这些。
在某些实施方式中,信息处理设备102包括可穿戴电子设备102如智能手表、头戴式光学显示器等。在一些实施方式中,信息处理设备102包括移动设备如智能电话、平板电脑、PDA等。在另一实施方式中,信息处理设备102从手势输入检测器如数码相机、红外摄像机等接收手势输入。在一个实施方式中,信息处理设备102包括其他手势检测传感器如重力传感器、接近传感器、身体传感器、加速计等。在另一实施方式中,信息处理设备102包括检测语音输入的一个或更多个麦克风。在信息处理设备102为可穿戴电子设备的一些实施方式中,电子设备可以与第二信息处理设备102如智能电话等通信。在某些实施方式中,信息处理设备102包括被配置成在信息处理设备102上执行的一个或更多个应用程序、程序等。
在一个实施方式中,手势检测装置104被配置成使用位于电子设备102上的定位传感器来确定电子设备102的初始位置。在另一实施方式中,手势检测装置104基于离开初始位置的移动、使用位于电子设备102上的手势检测器来检测手势。在又一实施方式中,手势检测装置104响应于所检测到的手势为特征启用手势来启用电子设备102的特征。在一个实施方式中,手势检测装置104包括执行与根据手势输入来启用设备特征相关联的操作的一个或更多个模块。下面参照图2和图3来更加详细地描述包括其相关联的模块的手势检测装置104。
在另一实施方式中,系统100包括数据网络106。在某些实施方式中,数据网络106是传输与根据手势输入来启用设备特征有关的数字通信的数字通信网络106。数字通信网络106可以包括:无线网络如无线电话网络;无线局域网络如Wi-Fi网络、网络等。数字通信网络106可以包括广域网(“WAN”)、存储区域网(“SAN”)、局域网(“LAN”)、光纤网、因特网或现有技术已知的其他数字通信网络。数字通信网络106可以包括两个或更多个网络。数字通信网络106可以包括一个或更多个服务器、路由器、交换机和/或其他网络设备。数字通信网络106还可以包括计算机可读存储介质如硬盘驱动器、光驱、非易失性存储器、随机存取存储器(“RAM”)等。
在另一实施方式中,系统100包括服务器108。在一些实施方式中,服务器108包括大型计算机、台式计算机、笔记本电脑、云服务器、智能电话、平板电脑等。在一个实施方式中,信息处理设备102通过数据网络106通信上耦接至服务器108。在另一实施方式中,信息处理设备102通过数据网络106访问存储在服务器108上的数据。
图2描绘了用于根据手势输入来启用设备特征的装置200的一个实施方式。在某些实施方式中,装置200包括手势检测装置104的实施方式。在另一实施方式中,手势检测装置104包括设置模块202、手势模块204以及特征模块206,下面将更加详细地描述这些。
在一个实施方式中,设置模块202使用位于电子设备102上的定位传感器来确定电子设备102的初始位置。在某些实施方式中,例如,如当电子设备102为可穿戴设备时,手势可以从任何数目的位置开始。例如,如果电子设备102是佩戴在用户手臂上的智能手表,则手势可以从用户侧的手臂位置、从折臂位置等开始。由此,为了确定手势的起始位置,设置模块202基于从位于电子设备102上的一个或更多个传感器接收的输入来确定初始位置。例如,重力传感器可以用于确定电子设备102的起始方向,身体传感器可以检测电子设备102所位于的身体的部分,等等。
在一些实施方式中,设置模块202在确定电子设备102的初始位置之前、在检测到低于预定阈值的移动之后延迟预定量的时间。例如,设置模块202可以等待直到用户的手臂停止沿竖直方向移动为止,以确定电子设备102正被保持在用户身体侧上。在一些实施方式中,在确定电子设备102的初始位置之前等待直到电子设备102完全静止为止可能效率低下。由此,设置模块202可以仅延迟直到所检测到的电子设备102的移动低于预定阈值为止。因此,设置模块202可以检测电子设备102的轻微移动,并且仍确定设备102的初始位置。在某些实施方式中,设置模块202从用户接收预定量的延迟时间和/或预定阈值。
在一个实施方式中,手势检测装置104包括手势模块204,其基于离开所确定的电子设备102的初始位置的移动、使用位于电子设备102上的一个或更多个手势检测器来检测手势。在某些实施方式中,手势模块204从位于电子设备102上的一个或更多个手势检测器/传感器接收输入以检测手势。手势检测器可以包括加速计、数码相机、红外摄像机、接近传感器、重力传感器、方向传感器、电容传感器等。例如,在电子设备102为可穿戴智能手表的情况下,手势模块204可以从加速计接收输入以检测手臂的移动。可替代地,手势模块204可以从方向传感器接收输入以检测手臂的旋转、从接近传感器接收输入以检测设备102多么靠近身体等。
在某些实施方式中,手臂手势可以包括与顺时针方向转动结合的向上移动,其可以表明用户正在查看佩戴在用户手臂上或保持在用户手中的手表(或任何可穿戴设备102)。在另一实施方式中,手势可以包括来回摇动设备102以启用设备102的某些特征。在又一实施方式中,手势可以包括与将设备102拿到非常靠近用户的嘴相关联的动作。在这样的实施方式中,手势模块204确定手肘的位置(例如,手肘指向的方向)、手相对于用户的脸的位置、用户的手腕的位置(例如,手腕的背部指向或离开用户)等。
在某些实施方式中,手势模块204检测包括主要手势和一个或更多个辅助手势的组合的手势,使得响应于在做出主要手势之后检测到一个或更多个辅助手势来启用特征。例如,手势模块204可以检测包括设备102的旋转(例如,朝向用户的脸转动显示器屏幕)的主要手势和包括确定用户正在查看设备102的辅助手势。可替代地,在包括头戴式光学显示器的实施方式中,手势模块204可以检测包括确定用户正在沿第一方向查看的主要手势和检测包括确定用户正在沿第二方向查看的辅助手势。
在又一实施方式中,电子设备102包括低功率状态和高功率状态。低功率状态可以被配置成检测预定移动阈值内的移动,而高功率状态可以被配置成检测超过预定移动阈值的移动。在这样的实施方式中,手势模块204响应于电子设备102从低功率状态切换到高功率状态而检测手势。在某些实施方式中,低功率状态由低功率处理器监视,使得可以执行低功能处理而不启用高功能处理。例如,低功率处理器可以检测设备102何时在轻微移动,例如在用户步行时在智能手表上所检测到的移动。
手势模块204可以确定:这些移动不足以构成确定移动是否包括手势,直到移动超出预定移动阈值为止。在某些实施方式中,手势模块204响应于确定移动超过预定阈值来启用高功率处理器以启用高功能处理,以检测用户正在做出的手势。在某些实施方式中,电子设备102包括可编程逻辑器件如FPGA、ASIC等,其执行与手势检测相关联的操作。
在一个实施方式中,手势检测装置104包括特征模块206,其响应于所检测的手势为特征启用手势来启用电子设备102的特征。在某些实施方式中,手势模块204检测不被特征模块206识别为特征启用手势的一个或更多个手势。在这样的实施方式中,特征模块206忽略这些手势,并且未响应于所检测到的手势启用设备102的任何特征。然而,在某些实施方式中,特征模块206将由手势模块204检测的一个或更多个手势识别为特征启用手势。
在一个实施方式中,特征模块206响应于特征启用手势而启用电子设备102的语音识别功能。在这样的实施方式中,电子设备102能够识别由用户提供的语音命令。例如,特征模块206可以识别来自佩戴智能手表的用户的、启用设备102上的多个麦克风的手势,例如抬起手表靠近用户的嘴。手势模块204可以使用一个或更多个手势检测器来检测用户手臂的抬起、手表靠近用户的嘴、手肘的位置等,以确定正在做出的手势。然后,特征模块206可以基于该手势确定该手势是否为特征启用手势,如果该手势为特征启用手势,则激活多个麦克风(或各种可能的动作之一)。
在启用语音识别的另一实施方式中,电子设备102响应于手势模块204检测到与语音命令对应的手势而在没有接收到语音命令的情况下来执行与语音命令相关联的命令。例如,电子设备102可以将语音命令如“呼叫约翰”与执行电话应用程序并且呼叫名为约翰的联系人的命令相关联。然而,也可以将相同的语音命令与手势相关联,使得用户可以做出手势而不用给出呼叫约翰的语音命令。例如,手势可以包括将智能电话向上拿到用户的耳朵并且来回地摇动等。
在某些实施方式中,特征模块206响应于完成的手势而启用语音识别,使得在做出手势时未接收语音命令。由此,在一些实施方式中,如果先于手势启用语音识别,则特征模块206在做出手势时禁用语音识别,并且在手势结束时重新启用语音识别以从用户接收语音命令。在又一实施方式中,特征模块206响应于特征启用手势而启用电子设备102的显示器。以这种方式,显示器不必常开或手动打开,而是可以通过使用手势被启用。例如,由特征模块206检测的特征启用手势可以包括检测手臂的抬起并且检测用户正在查看设备102。在另一示例中,特征模块206可以响应于用户摇动位于用户手腕上的手表而启用设备102的显示器。如上所述,位于设备102上的一个或更多个传感器可以用于确定正在被做出的手势。
图3描绘了用于根据手势输入来启用设备特征的装置300的另一实施方式。在一个实施方式中,装置300包括手势检测装置104的实施方式。在某些实施方式中,手势检测装置104包括设置模块202、手势模块204以及特征模块206,这些基本上与参照图2所描述的设置模块202、手势模块204以及特征模块206类似。在又一实施方式中,手势检测装置104包括停用模块302、通知模块304、调整模块306以及定制模块308,下面描述这些。
在一个实施方式中,停用模块302响应于反向做出特征启用手势而禁用电子设备102的被启用的特征。例如,特征模块206可以响应于手势模块204检测包括旋转设备102和将设备102拿到非常靠近用户的脸的手势来启用设备102的语音激活特征。为了禁用被启用的手势,停用模块302检测以相反顺序做出的特征启用手势。由此,在上面示例中,用户可以通过将设备102拿离开用户的脸并且沿相反方向转动设备来禁用设备102的语音激活特征。在另一实施方式中,停用模块302响应于再次做出特征启用手势而禁用电子设备102的被启用的特征。例如,智能手表的显示器可以响应于反复做出显示启用特征而被交替地开关。
在另一实施方式中,通知模块304在在电子设备102上接收通知之后的预定时间段内检测特征启用手势。在一个实施方式中,响应于接收到通知,通知模块304可以启用电子设备102上的一个或更多个传感器以检测特征启用手势。例如,在设备102接收通知后,用户通常将设备102移动到查看设备102上的通知的位置。由此,通知模块304可以启用一个或更多个传感器以检测可以启用设备102的一个或更多个特征如启用显示器、语音激活等的这样的手势。在某些实施方式中,忽略未在预定时间段内做出的特征启用手势。例如,可以将通知之后检测手势的预定时间量设置为五秒,使得可以忽略在接收通知之后五秒所接收的任何手势。
在某些实施方式中,调整模块306基于电子设备102的初始位置来对位于电子设备102上的一个或更多个手势检测器进行校准。例如,调整模块306可以从用户接收确定设备102的初始设置的一个或更多个设置。例如,用户可以指定手表被佩戴在哪个手臂上、手表在手腕上的位置(例如,正面或背面)等。以这种方式,调整模块306可以对合并在该设备102中的传感器进行校准,如对重力传感器、加速计、一个或更多个麦克风、接近传感器等进行校准。
在一个实施方式中,电子设备102包括被配置成校准电子设备102的校准传感器。在一个实施方式中,校准传感器基于设备102的初始位置自动校准设备102的传感器。例如,包括有校准传感器的手表可以包括身体传感器,其确定手表多么接近身体和/或确定非常接近手表的骨的骨密度以确定手表位于身体上何处。可替代地,照相机可以用于确定手表被佩戴在哪支手上。在另一实施方式中,校准模块306基于设备102的初始手势和/或初始移动来确定设备102的初始位置。
在又一实施方式中,定制模块308基于用户输入来定义特征启用手势,使得经用户定义的手势与电子设备102的特征相关联。在某些实施方式中,定制模块308使电子设备102处于学习模式下,使得可以将由用户做出的一个或更多个手势与电子设备102的特征相关联。例如,在电子设备102处于学习模式下之后,用户可以从多个特征中选择特征,并且通过做出手势来指定与该特征相关联的手势。另外,还可以通过定制模块308来做出一个或更多个辅助手势并且将一个或更多个辅助手势与电子设备102的特征相关联。
图4描绘了根据手势输入来启用设备特征的一个实施方式。所描绘的实施方式包括穿戴电子设备404的用户402,电子设备404可以包括智能手表等。在一个实施方式中,设置模块202确定用户402的手臂406上的手表404的初始位置。随着用户402使手表404沿向上方向朝向他的脸410移动408,手势模块204可以检测该移动并且开始对手势的检测。随着手表404更加靠近用户402的脸,用户可以旋转412他的手臂406以查看手表404。手势模块204可以检测该辅助手势(例如,用户402旋转412他的手臂),这可以与使手臂406朝向用户402的脸410移动(408)的主要手势一起构成特征启用手势。响应于该特征启用手势,特征模块206可以启用手表404的特征例如打开显示器、启用语音激活等。
图5描绘了用于根据手势输入来启用设备特征的方法500的一个实施方式。在一个实施方式中,方法500开始,并且设置模块202确定502电子设备102的初始位置。在某些实施方式中,设置模块202使用位于设备102上的一个或更多个传感器以确定设备102的初始位置。
在另一实施方式中,手势模块204基于离开初始位置的移动、使用位于电子设备102上的一个或更多个手势检测器来检测504手势。在某些实施方式中,手势检测器包括接近传感器、加速计、重力传感器、电容传感器等。在又一实施方式中,特征模块206响应于所检测到的手势为特征启用手势而启用506设备102的特征。在某些实施方式中,如果所检测到的手势不是特征启用手势(例如,手势不与设备102的特征相关联),则忽略手势,然后方法500结束。
图6描绘了用于根据手势输入来启用设备特征的另一方法600的一个实施方式。在一个实施方式中,方法600开始,并且设置模块202使用位于电子设备102上的定位传感器来确定602电子设备102的初始位置。在又一实施方式中,调整模块306基于电子设备102的初始位置来对位于电子设备102上的一个或更多个手势检测器进行校准604。在某些实施方式中,电子设备102包括被配置成校准电子设备102的校准传感器。
在一个实施方式中,通知模块304确定606在电子设备102上是否接收到通知。如果通知模块304确定606未接收通知,则特征模块206将忽略608做出的任何手势,直到通知模块304确定606接收到通知为止。如果通知模块304确定606接收到通知,则手势模块204基于设备102的初始位置、使用位于电子设备102上的手势检测器来检测610手势。
在另一实施方式中,通知模块304确定612在接收通知之后的预定时间段内是否做出了所检测到的手势。如果通知模块304确定612在预定时间段内未接收到手势,则特征模块206忽略608该手势。如果通知模块304确定612在预定时间段内做出了手势,则特征模块206响应于所检测到的输入手势而启用614电子设备102的特征。在某些实施方式中,被启用的特征包括打开显示器、启用语音激活等。在又一实施方式中,停用模块302响应于检测以相反顺序做出的手势而禁用616被启用的特征,然后方法600结束。
可以以其他具体形式来实现实施方式。所描述的实施方式应被认为在所有方面仅是示例性的而并非限制性的。因此由所附权利要求而不是由之前的说明书来指示本发明的范围。在权利要求的等同方案的含意和范围内的所有改变都包含在权利要求的范围内。
Claims (19)
1.一种方法,包括:
使用位于电子设备上的定位传感器来确定所述电子设备的初始位置;
基于离开所述初始位置的移动、使用位于所述电子设备上的手势检测器来检测手势;以及
响应于所检测到的手势为特征启用手势来启用所述电子设备的特征。
2.根据权利要求1所述的方法,其中,所述电子设备包括可穿戴设备,并且其中,基于所述可穿戴设备在用户身体上的位置来确定所述可穿戴设备的所述初始位置。
3.根据权利要求1所述的方法,其中,启用所述电子设备的特征包括:启用所述电子设备的语音识别功能,使得所述电子设备识别用户所提供的语音命令。
4.根据权利要求3所述的方法,其中,所述电子设备包括被配置成检测语音输入的多个麦克风,并且其中,响应于所检测到的手势启用所述麦克风中的至少一部分。
5.根据权利要求3所述的方法,其中,所述电子设备响应于检测到预定手势来执行与语音命令相关联的任务。
6.根据权利要求3所述的方法,其中,响应于完成的手势启用语音识别,使得正在做出所述手势时不接收语音命令。
7.根据权利要求1所述的方法,其中,启用所述电子设备的特征包括启用所述电子设备的显示器。
8.根据权利要求1所述的方法,还包括:响应于反向做出所述特征启用手势和做出所述特征启用手势来禁用所述电子设备的被启用的特征。
9.根据权利要求1所述的方法,其中,忽略在预定时间段内未做出的特征启用手势。
10.根据权利要求1所述的方法,其中,所述特征启用手势包括主要手势和一个或更多个辅助手势的组合,使得响应于在做出所述主要手势之后检测到一个或更多个辅助手势来启用特征。
11.根据权利要求1所述的方法,其中,所述电子设备包括低功率状态和高功率状态,所述低功率状态被配置成检测预定移动阈值内的移动,所述高功率状态被配置成检测超过所述预定移动阈值的移动,并且其中,响应于所述电子设备从低功率状态切换到高功率状态来检测手势。
12.根据权利要求1所述的方法,还包括:基于所述电子设备的所述初始位置来对位于所述电子设备上的一个或更多个手势检测器进行校准,其中,所述电子设备包括被配置成校准所述电子设备的校准传感器。
13.根据权利要求1所述的方法,还包括:基于用户输入来定义特征启用手势,使得用户定义的手势与所述电子设备的特征相关联。
14.一种装置,包括:
处理器;
定位传感器,操作地耦接至所述处理器;
存储器,存储能够由所述处理器执行的机器可读代码;
设置模块,使用位于电子设备上的所述定位传感器来确定所述电子设备的初始位置;
手势模块,基于离开所述初始位置的移动、使用位于所述电子设备上的手势检测器来检测手势;以及
特征模块,响应于所检测到的手势为特征启用手势来启用所述电子设备的特征。
15.根据权利要求14所述的装置,还包括停用模块,所述停用模块响应于反向做出所述特征启用手势和做出所述特征启用手势来禁用所述电子设备的被启用的特征。
16.根据权利要求14所述的装置,还包括通知模块,所述通知模块响应于特征启用手势在接收通知之后预定时间段内未被做出来忽略所述特征启用手势。
17.根据权利要求14所述的装置,还包括调整模块,所述调整模块基于所述电子设备的所述初始位置对位于所述电子设备上的一个或更多个手势检测器进行校准,其中,所述电子设备包括被配置成校准所述电子设备的校准传感器。
18.根据权利要求14所述的装置,还包括定制模块,所述定制模块基于用户输入来定义特征启用手势,使得用户定义的手势与所述电子设备的特征相关联。
19.根据权利要求14所述的装置,其中,所述电子设备是可穿戴设备,并且其中,基于所述可穿戴设备在用户身体上的位置确定所述可穿戴设备的所述初始位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/137,386 | 2013-12-20 | ||
US14/137,386 US9971412B2 (en) | 2013-12-20 | 2013-12-20 | Enabling device features according to gesture input |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104731315A true CN104731315A (zh) | 2015-06-24 |
CN104731315B CN104731315B (zh) | 2018-10-30 |
Family
ID=53399981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410532361.0A Active CN104731315B (zh) | 2013-12-20 | 2014-10-10 | 根据手势输入来启用设备特征 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9971412B2 (zh) |
CN (1) | CN104731315B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105788535A (zh) * | 2016-03-22 | 2016-07-20 | 华为技术有限公司 | 一种显示屏控制方法及终端设备 |
CN106066695A (zh) * | 2016-06-06 | 2016-11-02 | 北京奇虎科技有限公司 | 一种应用程序运行控制方法、装置及可穿戴设备 |
CN106094864A (zh) * | 2016-06-30 | 2016-11-09 | 成都西可科技有限公司 | 一种飞行器手环及其交互方法 |
CN108292167A (zh) * | 2015-11-30 | 2018-07-17 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
WO2020244410A1 (zh) * | 2019-06-03 | 2020-12-10 | 清华大学 | 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
EP3110606B1 (en) * | 2014-02-24 | 2021-09-15 | Sony Group Corporation | Smart wearable devices and methods for automatically configuring capabilities with biology and environment capture sensors |
US20220171530A1 (en) * | 2014-06-11 | 2022-06-02 | Lenovo (Singapore) Pte. Ltd. | Displaying a user input modality |
US20150363008A1 (en) * | 2014-06-11 | 2015-12-17 | Lenovo (Singapore) Pte. Ltd. | Displaying a user input modality |
KR20150144668A (ko) * | 2014-06-17 | 2015-12-28 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR20160071732A (ko) * | 2014-12-12 | 2016-06-22 | 삼성전자주식회사 | 음성 입력을 처리하는 방법 및 장치 |
EP3268900B1 (en) | 2015-03-12 | 2022-11-02 | Alarm.com Incorporated | Virtual enhancement of security monitoring |
CN108027643B (zh) | 2015-06-26 | 2021-11-02 | 英特尔公司 | 用于可穿戴计算设备的基于微运动的输入姿势控制的方法、设备和装置 |
US11216069B2 (en) * | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
EP3487395A4 (en) | 2016-07-25 | 2020-03-04 | CTRL-Labs Corporation | METHODS AND APPARATUS FOR PREDICTING MUSCULOSKELETAL POSITION INFORMATION USING PORTABLE SELF-CONTAINED SENSORS |
US10692485B1 (en) * | 2016-12-23 | 2020-06-23 | Amazon Technologies, Inc. | Non-speech input to speech processing system |
US10453451B2 (en) * | 2017-07-05 | 2019-10-22 | Comcast Cable Communications, Llc | Methods and systems for using voice to control multiple devices |
EP3697297A4 (en) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
CN108495212A (zh) * | 2018-05-09 | 2018-09-04 | 惠州超声音响有限公司 | 一种与智能音响交互的系统 |
US10719116B2 (en) * | 2018-06-29 | 2020-07-21 | International Business Machines Corporation | Intelligent display on/off switching for electronic device displays |
WO2020061451A1 (en) | 2018-09-20 | 2020-03-26 | Ctrl-Labs Corporation | Neuromuscular text entry, writing and drawing in augmented reality systems |
US11797087B2 (en) | 2018-11-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11294472B2 (en) * | 2019-01-11 | 2022-04-05 | Microsoft Technology Licensing, Llc | Augmented two-stage hand gesture input |
US20200379539A1 (en) * | 2019-05-31 | 2020-12-03 | Apple Inc. | Power management based on gesture states |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
US20230319391A1 (en) * | 2022-03-22 | 2023-10-05 | Lenovo (Singapore) Pte. Ltd. | Video activation based upon detection of user action |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101008873A (zh) * | 2006-01-23 | 2007-08-01 | 宏达国际电子股份有限公司 | 移动判断装置 |
US20090295832A1 (en) * | 2008-06-02 | 2009-12-03 | Sony Ericsson Mobile Communications Japan, Inc. | Display processing device, display processing method, display processing program, and mobile terminal device |
CN102246125A (zh) * | 2008-10-15 | 2011-11-16 | 因文森斯公司 | 具有运动姿态识别的移动设备 |
CN102473024A (zh) * | 2009-07-23 | 2012-05-23 | 高通股份有限公司 | 用于通过可穿戴装置传送控制信息来控制移动及消费型电子装置的方法及设备 |
CN102609091A (zh) * | 2012-02-10 | 2012-07-25 | 北京百纳信息技术有限公司 | 一种移动终端以及启动移动终端语音操作的方法 |
CN103217895A (zh) * | 2013-04-07 | 2013-07-24 | 上海与德通讯技术有限公司 | 支持手势功能的电子腕表和电子通讯设备 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6498600B1 (en) * | 1999-08-18 | 2002-12-24 | Ericsson Inc. | Electronic devices including keypads that illuminate in response to proximity of a user and methods of operating such electronic devices |
US8952895B2 (en) * | 2011-06-03 | 2015-02-10 | Apple Inc. | Motion-based device operations |
US20050212760A1 (en) * | 2004-03-23 | 2005-09-29 | Marvit David L | Gesture based user interface supporting preexisting symbols |
US8684839B2 (en) * | 2004-06-18 | 2014-04-01 | Igt | Control of wager-based game using gesture recognition |
US7704135B2 (en) * | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
US7522065B2 (en) * | 2004-10-15 | 2009-04-21 | Microsoft Corporation | Method and apparatus for proximity sensing in a portable electronic device |
US7606552B2 (en) * | 2005-11-10 | 2009-10-20 | Research In Motion Limited | System and method for activating an electronic device |
US8532285B2 (en) * | 2007-09-05 | 2013-09-10 | Avaya Inc. | Method and apparatus for call control using motion and position information |
US8344998B2 (en) * | 2008-02-01 | 2013-01-01 | Wimm Labs, Inc. | Gesture-based power management of a wearable portable electronic device with display |
US9037530B2 (en) * | 2008-06-26 | 2015-05-19 | Microsoft Technology Licensing, Llc | Wearable electromyography-based human-computer interface |
US9047052B2 (en) * | 2009-12-22 | 2015-06-02 | At&T Intellectual Property I, L.P. | Simplified control input to a mobile device |
US8228292B1 (en) * | 2010-04-02 | 2012-07-24 | Google Inc. | Flipping for motion-based input |
US20120016641A1 (en) * | 2010-07-13 | 2012-01-19 | Giuseppe Raffa | Efficient gesture processing |
US9247212B2 (en) * | 2010-08-26 | 2016-01-26 | Blast Motion Inc. | Intelligent motion capture element |
US9111255B2 (en) * | 2010-08-31 | 2015-08-18 | Nokia Technologies Oy | Methods, apparatuses and computer program products for determining shared friends of individuals |
US8957847B1 (en) * | 2010-12-28 | 2015-02-17 | Amazon Technologies, Inc. | Low distraction interfaces |
US9089270B2 (en) * | 2011-06-29 | 2015-07-28 | Lg Electronics Inc. | Terminal and control method thereof |
JP5804498B2 (ja) * | 2011-08-22 | 2015-11-04 | 埼玉日本電気株式会社 | 状態制御装置、状態制御方法およびプログラム |
US9389681B2 (en) * | 2011-12-19 | 2016-07-12 | Microsoft Technology Licensing, Llc | Sensor fusion interface for multiple sensor input |
US9374448B2 (en) * | 2012-05-27 | 2016-06-21 | Qualcomm Incorporated | Systems and methods for managing concurrent audio messages |
KR102084041B1 (ko) * | 2012-08-24 | 2020-03-04 | 삼성전자 주식회사 | 펜 기능 운용 방법 및 시스템 |
US11372536B2 (en) * | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
KR102179811B1 (ko) * | 2012-12-03 | 2020-11-17 | 엘지전자 주식회사 | 포터블 디바이스 및 음성 인식 서비스 제공 방법 |
US20140173747A1 (en) * | 2012-12-13 | 2014-06-19 | Apple Inc. | Disabling access to applications and content in a privacy mode |
US8744645B1 (en) * | 2013-02-26 | 2014-06-03 | Honda Motor Co., Ltd. | System and method for incorporating gesture and voice recognition into a single system |
US9288471B1 (en) * | 2013-02-28 | 2016-03-15 | Amazon Technologies, Inc. | Rotatable imaging assembly for providing multiple fields of view |
US9094576B1 (en) * | 2013-03-12 | 2015-07-28 | Amazon Technologies, Inc. | Rendered audiovisual communication |
US20150092520A1 (en) * | 2013-09-27 | 2015-04-02 | Google Inc. | Adaptive Trigger Point For Smartwatch Gesture-to-Wake |
US9513703B2 (en) * | 2013-12-27 | 2016-12-06 | Intel Corporation | Gesture-based waking and control system for wearable devices |
US9218034B2 (en) * | 2014-02-13 | 2015-12-22 | Qualcomm Incorporated | User-directed motion gesture control |
EP3170062B1 (en) * | 2014-07-18 | 2019-08-21 | Apple Inc. | Raise gesture detection in a device |
CN106575150B (zh) * | 2014-08-16 | 2020-03-03 | 谷歌有限责任公司 | 使用运动数据识别手势的方法和可穿戴计算设备 |
-
2013
- 2013-12-20 US US14/137,386 patent/US9971412B2/en active Active
-
2014
- 2014-10-10 CN CN201410532361.0A patent/CN104731315B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101008873A (zh) * | 2006-01-23 | 2007-08-01 | 宏达国际电子股份有限公司 | 移动判断装置 |
US20090295832A1 (en) * | 2008-06-02 | 2009-12-03 | Sony Ericsson Mobile Communications Japan, Inc. | Display processing device, display processing method, display processing program, and mobile terminal device |
CN102246125A (zh) * | 2008-10-15 | 2011-11-16 | 因文森斯公司 | 具有运动姿态识别的移动设备 |
CN102473024A (zh) * | 2009-07-23 | 2012-05-23 | 高通股份有限公司 | 用于通过可穿戴装置传送控制信息来控制移动及消费型电子装置的方法及设备 |
CN102609091A (zh) * | 2012-02-10 | 2012-07-25 | 北京百纳信息技术有限公司 | 一种移动终端以及启动移动终端语音操作的方法 |
CN103217895A (zh) * | 2013-04-07 | 2013-07-24 | 上海与德通讯技术有限公司 | 支持手势功能的电子腕表和电子通讯设备 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108292167A (zh) * | 2015-11-30 | 2018-07-17 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
CN108292167B (zh) * | 2015-11-30 | 2021-08-03 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
CN105788535A (zh) * | 2016-03-22 | 2016-07-20 | 华为技术有限公司 | 一种显示屏控制方法及终端设备 |
US10168777B2 (en) | 2016-03-22 | 2019-01-01 | Huawei Technologies Co., Ltd. | Display control method and terminal device |
CN105788535B (zh) * | 2016-03-22 | 2019-12-13 | 华为技术有限公司 | 一种显示屏控制方法及终端设备 |
CN106066695A (zh) * | 2016-06-06 | 2016-11-02 | 北京奇虎科技有限公司 | 一种应用程序运行控制方法、装置及可穿戴设备 |
CN106094864A (zh) * | 2016-06-30 | 2016-11-09 | 成都西可科技有限公司 | 一种飞行器手环及其交互方法 |
WO2020244410A1 (zh) * | 2019-06-03 | 2020-12-10 | 清华大学 | 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104731315B (zh) | 2018-10-30 |
US20150177841A1 (en) | 2015-06-25 |
US9971412B2 (en) | 2018-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104731315A (zh) | 根据手势输入来启用设备特征 | |
US10423235B2 (en) | Primary device that interfaces with a secondary device based on gesture commands | |
CN107111342B (zh) | 包括旋转体的电子设备及其控制方法 | |
KR101619685B1 (ko) | 화상처리 방법, 화상처리 장치, 단말기장치, 프로그램 및 기록매체 | |
CN106068640B (zh) | 选择性地向可穿戴计算设备重定向通知 | |
JP6223556B2 (ja) | ウェアラブル電子機器 | |
CN103760758B (zh) | 智能手表及其智能显示方法 | |
US20150185838A1 (en) | Wrist based wearable virtual keyboard | |
KR102165818B1 (ko) | 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체 | |
EP3120222A1 (en) | Trainable sensor-based gesture recognition | |
EP2836883A1 (en) | Multi-segment wearable accessory | |
CN106845377A (zh) | 人脸关键点定位方法及装置 | |
CN106062686A (zh) | 用于检测电子设备中的用户输入的方法和装置 | |
KR20150092588A (ko) | 전자장치에서 플랙서블 디스플레이의 표시 제어 방법 및 장치 | |
WO2016082752A1 (zh) | 手持终端及其屏幕显示控制方法 | |
US20160246368A1 (en) | Piezoelectric sensor assembly for wrist based wearable virtual keyboard | |
CN104536654A (zh) | 智能穿戴设备上的菜单选取方法、装置及智能穿戴设备 | |
JP2016511875A (ja) | 画像サムネイルの生成方法、装置、端末、プログラム、及び記録媒体 | |
CN107957843A (zh) | 一种控制方法和移动终端 | |
CN108494962B (zh) | 一种闹钟控制方法及终端 | |
KR102318808B1 (ko) | 여러 종류의 전자 펜을 사용하기 위한 방법 및 그 전자 장치 | |
US20170171741A1 (en) | Remote disabling of a mobile device | |
CN107045418A (zh) | 一种信息输入的方法、装置、计算机装置及存储介质 | |
CN110113525A (zh) | 拍摄预览方法、装置、存储介质及移动终端 | |
CN108304123A (zh) | 页面显示控制方法及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |