CN109074166A - 使用神经数据改变应用状态 - Google Patents
使用神经数据改变应用状态 Download PDFInfo
- Publication number
- CN109074166A CN109074166A CN201780028788.9A CN201780028788A CN109074166A CN 109074166 A CN109074166 A CN 109074166A CN 201780028788 A CN201780028788 A CN 201780028788A CN 109074166 A CN109074166 A CN 109074166A
- Authority
- CN
- China
- Prior art keywords
- state
- user
- application
- view data
- neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Abstract
计算机系统、方法和存储介质用于通过检测与特定应用状态的特定操作相关联的神经用户意图数据来改变应用的状态,并且用于改变应用状态以便使得执行由用户意图的特定操作。应用状态自动地被改变以与由接收到的神经用户意图数据所确定的意图操作对齐,使得意图操作被执行。一些实施例涉及一种通过训练过程创建或者更新状态机以根据检测到的神经数据改变应用的状态的计算机系统。
Description
背景技术
可以通过各种技术来采集神经数据。一种无创技术是脑电图描记法(EEG),其涉及沿着用户或者受检者的头皮放置电极来测量源自大脑的神经元内的离子电流的电压波动。EEG常常被使用在临床上下文中来监测睡眠模式或者诊断癫痫症。
一些计算机应用包括各种应用状态,其中相同的用户输入可操作以取决于当用户输入被接收时应用处于的特定应用状态而引起应用内的不同的功能。通过示例,“单击并拖动”输入的组合可操作以取决于输入被接收时应用的状态而执行一些3D建模软件内的各种不同的功能(例如,选择并且移动对象、旋转对象、在对象上画线、在应用上定义边缘、从对象挤压表面,等等)。
当用户期望执行与当前应用状态不关联的特定操作时,用户必须通过做出特定菜单选择或者通过以其他方式提供可操作以将应用改变到期望的应用状态的输入来从当前应用状态手动地改变到另一应用状态。
在此要求保护的主题不限于解决上文所描述的任何缺点或者仅在上文所描述的环境中操作的实施例。相反,该背景技术仅被提供以说明其中可以实践在此所描述的一些实施例的示例性技术区域。
发明内容
本公开涉及被配置用于促进应用状态改变的计算机系统、方法和计算机存储介质。在一些实施例中,利用检测到的与特定应用状态的特定操作相关联的神经用户意图数据来执行状态改变,并且改变应用状态以便实现执行由用户意图的特定操作并且不要求用户手动地改变应用状态。在一些实施例中,应用状态自动地被改变以与由接收到的神经用户意图数据所确定的意图操作对齐。
一些实施例包括操作应用的计算机系统,应用被配置为改变状态并且当在第一状态中时响应于检测到特定姿态而执行第一操作并且当在第二状态中时响应于检测到特定姿态而执行第二操作。当在第一状态中时,计算机系统检测与第二操作相关联的神经用户意图数据。作为响应,计算系统将应用从第一状态改变到第二状态,实现执行意图的第二操作并且不要求用户输入手动地改变应用状态。
一些实施例涉及一种生成或者更新被配置为根据检测到的神经数据改变应用的状态的状态机的计算机系统。计算机系统将不同的应用操作的集合与应用状态的对应集合相关联。特定姿态使得应用基于对应的应用状态来执行操作集的特定操作。计算机系统检测当用户正执行特定姿态以致动第一操作时生成的第一神经用户意图数据,并且检测当用户正执行特定姿态以致动第二操作时生成的第二神经用户意图数据。计算机系统随后映射或者以其他方式在适当的存储的数据结构内将第一神经用户意图数据和第二神经用户意图数据与第一操作和第二操作分别地相关联。
一些实施例涉及一种通过检测当用户将应用改变到特定状态以便执行期望的特定操作时由用户所生成的第一神经用户意图数据并且通过检测在致动特定操作的姿态的执行期间由用户所生成的第二神经用户意图数据来生成或者更新状态机的计算机系统。计算机系统然后映射或者以其他方式在适当的存储的数据结构内将第一神经用户意图数据与特定应用状态相关联并且将第二神经用户意图数据与特定操作相关联。
提供本发明内容以引入以在具体实施方式中下面进一步描述的简化形式的概念的选择。本概述不旨在标识要求保护的主题的关键特征或基本特征,其也不旨在被用作辅助确定要求保护的主题的范围。
附加特征和优点将从下面的描述中被阐述并且部分地将从描述显而易见或者可以由本文中的教导的实践学习。可以借助于在所附的权利要求书中特别地指出的装置和组合实现和获得本发明的特征和优点。
附图说明
为了描述可以获得上文记载和其他优点和特征的方式,上文简要描述的主题的更特定描述将通过参考在附图中图示的特定实施例而被提供。理解这些附图描绘仅典型的实施例并且因此将不被认为是对范围的限制,通过使用附图利用附加的特殊性和细节将描述和解释实施例,其中:
图1图示了可以被用于使用神经用户意图数据改变应用的状态的计算机系统;
图2图示了用于使用神经用户意图数据改变应用的状态的示例性方法的流程图;
图3图示了用于生成或者管理状态机的示例性方法的流程图;
图4图示了用于生成或者管理状态机的示例性方法的流程图;
图5A至图5D图示了用于自动改变示例性应用的状态以实现执行如使用神经用户意图数据所确定的意图的应用操作的状态机的操作;以及
图6图示了使用神经用户意图数据明确地改变示例性应用的状态的状态机的操作。
具体实施方式
本公开涉及用于通过检测与特定应用状态的特定操作相关联的神经用户意图数据改变应用的状态并且用于改变应用状态以便实现执行由用户意图的特定操作的计算机系统、方法和计算机存储介质。
在一些实施例中,神经用户意图数据与根据应用的当前状态而引起应用操作集中间的不同应用操作的特定姿态相关联。在一些实施例中,应用状态响应于接收到的神经用户意图数据而被自动改变,并且与神经用户意图数据相关联的特定操作响应于接收到神经用户意图数据而被自动执行。
可以通过实现所公开的实施例的方面来实现各种技术效果和益处。例如,一些所公开的实施例可操作以促进用于具有多个状态的计算机应用的应用状态的有效选择和/或改变。这对于在其中相同或者相似的姿态将取决于不同的应用状态设置而选择性地引起不同的操作的执行的应用可以是特别地有益的。神经用户意图数据的使用可以帮助通过至少减少必须被录入并且被处理用于改变状态的手动输入的数目来促进不同的状态和/或功能的用户选择。
通过示例,所公开的实施例中的至少一些实施例实现具有多个状态的计算机应用的有效使用,特别地其中相同或者相似的姿态根据应用的特定状态设置引起不同的操作的执行。例如,在应用包括取决于应用的特定状态设置的单个姿态的动作的多个模式的情况下,先验计算机系统的用户被要求在状态设置之间手动地切换,以通常通过麻烦的菜单导航步骤来执行不同的期望的操作,即使操作通过相同的用户姿态而被致动。这延长使用应用执行期望的任务所花费的时间,因为用户被要求以访问菜单选项或者使用某个其他手动选择过程以在多个状态之间切换以允许期望的操作的序列被执行。相反,所公开的实施例提供更有效的系统并且提供增加的用户方便。
进一步地,在至少一些情况下,在不实现应用目前处于将不同的动作模式与执行的姿态相关联的状态的情况下,当用户利用引起特定操作的执行的意图来执行姿态时,会发生错误。用户将从而非故意地引起不期望的操作的执行。除添加到用户挫折之外,这样的过失要求附加的操作步骤来取消、减轻或者以其他方式固定操作错误,这添加了计算机系统处理要求和处理时间。
相反,所公开的实施例中的一个或多个实施例实现对于意图的应用状态的自动改变,使得甚至在不要求用户手动改变应用状态的情况下执行意图的操作。所公开的实施例因此可用于利用具有不同的状态的应用改进整体用户体验并且其响应于根据操作的不同模式的一个或多个姿态。错误减少可以减少用户挫折以及减少实现给定操作集所涉及的计算机处理量。进一步地,即使在其中用户小心并且错误最少的情况下,在此所公开的实施例可用于通过减少或者消除在不同的期望的操作之间的应用状态之间手动地切换的需要实现期望的结果所要求的时间和步骤总数。
如在此所使用的,术语“姿态(gesture)”包括由用户的一个或多个身体部分做出的移动和运动。在一些实施例中,姿态不需要实际上由用户物理地执行来给定功能效果。例如,在一些情况下,对应于物理姿态的神经用户意图数据当用户以被截肢者可能考虑移动截肢的肢体相同的方式考虑和/或聚焦于移动时而被生成。
在一些实施例中,在没有任何附加的输入硬件的伴随的情况下,执行姿态。这样的姿态包括例如手指挤压运动、手指或手滑动运动、指点姿态、头部运动(例如,头部的倾斜、转动或者点头)、肢体运动(手臂或腿的举起或放下、关节的弯曲或伸展、手或脚的旋转)、指头运动(例如,手指和/或脚趾运动)、面部运动(例如,微笑、皱眉、故意地眨眼)、全身运动(例如,蹲下、扭转躯干、弯腰、跳跃)、前述内容的组合或其他运动。
在备选实施例中,姿态结合一个或多个输入硬件部件而被执行。这样的姿态包括例如键盘笔划、触摸屏或触摸板滑动或点击、鼠标控制器点击、点击并拖动移动、滚轮转动移动、在游戏控制器上推动的按钮、旋转或者倾斜加速度计和/或使用一个或多个输入硬件执行的其他姿态。
在一些实例中,姿态限于单个独立动作。在其他实施例中,姿态包括上文所描述的多个姿态集合的组合。在这样的实例中,组合姿态将通常但是不必对应于多个相关功能的对应的集合(例如,选择、移动和合并组合)。在其他实施例中,组合姿态将仅对应于单个功能。
用于生成神经用户输入数据的神经信号可以使用EEG而被采集。补充或者取代EEG,其他实施例利用通过其他装置采集的神经数据,诸如脑磁图描记术(MEG)、功能磁共振成像(fMRI)或者用于采集基于上下文的神经数据的其他技术。在目前优选的实施例中,还使用无创EEG技术。然而,将理解到,本公开的范围还覆盖在其中描述/要求保护的EEG传感器利用MEG、fMRI和/或其他基于上下文的神经数据被替换和/或被补充的实施例。
在本描述中并且在权利要求中,术语“计算系统”或“计算机架构”宽泛地被定义为包括任何(一个或多个)单独或者分布式设备和/或(一个或多个)系统,其包括至少一个物理和有形处理器,以及能够在其上具有可以由(一个或多个)处理执行的计算机可执行指令的物理和有形存储器。
图1图示了被配置用于响应于接收到的神经用户意图数据来改变应用的状态的示例性计算机系统100。如所示,所图示的计算机系统100包括存储器102和至少一个处理器104。将理解到,虽然仅示出单个处理器104,然而,系统100还可以包括多个处理器。存储器102可以是物理存储器系统,其可以是易失性、非易失性或者二者的某种组合。术语“存储器”还可以在此被用于指代非易失性海量存储装置(诸如物理存储介质)。
所图示的实施例包括通过其用户向计算机系统100提供神经输入的EEG传感器120。计算机系统100可选地包括其他输入/输出硬件106,包括一个或多个键盘、鼠标控制、触摸屏、麦克风、扬声器、显示屏、轨迹球、滚轮等,以实现从用户接收信息并且用于将信息显示并且以其他方式传递给用户。
所图示的计算机系统100还包括能够在计算机系统100上操作的应用130。如所示出的,应用130包括若干不同的应用状态132a到132n(总称为状态132),以及若干应用操作134a到134n(总称为操作134)。应用操作134中的一个或多个与特定应用状态或者应用状态132的集合相关联,使得一个或多个应用操作134仅当应用处于相关联的应用状态时才是可操作的。
应用130可以是3D建模软件或者其他建模软件、视频游戏、虚拟现实或者增强现实模拟器、视听服务、文字处理器、电子表格应用、网络浏览器、数据库管理器、用于控制(例如,用于移动和操作机器人臂或者其他机器)机械工具和/或其他机器的应用,或者具有多个不同的应用状态并且能够执行不同的状态内的不同的操作的任何其他应用。
操作可以包括对象移动操作、建立操作、编辑操作、动画或者致动操作、数据输入或者输出操作、显示操作、音频操作、字符/对象运动或者控制操作、菜单操作、导航操作、处理操作、或者在应用130内可执行以调制输入或者输出、设置、响应(例如,视觉、听觉和/或机械响应)等的其他操作。虽然在该实施例中示出了单个示例性应用130,然而,将理解到,多个不同的应用还可以被包括和/或被添加到计算机系统100。
计算机系统100包括可执行模块或者可执行部件112和114。如在此所使用的,术语“可执行模块”或者“可执行组件”可以指代可以在计算系统上执行的软件对象、路由或者方法。在此所描述的不同的组件、模块、引擎和服务可以被实现为在计算系统上执行的对象或者过程(例如,分离的线程)。
所图示的计算机系统100包括通信信道108,其使得计算系统100能够与一个或多个分离的计算机系统通信。例如,计算机系统100可以是网络110的一部分,其可以被配置为例如局域网(“LAN”)、广域网(“WAN”)或者因特网。在一些实施例中,计算机系统100与由多个分离的计算机系统150a到150n所指示的分布式计算机系统150通信和/或是其一部分,计算机系统150a到150n中的每个计算机系统可以包含全部地或者部分地示出在系统100中的所公开的部件中的一个或多个,诸如存储器部件、应用部件中的一个或多个或者其他部件中的任一个。
图1中所图示的各种部件仅表示被配置用于生成实现根据接收到的用户意图数据改变应用状态的状态机的集成计算机系统的几个示例实现。其他实施例可以在附加的计算机系统中间不同地划分所描述的存储器/存储装置、模块、部件和/或功能。例如,在一些实施例中,训练模块112和状态机114被包括在不同的计算机系统和/或位置中,然而,在其他实施例中,他们被包括在如所图示的相同的独立计算机系统中。
在一些实施例中,跨分布式环境中的多个构成计算机系统来分布存储器部件和/或程序模块。在其他实施例中,存储器部件和程序模块被包括在单个集成计算机系统中。因此,在此所描述的系统和方法不旨在基于所描述的部件被定位和/或其功能被执行的特定位置而被限制。
根据所图示的实施例,存储器102被用于存储数据和记录,诸如所图示的神经用户意图数据102a、姿态库102b、应用操作库102c、应用状态库102d和训练简档102e。如下文更详细地解释的,本公开的一个或多个实施例被配置为接收神经用户意图数据102a(例如,如从传感器102接收到的),以及将用户意图数据102a与对应的应用操作102c和被用于致动应用操作102c的对应的姿态102b相关联。
在许多实例中,单个姿态将与根据姿态被执行时的应用状态区分的多个应用操作有关。因此,至少一些实施例将应用操作102c与应用状态102d相关联。在一些实例中,通过使用在此所描述的实施例做出的各种关联被存储在如所示的训练简档102e中。在其他实施例中,训练简档102e和/或在图1中所示的其他数据元素被存储在远程于计算机系统100的一个或多个位置处。例如,训练简档102e可以被存储在(在必要时)访问和应用训练简档102e的第三方服务器(例如,游戏服务器)处。
在一些实施例中,训练简档102e根据个体用户、个体用户组(例如,家庭简档)、个体应用和/或应用集而被分解以便例如实现基于神经信号生成中的个体差异形成更微调的简档。
所图示的计算机系统100包括训练模块112,其被配置为生成、更新和/或管理状态机114。状态机114被配置为从传感器120接收神经用户意图数据,以及将用户意图数据转译为用于根据接收到的神经用户意图数据改变应用130的应用状态的应用指令。
训练模块112被配置为检测神经用户意图数据并且将用户意图数据与对应的应用操作相关联。例如,在一些实现中,训练模块112结合训练应用或训练向导操作以提供一系列指令和/或提示,以通过用于特定应用或应用集的训练过程引导用户。在一个示例中,提示引导用户以当训练模块112监测由用户所生成的对应的神经数据时执行特定应用操作。备选地或者附加地,训练模块112当用户运行应用130时在背景中运行,其运行以监测应用活动和在应用130的正常使用期间由用户所生成的对应的神经信号。在使用期间,当用户执行致动特定对应的操作的姿态时,由用户所生成的神经签名与特定应用操作相关联。
虽然特定姿态可以致动多个不同的应用操作,如上文所描述的,与不同操作中的至少一些操作相关联的所生成的神经用户意图数据包括基于以下事实的可检测的差异:用户当根据用户在做姿态时知道的特定应用状态执行特定姿态时意图不同的效果。即使不同的操作依赖于用于致动的相同的基础姿态,对应于特定应用的所生成的用户意图数据从而提供用于在不同的应用操作期间区分的装置。通过将神经用户意图数据与应用操作相关联,并且通过将应用操作与在其内可操作的应用状态相关联,神经用户意图数据可用于将应用状态与用户的意图相对齐,以便执行正确和期望的应用操作。
在一些实施例中,训练模块112还被配置为解析应用130来确定依赖于共享基础姿态的各种应用操作134,以及将这些各种应用操作与在其内可操作的不同的应用状态132相关联。附加地或者备选地,与特定训练过程或者训练应用有关的姿态、操作和/或状态可以根据用户需要和偏好而进行用户选择。
在一些实施例中,训练模块112被配置为通过生成将神经数据与对应的意图的应用操作相关/映射生成一个或多个模型或者其他数据结构映射或者以其他方式将接收到的神经数据与对应的应用操作相关联。在一些实施例中,训练模块112包括提供滤波(例如,低和/或高带通滤波和/或德尔塔和伽玛EEG波的滤波)、伪影移除(例如,将与眨眼、哈欠、外部听觉或者视觉刺激相关联已知的共同EEG伪影的移除、或者与以意图的应用操作为基础的姿态无关的其他数据和运动),和/或接收到的神经数据102a中的一个或多个信号的其他处理。
映射可以包括对最佳拟合算法、或者任何其他统计或(一个或多个)相关映射算法的应用进行平均。在一些实施例中,训练模块112可操作以在接收到的神经数据上执行回归分析。例如,对于特定姿态的不同用户意图可以与对应的EEG信号的不同的波带(阿尔法、贝塔、伽玛、德尔塔)内的功率谱的不同的百分比有关(例如,如通过傅里叶分析所确定的),可以与相位和/或幅度同步的数量有关,和/或可以与对应的EEG信号的其他特征有关。
在优选的实施例中,训练模块112被配置为使用机器学习技术使接收到的EEG信号信息与对应的意图的应用操作相关,以便生成可以基于神经信号输入提供意图的应用操作作为输出的预测模型。
所图示的计算机系统100还包括状态机114,其被配置为将一个或多个相关/关联(例如,如被存储在训练简档102e中)应用到接收到的神经用户意图数据,以生成用于根据用户的预测意图控制应用130的状态的应用指令。在一些情况下,如在此所描述的训练过程被用于通过将应用操作134和应用状态132与神经用户意图数据102a相关联来创建或者更新状态机。状态机114可以随后从传感器120接收神经用户意图数据输入并且可以使用输入来确定对应于输入的用户意图操作(例如,根据在训练过程期间生成并且通过状态机应用的一个或多个回归模型和/或机器学习模型)。
在一些实施例中,状态机114甚至在缺少先验训练过程的情况下也是可操作的。例如,一些应用具有与已经创建相关联的状态机的应用的足够的相似性,以使能利用应用使用状态机而不需要在使用应用之前对新状态机的特定训练过程和/或生成。
附加地或者备选地,创建状态机包括从多个不同的用户获得神经数据并且建立从多个用户获得的神经数据的数据库。例如,在一些实施例中,计算机系统100实现从第三方或状态机服务下载(例如,通过网络110)用于特定应用的通用状态机。通用状态机包括例如通过针对多个用户的测量的EEG意图数据所生成的预测模型,同时用户执行上下文特定操作。在一些实施例中,可用于创建和/或更新状态机的EEG意图数据或其他神经用户意图数据包括来自已经包含存储的神经数据的数据库(例如,来自多个用户)的数据。
在一些实施例中,通用状态机提供立即的“即插即用”功能,这允许计算机系统在利用应用使用状态机之前放弃初始训练过程。可选地,计算机系统100使得用户能够修改或者微调通用状态机来生成被定制到个体或个体组的个体化或者定制状态机。另外,在不使用或者修改通用状态机的情况下,一些实施例实现从头创建状态机。
在优选的实施例中,状态机114被配置为改变应用的状态以实现在最小延时的情况下执行意图的操作。在至少一些情况下,状态机114操作以基本上实时改变应用状态,使得从用户的视角,在没有除在处理和应用特定应用中的状态改变中固有的延时之外的任何附加延时的情况下,应用执行状态改变。
在下面的描述中,参考由一个或多个计算系统执行的动作来描述实施例。如果这样的动作被实现在软件中,则执行动作的相关联的计算系统的一个或多个处理器响应于计算系统的(一个或多个)处理器已经执行在一个或多个计算机可读介质(例如,(一个或多个)硬件存储设备)上实现的计算机可执行指令来引导计算系统的操作。这样的操作的示例包含对数据的操纵。
计算机可执行指令(以及操纵的数据)可以被存储在计算机系统100的存储器102中,和/或在一个或多个分离的计算机系统部件中。计算机可执行指令可以被用于实现和/或实例化在此所公开的所有功能,包括参考图2到图4的流程图中的一个或多个所公开的功能。
图2是用于使用神经用户意图数据改变应用的状态的计算机实现的方法的流程图200。如所示出的,计算机系统操作被配置为改变状态并且还被配置为当在第一状态中操作时响应于检测到特定姿态而执行第一操作并且当在第二状态中操作时响应于检测到所述特定姿态而执行第二操作的应用(动作210)。通过示例,应用可以是字处理应用,并且操作可以是在文本的选择的复制之后的粘贴操作。在第一状态中,应用可以利用匹配目的地的格式来粘贴选择,然而在第二状态中,应用可以利用例如匹配源的格式来粘贴选择。
计算机系统随后当应用在第一状态中操作时检测用户输入,检测到的用户输入包括与第二操作的上下文中的特定姿态相关联的神经用户意图数据(动作220)。继续字处理应用示例,字处理应用可以被设定以利用目的地格式来粘贴选择,而计算机系统检测与如与利用源格式来粘贴选择的意图相关联的粘贴命令姿态(例如,Ctrl+v键盘敲击)相关联的神经用户意图数据。
计算系统然后响应于检测到包括神经意图数据的用户输入来将应用从第一状态改变到第二状态(动作230)。例如,字处理应用从目的地格式化状态改变到源格式化状态以便在执行如由接收到的神经用户意图数据所指示的粘贴操作时与用户的意图对齐。
图3是用于创建和/或管理用于至少一个应用的状态机的计算机实现的方法的流程图300。如所示出的,计算机系统将应用操作的集合与应用状态的对应集合相关联,其中特定姿态使得应用基于对应的应用状态来执行操作的集合中的特定操作(动作310)。如由前述内容所描述的,并且如由下文详细描述的图示的示例所示,特定姿态可以取决于应用的特定状态而引起应用中的不同的操作的执行。
计算机系统还检测在操作以使得应用在当应用处于第一状态时执行第一操作的特定姿态的执行期间由用户所生成的第一神经用户意图数据(动作320),以及检测在操作以使得应用当应用处于第二状态时执行第二操作的特定姿态的执行期间由用户所生成的第二神经用户意图数据(动作330)。在增强现实游戏应用的示例中,计算机系统当用户正执行“空中点击”姿态以当游戏应用处于选择状态时选择对象(例如,全息图对象)的同时监测并且检测用户意图数据,并且当用户正执行相同的空中点击姿态以当应用处于动作/播放状态时激发虚拟弹丸的同时监测并且检测用户意图数据。
第一神经用户意图数据的检测可以结合训练应用或者向导执行和/或可以包括当应用被放到正常使用时用户意图数据的背景监测。继续游戏应用示例,训练练习可以被用于采集与对象选择操作和虚拟弹丸操作的不同的上下文中的空中点击姿态的执行相关联的足够的神经数据,以便能够建立或更新状态机以对分别地与不同的上下文相关联的用户的不同的神经签名进行区分。附加地或者备选地,当用户玩游戏以采集神经数据来建立和/或更新状态机时,训练程序可以在背景中运行。
计算机系统随后将第一神经用户意图数据与第一状态中的第一操作相关联并且将第二神经用户意图数据与第二状态中的第二操作相关联(动作340)。例如,与利用选择对象的意图执行的空中点击姿态相关联的神经数据与选择对象操作相关联,并且与利用射击弹丸的意图执行的空中点击姿态相关联的神经数据与射击弹丸操作相关联。因此,所得到的生成的状态机使得用户能够执行空中点击姿态以在不需要在选择状态与射击状态之间手动地切换的情况下,执行意图的对象选择或者弹丸射击操作,因为分别地相关联的神经用户意图数据使得应用自动地改变到适当的状态以使能执行意图的操作。
图4是用于创建和/或管理用于至少一个应用的状态机的备选计算机实现的方法的流程图400。如所示,计算机系统将应用操作的集合与应用状态的对应集合相关联,其中特定姿态使得应用基于对应的应用状态来执行操作的集合中的特定操作(动作410)。
计算机系统还检测用户发起特定应用状态的应用状态的改变期间由用户生成的第一神经用户意图数据,其中特定应用状态由应用要求以响应于特定姿态而执行特定操作(动作420),并且检测在操作以使得应用执行特定操作的特定姿态的执行期间由用户所生成的第二神经用户意图数据(动作430)。使用增强现实游戏应用示例的备选版本,计算机系统当用户手动地将游戏从对象选择状态改变到弹丸射击状态时监测并且检测用户意图数据,并且在用户已经改变游戏状态并且正执行空中点击姿态以射击虚拟弹丸之后监测并且检测用户意图数据。
计算机系统随后将第一神经用户意图数据与特定应用状态相关联并且将第二神经用户意图数据与特定操作相关联(动作440)。例如,与有意地将游戏状态改变到弹丸射击模式相关联的神经数据与弹丸射击游戏状态相关联,并且与利用射击弹丸的意图执行的空中点击姿态相关联的神经数据与射击弹丸操作相关联。
因此,所得到的生成的状态机使得用户能够使用神经用户意图数据控制应用的状态改变活动,以及所选择的应用状态内的对应的基于上下文的操作。在一些实施例中,例如,所生成的用户意图数据操作以当用户考虑和/或聚焦于做出状态改变时将应用改变到期望的状态,从而与手动地执行使得状态改变发生的姿态相反,生成致动神经意图数据。
以下示例图示了用于使用神经用户意图数据改变应用的状态的各种示例性实施例的操作和功能。在此所描述和在权利要求中记载的概念和特征的范围既不限于这些特定图示的示例,也不限于参考类型的应用。其他实施例包括应用、应用状态、应用操作和/或相关联的神经用户意图数据的不同的配置和组合。现在将提供一些附加的非限制性示例以进一步澄清这一点。
图5A至图5D图示了被配置为使用神经用户意图数据改变3D建模应用的状态的状态机的操作,作为基于特定姿态来执行期望的功能需要的隐含的用户请求。图5A至图5D图示了示出画布520内的3D对象510的用户界面500。界面500还包括指针550、显示当前应用状态的标签530和实现手动改变应用状态的下拉菜单540。3D应用是通过例如鼠标控制器、触摸屏、触摸板和/或其他输入设备可控制的。在备选示例中,3D建模应用是在虚拟现实或增强现实环境中可操作的,其中应用是通过用户手和手指姿态可控制的。虽然在该示例中图示了指针550,然而,应当理解其他实施例(特别地虚拟现实或增强现实应用和触摸屏应用),指针550可以被省略和/或利用手部或其他对象控制。
当应用处于“状态A”时,如在图5A中所示,单击并拖动姿态或者点击并拖动姿态执行如所图示的在拖动动作的方向上移动3D对象510的移动操作。当应用处于“状态B”时,如在图5B中所示,相同的单击并拖动姿态执行如所图示的旋转3D对象510的旋转操作。当应用处于“状态C”时,如在图5C中所示,相同的单击并拖动姿态执行延长如所图示的3D对象510的所选择的面或点的对象扩展操作。
图5D图示了自动改变3D建模应用的状态的状态机的操作。如所示,用户560被装备有传感器570,其被配置为在与界面500的相互作用期间感测和传输神经用户意图数据。在单击并拖动动作被执行之前,应用处于状态A,其将单击并拖动操作与移动操作相关联。然而,用户旨在执行扩展操作(如由思维泡泡580所示)。当用户执行单击并拖动动作时,状态机接收对应于意图的扩展操作的神经用户意图数据。作为响应,状态机操作以将应用改变到状态C以提供意图/期望的扩展操作的执行,而不要求用户手动地或明确地(通过菜单或单独的输入)改变应用状态。
图6图示了改变应用的状态的状态机的操作的备选模式。在该示例中,用户明确地改变应用状态,但是利用神经用户意图数据而不是手动控制这样做。继续示例性3D建模应用,用户660被装备有传感器670,其被配置为在与接口600的相互作用期间感测和传输神经用户意图数据。界面600包括画布内的3D对象610、显示当前应用状态的标签630以及实现在用户选择时手动改变状态的下拉菜单640。
初始地,应用处于状态A,其将单击并拖动动作与移动操作相关联。然而,用户660旨在执行扩展操作,其要求应用处于状态C。在执行单击并拖动操作之前,用户660知道应用状态需要被改变到状态C并且旨在将应用改变到状态C(如通过思维泡泡680所图示的)。作为结果,用户生成对应于用于将应用改变到状态C的状态改变操作的神经用户意图数据。作为响应,状态机操作以将应用状态改变到状态C(使用菜单690),在其之后用户660执行单击并拖动以执行扩展操作。
将理解到,从前述描述,各种类型的应用可以被配置为利用神经用户意图数据来控制状态改变(明确地)或者自动作为基于姿态和用户意图执行功能的隐含部分。这样的实施例可以被用于提供与现有系统相比的增加的用户方便和计算效率。
所公开的实施例可以包括或者利用包括计算机硬件(诸如例如一个或多个处理器和系统存储器)的专用或者通用计算机系统。本发明的范围内的实施例还包括用于携带或者存储计算机可执行指令和/或数据结构的物理和其他计算机可读介质。这样的计算机可读介质可以是可以由通用计算机系统或专用计算机系统访问的任何可用介质。存储计算机可执行指令和/或数据结构的计算机可读介质是计算机存储介质。携带计算机可执行指令和/或数据结构的计算机可读介质是传输介质。因此,以示例而非限制的方式,本发明的实施例可以包括至少两个不同地不同种类的计算机可读介质:存储介质和传输介质。
计算机存储介质是存储计算机可执行指令和/或数据结构的物理存储介质。物理存储介质包括计算机硬件,诸如RAM、ROM、EEPROM、固态驱动器(“SSD”)、闪存、相变存储器(“PCM”)、光盘存储装置、磁盘存储装置或其他磁性存储设备、或者可以被用于以计算机可执行指令或数据结构的形式存储程序代码的任何其他(一个或多个)硬件存储设备,其可以由通用计算机系统或专用计算机系统访问和执行以实现本发明的所公开的功能。
传输介质可以包括可以被用于以计算机可执行指令或数据结构的形式携带程序代码并且可以由通用计算机系统或专用计算机系统访问的网络和/或数据链路。“网络”被定义为实现计算机系统和/或模块和/或其他电子设备之间的电子数据的传输的一个或多个数据链路。当信息通过网络或者另一通信连接(或者硬连线、无线或者硬连线或无线的组合)被传送或者被提供到计算机系统时,计算机系统可以将连接视为传输介质。上文的组合还应当被包括在计算机可读介质的范围内。
此外,在到达各种计算机系统组件时,以计算机可执行指令或数据结构的形式的程序代码装置可以从传输介质被自动传送到计算机存储介质(或反之亦然)。例如,通过网络或数据链路接收到的计算机可执行指令或数据结构可以被缓冲在网络接口模块(例如,“NIC”)内的RAM中,并且然后最终地被传送到计算机系统RAM和/或计算机系统处的较少的易失性计算机存储介质(设备)。因此,应当理解,计算机存储介质(设备)可以被包括在还(或甚至主要地)利用传输介质的计算机系统组件中。
计算机可执行指令包括例如指令和数据,其当在一个或多个处理器处执行时,使得通用计算机系统、专用计算机系统或者专用处理设备执行特定功能或功能组。计算机可执行指令可以是例如二进制、中间格式指令(诸如汇编语言或甚至源代码)。
本领域的技术人员将理解到,本发明可以被实践在具有许多类型的计算机系统配置的网络计算环境中,包括个人计算机、台式计算机、膝上型计算机、消息处理器、手持式设备、多处理器系统、基于微处理器或可编程的消费者电子产品、网络PC、小型计算机、大型计算机、移动电话、PDA、平板电脑、寻呼机、路由器、交换机、虚拟或增强现实头戴设备,等等。本发明还可以被实践在其中通过网络链接(或者通过硬连线数据链路、无线数据链路,或者通过硬连线数据链路和无线数据链路的组合)的本地计算系统和远程计算机系统二者执行任务的分布式系统环境中。如此,在分布式系统环境中,计算机系统可以包括多个构成计算机系统。在分布式系统环境中,程序模块可以被定位在本地存储器存储设备和远程存储器存储设备二者中。
本领域的技术人员还将理解到,可以在云计算环境中实践本发明。云计算环境可以是分布式的,虽然这不是要求的。当被分布时,云计算环境可以在国际上被分布在组织内和/或具有跨多个组织拥有的部件。在本描述和以下权利要求中,“云计算”被定义为用于实现对可配置的计算资源(例如,网络、服务器、存储装置、应用和服务)的共享池的按需网络访问的模型。“云计算”的定义不限于当适当地部署时可以从这样的模型获得的其他许多优点中的任一优点。
云计算模型可以包括各种特征(诸如例如按需自服务、宽网络访问、资源池化、迅速弹性、测量服务等)。云计算模型还可以以各种服务模型(诸如例如软件即服务(“SasS”)、平台即服务(“PaaS”)和基础设施即服务(“IaaS”))的形式出现。还可以使用不同的部署模型(诸如私有云、社区云、公共云、混合云等)部署云计算模型。
一些实施例(诸如云计算环境)可以包括系统,其包括各自能够运行一个或多个虚拟机的一个或多个主机。在操作期间,虚拟机模拟操作的计算系统,支持操作系统以及也许一个或多个其他应用。在一些实施例中,每个主机包括管理程序,其使用从虚拟机的视图提取的物理资源模拟用于虚拟机的虚拟资源。管理程序还提供了虚拟机之间的适当的隔离。因此,从任何给定虚拟机的视角,虽然虚拟机仅与物理资源的出现(例如,虚拟资源)进行对接,但是管理程序提供虚拟机与物理资源进行对接的错觉。物理资源的示例包括处理能力、存储器、磁盘空间、网络带宽、介质驱动器,等等。
在不脱离其精神或基本特性的情况下,可以以其他特定形式实现本发明。所描述的实施例将在所有方面中仅被认为是说明性而非限制性的。因此,本发明的范围由所附的权利要求书来指示,而不是由前述说明书。落在权利要求的等效物的意义和范围内的所有改变将被包含在其范围内。
Claims (15)
1.一种用于使用神经数据改变应用的状态的计算机实现的方法,所述方法由计算系统实现,所述计算系统包括至少一个处理器以及具有存储的计算机可执行指令的一个或多个硬件存储设备,所述计算机可执行指令由所述至少一个处理器可执行以使得所述计算系统实现所述方法,所述方法包括:
操作应用,所述应用被配置为改变状态以及还被配置为当在第一状态中操作时响应于检测到特定姿态而执行第一操作以及当在第二状态中操作时响应于检测到所述特定姿态而执行第二操作;
当所述应用在所述第一状态中操作时检测用户输入,检测到的所述用户输入包括与所述第二操作的上下文中的所述特定姿态相关联的神经用户意图数据;以及
响应于检测到包括所述神经用户意图数据的所述用户输入,将所述应用从所述第一状态改变到所述第二状态。
2.根据权利要求1所述的方法,还包括:响应于检测到包括所述神经用户意图数据的所述用户输入,执行所述第二操作。
3.根据权利要求1所述的方法,其中所述应用在虚拟现实或增强现实环境中操作。
4.根据权利要求1所述的方法,其中检测到的所述用户输入的所述神经用户意图数据包括脑电图描记法读数,所述脑电图描记法读数利用通过所述特定姿态的执行引起所述第二操作的意图而从所述特定姿态的用户执行被生成。
5.根据权利要求1所述的方法,还包括:
当所述应用在所述第二状态中操作时检测后续用户输入,在从所述第一状态被改变到所述第二状态之后,检测到的所述后续用户输入包括根据所述第一操作的与所述特定姿态相关联的神经用户意图数据;以及
响应于检测到所述后续用户输入,将所述应用从所述第二状态改变到所述第一状态。
6.根据权利要求5所述的方法,还包括:响应于检测到所述后续用户输入,执行所述第一操作。
7.根据权利要求5所述的方法,其中检测到的所述后续用户输入的所述神经用户意图数据包括脑电图描记法读数,所述脑电图描记法读数利用通过所述特定姿态的执行引起所述第一操作的意图从所述特定姿态的用户执行被生成。
8.根据权利要求1所述的方法,其中在没有附加的输入硬件的伴随的情况下,所述特定姿态通过一个或多个用户运动而被执行。
9.根据权利要求1所述的方法,其中对应于所述特定姿态的所述神经用户意图数据在没有所述特定姿态的物理执行的情况下被生成。
10.根据权利要求1所述的方法,其中所述特定姿态使用一个或多个输入硬件部件而被执行。
11.根据权利要求1所述的方法,其中所述应用是建模应用。
12.一种用于创建和管理用于至少一个应用的状态机的计算机实现的方法,所述状态机被配置为基于从用户接收到的神经数据来改变所述至少一个应用的状态,所述方法由计算系统实现,所述计算系统包括至少一个处理器以及具有存储在其上的计算机可执行指令的一个或多个硬件存储设备,所述计算机可执行指令由所述至少一个处理器可执行以使得所述计算系统实现所述方法,所述方法包括:
将应用操作的集合与应用状态的对应集合相关联,其中特定姿态使得所述应用基于对应的应用状态来执行操作的所述集合中的特定操作;
检测在操作以使得所述应用在所述应用在所述第一状态中时执行第一操作的所述特定姿态的执行期间由用户生成的第一神经用户意图数据;
检测在操作以使得所述应用在所述应用在所述第二状态中时执行第二操作的所述特定姿态的执行期间由用户生成的第二神经用户意图数据;以及
将所述第一神经用户意图数据与所述第一状态中的所述第一操作相关联以及将所述第二神经用户意图数据与所述第二状态中的所述第二操作相关联。
13.根据权利要求12所述的方法,还包括:在将所述第一神经用户意图数据与所述第一状态相关联之后,接收包括所述第一神经用户意图数据的用户输入,并且作为响应将所述应用改变到所述第一状态。
14.根据权利要求12所述的方法,还包括:在将所述第二神经用户意图数据与所述第二状态相关联之后,接收包括所述第二神经用户意图数据的用户输入,并且作为响应将所述应用改变到所述第二状态。
15.根据权利要求12所述的方法,其中所述第一神经用户意图数据和所述第二神经用户意图数据由单个用户生成,并且其中所述状态机由此针对所述单个用户而被定制。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/152,401 US9864431B2 (en) | 2016-05-11 | 2016-05-11 | Changing an application state using neurological data |
US15/152,401 | 2016-05-11 | ||
PCT/US2017/030943 WO2017196618A1 (en) | 2016-05-11 | 2017-05-04 | Changing an application state using neurological data |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109074166A true CN109074166A (zh) | 2018-12-21 |
CN109074166B CN109074166B (zh) | 2021-07-16 |
Family
ID=58709599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780028788.9A Active CN109074166B (zh) | 2016-05-11 | 2017-05-04 | 使用神经数据改变应用状态 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9864431B2 (zh) |
EP (1) | EP3455699A1 (zh) |
CN (1) | CN109074166B (zh) |
WO (1) | WO2017196618A1 (zh) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
EP3487595A4 (en) | 2016-07-25 | 2019-12-25 | CTRL-Labs Corporation | SYSTEM AND METHOD FOR MEASURING MOVEMENTS OF ARTICULATED RIGID BODIES |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
CN110300542A (zh) | 2016-07-25 | 2019-10-01 | 开创拉布斯公司 | 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置 |
US11331045B1 (en) | 2018-01-25 | 2022-05-17 | Facebook Technologies, Llc | Systems and methods for mitigating neuromuscular signal artifacts |
WO2018022597A1 (en) | 2016-07-25 | 2018-02-01 | Ctrl-Labs Corporation | Methods and apparatus for inferring user intent based on neuromuscular signals |
EP3487457B1 (en) | 2016-07-25 | 2023-09-06 | Facebook Technologies, LLC. | Adaptive system for deriving control signals from measurements of neuromuscular activity |
US10469318B1 (en) * | 2016-12-22 | 2019-11-05 | Nutanix, Inc. | State tracking in distributed computing systems |
US10361917B1 (en) | 2016-12-22 | 2019-07-23 | Nutanix, Inc. | State control in distributed computing systems |
EP3697297A4 (en) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS |
WO2019147958A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | User-controlled tuning of handstate representation model parameters |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
WO2019147956A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | Visualization of reconstructed handstate information |
US10504286B2 (en) | 2018-01-25 | 2019-12-10 | Ctrl-Labs Corporation | Techniques for anonymizing neuromuscular signal data |
US10970936B2 (en) | 2018-10-05 | 2021-04-06 | Facebook Technologies, Llc | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment |
EP3742961A4 (en) | 2018-01-25 | 2021-03-31 | Facebook Technologies, Inc. | CALIBRATION TECHNIQUES FOR MODELING A HAND CONDITION USING NEUROMUSCULAR SIGNALS |
CN111902847A (zh) | 2018-01-25 | 2020-11-06 | 脸谱科技有限责任公司 | 手部状态表示模型估计的实时处理 |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
EP3743790A4 (en) | 2018-01-25 | 2021-03-17 | Facebook Technologies, Inc. | RECONSTRUCTION OF HAND STATE ON THE BASIS OF MULTIPLE ENTRIES |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
WO2019226259A1 (en) | 2018-05-25 | 2019-11-28 | Ctrl-Labs Corporation | Methods and apparatus for providing sub-muscular control |
WO2019231911A1 (en) | 2018-05-29 | 2019-12-05 | Ctrl-Labs Corporation | Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods |
EP3807795A4 (en) | 2018-06-14 | 2021-08-11 | Facebook Technologies, LLC. | USER IDENTIFICATION AND AUTHENTICATION BY MEANS OF NEUROMUSCULAR SIGNATURES |
WO2020018892A1 (en) | 2018-07-19 | 2020-01-23 | Ctrl-Labs Corporation | Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device |
WO2020023232A1 (en) * | 2018-07-24 | 2020-01-30 | Keane Christopher | Multiple frequency neurofeedback brain wave training techniques, systems, and methods |
WO2020036958A1 (en) | 2018-08-13 | 2020-02-20 | Ctrl-Labs Corporation | Real-time spike detection and identification |
EP3843617B1 (en) | 2018-08-31 | 2023-10-04 | Facebook Technologies, LLC. | Camera-guided interpretation of neuromuscular signals |
WO2020061451A1 (en) | 2018-09-20 | 2020-03-26 | Ctrl-Labs Corporation | Neuromuscular text entry, writing and drawing in augmented reality systems |
US10921764B2 (en) | 2018-09-26 | 2021-02-16 | Facebook Technologies, Llc | Neuromuscular control of physical objects in an environment |
CN113423341A (zh) | 2018-11-27 | 2021-09-21 | 脸谱科技有限责任公司 | 用于可穿戴电极传感器系统的自动校准的方法和装置 |
US10905383B2 (en) | 2019-02-28 | 2021-02-02 | Facebook Technologies, Llc | Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
US11507400B2 (en) | 2020-02-28 | 2022-11-22 | Wipro Limited | Method and system for providing real-time remote assistance to a user |
US20220091722A1 (en) * | 2020-09-23 | 2022-03-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US11562528B2 (en) | 2020-09-25 | 2023-01-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US11954242B2 (en) | 2021-01-04 | 2024-04-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6243096B1 (en) * | 1997-10-17 | 2001-06-05 | Nec Corporation | Instruction input system with changeable cursor |
US20120083668A1 (en) * | 2010-09-30 | 2012-04-05 | Anantha Pradeep | Systems and methods to modify a characteristic of a user device based on a neurological and/or physiological measurement |
CN102458595A (zh) * | 2009-05-08 | 2012-05-16 | 三星电子株式会社 | 在虚拟世界中控制对象的系统、方法和记录介质 |
US20140191939A1 (en) * | 2013-01-09 | 2014-07-10 | Microsoft Corporation | Using nonverbal communication in determining actions |
US20150045007A1 (en) * | 2014-01-30 | 2015-02-12 | Duane Matthew Cash | Mind-Controlled virtual assistant on a smartphone device |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5617855A (en) | 1994-09-01 | 1997-04-08 | Waletzky; Jeremy P. | Medical testing device and associated method |
US5899867A (en) | 1996-10-11 | 1999-05-04 | Collura; Thomas F. | System for self-administration of electroencephalographic (EEG) neurofeedback training |
US6842877B2 (en) | 1998-12-18 | 2005-01-11 | Tangis Corporation | Contextual responses based on automated learning techniques |
US6494830B1 (en) | 2000-06-22 | 2002-12-17 | Guidance Interactive Technologies, Inc. | Handheld controller for monitoring/using medical parameters |
DK1551282T3 (en) | 2002-10-09 | 2016-02-22 | Bodymedia Inc | DEVICE FOR RECEIVING, RECEIVING, DETERMINING AND DISPLAYING PHYSIOLOGICAL AND CONTEXTUAL INFORMATION ON A HUMAN |
US7546158B2 (en) | 2003-06-05 | 2009-06-09 | The Regents Of The University Of California | Communication methods based on brain computer interfaces |
US8478539B2 (en) * | 2003-12-31 | 2013-07-02 | Jeffrey M. Sieracki | System and method for neurological activity signature determination, discrimination, and detection |
US7346382B2 (en) * | 2004-07-07 | 2008-03-18 | The Cleveland Clinic Foundation | Brain stimulation models, systems, devices, and methods |
US7554549B2 (en) | 2004-10-01 | 2009-06-30 | Sony Corporation | System and method for tracking facial muscle and eye motion for computer graphics animation |
US20060224046A1 (en) | 2005-04-01 | 2006-10-05 | Motorola, Inc. | Method and system for enhancing a user experience using a user's physiological state |
US7580742B2 (en) | 2006-02-07 | 2009-08-25 | Microsoft Corporation | Using electroencephalograph signals for task classification and activity recognition |
GB0703974D0 (en) | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
US9215996B2 (en) | 2007-03-02 | 2015-12-22 | The Nielsen Company (Us), Llc | Apparatus and method for objectively determining human response to media |
TWI332179B (en) | 2007-04-13 | 2010-10-21 | Univ Nat Taiwan Science Tech | Robotic system and method for controlling the same |
US8203530B2 (en) | 2007-04-24 | 2012-06-19 | Kuo-Ching Chiang | Method of controlling virtual object by user's figure or finger motion for electronic device |
US8447704B2 (en) | 2008-06-26 | 2013-05-21 | Microsoft Corporation | Recognizing gestures from forearm EMG signals |
US20100076334A1 (en) | 2008-09-19 | 2010-03-25 | Unither Neurosciences, Inc. | Alzheimer's cognitive enabler |
US8155736B2 (en) | 2009-03-16 | 2012-04-10 | Neurosky, Inc. | EEG control of devices using sensory evoked potentials |
KR20110072730A (ko) | 2009-12-23 | 2011-06-29 | 한국과학기술원 | 적응형 뇌-컴퓨터 인터페이스 장치 |
US20120212406A1 (en) | 2010-02-28 | 2012-08-23 | Osterhout Group, Inc. | Ar glasses with event and sensor triggered ar eyepiece command and control facility of the ar eyepiece |
US9468541B2 (en) | 2010-05-05 | 2016-10-18 | University Of Maryland College Park | Time domain-based methods for noninvasive brain-machine interfaces |
US20120011477A1 (en) | 2010-07-12 | 2012-01-12 | Nokia Corporation | User interfaces |
US20120178065A1 (en) * | 2011-01-10 | 2012-07-12 | Morteza Naghavi | Advanced Button Application for Individual Self-Activating and Monitored Control System in Weight Loss Program |
US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
US8868039B2 (en) | 2011-10-12 | 2014-10-21 | Digimarc Corporation | Context-related arrangements |
US8786546B1 (en) | 2012-08-10 | 2014-07-22 | Rockwell Collins, Inc | Hands-free electroencephalography display enablement and unlock method and apparatus |
US9031293B2 (en) | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
US9030495B2 (en) | 2012-11-21 | 2015-05-12 | Microsoft Technology Licensing, Llc | Augmented reality help |
WO2015112108A1 (en) | 2012-11-28 | 2015-07-30 | Visa International Service Association | Multi disparate gesture actions and transactions apparatuses, methods and systems |
EP3700229A1 (en) | 2012-12-14 | 2020-08-26 | Oticon A/s | Configurable hearing instrument |
US20140266982A1 (en) | 2013-03-12 | 2014-09-18 | Bertrand Nepveu | System and method for controlling an event in a virtual reality environment based on the body state of a user |
WO2014151874A1 (en) | 2013-03-14 | 2014-09-25 | Accendowave Incorporated | Systems, methods and devices for assessing and treating pain, discomfort and anxiety |
WO2014138925A1 (en) | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
US9129478B2 (en) | 2013-05-20 | 2015-09-08 | Microsoft Corporation | Attributing user action based on biometric identity |
US9529385B2 (en) | 2013-05-23 | 2016-12-27 | Medibotics Llc | Smart watch and human-to-computer interface for monitoring food consumption |
US9354702B2 (en) | 2013-06-03 | 2016-05-31 | Daqri, Llc | Manipulation of virtual object in augmented reality via thought |
EP3917167A3 (en) | 2013-06-14 | 2022-03-09 | Oticon A/s | A hearing assistance device with brain computer interface |
US9372535B2 (en) | 2013-09-06 | 2016-06-21 | Thalmic Labs Inc. | Systems, articles, and methods for electromyography-based human-electronics interfaces |
CA2928005C (en) | 2013-10-20 | 2023-09-12 | Massachusetts Institute Of Technology | Using correlation structure of speech dynamics to detect neurological changes |
KR20150051809A (ko) * | 2013-11-05 | 2015-05-13 | 삼성전자주식회사 | 자동 실행 서비스를 제공하기 위한 전자 장치 및 방법 |
WO2015090430A1 (en) | 2013-12-20 | 2015-06-25 | Widex A/S | Method of auditory training and a hearing aid system |
US9870060B2 (en) * | 2013-12-31 | 2018-01-16 | Google Llc | Systems and methods for gaze-based media selection and editing |
US9734424B2 (en) | 2014-04-14 | 2017-08-15 | Microsoft Technology Licensing, Llc | Sensor data filtering |
-
2016
- 2016-05-11 US US15/152,401 patent/US9864431B2/en active Active
-
2017
- 2017-05-04 CN CN201780028788.9A patent/CN109074166B/zh active Active
- 2017-05-04 EP EP17723856.5A patent/EP3455699A1/en not_active Withdrawn
- 2017-05-04 WO PCT/US2017/030943 patent/WO2017196618A1/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6243096B1 (en) * | 1997-10-17 | 2001-06-05 | Nec Corporation | Instruction input system with changeable cursor |
CN102458595A (zh) * | 2009-05-08 | 2012-05-16 | 三星电子株式会社 | 在虚拟世界中控制对象的系统、方法和记录介质 |
US20120083668A1 (en) * | 2010-09-30 | 2012-04-05 | Anantha Pradeep | Systems and methods to modify a characteristic of a user device based on a neurological and/or physiological measurement |
US20140191939A1 (en) * | 2013-01-09 | 2014-07-10 | Microsoft Corporation | Using nonverbal communication in determining actions |
US20150045007A1 (en) * | 2014-01-30 | 2015-02-12 | Duane Matthew Cash | Mind-Controlled virtual assistant on a smartphone device |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3455699A1 (en) | 2019-03-20 |
US20170329404A1 (en) | 2017-11-16 |
US9864431B2 (en) | 2018-01-09 |
CN109074166B (zh) | 2021-07-16 |
WO2017196618A1 (en) | 2017-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074166A (zh) | 使用神经数据改变应用状态 | |
CN110312471B (zh) | 从神经肌肉活动测量中导出控制信号的自适应系统 | |
Kılıboz et al. | A hand gesture recognition technique for human–computer interaction | |
US10496168B2 (en) | Calibration techniques for handstate representation modeling using neuromuscular signals | |
US20190228591A1 (en) | Visualization of reconstructed handstate information | |
JP2019535055A (ja) | ジェスチャに基づく操作の実施 | |
CN117687477A (zh) | 用于可穿戴设备的姿势控制接口的方法和装置 | |
Bigdelou et al. | Simultaneous categorical and spatio-temporal 3d gestures using kinect | |
Liu et al. | A survey of speech-hand gesture recognition for the development of multimodal interfaces in computer games | |
EP3951564A1 (en) | Methods and apparatus for simultaneous detection of discrete and continuous gestures | |
Liu et al. | On a Real Real-Time Wearable Human Activity Recognition System. | |
Weisz et al. | Assistive grasping with an augmented reality user interface | |
US20210005104A1 (en) | System and method for multi-stage brain-computer interface training using neural networks | |
Vokorokos et al. | Motion sensors: Gesticulation efficiency across multiple platforms | |
CN107272880B (zh) | 一种光标定位、光标控制方法及装置 | |
White et al. | Modelling hand gestures to test leap motion controlled applications | |
Zhou et al. | H-GOMS: a model for evaluating a virtual-hand interaction system in virtual environments | |
Soroni et al. | Hand Gesture Based Virtual Blackboard Using Webcam | |
De Oliveira et al. | Fpvrgame: Deep learning for hand pose recognition in real-time using low-end hmd | |
Averbukh et al. | The tasks of designing and developing virtual test stands | |
Eddy et al. | LibEMG: An Open Source Library to Facilitate the Exploration of Myoelectric Control | |
Rhodes et al. | Classifying Biometric Data for Musical Interaction Within Virtual Reality | |
Biswas et al. | Towards an inclusive world-a simulation tool to design interactive electronic systems for elderly and disabled users | |
KR101962464B1 (ko) | 손동작 매크로 기능을 이용하여 다중 메뉴 및 기능 제어를 위한 제스처 인식 장치 | |
Teófilo et al. | Gemini: A generic multi-modal natural interface framework for videogames |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |