CN102301312A - 用于娱乐、教育或通信的便携式引擎 - Google Patents

用于娱乐、教育或通信的便携式引擎 Download PDF

Info

Publication number
CN102301312A
CN102301312A CN2009801558258A CN200980155825A CN102301312A CN 102301312 A CN102301312 A CN 102301312A CN 2009801558258 A CN2009801558258 A CN 2009801558258A CN 200980155825 A CN200980155825 A CN 200980155825A CN 102301312 A CN102301312 A CN 102301312A
Authority
CN
China
Prior art keywords
input
data
sensor
portable
interactive module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2009801558258A
Other languages
English (en)
Inventor
葛树志
候均松
王斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Singapore
Original Assignee
National University of Singapore
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Singapore filed Critical National University of Singapore
Publication of CN102301312A publication Critical patent/CN102301312A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

为简化人机交互,便携式交互模块包括通过其接收输入的多通道。不同类型的输入机构或传感器允许使用多种捕获输入的技术,诸如运动感测、音频感测、图像跟踪、图像感测或生理感测。包括在便携式输入装置中的合并模块接收来自输入机构或传感器的输入并生成标识哪个输入机构或传感器接收数据的输入描述。输入描述被传递至确定与输入描述相对应的输出的目标装置。通过提供各种用于获得输入的方法,使用多种输入捕获技术简化与目标装置的交互。

Description

用于娱乐、教育或通信的便携式引擎
相关申请的交叉引用 
本申请要求于2008年12月1日提交的、申请号为61/118,733的美国临时申请的优先权,该申请的全部内容通过引用并入于此。 
背景技术
本发明主要涉及人机交互,并且更具体地涉及用于人机交互的便携式引擎。 
快速发展的通信技术和各种传感装置的日益增加的可用性为人机接口提供了逐渐多样化范围的选择,诸如用于教育、娱乐或健康护理的接口。例如,无线传感器现在允许人体生理信号、诸如心电图(electrocardiograph,ECG)或血液容积脉搏波(Photo-Plethysmography,PPG)的实时监控。然而,通常使用的诸如键盘、鼠标或板型控制器的人机接口保留了各种情形(诸如教育或文件)中人机交互的不便(诸如文本输入)。 
通常使用的诸如键盘、鼠标或板状的控制器的人机接口具有多种局限。例如,通常使用的人机接口提供有限的触觉反馈并且具有固定的结构,该固定的结构阻止基于个人偏好或环境场景的人机接口的用户定制。例如,键盘上的键的预定布局阻止了不同用户基于个人使用偏好定义个性化的键布局。因而,用户一般适应不同人机接口的固定设计来改变他们的使用模式。除了强迫用户改变外,常规人机接口的固定设计减缓了人机交互。 
另外,许多现有的人机接口具有有限的使用情景。例如,需要平坦的或相对平坦的表面,以通过键盘容易地提供输入。此外,某些人机接口需要用户在用于机器交互的不同接口之间交替(诸如,在键盘和鼠标的使用之间交替),这降低了人机交互的效率。此外,通常使用的传统人机接口的延长使用经常导致用户疲劳。例如,在使用键盘时,用户的手腕和胳膊位置是非自然放置的,这导致疲劳,而且还导致对用户的重复性压力损伤 (repetitive stress inj uries)。 
发明内容
本发明的实施例提供一种接收来自各种源的输入的便携式交互模块。该便携式交互模块包括耦合至一个或多个输入装置的合并模块,该一个或多个输入装置包括多个传感器和输入机构。这些输入机构(诸如,按钮、键、触摸传感器或光敏元件)从与这些输入机构自身的交互接收输入。这些传感器(诸如运动传感器、成像传感器、音频传感器或生理学传感器)捕获与便携式交互模块周围的环境相关联的数据。例如,这些传感器捕获描述便携式交互模块的运动的数据、从靠近便携式交互模块的环境中捕获音频数据或图像数据,或捕获与靠近便携式交互模块的人相关联的生理学数据。合并模块生成用于描述由输入装置接收的数据的输入描述。例如,输入描述描述由输入机构接收的数据和/或由传感器接收的数据。作为另一个示例,输入描述标识与不同输入机构相关联的状态,并将捕获的数据与辅助输入装置相关联。输入描述允许输入装置捕获或获取来自多个输入机构或传感器的数据,这增加了输入源。通信模块将输入描述发送至基于输入描述确定输出的目标装置。 
可以修改用于接收输入或获得数据的输入机构或传感器的数量和类型,这允许不同的实现方式来不同地接收输入。另外,目标装置可以包括将操作或应用与输入描述的值相关联的设置。这些设置允许目标装置不同地解释来自不同输入装置的输入或数据或不同类型的输入。例如,便携式交互模块的不同用户可以将不同的输入描述与目标装置的单独操作相关联,这允许各个用户与目标装置不同地进行交互。 
附图说明
图1是根据本发明实施例的包括便携式交互模块的系统的高级框图。 
图2是根据本发明实施例的包括便携式交互模块的另一系统的高级框图。 
图3是根据本发明实施例的输入装置的高级框图。 
图4是根据本发明实施例的便携式输入模块的高级框图。 
图5是根据本发明实施例的用于从便携式交互模块接收输入的方法 的流程图。 
图6是根据本发明实施例的用于生成响应于来自便携式交互模块的输入的输出的方法的事件图。 
图7是根据本发明实施例的用于配置包括便携式交互模块的系统的方法的流程图。 
图8A是根据本发明实施例的示例便携式交互模块设计的透视图。 
图8B是根据本发明实施例的包括便携式交互模块的示例系统。 
图9是根据本发明实施例的便携式交互模块设计的可选示例。 
图10是根据本发明实施例的用于配置便携式交互模块的示例用户接口。 
附图仅用于说明的目的描述了本发明的各个实施例。本领域的技术人员根据以下论述容易意识到,可以在不脱离这里描述的本发明的原理的情况下实施这里示出的结构和方法的替代实施例。 
具体实施方式
便携式交互模块系统构架
图1示出包括便携式交互模块102的系统100的高级框图。在一个实施例中,便携式交互模块102从用户接收输入并被耦合至接口模块103,接口模块103从便携式交互模块102接收输入数据并将所接收的输入数据传递至诸如台式计算机、游戏系统或其它计算系统的目标装置。在图1所示的实施例中,目标装置包括从接口模块103接收输入数据的低级控制接口引擎104。目标装置还可以包括高级控制接口引擎105、应用接口和通信模块107。然而,在不同的实施例中,目标装置可以包括不同和/或附加的组件。 
便携式交互模块102从用户接收诸如控制信号或其它数据的输入。在实施例中,便携式交互模块102通过多个通道从用户接收输入,诸如捕获姿态、标识运动、捕获音频数据、捕获视频或图像数据或者其它类型的输入。通过允许用户使用偏好的技术或最适于运行环境的技术提供输入,使用不同通道捕获多种类型的输入简化了与目标装置的用户交互。在实施例中,便携式交互模块102被耦合至多个传感器或包括多个传感器,以从不同的位置捕获不同类型的输入。例如,便携式交互模块102从用户身体的 不同部位捕获输入,以允许和目标装置的全身浸入交互(full-body immersive interaction)。在实施例中,便携式交互模块102具有模块化的设计,这允许基于不同的实施参数或用户偏好定制控制器设计或配置。在实施例中,可以使用多达20个通道以允许便携式交互模块102从多达20个便携式输入装置接收输入。此外,便携式交互模块102还可以向用户提供来自目标装置的诸如振动或其它触觉反馈的反馈。下面结合图3、4、8A和9进一步描述便携式交互模块102。 
接口模块103被耦合至便携式交互模块102和低级控制接口引擎104。由便携式交互模块102所接收或捕获的输入数据被传递至接口模块103,以发送至目标装置。在实施例中,在发送至目标装置之前,接口模块103对输入数据进行重定格式或修改。接口模块103可以包括能够实现无线和/或有线通信的硬件或固件,诸如无线收发器。可选地,接口模块103使用诸如通用串行总线(USB)、电气和电子工程师协会(IEEE)1394、以太网或类似的数据传输协议的协议来实现有线连接。在实施例中,接口模块103通过在初始安装过程之后实现便携式交互模块102和目标装置之间的即插即用功能而简化了通信。虽然图1中被示为分立组件,但在不同的实施例中,单个组件包括接口模块103和便携式交互模块102。 
目标装置(诸如台式计算机、笔记本电脑、游戏系统或其它计算系统)包括从接口模块103接收数据的低级控制接口引擎104。低级控制接口引擎104还可以从诸如键盘或鼠标的常规输入装置接收控制信号或其它数据。在不同的实施例中,低级控制接口引擎104包括用于无线和/有线通信的硬件或固件,诸如之前结合接口模块103所述的无线收发器或有线连接。低级控制接口引擎104提供和接口模块103的通信框架,以促进便携式交互模块102和目标装置之间的数据通信。在实施例中,低级控制接口引擎104对所接收的数据进行重定格式,以简化所接收的数据的处理或所接收的数据中所包含的命令的执行。 
在实施例中,目标装置还包括耦合至低级控制接口引擎104的高级控制接口引擎105。高级控制接口引擎105响应于所接收的输入执行命令或修改数据。例如,高级控制接口引擎105执行从由低级控制接口引擎104所接收的数据中提取的命令,并存取该命令所标识的数据,响应于所标识的命令启动与所标识的命令相关联的应用或修改所存储的数据。高级控制接口引擎105可以标识与所接收的数据相关联的应用或功能,并将所接收的数据修改为命令或修改为用于所标识的应用的格式化的数据或用于执 行标识的命令的格式化数据。例如,高级控制接口引擎105标识出所接收的数据是与游戏应用相关联的,并从所接收的数据中提取导航命令以修改与该游戏应用相关联的数据,诸如该游戏应用内的对象位置。在实施例中,组合低级控制接口引擎104和高级控制接口引擎105,而提供单一控制接口引擎。 
高级控制接口引擎105与允许用户访问和修改目标装置上的数据文件的应用接口106进行数据通信。应用接口106还可以生成输出(诸如视觉的、听觉的或触觉的反馈)以把信息传递给用户。在实施例中,应用接口106利用接口模块103、低级控制接口引擎104和/或高级控制接口引擎105把输出子集传递至便携式交互模块102。 
在实施例中,目标装置还包括使目标装置与一个或多个附加计算系统交换数据的通信模块107。通信模块107可以通过许多已知的通信机制中的任一种来实现通信,这些通信机制包括有线和无线通信两者,诸如蓝牙、无线网络(WiFi)、射频(RF)、以太网、红外线和超声波。 
图2是包括便携式交互模块102的系统200的替代实施例的高级框图。在图2所描述的系统200中,便携式交互模块102包括向处理器206传递数据的一个或多个输入装置201A-201N。通信系统205从处理器206接收数据并在便携式交互模块102与目标装置207之间传递数据。通信系统205还从便携式交互模块102向反馈系统204传递数据。电力系统209也被耦合至便携式交互模块102。 
便携式交互模块102包括一个或多个便携式输入装置201A-201N。在实施例中,便携式输入装置201A-201N包括一个或多个输入机构(诸如一个或多个键、按钮、光敏元件、触摸传感器、生理学传感器)或从用户或从环境与存储装置接收输入的其它机构。例如,便携式输入装置201可以包括多个输入机构和/或传感器,这允许输入装置201接收不同类型的输入。例如,便携式输入装置201包括不同类型的传感器,诸如音频传感器、成像传感器、运动传感器、生理学传感器或其它类型的传感器。在实施例中,存储装置被耦合至一个或多个输入装置201并存储用于标识先前接收输入的输入机构和/或传感器的数据。下面结合图3进一步描述输入装置201。 
下面结合图3进一步描述,传感器和输入机构允许输入装置201通过多个通道接收输入,诸如捕获姿态、标识运动、捕获音频数据、捕获视频或图像数据或其它类型的输入,通过实现使用各种输入类型来简化与目标 装置207的交互。另外,考虑到用户和目标装置207之间的更自然的交互,传感器允许输入装置201接收连续的输入类型,诸如姿态捕获、声音捕获、视频捕获、图像捕获或生理学数据捕获。在实施例中,所捕获的输入类型向用户提供了类似于常规用户动作或运动的一系列输入选项,这允许把用户的动作转化为目标装置207可理解的输入。 
便携式输入装置201A-201N与处理器206交换数据,处理器206对来自便携式输入装置201A-201N的数据进行处理和/或修改。处理器206还被耦合至反馈系统204和/或通信系统205,以将处理或修改的数据通信至反馈系统204和/或通信系统205中的一个或多个。 
通信系统205还使用很多已知通信机制中的任意一种与反馈系统204和/或目标装置207进行通信,该通信机制包括诸如蓝牙、WiFi、RF、红外线和超声波的无线通信方法和/或诸如IEEE 1394、USB或以太网的有线通信方法。通过启动便携式交互模块102和目标装置207之间的无线通信,通信系统205允许便携式交互模块102在处于无线发射射程内时向目标装置207提供输入,这允许用户在与目标装置207交互时自由地移动。在实施例中,通信系统205包含在便携式交互模块102中;然而,在其它实施例中,通信系统205在便携式交互模块102的外部。例如,通信系统205可以包含在扩展坞中或包含在通信耦合至便携式交互模块102和/或目标装置207的其它装置中。 
将诸如电池或其它适当电源的电力系统209耦合至便携式交互模块102,以提供用于执行计算功能和/或与便携式交互模块102传输数据的电力。在实施例中,电力系统209还向目标装置207供电。 
反馈系统204经由通信系统205接收来自目标装置207和/或便携式交互模块102的数据,并生成使便携式交互模块102产生听觉或触觉反馈的控制信号。例如,反馈系统204引入振动反馈或其它触觉反馈,这影响便携式交互模块102对来自目标装置207的数据进行响应或对来自便携式交互模块102的数据进行响应。作为另一示例,反馈系统204引入表示输入装置201捕获到输入的触觉或听觉反馈。在又一示例中,反馈系统204在目标装置207执行动作或遇到错误时引入可听的或振动反馈。 
目标装置207为台式计算机、笔记本电脑、游戏控制器、机顶盒、电视机或其它计算装置,并且可经由有线或无线连接耦合至通信系统205。目标装置207包括用于处理所接收的数据并向用户呈现输出的用户界面208。例如,用户界面208为图形用户界面或其它应用,其接收来自便携 式交互模块102的一种或多种输入类型的输入,诸如捕获的姿态、检测的运动、捕获的音频数据、捕获的视频或图像数据或其它类型。用户界面208或其它应用还可以生成一种或多种类型的输出数据,诸如产生响应于所检测的运动或所捕获的音频数据的视频输出,或产生响应于所捕获视频或图像数据的音频输出。 
图3是包括一个或多个传感器300、一个或多个输入机构305和/或一个或多个辅助输入装置306的输入装置201的高级框图。传感器300可以包括运动传感器301、音频传感器302、成像传感器303和生理学传感器304中的一个或多个或先前描述的传感器类型的组合。在其它实施例中,传感器300包括不同和/或附加的传感器,并且图3所示的传感器300仅为传感器300的示例类型。不同用户可以对传感器300进行定制,这允许基于用户偏好或执行环境使用不同类型的传感器300或不同类型的传感器300的组合。通过使用各种方法捕获输入,使用不同传感器300提供了与目标装置207的更互动的和吸引人的交互。另外,传感器300可用于提供来自目标装置207的诸如触觉或音频反馈的反馈,以通过创建更加丰富的感官环境来进一步加强与目标装置207的交互。 
通过增加可接收的输入的数量和类型,除了一个或多个输入机构305外还包括一个或多个传感器300改进了与目标装置207的用户交互。运动传感器301包括加速度计或用于捕获描述便携式交互模块102的运动和/或方位的数据的其它装置。在实施例中,便携式交互模块102的运动与目标装置207所执行的应用的命令或其它输入相关联。在实施例中,多个运动传感器301可用于监测不同区域的运动,诸如用户身体的不同部位的运动或环境中不同区域的运动。 
音频传感器302包括一个或多个用于捕获音频数据的麦克风。在实施例中,对所捕获的音频数据进行处理,以标识被传递至目标装置207的命令,诸如关键词或关键短语。例如,音频传感器302包括用于标识部分所捕获的音频数据(诸如命令)的语音识别处理器或应用。音频传感器302还可以包括一个或多个用于播放由目标装置207或反馈系统204生成的音频数据的扬声器。 
成像传感器303包括用于捕获手持控制器102周围环境的图像或视频数据的一个或多个照相机或其它光学传感器。所捕获的图像或视频数据被传递至处理器206来进行分析。在实施例中,所捕获的图像或视频数据用于检测和跟踪便携式交互模块102的运动,其中,所捕获的图像或视频数 据可被转换为目标装置207的输入数据或命令。可选地,成像传感器303可以捕获诸如用户的面部表情或其它环境数据的数据,以允许目标装置107标识用户或标识便携式交互模块102周围的环境。另外,随后可处理由成像传感器303捕获的图像数据或视频数据以增强所接收的数据或标识所接收的数据内的内容。 
生理学传感器304至少部分地接触用户并捕获与用户相关联的数据,诸如心血管活动(cardiovascular activity)、皮肤传导性、皮肤温度、排汗水平或类似的生理学数据。所捕获的生理学数据可被便携式交互模块102或目标装置207使用以确定用户的属性,诸如压力水平、兴奋水平、焦虑水平或与用户相关联的其它状态。在实施例中,将由生理学传感器304捕获的数据与来自运动传感器301、音频传感器302和/或成像传感器303的数据组合以确定与用户相关联的状态。例如,对所捕获的用户面部的图像、所捕获的来自用户的音频以及所捕获的生理学数据进行分析以标识用户的状态,诸如与用户相关联的情绪状态。 
在实施例中,不同传感器300相互交换数据以提高由传感器300捕获的数据的精确性。例如,输入装置201可以最初利用成像传感器303捕获图像数据。随后,捕获并处理来自运动传感器301和/或音频传感器302的数据以更精确地标识所捕获的图像数据内的内容。通过在运动传感器301、音频传感器320、成像传感器303和生理学传感器304之间交换数据,使用多个数据源来提高由输入装置201获得的输入的精确性并减少由各个类型的传感器所捕获的噪声量。 
输入机构305从与其交互的用户接收输入。例如,输入机构305可包括按钮、键、触摸传感器、光敏元件或接收与其自身的用户交互的其它机构。 
在实施例中,将一个或多个辅助输入装置306耦合至输入装置201,这允许从另外的位置接收输入或允许接收不同类型的输入。例如,辅助输入装置306是从不同位置(诸如从用户身体上的不同位置,从操作环境内的不同位置,或从不同用户)接收输入的第二便携式交互模块102。作为另一示例,辅助输入装置306包括一个或多个与便携式交互模块102位于不同位置的传感器。在实施例中,多达20个辅助输入装置306可以与输入装置201交换数据。可以基于用户偏好、操作特征或其它参数修改输入装置201和辅助输入装置306之间的数据交换。 
图4是包括输入装置201、解码器403、处理器404和通信模块405 的便携式交互模块102的实施例的高级框图。在实施例中,便携式输入装置201还包括天线406、内部连接器407和外部连接器408。 
如以上结合图2和3所述,输入装置201包括一个或多个传感器300和一个或多个输入机构305。另外,输入装置201还可以与一个或多个辅助输入装置306交换数据。输入机构305可以是键、按钮、触摸传感器、光敏元件或用于接收输入的任意其它机构。在实施例中,输入机构305具有预定义的方位(诸如形成构成圆形区域的外周的一个或多个列),以提供用户访问的人体工学设计。另外,可以基于个人偏好或具体执行参数对输入装置201内的输入机构305的方位进行修改或定制。输入装置201中可以包括不同类型的输入机构305。例如,输入装置201可以包括触摸传感器和键、按钮和光敏元件或用于从用户或从输入装置201的周围环境接收输入的机构的任意组合。传感器300包括运动传感器301、音频传感器302、成像传感器303、生理学传感器304中的一个或多个或用于捕获描述便携式交互单元102所工作的环境的数据的任意其它类型的传感器。 
在实施例中,合并模块410被耦合至输入装置201,并从输入机构305和一个或多个传感器300接收数据,传感器300诸如为运动传感器301、音频传感器302、成像传感器303或生理学传感器304中的至少一个。在实施例中,输入装置201还将来自辅助输入装置306的输入传递至合并模块410。合并模块410对来自一个或多个输入机构305、一个或多个传感器300和/或一个或多个辅助输入装置306的数据进行组合,以产生对于由输入装置201接收的数据的描述。 
解码器403被耦合至合并模块410,并确定用于向输入装置201提供数据的不同输入机构305、传感器300和/或辅助输入装置306的状况。在实施例中,解码器403被耦合至诸如随机存取存储器(RAM)或其它存储装置的存储装置,存储装置存储描述与用于向输入装置201提供数据的不同输入机构305、传感器300和/或辅助输入装置306相关联的状态的数据。例如,存储装置存储与各个输入机构305、各个传感器300和/或各个辅助输入装置306相关联的、用于描述输入机构305、传感器300和/或辅助输入装置306先前是否被用户或在先捕获的数据访问的指示符,诸如描述按钮是否被按下、描述光敏元件是否检测到光或运动检测器是否检测到运动的指示符。 
在实施例中,解码器403和合并模块401由存储在存储器上并用于由处理器404执行的计算机程序代码实现,该计算机程序代码包括在被执行 时引起处理器404执行上述功能的命令。处理器404对与各个输入机构305、各个传感器300和/或各个辅助输入装置306相关联的存储数据进行处理,以实现解码器403的功能。例如,处理器404根据存储装置中的数据生成不同的各个输入机构305、各个传感器300和/或各个辅助输入装置306的状态表示,以确定向输入装置201提供数据的组件的状况。处理器404还可以删除解码器403所使用的存储数据,以允许存储描述不同的各个输入机构305、各个传感器300和/或各个辅助输入装置306的更近状态的指示符值。 
通信模块405被耦合至处理器404,并且使用很多已知无线通信技术(诸如蓝牙、WiFi、RF、红外线和超声波)中的任意一种将来自处理器404的数据传递至目标装置或其它装置。在实施例中,将天线406耦合至通信模块405,以经由一种或多种无线通信机制发射数据。 
在实施例中,处理器通信模块405还被耦合至能够利用有线通信技术进行数据通信的内部连接器407。内部连接器407被耦合至可耦合至外部装置的外部连接器408。将来自外部装置的数据从外部连接器408传递至用于将数据传递至通信模块405或处理器404的内部连接器407。在实施例中,外部连接器408和内部连接器407将配置信息传递至处理器404,以修改便携式交互模块102的操作。另外,内部连接器407从处理器404接收数据并把所接收的数据传递至外部连接器408,以利用诸如通用串行总线(USB)的有线通信协议与外部装置通信。例如,内部连接器407和外部连接器408被用于向外部装置发送诊断信息以确定处理器404的性能。 
控制器的运行和配置
图5为根据本发明实施例用于从输入装置201接收输入的方法500的流程图。方法500捕获由包含在输入装置201中的一个或多个输入源所接收的输入。输入源的示例包括诸如键、按钮、触摸传感器、光敏元件或用于接收输入的任何其它机构的输入机构305。输入源的另外的示例包括诸如运动传感器301、音频传感器302、成像传感器303或生理学传感器304的一个或多个传感器300。输入源还可以是向输入装置201传输数据的辅助输入装置306。 
首先选择诸如预定输入源的输入源(501)。检查与所选择的输入源相关联且被存储在解码器403中的指示符,以确定所选择的输入源是否接收到输入(502)。方法500还可以用于确定辅助输入装置306是否接收到输 入或以另外的方式被激活。例如,所存储的指示符详细说明所选择的键或按钮是否被按下,所选择的运动检测器是否标识出运动,所选择的光敏元件是否被暴光或是否激活了其它类型的输入源。如果与所选择的输入源相关联的指示符表明所选择的输入源接收到输入或被“激活”,则将与所选择的输入源相关联的标识符存储在解码器403中(503)。在实施例中,解码器403将与所激活的输入源相关联的标识符附加至诸如数据串或队列的数据集合,以标识被激活的不同输入源。 
在存储与所激活的输入源相关联的标识符(503)之后,解码器403判断先前是否未选择附加输入源(504)。类似地,响应于确定为没有激活所选择的输入源(502),解码器403判断先前是否未选择附加输入源(504)。在实施例中,对特定组的输入源进行激活评估。可选地,对每个输入源进行激活评估。在另一实施例中,直到确定出特定输入源被激活或未被激活为止,对输入源进行激活评估。如果没有选择附加输入源,则选择不同输入源(501)并且解码器403判断新选择的输入源是否被激活(502)。 
在确定为附加输入源不需要激活判断之后(504),由解码器403生成输入描述(505)。在实施例中,输入描述是如下数据集合:该数据集合用于标识如上所述的所存储的并与解码器403相关联的激活输入源。在实施例中,解码器403对该用于标识激活输入源的数据集合进行重定格式或以不同方式进行修改,以简化输入描述的传送或输入描述的后续处理。然后,通信模块405将输入描述发送至目标装置(506),并且解码器403删除输入描述和/或用于标识激活的输入源的数据集合(507)。在实施例中,响应于接收到来自目标装置207的确认信息,解码器403删除用于标识激活的输入源的数据集合(507)。可选地,在删除前,解码器403将用于标识激活的输入源的数据集合或输入描述存储预定的间隔。在实施例中,当终止向便携式输入装置201供电时,方法500结束(508)。 
图6是响应于由便携式交互模块102所接收的输入用于生成输出的方法600的实施例的事件图。当一个或多个输入源接收到输入时,由包含在便携式交互模块102中的解码器403生成输入描述(601)。如以上结合图5所述生成输入描述(601)。在实施例中,处理器404还验证输入描述的精确性(602)。例如,处理器404验证输入描述是完整的或包括来自预定输入源的信息(602)。另外,处理器404可以验证输入描述是与目标装置207相兼容的格式或输入描述是适于使用无线或有线通信协议发送的格 式(602)。 
然后,经由通信系统205将输入描述从便携式交互模块102发送至目标装置207。一旦接收到输入描述,目标装置207确定用于将一个或多个输入描述与由目标装置207执行的一个或多个应用或命令相关联的一个或多个设置。这些设置可以为用户专用,这允许个别用户指定便携式交互模块102所接收的输入如何启动目标装置207的操作。可选地,这些设置可以与目标装置207所执行的应用或操作环境相关联。这些设置允许便携式交互模块102用途的更大定制,并且简化了与目标装置207的交互。目标装置207使用所确定的设置以生成响应于所接收的输入描述的输出(605)。所生成的输出可以是由目标装置207呈现的音频或视频数据,或可以从目标装置207传回便携式交互模块102以提供振动或其它触觉反馈。 
图7描绘了用于对包括便携式交互模块102的系统进行配置的方法700的流程图。方法700的步骤可以由不同功能模块来执行,这些功能模块诸如为用于将便携式交互模块102与目标装置207对接的人机接口驱动以及目标装置207所呈现的图形用户界面(GUI)。以下结合图10进一步描述用于配置便携式交互模块102的示例GUI。 
当便携式交互模块102开始与目标装置207通信时,执行方法700。例如,当便携式交互模块102与目标装置207建立通信时,或响应于目标装置207接收到来自便携式装置102的配置信息时,方法700开始。目标装置207显示初始状态(701),诸如用于标识与目标装置207相关联的用户、目标装置207是否正与便携式交互模块102通信或其它信息的显示。然后,目标装置207检测便携式交互模块102(702)。例如,目标装置207接收来自便携式装置102的通信信息或确认信息。 
在检测便携式交互模块102(702)之后,目标装置207判断与便携式交互模块102相关联的一个或多个配置设置是否被修改(703)。这些配置设置允许用户对便携式交互模块102与目标装置207之间的交互进行定制。例如,这些配置设置将应用或命令与一个或多个输入机构305和/或传感器300相关联,允许对输入机构305或传感器300的定制,这使得目标装置207进行操作或执行应用。修改配置设置以允许用户或应用最大化与目标装置207的交互效率或通过对接收自便携式交互模块102的输入的定制增加与目标装置207交互的乐趣。 
如果目标装置207确定为修改了配置设置(703),则确定与修改的配 置设置相关联的类型(704)。在实施例中,配置设置可以修改与一个或多个输入源(诸如,输入机构305、传感器300、辅助输入装置306或先前所述组件的组合)相关联的命令、操作或应用,或可以修改目标装置207用于描述便携式交互模块102的操作和/或运动的模型。对于描述便携式交互模块的操作和/或运动的模型的修改允许目标装置207更精确地监控便携式交互模块102的运动或指示用户便携式交互模块102的操作。如果确定为修改的配置设置修改了输入源(704),则使得目标装置207利用修改的配置设置对与修改的输入源相关联的应用或操作进行配置(705);而如果确定为修改的配置设置修改了与便携式交互模块120相关联的模型(704),则使目标装置207根据修改的配置设置对与便携式交互模块102相关联的模型进行配置(706)。 
在配置输入源(705)或配置模型(706)之后,目标装置207判断是否修改了附加配置设置(707)。若修改了附加设置,则确定附加修改设置的类型(704)并相应地配置输入源或模型(705,706)。一旦确定为没有修改附加配置设置(707)或确定为最初没有修改配置设置(703),则目标装置207根据从便携式交互模块102接收的输入描述生成控制数据(708)。 
在实施例中,根据生成的控制数据确定输入类型(709)。如果确定为控制数据为指针数据(709),则目标装置207重新配置指针、光标或其它对象(710)。如果目标装置207确定为控制数据与命令相关联(709),则执行所标识的命令(711)。如果目标装置207确定为控制数据为其它类型的数据(709),则由目标装置207或应用处理该数据(712)。例如,如果控制数据是源于一个或多个传感器300或输入机构305的软件开发工具包(“SDK”)数据,则在712中处理该SDK数据以对目标装置207上的应用进行修改或配置。因此,来自便携式交互模块102的输入可用于向目标装置207提供数据或命令或向运行在目标装置207上的应用提供数据或命令,或者可用于在由目标装置207执行的操作系统或应用中导航。 
在各个实施例中,上述方法500、600、700中描述的步骤是通过体现或存储在计算机可读介质(诸如,永久存储装置或非永久存储装置)中的、用于执行上述操作的指令实现的,这些指令可由诸如处理器206或处理器404的处理器执行。本领域的技术人员将认识到,方法500、600、700可以由硬件和/或软件的实施例或其组合实现。 
示例配置
图8A示出了作为手套形输入装置803的便携式交互模块102的示例配置。在图8A所示的配置中,手套形输入装置802包括诸如带的第一可调节支架部件803和诸如第二带的第二可调节支架部件804,第一可调节支架部件803和第二可调节支架部件804用于将手套形输入装置802固定至诸如用户手的对象。另外,该示例配置包括具有一个或多个输入装置210的多个立方格801,每个立方格在第一表面上包括一个或多个输入机构305和/或传感器300。在实施例中,正如用户手指的对象包含在立方格中并且接近于第一表面,这允许对象接近一个或多个输入机构305和/或传感器300。 
图8B为包括具有手套状配置的便携式交互单元102的示例系统800。第一手套形输入装置806被置于第一对象808(诸如,用户的一只手)上,并且第二手套形输入装置805被置于第二对象807(诸如,用户的另一只手)上。例如,用户将第一手套形输入装置806戴在用户的右手上并将第二手套形输入装置805戴在用户的左手上。 
在图8B所示的系统800中,第一手套形输入装置806包括用于利用诸如无线连接的通信通道810将数据或命令传递至目标系统811的通信系统。因此,利用诸如无线通信通道的通信通道809将数据从第二手套形输入装置805传递至第一手套形输入装置806。通信通道809允许第一手套形输入装置806组合来自手套形输入装置805、806的信号。然后,第一手套形输入装置806利用通信通道810将组合的信号传递至耦合至目标系统811的通信系统813。第二手套形输入装置805还可以利用通信通道814直接与通信系统813通信。响应于接收到组合的信号,目标系统811生成可以经由显示器812呈现给用户、或可以呈现为音频信号或触觉反馈的输出。 
图9示出了便携式交互模块102的替代结构,其包括便携式传感器模块901和可连接的传感器模块902这两个模块。便携式传感器模块901包括一个或多个用于捕获各种输入类型的传感器(诸如上文结合图3所述的那些传感器),这简化了与目标装置207的用户交互。例如,用户可以抓住或握住便携式传感器模块901,或将便携式传感器模块901设置得接近用户,以捕获输入。类似地,可连接的传感器模块902可以被连接至用户,诸如连接至用户的手腕、脚踝或身体部位,或者可以设置为接近用户,诸如可以连接至腰带、鞋或用户穿戴的其它衣服。接口模块103接收来自便携式传感器模块901和/或可连接的传感器模块902的数据,并将所接收 的数据传递至目标装置207。例如,接口模块103支持用于数据通信的一种或多种无线通信协议。 
图10为根据本发明实施例用于对便携式交互模块102进行配置的示例用户界面。该用户界面可以由目标装置207或其它耦合至便携式交互模块102的计算装置显示。图10所示的用户界面是允许便携式交互模块操作的用户定制的图形用户界面(GUI)。 
GUI允许用户定制与便携式交互模块102内的输入装置201的一个或多个输入机构402相关联的输入。例如,GUI允许用户通过将键的图示从常规键盘1010的图示拖拽至输入装置201的输入机构305,来将键盘键与来自便携式交互模块102的输入相关联,诸如,将键的图示拖拽至手指1005的图示,以便使标识的手指的运动或其它输入与所选择的键相关联。 
另外,GUI可以包括允许用户对输入装置201、输入装置201内的传感器300、输入装置201内的输入机构305进行校准或练习使用整个便携式交互模块102的仿真应用。在实施例中,仿真引擎在目标装置207上相对于便携式交互模块102显示手的三维图示,并通过手的三维表示相对于便携式交互模块102的三维图示的运动示出与便携式交互模块102的交互。例如,手的三维图示模拟按压或激活便携式交互模块102的三维图示上所示的输入传感器。 
在实施例中,GUI还存储用于标识用户频繁访问的应用或游戏或标识用户所选择的应用或游戏的工作台1020。工作台1020允许用户更快地访问特定的游戏或应用。 
总结
为了说明的目的,提供了本发明实施例的前述说明;前述说明不旨在穷举或将本发明局限于所公开的确切形式。根据以上公开,本领域的技术人员能够理解很多修改和变型是可能的。 
该说明书的一些部分就对于信息的操作的算法和符号表示方面描述了本发明的实施例。这些算法描述和表示通常被数据处理领域的技术人员用于把他们工作的基本内容有效地传达给该领域的其它技术人员。功能上、计算上或逻辑上描述的这些操作被理解为由计算机程序或等效电路或微代码等来实施。此外,其还证实了将操作的这些布置称为模块在时间上的方便性,而不失一般性。所描述的操作和它们的关联模块可以体现为软 件、固件、硬件或其任意组合。 
可以利用一个或多个硬件或软件模块,单独地或与其它装置组合地执行或实施这里描述的任意步骤、操作或处理。在一个实施例中,利用包括包含计算机程序代码(可由用于执行所述任意或全部步骤、操作或处理的计算机处理器来执行)的计算机可读介质的计算机程序产品实施软件模块。 
本发明的实施例还可以涉及用于执行这里的操作的设备。该设备可以为所需目的专门构造,并且/或可以包括由存储在计算机中的计算机程序选择性地激活或重新配置的通用目的计算装置。该计算机程序可以被存储在实际的计算机可读存储介质,其包括适于存储电子指令、并被耦合至计算机系统总线的任意类型的实际介质。此外,该说明书中提及的任意计算系统可以包括各个处理器,或可以是采用用于增强的计算性能的多处理器设计的结构。 
本发明的实施例还可以涉及体现为载波的计算机数据信号,其中,该计算机数据信号包括计算机程序产品或这里描述的其它数据组合的任意实施例。计算机数据信号是存在于实际的介质或载波中并在实际的载波中调制或编码的产物,并根据任意适合的发送方法发送。 
最后,为了可读性和指导性的目的,主要选择了说明书中使用的语言,并且未选择说明书中使用的语言来描绘或限制本发明的主题。因此,本发明的范围不由该详细描述所限制,而是由基于该应用发布的任意权利要求所限制。因此,本发明实施例的公开旨在示例而非限制本发明的范围,本发明的范围由所附权利要求限定。 

Claims (20)

1.一种多通道便携式交互模块,包括:
一个或多个输入装置,每个输入装置包括用于接收响应于交互的输入的多个输入机构和用于捕获与所述输入装置周围的环境相关联的数据的一个或多个传感器;
被耦合至所述一个或多个输入装置的处理器;
计算机程序代码,其被存储在存储器上并被配置用于由所述处理器执行,所述计算机程序代码包括用于如下功能的指令:
接收来自所述多个输入机构和来自所述一个或多个传感器的数据;
生成用于描述由输入机构接收的输入和由传感器捕获的数据中的至少一个的数据;以及
生成用于标识接收了输入的输入机构或传感器的输入描述;
提供与每个输入机构相关联的、表示各个输入机构是否接收了输入的标识符,
提供与每个传感器相关联的、表示各个传感器是否捕获了数据的标识符;以及
生成与所述输入描述相关联的传输数据;
被耦合至所述处理器的通信模块,所述通信模块用于将所述传输数据传输至目标电器。
2.根据权利要求1所述的多通道便携式交互模块,还包括:
被耦合至所述目标装置和所述通信模块的反馈系统,所述反馈系统生成响应于从所述目标装置所接收的反馈数据的反馈。
3.根据权利要求2所述的多通道便携式交互模块,其中,所述反馈系统被配置为响应于所述反馈数据引入多信道便携式输入装置的触觉反馈。
4.根据权利要求1所述的多通道便携式交互模块,其中,所述一个或多个输入装置包括多达二十个输入装置。
5.根据权利要求1所述的多通道便携式交互模块,其中,所述一个或多个传感器包括运动传感器、音频传感器、图像传感器和生理学传感器中的至少一个。
6.根据权利要求5所述的多通道便携式交互模块,其中,输入装置被配置为接收来自所述多通道便携式交互模块外部的辅助输入装置的输入。
7.根据权利要求5所述的多通道便携式交互模块,其中,合并模块被配置用于生成对于由两个或多个传感器所捕获的数据和由第一输入机构所接收的输入的描述,每个传感器捕获不同的数据类型。
8.根据权利要求7所述的多通道便携式交互模块,其中,所述数据类型包括音频数据、视频数据、图像数据、音频数据、运动数据和生理学数据中的至少一个。
9.根据权利要求1所述的多通道便携式交互模块,其中,所述通信模块还被耦合至位于远离所述多信道便携式输入装置的位置的辅助输入装置。
10.根据权利要求1所述的多通道便携式交互模块,还包括一个或多个可调节物理部件。
11.一种计算系统,包括:
便携式输入装置,其包括用于接收响应于交互的输入的多个输入机构和用于捕获与所述多信道便携式输入装置周围的环境相关联的数据的一个或多个传感器,所述便携式输入装置被配置为生成用于描述由所述输入机构所接收的输入和由传感器所捕获的数据中的至少一个的输入描述;
目标装置,其被耦合至所述便携式装置并包括输出装置,所述目标装置被配置为接收来自所述便携式输入装置的所述输入描述,根据所述输入描述生成输出,并利用所述输出装置呈现所述输出。
12.根据权利要求11所述的计算系统,其中,所述输出包括可视信号,并且所述输出装置包括显示装置。
13.根据权利要求11所述的计算系统,其中,所述目标装置包括将所述输入描述与所述输出相关联的设置。
14.根据权利要求13所述的计算系统,其中,所述设置将命令与由所述输入机构接收的输入或与由辅助输入装置捕获的数据相关联。
15.根据权利要求11所述的计算系统,其中,所述目标装置是从由机器人、计算机、机顶盒、电视机和游戏系统构成的组中选择的。
16.根据权利要求11所述的计算系统,还包括耦合至所述便携式输入装置的辅助输入装置,所述辅助输入装置用于捕获来自第二位置的数据并将所捕获的数据通信至所述便携式输入装置。
17.根据权利要求11所述的计算系统,其中,所述一个或多个传感器包括运动传感器、音频传感器、图像传感器和生理学传感器中的至少一个。
18.根据权利要求17所述的计算系统,其中,所述输入描述对由两个或多个传感器捕获的数据和由第一输入机构接收的输入进行描述,每个传感器捕获不同的数据类型。
19.根据权利要求18所述的计算系统,其中,所述数据类型包括音频数据、视频数据、图像数据、音频数据、运动数据和生理学数据中的至少一个。
20.根据权利要求11所述的计算系统,其中,所述一个或多个传感器位于接近所述多通道便携式输入装置的环境中的一个或多个位置。
CN2009801558258A 2008-12-01 2009-12-01 用于娱乐、教育或通信的便携式引擎 Pending CN102301312A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11873308P 2008-12-01 2008-12-01
US61/118,733 2008-12-01
PCT/IB2009/007728 WO2010064138A1 (en) 2008-12-01 2009-12-01 Portable engine for entertainment, education, or communication

Publications (1)

Publication Number Publication Date
CN102301312A true CN102301312A (zh) 2011-12-28

Family

ID=42232931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009801558258A Pending CN102301312A (zh) 2008-12-01 2009-12-01 用于娱乐、教育或通信的便携式引擎

Country Status (3)

Country Link
US (1) US20110234488A1 (zh)
CN (1) CN102301312A (zh)
WO (1) WO2010064138A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104536565A (zh) * 2014-12-18 2015-04-22 深圳市酷商时代科技有限公司 应用程序控制方法和装置
CN105706093A (zh) * 2013-09-13 2016-06-22 博能电子公司 用于生物特征数据的具有双向通信的远程无线显示
CN105849758A (zh) * 2013-12-12 2016-08-10 微软技术许可有限责任公司 多模式内容消费模型

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8595012B2 (en) * 2010-06-29 2013-11-26 Lenovo (Singapore) Pte. Ltd. Systems and methods for input device audio feedback
WO2012068551A1 (en) * 2010-11-18 2012-05-24 Google Inc. Surfacing off-screen visible objects
US20120159341A1 (en) 2010-12-21 2012-06-21 Microsoft Corporation Interactions with contextual and task-based computing environments
US20120166522A1 (en) * 2010-12-27 2012-06-28 Microsoft Corporation Supporting intelligent user interface interactions
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9836046B2 (en) 2011-01-05 2017-12-05 Adam Wilson System and method for controlling a self-propelled device using a dynamically configurable instruction library
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9185005B2 (en) * 2011-02-10 2015-11-10 Empire Technology Development Llc Quality-of-experience measurement for voice services
US20120244969A1 (en) 2011-03-25 2012-09-27 May Patents Ltd. System and Method for a Motion Sensing Device
US9440144B2 (en) * 2011-04-21 2016-09-13 Sony Interactive Entertainment Inc. User identified to a controller
US9063704B2 (en) * 2011-05-05 2015-06-23 Net Power And Light, Inc. Identifying gestures using multiple sensors
US9389681B2 (en) * 2011-12-19 2016-07-12 Microsoft Technology Licensing, Llc Sensor fusion interface for multiple sensor input
US9292758B2 (en) 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
JP2015524951A (ja) 2012-05-14 2015-08-27 オルボティックス, インコーポレイテッドOrbotix, Inc. 画像内で丸い物体を検出することによるコンピューティングデバイスの操作
US9213888B2 (en) 2012-06-27 2015-12-15 Disney Enterprises, Inc. Electronic devices in local interactions between users
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US9418390B2 (en) * 2012-09-24 2016-08-16 Intel Corporation Determining and communicating user's emotional state related to user's physiological and non-physiological data
US20150138085A1 (en) * 2013-07-31 2015-05-21 Bradley Lloyd Wilk Electronic apparatus for simulating or interfacing a backward compatible human input device by means or control of a gesture recognition system
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
US9509799B1 (en) 2014-06-04 2016-11-29 Grandios Technologies, Llc Providing status updates via a personal assistant
US8995972B1 (en) 2014-06-05 2015-03-31 Grandios Technologies, Llc Automatic personal assistance between users devices
EP3167357A4 (en) * 2014-07-08 2018-01-17 Tandem Interface Pty Ltd Systems and methods for implementing a user-actuated controller device for use with a standard computer operating system having a plurality of pre-existing applications
EP3259662A1 (en) 2015-02-19 2017-12-27 Covidien LP Physiological monitoring methods and systems utilizing distributed algorithm

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004527815A (ja) * 2000-12-18 2004-09-09 ヒューマン バイオニクス エルエルシー、 感知電気生理学的データに基づく活動開始方法及びシステム
US6791575B2 (en) * 2001-09-25 2004-09-14 Wu Li Investments Apparatus for providing an electronic display with selectable viewing orientations
KR100580617B1 (ko) * 2001-11-05 2006-05-16 삼성전자주식회사 오브젝트 성장제어 시스템 및 그 방법
US20040117308A1 (en) * 2002-12-12 2004-06-17 International Business Machines Corporation Instant, physiologically-based execution of customer-oriented transactions
CN101124534A (zh) * 2005-02-24 2008-02-13 诺基亚公司 用于计算终端的运动输入设备及其操作方法
US7649522B2 (en) * 2005-10-11 2010-01-19 Fish & Richardson P.C. Human interface input acceleration system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105706093A (zh) * 2013-09-13 2016-06-22 博能电子公司 用于生物特征数据的具有双向通信的远程无线显示
CN105706093B (zh) * 2013-09-13 2019-05-07 博能电子公司 用于生物特征数据的具有双向通信的远程无线显示
CN105849758A (zh) * 2013-12-12 2016-08-10 微软技术许可有限责任公司 多模式内容消费模型
CN105849758B (zh) * 2013-12-12 2020-03-06 微软技术许可有限责任公司 多模式内容消费模型
CN104536565A (zh) * 2014-12-18 2015-04-22 深圳市酷商时代科技有限公司 应用程序控制方法和装置

Also Published As

Publication number Publication date
WO2010064138A1 (en) 2010-06-10
US20110234488A1 (en) 2011-09-29

Similar Documents

Publication Publication Date Title
CN102301312A (zh) 用于娱乐、教育或通信的便携式引擎
US10838495B2 (en) Devices for controlling computers based on motions and positions of hands
US10922890B1 (en) Multi-user virtual and augmented reality tracking systems
JP2020091904A (ja) システムおよびコントローラ
CN103093658B (zh) 一种面向儿童实物交互的故事创建方法和系统
CN111758137A (zh) 用于远程医疗的方法和设备
CN106878390B (zh) 电子宠物互动控制方法、装置及可穿戴设备
CN104049745A (zh) 输入控制方法和支持该输入控制方法的电子装置
CN109416825A (zh) 用于设备的双重存在的现实到虚拟现实门户
CN108027663A (zh) 将移动设备与人员跟踪组合以用于大型显示器交互
JP7267314B2 (ja) 分離式ヘッドマウントディスプレイシステム及びインタラクション方法
CN108681483A (zh) 一种任务处理方法及装置
KR20210043174A (ko) 운동 코칭 기능을 제공하는 방법 및 이를 수행하는 전자 장치
CN108388338A (zh) 一种基于vr设备的控制方法及系统
EP4276591A1 (en) Interaction method, electronic device, and interaction system
CN108491074A (zh) 电子装置、运动辅助方法及相关产品
JP7434985B2 (ja) 外部コンピュータシステムの組立式コントローラ、方法、及びプログラム
CN109643182A (zh) 信息处理方法、装置、云处理设备及计算机程序产品
JP7363823B2 (ja) 情報処理装置、および情報処理方法
CN101149766A (zh) 裁判机器人控制系统以及该系统的软件方法
CN103419204A (zh) 划拳机器人系统
TWI729323B (zh) 互動式遊戲系統
US20200166990A1 (en) Device and methodology for the interaction through gestures and movements of human limbs and fingers
CN112188450B (zh) 一种基于输入外设进行输入的方法及相关装置
US20240184361A1 (en) Wearable control system and method to control an ear-worn device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20111228