CN105718045A - 用于与对象进行触觉使能的交互的系统和方法 - Google Patents
用于与对象进行触觉使能的交互的系统和方法 Download PDFInfo
- Publication number
- CN105718045A CN105718045A CN201510964445.6A CN201510964445A CN105718045A CN 105718045 A CN105718045 A CN 105718045A CN 201510964445 A CN201510964445 A CN 201510964445A CN 105718045 A CN105718045 A CN 105718045A
- Authority
- CN
- China
- Prior art keywords
- user
- computing equipment
- processor
- haptic effect
- haptic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0338—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
Abstract
本申请公开了用于与对象进行触觉使能的交互的系统和方法。此处公开的一种说明性计算设备包括被配置为检测与物理对象的用户交互并传送与该用户交互相关联的传感器信号的传感器。该说明性计算设备还包括与传感器通信的处理器,该处理器被配置为:接收传感器信号;基于传感器信号确定物理对象的特性;以及至少部分基于该用户交互和特性确定功能。处理器还被配置为确定与该功能相关联的触觉效果;并且传送与触觉相关联的触觉信号。该说明性计算设备进一步包括与处理器通信的触觉输出设备,该触觉输出设备被配置为接收该触觉信号并输出触觉效果。
Description
相关申请的交叉引用
本申请涉及与本申请同日提交的标题为“SystemsandMethodsforObjectManipulationwithHapticFeedback”的美国专利申请No.14/577,461(代理人案号No.IMM547(58518-922292)),其全部内容通过引用合并于此。
技术领域
本发明涉及用户界面设备的领域。更具体地,本发明涉及与对象的触觉使能的交互。
背景技术
人们正越来越多地使用基于计算机的系统来执行与产品相关联的数字任务。例如,消费者可以使用移动设备(例如,智能电话)阅读关于产品的评论、购买产品、或者将产品添加进购物列表。然而,对于执行这样的数字任务的用户来说,这样的任务可能既困难又耗时。例如,用户可能需要与移动设备的小的用户界面(例如,触摸屏幕显示器)交互以完成在线购买。一些数字任务需要可能使用户沮丧的多个复杂的步骤。因此,存在可以允许用户快速并且容易地执行这样的数字任务的改善的用户界面的需要。可以期望使用触觉反馈(例如,机械振动)来改善这样的用户界面。
发明内容
本公开的实施例包括与对象的触觉使能的交互。在一个实施例中,本公开的计算设备可以包括:传感器,被配置为检测与物理对象的用户交互并传送与用户交互相关联的传感器信号。计算设备还可以包括与传感器通信的处理器,该处理器被配置为:接收传感器信号;基于传感器信号确定物理对象的特性;以及至少部分基于用户交互和特性来确定功能。处理器还可以被配置为确定与功能相关联的触觉效果;并传送与触觉效果相关联的触觉信号。计算设备可以进一步包括与处理器通信的触觉输出设备,触觉输出设备被配置为接收触觉信号并输出触觉效果。
在另一实施例中,本发明的方法可以包括:从传感器接收传感器信号,其中传感器信号与同物理对象的用户交互相关联。该方法还可以包括基于传感器信号确定物理对象的特性,并且至少部分地基于用户交互和特性来确定功能。该方法可以进一步包括确定与功能相关联的触觉效果,并且传送与触觉效果相关联的触觉信号。触觉输出设备可以被配置为接收触觉信号并输出触觉效果。又一实施例包括用于实现这样的方法的计算机可读介质。
提出这些说明性实施例被提出,不是为了限制或定义本主题的限制,而是提供有助于理解本主题的示例。在详细描述中讨论了其他实施例,并且提供了额外的描述。通过考察本说明书和/或通过实践要求保护的主题的一个或多个实施例,可以进一步理解各种实施例提供的益处。
附图说明
在本说明书的余下部分更具体地陈述了完整且有效的公开。本说明书参考了下列附图。
图1是示出根据一个实施例的用于与对象的触觉使能的交互的系统的框图;
图2是示出根据另一实施例的用于与对象的触觉使能的交互的系统的另一框图;
图3示出了用于与对象的触觉使能的交互的系统的实施例;
图4示出了用于与对象的触觉使能的交互的系统的另一实施例;
图5A示出了用于与对象的触觉使能的交互的系统的又一实施例;
图5B示出了用于与对象的触觉使能的交互的系统的又一实施例;
图6示出了用于与对象的触觉使能的交互的系统的另一实施例;
图7示出了用于与对象的触觉使能的交互的系统的又一实施例;
图8示出了用于与对象的触觉使能的交互的系统的又一实施例;以及
图9是用于执行根据另一实施例的用于提供与对象的触觉使能的交互的方法的步骤的流程图。
具体实施方式
现在将对各种和替代性的说明性实施例并且对附图做出详细的参考。通过解释而非限制的方式来提供每个示例。对本领域技术人员来说是显而易见的是,可以进行修改和变化。例如,作为一个实施例的一部分而说明或描述的特征可以用于另一实施例以产生其他实施例。因此,本公开意在包括落在所附权利要求及其等同物的范围内的修改和变化。
与对象的触觉使能的交互的说明性示例
本公开的一个说明性实施例包括计算设备。计算设备包括经由总线耦合到存储器的处理器。在说明性实施例中,计算设备被配置为由用户穿戴。例如,计算设备可以包括配置为穿戴在用户手指上的戒指。
在说明性实施例中,计算设备包括被配置为检测与对象的用户交互并向处理器传送传感器信号的传感器。此处使用的对象是用户可能与之交互的任何事物(例如,实体的或虚拟的)。例如,用户可以从抽屉中拾起9v的电池。用户可能在空中做出完全握住9v电池的“L”形手势。在说明性实施例中,计算设备可以检测用户与9v电池的交互。计算设备可以确定用户交互包括“L”形手势,并且对象包括9v电池。在说明性实施例中,计算设备至少部分地基于用户交互和对象来确定所执行的功能。此处使用的功能包括一个或多个数字操作。之后,计算设备可以执行功能。例如,基于“L”形手势和9v电池,计算设备可以确定包括向用户的购物列表添加9v电池的功能。之后,计算设备可以向用户的购物列表(例如,在购物移动应用上)添加9v电池。以这种方式,用户可以快速并容易地在数字世界中通过与真实空间中的对象进行交互而执行功能。
在说明性实施例中,计算设备进一步包括触觉输出设备。计算设备可以基于用户交互、对象和/或功能来向用户提供触觉反馈。例如,在说明性实施例中,计算设备输出包括短振动的触觉效果以确认功能已被执行(例如,在9v电池被添加到用户的购物列表时)。这可以通知用户该功能已经被执行。
上述说明性实施例的描述仅被作为示例提供。此处描述了本发明的各种其它实施例并且本领域的技术人员可以理解这样的实施例的变形。通过考察本说明书和/或通过实践所要求的主题的一个或多个实施例,可以进一步理解各种实施例提供的益处。
用于与对象的触觉使能的交互的说明性系统
图1是示出根据一个实施例的用于与对象的触觉使能的交互的计算设备101的框图。在一些实施例中,计算设备101可以包括可持握设备(例如,智能手机、平板电脑、电子阅读器、和/或便携式游戏设备)。在其它实施例中,计算设备101可以包括可穿戴设备(例如,戒指、鞋子、臂章、袖套、夹克、眼镜、手套、手表、手环、手镯、衣物、帽子、头巾和/或珠宝)。
在一些实施例中,计算设备101的组件(例如,处理器202、网络110、交互传感器132、传感器130等)可以被集成到单个壳体中。在其它实施例中,组件可以是分布式的(例如,在多个壳体或者位置之间)并且与另一组件的电通信。计算设备101可以或者可以不包括图1中描述的全部组件。例如,在一些实施例中,计算设备101可以包括处理器102、总线104、网络110以及触觉输出设备118。
计算设备101包括经由总线106与其它硬件接口对接的处理器102。存储器104可以包括任何适当的有形(且非易失的)计算机可读介质,诸如RAM、ROM、EEPROM等,存储器104可以实现配置计算设备101的操作的程序组件。在一些实施例中,计算设备101可以进一步包括一个或多个网络接口设备110、输入/输出(I/O)接口组件112以及附加存储114。
网络接口设备110可以表示任何组件的一个或多个,其促进网络连接或者以其它方式促进电子设备之间的通信。示例包括但不限于,诸如以太网、USB、IEEE1394的有线接口和/或诸如IEEE802.11、蓝牙、近场通信(NFC)接口、RFID接口的无线接口、或者用于访问蜂窝电话网络的无线电接口(例如,用于访问CDMA、GSM、UMTS或者其它移动通信网络的收发机/天线)。
I/O组件112可以用于促进与诸如一个或多个显示器、触敏表面116、键盘、鼠标、扬声器、麦克风、按钮和/或用于输入数据或者输出数据的其它硬件等设备的连接。存储114表示非易失性存储,诸如只读存储器、闪速存储器、铁电RAM(F-RAM)、磁存储、光学存储或者包括在计算设备101中或者与处理器102耦合的其它存储介质。
计算设备101可以包括触敏表面116。触敏表面116表示配置为感测用户的触觉输入的任何表面。一个或多个触摸传感器108被配置为检测触摸区域中的触摸(例如,当对象接触触敏表面116时),并且向处理器102传送与触摸相关联的信号。可以使用任何适当数目、类型或者布置的触摸传感器108。例如,电阻和/或电容传感器可以在触敏表面116中被实现,并且用于确定触摸的位置和其它信息,诸如压力、速度和/或方向。作为另一示例,用于触敏表面116的光学传感器可以用于确定触摸位置。作为再另一示例,触敏表面116可以包括安装在显示器侧面的LED(发光二极管)手指检测器。在一些实施例中,触摸传感器108可以被配置为检测用户交互的多个方面。例如,触摸传感器108可以检测用户交互的速度和压力,并将此信息合并到传送到处理器102的信号中。
在一些实施例中,计算设备101包括组合触敏表面116和设备的显示器的触摸使能的显示器。触敏表面116可以与显示器外表面或者显示器组件上方的材料的一个或多个层相对应。在其它实施例中,根据计算设备101的具体配置,触敏表面116可以不包括(或者以其它方式对应于)显示器。
在一些实施例中,计算设备101包括交互传感器132。交互传感器132被配置为检测由用户(例如,使用手指、脚、手、手臂、头、腿或身体的其它部位)进行的与计算设备101和/或对象(例如,商店中货架上的产品)的交互。在一些实施例中,用户交互可以包括对对象的触摸、真实空间中的手势、使用对象的手势(例如,拾起对象并在真实空间移动它)或者在对象上的手势(例如,沿对象的表面滑动手指)。交互传感器132进一步被配置为向处理器102传送与交互相关联的传感器信号。交互传感器132可以包括加速度计、陀螺仪、相机、射频识别(RFID)标签或阅读器、室内接近系统、NFC通信设备、全球定位系统(GPS)设备、磁力计、超声换能器、开关、按钮、光学传感器、光传感器、麦克风、无线接口(例如,IEEE802.11或者蓝牙接口)、红外传感器、深度传感器和/或距离传感器。
例如,在一个实施例中,交互传感器132包括配置为检测对象发射的无线信号的强度的无线接口。交互传感器132可以向处理器102传送与无线信号强度相关联的传感器信号。基于无线信号强度,处理器102可以确定,例如,计算设备101是否在与对象的预定义的距离内。如果如此,则处理器102可以确定交互(例如,在对象的预定义的距离内)发生。
在另一实施例中,交互传感器132包括放置为检测与对象的操纵相关联的声音的麦克风。例如,用户可以摇动咖啡罐或者谷物的盒子。交互传感器132可以检测与摇动相关联的声音。交互传感器132可以向处理器102传送与声音相关联的传感器信号。基于传感器信号,处理器102可以确定例如对象已经移动或者用户交互已经以其它方式发生。
在又一实施例中,交互传感器132包括朝向对象的相机。用户可以在对象附近在空中(例如,以身体的部位,诸如手指、手、手臂、脚、头或者腿)做出手势(例如,选择标记记号)。交互传感器132可以捕获与手势相关联的图像,并向处理器102传送传感器信号。基于传感器信号,处理器102可以确定用户交互发生。处理器102可以进一步分析传感器信号以确定发生的手势的特定类型。例如,处理器102可以分析传感器信号,并确定用户在空中用手指做出了选择标记。
在又一实施例中,交互传感器132包括光学传感器。对象可以被放置为阻止光线到达交互传感器132。例如,对象可以置于位于货架中的交互传感器132的顶部。在用户移动对象或操纵对象时,交互传感器132可以检测光量的改变。交互传感器132可以向处理器102传送与光量的改变相关联的传感器信号。基于传感器信号,处理器102可以确定发生的用户交互或者用户交互的特性(例如,如果用户将对象移动了超过阈值的距离)。
在一些实施例中,交互传感器132处于计算设备101的外部,并与计算设备101有线或无线地通信。例如,交互传感器132可以包括与可穿戴设备(例如,眼镜或者领带)相关联并且与计算设备101通信的相机。作为另一示例,交互传感器132可以包括处于计算设备101外部(例如,在商店中的货架上)并且与计算设备101通信的3D成像系统(例如,通常以商标销售的3D成像系统)或者基于LED的跟踪系统。
计算设备101可以进一步包括一个或多个附加传感器130。传感器130被配置为向处理器102传送传感器信号。在一些实施例中,传感器130可以包括,例如,湿度传感器、环境光传感器、陀螺仪、GPS单元、加速度计、距离传感器、深度传感器、生物传感器、相机或者温度传感器。在一些实施例中,传感器130可以位于计算设备101外部并且与计算设备101有线或者无线地通信。例如,传感器130可以包括耦合到可穿戴设备(例如,戒指或手环)的生物传感器。该生物传感器可以被配置为向计算设备101无线地传送传感器信号,该计算设备101可以例如位于用户的口袋中。
在一些实施例中,计算设备01包括与处理器102通信的触觉输出设备118。触觉输出设备118被配置为响应于触觉信号输出触觉效果。在一些实施例中,触觉输出设备118被配置为输出触觉效果,包括振动、所感受到的摩擦系数的改变、模拟的质地、温度的改变、抚摸的感觉、电触觉效果或者表面变形(例如,与计算设备101相关联的表面变形)。此外,一些触觉效果可以顺序地和/或同时使用相同类型或者不同类型的多个触觉输出设备118。尽管在图1中示出了单个触觉输出设备118,但是实施例可以使用相同类型或者不同类型的多个触觉输出设备118来产生触觉效果。
在一些实施例中,触觉输出设备118处于计算设备101的外部,并与计算设备101通信(例如,经由诸如以太网、USB、IEEE1394的有线接口和/或诸如IEEE802.11、蓝牙或者无线电接口的无线接口)。例如,触觉输出设备118可以与可穿戴设备相关联(例如,与其耦合)并被配置为从处理器102接收触觉信号。
在一些实施例中,触觉输出设备118被配置为输出包括振动的触觉效果。触觉输出设备118可以包括,例如,压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电致动聚合物、电磁线圈、偏心旋转质量电机(ERM)或者线性谐振致动器(LRA)中的一个或多个。
在一些实施例中,触觉输出设备118被配置为输出调制所感受到的与触觉输出设备118相关联的表面的摩擦系数的触觉效果。在一些实施例中,触觉输出设备118包括超声致动器。超声致动器可以以例如20kHz的超声频率振动,增加或减少感觉到的关联表面的系数。在一些实施例中,超声致动器可以包括压电材料。
在一些实施例中,触觉输出设备118使用静电吸引,例如通过使用静电致动器,来输出触觉效果。触觉效果可以包括模拟的质地、模拟的振动、抚摸的感觉或者在与计算设备101相关联的表面上感受到的摩擦系数改变。在一些实施例中,静电致动器可以包括导电层和绝缘层。导电层可以是任何半导体或其它导电材料,诸如铜、铝、金或银。绝缘层可以是玻璃、塑料、聚合物或任何其它绝缘材料。此外,处理器102可以通过向导电层施加电信号(例如,AC信号)来操作静电致动器。在一些实施例中,高压放大器可以生成AC信号。电信号可以生成在导电层和与触觉输出设备118接触或在其附近的物体(例如,用户的手指、头、脚、手臂、肩、腿、或其它身体部位、或者触针)之间的电容耦合。改变在物体和导电层之间的吸引水平可以改变用户感觉到的触觉效果。
在其它实施例中,触觉输出设备118可以使用反相电振动来生成触觉效果。在这样的实施例中,触觉输出设备118可以包括接触用户身体部位的导体。处理器102可以通过经由导体向用户施加电信号(例如,AC信号)来操作触觉输出设备118。电信号可以在用户皮肤上生成电场。如果用户与包括由绝缘体覆盖的导体的物理对象交互,则在用户的身体(例如,由于由电信号产生的电场)和电极之间的电势差可以产生静电吸引。对象和用户二者可以与公共电气接地相连以生成静电吸引。在一些实施例中,改变电信号的性质可以使得在用户和物理对象之间的静电吸引的特性发生改变。在一些实施例中,这可以改变用户感受到的触觉效果。
在一些实施例中,触觉输出设备118包括配置为输出变形触觉效果的变形设备。变形触觉效果可以包括提升或降低与计算设备101相关联的表面的一部分。例如,如果计算设备101位于产品(例如,在商店中)内,则变形触觉效果可以包括提升产品封装的表面的一部分以生成不平整的质地。在一些实施例中,变形触觉效果可以包括弯曲、折叠、卷曲、扭曲、挤压、折曲、改变其形状、或以其它方式使与计算设备101相关联的表面变形。例如,变形触觉效果可以在计算设备101上或与计算设备101相关联的表面上施加力,使其被弯曲、折叠、卷曲、扭曲、挤压、折曲、改变形状或者以其它形式变形。例如,如果计算设备101位于产品的封装内,则变形触觉效果可以包括朝着用户弯曲产品的封装的顶部。这可以通知用户已经执行了特定的功能(例如,计算设备101经由互联网购买了该产品并且用户现在可以自由地取得该产品)。
在一些实施例中,触觉输出设备118包括配置用于输出变形触觉效果(例如,用于使计算设备101或者与计算设备101相关联的表面弯曲或者变形)的流体。例如,流体可以包括智能凝胶。智能凝胶包括具有机械或结构属性的流体,其响应于激励或刺激(例如,电场、磁场、温度、紫外光、震动或pH值变化)而改变。例如,响应于激励,智能凝胶可以在刚度、体积、透明度和/或颜色上发生变化。在一些实施例中,刚度可以包括与计算设备101相关联的表面对于变形的抵抗。在一些实施例中,一个或多个导线可以被嵌入或耦合到智能凝胶。当电流流经导线时,释放出热量,使得智能凝胶膨胀或收缩。这可以使计算设备101或者与计算设备101相关联的表面变形。
作为另一示例,流体可以包括流变性(例如,磁流变或电流变的)流体。流变流体包括悬浮在流体(例如,油或水)中的金属微粒(例如,铁微粒)。响应于电场或磁场,流体中的分子的次序可以重组,改变流体的整体阻尼和/或粘度。这可以使得计算设备101或与计算设备101相关联的表面变形。
在一些实施例中,触觉输出设备118包括机械变形设备。例如,在一些实施例中,触觉输出设备118可以包括与旋转变形组件的臂耦合的致动器。变形组件可以包括,例如,椭圆状、星光状或波状的形状。变形组件可以被配置为以某些旋转角度而不是其它角度移动与计算设备101相关联的表面。致动器可以包括压电致动器、旋转/线性致动器、电磁线圈、电活性聚合物致动器、宏纤维复合材料(MFC)致动器、形状记忆合金(SMA)致动器和/或其它致动器。当致动器旋转变形组件时,变形组件可以移动表面,使其变形。在这样的实施例中,变形组件可以在表面是平坦的位置中开始。响应于从处理器102接收信号,致动器可以旋转变形组件。旋转变形组件可以使得表面的一个或多个部分升高或降低。在一些实施例中,变形组件可以保持处于该旋转的状态中,直到处理器102用信号通知致动器使变形组件旋转回其原始位置。
此外,其它技术或方法可以用于使与计算设备101相关联的表面变形。例如,触觉输出设备118可以包括柔性表面层,被配置为基于与表面可重构触觉衬底的接触来使其表面变形或改变其质地(包括但不限于,例如,纤维、纳米管、电活性聚合物、压电元件或者形状记忆合金)。在一些实施例中,例如通过变形机制(例如,耦合到导线的电机)、空气或流体袋、材料的本地变形、谐振机械元件、压电材料、微机电系统(“MEMS”)元件或泵、热流体袋、可变多孔膜或者层流调制来使触觉输出设备118变形。
在一些实施例中,触觉输出设备118被配置为向用户远程地投射触觉效果。例如,触觉输出设备118可以包括配置为向用户(例如,向用户的手背)射出材料(例如,固体、液体、气体或者等离子体)的一个或多个喷嘴。在一个这样的实施例中,触觉输出设备118包括配置为在接收触觉信号时以变化的特性射出氧气、氮气、二氧化碳或者一氧化碳的一阵气流(puff)或者气流的气体喷嘴。作为另一示例,触觉输出设备118可以包括配置为在用户的方向上投射压力波的一个或多个超声换能器或者扬声器。在一个这样的实施例中,在用户与对象交互时,处理器102可以使触觉输出设备118向用户射出集中的压力波。集中的压力波可以使用户身体的一部分(例如,用户的手)振动。
在一些实施例中,触觉输出设备118可以是计算设备101的外壳的一部分。在其它实施例中,触觉输出设备118可以被封装在覆盖与计算设备101相关联的表面的柔性外壳内(例如,在计算设备101前方或后方)。例如,计算设备101可以包括手表。触觉输出设备118可以包括覆盖表带内部的智能凝胶层。在(例如,通过电流或电场)促动触觉输出设备118时,智能凝胶可以膨胀。这可以使得用户感受到包括用户腕部周围的挤压感的触觉效果。
转到存储器104,程序组件124、126和128被描述为示出设备在一些实施例中可以如何被配置以提供与对象的触觉使能的交互。在此示例中,对象交互检测模块124包括配置处理器102以监视交互传感器132和/或附加传感器130来确定用户是否与对象交互的代码。对象交互检测模块124可以包括可由处理器使用以确定用户是否正与对象交互的一个或多个算法或查找表。
例如,计算设备101可以位于商店中的产品内。例如,用户可以从货架上拾起产品。对象交互检测模块124可以包括对传感器130(例如,加速度计)采样以便追踪产品的加速度的代码。如果加速度的量超过阈值,则对象交互检测模块124可以确定产品正被操纵(例如,用户拾起产品)。
作为另一示例,交互传感器132可以包括指向对象的距离传感器。对象交互检测模块124可以包括配置处理器以接收来自距离传感器的数据的代码。对象交互检测模块124可以进一步包括分析数据以确定用户是否在对象的特定距离内的代码,这可以指示用户交互。
作为另一示例,交互传感器132可以包括朝向对象的3D成像系统。在一个实施例中,对象交互检测模块124可以包括用于分析来自3D成像系统的图像以确定用户是否与对象交互的代码。关于图9描述了用于检测与对象的用户交互的方法的其他示例。
在一些实施例中,对象可以包括虚拟对象。例如,虚拟对象可以在包括触敏表面116的触摸屏幕显示器上被输出。对象交互检测模块124可以包括配置处理器102以检测与虚拟对象的用户交互的代码。例如,用户可以在触敏表面116上与虚拟对象相关联的位置上轻敲。对象交互检测模块124可以从触摸传感器108接收与用户交互相关联的一个或多个传感器信号。在一些实施例中,传感器信号可以包含用户交互的位置、压力、方向和/或速度。对象交互检测模块124可以基于传感器信号来确定用户交互的一个或多个特性。
作为另一示例,虚拟对象可以是经由例如触摸屏幕显示器、眼罩、眼镜或者隐形眼镜输出的增强现实环境的一部分。增强现实环境可以包括以诸如文本或图像的虚拟内容补充(“增强”)的相机数据。例如,交互传感器132可以包括相机。在一些实施例中,交互传感器132可以捕获用户起居室的图像,处理器102可以使用该图像来生成增强现实环境。处理器102可以进一步生成增强现实环境内的一个或多个虚拟对象。例如,处理器102可以包括增强现实环境中的虚拟睡椅。在一些实施例中,例如,通过在真实空间中与虚拟对象相关联的区域中触摸或者打手势,用户可以与虚拟对象交互。例如,对象交互检测模块124可以通过分析来自交互传感器132的图像,来确定用户交互的一个或多个特性。
在一些实施例中,对象交互检测模块124包括确定与交互相关联的特性(例如,压力的量、速度、方向、位置、手势的类型)的代码。对象交互检测模块124可以包括分析来自传感器130和/或交互传感器132的传感器信号以确定该特性的代码。例如,对象交互检测模块124可以包括用于分析来自3D成像系统的图像以确定由用户做出的手势的类型(例如,扫动、两指捏合、摇动等)的代码。
在一些实施例中,对象交互检测模块124包括使用扫频电容感测来确定与交互相关联的特性的代码。扫频电容感测可以包括在与用户对象交互时,在多个频率处测量对象的电容的改变(例如,以电压)。对象交互检测模块124可以基于在多个频率处的改变的电容来生成用户交互的简档。在一些实施例中,对象交互检测模块124可以将该简档与预定的交互简档进行比较。在一些实施例中,每个预定的交互简档可以包括在多个频率处的电容的改变的独特分布,并且可以与不同的用户交互(例如,两指捏合、全手抓握或者单指轻敲)相关联。例如,与两指捏合相关联的预定的交互简档可以不同于与全手抓握相关联的预定的交互简档。以这种方式,对象交互检测模块124可能能够具体地确定用户可能如何与对象交互。
在一些实施例中,对象交互检测模块124包括基于来自交互传感器132的声音信号来确定与交互相关联的特性的代码。例如,交互传感器132可以包括麦克风。对象交互检测模块124可以接收来自交互传感器132的传感器信号,并且将来自传感器信号的数据与一个或多个声音简档进行比较。在一些实施例中,每个声音简档可以包括与不同的用户交互(例如,用户用手指、指关节、指甲或者手掌触摸对象)相关联的声音数据。例如,与手指接触对象相关联的声音简档可以包括不同于与指关节接触对象相关联的声音简档的不同的频率响应。以这种方式,对象交互检测模块124可能能够确定对象正与用户的哪个身体部位进行交互。
在一些实施例中,对象交互检测模块124包括确定与对象相关联的特性的代码。该对象可以包括商店中的产品(例如,一盒谷物)、工具(例如,铁锤或者螺丝刀)、医疗设备(例如,套管针、针或者心跳监视器)、汽车、人类、动物等。该特性可以包括关于对象的信息。例如,根据对象的类型,该特性可以包括与对象相关联的营养成分(如果对象是食物产品的话)、尺寸、重量、深度、颜色、质地、形状、尺寸、价格、折扣、产品排名(例如,等级或者另一比较性度量,如“星级评价”)、有效期、功能或者效用(例如,对象执行或者可以用于什么功能)、可用量或者该对象是否有库存、使用的限制、担保、品牌、制造商、生产商、产地、耗能量或者其它电气特性、噪音量、机械特性、最高速度、平均速度、材料(例如,对象是否由木头、玻璃、陶瓷、塑料和/或金属制造)和/或兼容性信息(例如,对象可以与什么设备兼容)。
在一些实施例中,对象交互检测模块124可以至少部分地基于由用户或第三方提供的信息来确定该特性。例如,用户可以向计算设备101输入关于用户所拥有或期望的一个或多个电子设备(例如,TV和视频游戏系统)的数据。在这样的实施例中,对象交互检测模块124可以查阅该数据以确定对象(例如,遥控器)是否与电子设备中的至少一个兼容。因此,在这样的实施例中,该特性可以包括对象是否与用户拥有或者期望的电子设备兼容。
在一个实施例中,对象交互检测模块124可以包括分析来自交互传感器132和/或附加传感器130的数据以确定与对象相关联的特性的代码。例如,对象交互检测模块124可以包括接收来自相机的对象的图像并且应用光学字符识别(OCR)来确定与对象相关联的文本的内容的代码。作为另一示例,对象交互检测模块124可以包括分析来自交互传感器132的图像以确定对象的高度、宽度、颜色、尺寸、形状、图案、质地、名称、类型、QR码、条形码、标签、标志、配色方案、形状和/或另一特性的代码。
在一些实施例中,对象交互检测模块124包括分析经由网络接口设备110接收到的数据以确定对象的特性的代码。例如,对象可以使用蓝牙、IEEE802.11、RFID或者NFC来向计算设备101发送信号。信号可以包括对象的特性(例如,信号可以包括名称、类型、品牌、条形码、价格、RFID码或者电气特性)。对象交互检测模块124可以分析信号的参数以确定对象的特性。
在一些实施例中,对象交互检测模块124包括使用互联网或者另一网络(例如,LAN)确定与对象相关联的特性的代码。例如,对象交互检测模块124可以包括用于通过经由互联网与一个或多个服务器或者网页通信来检索与对象(例如,棒球棒、头盔或者运动衫)相关联的运动队(例如,棒球队)的名称的代码。作为另一示例,对象交互检测模块124可以包括用于通过和与商店相关联的服务器(例如,商店的本地服务器)通信来检索与商店中的食品产品相关联的营养信息的代码。
对象交互检测模块124可以包括基于特性识别对象的代码。例如,如果对象是书,则对象交互检测模块124可以包括分析与书相关的文本、条形码和/或QR码以确定书名的代码。作为另一示例,如果对象是汽车,对象交互检测模块124可以包括分析来自相机的图像以确定汽车的构造、模型和/或年份的代码。
功能确定模块125包括配置处理器102以确定要执行的功能的代码。功能确定模块125可以包括使用一个或多个算法或查找表来选择要执行的一个或多个功能的代码。在一些实施例中,功能可以包括购买对象(例如,经由互联网)、打开网页、初始化文档的打印、打开驾驶导向应用、发送电子邮件或者文本消息、确定关于对象的信息(例如,通过查询一个或多个服务器)、设定虚拟闹钟、设定导航应用的参数(例如,设定起始点或者目的地位置)、拨打电话号码、从文档中复制文本、拍照、保存数据、选择程序选项或设定、记录声音、对列表添加条目、从列表移除条目、输出声音、播放媒体内容、打开电子书、执行计算、发送数据和/或接收数据。功能确定模块125还可以包括用于执行功能的代码。
在一些实施例中,功能确定模块125包括用于基于用户交互的特性和对象的特性来确定功能的代码。例如,功能确定模块125可以包括将特定用户交互(或者一般类型的用户交互,诸如与手势相对的轻敲)映射成特定功能的查找表。作为另一示例,功能确定模块125可以包括将特定对象(或者对象的种类)映射成特定功能的查找表。
在一些实施例中,功能确定模块125可以包括用于经由网络与另一电子设备通信以确定功能的代码。例如,在一个这样的实施例中,功能确定模块125可以包括用于通过互联网查询一个或多个服务器以确定与具体用户交互和/或对象相关联的功能的代码。
在一些实施例中,对象交互检测模块124包括确定虚拟对象的特性的代码。例如,对象交互检测模块124可以查阅存储器104中的位置以确定虚拟对象的特性。
触觉效果确定模块126表示分析数据以确定要生成的触觉效果的程序组件。触觉效果确定模块126包括使用一个或多个算法或者查找表来选择要输出的一个或多个触觉效果的代码。在一些实施例中,触觉效果确定模块126包括处理器102可用于确定触觉效果的一个或多个算法或者查找表。
在一些实施例中,触觉效果确定模块126包括基于用户交互的特性来确定要输出的触觉效果的代码。例如,触觉效果确定模块126可以确定包括对应于用户将对象进行360°旋转次数的多个脉冲振动的触觉效果。作为另一示例,触觉效果确定模块126可以确定由于包括沿对象的表面两指捏合手势而不是在对象上的轻敲的用户交互而引起的触觉效果。
在一些实施例中,触觉效果确定模块126包括基于对象的特性来确定要输出的触觉效果的代码。例如,如果对象很尖锐,则触觉效果确定模块126可以确定包括脉冲振动的触觉效果。这可以向用户警告用户正在处理具有潜在危险的对象。作为另一示例,如果对象包括木头,则触觉效果确定模块126可以包括确定包括木质质地的触觉效果的代码;如果对象包括金属,则是金属质地的触觉效果;或者如果对象包括橡胶,则是橡胶质地的触觉效果。
在一些实施例中,触觉效果确定模块126包括基于功能的特性来确定要输出的触觉效果的代码。例如,触觉效果确定模块126可以在功能被执行之前确定要被输出的触觉效果。这可以警告用户功能将要被执行或者无法被执行。作为另一示例,触觉效果确定模块126可以确定在功能被执行之后要输出的触觉效果。这可以警告用户功能已被执行。作为另一示例,触觉效果确定模块126可以确定配置为指示操作正在进行或者已经失败(例如,功能已经失败)的触觉效果。例如,如果功能包括内容下载(例如,来自服务器),则触觉效果确定模块126可以确定包括指示下载进度的脉冲感觉的触觉效果。作为又一示例,如果功能包括使用互联网购买对象,而不是如果功能包括向购物列表添加对象,则触觉效果确定模块126可以确定不同的触觉效果。这可以警告用户功能正在被执行。
触觉效果生成模块128表示使得处理器102生成并且向触觉输出设备118发送触觉信号以生成所选择的触觉效果的编程。例如,触觉效果生成模块128可以访问用于向触觉输出设备118发送以产生期望效果所存储的波形或要发送到的命令,以创造预期的效果。在一些实施例中,触觉效果生成模块128可以包括用于确定触觉信号的算法。此外,在一些实施例中,触觉效果生成模块128可以包括针对触觉效果确定目标坐标的算法(例如,计算设备101或者输出触摸效果的对象上的位置的坐标)。
尽管在图1中模块124、125、126、128被描绘为在存储器104内的程序组件,所以在一些实施例中,模块124、125、126、128可以包括硬件。例如,模块124、125、126、128可以包括模拟到数字转换器、处理器、微控制器、比较器、放大器、晶体管和其它模拟或数字电路。
图2是示出根据另一实施例的用于与对象的触觉使能的交互的系统的另一框图。系统200可以包括一个或多个远程触觉输出设备206。系统200还可以包括一个或多个计算设备202a-g。
在图2所示的实施例中,系统200包括可穿戴计算设备202a、包装计算设备202b、货架计算设备202c、商店计算设备202d、地面计算设备202e、承载计算设备202f以及可握持计算设备202g。可穿戴计算设备202a可以包括与配置为由用户穿戴的可穿戴设备(例如,戒指)相关联的计算设备。包装计算设备202b可以包括至少部分地嵌入在对象的包装(例如,对象的包装材料或者容器)内的计算设备。货架计算设备202c可以包括至少部分地嵌入在货架(例如,用于保持在商店中销售的产品的货架或者书架)内或者耦合到货架的计算设备。商店计算设备202d可以包括与对象的卖方、制造商和/或分发商相关联的计算设备。地面计算设备202e可以包括至少部分地嵌入在地面内(例如,在商店的一块或多块地面瓷砖内)或者耦合到地面的计算设备。承载计算设备202f可以包括至少部分地嵌入在用于保持对象的承载设备(例如,购物车、篮子、袋子或者背包)内或者耦合到承载设备的计算设备。可握持计算设备202g可以包括与配置为由用户握持的可握持设备(例如,移动电话)相关联的计算设备。下文中将更加具体地描述这些计算设备202a-g。
计算设备202a-g和远程触觉输出设备206可以连接到网络204。网络204可以是任何适当数目或类型的网络或链路,包括但不限于,拨号网络、局域网(LAN)、广域网(WAN)、公共交换电话网络(PSTN)、蜂窝网络、WiFi网络、互联网、内联网或者硬接线和/或无线通信链路的任何组合。在一些实施例中,网络204是单个网络。在其它实施例中,网络204可以包括两个或多个网络。
计算设备202a-g和远程触觉输出设备206可以直接彼此通信,并且/或者可以经由网络204彼此通信。例如,货架计算设备202c可以直接与商店计算设备202d无线地通信(例如,使用蓝牙)。此外,计算设备202a-g和远程触觉输出设备206可以经由网络与一个或多个远程服务器(例如,云服务器、web服务器或者其它服务器)、数据库和/或计算设备通信。
如上所述,系统200可以包括可穿戴计算设备202a。可穿戴计算设备202a可以与可穿戴设备相关联,包括例如手表、手环、帽子、套袖、夹克、颈圈、眼镜、手套、戒指、衣物、头带和/或珠宝。在用户与对象交互时,可穿戴计算设备202a可以执行功能,和/或向用户的身体部位(例如,用户的手腕、手臂、腿、脚、手、手指、颈部、头或者胸)输出触觉效果。
例如,可穿戴计算设备202a可以包括手表。在用户用书籍(例如,用户想要阅读的)轻敲手表时,可穿戴计算设备202a可以检测到该轻敲,并经由网络204购买该书籍的电子版(例如,从商店计算设备202d)。可穿戴计算设备202a可以输出配置为通知用户书籍已被购买的触觉效果。可穿戴计算设备202a还可以与诸如用户的电子阅读器的另一电子设备(未示出)通信,并且发起该电子书向该电子设备的下载。在该书籍下载到电子设备时,可穿戴计算设备202a可以输出与下载进度相关联的触觉效果。例如,可穿戴计算设备202a可以随着下载进程来以渐增的频率输出振动。一旦该书籍完成了下载,可穿戴计算设备202a就可以输出另一触觉效果,诸如摇动的感觉。这可以通知用户书籍已经被下载到电子设备。
如上所述,系统200可以包括包装计算设备202b。例如,包装计算设备202b可以被嵌入在对象的包装内或者与之耦合。包装计算设备202b可以包括配置为检测与对象和/或对象的包装的用户交互的传感器(例如,加速度计、压力传感器、电容传感器、电阻传感器、3D成像系统或基于LED的追踪系统)。例如,传感器可以包括嵌入在对象的包装的一部分内的压力传感器。压力传感器可能能够检测用户的接触。基于来自传感器的信号,包装计算设备202b可以被配置为执行功能和/或输出触觉效果(例如,在用户接触对象时,直接向用户的手或手指输出触觉效果)。
例如,对象可以包括来自药房的药品。例如,包装计算设备202b可以例如被嵌入在药品容器的盖子内。在用户拾起药品容器并将其旋转360度时,包装计算设备202b可以检测用户交互,并且经由网络204订购该药品的补充。在一些实施例中,如果该补充被成功订购,则包装计算设备202b输出包括三个脉冲的触觉效果。如果该补充无法被订购(例如,因为用户已超出了补充配额),则包装计算设备202b可以输出摇动的感觉或者不输出触觉效果。
如上所述,系统200可以包括货架计算设备202c。货架计算设备202c可以包括配置为检测与对象的用户交互的传感器(例如,压力传感器、光或光学传感器、按钮、开关、加速度计、位置传感器、3D成像系统或者基于LED的追踪系统)。例如,传感器可以包括位于货架上的对象下方的压力传感器。传感器可以被配置为检测用户从货架上提起对象。基于来自传感器的信号,货架计算设备202c可以被配置为执行功能和/或输出触觉效果。例如,用户可以从货架上拿下对象。货架计算设备202c可以确定用户从货架上拿下了可以出售的具体对象的最后一个。货架计算设备202c可以通知(例如,经由文本消息、电子邮件或者其它警告系统)商店管理者该货架需要重新进货。
如上所述,系统200可以包括商店计算设备202d。商店计算设备202d可以与对象的卖方、制造商和/或分发商相关联。例如,商店计算设备202d可以由对象在其中销售的商店所拥有或者操作。商店计算设备202d可以便利对象的购买(例如,处理信用卡交易、优惠券、打折、商店奖励卡和/或以其它形式进行购买)。在一些实施例中,商店计算设备202d可以包括与对象相关联的数据(例如,在数据库中)。例如,商店计算设备202d可以包括名称、重量、尺寸、价格、折扣、制造商、配料表和/或与对象相关联的其它特性。一个或多个其它计算设备202a-c、202e-f可以与商店计算设备202d通信,以确定与对象相关联的特性。例如,可穿戴计算设备202a可以向商店计算设备202d传送与对象相关联的查询。商店计算设备202d可以接收该查询,并查阅数据库以确定商店中可用于销售的对象的数量。商店计算设备202d可以向可穿戴计算设备202a传送与该数量相关联的信号。
在一些实施例中,商店计算设备202d可以被配置为检测与对象的用户交互。例如,商店计算设备202d可以与交互传感器进行有线或无线通信。例如,交互传感器可以包括指向对象的深度传感器。在用户与对象交互时,商店计算设备202d可以确定要执行的功能(例如,向用户发送具有对象的折扣券的电子邮件)。基于对象和/或功能,商店计算设备202d可以使远程触觉输出设备206和/或另一计算设备202a-c、202e-f输出触觉效果。例如,商店计算设备202d可以向可穿戴计算设备202a传送配置为使可穿戴计算设备202a输出短振动的信号。这可以向用户警告用户将要接收对象的折扣券。
如上所述,系统200可以包括地面计算设备202e。在用户与对象进行交互时,地面计算设备202e可以执行功能和/或输出触觉效果(例如,振动)。例如,在用户触摸商店中的产品时,地面计算设备202e可以确定该产品是否正在销售。如果是,则地面计算设备202e可以输出高振幅振动。用户可以经由用户的脚或者另一身体部位感受到该触觉效果。在其它实施例中,地面计算设备202e可以包括与嵌入在地面中或耦合到地面的远程触觉输出设备206通信的计算设备。在用户与对象交互时,地面计算设备202e可以使远程触觉输出设备206(例如,向用户的脚或者另一个身体部位)输出触觉效果。
如上所述,系统200可以包括承载计算设备202f。在一些实施例中,在用户与对象交互时,承载计算设备202f执行功能和/或输出触觉效果。例如,用户可能正保持包括承载计算设备202f的购物篮。承载计算设备202f可以包括被配置为检测用户是否已将产品放入购物车的一个或多个传感器。在用户将产品放入购物车时,承载计算设备202f可以检测该产品,并从用户的数字购物列表中移除该产品。承载计算设备202f还可以确定产品的价格(例如,通过与商店计算设备202d通信或者经由互联网)。承载计算设备202f可以更新与购物车中的对象相关联的总价。在一些实施例中,如果总价超过阈值(例如,$150),承载计算设备202f可以输出触觉效果。这可以向用户通知用户已经超出了花销限制(例如,由用户输入或定制)。
如上所述,系统200可以包括手持或可持握计算设备202g。例如,可持握计算设备202g可以包括移动设备、电子阅读器、平板电脑、识别笔、触针或者笔。在一些实施例中,例如,可持握计算设备202g可以位于用户的裤子口袋(或者衬衣口袋)中。在用户与对象交互时,可持握计算设备202g可以执行功能和/或向用户的大腿(或者胸)输出触觉效果。在其它实施例中,例如,如在下文中关于图5B所述的,用户可以使用可握持计算设备202g作为中介来与对象交互。
系统200可以额外地或者替代性地包括位于其它位置或配置中的一个或多个计算设备。例如,系统200可以包括位于对象内的计算设备。例如,对象本身可以包括计算设备。在一些实施例中,在用户与对象交互(例如,拾起对象)时,计算设备可以执行功能和/或(例如,向用户的手)输出触觉效果。
在一些实施例中,计算设备202a-g中的任何一个都可以使其他计算设备202a-g(和/或远程触觉输出设备206)中的任何一个输出触觉效果。例如,用户可以在玩具商店中购买玩具。包装计算设备202b可以检测用户在玩具盒子上的轻敲。例如,包装计算设备202b可以包括配置为检测用户交互的压力传感器。在用户在玩具盒子上的轻敲时,包装计算设备202b可以基于来自压力传感器的传感器信号来检测用户交互。包装计算设备202b可以向(例如,穿戴在用户手腕上的)可穿戴计算设备202a传送信号。该信号可以使可穿戴计算设备202a查看用户的银行余额。在一些实施例中,如果用户有足够的钱购买该玩具,则可穿戴计算设备202a可以输出振动。
作为另一示例,包装计算设备202b可以检测用户从货架上拾起对象(例如,一盒谷物)。例如,包装计算设备202b可以包括加速度计。在用户拾起对象时,包装计算设备202b可以基于来自加速度计的传感器信号来检测用户交互。包装计算设备202b可以向远程触觉输出设备206传送信号。信号可以被配置为使远程触觉输出设备206在用户的头部输出一阵气流。这可以允许包装计算设备202b使触觉效果被输出到包装计算设备202b可能无法以其它方式向其输出触觉效果的用户的身体部位(例如,用户的头部)。
作为另一示例,用户可能正穿戴着包括相机的计算设备202a。在可穿戴计算(例如,经由相机)检测到用户正拿着鸡蛋时,可穿戴计算设备202a可以(例如,通过与冰箱通信,或者分析冰箱和/或蛋盒的图像)确定该鸡蛋是否是用户的冰箱里的最后一个鸡蛋。如果是,则可穿戴计算设备202a可以输出包括短振动的触觉效果。用户可以感受该短振动,作为关于用户是否想要购买更多蛋的查询。用户可以将鸡蛋旋转90度,这可以指示用户想要购买额外的鸡蛋。可穿戴计算设备202a可以检测到该旋转并向(例如,在远程杂货店处)商店计算设备202d传送信号。该信号可以使商店计算设备202d处理该购买,并布置使鸡蛋被递送到用户家。在该订购完成时,商店计算设备202d可以向可穿戴计算设备202a传送确认信号。该信号可以使可穿戴计算设备202a确定诸如脉冲振动的触觉效果。然后,可穿戴计算设备202a可以经由触觉输出设备输出该触觉效果。触觉效果可以指示该购买已成功。
图3示出了用于与对象进行触觉使能的交互的系统的实施例。系统300包括位于货架308上的对象306。对象306可以包括玩具、计算机、移动设备、汽车部件、电影、视频游戏、视频游戏控制器、器械、电视、医疗设备、机械或电子部件、遥控器、食物等。系统300可以与商店、仓库、饭店、医疗中心、车库、住宅、办公室、公寓或者其它位置相关联。
在图3所示的实施例中,使交互传感器315(例如,3D成像系统)指向对象306。交互传感器315可以检测与对象306的用户交互(例如,轻敲、触摸、在其上打手势、摇动、拿起、向其答手势等等)。例如,用户可以与对象306交互以执行与对象306相关联的功能(例如,打开网页、购买对象306、接收与对象306相关联的折扣、向列表添加对象306、从列表中移除对象306、下载与对象306相关联的文件等)。交互传感器315可以向一个或多个计算设备304、310、312、318传送传感器信号。基于用户交互,计算设备304、310、312、318中的一个或多个可以执行该功能。然后,该一个或多个计算设备304、310、312、318可以输出例如与该功能相关联的触觉效果。
在该示例中,系统300包括包含手环或者手表的可穿戴计算设备304。系统300还包括包装计算设备310、货架计算设备312、地面计算设备318和远程触觉输出设备314。远程触觉输出设备314可以与计算设备304、310、312、318有线或无线地通信。在一些实施例中,在用户与对象306交互时,一个或多个计算设备304、310、312、318可以执行与交互和/或对象306相关联的功能。例如,该功能可以包括与远程服务器通信以确定对象306是否正在出售。此外,计算设备304、310、312、318中的一个或多个可以使远程触觉输出设备314输出远程触觉效果。例如,如果对象306正在出售,则可穿戴计算设备304可以传送配置为使远程触觉输出设备314输出指向用户的手的超声压力波的信号。用户可以感受到在其手上作为振动的超声压力波。该触觉效果可以向用户指示对象306正在出售。在一些实施例中,如果对象306没有被出售,则可穿戴计算设备304可能不使远程触觉输出设备314输出触觉效果。触觉效果的缺失可以向用户指示对象306没有在出售。
图4显示了用于与对象触觉使能的交互的系统的另一实施例。在此实施例中,用户402正穿戴着包括戒指的计算设备406。用户402正通过在空中做出手势来与对象404进行交互。在一些实施例中,该手势可以指向对象404或者在距对象404的预定距离(例如,2英尺)内。例如,用户402可以在对象404前方挥手、指点、伸手去拿和/或使用手指在空中绘制符号。计算设备406可以检测该用户交互并确定用户手势。基于手势和/或对象404的特性,计算设备406可以确定要执行的功能。然后,计算设备406可以执行该功能和/或输出与该功能相关联的输出效果。
例如,用户402可以在空中做出手势以执行与对象404相关联的功能,例如,向通讯录或者地址簿添加在对象404上印刷的地址408(例如,回信地址)。在图4所示的实施例中,用户402在对象404前方在空中绘制“C”形状。计算设备406可以检测手势,并确定用户402正在做出“C”形手势。计算设备406将“C”形手势与向用户的通讯录或者地址簿添加联系人相关联。计算设备406可以进一步确定对象404包括一封邮件。基于该“C”手势,计算设备406可以确定与该封邮件相关联的(例如,写在该封邮件上的)地址(例如,地址408)。计算设备406可以向用户通讯录或者地址簿添加地址408。在一些实施例中,计算设备406可以输出包括轻微振动的触觉效果,以指示该地址被成功地添加到用户的通讯录。
在一些实施例中,对象404可以包括名片。地址408可以包括(例如,与商务相关联)电话号码。用户402可以在空中做出手势(例如,“C”形)以执行与对象404相关联的功能,例如,拨打电话号码。在一些实施例中,计算设备406可以检测该手势,并将该手势与拨打电话号码相关联。计算设备406可以确定与地址408相关联的电话号码,并拨打该电话号码。在一些实施例中,计算设备406可以进一步输出触觉效果,例如,以指示计算设备406已经发起了电话呼叫。
在一些实施例中,计算设备406可以处于“等待模式”。在等待模式下,计算设备406可以在执行任何功能之前等待检测与对象404的特定用户交互(例如,在对象404上轻敲、挤压对象404两次或者做出朝向对象404的捏合手势)。例如,如果计算设备406处于等待模式中,并检测到包括“C”形手势的用户交互,则计算设备406可以不向用户通讯录添加地址。在一些实施例中,在检测到特定用户交互时,计算设备406可以进入“功能执行”模式。一旦处于功能执行模式,计算设备406就可以执行与对象404的后续用户交互相关联的功能。例如,在进入功能执行模式时,如果计算设备406检测到用户402朝向对象404做出的“C”形手势,则计算设备406可以向用户的通讯录添加与对象404相关联的地址408。在一些实施例中,计算设备406可以,例如在检测到特定用户交互(例如,用户402摇手)之后或者在一段时间(例如,10秒)之后,返回等待模式。在一些实施例中,这可以允许用户402与对象404交互而不触发功能,直到用户打算触发这些功能。
图5A示出了用于利用触觉反馈进行对象操纵的系统的又一实施例。在该示例中,用户502正穿戴着包括计算设备506的手表。用户502正通过接触(例如,轻敲或者触摸)对象504来与对象504(例如,奶箱)进行交互。计算设备506可以经由交互传感器510(例如,嵌入在计算设备506内)检测该接触。例如,交互传感器510可以包括指向对象504的相机。基于接触和/或对象504的特性,计算设备506可以确定与对象404相关联的功能。然后,计算设备506可以执行该功能并且/或者经由触觉输出设备512输出与该功能相关联的触觉效果。
在一些实施例中,用户可以使用中介对象(例如,触针、笔、手杖或者扫描笔)以用于交互,并且计算设备506可以检测这样的交互。例如,如图5B所示,用户502可以使用包括移动电话的中介对象514来接触对象504。计算设备506可以检测到该接触并执行相关联的功能。例如,计算设备506可以检测该接触并拨打与对象504相关联的电话号码(例如,制造商的电话号码、支持电话号码或者产品信息电话号码)。在一些实施例中,中介对象514包括计算设备506(例如,而不是计算设备506与中介对象514分离)。例如,除了用户502将计算设备506穿戴在手腕上之外,移动电话可以是计算设备。
计算设备506可以检测对象504上任何位置的接触,或者与对象504上的特定位置(例如,标签)的接触。计算设备506可以检测接触的位置。例如,计算设备506可以检测用户接触了对象504的哪个部分(例如,顶部、底部、左侧、右侧、前部、后部、标签、图像、标志、一段文本等)。在一些实施例中,在用户与对象504的特定部分进行交互时,计算设备506可以执行功能。例如,用户502可以接触对象504上制造商的标志。计算设备506可以检测与制造商的标志的交互,并打开浏览器到制造商的网站。在用户与对象504的不同部分(例如,营养标签)交互时,计算设备506可以执行不同的功能(例如,计算设备506可以确定构成对象504的食品添加剂)或者完全不执行功能。
在一些实施例中,计算设备506可以检测接触,并确定与对象504相关联的信息。例如,用户502可以接触对象504以接收与对象504的价格相关联的信息。计算设备506可以检测该接触,并确定对象504的价格(例如,通过经由网络查询一个或多个服务器)。在一些实施例中,如果价格低于阈值(例如,由用户输入的),则计算设备506可以输出触觉效果(例如,脉冲振动)。这可以向用户502指示对象504具有用户502可接受的价格。在其它实施例中,计算设备506可以执行与其它本地商店的价格比较。计算设备506可以输出配置为通知用户502该价格可能比另一家本地(例如,方圆15英里之内)商店或者网上零售商更便宜的触觉效果(例如,包括两个脉冲振动)。
在一些实施例中,计算设备506可以检测与对象504的多个用户交互(或者包括多个接触的单个用户交互)。例如,在一些实施例中,对象504可以包括地图。用户502可以用手指在地图上的一个开始点触摸地图。用户502可以顺序地或者(使用另一手指)同时在目的地位置触摸地图。计算设备506可以检测用户交互,并执行一个或多个功能。例如,计算设备506可以检测这两个触摸,并检索从起始点到终点位置的驾驶方向。作为另一示例,计算设备506可以检测与包括地址的明显(或者另一对象504)的用户交互。例如,计算设备506可以检测用户502在名片上轻敲两次。计算设备506可以检测到这两次轻敲,并且例如将导航应用的目的地设置为该地址。
在一些实施例中,对象504可以包括虚拟对象。例如,虚拟对象可以在显示器508上被输出。在一个这样的实施例中,虚拟对象包括表示用户的冰箱中食品项的图像。例如,虚拟对象可以包括奶瓶、胡萝卜、一块肉等的图像。计算设备506可以被配置为检测与虚拟对象的用户交互。例如,用户502可以在显示器(例如,可以是触摸屏显示器)上与奶瓶相关联的位置双击。基于该用户交互,计算设备506可以确定与虚拟物体相关联的信息。例如,基于该双击,计算设备506可以确定,例如,用户502在用户的冰箱里有多少奶瓶。计算设备506可以输出与该信息相关联的触觉效果。例如,计算设备506可以输出与用户冰箱中奶的瓶数相等数目的脉冲振动。
在一些实施例中,功能包括输出声音。例如,计算设备506可以检测与对象504的用户交互,并确定与对象504相关联的商业广告。在一些实施例中,计算设备506可以输出与该商业广告相关联的音频(例如,与该商业广告相关联的音轨)。作为另一示例,计算设备506可以检测与对象504(例如,CD或者磁带)的用户交互,并确定与对象504相关联的歌曲。在一些实施例中,计算设备506可以输出该歌曲。计算设备506还可以输出包括与歌曲的特定部分合拍的脉冲振动的触觉效果。
作为另一示例,计算设备506可以检测与对象504相关联的用户交互,并确定对象504的价格。在一个实施例中,如果价格低于(例如,由用户输入的)阈值,则计算设备506可以输出收银机打开的声音(例如,“叮叮”声)。在一些实施例中,计算设备506还可以输出包括脉冲振动的触觉效果。声音和/或触觉效果可以通知用户对象504具有可接受的价格。
在一些实施例中,功能包括在显示器508上输出数据。例如,计算设备506可以响应于与对象504的用户交互而在显示器508上播放视频。例如,用户可以与包括电影海报的对象进行交互。在一些实施例中,计算设备506可以播放与电影海报相关联的电影预告片的视频。在一些实施例中,计算设备506还可以输出例如与电影预告片的特定部分合拍的一个或多个触觉效果(例如,计算设备506可以在电影预告片中汽车追逐期间输出强烈的振动)。
作为另一示例,用户502可以在商店中的对象504上轻敲。计算设备506可以确定商店剩余库存的对象504的数量(例如,通过查询与商店相关联的服务器)。在一些实施例中,计算设备506可以在显示器508上输出该数量。计算设备506还可以输出与该数量相关联的触觉效果(例如,如果该数量低于阈值的话)。
作为另一示例,用户502可以在商店中的对象504上轻敲。计算设备506可以确定商店中对象504的价格以及对象504的(例如,基于来自多家商店的价格确定的)平均价格。如果商店中的价格比对象504的平均价格低,则计算设备506可以在显示器508上输出单个美元符号。在一些实施例中,计算设备506还可以输出包括击打感觉的触觉效果。如果价格高于对象504的平均价格,则计算设备506可以在显示器508上输出三个美元符号。在一些实施例中,计算设备506还可以输出包括针刺感觉的触觉效果。如果用户502做出另一手势(例如,如果用户502再次轻敲对象504),则计算设备506可以购买对象504。在一些实施例中,在完成购买时,计算设备506可以在显示器508上输出通知。该通知可以警告用户对象504已经被购买。在一些实施例中,计算设备506可以替代地或者额外地输出触觉效果,例如,配置为通知用户502对象504被购买的触觉效果。因此,视频、触觉效果和/或声音可以用于向用户502提供关于对象504的信息。
在一些实施例中,计算设备506可以执行功能和/或与用户交互基本上同时地输出触觉效果。例如,计算设备506可以执行多个功能(例如,确定发生了与对象504的用户交互、确定对象504的特性并且基于该特性执行功能)。计算设备506还可以与用户交互基本上同时地输出与功能相关联的触觉效果。
图6示出了用于使用触觉反馈进行对象操纵的系统的另一实施例。在此示例中,用户602正穿戴着包括腕带的计算设备606。用户可以在对象604的表面做出手势以与对象进行交互。例如,用户可以在对象604的表面上执行两指捏合、沿表面移动多个手指或者在表面上做出标记。
在一些实施例中,计算设备606检测手势,并且基于该手势和/或对象604确定功能。例如,在图6中所示的实施例中,用户602正通过跨对象604的前表面纵向地移动手指来与对象604进行交互。对象604可以包括例如文档(例如,医疗记录)。例如,此用户可能正在做出此手势以打印文档的副本。基于该特定手势,计算设备606可以输出短振动。如果在预定时间段(例如,5秒)内没有检测到另一用户交互,则这可以向用户指示计算设备606将要打印该文档。计算设备606可以进一步以渐增的幅度和/或频率输出振动,直到该时间段结束。这可以向用户602指示用于取消该打印任务剩余的时间量。
在一些实施例中,如果用户602在该时间阶段结束前做出了取消手势,计算设备606可以检测该取消手势并取消该打印任务。该取消手势可以包括特定手势,诸如在对象604的表面上双击或者所有任何手势。计算设备606可以输出触觉效果(例如,摇摆)来向用户602指示该打印任务被取消。如果用户602不在该时间段内做出取消手势,则计算设备606可以使该文档被打印。在打印任务完成时,计算设备606可以输出触觉效果,例如,被配置为通知用户打印任务已完成的触觉效果。
在一些实施例中,用户602可以使用对象604作为用于交互的中介。计算设备606可以检测这样的交互。例如,用户602可以针对计算机监视器或复印机轻敲对象604(例如,文档)。在一些实施例中,计算设备606可以检测用户交互,并确定包括例如向虚拟键盘复制与对象604相关联的文本或者向虚拟位置保存与对象604相关联的文本的功能。计算设备606可以进一步输出短振动。这可以向用户指示计算设备606已经成功地复制或保存了与对象604相关联的文本。
在一些实施例中,用户交互可以包括产生多个对象604之间的交互。例如,用户602可以针对另一对象轻敲对象604。例如,用户602可以针对打印机轻敲一摞论文。在一些实施例中,计算设备606可以检测多个对象之间的交互,并且确定相关的功能。计算设备606可以执行该功能。例如,计算设备606可以检测该摞论文和打印机之间的交互,并使与该摞论文相关联的数据被打印。在一些实施例中,计算设备606还可以例如在该打印任务完成时输出触觉效果。这可以警告用户该打印任务完成。
在一些实施例中,多个对象604之间的特定交互可以(例如,经由查找表)被映射成特定功能。例如,包括轻敲一摞论文与微型模型打印机的交互可以与包括打印论文的副本的功能相关联。在一些实施例中,计算设备606可以检测这样的交互,并使论文的副本在打印机上被打印。作为另一示例,包括针对电话轻敲明显的交互可以与包括拨打与该名片相关联(例如,印在其上)的电话号码的功能相关联。在一些实施例中,计算设备606可以检测这样的交互并拨打该电话号码。
图7示出了用于利用触觉反馈进行对象操纵的系统的又一实施例。在一些实施例中,用户702可以通过使用对象704做出手势来与对象704交互。例如,用户702可以在真实空间中移动对象704(例如,使用对象在空中绘制字母或者数字、旋转对象、倾斜对象、将对象移动到特定位置等)。
在图7所示的实施例中,用户702正在上下摇动对象704。计算设备706可以被配置为基于该摇动交互执行一个或多个功能。例如,在一个实施例中,对象704可以包括闹钟。计算设备706可以检测到该摇动并设定(例如,与闹钟上当前输出的时间相关联或者由用户预先输入的)闹钟。计算设备706可以输出被配置为通知用户该闹钟已被设定的触觉效果(例如,单个脉冲振动)。如果用户702此后再次摇动对象704,则计算设备706可以关闭闹钟。计算设备706可以进一步输出被配置为通知用户该闹钟已被关闭的触觉效果(例如,三个脉冲振动)。
在另一实施例中,对象704可以包括汽车钥匙。计算设备706可以远离对象704,并且被配置为检测与汽车钥匙的交互。例如,计算设备706可以包括位于用户家中并指向汽车钥匙的相机。用户702可以轻摇该汽车钥匙,例如,当用户702正要离开用户的住宅时。计算设备706可以检测该轻摇,并且向预定义的朋友组(例如,由用户702输入的、用户的朋友或者第三方)传送文本消息或电子邮件。例如,文本消息或者电子邮件的内容可以包括“我在路上了!”。这可以向朋友指示用户正在会见该组的路上。
在一些实施例中,用户交互可以包括使用对象704将对象704移近用户身体的一部分(例如,脚、手臂、腿、肩、手、颈部、头、背、胸、胃、大腿等)或者接触用户身体的一部分。例如,用户702可能想要购买一瓶苏打水。用户702可以拾起一瓶苏打水并使用这瓶苏打水轻敲他的右大腿(例如,在他的右侧口袋中的钱包上)。计算设备706可以检测到该轻敲,并且确定用户702已经在家中的冰箱里拥有的对象704的数量。在一些实施例中,用户702可能已经将该数量输入到计算设备706中。例如,计算设备706可以执行购物列表应用。用户可能已经将该数量输入到购物列表应用中。计算设备706可以从购物列表应用中确定该数量。在其它实施例中,用户702可能拥有智能冰箱或者能够确定冰箱的内容并向计算设备706传送该数量的其它设备。如果用户702拥有的该产品的数量小于阈值(例如,用户702拥有少于三瓶苏打水),则计算设备706可以不输出触觉效果。如果用户702拥有的该产品的数量大于阈值,则计算设备706可以输出蜂鸣感觉。这可以帮助用户702做出更明智的购买决定。
在一些实施例中,用户交互可以包括投掷手势。例如,对象704可以包括墨水不足的笔。用户702可以拾起这支笔,并模拟将这支笔投掷越过用户的右肩。计算设备706可以检测到该投掷手势,并且基于该用户交互来例如从线上零售商购买更多笔。
在一些实施例中,用户交互可以包括将对象704移动到特定位置。例如,计算设备706可以检测用户拾起对象704并将其放置在自助服务机(例如,信息亭)上或自助服务机内。在一些实施例中,基于用户702将对象704放置在该特定位置中,计算设备706可以确定与对象704相关联的信息,诸如对象704是否正在出售。如果是,则计算设备706可以输出触觉效果(例如,短振动)。
在一些实施例中,用户交互可以包括移动对象704通过开口。例如,计算设备706可以检测到用户拾起对象704,并且离开商店(例如,步行穿过门口)。在一些实施例中,在用户702步行通过商店的出口(或者穿过商店的安全门或者传感器)时,计算设备706可以检测包括用户携带对象704的交互。计算设备706可以执行相关功能,诸如例如,购买对象704或者向商店保安报警。在一些实施例中,计算设备706可以输出例如配置为警告用户对象704已被购买、用户702正在离开商店而没有购买对象704或者商店的保安已经被通知的触觉效果(例如,强烈的振动)。
作为另一示例,计算设备706可以检测到用户拾起对象704并将对象704放进用户的购物车或手袋里。在一些实施例中,基于用户702移动对象704穿过用户的购物车或手袋的开口,计算设备706可以购买该对象。计算设备706还可以输出例如与该购买相关联的一个或多个触觉效果。
作为又一示例,计算设备706可以检测到用户移动对象704穿过环形对象。在一些实施例中,用户可以移动对象704穿过具有另一形状的对象,诸如方形或者矩形。例如,环形物体可以位于商店中货架的通道的一端。基于用户702移动对象704穿过环的开口,计算设备706可以执行功能。例如,在一些实施例中,计算设备706可以确定对象704的重量是否低于阈值。如果是,则计算设备706可以输出触觉效果。
在一些实施例中,计算设备706可以检测与对象704的多个用户交互(例如,在对象704前方做出手势、接触对象704、沿对象704的表面做出手势以及使用对象704做出手势)。计算设备706可以针对每个检测到的用户交互执行一个或多个功能。计算设备706可以进一步输出与一个或多个功能相关联的一个或多个触觉效果。例如,对象704可以包括用户家中的打印机。计算设备706可以检测用户将手指指向打印机,确定墨水的量是否不足,并输出与墨水量相关联的触觉效果。计算设备706还可以检测用户在打印机上轻敲三次,确定与打印机兼容的墨盒类型,并订购墨盒。
图8示出了用于使用触觉反馈的对象操纵的系统的又一实施例。在此示例中,对象包括另一人804。用户806可以例如通过与人804握手来与人804交互。与用户806相关联的计算设备802可以检测该交互,并基于该交互执行功能。
在一些实施例中,功能可以包括确定其他人804的特性。特性可以包括,例如,姓名、社会安全号码、资产净值、身高、年龄、继承权、头发颜色、国籍、眼睛颜色、医疗状况、信用评分、性别、信用卡号、用户名(例如,用于网站或帐户)、密码、性格、情绪、雇主、工作、嗜好、喜好和/或不喜欢的事物。计算设备802可以,例如,通过分析来自相机的人804的图像、执行互联网搜索(例如,使用人804的名字)、搜索社交媒体网站和/或搜索数据库(例如,公共记录数据库)来确定该特性。确定该特性的方法的其它示例将在下文进一步描述。
在一些实施例中,计算设备802基于从另一计算设备808和/或电子设备(例如,RFID标签)接收到(例如,无线地)的数据来确定该特性。其它计算设备808和/或电子设备可以被与其他人804相关联。例如,人804可以穿戴着包括生物传感器810的计算设备808。生物传感器810可以测量人804的心律、体温、血压、生物节律和/或其它生物特性。计算设备808可以向与用户806相关联的计算设备802传送此信息。在一些实施例中,计算设备802可以使用这些信息作为特性。在其它实施例中,计算设备802可以使用该信息来确定关于人804的特性。例如,计算设备802可以使用该信息来确定人804的情绪、体温或者情绪状态。在一个这样实施例中,例如,计算设备802可以基于包括高血压的信息来确定人804正在生气。在这样的实施例中,计算设备808可以输出,例如,被配置为警告用户806危险或者人804正在生气的触觉效果。
作为另一示例,计算设备808可以向计算设备802传送与社交联网网站相关联的用户名。计算设备802可以查阅该社交联网网站以确定与其他人804相关联的特质。
在其它实施例中,计算设备802可以分析与人804相关联的一个或多个图像和/或物理特征以确定该特性。例如,计算设备802可以使用相机捕获人804的图像。计算设备802可以使用该图像执行面部识别,读取与该人804相关联的姓名标签和/或以其它方式识别人804。然后,计算设备802可以与服务器(例如,社交网络、约会网站、搜索引擎或者个人网站)通信以确定关于人804的附加特性。
在一些实施例中,计算设备808执行另一功能和/或基于该特性输出触觉效果。例如,如果其他人804具有与用户806相同的兴趣爱好,则计算设备808可以在社交网络上将其他人804添加为好友。作为另一示例,如果其他人804与用户806国籍或信仰相同,则计算设备808可以输出包括振动的触觉效果。
在一些实施例中,对象包括动物(例如,猫、狗、龟、仓鼠、貂或者鸟)。在用户806与动物交互时,计算设备802可以确定该动物的一个或多个特性(例如,品种、过敏原信息、体温或者情绪)。计算设备802可以基于该特性执行功能和/或输出触觉效果。例如,计算设备802可以读取与动物相关联的RFID芯片,并查阅丢失动物名单(例如,在网站上)以确定该动物是否是丢失的。如果是,则计算设备802可以向所有者传送具有用户806的GPS坐标(或者电话号码)的电子邮件或者文本消息(或者在网站上发布消息)。这可以允许该动物与所有者重聚。
用于与对象进行触觉使能的交互的说明性方法
图9是根据一个实施例的用于执行用于提供使用触觉反馈进行对象操纵的方法的步骤的流程图。在一些实施例中,图9中的步骤可以以由处理器(例如,通用计算机、移动设备或者服务器中的处理器)执行的程序代码来实现。在一些实施例中,这些步骤可以通过一组处理器实现。在一些实施例中,图9所示的一个或多个步骤可以被省略或者以不同顺序执行。类似地,在一些实施例中,还可以执行图9中没有示出的附加步骤。根据上文关于图1中所示的计算设备101所述的组件描述以下步骤。
当处理器102接收传感器信号时,方法900在步骤902处开始。处理器102可以接收来自交互传感器132和/或附加传感器130的传感器信号。传感器信号可以包括与同对象的用户交互相关联的数据。例如,在一个实施例中,数据可以包括商店货架的一个或多个图像,其中,对象处于该货架上。在这样的实施例中,图像可以包括诸如对象、货架、其它附近的对象和用户的身体部位(例如,用户的手指)的特征。用户的身体部位可以接触或者接近该对象。
当处理器102基于传感器信号检测到用户交互时,方法900在步骤904处继续。例如,计算设备101可以位于对象内,并且交互传感器132可以包括加速度计。在用户摇动对象时,处理器102可以经由来自加速度计的传感器信号检测该摇动。作为另一示例,交互传感器132可以包括指向对象的3D成像系统。在用户在对象前方或者沿着对象的表面做出手势时,处理器102可以分析来自3D成像系统的图像。在分析该图像时,处理器102可以确定与用户的手相关的像素以与用户接触对象或者在对象附近打手势相关联的具体方式被定向。
在一些实施例中,用户交互包括从货架、桌子或者对象被放置的其它位置移除对象。例如,计算设备101可以内嵌入在对象所处的货架中。包括开关或者压力传感器的交互传感器132可以位于货架上方和对象下方。如果用户从货架上移除对象,则交互传感器132可以检测到压力的下降或者开关状态的改变,并且向处理器102传送传感器信号。基于该传感器信号,处理器102可以确定用户从货架上拿起了该对象。在一些实施例中,如果低压力仍然存在或者开关在预定的时间段(例如,2秒)中保持处于具体状态,处理器102可以确定用户拿着该对象。
在一些实施例中,用户交互包括在距对象的预定距离内放置计算设备101。例如,对象可以(经由网络接口设备110)向处理器102传送无线信号(例如,IEEE802.11、蓝牙、NFC信号或者RFID信号)。基于无线信号的存在或者强度(例如,如果该强度超过阈值),则处理器102可以确定对象是否处于距计算设备101的预定义的距离内(例如,3英寸)。如果是,则处理器102可以确定用户交互已发生。
作为另一示例,处理器102可以接收来自交互传感器132的GPS数据的第一集合。对象还可以包括GPS功能,并向计算设备101传送GPS数据的第二集合。处理器102可以将GPS数据的第一集合与GPS数据的第二集合进行比较,并确定在计算设备101和对象之间的相对距离。如果计算设备101在与对象的预定距离内,则处理器102可以确定用户交互已经发生。
当处理器102确定与用户交互相关联的特性时,方法900在906处继续。在一些实施例中,处理器102可以分析来自传感器130和/或交互传感器132的信号,以确定用户交互的方向、朝向、图案、压力量、速度和/或其它特性。
例如,在一些实施例中,计算设备101位于对象内,并且交互传感器132可以包括陀螺仪。处理器102可以基于来自陀螺仪的定向传感器信号来确定用户旋转该对象(以及旋转了多少)。作为另一示例,在一些实施例中,交互传感器132包括朝向对象的3D成像系统。处理器102可以分析来自3D成像系统的多个图像,以确定手势的特性。例如,处理器102可以分析多个图像,并确定用户在空中用手指做出了“Y”形。作为另一示例,在一些实施例中,计算设备101位于对象内,并且传感器130可以包括加速度计。处理器102可以接收来自加速度计的一个或多个传感器信号,并且确定例如用户正在摇动对象。
当处理器102确定与用户交互相关联的对象时,方法900在步骤908处继续。在一些实施例中,对象可以包括商店中的产品(例如,一盒谷物)、工具(例如,铁锤或者螺丝刀)、医疗设备(例如,套管针、针或者心跳监视器)、汽车、人类、动物等。
在一些实施例中,处理器102可以基于计算设备101与对象的接近来将用户交互与具体对象相关联。示例包括使用GPS数据和无线信号的强度(例如,如上步骤902中所述)来确定计算设备101是否处于与对象的预定距离内。如果是,则处理器102可以将对象与用户交互相关联。
在一些实施例中,处理器102基于用户交互与对象的接近来使用户交互与具体对象相关联。例如,用户可以在对象前方用手指打手势。交互传感器132可以检测该手势,并向处理器102传送传感器信号。处理器102可以分析该传感器信号以确定在手指和对象之间的距离。如果手指处于距对象的具体距离(例如,6英寸)内,则处理器102可以将该手势与对象相关联。
在一些实施例中,处理器102基于用户交互的方向或者定向来将用户交互与具体对象相关联。例如,用户可以指向用户有兴趣购买的对象。交互传感器132可以检测到该手势,并向处理器102传送传感器信号。处理器102可以分析该传感器信号,并确定该指示手势指向该对象。基于手势的方向,处理器102可以将该对象与该指示交互相关联。
在一些实施例中,处理器102通过将来自对象的传感器数据与来自计算设备101的传感器数据作比较来将用户交互与具体对象相关联。例如,用户可以穿戴包括计算设备101的手环。用户可以拾起并摇动对象。处理器102可以接收与来自手环之内的交互传感器132的摇动相关联的加速度计数据的第一集合。处理器102还可以接收来自对象的包装或者对象本身内的加速度计的加速度计数据的第二集合(例如,对象可以向计算设备101无线地通信该加速度计数据)。处理器102可以将加速度计数据的两个集合进行比较。例如,处理器102可以将加速度计数据的两个集合的峰值的时间戳进行比较。如果该两个时间戳的时间差小于阈值(例如,0.5s),则处理器102可以确定该摇动是关于该具体对象的。
作为另一示例,用户可以从货架上拾起对象。货架可以包括被配置为检测对象的移除并传送(例如,无线地)与对象何时从货架上移除相关联的时间戳的计算设备101。处理器102可以接收该时间戳,并将该时间戳和与来自交互传感器132的数据(例如,图像)相关联的时间戳作比较。如果两个时间戳之间的时间差小于阈值,则处理器102可以确定用户拾起了该具体对象。
当处理器102确定与对象相关联的特性时,方法900在步骤910处继续。在一些实施例中,处理器102可能依赖于对象交互检测模块124中编程来确定该特性。在一些实施例中,处理器102基于与用户交互相关联的特性确定与对象相关联的特性。例如,处理器102可以响应于不同的用户交互来确定与对象相关联的不同特性。例如,当用户用户轻敲食品产品时,处理器102可以确定食品产品的标签上的制造商。当用户沿食品产品的表面以“C”形移动手指时,处理器102可以确定食品产品的颜色。
在一些实施例中,处理器102基于有线的或无线的信号(例如,来自另一计算设备101)确定与对象相关联的特性。例如,对象可以包括计算设备101,或者货架可以包括计算设备101。对象或者货架可以传送关于对象的信息,该信息可以被处理器102接收。该信息可以包括,例如,与对象相关联的标识符(例如,名称、QR码、条形码、QR码、RFID码或者独特识别符)、分类(例如,产品的类型、制造商、生产商或者商标)、价格、折扣、优惠券或者功能(例如,产品是什么或者可以用于做什么)。例如,如果对象是洗发水瓶,则该信息可以精确地包括它是哪瓶洗发水(例如,货架上的第3号)、是什么种类的产品(例如,洗发水)、是什么特定产品(例如,用于精致秀发的千发廊洗发水)或者是什么品牌的产品(例如,千发廊品牌)。
在一些实施例中,处理器102使用互联网或者LAN确定该特性。处理器102可以经由互联网或者LAN与一个或多个服务器、数据库和/或网页进行通信,以确定该特性。例如,处理器102通过互联网(例如,使用对象的条形码)来查询多个数据库,以确定销售该对象的接近用户(例如,10英里内)的商店的数目。处理器102还可以确定哪家商店有最便宜的价格。
当处理器102确定功能时,方法900在步骤912处继续。在一些实施例中,处理器102可以依赖于功能确定模块125中的编程来确定该特性。
在一些实施例中,处理器102基于用户交互来确定功能。例如,处理器102可以响应于不同的用户交互来确定不同的功能。例如,在用户在乐队的海报上轻敲时,处理器102可以确定包括下载与该乐队相关联的MP3的功能。处理器102可以确定包括当用户沿音乐海报的表面猛击手指时,检索流行歌曲的歌词的功能。
在一些实施例中,处理器102基于对象的特性来确定功能。例如,处理器102可以基于对象的类型来确定功能。例如,在一些实施例中,在用户在书籍上轻敲时,处理器102可以确定包括向阅读列表添加该书籍的功能。在另一实施例中,在用户在电池上轻敲时,处理器102可以确定包括订购新电池的功能。
在一些实施例中,计算设备101可以存储相关联的“功能简档”,在该功能简档中,用户可以确定并在存储器104中保存用户想要与具体对象和/或用户交互相关联的功能的“简档”。例如,在一个实施例中,用户可以从选项的列表中选择用户想要与在文档上轻敲、沿着文档的表面滑动手指以及选择该文档相关联的功能。在一些实施例中,该列表可以包括,例如,下载文档的电子副本、打印文档以及以电子邮件的形式发送文档的电子副本。在这样的实施例中,处理器102可以查阅用户的功能简档以确定功能。例如,如果用户的功能简档将在文档上轻敲与下载文档的电子副本相关联,则响应于用户在文档上轻敲,处理器102可以确定包括下载文档的电子副本的功能。
在一个实施例中,处理器102使用互联网或LAN来确定功能。处理器102可以经由互联网或者LAN与一个或多个服务器、数据库、其它计算设备(例如,在对象、对象的包装、货架或者商店内)和/或网页进行通信。例如,处理器102可以通过互联网(例如,使用对象的条形码)查询服务器,以确定哪些功能是可以用的和/或与具体对象相关联。服务器可以向计算设备101传送对具体对象可用的功能的列表。计算设备101可以基于可用功能的列表来确定功能。
作为另一示例,计算设备101可以接收将用户交互映射成具体对象的功能的数据(例如,来自服务器)。例如,计算设备101可以接收针对具体对象将猛击手势映射成包括购买对象的功能。在计算设备101检测到用户交互时,计算设备101可以基于该数据确定对应的功能。这可以允许多个用户与具体对象进行交互以具有一致体验,因为每个计算设备101将基于类似的用户交互来执行的类似的功能。
作为另一示例,处理器102可以基于经由有线或无线信号(例如,从另一计算设备101)接收的对象的特性来确定功能。例如,货架计算设备可以传送关于对象的信息,该信息可以由处理器102接收。该信息可以包括,例如,与对象相关联的标识符(例如,名称、QR码、条形码、QR码、RFID码或者唯一的标识符)、分类(例如,产品的类型、制造商、生产商或者品牌)、价格、折扣、优惠券或者功能(例如,产品是什么或者可以用于做什么)。例如,如果对象是洗发水瓶,该信息可以精确地包括它是哪瓶洗发水(例如,货架上的第3号)、是什么种类的产品(例如,洗发水)、是什么特定产品(例如,用于精致秀发的千发廊洗发水)或者是什么品牌的产品(例如,千发廊品牌)。基于该特性,处理器102可以确定一个或多个功能。
当处理器102执行该功能时,方法900在步骤914处继续。在一些实施例中,处理器102可以通过执行一个或多个子功能来执行该功能。例如,如果该功能包括经由互联网以可获得的最便宜的价格购买对象,则处理器102可以与多个服务器(例如,搜索引擎和一个或多个网站)通信来确定可以通过其在线购买对象的所有商店。处理器102还可以确定哪个商店具有最便宜的价格。处理器102可以进一步从具有最便宜的价格的商店购买该对象(例如,经由商店的网站或者另一服务器)。
当处理器102确定触觉效果时,方法900在步骤916处继续。在一些实施例中,处理器102可以确定与该功能相关联的触觉效果。例如,处理器102可以确定与该功能的类型相关联的触觉效果。例如,在一个实施例中,如果该功能包括向列表添加实体,则处理器102可以确定包括短振动的触觉效果。在这样的实施例中,如果该功能包括从列表中移除实体,则处理器102可以确定包括三个短振动的触觉效果。这可以向用户指示执行(或者在将来将要执行)哪个功能。
在一些实施例中,处理器102确定被配置为指示功能已经被执行的触觉效果。例如,一旦功能已经执行,则处理器102可以确定包括重击感觉的触觉效果。这可以向用户指示该功能被执行。在一些实施例中,处理器102可以基于执行功能的结果来确定不同的触觉效果。例如,如果功能被成功执行,则处理器102可以输出与功能没有被成功执行时不同的触觉效果。
在一些实施例中,处理器102确定被配置为指示对象是否可以被操纵以输入数据和/或执行特定功能的触觉效果。例如,如果例如可以通过执行与对象的手势(例如,摇动该对象)来购买该对象,则处理器102可以检测用户拾起对象并输出触觉效果(例如,振动)。如果无法通过执行与对象的手势来购买该对象,则处理器102可以不输出触觉效果。因此,在一些实施例中,触觉效果可以向用户指示对象是否可以被操纵来执行特定任务。
在一些实施例中,处理器102确定与功能被执行的进程相关联的触觉效果。例如,处理器102可以确定包括以与下载的进程或者媒体文件的重放相关联的频率和/或时段进行的脉冲振动的触觉效果。这可以向用户指示在功能完成执行或者媒体文件完成播放之前剩余多长时间。在一些实施例中,处理器102确定与功能的取消(例如,在被执行之前或者当功能正在执行时)相关联的触觉效果。例如,如果用户在执行功能之前(或者在执行功能期间),用户取消了功能的执行,则处理器102可以确定包括针刺感觉的触觉效果。
在一些实施例中,处理器102确定被配置为指示计算设备101正在等待附加用户输入和/或功能的状态的触觉效果。例如,计算设备101可以检测与对象的交互。基于该交互,计算设备101可以确定包括购买该对象的功能。计算设备101可以将所有用户的细节输入到购买订单中,并等待用户提供对完成该购买的确认。计算设备101可以输出被配置为警告用户计算设备101正在等待用户的确认的触觉效果(例如,振动)。在用户执行与对象的另一交互(例如,将对象选择90度)时,计算设备101可以完成该购买。一旦该购买完成,计算设备101就可以输出另一触觉效果,例如,以指示该购买被完成。
在一些实施例中,处理器102基于与用户交互相关联的特性来确定触觉效果。例如,处理器102可以基于用户交互的类型、位置、持续时间或者其它特性来确定触觉效果。例如,如果用户接触产品的特定部分,诸如营养标签,则处理器102可以确定包括振动的触觉效果。作为另一示例,如果用户交互包括沿对象表面的猛击,则处理器102可以确定触觉效果,并且如用户交互包括在对象上的轻敲,则不确定触觉效果。
在一些实施例中,计算设备101可以存储关联的“触觉简档”,其中,用户可以确定并且在存储器104中保存用户希望与具体功能和/或用户交互相关联的触觉效果的“简档”。例如,在一个实施例中,用户可以从选项的列表中选择用户希望与诸如确定对象的价格、打印与对象相关联的文件、打开与对象相关联的网页或者确定对象的材料相关联的触觉效果。在一些实施例中,列表可以包括例如触觉效果,诸如低振幅振动、脉冲振动、高振幅振动或模拟的质地。在一些实施例中,处理器102可以查询用户的触觉简档,以确定要生成哪个触觉效果。例如,如果用户的触觉简档使本地生产的产品与包括低频振动的触觉效果相关联,则响应于用户接触本地制造的巧克力棒,处理器102可以确定包括低频振动的触觉效果。
在一些实施例中,处理器102可以确定默认的触觉效果。例如,如果处理器102无法执行功能(例如,无法执行应用、购买产品或者下载文件),则处理器102可以确定包括振动的触觉效果。这可以警告用户该操作不能被执行。
例如,计算设备101可以被配置为如果用户与很昂贵的产品(例如,价格高于阈值)交互,则输出摇摆。计算设备101可以被配置为,如果用户与不太昂贵的产品交互,则不输出触觉效果。在这样的实施例中,如果处理器102无法确定该产品的价格(例如,由于无法连接到互联网),则处理器102可以确定包括三个脉冲振动的触觉效果。因此,这三个脉冲振动可以警告用户处理器102无法确定价格,而不是使计算设备101不输出触觉效果,这可能错误地导致用户相信该产品不太昂贵。然后,用户可以阅读价格标签,或以其它方式确定该产品是否很昂贵。
在一些实施例中,处理器102基于用户的特性确定触觉效果。例如,如果处理器102确定用户是男性,则处理器102可以确定与在处理器102确定了用户是女性时不同的触觉效果。作为另一示例,如果用户年龄小于40岁,则处理器102可以确定与用户年龄超过40岁时不同的触觉效果。以这种方式,可以为不同的人群定制触觉效果,这可以改善用户对该触觉效果的响应。
在一些实施例中,处理器102确定多个触觉效果。该多个触觉效果中的每一个可以与不同的功能相关联。例如,处理器102可以确定与确定对象的尺寸是否低于阈值相关联的触觉效果(例如,长振动)。处理器102还可以确定与向购物列表添加对象相关联的触觉效果。基于该多个触觉效果,用户可能能够确定已经执行了多个不同的功能(例如,确定对象的尺寸以及已经向购物列表中添加该对象),例如,而不需要测量对象或与触摸屏用户界面进行交互(这可能是乏味并耗时的)。
在一些实施例中,处理器102确定特定触觉效果具有比另一触觉效果更高的优先级,并且因此仅输出该高优先级的效果。例如,在上文中尺寸和购物列表示例中,处理器102可以确定与尺寸相关联的触觉效果具有比其它效果(例如,与向购物列表添加对象相关联的触觉效果)更高的优先级,并从而仅输出该尺寸触觉效果。替代地,处理器102可以确定仅应输出最强烈的效果。因此,在一些实施例中,处理器可以确定低强度振动和高强度振动,但仅输出高强度振动。
在一些实施例中,处理器102可以确定被配置为使得与对象的交互更容易或者更困难的出具效果。例如,对象可以位于货架上。在用户与对象进行交互时,处理器102可以确定该对象包括对用户有害的药物。基于该有害的药物,处理器102可以向包装计算设备传送信号。包装计算设备可以接收该信号,并输出配置为降低对象的包装的表面上被感受到的摩擦系数的触觉效果。这可以使得对用户来说握住或握持该对象以便将它拾起会更具有挑战性。此外,在一些实施例中,对象(例如,对象的包装)可能具有金属底部。基于该有害药物,处理器102可以向货架计算设备传送信号。货架计算设备可以接收该信号,并且促动被配置为向对象的金属底部施加强磁场的电磁设备。这可以使得对于用户来说从货架上拿起该对象会更具有挑战性。
作为另一示例,对象的包装可以环绕诸如货架的另一对象而变形(例如,保护对象不受货架的损害)。例如,货架可以包括栏杆,包装(或者对象)环绕该栏杆弯曲以保护该对象不受栏杆的损害。在一些实施例中,在用户与对象交互时,处理器102可以向位于对象的包装内的包装计算设备传送数据(例如,购买收据代码、名称、信用卡号或者消费者识别符)。该数据可以指示用户已经(例如,在线上)购买了该商品,或者可以以其它方式与产品的购买相关联(例如,该数据可以包括对象可以用于进行实时购买的信用卡号码)。基于该数据,在一些实施例中,包装计算设备可以输出被配置为使包装的形状变形的触觉效果。例如,包装计算设备可以输出被配置为将包装从环绕栏杆的状态变为展平(例如,不保护对象不受货架的损害)的触觉效果。这可以允许用户拿起该对象。
当处理器102输出该触觉效果时,方法900在步骤918处继续。处理器102可以向触觉输出设备118传送与触觉效果相关联的触觉信号,触觉输出设备118输出该触觉效果。该触觉效果可以包括质地(例,沙的、不平整的或者光滑的)、振动、所感受到的摩擦系数的改变、温度变化、击打的感觉、电触觉效果或者变形(即,与计算设备101相关联的表面的变形)。
此外或替代地,在一些实施例中,计算设备101可以在显示器上输出信息和/或声音。声音和/或信息可以与对象的特性和/或功能相关联。例如,用户可以在玩具上轻敲。计算设备101可以确定玩具的名称,并且基于该名称,确定是否执行包括在显示器上输出该玩具的名称的功能。计算设备101还可以包括确定该玩具是否在生日列表上(例如,由用户的朋友们制定的)。如果是,则计算设备101可以执行包括输出声音的功能。该声音可以包括哔哔声。这可以向用户通知用户已经与生日列表上的商品进行了交互。
与对象进行触觉使能的交互的益处
与对象进行触觉使能的交互有许多益处。这样的系统可以快速并有效地提供关于对象的信息。例如,用户可以在对象上轻敲并基本上同时地(例如,经由触觉效果)接收到关于对象的价格的信息。这可以比例如使用移动设备查找这样的信息或者向商店员工咨询更快速和容易。
在一些实施例中,与对象的触觉使能的交互可以允许用户快速并方便地执行一个或多个功能(例如,数字操作)。例如,计算设备可以检测与膝上型计算机的用户交互(例如,用户沿该膝上型计算机的显示器的表面用手指绘制“A”)。基于该用户交互,计算设备可以向该膝上型计算机传送被配置为使该膝上型计算机执行硬件分析的一个或多个信号。计算设备可以接收来自该膝上型计算机的与从该硬件分析中确定的任意失效的硬件组件相关联的数据。计算设备可以进一步经由互联网订购一个或多个该失效的硬件组件。因此,计算设备可以快速并方便地执行对用户来说可能很麻烦的多个数字操作。
在一些实施例中,与对象的触觉使能的交互可以允许用户确定一个或多个功能和/或计算设备的状态。例如,用户可以想要下载正在广播中播放的歌曲的副本。当歌曲正在播放时,用户可以在MP3播放器上轻敲两次。计算设备可以检测到这两次轻敲,开始经由麦克风记录音频,并分析该音频以便识别该歌曲。如果计算设备不能识别该歌曲,计算设备可以输出嗡嗡的感觉,例如,以便向用户指示计算设备不能下载该歌曲。如果计算设备可以识别该歌曲,计算设备可以输出高频振动,例如,以便向用户指示计算设备已成功地识别了该歌曲。此后,在一些实施例中,计算设备可以等待接收另一个手势以便确认该下载。计算设备可以输出指示计算设备正在等待另外的用户输入的三个短振动。计算设备可以检测用户的第三次轻敲并从服务器下载该MP3。在该下载完成时,计算设备可以输出摇摆的感觉,例如,以便向用户指示该下载已经完成。
一般解决方案
上面讨论的方法、系统和设备是示例性的。各种配置可以省略、替代或添加合适的各种程序或组件。例如,在替代性配置中,方法可以以不同于所描述的顺序执行,和/或不同的阶段可以被添加、省略、和/或合并。同时,关于一些配置所描述的特性可以被组合进各种其它配置。配置的不同的方面和元素可以以相似的方式结合。并且,技术是发展的,从而,许多元素只是示例,并且不限制公开或要求的范围。
在说明书中给出的具体细节提供了示例配置(包括实现)的全面的理解。然而,配置可以脱离这些具体细节而被实现。例如,众所周知的电路、过程、算法、结构和技术已被去除不必要的细节地展示,以避免使配置模糊。本说明书只是提供了示例配置,而不是对权利要求的范围、适用性、或配置的限制。相反,前面的配置的说明书将为那些本领域技术人员提供使实现所描述的技术成为可能的说明书。在不脱离本公开的精神或范围的情况下,在元素的功能和安排中可以做出各种改变。
同样,配置也可以被描述为以流程图或框图形式描绘的过程。尽管每个可能将操作描述为相继的过程,许多操作可以并行地或者同时地执行。此外,操作的顺序可以被重新安排。过程可以具有不包括在图中的额外步骤。此外,方法的示例可以由硬件、软件、固件、中间件、微码、硬件描述语言、或者其任意组合实现。当以软件、固件、中间件或微码实现时,执行必要任务的程序代码或代码段可以被存储在非易失性计算机可读介质,如存储介质之中。处理器可以执行所述任务。
在不脱离本公开的精神的情况下,已经描述的若干示例配置、各种修改、替代结构、和等价物可以被使用。例如,上面的元素可以是更大的系统的组件,在这样的系统中,其它规则可能更为优先,或者修改本发明的应用。同样,许多步骤可以在上面的元素被考虑之前、期间或之后被施行。相应地,上面的说明书并不限制权利要求的范围。
此处的“适于”或“被配置为”的使用意指开放和包容的语言,不排除适于或被配置为执行额外任务或步骤的设备。此外,“基于”的使用是开放和包容的意思,在其中,过程、步骤、计算、或“基于”一个或多个被列举的条件或值的其它动作,在实践中,可以基于除了那些所列举的以外的额外条件或值。此处包括的标题、列表和编号仅仅是为了方便解释,其目的并非是为了限制。
根据本主题的方面的实施例可以以数字电子电路、计算机硬件、固件、软件、或以前述的组合实现。在一个实施例中,计算机可以包括处理器或多个处理器。处理器包括或有权访问计算机可读介质,如耦合到处理器的随机存取存储器(RAM)。处理器执行存储在存储器中的计算机可执行的程序指令,如执行包括传感器采样例程、选择例程、和执行上文所述方法的其它例程的一个或多个计算机程序。
这样的处理器可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和状态机。这样的处理器可以进一步包括可编程电子设备,如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电子可编程只读存储器(EPROM或EEPROM)或其它类似的设备。
这样的处理器可以包括介质,或者与之通信,该介质的例子包括可以存储指令的实体的计算机可读介质,当该指令由处理器执行时,可以导致处理器执行此处所述的由处理器实施或协助的步骤。计算机可读介质的实施例可以包括,但不限于,所有电子的、光学的、磁的、或能够向处理器如web服务器中的处理器,提供计算机可读指令的存储设备。其它介质的示例包括但不限于,软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其它磁性介质、或计算机处理器可以从其读取的任何其它介质。同样,各种其它设备可以包括计算机可读介质,如路由器、私有或公共网络,或其它发送设备。处理器以及处理,可能在一个或多个结构中描述,并且可以分散到一个或多个结构中。处理器可以包括用于执行此处描述的一个或多个方法(或部分方法)的代码。
虽然本主题已经关于其特定实施例进行了详细描述,那些本领域技术人员可以领会,依据对前述事项的理解的获得,可以很容易产生对这样的实施例的变更、变化、和等同物。相应地,应该理解,本公开是为了示例而不是限制的目的而提出的,并且不排除对本领域的普通技术人员来说是显而易见的对本主题的这样的修改、变化和/或添加的内含物。
Claims (20)
1.一种计算设备,包括:
传感器,所述传感器被配置为检测与物理对象的用户交互,并传送与所述用户交互相关联的传感器信号;
处理器,所述处理器与所述传感器通信,所述处理器被配置为
接收所述传感器信号;
基于所述传感器信号确定与所述物理对象相关联的特性;
至少部分基于所述特性确定功能;
确定与所述功能相关联的触觉效果;并且
传送与所述触觉效果相关联的触觉信号;以及
触觉输出设备,所述触觉输出设备与所述处理器通信,所述触觉输出设备被配置为接收所述触觉信号,并输出所述触觉效果。
2.根据权利要求1所述的计算设备,其中,所述功能包括下述中的至少一个:
经由网络订购产品、打印文档、打开网页、打开应用、发送电子邮件、向列表中添加第一条目、从所述列表中移除第二条目、发送文本消息、确定关于物理对象的信息、设置虚拟闹钟、选择程序选项或者设置、记录声音、输出声音、播放媒体内容、打开电子书、执行计算、向地址簿或者通讯录添加第三条目、执行价格比较、与网站的用户账户交互、下载MP3、或者检查银行余额。
3.根据权利要求1所述的计算设备,其中,所述处理器被进一步配置为执行所述功能。
4.根据权利要求1所述的计算设备,其中,所述传感器包括下述中的至少一个:
加速度计、陀螺仪、相机、射频识别(RFID)标签、RFID读取器、室内接近系统、3D成像系统、近场通信设备、全球定位系统、超声换能器、无线接口、红外线传感器、深度传感器或者距离传感器。
5.根据权利要求1所述的计算设备,其中,所述计算设备与可穿戴设备相关联,所述可穿戴设备包括鞋子、臂带、袖套、夹克、眼镜、手套、戒指、手表、腕带、手镯、衣物、帽子、头带、或者珠宝,或者其中,所述计算设备与可握持设备相关联,所述可握持设备包括移动电话、平板电脑、电子阅读器、便携式游戏设备、识别笔、触针或者笔。
6.根据权利要求1所述的计算设备,其中,所述处理器进一步被配置为:
确定与所述用户交互相关联的第二特性;并且
至少部分地基于所述第二特性来确定所述触觉效果。
7.根据权利要求1所述的计算设备,其中,所述计算设备被耦合到货架、承载设备或者所述物理对象的包装。
8.根据权利要求1所述的计算设备,其中,所述触觉输出设备远离所述计算设备,并且被配置为输出远程触觉效果,所述远程触觉效果包括振动、质地、所感受到的摩擦系数的改变、超声压力波或者一阵气流中的至少一个。
9.一种方法,包括:
接收来自传感器的传感器信号,其中,所述传感器信号与同物理对象的用户交互相关联;
基于所述传感器信号确定所述物理对象的特性;
至少部分地基于所述特性确定功能;
确定与所述功能相关联的触觉效果;以及
传送与所述触觉效果相关联的触觉信号,其中,触觉输出设备被配置为接收所述触觉信号,并输出所述触觉效果。
10.根据权利要求9所述的方法,其中,所述功能包括下述中的中的至少一个:
经由网络订购产品、打印文档、打开网页、打开应用、发送电子邮件、向列表中添加第一条目、从所述列表中移除第二条目、发送文本消息、确定关于所述物理对象的信息、设置虚拟闹钟、选择程序选项或者设置、记录声音、输出声音、播放媒体内容、打开电子书、执行计算、向地址簿或者通讯录添加第三条目、执行价格比较、与网站的用户账户交互、下载MP3、或者检查银行余额。
11.根据权利要求9所述的方法,进一步包括执行所述功能。
12.根据权利要求9所述的方法,其中,所述传感器与可穿戴设备相关联,所述可穿戴设备包括鞋子、臂带、袖套、夹克、眼镜、手套、戒指、手表、腕带、手镯、衣物、帽子、头带、或者珠宝,或者其中所述传感器与可握持设备相关联,所述可握持设备包括移动电话、平板电脑、电子阅读器、便携式游戏设备、识别笔、触针或者笔。
13.根据权利要求9所述的方法,其中,所述物理对象远离所述传感器。
14.根据权利要求9所述的方法,其中,所述传感器被耦合到货架、承载设备或者所述物理对象的包装。
15.根据权利要求9所述的方法,其中,所述触觉输出设备远离所述传感器,并且被配置为输出远程触觉效果,所述远程触觉效果包括振动、质地、所感受到的摩擦系数的改变、挤压的感觉、超声压力波或者一阵气流中的至少一个。
16.一种包括程序代码的非瞬时计算机可读的介质,当处理器执行所述程序代码时,所述程序代码被配置为使得所述处理器:
接收来自传感器的传感器信号,其中所述传感器信号与同物理对象的用户交互相关联;
基于所述传感器信号确定所述物理对象的特性;
至少部分地基于所述特性确定功能;
确定与所述功能相关联的触觉效果;以及
传送与所述触觉效果相关联的触觉信号,其中,触觉输出设备被配置为接收所述触觉信号并输出所述触觉效果。
17.根据权利要求16所述的非瞬时计算机可读的介质,其中,所述功能包括下述中的至少一个:
经由网络订购产品、打印文档、打开网页、打开应用、发送电子邮件、向列表中添加第一条目、从所述列表中移除第二条目、发送文本消息、确定关于所述物理对象的信息、设置虚拟闹钟、选择程序选项或者设置、记录声音、输出声音、播放媒体内容、打开电子书、执行计算、向地址簿或者通讯录添加第三条目、执行价格比较、与网站的用户账户交互、下载MP3、或者检查银行余额。
18.根据权利要求16所述的非瞬时计算机可读的介质,其中,所述传感器与可穿戴设备相关联,所述可穿戴设备包括鞋子、臂带、袖套、夹克、眼镜、手套、戒指、手表、腕带、手镯、衣物、帽子、头带、或者珠宝,或者其中所述传感器与可握持设备相关联,所述可握持设备包括移动电话、平板电脑、电子阅读器、便携式游戏设备、识别笔、触针或者笔。
19.根据权利要求16所述的非瞬时计算机可读的介质,进一步包括程序代码,当处理器执行所述程序代码时,所述程序代码配置为使得所述处理器执行所述功能。
20.根据权利要求16所述的非瞬时计算机可读的介质,其中,所述传感器被耦合到货架、承载设备或者所述物理对象的包装。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/577,565 US9658693B2 (en) | 2014-12-19 | 2014-12-19 | Systems and methods for haptically-enabled interactions with objects |
US14/577,565 | 2014-12-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105718045A true CN105718045A (zh) | 2016-06-29 |
Family
ID=55024842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510964445.6A Pending CN105718045A (zh) | 2014-12-19 | 2015-12-21 | 用于与对象进行触觉使能的交互的系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9658693B2 (zh) |
EP (1) | EP3035162A1 (zh) |
JP (1) | JP2016119092A (zh) |
KR (1) | KR20160075333A (zh) |
CN (1) | CN105718045A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503134A (zh) * | 2016-10-19 | 2017-03-15 | 广东欧珀移动通信有限公司 | 浏览器跳转至应用程序的数据同步方法及装置 |
CN106919282A (zh) * | 2017-02-10 | 2017-07-04 | 南昌欧菲显示科技有限公司 | 触觉反馈显示屏 |
US9990041B2 (en) | 2014-12-19 | 2018-06-05 | Immersion Corporation | Systems and methods for object manipulation with haptic feedback |
CN108351699A (zh) * | 2016-07-06 | 2018-07-31 | 华为技术有限公司 | 交互设备、系统和方法 |
CN108509028A (zh) * | 2017-02-24 | 2018-09-07 | 意美森公司 | 用于虚拟情感触摸的系统和方法 |
CN109040578A (zh) * | 2017-06-09 | 2018-12-18 | 意美森公司 | 具有多图像捕获能力的触觉启用设备 |
CN109477721A (zh) * | 2016-07-22 | 2019-03-15 | 哈曼国际工业有限公司 | 利用触觉换能器设备的回声定位 |
CN109564652A (zh) * | 2016-07-21 | 2019-04-02 | 电子湾有限公司 | 用于动态库存管理的系统和方法 |
CN109997096A (zh) * | 2016-11-17 | 2019-07-09 | 索尼公司 | 振动呈现装置、振动呈现方法和程序 |
CN110249361A (zh) * | 2017-02-13 | 2019-09-17 | 宝洁公司 | 感觉刺激性人工制品 |
US10606359B2 (en) | 2014-12-19 | 2020-03-31 | Immersion Corporation | Systems and methods for haptically-enabled interactions with objects |
CN111526928A (zh) * | 2018-01-03 | 2020-08-11 | 环球城市电影有限责任公司 | 用于游乐园的交互部件 |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102297473B1 (ko) * | 2014-07-15 | 2021-09-02 | 삼성전자주식회사 | 신체를 이용하여 터치 입력을 제공하는 장치 및 방법 |
US20160196104A1 (en) * | 2015-01-07 | 2016-07-07 | Zachary Paul Gordon | Programmable Audio Device |
CN105138076B (zh) * | 2015-08-03 | 2020-01-31 | 联想(北京)有限公司 | 一种电子设备的控制方法及电子设备 |
US9990078B2 (en) | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
US10216998B2 (en) * | 2016-01-06 | 2019-02-26 | Orcam Technologies Ltd. | Methods and systems for visual pairing of external devices with a wearable apparatus |
US9971408B2 (en) * | 2016-01-27 | 2018-05-15 | Ebay Inc. | Simulating touch in a virtual environment |
US10163282B2 (en) * | 2016-03-30 | 2018-12-25 | Intermec, Inc. | Systems and methods for authentication |
US10546328B2 (en) * | 2016-08-04 | 2020-01-28 | Walmart Apollo, Llc | In-store navigation systems and methods |
US10109162B2 (en) * | 2016-09-01 | 2018-10-23 | Immersion Corporation | Haptic effect enabled system using fluid |
US10762641B2 (en) * | 2016-11-30 | 2020-09-01 | Whirlpool Corporation | Interaction recognition and analysis system |
JP2018106535A (ja) * | 2016-12-27 | 2018-07-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
US10639510B2 (en) * | 2017-03-20 | 2020-05-05 | The Trustees Of Columbia University In The City Of New York | Human musculoskeletal support and training system methods and devices |
EP4250066A3 (en) | 2017-03-21 | 2023-11-29 | InterDigital VC Holdings, Inc. | Method and system for the detection and augmentation of tactile interactions in augmented reality |
EP3642798A4 (en) * | 2017-06-20 | 2020-12-16 | Hewlett-Packard Development Company, L.P. | DETERMINATIONS OF SENSOR POSITIONS |
US20190147653A1 (en) * | 2017-07-19 | 2019-05-16 | Sounds Food, Inc. | Techniques for facilitating interactions between augmented reality features and real-world objects |
IL254235A0 (en) * | 2017-08-31 | 2017-10-31 | Kerem Zohar | System and method for monitoring conditions of organic products |
US10509473B2 (en) | 2017-09-21 | 2019-12-17 | Paypal, Inc. | Providing haptic feedback on a screen |
JP7390891B2 (ja) | 2017-11-07 | 2023-12-04 | 株式会社 資生堂 | クライアント装置、サーバ、プログラム、及び、情報処理方法 |
US20190171997A1 (en) * | 2017-12-01 | 2019-06-06 | C. Rachelle Roach | Systems and Methods for Product Expiration Date Management |
WO2019183352A1 (en) * | 2018-03-21 | 2019-09-26 | JANUS Research Group, Inc. | Systems and methods for positional tracking in a virtual reality system |
US11157042B1 (en) | 2018-03-28 | 2021-10-26 | Douglas Patton | Systems and methods for interaction of wearable communication devices |
WO2019229698A1 (en) | 2018-05-31 | 2019-12-05 | Purple Tambourine Limited | Interacting with a virtual environment using a pointing controller |
US20190392641A1 (en) * | 2018-06-26 | 2019-12-26 | Sony Interactive Entertainment Inc. | Material base rendering |
US10685552B2 (en) * | 2018-06-26 | 2020-06-16 | Capital One Services, Llc | Condition-responsive wearable device for sensing and indicating proximity of an article with a specific characteristic |
CN109697652A (zh) * | 2018-06-29 | 2019-04-30 | 京东方科技集团股份有限公司 | 一种商场的商品推荐方法和服务器 |
US10976820B2 (en) * | 2018-07-12 | 2021-04-13 | Microsoft Technology Licensing, Llc | Natural interactions with virtual objects and data through touch |
CN110874134A (zh) * | 2018-08-31 | 2020-03-10 | 哈曼国际工业有限公司 | 可佩戴电子装置及姿势控制的系统和方法 |
US11087520B2 (en) | 2018-09-19 | 2021-08-10 | XRSpace CO., LTD. | Avatar facial expression generating system and method of avatar facial expression generation for facial model |
US10620724B1 (en) | 2018-11-26 | 2020-04-14 | International Business Machines Corporation | Pressure-sensitive authentication |
EP3683657A1 (en) * | 2019-01-21 | 2020-07-22 | Nokia Technologies Oy | Rendering messages in response to user-object interaction |
US10928889B1 (en) | 2019-01-22 | 2021-02-23 | Facebook Technologies, Llc | Apparatus, system, and method for directional acoustic sensing via wearables donned by users of artificial reality systems |
US11287885B1 (en) * | 2019-01-22 | 2022-03-29 | Facebook Technologies, Llc | Apparatus, system, and method for determining the position of wearables donned by users of artificial reality systems |
US11716036B1 (en) * | 2019-03-18 | 2023-08-01 | Amazon Technologies, Inc | Haptic feedback devices with reduced power consumption |
US10643420B1 (en) * | 2019-03-20 | 2020-05-05 | Capital One Services, Llc | Contextual tapping engine |
US11107293B2 (en) | 2019-04-23 | 2021-08-31 | XRSpace CO., LTD. | Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium |
US11079845B2 (en) * | 2019-04-29 | 2021-08-03 | Matt Giordano | System, method, and apparatus for therapy and computer usage |
US11011033B1 (en) * | 2019-05-09 | 2021-05-18 | Facebook Technologies, Llc | Haptic vibrotactile actuators on textiles and related systems and methods |
US11334163B1 (en) * | 2019-05-09 | 2022-05-17 | Facebook Technologies, Llc | Spiral haptic vibrotactile actuators and related systems and methods |
US20220365604A1 (en) * | 2019-07-03 | 2022-11-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Computing device and method for tracking objects |
US11526921B1 (en) | 2019-09-25 | 2022-12-13 | Wells Fargo Bank, N.A. | Systems and methods for monitoring a budget scope in real time |
US11107153B2 (en) | 2019-10-01 | 2021-08-31 | Palo Alto Research Center Incorporated | Interface including passive touch sensitive input device |
US11467668B2 (en) * | 2019-10-21 | 2022-10-11 | Neosensory, Inc. | System and method for representing virtual object information with haptic stimulation |
US11755111B2 (en) | 2020-03-16 | 2023-09-12 | Arkh, Inc. | Spatially aware computing hub and environment |
USD1009861S1 (en) | 2020-09-25 | 2024-01-02 | Arkh, Inc. | Smart ring |
US11599146B2 (en) * | 2020-10-05 | 2023-03-07 | Onanoff Limited Company (Ltd.) | System, method, and apparatus for downloading content directly into a wearable device |
KR102273759B1 (ko) * | 2021-01-27 | 2021-07-06 | 안중영 | 기록매체에 저장된 동작신호 전달 어플리케이션 프로그램 및 이를 이용한 동작신호 전달 시스템 |
CN112835484B (zh) * | 2021-02-02 | 2022-11-08 | 北京地平线机器人技术研发有限公司 | 基于操作体的动态显示方法、装置、存储介质及电子设备 |
CN116762063A (zh) * | 2021-02-08 | 2023-09-15 | 三菱电机株式会社 | 终端装置、设备管理服务器、信息处理系统、信息处理方法及信息处理程序 |
ES2925998A1 (es) * | 2021-04-09 | 2022-10-20 | Miralles Domingo Boti | Método y sistema para la vigilancia de una persona que requiere supervisión ante al menos un producto potencialmente peligroso, preferentemente un fármaco y/o medicamento |
US11449841B1 (en) | 2021-04-15 | 2022-09-20 | Bank Of America Corporation | Information security system and method for augmented reality check realization |
US11910179B2 (en) | 2021-09-21 | 2024-02-20 | International Business Machines Corporation | Generating acoustic representations of virtual objects |
US20230089413A1 (en) * | 2021-09-23 | 2023-03-23 | International Business Machines Corporation | Navigation assistance device |
US11775071B1 (en) | 2022-03-08 | 2023-10-03 | Microsoft Technology Licensing, Llc | Haptic feedback from a computing accessory |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6318636B1 (en) * | 1999-09-21 | 2001-11-20 | Intermec Ip Corp. | Method and apparatus to read different types of data carriers, such RFID tags and machine-readable symbols, and a user interface for the same |
CN101384047A (zh) * | 2007-09-04 | 2009-03-11 | Lg电子株式会社 | 移动终端的滚动方法 |
CN102099766A (zh) * | 2008-07-15 | 2011-06-15 | 伊梅森公司 | 用于在无源和有源模式之间变换触觉反馈功能的系统和方法 |
CN103797441A (zh) * | 2011-07-12 | 2014-05-14 | 森赛格有限公司 | 具有触摸手势接口的触觉装置 |
CN103814343A (zh) * | 2011-07-20 | 2014-05-21 | 谷歌公司 | 在可穿戴计算系统上操纵和显示图像 |
CN103890689A (zh) * | 2011-10-24 | 2014-06-25 | 摩托罗拉移动有限责任公司 | 检测便携式电子设备的唤醒条件的方法 |
CN104205015A (zh) * | 2012-04-09 | 2014-12-10 | 高通股份有限公司 | 基于手势控制远程装置 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6115482A (en) | 1996-02-13 | 2000-09-05 | Ascent Technology, Inc. | Voice-output reading system with gesture-based navigation |
JP3722993B2 (ja) | 1998-07-24 | 2005-11-30 | 大日本印刷株式会社 | 物体の毛並接触感シミュレーション装置 |
JP2000246674A (ja) | 1999-02-26 | 2000-09-12 | Sony Corp | 力覚提示装置 |
JP4802395B2 (ja) | 2001-05-29 | 2011-10-26 | 大日本印刷株式会社 | Rfidタグ交信用の手袋 |
JP2003256705A (ja) | 2002-03-01 | 2003-09-12 | Fujitsu Ltd | 販売処理方法 |
JP4500485B2 (ja) | 2002-08-28 | 2010-07-14 | 株式会社日立製作所 | タッチパネルを備えた表示装置 |
JP2004133746A (ja) | 2002-10-11 | 2004-04-30 | Matsushita Electric Ind Co Ltd | 情報通知システム |
JP4330478B2 (ja) | 2004-03-31 | 2009-09-16 | 富士通株式会社 | 商品情報提供方法および商品情報提供装置 |
JP2008510184A (ja) | 2004-08-10 | 2008-04-03 | インテリマッツ,リミテッド・ライアビリティ・カンパニー | アラートを有する電子フロアディスプレイ |
JP2006126945A (ja) | 2004-10-26 | 2006-05-18 | Seiko Instruments Inc | 成分照合プログラム、及びサーバ装置 |
JP2008027330A (ja) | 2006-07-25 | 2008-02-07 | Seiko Epson Corp | 商品検索システム |
KR101425222B1 (ko) | 2007-08-22 | 2014-08-04 | 삼성전자주식회사 | 휴대 단말기의 진동 제어 장치 및 방법 |
US9513704B2 (en) | 2008-03-12 | 2016-12-06 | Immersion Corporation | Haptically enabled user interface |
US8180296B2 (en) | 2008-04-29 | 2012-05-15 | Immersion Corporation | Providing haptic effects to users in a short range wireless system |
JP2009276996A (ja) | 2008-05-14 | 2009-11-26 | Canon Inc | 情報処理装置、情報処理方法 |
CN104679247B (zh) | 2009-07-22 | 2018-07-24 | 意美森公司 | 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法 |
JP5079774B2 (ja) | 2009-11-10 | 2012-11-21 | 東芝テック株式会社 | 商品販売データ処理システム |
US20130314303A1 (en) | 2010-02-28 | 2013-11-28 | Osterhout Group, Inc. | Ar glasses with user action control of and between internal and external applications with feedback |
JP2011186985A (ja) * | 2010-03-11 | 2011-09-22 | Nec Corp | 携帯端末機およびその制御方法 |
US8798534B2 (en) | 2010-07-09 | 2014-08-05 | Digimarc Corporation | Mobile devices and methods employing haptics |
KR20120080072A (ko) | 2011-01-06 | 2012-07-16 | 삼성전자주식회사 | 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법 |
US20130024819A1 (en) | 2011-07-18 | 2013-01-24 | Fuji Xerox Co., Ltd. | Systems and methods for gesture-based creation of interactive hotspots in a real world environment |
US20140361988A1 (en) * | 2011-09-19 | 2014-12-11 | Eyesight Mobile Technologies Ltd. | Touch Free Interface for Augmented Reality Systems |
KR101993241B1 (ko) | 2012-08-06 | 2019-06-26 | 삼성전자주식회사 | 이미지에 대한 부가 정보 태깅 및 검색 방법과 시스템, 기기와 그 기록 매체 |
US20140056461A1 (en) | 2012-08-21 | 2014-02-27 | Immerz, Inc. | Systems and methods for a vibrating input device |
US9330544B2 (en) | 2012-11-20 | 2016-05-03 | Immersion Corporation | System and method for simulated physical interactions with haptic effects |
US20140139451A1 (en) | 2012-11-20 | 2014-05-22 | Vincent Levesque | Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture |
US20140180582A1 (en) | 2012-12-21 | 2014-06-26 | Mark C. Pontarelli | Apparatus, method and techniques for wearable navigation device |
US10528135B2 (en) | 2013-01-14 | 2020-01-07 | Ctrl-Labs Corporation | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display |
US9833697B2 (en) | 2013-03-11 | 2017-12-05 | Immersion Corporation | Haptic sensations as a function of eye gaze |
US9064385B2 (en) | 2013-03-15 | 2015-06-23 | Immersion Corporation | Method and apparatus to generate haptic feedback from video content analysis |
US9092954B2 (en) | 2013-03-15 | 2015-07-28 | Immersion Corporation | Wearable haptic device |
US9939900B2 (en) | 2013-04-26 | 2018-04-10 | Immersion Corporation | System and method for a haptically-enabled deformable surface |
US9524030B2 (en) | 2013-04-26 | 2016-12-20 | Immersion Corporation | Haptic feedback for interactions with foldable-bendable displays |
EP3008550A1 (en) * | 2013-06-11 | 2016-04-20 | Immersion Corporation | Systems and methods for pressure-based haptic effects |
US10613627B2 (en) * | 2014-05-12 | 2020-04-07 | Immersion Corporation | Systems and methods for providing haptic feedback for remote interactions |
US9658693B2 (en) | 2014-12-19 | 2017-05-23 | Immersion Corporation | Systems and methods for haptically-enabled interactions with objects |
US9600076B2 (en) | 2014-12-19 | 2017-03-21 | Immersion Corporation | Systems and methods for object manipulation with haptic feedback |
-
2014
- 2014-12-19 US US14/577,565 patent/US9658693B2/en active Active
-
2015
- 2015-12-14 KR KR1020150178250A patent/KR20160075333A/ko unknown
- 2015-12-17 EP EP15200963.5A patent/EP3035162A1/en not_active Withdrawn
- 2015-12-18 JP JP2015247068A patent/JP2016119092A/ja active Pending
- 2015-12-21 CN CN201510964445.6A patent/CN105718045A/zh active Pending
-
2017
- 2017-04-18 US US15/490,253 patent/US10216280B2/en active Active
-
2019
- 2019-01-11 US US16/245,368 patent/US10606359B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6318636B1 (en) * | 1999-09-21 | 2001-11-20 | Intermec Ip Corp. | Method and apparatus to read different types of data carriers, such RFID tags and machine-readable symbols, and a user interface for the same |
CN101384047A (zh) * | 2007-09-04 | 2009-03-11 | Lg电子株式会社 | 移动终端的滚动方法 |
CN102099766A (zh) * | 2008-07-15 | 2011-06-15 | 伊梅森公司 | 用于在无源和有源模式之间变换触觉反馈功能的系统和方法 |
CN103797441A (zh) * | 2011-07-12 | 2014-05-14 | 森赛格有限公司 | 具有触摸手势接口的触觉装置 |
CN103814343A (zh) * | 2011-07-20 | 2014-05-21 | 谷歌公司 | 在可穿戴计算系统上操纵和显示图像 |
CN103890689A (zh) * | 2011-10-24 | 2014-06-25 | 摩托罗拉移动有限责任公司 | 检测便携式电子设备的唤醒条件的方法 |
CN104205015A (zh) * | 2012-04-09 | 2014-12-10 | 高通股份有限公司 | 基于手势控制远程装置 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10606359B2 (en) | 2014-12-19 | 2020-03-31 | Immersion Corporation | Systems and methods for haptically-enabled interactions with objects |
US9990041B2 (en) | 2014-12-19 | 2018-06-05 | Immersion Corporation | Systems and methods for object manipulation with haptic feedback |
US10345909B2 (en) | 2014-12-19 | 2019-07-09 | Immersion Corporation | Systems and methods for object manipulation with haptic feedback |
CN108351699A (zh) * | 2016-07-06 | 2018-07-31 | 华为技术有限公司 | 交互设备、系统和方法 |
CN109564652A (zh) * | 2016-07-21 | 2019-04-02 | 电子湾有限公司 | 用于动态库存管理的系统和方法 |
CN109564652B (zh) * | 2016-07-21 | 2023-08-08 | 电子湾有限公司 | 用于动态库存管理的系统和方法 |
CN109477721A (zh) * | 2016-07-22 | 2019-03-15 | 哈曼国际工业有限公司 | 利用触觉换能器设备的回声定位 |
CN106503134B (zh) * | 2016-10-19 | 2019-08-13 | Oppo广东移动通信有限公司 | 浏览器跳转至应用程序的数据同步方法及装置 |
CN106503134A (zh) * | 2016-10-19 | 2017-03-15 | 广东欧珀移动通信有限公司 | 浏览器跳转至应用程序的数据同步方法及装置 |
CN109997096A (zh) * | 2016-11-17 | 2019-07-09 | 索尼公司 | 振动呈现装置、振动呈现方法和程序 |
US11474605B2 (en) | 2016-11-17 | 2022-10-18 | Sony Corporation | Vibration presentation device and vibration presentation method |
CN106919282A (zh) * | 2017-02-10 | 2017-07-04 | 南昌欧菲显示科技有限公司 | 触觉反馈显示屏 |
CN110249361A (zh) * | 2017-02-13 | 2019-09-17 | 宝洁公司 | 感觉刺激性人工制品 |
CN108509028A (zh) * | 2017-02-24 | 2018-09-07 | 意美森公司 | 用于虚拟情感触摸的系统和方法 |
CN109040578A (zh) * | 2017-06-09 | 2018-12-18 | 意美森公司 | 具有多图像捕获能力的触觉启用设备 |
CN111526928A (zh) * | 2018-01-03 | 2020-08-11 | 环球城市电影有限责任公司 | 用于游乐园的交互部件 |
Also Published As
Publication number | Publication date |
---|---|
US20170242488A1 (en) | 2017-08-24 |
US20190146588A1 (en) | 2019-05-16 |
JP2016119092A (ja) | 2016-06-30 |
KR20160075333A (ko) | 2016-06-29 |
US20160179199A1 (en) | 2016-06-23 |
US9658693B2 (en) | 2017-05-23 |
US10606359B2 (en) | 2020-03-31 |
US10216280B2 (en) | 2019-02-26 |
EP3035162A1 (en) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105718045A (zh) | 用于与对象进行触觉使能的交互的系统和方法 | |
CN105718044A (zh) | 用于利用触觉反馈进行对象操控的系统和方法 | |
US9836929B2 (en) | Mobile devices and methods employing haptics | |
CN105094311B (zh) | 用于基于视口的增强现实触觉效果的系统和方法 | |
CN107735749A (zh) | 基于压力的触觉 | |
CN106990834A (zh) | 用于触觉使能的神经接口的系统和方法 | |
CN107643822A (zh) | 网络连接设备的触觉功能 | |
WO2008044325A1 (fr) | Système de fourniture d'informations | |
CN102906667A (zh) | 用于提供触觉效果的系统和方法 | |
WO2001012285A1 (en) | Networked toys | |
KR20130124572A (ko) | 천부적인 적응성의 디자인 | |
CN107003703A (zh) | 基于可穿戴数据的靶向 | |
JP6589038B1 (ja) | ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法 | |
CN106068486A (zh) | 交互式智能珠体 | |
JP2018057456A (ja) | 処理システム及びプログラム | |
US20220305378A1 (en) | Rfid-enabled physically manufactured figurines | |
JP6812857B2 (ja) | 商品提供装置、商品提供方法、商品提供プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160629 |
|
WD01 | Invention patent application deemed withdrawn after publication |