CN107479687A - 用于伺机显示器的触觉反馈 - Google Patents
用于伺机显示器的触觉反馈 Download PDFInfo
- Publication number
- CN107479687A CN107479687A CN201710422385.4A CN201710422385A CN107479687A CN 107479687 A CN107479687 A CN 107479687A CN 201710422385 A CN201710422385 A CN 201710422385A CN 107479687 A CN107479687 A CN 107479687A
- Authority
- CN
- China
- Prior art keywords
- display device
- user
- haptic
- haptic effect
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本文公开的一个说明性系统包括与传感器通信的计算设备,该传感器配置成检测传感器、计算设备附近的或在计算设备的用户的视场内的显示设备。传感器还可配置成向与传感器通信的处理器发送与显示设备相关联的信号。处理器配置成基于该信号确定显示设备显示或输出内容(例如,文本、图像、声音、视频等)的可用性以及显示设备的位置。处理器还配置成基于显示设备的可用性和位置确定触觉效果并且发送与该触觉效果相关联的触觉信号。说明性系统还包括触觉输出设备,配置成接收触觉信号并输出触觉效果。
Description
技术领域
本公开总地涉及用户界面设备。更具体地,但并不作为限制,本公开涉及用于伺机显示器的触觉反馈。
背景技术
许多现代设备包括可用于为设备的用户提供内容的显示设备。内容可包括文本、图像、声音、视频等。观众(例如,看着该设备的另一个用户)可能也在观看提供在显示设备上的内容。然而,一些显示设备可能缺少触觉反馈能力。此外,如果显示器正在提供可能与观众相关的内容,观众的注意力可能没有被吸引到显示器上。
发明内容
本公开的多种实施例提供用于为伺机显示器提供触觉反馈的系统和方法。
在一个实施例中,本公开的系统可能包括计算设备以及与该计算设备通信地耦接的传感器。传感器可配置成监测接近该传感器且在计算设备的用户的视场内的显示设备以及发送与显示设备相关联的信号。系统还包括与传感器通信的处理器,该处理器配置成接收来自传感器的信号并且确定显示设备向用户显示或输出内容(例如,文本、图像、声音、视频、动画图形等)的可用性,以及基于该信号确定显示设备的位置。处理器还可配置成至少部分地基于显示设备的可用性和显示设备的位置确定第一触觉效果。处理器可发送与第一触觉效果相关联的第一触觉信号。系统可进一步包括触觉输出设备,配置成接收第一触觉信号并输出第一触觉效果。
在另一个实施例中,本公开的方法可包括:由通信地耦接至计算设备的传感器检测接近该传感器且在该计算设备的用户的视场内的显示设备;由该传感器向处理器发送与该显示设备相关联的传感器信号。该方法还可包括由该处理器至少部分地基于该传感器信号确定显示设备向用户输出内容的可用性以及显示设备的位置。该方法还可包括由处理器至少部分地基于显示设备的可用性和显示设备的位置确定第一触觉效果。该方法还可包括由处理器向触觉输出设备发送与第一触觉效果相关联的第一触觉信号。触觉输出设备可配置成接收第一触觉信号并输出第一触觉效果。又另一实施例包括用于实现这种方法的计算机可读介质。
描述这些说明性实施例不是为了限制或限定本主题的范围,而是为了提供示例以便辅助其理解。在具体实施方式中讨论了说明性示例,并且在其中提供了进一步的描述。由多种实施例提供的优点可进一步通过细阅本说明书和/或通过实践所请求保护的主题的一个或多个实施例来理解。
附图说明
在本说明书的剩余部分中更具体地记载了完整的能够实现的公开内容。本说明书参考所附附图。
图1是示出根据一个实施例的用于伺机显示器的触觉反馈的系统的框图。
图2示出根据一个实施例的用于伺机显示器的触觉反馈的系统的实施例。
图3示出根据另一个实施例的用于伺机显示器的触觉反馈的系统的另一个实施例。
图4是根据一个实施例的执行提供用于伺机显示器的触觉反馈的方法的步骤的流程图。
图5是根据另一个实施例的执行提供用于伺机显示器的触觉反馈的另一个方法的步骤的流程图。
具体实施方式
现将详细参考多种和可选的实施例以及所附附图。每一个示例作为解释且不作为限制提供。对本领域技术人员而言将显而易见的是,可以做出修改和变型。例如,作为一个实施例的部分描绘或描述的特征可用于另一个实施例以产生又进一步的实施例。因此,本公开意在包括涵盖在所附权利要求及其同等物的范围内的修改和变型。
用于伺机显示器的触觉反馈的说明性示例
本公开的一个说明性实施例包括计算设备,诸如智能手机或智能手表。计算设备包括传感器、存储器、触觉输出设备以及与这些元件中的每一个通信的处理器。
在说明性实施例中,传感器可检测计算设备附近的伺机显示设备。伺机显示设备包括在计算设备、传感器或计算设备的用户(例如,戴着智能手表的用户或智能手机的用户)附近的显示设备,且该显示设备可用于向计算设备的用户或另一个用户输出或显示内容。例如,伺机显示设备可以是另一个智能手机、智能手表上的显示设备,或在用户附近且在计算设备的用户的视场内的其他显示设备,这些显示设备能够与计算设备通信以使得显示设备可用于向用户提供内容。因此,例如,用户可能在用户的计算设备上接收内容但希望看到这些内容显示在伺机显示器上。例如,如果用户坐在另一个人对面并且可以看见另一个人的智能手表显示器,则用户可能希望在智能手表处于用户的视场中时某些文本消息显示在另一个人的智能手表显示器上。这么做允许用户看见文本消息的内容而不必访问或查看用户自己的计算设备并且对其他人的打扰最小。
在说明性实施例中,传感器检测伺机显示设备并且向处理器发送信号,处理器基于该信号确定伺机显示设备的可用性和位置。伺机显示设备的可用性可指示该伺机显示设备可用于向用户显示内容和/或正在向用户显示内容。在这种实施例中,处理器可配置成向伺机显示设备发送数据,该数据包括待由该伺机显示设备输出的内容。在说明性实施例中,处理器配置成至少部分地基于该伺机显示设备的可用性确定第一触觉效果,并且至少部分地基于该伺机显示设备的位置确定第二触觉效果。这些触觉信号可组合以形成单一、合成的触觉效果。
在说明性实施例中,处理器配置成向触觉输出设备发送与第一触觉效果相关联的第一触觉信号以及与第二触觉效果相关联的第二触觉信号。触觉输出设备配置成输出与伺机显示设备的可用性相关联的一个或多个第一触觉效果(例如,纹理、振动、敲击(stroking)感觉和/或刺痛(stinging)感觉)。在说明性实施例中,一个或多个第一触觉效果可向计算设备的用户指示伺机显示设备可用(例如,显示从处理器接收到的可能与用户相关的内容)。
在说明性实施例中,触觉输出设备还配置成输出与该伺机显示设备的位置相关联的一个或多个第二触觉效果。在这种实施例中,一个或多个第二触觉效果向计算设备的用户指示伺机显示设备的位置(例如,用户应该看哪里以便观看正在伺机显示设备上显示的内容)。以此方式,第一和第二触觉效果向计算设备的用户指示何时看以及看哪里以便观看在伺机显示设备上显示的内容。
在说明性实施例中,伺机显示设备可包括传感器、存储器、触觉输出装置以及与这些元件中的每一个通信的处理器。在这种实施例中,传感器可检测计算设备的用户的视场或用户的眼睛注视的方向。例如,伺机显示器可包括具有嵌入式或近距离传感器的视频屏幕,该嵌入式或近距离传感器用于相对于视频屏幕检测路过用户的视场。传感器可向处理器发送信号,处理器基于计算设备的用户的视场的方向发送触觉信号至触觉输出设备。触觉输出设备配置成接收来自处理器的触觉信号并且输出与计算设备的用户的视场相关联的一个或多个触觉效果。在说明性实施例中,触觉输出效果可向与伺机显示设备相关联的另一个用户(例如,佩戴正在用作伺机显示设备的智能手表的用户)指示计算设备的用户正在看伺机显示设备。
给出这些说明性示例以向读者介绍本文讨论的总体主题并且不意在显示所公开理念的范围。以下部分参考附图描述多种附加的特征和示例,其中相同的附图标记指示相同的元件,并且方向性描述用于描述说明性示例但像说明性示例一样不应该用来限制本公开。
用于伺机显示器的触觉反馈的说明性系统
图1是示出根据一个实施例的用于伺机显示器的触觉反馈的系统100的框图。在图1描绘的实施例中,系统100包括计算设备101,该计算设备101具有经由总线106与其他硬件通信的处理器102。计算设备101例如可包括移动设备(例如,智能手机)、平板、电子阅读器、智能手表、头戴显示器、眼镜、可穿戴设备等。
可包括任何适合的有形(以及非暂时性)计算机可读介质(诸如RAM、ROM、EEPROM等)的存储器104包含配置计算设备101的操作的程序部件。在示出的实施例中,计算设备101进一步包括一个或多个网络接口设备110、输入/输出(I/O)接口部件112、以及存储设备114。
网络接口设备110可表示促进网络连接的任何部件中的一个或多个。示例包括、但不限于有线接口(诸如,以太网、USB、IEEE 1394)和/或无线接口(诸如,IEEE 802.11、蓝牙或无线电接口)以用于访问蜂窝电话网络(例如,用于访问CDMA、GSM、UMTS或其他移动通信网络的收发器/天线。)。
I/O部件112可用于促进有线或无线连接至设备(诸如,一个或多个显示器134、游戏控制器、键盘、鼠标、游戏手柄、相机、按钮、扬声器、麦克风和/或用于输入或输出数据的其他硬件)。存储设备114表示包含在计算设备101中的或耦接至处理器102的非易失性存储设备,诸如磁性、光学或其他存储介质。
在一些实施例中,计算设备101包括触敏表面116。触敏表面116表示配置成感测用户的触觉输入的任何表面。一个或多个触摸传感器108配置成检测触摸区域中的触摸(例如,对象何时接触触敏表面116)并向处理器102发送与触摸相关联的信号。可使用任何适合数量、类型或布置的触摸传感器108。例如,电阻和/或电容性传感器可嵌入触敏表面116中并且用于确定触摸的位置和其他信息,诸如压力、速度和/或方向。
触摸传感器108可附加地或可选地包括其他类型的传感器。例如,具有触敏表面116的视野的光学传感器可用于确定触摸位置。作为另一个示例,触摸传感器108可包括安装在显示器的一侧上的LED(发光二极管)手指检测器。在一些实施例中,触摸传感器108可配置成检测用户交互的多个方面。例如,触摸传感器108可检测用户交互的速度、压力和方向,并且将此信息合并到发送至处理器102的信号中。
在一些实施例中,计算设备101包括触摸使能显示器,该触摸使能显示器结合了触敏表面116和计算设备101的显示器134。触敏表面116可对应于显示器134外部或显示器134的部件上方的一层或多层材料。在其他实施例中,计算设备101包括触敏表面116,该触敏表面116可映射到提供在显示器134中的图形用户界面,该显示器134包含在与计算设备101相接的系统11中。
在一些实施例中,计算设备101包括相机130。尽管相机130在图1中被描绘为在计算设备101内部,但是在一些实施例中,相机130可在计算设备101外部且与计算设备101通信。作为示例,相机130可在计算设备101外部且经由有线接口(诸如,例如以太网、USB、IEEE1394)和/或无线接口(诸如,IEEE1 802.11、蓝牙或无线电接口)与计算设备101通信。
在一些实施例中,计算设备101包括一个或多个传感器132。在一些实施例中,传感器132例如可包括陀螺仪、加速度计、全球定位系统(GPS)单元、距离传感器、深度传感器、蓝牙设备、相机、红外传感器、快速响应(QR)码传感器等。在一些实施例中,传感器132可包括相机,相机例如包括可识别设备的人体穿戴式相机(例如,谷歌眼镜)。在一些实施例中,计算设备101可包括可穿戴设备(例如,眼镜),且传感器132可包括用来检测计算设备101的用户的眼睛注视、视线、视场的任何设备。在一些实施例中,传感器132在计算设备101外部并且与计算设备有线或无线通信。
在一些实施例中,传感器132可检测在传感器132、计算设备101或计算设备101的用户附近的伺机显示设备(例如,显示设备136或另一个计算设备)的可用性、存在或位置。作为示例,传感器132可以是蓝牙设备或其他网络设备,配置成通过分析传感器132与显示设备之间的信号强度来检测另一个蓝牙设备(例如,蓝牙显示设备)或网络设备的存在和位置。在一些实施例中,传感器132可检测传感器132、计算设备101或计算设备101的用户与显示设备之间的距离(例如,基于传感器132与显示设备之间的蓝牙信号的强度)。作为另一个示例,传感器132可使用室内定位技术确定显示设备的可用性、存在或位置。在又另一个示例中,传感器132可向服务器或其他设备发送关于传感器132、计算设备101或计算设备101的用户的定位或位置的数据。作为响应,服务器或其他设备可基于由传感器132发送的数据发送关于传感器132或计算设备101附近的其他设备(例如,显示设备136)的定位、位置或可用性的数据。
在一些实施例中,传感器132可检测关于传感器132附近的设备的其他数据。例如,传感器132可检测传感器132附近的设备(例如,显示设备136)的类型、尺寸、形状等。
在一些实施例中,处理器102可与单个传感器132通信,且在其他实施例中,处理器102可与多个传感器132(例如,陀螺仪、加速度计和蓝牙设备)通信。传感器132配置成向处理器102发送传感器信号。
在一些实施例中,系统100进一步包括与处理器102通信的触觉输出设备118。触觉输出设备118配置成响应于触觉信号输出触觉效果。例如,触觉输出设备118可响应于来自处理器102的触觉信号输出触觉效果。在一些实施例中,触觉输出设备118配置成输出触觉效果,触觉效果例如包括振动、挤压、戳、感知的摩擦系数的变化、模拟纹理、敲击感觉、电触觉效果、表面形变(例如,与计算设备101相关联的表面的形变),和/或固体、液体或气体的膨胀。进一步,一些触觉效果可依次和/或一齐使用相同或不同类型的多个触觉输出设备118。尽管图1示出单个触觉输出设备118,但是一些实施例可使用相同或不同类型的多个触觉输出设备118以产生触觉效果。
在一些实施例中,触觉输出设备118与处理器102通信且在计算设备101内部。在其他实施例中,触觉输出设备118在计算设备101外部且与计算设备101通信(例如,经由诸如以太网、USB、IEEE 1394之类的有线接口,和/或诸如IEEE 802.11、蓝牙或无线电接口之类的无线接口)。例如,触觉输出设备118可与可穿戴设备(例如,腕带、手镯、帽子、头带等)相关联(例如,耦接)并且配置成接收来自处理器102的触觉信号。
在一些实施例中,触觉输出设备118配置成输出包括振动的触觉效果。触觉输出设备118例如可包括压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量电机(ERM)或线性谐振致动器(LRA)中的一个或多个。
在一些实施例中,触觉输出设备118配置成输出触觉效果,该触觉效果调制与触觉输出设备118相关联的表面的感知的摩擦系数。在一个实施例中,触觉输出设备118包括超声致动器。超声致动器可以以例如20kHz的超声频率振动,从而增加或降低与触觉输出设备118相关联的表面的感知的摩擦系数。在一些实施例中,超声致动器可包括压电材料。
在一些实施例中,触觉输出设备118使用静电吸引(例如通过利用静电致动器)来输出触觉效果。触觉效果可包括模拟纹理、模拟振动、敲击感觉或与计算设备101相关联的表面(例如,触敏表面116)上的摩擦系数中的感知变化。在一些实施例中,静电致动器可包括导电层和绝缘层。导电层可以是任何半导体或其他导电材料,诸如铜、铝、金或银。绝缘层可以是玻璃、塑料、聚合物或任何其他绝缘材料。此外,处理器102可通过向导电层施加电信号(例如,AC信号)来操作静电致动器。在一些实施例中,高压放大器可生成AC信号。电信号可生成导电层与接近或触碰触敏表面116的对象(例如,用户的手指或其他身体部位或指示笔)之间的电容耦合。改变对象与导电层之间的吸引力的水平可改变用户所感知的触觉效果。
在一些实施例中,触觉输出设备118包括配置成输出形变触觉效果的形变设备。形变触觉效果可包括提升或降低与计算设备101相关联的表面的部分。例如,形变触觉效果可包括提升触敏表面116的部分。在一些实施例中,形变触觉效果可包括弯曲、折叠、卷绕、扭转、挤压、卷曲、改变与计算设备101相关联的表面的形状,或者以其他方式使与计算设备101相关联的表面变形。例如,形变触觉效果可在计算设备101或与计算设备101相关联的表面(例如,触敏表面116)上施加力,从而导致它弯曲、折叠、卷绕、扭转、挤压、卷曲、改变形状或以其他方式变形。
在一些实施例中,触觉输出设备118包括配置用于输出形变触觉效果(例如,用于使与计算设备101相关联的表面弯曲或变形)的流体。例如,流体可包括智能凝胶。智能凝胶包括具有机械或结构性质的流体,该机械或结构性质响应于刺激或激励(例如,电场、磁场、温度、紫外光、摇晃,或pH变化)而变化。例如,响应于刺激,智能凝胶可在硬度、体积、透明度和/或颜色上变化。在一些实施例中,硬度可包括与计算设备101相关联的表面(例如,触敏表面116)抵抗形变的抵抗性。在一些实施例中,一条或多条线可嵌入或耦接至智能凝胶。当电流流过线时,发热,从而导致智能凝胶膨胀或收缩,这可导致计算设备101或与计算设备101相关联的表面变形。
作为另一个示例,流体可包括流变性(例如,磁流变或电流变)流体。流变流体包括悬浮在流体(例如,油或水)中的金属颗粒。响应于电场或磁场,流体中的分子的顺序可能重新排列,从而改变流体的总体阻尼和/或粘性。这会导致计算设备101或与计算设备101相关联的表面变形。
在一些实施例中,触觉输出设备118包括机械形变设备。例如,在一些实施例中,触觉输出设备118可包括耦接至臂的致动器,从而旋转形变部件。形变部件例如可包括椭圆形、星形或波纹形状。形变部件可配置成以某些旋转角而非其他旋转角移动与计算设备101相关联的表面。致动器可包括压电致动器、旋转/线性致动器、螺线管、电活性聚合物致动器、粗视纤维复合材料(MFC)致动器、形状记忆合金(SMA)致动器和/或其他致动器。当致动器旋转形变部件时,形变部件可移动表面,从而导致它变形。在这样的实施例中,形变部件可开始于表面平坦的位置。响应于接收到来自处理器102的信号,致动器可旋转形变部件。旋转形变部件可导致表面的一个或多个部分上升或下降。在一些实施例中,形变部件可保持此经旋转状态直到处理器102发信号通知致动器将形变部件旋转回到其原始位置。
进一步,可使用其他技术或方法来使与计算设备101相关联的表面变形。例如,触觉输出设备118可包括柔性表面层,配置为基于来自表面可重配置型触觉基质(包括、但不限于:例如,纤维、纳米管、电活性聚合物、压电元件或形状记忆合金)的接触来使其表面变形或改变其纹理。在一些实施例中,触觉输出设备118例如利用形变机构(例如,耦接至线的电机)、空气或流体袋、材料的局部形变、谐振机械元件、压电材料、微机电系统(MEMS)元件或泵、热流体袋、可变多孔性膜或层流调制来变形。
转向存储器104,描绘模块124、126和128、129来示出设备如何可在一些实施例中配置成提供用于伺机显示器的触觉反馈。
在此示例中,检测模块124配置处理器102经由触摸传感器108来监测触敏表面116以确定触摸的定位。例如,检测模块124可采样触摸传感器108以跟踪触摸的存在或缺失,并且如果触摸存在,则随着时间跟踪触摸的位置、路径、速度、加速度、压力和/或其他特性中的一个或多个。
在一些实施例中,内容供应模块129配置处理器102向用户(例如,向计算设备101的用户或其他用户)提供内容(例如,文本、图像、声音、视频等)。作为示例,内容供应模块129配置处理器102以向用户以任何格式(例如,以动画图形交换格式)提供图像。如果内容包括计算机生成的图像,则内容供应模块129配置成生成用于在显示设备(例如,计算设备的显示器134、显示设备136,或另一个通信地耦接至处理器102的显示器)上显示的图像。如果内容包括视频和/或静态图像,则内容供应模块129配置成访问视频和/或静态图像并且生成视频和/或静态图像的视图以供在显示设备上显示。如果内容包括音频内容,则内容供应模块129配置成生成电子信号,该电子信号将驱动扬声器(可以是显示设备的一部分)以输出对应的声音。在一些实施例中,内容或从中导出内容的信息可由内容供应模块129从存储设备114获得,存储设备114可以是计算设备101的一部分,如图1所示,或者可以与计算设备101分开并且通信地耦接至计算设备101。在一些实施例中,内容供应模块129可使处理器102向另一个设备发送内容。作为示例,内容供应模块129可生成或访问内容并且使处理器向显示设备136发送内容。
在一些实施例中,触觉效果确定模块126表示分析数据以确定待生成的触觉效果的程序部件。触觉效果确定模块126可包括使用一个或多个算法或查找表来选择待输出的一个或多个触觉效果的代码。在一些实施例中,触觉效果确定模块126包括可由处理器102使用的一个或多个算法或查找表以确定触觉效果。
尤其,在一些实施例中,触觉效果确定模块126可至少部分地基于从传感器132接收到的传感器信号来确定触觉效果。例如,处理器102可从传感器132接收传感器信号并且确定计算设备101附近的显示设备(例如,显示设备136)的可用性。触觉效果确定模块126可至少部分地基于所确定的显示设备的可用性来确定第一触觉效果。例如,在一个这样的实施例中,触觉效果确定模块126可确定输出至与计算设备101相关联的用户(例如,穿戴计算设备的用户)的第一触觉效果以向用户指示显示设备可用(例如,显示可能与用户相关的内容)。
例如,显示设备136可能在计算设备101附近,并且传感器132可以经由蓝牙检测显示设备136(例如,基于传感器132与显示设备136之间的蓝牙信号的强度)。计算设备101可从传感器132接收信号,并且确定显示设备136可用(例如,显示设备136可被发现且可用于经由蓝牙连接至计算设备101以从计算设备101接收内容)。触觉效果确定模块126可确定待输出的振动或一系列振动以向用户指示显示设备136在用户附近并且正在经由蓝牙从计算设备101接收待由显示设备136显示的内容。
在一些实施例中,处理器102可从传感器132接收传感器信号并且确定显示设备的位置或定位。在这样的实施例中,处理器102可确定传感器132、计算设备101或与计算设备101或传感器132相关联的用户与显示设备136之间的距离。触觉效果确定模块126可至少部分地基于所确定的显示设备的位置或定位来确定第二触觉效果。第二触觉效果可包括可指示显示设备136的位置或定位的一个或多个触觉效果。在一些实施例中,触觉效果确定模块126可基于显示设备136的位置或定位确定触觉效果的特性(例如,幅度、持续时间、位置、类型、频率等)。例如,在一个这样的实施例中,触觉效果确定模块126可确定输出至计算设备101的用户的第二触觉效果以向用户指示显示设备136相对于用户的位置(例如,竖直或水平定位)。
作为示例,触觉效果确定模块126可确定当显示设备136定位在用户的左边时的触觉效果、当显示设备136在用户的前方时的另一个触觉效果,以及当显示设备136在用户上方时的又另一个触觉效果。作为另一个示例,触觉效果确定模块126可确定当用户远离显示设备136时的弱或短触觉效果,或者当用户在显示设备136附近时的强或长触觉效果。
在一些实施例中,触觉效果确定模块126可确定顺序的触觉反馈以向用户指示显示设备136相对于用户的位置。在这样的实施例中,触觉效果确定模块126可确定可创建朝向一方向的流动的感知(例如,通过确定沿着用户手臂的一系列触觉输出)的一个或多个触觉效果,从而可指示显示设备136相对于用户的方向。
在一些实施例中,计算设备101可包括一个或多个触觉输出设备118以用于提供与设备(例如,显示设备136)相对于计算设备101的用户的位置相关联的多种输出效果。
在一些实施例中,处理器102可从传感器132接收传感器信号并且确定显示设备的尺寸、类型、形状或其他属性。在这样的实施例中,触觉效果确定模块126可确定一个或多个触觉效果以指示显示设备的尺寸、类型、形状或其他属性。例如,可基于显示设备的尺寸来选择触觉效果(例如,当显示设备大(例如,大LCD屏幕)时的强振动,以及当显示设备小(例如,智能手表)时的较弱振动)。
在另一个实施例中,触觉效果确定模块126可包括基于由内容供应模块129提供的内容来确定触觉效果的代码。例如,内容供应模块129可提供待输出到显示设备136上的视觉内容。在一个实施例中,触觉效果确定模块126可确定与视觉内容相关联的触觉效果。例如,在一个这样的实施例中,触觉效果确定模块126可确定用于提供与由显示设备136提供的视频相关联的触觉跟踪的触觉效果。触觉跟踪可包括对应于发生在所提供的视频中的事件的触觉效果(例如,振动)或一系列触觉效果。例如,如果视频包括一系列爆炸,那么触觉跟踪可以是对应于每一次爆炸的一系列振动。因此,当用户观看视频时,用户可感知与视频相关联的触觉效果。
在一些实施例中,触觉效果确定模块126可包括基于触敏表面116上的触摸的位置来确定待输出的触觉效果的代码以及选择待提供的一个或多个触觉效果以模拟效果的代码。例如,可基于触摸的位置选择不同的触觉效果以在显示器134上模拟虚拟物体(例如,家具的虚拟件、汽车、动物、卡通人物、按钮、杆、标志或个人)的存在。进一步,在一些实施例中,触觉效果确定模块126可包括基于虚拟对象的尺寸、颜色、位置、移动和/或其他特性来确定待输出的触觉效果的代码以及选择待提供的一个或多个触觉效果以模拟效果的代码。例如,可基于虚拟对象的颜色来选择触觉效果(例如,当虚拟对象是红色时的强振动,以及当虚拟对象是绿色时的较弱振动)。
在一些实施例中,触觉效果确定模块126包括基于事件确定触觉效果的代码。如在本文中使用地,事件是在计算设备101的操作期间发生的任何交互、动作、碰撞或其他事件,这些事件可潜在地包含相关联的触觉效果。在一些实施例中,事件可包括用户输入(例如,按钮按下、操纵控制杆、与触敏表面116交互、使设备倾斜或定向)、系统状态(例如,低电量、低存储量或系统通知,诸如基于系统接收到消息、来电呼叫、通知或更新所生成的通知)、发送数据、接收数据或程序事件(例如,如果程序是游戏,则程序事件可包括爆炸、射击、撞击、游戏人物之间的交互、前进至新等级或在崎岖地形上驾驶)。
在一些实施例中,触觉效果生成模块128表示使处理器102生成并向触觉输出设备118发送触觉信号以生成选择的触觉效果的编程程序。在一些示例中,触觉效果生成模块128使触觉输出设备118生成由触觉效果确定模块126确定的触觉效果。例如,触觉效果生成模块128可访问存储的波形或命令以发送至触觉输出设备118从而创建选择的触觉效果。在一些实施例中,触觉效果生成模块128可包括算法以确定触觉信号。触觉效果生成模块128可包括算法以确定用于触觉效果的目标坐标(例如,计算设备101上的(诸如触敏表面116上的)要输出触觉效果的位置的坐标)。
在一些实施例中,显示设备136包括处理器138、存储器140、总线142、I/O部件144、存储设备146、网络接口设备148、显示器150、触敏表面152、触摸传感器154、相机156、传感器158以及触觉输出设备160,其中每一个可以按与计算设备101的存储器104、处理器102、总线106、I/O部件112、存储设备114、网络接口设备110、显示器134、触敏表面116、触摸传感器108、相机130、传感器132以及触觉输出设备118基本上相同的方式进行配置,但是它们不需要这样。在一些实施例中,显示设备136可包括图1所描绘的部件中的全部或一些。
在一些实施例中,显示设备136例如包括移动设备(例如,智能手机)、平板、电子阅读器、智能手表、头戴式显示器、眼镜、可穿戴设备、交互式一体机、交互式广告牌、收银机的屏幕或包括用于提供内容的显示器的任何其他设备。
计算设备101可以通信地耦接至显示设备136。例如,计算设备101和显示设备136可使用网络接口设备110和148来通信(例如,发送或接收数据或信号172、174)。作为示例,计算设备101和显示设备136可各自连接至公共无线网络并且可经由无线网络通信。作为另一个示例,计算设备101和显示设备136可经由蓝牙连接通信地耦接。
在一些实施例中,显示设备136可以是伺机显示设备。例如,显示设备136可以是在计算设备101的用户附近且在用户的视场内以使得显示设备136可用于向用户提供内容的显示设备。
在一些实施例中,显示设备136的传感器158可检测另一个设备(例如,计算设备101)的存在或位置。例如,传感器158可以以与传感器132基本上相同的方式进行配置以用于检测另一个设备的存在或位置。
在一些实施例中,传感器158可检测计算设备101的用户的视场的方向。例如,传感器可包括用于检测用户的眼睛注视、视线或视场的任何设备。例如,传感器158可包括配置成捕捉计算设备101的用户的眼睛的图像的相机,并且处理器138可至少部分地基于该图像通过使用多种图像处理方法和技术来确定计算设备101的用户的视场的方向。在另一个实施例中,传感器158配置成监测用户的眼睛或计算设备101的用户的眼睛附近的肌肉的运动,并且处理器138配置成至少部分地基于所监测的运动确定用户的视场的方向。在又另一个实施例中,传感器158可配置成监测或测量移动计算设备101的用户的眼睛的肌肉的电活动,并且处理器138可配置成确定用户的视场的方向。在一些实施例中,传感器158可包括用于确定用户的意图或意志的其他传感器,例如包括与功能磁共振成像(fMRI)或脑电图(EEG)相关联的传感器。在又另一个实施例中,传感器158可通过多种方法和技术(例如包括,分析用户的身体或头部姿势)检测用户的眼睛注视、视线、或视场。
在一些实施例中,存储器140包括模块162、164、168、170.在一些实施例中,存储器140包括模块162、164、168、170中的全部或一些。模块162、164、168、170可各自以与计算设备101的相应模块124、126、128和129基本上相同的方式进行配置。
在一些实施例中,触觉效果确定模块164可至少部分地基于从传感器158接收到的传感器信号来确定触觉效果。在一些实施例中,处理器138可从传感器158接收传感器信号并且确定计算设备101的用户的眼睛注视或视场的方向。基于此确定,触觉效果确定模块164可确定触觉效果。例如,在一个这样的实施例中,处理器138可确定计算设备101的用户正在看显示设备136或者正朝显示设备136的方向看(例如,正在看显示设备的显示器150)。基于此确定,触觉效果确定模块126可确定输出至显示设备136的用户以指示计算设备101的用户正在看显示设备136的触觉效果。例如,智能手表可短暂地振动以指示另一个用户正在观看显示设备136。以此方式,显示设备136的用户可能意识到个人(例如,计算设备101的用户)正在看(例如,阅读)显示设备上的可能与该个人有关的内容。
在一些实施例中,触觉效果确定模块126可基于计算设备101的用户的眼睛注视或视场的方向确定另一个触觉效果以向显示设备136的用户指示如何定向显示设备136。例如,该触觉效果可向显示设备136的用户指示用户应该调节手臂、手腕、腿或手来允许计算设备101的用户观看显示设备136上的内容。例如,用户的手腕上的智能手表可以朝向智能手表的顶部(例如,朝向用户的手腕的顶部)振动以向用户指示另一个人(例如,计算设备101的用户)正在看智能手表的显示器的顶部以使得用户可调节用户的手腕从而显示器的顶部对于那个人更加可见。
在一些实施例中,内容供应模块170可以以与内容供应模块129基本上相同的方式进行配置并且可配置处理器138向用户(例如,计算设备101的用户、显示设备136的用户或另一个用户)提供内容(例如,文本、图像、声音、视频、动画图形等)。在一些实施例中,内容或从中导出内容的信息可从另一个设备(例如,计算设备101)获得。例如,内容供应模块129可配置成使得处理器接收包括来自计算设备101的内容的数据。内容可由显示设备136显示(例如,经由显示器150)。
图2示出用于伺机显示器的触觉反馈的系统的实施例。系统包括计算设备101和显示设备136。在图2所示的示例中,显示设备136是伺机显示设备(例如,显示设备136配置成例如经由显示器150显示内容并且在计算设备101的用户204的视场208内)。
计算设备101包括传感器(例如,图1的传感器132)。在一些实施例中,传感器可在计算设备101的内部或在计算设备的外部。传感器可配置成检测接近计算设备101或与计算设备101相关联的用户204(例如,使用或穿戴计算设备101的用户)的设备。
在图2所示的实施例中,传感器可检测在传感器、计算设备101或用户204附近的显示设备136。在一些实施例中,传感器可检测显示设备136并且向与计算设备101相关联的处理器(例如,图1的处理器102)发送与显示设备136相关联的传感器信号。传感器信号可对应于显示设备的任何属性。例如,传感器信号可指示显示设备136的可用性。例如,显示设备136可用于经由显示器150提供或输出内容(例如,文本、警告、声音、图像、视频、动画图形等)。在一些实施例中,传感器信号可指示显示设备136的位置(例如,显示设备相对于传感器、计算设备101或用户204的位置或定位)。在另一个实施例中,传感器信号可指示显示设备136的类型、尺寸或形状。
在一些实施例中,计算设备101可至少部分地基于传感器信号确定并输出一个或多个触觉效果。触觉效果可各自包括振动或任何其他触觉效果。例如,计算设备101可接收传感器信号并且确定显示设备136可用(例如,在附近、在用户204的视场208内和/或显示与用户204相关的内容)。在一些实施例中,内容可从计算设备101发送到显示设备136。计算设备101可向用户204的身体部位(例如,手臂、腿、手腕、手或其他身体部位)输出触觉效果(例如,短振动)以向用户204指示显示设备136可用。
在一些实施例中,计算设备101可向用户204的身体部位输出一个或多个其他触觉效果以向用户指示显示设备(例如,相对于用户204)的位置或定位。例如,在一些实施例中,计算设备101输出触觉效果以向用户204指示显示设备136相对于用户204向上或是向下。作为另一个示例,计算设备101输出触觉效果以向用户204指示显示设备136在用户204的左边或右边。在又另一个示例中,计算设备101输出触觉效果以向用户204指示显示设备136在用户204的前方或后方。
作为说明性示例,计算设备101可包括可穿戴设备(例如,腕带或头带)并且可包括一个或多个触觉输出设备。计算设备101可配置成向计算设备101或用户的身体的左侧输出触觉效果(例如,如果用户在左手腕上有腕带或如果触觉输出设备定位在用户204的身体的左侧上的话)以向用户204指示显示设备136在用户的左边。计算设备101还可配置成向计算设备101的或用户204的身体部位的顶部部分(例如,如果用户穿戴腕带则向用户204的手腕的顶部部分)输出触觉效果以向用户指示显示设备136在用户204的前方或上方。在又另一个实施例中,计算设备101可在用户远离显示设备136时输出弱触觉效果(例如,弱振动)并且在用户204靠近显示设备136时输出强触觉效果(例如,强振动)。
以此方式,计算设备101可向用户204指示显示设备136的水平定位和/或竖直定位以使得用户204可观看提供在显示设备136上的可能与用户204相关的内容(例如,由计算设备101提供的内容)。
在另一个实施例中,计算设备101可向用户204输出一个或多个其他触觉效果以指示显示设备136或显示设备136的显示器150的尺寸、形状、类型或其他属性。例如,在一些实施例中,计算设备101可至少部分地基于传感器信号确定显示设备136或显示器150的尺寸。计算设备101可确定并输出触觉效果以向用户204指示显示设备136的尺寸。作为示例,如果显示设备136是大显示设备(例如,大LED屏幕),则计算设备101可向用户204输出强振动。在另一个示例中,如果显示设备136是小显示设备(例如,智能手表或腕带),则计算设备101可向用户204输出弱振动。以此方式,触觉效果可向用户204指示显示设备136或显示器150的尺寸或其他属性,该显示设备136或显示器150可以正在显示与用户204相关的内容。
在一些实施例中,计算设备101可配置成向显示设备136提供内容。例如,计算设备101可发送包括内容的数据,并且显示设备136可配置成显示该内容(例如,经由显示器150)。计算设备101可输出与显示设备136上显示的内容相关联的一个或多个触觉效果。例如,内容可包括视频或视频游戏,并且计算设备101可输出对应于显示在显示设备136上的视频游戏或视频内容的一个或多个触觉效果。作为示例,视频内容可包括一个或多个动作或交互(例如,视频中人物或对象之间的交互)。计算设备101可输出与动作或交互相关联的一个或多个振动以使得当动作和/或交互显示在显示装置136上时用户可感知它们。
在一些实施例中,显示设备136可包括用于检测计算设备101的存在或接近度的传感器206。在一些实施例中,传感器206可配置成检测用户204的视线或视场208或用户204的眼睛注视210的方向。在图2所示的实施例中,显示设备136包括传感器206,该传感器206可以以与图1的相机156或传感器158基本上相同的方式进行配置。
在一些实施例中,显示设备136可至少部分地基于来自传感器206的数据向计算设备101发送数据。例如,传感器206可检测(例如,经由蓝牙信号)计算设备101的存在或接近度并且基于来自传感器206的数据发送指示显示设备136的可用性、位置或属性的数据。
作为另一个示例,传感器206可检测用户204的视场208或用户的眼睛注视210的方向。显示设备136可基于来自传感器206的数据发送指示显示设备136的可用性、位置或属性的数据。作为示例,显示设备136可基于来自传感器206的数据确定用户204正在看显示设备136或显示设备的显示器150或朝显示设备136或显示设备的显示器150的方向看,并且基于该确定向计算设备101发送关于显示设备的可用性、位置或属性的数据。在一些实施例中,计算设备101可如上所述基于显示设备136的可用性、位置或属性向用户204输出一个或多个触觉效果。
在一些实施例中,显示设备136可至少部分地基于来自传感器206的数据确定触觉效果。例如,在一些实施例中,显示设备136可基于用户204的视场208或用户的眼睛注视210的方向确定触觉效果。在一个这样的实施例中,显示设备136基于来自传感器206的数据确定用户204正在看显示设备136或显示器150或朝显示设备136或显示器150的方向看并且可向显示设备136的用户212(例如,向用户的手腕、手、手臂、腿、头部)输出触觉效果(例如,振动)。触觉效果可向用户212指示用户204正在看显示设备136或显示器150。例如,在图2所示的实施例中,显示设备136可在用户的手腕214处输出触觉效果以向用户212指示用户204正在阅读或观看显示设备的显示器150上的可能与用户204相关的内容(例如,从计算设备101发送至显示设备136的内容)。在一些实施例中,用户212可响应于触觉效果保持显示设备136就位。在另一个实施例中,用户212可响应于触觉效果将显示设备136移出用户的204的视场208。
在一些实施例中,显示设备136可基于来自传感器206的数据向用户212输出一个或多个其他触觉效果以向用户212指示用户可如何定位显示设备136。例如,传感器可检测到用户204的眼睛注视210的方向朝向显示器150的顶部部分。显示设备136可基于来自传感器206的数据向用户212输出一个或多个触觉效果。触觉效果可向用户212指示用户应该旋转用户的手腕214以使得用户204可观看显示器150的顶部部分上的内容。作为示例,显示设备136可朝向显示设备的顶部(例如,朝向用户的手腕214的顶部)输出振动以向用户212指示用户204正在看显示器150的顶部,从而可使得用户212相应地调整显示设备136。
图3示出根据另一个实施例的用于伺机显示器的触觉反馈的系统的另一个实施例。在图3描绘的示例中,系统包括计算设备302(包括智能手机或平板)以及伺机显示设备304。计算设备302包括传感器(未示出),该传感器可检测伺机显示设备304的存在、可用性或位置。伺机显示设备304包括具有显示器306的任意设备。在一些实施例中,伺机显示设备304可包括传感器310。
在图3描绘的示例中,计算设备302的用户308可能正在走过伺机显示设备304,并且计算设备302可能在用户308的口袋中或其他地方。当用户308在伺机显示设备304附近时(例如,当伺机显示设备304在用户308的视场内时),计算设备302的传感器可检测到伺机显示设备304。在一些实施例中,传感器可在事件的发生时检测到伺机显示设备304。如在本文中使用地,事件是在计算设备302的操作期间发生的任何交互、动作或其他事件,这些事件可潜在地包含相关联的触觉效果。在一些实施例中,事件可包括系统状态(例如,低电量、低存储量)、系统通知(例如,基于系统接收到来电呼叫、警告、更新、即将来临的会晤提醒等生成的通知)、接收数据(例如,接收文本消息)。例如,计算设备302可接收警告或更新(例如,关于会晤的警告或新闻警告)。传感器可响应于警告检测用户308的视场内的伺机显示设备304。
在一些实施例中,伺机显示设备304可在用户308靠近伺机显示设备304时检测计算设备302。例如,伺机显示设备304可包括传感器310(例如,相机或以与图2的传感器206基本上相同的方式进行配置的其它传感器),当用户308在伺机显示设备304附近时,该传感器可检测计算设备302。在另一个实施例中,传感器310可检测用户308的视场或用户308的眼睛注视的方向(例如,当用户正在朝伺机显示设备304的方向看时)。在一些实施例中,伺机显示设备304可基于来自传感器310的数据向计算设备302发送与伺机显示设备304的可用性或位置相关联的信号。例如,当伺机显示设备304在用户308的视场内时,伺机显示设备304可发送关于伺机显示设备304的可用性和位置的信号。
在一些实施例中,计算设备302可基于传感器数据(例如,来自计算设备302的传感器的数据或来自伺机显示设备304的传感器310的数据)确定伺机显示设备304的可用性或位置。例如,计算设备302可基于传感器数据确定伺机显示设备304是否可用于显示与事件(例如,由计算设备302接收的警告)相关联的内容。计算设备302可响应于确定显示设备可用而向伺机显示设备304发送数据。伺机显示设备304可基于数据显示与事件相关联的内容(例如,经由显示器306)。在图3所示的示例中,计算设备302向伺机显示设备304发送要在显示器306上示出的警告309。
在一些实施例中,计算设备302可至少部分地基于伺机显示设备304的可用性确定并输出第一触觉效果。例如,在一些实施例中,计算设备302可基于伺机显示设备304显示与事件相关联的内容(例如,当伺机显示设备304正在显示警告309时)确定第一触觉效果。计算设备302可向用户308的身体部位(例如,臀部或其它身体部位)输出第一触觉效果(例如,振动、挤压或戳)以向用户308指示伺机显示设备304正在显示与用户308相关的内容(例如,伺机显示设备304正在显示由计算设备302接收的警告309)。
在一些实施例中,计算设备302可至少部分地基于伺机显示设备304(例如,相对于用户308)的位置或定位确定并输出第二触觉效果。在一些实施例中,第二触觉效果可包括一个或多个触觉效果。在一些实施例中,计算设备302可向用户的身体部位输出第二触觉效果(例如,振动)以指示用户308与显示设备之间的接近度或距离。例如,计算设备302可向用户308输出强触觉效果(例如,强振动)以指示伺机显示设备304在用户308附近。计算设备302也可在计算设备302的顶部输出另一个触觉效果(例如,振动)以指示伺机显示设备304在用户308前方。作为另一个示例,计算设备可被穿戴在用户308的手臂上。计算设备302可输出一个或多个触觉效果,这些效果可朝向伺机显示设备304的方向创建流动的感知(例如,通过沿着用户308的手臂输出一系列触觉输出),该流动的感知可指示伺机显示设备304相对于用户的方向。在一些实施例中,第一和第二触觉效果可结合以形成单一的合成的触觉效果以用于指示显示设备304的可用性以及显示设备304相对于用户308的位置。
在一些实施例中,计算设备302可至少部分地基于伺机显示设备304所显示的内容确定并输出第三触觉效果。在一些实施例中,第三触觉效果可包括一个或多个触觉效果。例如,计算设备302可输出与显示设备所显示的警告309相关联的触觉效果。作为示例,警告309可以是视频,且计算设备302可向用户308输出对应于伺机显示设备304所显示的视频的一个或多个触觉效果。例如,视频可包括碰撞或一系列碰撞(例如,在新闻警告或其他警告中),并且第三触觉效果可以是对应于每一次碰撞的一系列振动,允许用户经历与视频中的一个或多个碰撞相关联的触觉效果。
在一些实施例中,伺机显示设备304可包括触觉输出设备。在这样的实施例中,伺机显示设备304可基于来自传感器310的数据确定并输出触觉效果。例如,在一个这样的实施例中,传感器310可在用户308靠近伺机显示设备304时检测计算设备302或者可检测用户308的视场。伺机显示设备304可通信地耦接至计算设备302(例如,用于接收与伺机显示设备304要显示的内容相关联的数据)。伺机显示设备304可在用户308靠近伺机显示设备304时输出触觉效果(例如,固体、液体或气体的膨胀或振动)。触觉效果可向用户308指示伺机显示设备304可用(例如,显示由计算设备302所接收的警告309)或者可指示伺机显示设备304相对于用户308的位置。作为示例,当用户308在伺机显示设备304附近时,伺机显示设备304可输出强振动以指示警告309正在被显示并且指示伺机显示设备304的位置。
用于伺机显示器的触觉反馈的说明性方法
图4是根据一个实施例的执行提供用于伺机显示器的触觉反馈的方法400的步骤的流程图。在一些实施例中,图4中的步骤可用程序代码来实现,该程序代码可被处理器(例如,通用计算机、移动设备或服务器中的处理器)执行。在一些实施例中,这些步骤可通过一组处理器来实现。在一些实施例中,图4中示出的一个或多个步骤可被省略或以不同的顺序执行。类似地,在一些实施例中,也可执行图4中未示出的附加步骤。以下参考关于图1和图2中示出的系统在上文描述的部件来描述各步骤。
当计算设备101的传感器132检测在用户204的视场内的一个或多个显示设备136时,方法400开始于步骤402。在一些实施例中,传感器132可检测传感器132或计算设备101附近的显示设备136。显示设备136可以是伺机显示器(包括在传感器132或计算设备101附近的显示设备)并且可用于显示内容。在一些实施例中,显示设备136在用户204的视场内以使得显示设备136可用于向用户204显示内容。例如,传感器132可通过分析传感器132与显示设备136之间的蓝牙信号的强度来检测显示设备136的存在和位置。在一些实施例中,传感器132可检测传感器132、计算设备101与显示设备136之间的距离(例如,基于传感器132与显示设备136之间的蓝牙信号的强度)。
当关于显示设备136的信号被发送至处理器102时,方法400继续至步骤404处。在一些实施例中,传感器132向处理器102发送关于显示设备136的信号。在其他实施例中,与显示设备相关联的另一个传感器(例如,显示设备136的传感器206)发送关于显示设备136的信号。
当处理器102基于信号确定显示设备136的可用性和位置时,方法继续至步骤406处。在一些实施例中,处理器102确定显示设备136向用户204显示内容(例如,文本、图像、声音、视频、动画图形等)的可用性。例如,处理器102可确定显示设备136是否是可发现的并且可用于经由蓝牙连接至计算设备101以从计算设备101接收内容。在一些实施例中,处理器102可配置成向显示设备136提供内容(例如,在下文描述的步骤410中)。
在一些实施例中,处理器102确定显示设备136相对于用户204的位置。例如,处理器102确定显示设备136相对于用户204的水平和竖直定位。
当处理器102基于信号确定显示设备136的特性时,方法400继续至步骤408处。在一些实施例中,处理器102基于来自传感器的信号确定显示设备136的类型、尺寸或形状。例如,处理器102确定显示设备136是大显示设备(例如,大LCD屏幕)或小显示设备(例如,智能手表)。作为另一个示例,处理器102确定显示设备136的类型,例如显示设备136是LCD屏幕还是智能手表。
当处理器102向显示设备136发送内容时,方法400继续至步骤410。在一些实施例中,内容供应模块129使处理器102向显示设备136发送内容。例如,如果处理器102确定显示设备136可用(例如,在步骤406中),则处理器102可向显示设备136发送文本消息或警告。
当处理器102至少部分地基于显示设备136的可用性和位置确定第一触觉效果时,方法400继续至步骤412处。在一些实施例中,触觉效果确定模块126使处理器102确定第一触觉效果。在一些实施例中,第一触觉效果可包括一个或多个触觉效果。例如,第一触觉效果可包括基于显示设备136的可用性的可用性触觉效果以及基于显示设备136的位置的位置触觉效果。
例如,处理器102可确定与显示设备136可用(例如,可用于显示从计算设备101接收的内容和/或显示来自计算设备101的内容)以及显示设备136相对于用户204的水平和竖直定位相关联的第一触觉效果(例如,一系列振动)。作为示例,第一触觉效果可包括第一振动,第一振动向用户204指示显示设备136正在显示内容,接着是输出至计算设备101或用户204的身体部位的左侧或右侧的一系列间歇性振动以用于指示显示设备136相对于用户的水平定位,和/或输出至计算设备101或用户204的身体部位的顶部部分或底部部分的一系列间歇性振动以用于指示显示设备136相对于用户204的竖直定位。
当处理器至少部分地基于显示设备136的特性确定第二触觉效果时,方法400继续至步骤414处。在一些实施例中,触觉效果确定模块126使处理器102确定第二触觉效果。
例如,处理器102可基于显示设备136的尺寸、类型、形状或其他属性确定第二触觉效果。作为示例,如果显示设备136是大显示设备(例如,大LCD屏幕),则第二触觉效果可以是强振动。作为另一个示例,如果显示设备是小显示设备(例如,智能手表),则第二触觉效果可以是弱振动。
当处理器至少部分地基于发送至显示设备136的内容(例如,在步骤410中)确定第三触觉效果时,方法400继续至步骤416处。在一些实施例中,触觉效果确定模块126使处理器102确定第三效果。
例如,如果发送至显示设备136的内容是视频,则处理器102可确定对应于该视频的第三触觉效果。作为示例,视频可包括一个或多个爆炸或碰撞,且第三触觉效果可包括对应于这些爆炸或碰撞的一个或多个振动。
当处理器102向触觉输出设备118发送与第一触觉效果相关联的第一触觉信号、向触觉输出设备118发送与第二触觉效果相关联的第二触觉信号或者与第三触觉效果相关联的第三触觉信号时,方法继续至步骤418处。在一些实施例中,处理器102可向触觉输出设备118发送第一、第二和第三触觉信号中的一个或多个。在一些实施例中,触觉效果生成模块128使处理器102生成并向触觉输出设备118发送第一、第二和第三触觉信号。
当触觉输出设备118基于显示设备136的可用性和位置输出第一触觉效果时,方法400继续至步骤420处。在一些实施例中,第一触觉效果包括振动、表面形变、挤压、戳、和/或固体、液体、气体或等离子体的膨胀。在一些实施例中,第一触觉效果可向用户204指示显示设备136正在显示与用户204相关的内容(例如,从计算设备101发送至显示设备136的内容)并且向用户204指示显示设备136的位置。以此方式,用户204可被警告来观看正在显示设备136上显示的可能与用户204相关的内容。
当触觉输出设备118输出基于显示设备136的特性的第二触觉效果或基于发送至显示设备136的内容的第三触觉效果时,方法400继续至步骤422。在一些实施例中,第二或第三触觉效果可各自包括振动、表面形变、挤压、戳、和/或固体、液体、气体或等离子体的膨胀。在一些实施例中,第二触觉效果可向用户204指示正在显示与用户有关的内容的显示设备136的尺寸、类型或形状。第三触觉效果可允许用户204感知与由显示设备136显示的内容相关联的触觉效果。
图5是根据另一个实施例的执行提供用于伺机显示器的触觉反馈的另一个方法500的步骤的流程图。在一些实施例中,图5中的步骤可用程序代码来实现,该程序代码可被处理器(例如,通用计算机、移动设备或服务器中的处理器)执行。在一些实施例中,这些步骤可通过一组处理器来实现。在一些实施例中,图5中示出的一个或多个步骤可被省略或以不同的顺序执行。类似地,在一些实施例中,也可执行图5中未示出的附加步骤。参考关于图1和图2中示出的系统在上文描述的部件来描述下文描述的各步骤。
当显示设备136的传感器206检测到在显示设备136附近的计算设备101时,方法500开始于步骤502。在一些实施例中,传感器206可检测计算设备101的存在或接近度。例如,传感器206可包括蓝牙设备,该蓝牙设备可通过分析传感器206与计算设备101之间的信号强度来检测计算设备101的存在和接近度(例如,通过确定计算设备101是否是可发现的并且基于蓝牙信号的强度确定计算设备101的接近度)。
当传感器206检测到计算设备101的用户204的视场208时,方法500继续至步骤504处。在一些实施例中,传感器206包括相机或其他适合的设备,可以检测用户204的视场208或眼睛注视210的方向。
当关于用户204的视场208或眼睛注视210的方向的第一信号被发送至显示设备136的处理器138时,方法继续至步骤506处。在一些实施例中,传感器206向处理器138发送第一信号。
当处理器138基于第一信号(例如,步骤506中从传感器206发送至处理器138的第一信号)确定用户204的视场208或眼睛注视210的方向时,方法继续至步骤508处。
例如,传感器206可向显示设备136的处理器138发送关于用户204的视场208或眼睛注视210的方向的数据。处理器138可基于用户204的视场208或眼睛注视210的方向确定用户204正在看显示设备136或正在朝显示设备136的方向看。作为示例,传感器206可包括用于监测用户204的眼睛或用户204的眼睛附近的肌肉的运动的相机,并且处理器138可基于监测到的运动确定用户204的视场208或眼睛注视210的方向。作为另一个示例,传感器206监测或测量移动用户204的眼睛的肌肉的电活动,并且处理器138基于肌肉的电活动确定用户204的视场208或眼睛注视210的方向。处理器138可基于用户204的视场208或眼睛注视210的方向确定用户204正在看显示设备136或正在朝显示设备136的方向看。
当关于显示设备136的第二信号被发送到计算设备101(例如,发送到计算设备101的处理器102)时,方法继续至步骤510处。在一些实施例中,显示设备136可至少部分地基于用户204的视场208或眼睛注视210的方向来向计算设备101发送第二信号。
例如,显示设备136的处理器138可确定用户204正在看显示设备136或正在朝显示设备136的方向看,并且显示设备136可基于该确定向计算设备101发送指示显示设备136的可用性、位置或属性的第二信号。在一些实施例中,计算设备101可基于如上所述的第二信号确定显示设备的可用性、位置或属性。
当处理器138至少部分地基于用户204的视场208确定显示设备触觉效果时,方法继续至步骤512处。在一些实施例中,显示设备的触觉效果确定模块164使处理器138确定显示设备触觉效果。
例如,处理器138可基于计算设备101的用户204正在看显示设备136或正在朝显示设备136的方向看(例如,步骤510中)来确定显示设备触觉效果。处理器138可确定要输出至显示设备136的用户212的显示设备触觉效果以向用户212指示用户204正在看显示设备136或正在朝显示设备136的方向看。作为示例,显示设备136可以是智能手表并且可以短暂地振动以向用户212指示用户204正在看显示设备136的显示器150(例如,用户204正在观看显示器150上的内容)。
在一些实施例中,显示设备触觉效果可包括一个或多个触觉效果。例如,显示设备触觉效果可包括触觉效果(例如,短暂振动)以向用户212指示用户204正在看显示设备136。显示设备触觉效果可包括另一个触觉效果(例如,强振动)以向用户212指示用户212应该调整手臂、手腕、腿或手以允许用户204观看正在显示设备136上显示的内容。作为示例,智能手表可朝向用户的手腕214的底部在智能手表的底部振动以向用户212指示用户204正在看显示设备136的底部。用户212可响应于显示设备触觉效果调整用户的手腕214以允许用户204更好地观看显示设备136上的内容(例如,旋转手腕214以使得显示设备136的底部更可见)。
当处理器138向显示设备136的触觉输出设备160发送与显示设备触觉效果相关联的显示设备触觉信号时,方法500继续至步骤514处。在一些实施例中,触觉效果生成模块168使处理器138生成并向触觉输出设备118发送显示设备触觉信号。
当触觉输出设备160输出显示设备触觉效果时,方法500继续至步骤516处。在一些实施例中,显示设备触觉效果可基于计算设备101的用户204的视场208的方向输出至显示设备136的用户212。在一些实施例中,显示设备触觉效果可基于用户204的视场208的方向输出至计算设备101的用户204。在一些实施例中,显示设备触觉效果包括振动、表面形变、挤压、戳、和/或固体、液体、气体或等离子体的膨胀。在一些实施例中,显示设备触觉效果包括一个或多个触觉效果以用于向用户212指示用户204正在看显示设备136。在其他实施例中,显示设备触觉效果包括一个或多个触觉效果以用于向用户204指示显示设备136可用并且用于指示显示设备137相对于用户204的位置。
一般考虑
上文记载的方法、系统和设备是示例。各种配置可恰适地省略、替代、或添加各种规程或部件_。例如,在可选配置中,可以按不同于所描述的次序来执行所描述的方法,并且可以添加、省去、或组合各种步骤。此外,在各个其他配置中可组合参照特定配置描述的各个特征。可以类似方式组合各个配置的不同方面和元件。并且,技术进展并且因此许多元件是示例且不限制本公开或权利要求的范围。
说明书中给出了具体细节以提供对各配置(包括实施方式)的透彻理解。然而,可以在没有这些具体细节的情况下实践这些配置。例如,公知的电路、过程、算法、结构和技术未示出不必要的细节以免模糊这些配置。说明书仅提供示例配置且不限制权利要求的范围、适用性或配置。相反,配置的前述描述将为本领域普通技术人员提供用于实现本发明的技术的启用描述。可以对元件的功能和布置作出改变而不会脱离本公开的精神或范围。
并且,配置可作为描绘为流程图或框图的过程来描述。尽管每个可能将各操作描述为顺序过程,但是很多操作中可以并行或并发执行。此外,这些操作的顺序可被重排。过程可具有附图中不包括的附加步骤。此外,方法的示例可由硬件、软件、固件、中间件、微代码、硬件描述语言或其任何组合来实现。当在软件、固件、中间件或微代码中实现时,执行必要任务的程序代码或代码段可被存储在诸如存储介质之类的非暂态机器可读介质中。处理器可以执行描述的任务。
已经描述了若干示例配置,可使用各种修改、可选构造及等同物而不脱离本公开的范围。例如,以上元件可以是更大系统的部件,其中其它规则可优于本发明的应用或以其它方式修改本发明的应用。另外,在考虑以上元件之前、之中或之后可采取数个步骤。因此,以上描述不约束权利要求的范围。
文中“适于”或“配置成”的使用意在作为开放且包容性语言,不排除适于或配置成执行附加任务或步骤的设备。另外,“基于”的使用意在作为开放性且包容性,其中“基于”一个或多个记载的条件或值的过程、步骤、计算或其他动作实际上可基于超出那些记载内容的附加的条件或值。文中包括的标题、列表和数字仅用来便于解释而不意在作为限制。
根据本主题的各方面的实施例可在数字电路、计算机硬件、固件、软件或前述各项的结合中实现。在一个实施例中,计算机课包括处理器或多个处理器。处理器包括计算可读介质或具有对计算可读介质的存取,诸如耦接至处理器的随机存取存储器(RAM)。处理器执行计算机可执行储存在存储器中的程序指令,诸如执行一个或多个计算机程序,包括传感器采样例程、选择例程、以及其他例程以用于执行上述方法。
这样的处理器可包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)以及状态机这样的处理器可进一步包括可编程电子设备,诸如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电子可编程只读存储器(EPROM或EEPROM)或其他类似设备。
这样的处理器可包括或与可存储指令的媒介通信,例如,有形计算机可读媒介,当由处理器执行该指令时,可使处理器执行本文描述的由处理器执行或辅助的步骤。计算机可读媒介的实施例可包括、但不限于所有电子、光学、磁性或能够为处理器(诸如web服务器中的处理器)提供计算机可读指令的其他存储设备。媒介的其他示例包括、但不限于软盘、CD-ROM、磁盘、存储芯片、ROM、RAM、ASIC、配置的处理器、所有光学媒介、所有磁带或其他磁性媒介、或任何其他计算机处理器能够读取的介质。并且,多种其他设备可包括计算机可读媒介,诸如路由器、私有或公共公共或其他传输设备。所描述的处理器以及处理可以在一种或多种结构中,并且可以通过一种或多种结构分布。处理器可包括用于执行本文描述的方法(或部分方法)中的一者或多者的代码。
尽管关于具体实施例详细描述了本主题,对于本领域技术人员显而易见的是在理解前述内容后,可容易地产生对这样的实施例的修改、变化和等同物。因此,应该理解的是,出于示例而非限制地呈现了本公开,并且本公开不排除包含对本主题的这样的修改、变化和/或附加,修改、变化和/或附加对于本领域技术人员是显而易见的。
Claims (20)
1.一种系统,包括:
计算设备;
传感器,通信地耦接至所述计算设备并且配置成检测接近所述传感器且在所述计算设备的用户的视场内的显示设备以及发送与所述显示设备有关的信号;
处理器,通信地耦接至所述传感器以用于接收所述信号,所述处理器配置成:
基于所述信号确定所述显示设备输出内容的可用性和所述显示设备的位置;
至少部分地基于所述显示设备的可用性和位置确定第一触觉效果;并且
发送与所述第一触觉效果相关联的第一触觉信号;以及
触觉输出装置,配置成接收所述第一触觉信号并输出所述第一触觉效果。
2.如权利要求1所述的系统,其特征在于,所述处理器进一步配置成向所述显示设备发送包含所述内容的数据,且所述内容包括文本、图像、声音或视频。
3.如权利要求2所述的系统,其特征在于,所述处理器进一步配置成:
至少部分地基于所述内容确定第二触觉效果,并且向所述触觉输出设备发送第二触觉信号,所述触觉输出设备配置成输出所述第二触觉效果。
4.如权利要求1所述的系统,其特征在于,所述第一触觉效果包括与所述显示设备相对于所述用户的水平定位相关联的水平触觉效果以及与所述显示设备相对于所述用户的竖直定位相关联的竖直触觉效果。
5.如权利要求4所述的系统,其特征在于,所述触觉输出设备包括第一触觉输出设备和第二触觉输出设备,所述第一触觉输出设备配置成输出所述水平触觉效果且所述第二触觉输出设备配置成输出所述竖直触觉效果。
6.如权利要求1所述的系统,其特征在于,所述处理器被进一步配置成:
基于所述信号确定所述显示设备的尺寸、形状或类型;
至少部分地基于所述显示设备的尺寸、形状或类型确定第二触觉效果;并且
向配置成输出所述第二触觉效果的所述触觉输出设备发送第二触觉信号。
7.如权利要求1所述的系统,其特征在于,所述处理器被进一步配置成:
从所述显示设备接收显示信号,其中所述显示设备包括显示设备处理器,所述显示设备处理器配置成基于来自显示设备传感器的数据确定所述用户的视场的方向,所述显示设备传感器配置成检测所述用户的视场;并且
基于所述显示信号确定所述显示设备的可用性和位置。
8.如权利要求7所述的系统,其特征在于,所述显示设备传感器包括相机,所述相机配置成捕捉与所述用户的眼睛相关联的图像,且所述显示设备处理器配置成基于所述图像确定所述用户的视场的方向。
9.如权利要求7所述的系统,其特征在于,所述显示设备传感器配置成监测所述用户的眼睛中的肌肉的运动,且所述显示设备处理器配置成基于监测到的运动确定所述用户的视场。
10.如权利要求7所述的系统,其特征在于,所述显示设备包括显示触觉输出设备并且所述显示设备处理器配置成:
至少部分地基于所述用户的视场的方向确定显示设备触觉效果;并且
向配置成输出所述显示设备触觉效果的所述显示触觉输出设备发送与所述显示设备触觉效果相关联的显示设备触觉信号。
11.如权利要求1所述的系统,其特征在于,所述传感器配置成发送与所述系统的用户或所述传感器相关联的位置信号,并且基于所述位置信号接收关于所述显示设备的位置和可用性的数据。
12.一种方法,包括:
由通信地耦接至计算设备的传感器检测接近所述传感器且在所述计算设备的用户的视场内的显示设备;
由所述传感器向处理器发送与所述显示设备相关联的传感器信号;
由所述处理器至少部分地基于所述传感器信号确定所述显示设备向所述用户输出内容的可用性以及所述显示设备的位置;
由所述处理器至少部分地基于所述显示设备的可用性和位置确定第一触觉效果;
由所述处理器向触觉输出设备发送与所述第一触觉效果相关联的第一触觉信号;并且
由所述视觉输出设备输出所述第一触觉效果。
13.如权利要求12所述的方法,其特征在于,所述第一触觉效果包括与所述显示设备相对于所述用户的水平定位相关联的水平触觉效果以及与所述显示设备相对于所述用户的竖直定位相关联的竖直触觉效果。
14.如权利要求12所述的方法,进一步包括:
由所述处理器向所述显示设备发送包含所述内容的数据,且所述内容包括图像、声音、视频或文本。
15.如权利要求14所述的方法,进一步包括:
由所述处理器至少部分地基于所述内容确定第二触觉效果;
由所述处理器向所述触觉输出设备发送与所述第二触觉效果相关联的第二触觉信号;并且
由所述视觉输出设备输出所述第二触觉效果。
16.如权利要求12所述的方法,进一步包括:
由所述处理器基于所述传感器信号确定所述显示设备的尺寸、形状或类型;
由所述处理器至少部分地基于所述显示设备的尺寸、形状或类型确定第二触觉效果;
由所述处理器向所述触觉输出设备发送与所述第二触觉效果相关联的第二触觉信号;并且
由所述视觉输出设备输出所述第二触觉效果。
17.如权利要求12所述的方法,其特征在于,基于所述传感器信号确定所述显示设备向所述用户输出内容的可用性以及所述显示设备的位置包括:
由所述处理器从所述显示设备接收显示信号,其中所述显示设备包括显示设备处理器,所述显示设备处理器配置成基于来自显示设备传感器的数据确定所述用户的视场的方向,所述显示设备传感器配置成检测所述用户的视场;并且
至少部分地基于所述显示信号确定所述显示设备的可用性和位置。
18.如权利要求17所述的方法,其特征在于,所述显示设备传感器包括相机,所述相机配置成捕捉与所述用户的眼睛相关联的图像,且所述显示设备处理器配置成基于所述图像确定所述用户的视场的方向。
19.如权利要求17所述的方法,其特征在于,所述显示设备传感器配置成监测所述用户的眼睛的运动,且所述显示设备处理器配置成基于监测到的运动确定所述用户的视场。
20.如权利要求17所述的方法,其特征在于,所述显示设备包括显示触觉输出设备并且所述方法进一步包括:
由所述显示设备处理器至少部分地基于所述用户的视场的方向确定显示设备触觉效果;并且
由所述显示设备处理器向配置成输出所述显示设备触觉效果的所述显示触觉输出设备发送与所述显示设备触觉效果相关联的显示设备触觉信号。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/176,692 US10198072B2 (en) | 2016-06-08 | 2016-06-08 | Haptic feedback for opportunistic displays |
US15/176,692 | 2016-06-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107479687A true CN107479687A (zh) | 2017-12-15 |
Family
ID=59034661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710422385.4A Pending CN107479687A (zh) | 2016-06-08 | 2017-06-07 | 用于伺机显示器的触觉反馈 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10198072B2 (zh) |
EP (1) | EP3255525A1 (zh) |
JP (1) | JP2017224290A (zh) |
KR (1) | KR20170138937A (zh) |
CN (1) | CN107479687A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102234431B1 (ko) * | 2019-05-13 | 2021-04-01 | (주)부품디비 | wavy-MRE와 전자석을 이용한 진동 액추에이터 |
KR102234432B1 (ko) * | 2019-05-13 | 2021-04-01 | (주)부품디비 | wavy-MRE와 전자석을 이용한 근감각 액추에이터 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2000885A1 (en) * | 2007-06-08 | 2008-12-10 | Research In Motion Limited | Haptic display for a handheld electronic device |
CN104035556A (zh) * | 2013-03-05 | 2014-09-10 | 英默森公司 | 触觉效果的自动适配 |
CN104049731A (zh) * | 2013-03-11 | 2014-09-17 | 英默森公司 | 依据眼睛注视的触觉感觉 |
US20150007066A1 (en) * | 2013-07-01 | 2015-01-01 | Samsung Electronics Co., Ltd. | Portable device and screen displaying method thereof |
US20150133051A1 (en) * | 2012-04-12 | 2015-05-14 | Telefonaktiebolaget L M Ericsson (Publ) | Pairing A Mobile Terminal With A Wireless Device |
CN104922899A (zh) * | 2014-03-19 | 2015-09-23 | 意美森公司 | 用于共享触觉体验的系统与方法 |
CN105283840A (zh) * | 2013-06-08 | 2016-01-27 | 苹果公司 | 用于同步两个或更多个显示器的设备、方法和图形用户界面 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7801569B1 (en) * | 2007-03-22 | 2010-09-21 | At&T Intellectual Property I, L.P. | Mobile communications device with distinctive vibration modes |
KR101467796B1 (ko) * | 2009-01-12 | 2014-12-10 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
US9571625B2 (en) * | 2009-08-11 | 2017-02-14 | Lg Electronics Inc. | Electronic device and control method thereof |
US10013857B2 (en) * | 2011-12-21 | 2018-07-03 | Qualcomm Incorporated | Using haptic technologies to provide enhanced media experiences |
US10613627B2 (en) | 2014-05-12 | 2020-04-07 | Immersion Corporation | Systems and methods for providing haptic feedback for remote interactions |
US9723494B2 (en) * | 2015-11-04 | 2017-08-01 | At&T Intellectual Property I, L.P. | Augmented reality visual Wi-Fi signal |
-
2016
- 2016-06-08 US US15/176,692 patent/US10198072B2/en not_active Expired - Fee Related
-
2017
- 2017-06-02 KR KR1020170068880A patent/KR20170138937A/ko unknown
- 2017-06-06 JP JP2017111445A patent/JP2017224290A/ja active Pending
- 2017-06-07 CN CN201710422385.4A patent/CN107479687A/zh active Pending
- 2017-06-08 EP EP17275083.8A patent/EP3255525A1/en not_active Withdrawn
-
2018
- 2018-12-20 US US16/227,681 patent/US20190265794A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2000885A1 (en) * | 2007-06-08 | 2008-12-10 | Research In Motion Limited | Haptic display for a handheld electronic device |
US20150133051A1 (en) * | 2012-04-12 | 2015-05-14 | Telefonaktiebolaget L M Ericsson (Publ) | Pairing A Mobile Terminal With A Wireless Device |
CN104035556A (zh) * | 2013-03-05 | 2014-09-10 | 英默森公司 | 触觉效果的自动适配 |
CN104049731A (zh) * | 2013-03-11 | 2014-09-17 | 英默森公司 | 依据眼睛注视的触觉感觉 |
CN105283840A (zh) * | 2013-06-08 | 2016-01-27 | 苹果公司 | 用于同步两个或更多个显示器的设备、方法和图形用户界面 |
US20150007066A1 (en) * | 2013-07-01 | 2015-01-01 | Samsung Electronics Co., Ltd. | Portable device and screen displaying method thereof |
CN104922899A (zh) * | 2014-03-19 | 2015-09-23 | 意美森公司 | 用于共享触觉体验的系统与方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20170138937A (ko) | 2017-12-18 |
JP2017224290A (ja) | 2017-12-21 |
EP3255525A1 (en) | 2017-12-13 |
US20170357315A1 (en) | 2017-12-14 |
US10198072B2 (en) | 2019-02-05 |
US20190265794A1 (en) | 2019-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10564729B2 (en) | Haptic feedback using a field of view | |
JP6670884B2 (ja) | 触覚使用可能な適合的及び多面的ディスプレイのためのシステム及び方法 | |
US11360558B2 (en) | Computer systems with finger devices | |
CN103970208B (zh) | 可穿戴式设备管理器 | |
US10356398B2 (en) | Method for capturing virtual space and electronic device using the same | |
JP4989383B2 (ja) | 情報処理装置、情報処理方法 | |
KR101794493B1 (ko) | 햅틱 기술을 채용한 이동 디바이스들 및 방법들 | |
CN105302291A (zh) | 触觉通知管理器 | |
US11347312B1 (en) | Ultrasonic haptic output devices | |
JP2014209329A (ja) | 触覚効果のパラメータを修正するためのシステムおよび方法 | |
CN109474863A (zh) | 用非音频数据在耳机上渲染触觉 | |
CN107479687A (zh) | 用于伺机显示器的触觉反馈 | |
US20240069352A1 (en) | Handheld Controllers with Charging and Storage Systems | |
KR20200075773A (ko) | 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들 | |
US20240094831A1 (en) | Tracking Devices for Handheld Controllers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171215 |