CN104049795B - 基于接触物的触觉反馈生成 - Google Patents
基于接触物的触觉反馈生成 Download PDFInfo
- Publication number
- CN104049795B CN104049795B CN201410095258.4A CN201410095258A CN104049795B CN 104049795 B CN104049795 B CN 104049795B CN 201410095258 A CN201410095258 A CN 201410095258A CN 104049795 B CN104049795 B CN 104049795B
- Authority
- CN
- China
- Prior art keywords
- haptic effect
- contactant
- contact
- equipment
- haptic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1636—Sensing arrangement for detection of a tap gesture on the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
产生触觉效果的系统感测接触物/物体在界面上的接触。所述系统随后确定接触物的一个或多个性质,并响应于所述接触,生成一种触觉效果。所述触觉效果的类型至少基于所述一个或多个性质。
Description
技术领域
一个实施例涉及触觉反馈系统,尤其涉及基于接触物性质的触觉反馈系统。
背景技术
电子设备制造商致力于为用户产生丰富的界面。常规设备利用视觉和听觉提示向用户提供反馈。在一些界面设备中,还向用户提供动觉反馈(比如主动力反馈和阻力反馈)和/或触觉反馈(比如振动、纹理和热量),共同称为“触觉反馈”或“触觉效果”。触觉反馈可以提供增强和简化用户界面的提示。具体地,振动效果或振动触觉效果可用于向电子设备的用户提供提示,以提醒用户注意特定事件,或者提供现实反馈,以在模拟或虚拟环境中产生更强的感官沉浸(sensory immersion)。
触觉反馈也已被越来越多地并入在便携式电子设备,比如移动电话机、个人数字助手(“PDA”)、智能电话机、便携式游戏机以及多种其它便携式电子设备中。例如,一些便携式游戏应用能够以类似于和配置成提供触觉反馈的较大型游戏系统一起使用的控制设备(例如操纵杆等)的方式振动。另外,诸如蜂窝电话机和PDA之类的设备能够借助振动,向用户提供各种提醒。例如,蜂窝电话机可以通过振动,向用户提醒注意来电。类似地,PDA或智能电话机可以提醒用户注意排定的日历项目,或者向用户提供“待做事项”清单项目或日历约会的提醒。
越来越多地,便携式装置正在远离物理按钮,而支持只有触摸屏的界面。这种转变允许增大灵活性、减少部件数量,以及减小对容易失灵的机械按钮的依赖,并且符合产品设计的新趋势。当利用触摸屏输入设备时,可以利用触觉,模拟诸如按下按钮或者其它用户界面动作之类的机械确认。
为了产生振动效果,许多设备利用某种致动器或者触觉输出设备。用于这种目的的致动器包括电磁致动器,比如其中利用电动机移动偏心质量的偏心旋转质量(“ERM”),其中附在弹簧上的质量被来回驱动的线性谐振致动器(“LRA”),或者诸如压电的、电活性聚合物或者形状记忆合金之类的“智能材料”。触觉输出设备也可以是诸如静电摩擦(“ESF”)设备或超声表面摩擦(“USF”)设备之类的设备,或者利用超声触觉换能器引起声辐射压的设备。其它设备利用触觉基板和柔性或可变形表面,和利用空气喷射提供诸如空气的喷出之类投射的触觉输出的设备。这些致动器能够产生强烈触觉输出。当用户操作触摸屏设备的触敏输入装置时,这些致动器还用于向用户提供反馈。
发明内容
一个实施例是产生触觉效果的系统。所述系统感测接触物/物体在界面上的接触。所述系统随后确定接触物的一个或多个性质,并响应于所述接触产生一种触觉效果。所述触觉效果的类型至少基于所述一个或多个性质。
附图说明
图1是按照本发明的实施例的触觉使能系统的方框图。
图2a-d是按照本发明的实施例,根据接触物性质产生的例证触觉效果的例示图。
图3是按照本发明的实施例的触觉反馈生成系统的方框图。
图4是按照实施例,当响应物体接触设备的输入区,产生触觉效果时,图1的系统10的功能的流程图。
具体实施方式
一个实施例是具有界面的系统,所述界面被“接触物”(即,与所述界面接触的身体部位或物体)接触。所述系统确定接触物的性质,产生可随所述性质而变化的触觉效果。于是,所述触觉效果可适应于接触所述系统的无论哪种物体/接触物。
图1是可实现本发明的实施例的触觉使能移动设备或系统10的方框图。系统10包括触敏表面11或者安装在外壳15内的其它种类的用户界面,并且可包括机械按键/按钮13。在系统10上产生振动的触觉反馈系统在系统10内。在一个实施例中,在触摸面11上或者在系统10的任何其它部分上,产生振动。
触觉反馈系统包括处理器或控制器12。耦接到处理器12的是存储器20和致动器驱动电路16,致动器驱动电路16耦接到致动器18。处理器12可以是任何种类的通用处理器,或者可以是专用于提供触觉效果的处理器,比如专用集成电路(“ASIC”)。处理器12可以是运转整个系统10的相同处理器,或者可以是独立的处理器。处理器12可根据高级参数,定义要产生什么触觉效果,和产生所述效果的顺序。通常,定义特定的触觉效果的高级参数包括大小、频率和持续时间。诸如流式(streaming)电动机命令之类的低级参数也可用于确定特定的触觉效果。如果触觉效果包括当产生该触觉效果时的这些参数的某种变化,或者基于用户的交互的这些参数的变化,那么该触觉效果可被认为是“动态的”。
处理器12向致动器驱动电路16输出控制信号,致动器驱动电路16包括用于向致动器18供给所需的电流和电压(即,“电动机信号”),从而导致产生期望的触觉效果的电子组件和电路。系统10可包括不止一个致动器18,每个致动器可包括都耦接到公共处理器12的独立驱动电路16。存储设备20可以是任何种类的存储设备或计算机可读介质,比如随机存取存储器(“RAM”)或只读存储器(“ROM”)。存储器20保存处理器12执行的指令,比如操作系统指令。在所述指令之中,存储器20包括触觉效果产生模块22,它是当由处理器12执行时,产生基于接触物的触觉效果的指令,如下更详细所述。存储器20也可位于处理器20之内,或者可以是内部存储器和外部存储器的任意组合。
触摸面11识别触摸,还可识别表面上的触摸的位置和大小。对应于触摸的数据被发送给处理器12,或者系统10内的另一个处理器,处理器12判读所述触摸,并且作为响应,产生触觉效果信号。触摸面11可利用任何感测技术,包括电容感测、电阻感测、表面声波感测、压力感测、光学感测等,感测触摸。触摸面11可感测多触摸接触,并且能够区分同时发生的多个触摸。触摸面11可以是产生并显示图像,供用户与诸如按键、按钮、拨号盘等交互的触摸屏,或者可以是具有最少图像或者没有图像的触摸板。
系统10可以是手持设备,比如蜂窝电话机、个人数字助手(“PDA”)、智能电话机、平板计算机、游戏控制台等,或者可以是提供用户界面并且包括包含一个或多个致动器的触觉效果系统的任何其它种类的设备。用户界面可以是触敏表面,或者可以是任何其它种类的用户界面,比如鼠标、触摸板、迷你操纵杆、滚轮、跟踪球、门把手、游戏手柄或游戏控制器等。
致动器18可以是任何种类的致动器,包括其中利用电动机移动偏心质量的偏心旋转质量(“ERM”),其中附在弹簧上的质量被来回驱动的线性谐振致动器(“LRA”),或者诸如压电的、电活性聚合物或者形状记忆合金之类的“智能材料”。尽管设备10图解说明用于产生振动触觉反馈的致动器18,不过,触觉输出设备也可以是利用静电摩擦(“ESF”),超声表面摩擦(“USF”)的设备,利用超声触觉换能器引起声辐射压的设备,利用触觉基板和柔性或可变形表面的设备,利用空气喷射提供诸如空气的喷出之类投射的触觉输出的设备,等等,或者任何种类的非机械或非振动设备。
系统10还包括一个或多个传感器28。传感器28把传感器数据和设备传感器信号提供给处理器12,比如整个设备加速度、回转信息、环境信息或者接近信息(例如,物体对界面11的接近)。设备传感器信号可以是设备允许的任何种类的传感器输入,比如来自加速计或陀螺仪的传感器信号,或者任何种类的环境传感器信号,比如来自麦克风、光度计、温度计或高度计的传感器信号,或者任意种类的生物监测信号,比如皮肤温度或体温、血压(“BP”)、心率监测信号(“HRM”)、脑电图(“EEG”)、或者皮肤电反应(“GSR”),或者从远程耦接的设备接收的信息或信号。
如上所述,在一个实施例中,系统10检测接触界面11的接触物或物体的一些性质。该过程涉及利用传感器28感测物理量,和利用处理器12判读感测的数据。检测所述性质的一个目的是识别接触物,或者接触物的某个方面。
在一个实施例中,通过对物体对输入区的冲击的声音分类,确定接触设备的输入区的接触物/物体的性质。这种方法能够识别被动工具,比如笔或铁笔,并且还能够识别手指的不同部位,比如指尖、指垫、指节和指甲。不同的材料产生不同的声特征,并且具有不同的谐振频率。实施例的一个组件利用光学触摸屏、电阻触摸屏和电容触摸屏中的一个或多个,检测和跟踪物体的位置。实施例的另一个组件利用声特征,对物体在输入区上的冲击进行监听、分割和分类。在已进行输入的分类之后,使所述输入与输入区的最后事件配对。一个实施例利用表面声传输来识别物体。
另一个实施例利用电容性触摸感测来识别物体。电磁信号扫频被用于从物体捕捉一系列的频率。结果,实施例能够确定握住设备的手指的构形,比如一根手指、多根手指或者整个手掌。漫射红外光照射能够捕捉触摸维度,比如手指取向和手形。
这些和其它实施例被用于识别接触设备的输入区的物体,随后向用户提供触觉反馈。可根据接触设备的输入区的物体的感测性质,更改触觉反馈。这会提供不变的触觉刺激,或者产生相同的预期效果,比如某个事件的通知。以下例子证明其中产生的触觉效果的种类至少部分基于接触物性质的本发明实施例的一些概念和特征。
可以用指垫或指节接触设备的输入区,这两者都会产生振动触觉反馈。然而,指节不如指垫敏感,从而对于指节,可以增大振动的强度,以补偿其较低的触觉敏感性,如图2a中图解所示。指节的波形也可被更改,以产生更平滑的波形,以致在指节不会负面地感知反馈,因为已知与多肉的身体部位相反,当被应用于瘦骨嶙峋的身体部位时,一些效果会令人不舒适。
代替手指部位,可以用铅笔或铁笔接触设备的输入区。例如,平板电脑可利用它对触觉敏感性的了解来相应地适应反馈。铅笔或铁笔会阻抑振动,于是需要更强的反馈。另一方面,其它振动模式会使铁笔在输入区上不舒适地弹回。
此外,接触物的性质可便于戴手套的手或手指的检测,戴手套的手或手指不能感觉到ESF式触觉效果,但会感觉到衰减的振动。在一个实施例中,有可能从接触的声音中,或者在无电容触摸屏上的触摸输入的情况下从利用声音或振动的接触的检测中,检测手套。在这个实施例中,接触物的性质包括手套特征,并可根据该性质选择触摸效果(例如,只选择基于振动的触觉效果,并增大强度,从而通过手套感觉到振动)。
呈门把手形式的实施例(即,门把手是“界面”)可产生触觉反馈,以便指示门及在它之后的房间的状态,从而例如提示只有在紧急情况下才应打开该门。门把手可感测用户的抓握,并适应在门把手上产生的反馈(例如,振动)。与用整只手的紧握相比,用两根手指的轻握可能需要较小的触觉效果。要不然,当利用两根手指时,反馈令人吃惊,或者当利用整只手时,反馈几乎感觉不到。
本发明的实施例可以使触觉反馈归一化,以致用户会获得相同的感知反馈,与使用的接触物无关。结果,触觉反馈将产生相同的预期效果,比如事件的通知或者特定的结果。
相反,接触设备的输入区的物体的感测性质或测量参数也可和应用的用户界面一起用于产生适当并且截然不同的触觉效果。例如,智能电话机上的视频游戏能够区分利用指甲的轻敲或者利用指节的轻敲。每个物体可对用户产生截然不同的触觉反馈,如图2b中图解所示,其中响应指尖触摸,产生振动性的“按钮按压”模拟触觉效果,而响应指节轻敲,产生基于可变形表面的触觉效果。在一个更具体的例子中,用指甲切显示在触摸屏显示器上的“香蕉”会与用指节压挤显示在触摸屏显示器上的“椰子”感觉不同,因为会产生两种不同的触觉效果。于是,对于利用用户界面产生的每种预定动作,给予用户的预期感觉会不同。
触觉效果也可用于确认物体的正确检测。例如,指节轻敲可产生声音大的触觉效果,而指甲轻敲会产生一系列的明显振动。于是,对用户来说,输入的误判读会非常明显,如图2c中图解所示,其中触觉效果指示检测到的触摸的种类,使得当指垫轻敲被错误地检测为指节轻敲时,可以容易地注意到。再例如,通过利用ESF,滑动手势可产生截然不同的纹理效果。这会立即被用户察觉为正确或不正确判读的输入。
可以测量和判读接触设备的输入区的接触物/物体的参数,以确定反馈的适当反馈模态。例如,反馈产生系统可根据输入区是被指垫还是被铁笔接触,在ESF和振动触觉反馈之间切换,如图2d中图解所示。如果输入区被一般的铁笔接触,那么不可使用ESF,因为它只能用手指或者某些种类的专用铁笔或无生命的物体感觉到。相反,当它确定铁笔不能感觉到振动触觉反馈时,反馈生成系统可利用视觉反馈或音频反馈。
图3是按照本发明的实施例的触觉反馈生成系统300的方框图。在一个实施例中,系统300的功能用图1的系统10实现。触觉反馈生成系统300包含接触物感测组件310、判读和反馈组件320和触觉输出组件330。接触物感测组件310能够检测接触设备的输入区或者任何其它区域的接触物/物体的某些性质。处理器接收并根据接触物参数的物理量来判读感测数据。实施例可包括图3中所示的一些或者全部组件。
接触物感测组件310包括扫频电容感测组件311。电容感测通过在单一频率应用信号并测量由物体的电容耦合引起的返回信号中的任何畸变,检测来自物体的接触。扫频电容感测扫描一系列的频率,并测量结果,从而获得电容分布曲线(profile),分布曲线的形状提供关于物体和输入表面之间的接触的信息,从而识别物体。所述分布曲线的形状可提供关于手和仪表化(instrumented)表面之间的接触的信息。例如,门把手能够检测单指触摸、双指捏合、环握或全握之间的差异。智能电话机能够检测单指触摸、双指捏合或者用所有5根手指捏合之间的差异。
接触物感测组件310包括音频感测组件312。由物体和输入区之间的接触发出的声音可用麦克风捕捉,并被分析。可以检测指垫、指尖、指节、指甲和笔的两端之间的差异。
接触物感测组件310包括振动感测组件313。利用一个或多个加速计,可以捕捉和分析由物体和输入区之间的接触引起的振动。
接触物感测组件310包括电容感测组件314。电容传感器能够确定指垫和表面之间的接触面积。所述面积的大小和形状随着时间的变化可用于估计手指的姿势。例如,从一端缓慢收缩的椭圆形区域可指示手指正在从平直的取向移动到成角度的取向。
接触物感测组件310包括指纹感测组件315。指纹传感器可指示与表面接触的指垫的部分,这可用于推断手指势态。例如,在指垫右侧的旋涡可指示指垫的左侧接触表面。
触觉反馈生成系统300还包括判读和反馈组件320,判读和反馈组件320判读接触物性质,并判定它们将如何影响触觉输出。判读和反馈组件320包括根据接触物(即,接触设备的输入区的物体)的触觉性质来修改输出的归一化组件321。归一化组件321确保触觉反馈一致。于是,可根据接触物的不同部分的触觉敏感度,更改振动的强度,从而返回一致的触觉反馈。例如,可根据手指的不同部位-指垫、指节、指甲等的触觉敏感度,更改振动的强度。类似地,可以考虑到情感结果,以确保对指甲和指垫的刺激都被感知为正面的刺激,而不管感知方面的差异。在利用ESF的例子中,可考虑指垫的不同部分的传导性和干燥度,以确保一致的响应。
判读和反馈组件320包括用户界面组件322。触觉反馈输出被结合到正常的用户界面操作中。触觉反馈需要随着用户界面的取决于接触物的特征而变化。于是,不同的用户界面结果和状态导致相应的不同触觉反馈。
判读和反馈组件320包括确认组件323。检测到的接触物被反映到不同的触觉效果和纹理中,这便于对错误的接触物检测的校正。确认组件323降低检测错误的影响,并提供改善的当前输入模式的认识,从而降低认知负担。
判读和反馈组件320包括模态选择组件324。输出模态是根据接触物和在不同背景下的优选模态之间的映射选择的。于是,模态选择组件324为所有接触物提供最佳反馈,而不管触觉感知方面的差异。
触觉反馈生成系统300还包括触觉输出组件330。触觉输出组件330(例如,图1的致动器18)的触觉反馈包括(但不限于)振动致动器、ESF显示器、电触觉阵列、和力反馈设备。触觉反馈由一个或多个物理致动器、驱动电子设备和相关软件,比如存在于设备的操作系统之内或之外的渲染引擎产生。
图4是按照实施例,当响应于物体接触设备的输入区产生触觉效果时,图1的系统10的功能的流程图。在一个实施例中,图4的流程图的功能是用保存在存储器或者其它计算机可读或有形介质中并由处理器执行的软件实现的。在其它实施例中,所述功能可用硬件(例如,通过利用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)等),或者硬件和软件的任意组合实现。
在402,系统10感测接触物与设备的接触。例如,手指或铁笔可接触触摸屏。
在404,系统10确定接触物的一种或多种性质。例如,系统可判定接触物是指垫、指节或指甲,还是诸如铁笔、铅笔擦或笔尖之类的无生命物体。
在406,系统响应于接触,产生一种触觉效果,其中触觉效果的种类至少基于一种或多种性质。根据触觉输出设备(即,模态)的选择,比如振动触觉设备、ESF设备或可变形的触觉设备之间的选择,该种触觉效果可不同于其它触觉效果。此外,通过改变触觉效果的参数,比如大小、频率或持续时间参数,触觉效果的种类可不同于其它触觉效果。参数可以变化,以致触觉效果被归一化,因为对用户来说将感觉相同,而与接触物的种类/性质无关。
如上所述,当与触摸屏接触时,接触物的性质可被用于产生触觉效果。在其它实施例中,在接触物进行接触之前,可以利用接触物的设想的性质。当产生各种触觉效果时,通常通过使效果的发展与空间运动同步,完成现实的触觉效果的表现。例如,当在机械按钮的行程范围内移动机械按钮时,动觉反馈可以跟随特定的力分布。这一般包括力的逐步增加,和之后当按钮被触发时的突然下降。利用振动触觉致动器,可产生相似的效果。
另一方面,在触摸屏上,由于缺乏实际的行程,因此由概念上垂直于屏幕发生的模拟微件(widget)运动产生的触觉效果通常局限于时间分布(temporal profile)。于是,在一个实施例中,图1的传感器28是可用于在接触物接触设备的界面之前,检测该接触物的接近传感器。当例如指垫逼近表面时,接近感测被用于产生空间挠曲形状(deflectionprofile)。可空间地展示该效果,以致在挠曲形状中某个临界时刻发生与触摸屏的实际碰撞。例如,当手指逼近屏幕时,振动可逐渐增大,并可在按钮被实际触发的时刻发生对触摸屏的冲击。
在另一个实施例中,利用接近传感器在接触之前,激活触觉输出设备,以避免处理延迟。例如,在指垫触摸屏幕之前,可以激活ESF纹理,以致一旦发生触摸,就感觉到正确的效果,而没有任何处理延迟。在这个实施例中,计算触摸检测和输出的激活之间的处理延迟,而不是致动延迟(这在ESF的情况下几乎是即时的)。
在另一个实施例中,系统利用由接近传感器确定的触摸事件之前的时间,在触摸输入之前进行复杂的计算。例如,所述时间可被用于加载将被触摸的表面的模型,进行物理模拟,和准备诸如波形之类的触觉效果。
在另一个实施例中,确定默认接触物,以致在该接触物接触界面之前,确定接触物的性质。如上所述,接近传感器随后可以和接触物性质一起用于确定触觉效果。如果接触物原来是除默认接触物外的某物,那么系统随后可正确地识别该物体,并相应地作出响应。例如,可响应于接触物的预期接触,激活第一致动器。当接触物接触输入区时,如果实际的接触物不同于默认的或者假定的接触物,那么可响应于实际输入,激活第二致动器。
如上所述,接触物性质被用于确定将响应于接触物的接触而产生的触觉效果的种类。可以选择所述种类,以致触觉效果感觉相同,而与接触物无关,或者提供取决于接触物性质的信息。
这里,具体例示和/或说明了几个实施例。然而,应理解公开的实施例的各种修改和变化被上述教导覆盖,并且在附加权利要求的范围之内,而不脱离本发明的精神和预期范围。
Claims (11)
1.一种在设备上产生触觉效果的方法,所述方法包括:
感测接触物与设备的第一接触;
对于第一接触,确定接触物的多个部分中接触了设备的第一部分的特性;
确定与第一部分相对应的第一触觉敏感性;
响应于第一接触,至少基于第一触觉敏感性产生第一触觉效果,并且向第一部分应用第一触觉效果;
感测接触物与设备的第二接触;
对于第二接触,确定接触物的多个部分中接触了设备的第二部分的特性;
确定与第二部分相对应的第二触觉敏感性;和
响应于第二接触,至少基于第二触觉敏感性产生第二触觉效果,并且向第二部分应用第二触觉效果,其中第二触觉效果相对于第一触觉效果变化以补偿第一触觉敏感性和第二触觉敏感性之间的差异,使得接触物对于所应用的第一触觉效果和所应用的第二触觉效果感觉相同。
2.按照权利要求1所述的方法,进一步包括响应于第一接触产生不同类型的触觉效果,其中所述不同类型的触觉效果通过确定触觉效果的参数而产生。
3.按照权利要求2所述的方法,其中第一触觉效果和第二触觉效果是振动触觉效果,所述参数包含大小、频率或持续时间中的至少一个。
4.按照权利要求2所述的方法,其中通过从用于触觉效果的多个触觉输出设备中选择触觉输出设备,产生该类型的触觉效果。
5.按照权利要求4所述的方法,其中所述多个触觉输出设备包含振动设备、静电摩擦设备或可变形表面中的至少一个。
6.按照权利要求1所述的方法,其中接触物的多个部分包括触针、指垫、指甲或指节之一。
7.按照权利要求1所述的方法,其中不同类型的触觉效果用于确认接触物的正确检测。
8.按照权利要求1所述的方法,其中感测包括确定接触物相对于设备的接近,所述感测是在接触之前进行的。
9.按照权利要求1所述的方法,其中感测包括从设备的触摸表面接收信号。
10.一种存储有指令的计算机可读介质,所述指令当由处理器执行时,使处理器执行按照权利要求1-9之一所述的方法。
11.一种用于产生触觉效果的系统,包括:
感测接触物的接触的界面;
耦接到所述界面、生成触觉效果的触觉输出设备;
处理器;和
耦接到所述处理器的按照权利要求10所述的计算机可读介质。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/803,103 US9436282B2 (en) | 2013-03-14 | 2013-03-14 | Contactor-based haptic feedback generation |
US13/803,103 | 2013-03-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104049795A CN104049795A (zh) | 2014-09-17 |
CN104049795B true CN104049795B (zh) | 2019-02-22 |
Family
ID=50287869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410095258.4A Expired - Fee Related CN104049795B (zh) | 2013-03-14 | 2014-03-14 | 基于接触物的触觉反馈生成 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9436282B2 (zh) |
EP (1) | EP2778847B1 (zh) |
JP (1) | JP6411756B2 (zh) |
KR (1) | KR20140113420A (zh) |
CN (1) | CN104049795B (zh) |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0905692D0 (en) * | 2009-04-02 | 2009-05-20 | Tno | Touch sensitive device |
CN108762577A (zh) * | 2011-10-18 | 2018-11-06 | 卡内基梅隆大学 | 用于分类触敏表面上的触摸事件的方法和设备 |
US10470971B2 (en) * | 2013-03-15 | 2019-11-12 | Sambhu Choudhury | Garment with remote controlled vibration array |
US10744060B2 (en) * | 2013-03-15 | 2020-08-18 | Sambhu Choudhury | Garment with remote controlled vibration array |
US9949890B2 (en) * | 2013-03-15 | 2018-04-24 | Sambhu Choudhury | Garment with remote controlled vibration array |
KR20140114766A (ko) | 2013-03-19 | 2014-09-29 | 퀵소 코 | 터치 입력을 감지하기 위한 방법 및 장치 |
US9612689B2 (en) | 2015-02-02 | 2017-04-04 | Qeexo, Co. | Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer |
US9013452B2 (en) * | 2013-03-25 | 2015-04-21 | Qeexo, Co. | Method and system for activating different interactive functions using different types of finger contacts |
US9939900B2 (en) * | 2013-04-26 | 2018-04-10 | Immersion Corporation | System and method for a haptically-enabled deformable surface |
US20150242009A1 (en) * | 2014-02-26 | 2015-08-27 | Qeexo, Co. | Using Capacitive Images for Touch Type Classification |
KR101846256B1 (ko) * | 2014-05-09 | 2018-05-18 | 삼성전자주식회사 | 필기감을 제공하는 촉각 피드백 장치 및 방법 |
US9690381B2 (en) | 2014-08-21 | 2017-06-27 | Immersion Corporation | Systems and methods for shape input and output for a haptically-enabled deformable surface |
US9665763B2 (en) * | 2014-08-31 | 2017-05-30 | Qualcomm Incorporated | Finger/non-finger determination for biometric sensors |
US9582705B2 (en) * | 2014-08-31 | 2017-02-28 | Qualcomm Incorporated | Layered filtering for biometric sensors |
US9195879B1 (en) | 2014-08-31 | 2015-11-24 | Qualcomm Incorporated | Air/object determination for biometric sensors |
KR102521953B1 (ko) | 2014-09-02 | 2023-04-14 | 애플 인크. | 가변 햅틱 출력을 위한 시맨틱 프레임워크 |
GB2530036A (en) | 2014-09-09 | 2016-03-16 | Ultrahaptics Ltd | Method and apparatus for modulating haptic feedback |
US9329715B2 (en) | 2014-09-11 | 2016-05-03 | Qeexo, Co. | Method and apparatus for differentiating touch screen users based on touch event analysis |
US11619983B2 (en) | 2014-09-15 | 2023-04-04 | Qeexo, Co. | Method and apparatus for resolving touch screen ambiguities |
US10606417B2 (en) | 2014-09-24 | 2020-03-31 | Qeexo, Co. | Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns |
US9791929B2 (en) * | 2014-10-31 | 2017-10-17 | Elwha Llc | Tactile control system |
US9535550B2 (en) | 2014-11-25 | 2017-01-03 | Immersion Corporation | Systems and methods for deformation-based haptic effects |
US9971406B2 (en) | 2014-12-05 | 2018-05-15 | International Business Machines Corporation | Visually enhanced tactile feedback |
FR3030070B1 (fr) * | 2014-12-15 | 2018-02-02 | Dav | Dispositif et procede de commande pour vehicule automobile |
CN104598106A (zh) * | 2014-12-31 | 2015-05-06 | 深圳市金立通信设备有限公司 | 一种终端 |
CA2976319C (en) | 2015-02-20 | 2023-06-27 | Ultrahaptics Ip Limited | Algorithm improvements in a haptic system |
KR20160120560A (ko) | 2015-04-08 | 2016-10-18 | 현대자동차주식회사 | 사용자 입력 인식장치 및 방법 |
DE102015006605B3 (de) | 2015-05-21 | 2016-09-22 | Audi Ag | Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten eines Kraftfahrzeugs und Kraftfahrzeug |
CN105183217B (zh) * | 2015-08-20 | 2016-11-09 | 京东方科技集团股份有限公司 | 触控显示设备及触控显示方法 |
US10642404B2 (en) | 2015-08-24 | 2020-05-05 | Qeexo, Co. | Touch sensitive device with multi-sensor stream synchronized data |
KR102639118B1 (ko) * | 2015-09-08 | 2024-02-22 | 소니그룹주식회사 | 정보 처리 장치, 방법 및 컴퓨터 프로그램 |
DE102015012178A1 (de) | 2015-09-16 | 2017-03-16 | e.solutions GmbH | Berührungsempfindliche Vorrichtung mit haptischer Rückmeldung |
JP6100355B1 (ja) * | 2015-12-15 | 2017-03-22 | レノボ・シンガポール・プライベート・リミテッド | キーボード及びその制御方法 |
CN105892746A (zh) * | 2016-03-31 | 2016-08-24 | 联想(北京)有限公司 | 一种触控方法以及电子设备 |
US20170285774A1 (en) * | 2016-04-01 | 2017-10-05 | Kunjal Parikh | Characterization and simulation of writing instruments |
DK179823B1 (en) | 2016-06-12 | 2019-07-12 | Apple Inc. | DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK |
CN105997252A (zh) * | 2016-06-20 | 2016-10-12 | 深圳市罗伯医疗科技有限公司 | 机器人在手术中反馈触摸力的方法和机器人 |
US10268275B2 (en) | 2016-08-03 | 2019-04-23 | Ultrahaptics Ip Ltd | Three-dimensional perceptions in haptic systems |
DK201670720A1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs |
US10564724B1 (en) * | 2016-09-20 | 2020-02-18 | Apple Inc. | Touch-based input device with haptic feedback |
US10452145B2 (en) * | 2016-11-14 | 2019-10-22 | Immerson Corporation | Systems and methods for haptically-enhanced smart home architectures |
US11531395B2 (en) | 2017-11-26 | 2022-12-20 | Ultrahaptics Ip Ltd | Haptic effects from focused acoustic fields |
US10908200B2 (en) | 2018-03-29 | 2021-02-02 | Cirrus Logic, Inc. | Resonant phase sensing of resistive-inductive-capacitive sensors |
US10921159B1 (en) | 2018-03-29 | 2021-02-16 | Cirrus Logic, Inc. | Use of reference sensor in resonant phase sensing system |
US11092657B2 (en) | 2018-03-29 | 2021-08-17 | Cirrus Logic, Inc. | Compensation of changes in a resonant phase sensing system including a resistive-inductive-capacitive sensor |
US10642435B2 (en) | 2018-03-29 | 2020-05-05 | Cirrus Logic, Inc. | False triggering prevention in a resonant phase sensing system |
US10725549B2 (en) * | 2018-03-29 | 2020-07-28 | Cirrus Logic, Inc. | Efficient detection of human machine interface interaction using a resonant phase sensing system |
US11537242B2 (en) | 2018-03-29 | 2022-12-27 | Cirrus Logic, Inc. | Q-factor enhancement in resonant phase sensing of resistive-inductive-capacitive sensors |
JP7354146B2 (ja) | 2018-05-02 | 2023-10-02 | ウルトラハプティクス アイピー リミテッド | 改善された音響伝達効率のための遮断板構造体 |
US20190384394A1 (en) * | 2018-06-15 | 2019-12-19 | Immersion Corporation | Method and apparatus for providing resistive feedback |
JPWO2019244716A1 (ja) * | 2018-06-19 | 2021-06-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11009989B2 (en) | 2018-08-21 | 2021-05-18 | Qeexo, Co. | Recognizing and rejecting unintentional touch events associated with a touch sensitive device |
US10852831B2 (en) * | 2018-11-26 | 2020-12-01 | Zinitix Co., Ltd. | User interface device driving chip for providing improved input feedback and electronic device using the same |
CN109669612A (zh) * | 2018-11-29 | 2019-04-23 | 惠州Tcl移动通信有限公司 | 移动终端控制方法、装置、移动终端及存储介质 |
US11536758B2 (en) | 2019-02-26 | 2022-12-27 | Cirrus Logic, Inc. | Single-capacitor inductive sense systems |
US10935620B2 (en) | 2019-02-26 | 2021-03-02 | Cirrus Logic, Inc. | On-chip resonance detection and transfer function mapping of resistive-inductive-capacitive sensors |
US11402946B2 (en) | 2019-02-26 | 2022-08-02 | Cirrus Logic, Inc. | Multi-chip synchronization in sensor applications |
US10948313B2 (en) | 2019-02-26 | 2021-03-16 | Cirrus Logic, Inc. | Spread spectrum sensor scanning using resistive-inductive-capacitive sensors |
JP7207017B2 (ja) * | 2019-03-01 | 2023-01-18 | 株式会社デンソー | 入力装置 |
US11842517B2 (en) | 2019-04-12 | 2023-12-12 | Ultrahaptics Ip Ltd | Using iterative 3D-model fitting for domain adaptation of a hand-pose-estimation neural network |
US10942603B2 (en) | 2019-05-06 | 2021-03-09 | Qeexo, Co. | Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device |
US11231815B2 (en) | 2019-06-28 | 2022-01-25 | Qeexo, Co. | Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing |
US11079874B2 (en) | 2019-11-19 | 2021-08-03 | Cirrus Logic, Inc. | Virtual button characterization engine |
US11715453B2 (en) | 2019-12-25 | 2023-08-01 | Ultraleap Limited | Acoustic transducer structures |
US11592423B2 (en) | 2020-01-29 | 2023-02-28 | Qeexo, Co. | Adaptive ultrasonic sensing techniques and systems to mitigate interference |
US11579030B2 (en) | 2020-06-18 | 2023-02-14 | Cirrus Logic, Inc. | Baseline estimation for sensor system |
US11816267B2 (en) | 2020-06-23 | 2023-11-14 | Ultraleap Limited | Features of airborne ultrasonic fields |
US11868540B2 (en) | 2020-06-25 | 2024-01-09 | Cirrus Logic Inc. | Determination of resonant frequency and quality factor for a sensor system |
US11835410B2 (en) | 2020-06-25 | 2023-12-05 | Cirrus Logic Inc. | Determination of resonant frequency and quality factor for a sensor system |
DE102020004363A1 (de) * | 2020-07-20 | 2022-01-20 | Daimler Ag | Verfahren zum Erzeugen einer haptischen Rückmeldung |
WO2022058738A1 (en) | 2020-09-17 | 2022-03-24 | Ultraleap Limited | Ultrahapticons |
US11619519B2 (en) | 2021-02-08 | 2023-04-04 | Cirrus Logic, Inc. | Predictive sensor tracking optimization in multi-sensor sensing applications |
US11808669B2 (en) | 2021-03-29 | 2023-11-07 | Cirrus Logic Inc. | Gain and mismatch calibration for a phase detector used in an inductive sensor |
US11821761B2 (en) | 2021-03-29 | 2023-11-21 | Cirrus Logic Inc. | Maximizing dynamic range in resonant sensing |
US11507199B2 (en) | 2021-03-30 | 2022-11-22 | Cirrus Logic, Inc. | Pseudo-differential phase measurement and quality factor compensation |
US11979115B2 (en) | 2021-11-30 | 2024-05-07 | Cirrus Logic Inc. | Modulator feedforward compensation |
US11854738B2 (en) | 2021-12-02 | 2023-12-26 | Cirrus Logic Inc. | Slew control for variable load pulse-width modulation driver and load sensing |
JP7444939B1 (ja) | 2022-09-08 | 2024-03-06 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、及び制御方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008042745A3 (en) * | 2006-10-04 | 2008-11-20 | Immersion Corp | Haptic effects with proximity sensing |
EP2075671A1 (en) * | 2007-12-26 | 2009-07-01 | HTC Corporation | User interface of portable device and operating method thereof |
CN102339123A (zh) * | 2010-07-14 | 2012-02-01 | Tcl集团股份有限公司 | 根据接触面积控制振动的方法 |
CN103092406A (zh) * | 2011-11-07 | 2013-05-08 | 伊梅森公司 | 用于触敏表面上的多压交互的系统和方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003065192A1 (en) | 2002-01-31 | 2003-08-07 | Nokia Corporation | Method, system and device for distinguishing pointing means |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
TWI340338B (en) * | 2007-05-15 | 2011-04-11 | Htc Corp | Method for identifying the type of input tools for a handheld device |
KR101424259B1 (ko) * | 2007-08-22 | 2014-07-31 | 삼성전자주식회사 | 휴대단말에서 입력 피드백 제공 방법 및 장치 |
US8098235B2 (en) * | 2007-09-28 | 2012-01-17 | Immersion Corporation | Multi-touch device having dynamic haptic effects |
US8525802B2 (en) * | 2008-03-31 | 2013-09-03 | Lg Electronics Inc. | Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same |
GB2462465B (en) * | 2008-08-08 | 2013-02-13 | Hiwave Technologies Uk Ltd | Touch sensitive device |
JP5309793B2 (ja) * | 2008-08-27 | 2013-10-09 | 日本電気株式会社 | タッチパネル振動方法およびタッチパネル装置 |
US8686952B2 (en) * | 2008-12-23 | 2014-04-01 | Apple Inc. | Multi touch with multi haptics |
US20100156823A1 (en) * | 2008-12-23 | 2010-06-24 | Research In Motion Limited | Electronic device including touch-sensitive display and method of controlling same to provide tactile feedback |
GB0905692D0 (en) * | 2009-04-02 | 2009-05-20 | Tno | Touch sensitive device |
US8224392B2 (en) * | 2009-04-29 | 2012-07-17 | Lg Electronics Inc. | Mobile terminal capable of recognizing fingernail touch and method of controlling the operation thereof |
US8378798B2 (en) * | 2009-07-24 | 2013-02-19 | Research In Motion Limited | Method and apparatus for a touch-sensitive display |
US20120032891A1 (en) * | 2010-08-03 | 2012-02-09 | Nima Parivar | Device, Method, and Graphical User Interface with Enhanced Touch Targeting |
EP2603844B1 (en) * | 2010-08-12 | 2020-05-20 | Google LLC | Finger identification on a touchscreen |
US8674961B2 (en) * | 2011-01-31 | 2014-03-18 | National Semiconductor Corporation | Haptic interface for touch screen in mobile device or other device |
US20120256848A1 (en) * | 2011-04-08 | 2012-10-11 | Research In Motion Limited | Tactile feedback method and apparatus |
US9323326B2 (en) * | 2011-09-06 | 2016-04-26 | Immersion Corporation | Haptic output device and method of generating a haptic effect in a haptic output device |
US8493354B1 (en) * | 2012-08-23 | 2013-07-23 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
US9063570B2 (en) * | 2012-06-27 | 2015-06-23 | Immersion Corporation | Haptic feedback control system |
US8743072B2 (en) * | 2012-09-28 | 2014-06-03 | Lg Electronics Inc. | Display device and control method thereof |
US9715300B2 (en) * | 2013-03-04 | 2017-07-25 | Microsoft Technology Licensing, Llc | Touch screen interaction using dynamic haptic feedback |
-
2013
- 2013-03-14 US US13/803,103 patent/US9436282B2/en not_active Expired - Fee Related
-
2014
- 2014-03-07 EP EP14158378.1A patent/EP2778847B1/en not_active Not-in-force
- 2014-03-12 KR KR1020140028911A patent/KR20140113420A/ko not_active Application Discontinuation
- 2014-03-12 JP JP2014049292A patent/JP6411756B2/ja not_active Expired - Fee Related
- 2014-03-14 CN CN201410095258.4A patent/CN104049795B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008042745A3 (en) * | 2006-10-04 | 2008-11-20 | Immersion Corp | Haptic effects with proximity sensing |
EP2075671A1 (en) * | 2007-12-26 | 2009-07-01 | HTC Corporation | User interface of portable device and operating method thereof |
CN102339123A (zh) * | 2010-07-14 | 2012-02-01 | Tcl集团股份有限公司 | 根据接触面积控制振动的方法 |
CN103092406A (zh) * | 2011-11-07 | 2013-05-08 | 伊梅森公司 | 用于触敏表面上的多压交互的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6411756B2 (ja) | 2018-10-24 |
US9436282B2 (en) | 2016-09-06 |
EP2778847A2 (en) | 2014-09-17 |
EP2778847B1 (en) | 2017-05-03 |
KR20140113420A (ko) | 2014-09-24 |
EP2778847A3 (en) | 2014-10-22 |
CN104049795A (zh) | 2014-09-17 |
US20140267065A1 (en) | 2014-09-18 |
JP2014179088A (ja) | 2014-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104049795B (zh) | 基于接触物的触觉反馈生成 | |
US10564730B2 (en) | Non-collocated haptic cues in immersive environments | |
US8031172B2 (en) | Method and apparatus for wearable remote interface device | |
CN104679233B (zh) | 用于生成摩擦和振动触感效果的系统和方法 | |
US10416771B2 (en) | Haptic output system for user input surface | |
CN102591512B (zh) | 触觉反馈系统和用于提供触摸反馈的方法 | |
CN104020844B (zh) | 具有线性共振致动器的触觉设备 | |
CN104423591B (zh) | 用于光谱图的视觉处理以生成触觉效果的系统和方法 | |
JP2019121396A (ja) | ユーザー入力とモバイルデバイス動作とを動的に関連付けるデバイス及び方法 | |
US10234945B2 (en) | Compensated haptic rendering for flexible electronic devices | |
KR20170142902A (ko) | 햅틱 피드백을 위한 폐쇄-루프 제어를 위한 시스템들 및 방법들 | |
EP3321780A1 (en) | High definition haptic effects generation using primitives | |
WO2013104919A1 (en) | Haptic feedback and pressure sensing | |
JP2010086471A (ja) | 操作感提供装置、および操作感フィードバック方法、並びにプログラム | |
EP3096206A1 (en) | Haptic effects based on predicted contact | |
CN110096140A (zh) | 依据眼睛注视的触觉感觉 | |
WO2010026395A2 (en) | Machine interfaces | |
US20180011538A1 (en) | Multimodal haptic effects | |
CN110209303B (zh) | 电子设备和控制方法 | |
JP2017174211A (ja) | ペン型入力装置、及び、電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C53 | Correction of patent of invention or patent application | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: IMMERSION CORPORATION Address before: American California Applicant before: Immersion Corp. |
|
COR | Change of bibliographic data |
Free format text: CORRECT: APPLICANT; FROM: IMMERSION CORP. TO: YIMEISEN COMPANY |
|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190222 Termination date: 20210314 |
|
CF01 | Termination of patent right due to non-payment of annual fee |