CN105892921A - 用于使用多个致动器实现纹理的系统和方法 - Google Patents
用于使用多个致动器实现纹理的系统和方法 Download PDFInfo
- Publication number
- CN105892921A CN105892921A CN201610196586.2A CN201610196586A CN105892921A CN 105892921 A CN105892921 A CN 105892921A CN 201610196586 A CN201610196586 A CN 201610196586A CN 105892921 A CN105892921 A CN 105892921A
- Authority
- CN
- China
- Prior art keywords
- actuator
- haptic effect
- haptic
- signal
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 title claims abstract description 287
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004891 communication Methods 0.000 claims description 6
- 235000013399 edible fruits Nutrition 0.000 claims description 5
- 229920001746 electroactive polymer Polymers 0.000 claims description 5
- 210000000056 organ Anatomy 0.000 claims 1
- 230000000007 visual effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 24
- 210000003811 finger Anatomy 0.000 description 24
- 239000004576 sand Substances 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 18
- 239000011435 rock Substances 0.000 description 16
- 239000012190 activator Substances 0.000 description 11
- 239000011449 brick Substances 0.000 description 10
- 239000012634 fragment Substances 0.000 description 10
- 244000025254 Cannabis sativa Species 0.000 description 9
- 239000010985 leather Substances 0.000 description 9
- 238000013507 mapping Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 230000035807 sensation Effects 0.000 description 8
- 239000004570 mortar (masonry) Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 230000007704 transition Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 229910052738 indium Inorganic materials 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000002023 wood Substances 0.000 description 4
- 241000270322 Lepidosauria Species 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 208000037656 Respiratory Sounds Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- CVOFKRWYWCSDMA-UHFFFAOYSA-N 2-chloro-n-(2,6-diethylphenyl)-n-(methoxymethyl)acetamide;2,6-dinitro-n,n-dipropyl-4-(trifluoromethyl)aniline Chemical compound CCC1=CC=CC(CC)=C1N(COC)C(=O)CCl.CCCN(CCC)C1=C([N+]([O-])=O)C=C(C(F)(F)F)C=C1[N+]([O-])=O CVOFKRWYWCSDMA-UHFFFAOYSA-N 0.000 description 1
- 241000251468 Actinopterygii Species 0.000 description 1
- 240000007058 Halophila ovalis Species 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- -1 snow Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B06—GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS IN GENERAL
- B06B—METHODS OR APPARATUS FOR GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS OF INFRASONIC, SONIC, OR ULTRASONIC FREQUENCY, e.g. FOR PERFORMING MECHANICAL WORK IN GENERAL
- B06B1/00—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency
- B06B1/02—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy
- B06B1/06—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1601—Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02N—ELECTRIC MACHINES NOT OTHERWISE PROVIDED FOR
- H02N2/00—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction
- H02N2/02—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction producing linear motion, e.g. actuators; Linear positioners ; Linear motors
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02N—ELECTRIC MACHINES NOT OTHERWISE PROVIDED FOR
- H02N2/00—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction
- H02N2/02—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction producing linear motion, e.g. actuators; Linear positioners ; Linear motors
- H02N2/06—Drive circuits; Control arrangements or methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Mechanical Engineering (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
公开了用于使用多个致动器来实现纹理的系统和方法。例如,一种公开的系统包括,系统包括:第一致动器,该第一致动器被配置成接收第一触觉信号并且至少部分地基于该第一触觉信号来输出第一触觉效果;第二致动器,该第二致动器被配置成接收第二触觉信号,并且至少部分地基于该第二触觉信号来输出第二触觉效果;以及处理器,该处理器被配置成:确定第一触觉效果和第二触觉效果,当被组合时,第一触觉效果和第二触觉效果被配置成输出纹理;以及将第一触觉信号传送至第一致动器,并且将第二触觉信号传送至第二致动器。
Description
本申请是申请日为2010年3月11日、国际申请号为PCT/US2010/026897、中国申请号为201080011708.7、发明名称为“用于使用多个致动器实现纹理的系统和方法”的中国专利申请的分案申请。
相关申请的交叉引用
本专利申请要求于2009年3月12日提交的标题为“Locating FeaturesUsing a Friction Display”的美国临时专利申请No.61/159,482的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2009年11月17日提交的标题为“System andMethod for Increasing Haptic Bandwidth in an Electronic Device”的美国临时专利申请No.61/262,041的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2009年11月17日提交的标题为“Friction RotaryDevice for Haptic Feedback”的美国临时专利申请No.61/262,038的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems AndMethods For Providing Features In A Friction Display”的美国实用新型专利申请No.12/696,893的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems AndMethods For Friction Displays And Additional Haptic Effects”的美国实用新型专利申请No.12/696,900的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems AndMethods For Interfaces Featuring Surface-Based Haptic Effects”的美国实用新型专利申请No.12/696,908的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems AndMethods For A Texture Engine”的美国实用新型专利申请No.12/697,010的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems AndMethods For Using Textures In Graphical User Interface Widgets”的美国实用专利申请No.12/697,037的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems AndMethods For Using Multiple Actuators To Realize Textures”的美国实用新型专利申请No.12/697,042的优先权,通过引用的方式将其全部内容合并于此。
技术领域
本发明总体上涉及触觉反馈,并且更特别地,涉及用于使用多个致动器来实现纹理的系统和方法。
背景技术
在过去几年中,所有类型的手持设备的使用都成指数增长。这些设备被用作便携式组织器、电话、音乐播放器、以及游戏系统。多种现代手持设备现在都合并了某种类型的触觉反馈。随着触觉技术改进,设备可以合并包括纹理的触觉反馈。这些设备可以从多个致动器受益;因此,需要用于使用多个致动器来实现纹理的系统和方法。
发明内容
本发明的实施例提供了用于使用多个致动器来实现纹理的系统和方法。例如,在一个实施例中,一种用于使用多个致动器来实现纹理的系统包括:一种系统,包括:第一致动器,该第一致动器被配置成接收第一触觉信号,并且至少部分地基于该第一触觉信号来输出第一触觉效果;第二致动器,该第二致动器被配置成接收第二触觉信号,并且至少部分地基于该第二触觉信号来输出第二触觉效果;以及处理器,该处理器被配置成:确定第一触觉效果和第二触觉效果,当组合时,第一触觉效果和第二触觉效果被配置以输出纹理;以及将第一触觉信号传送至第一致动器,并且将第二触觉信号传送至第二致动器。
提及这些说明性实施例并不限制或限定本发明,而是提供示例以帮助其理解。说明性实施例在具体实施方式中论述,其提供了本发明的进一步理解。由本发明的多种实施例提供的优点可以通过检验该说明书而被进一步理解。
附图说明
当参考附图阅读以下具体实施方式时,可以更好地理解本发明的这些和其他特征、方面和优点,在附图中:
图1是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的框图;
图2是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的图示;
图3a是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的另一图示;
图3b是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的另一图示;
图4是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的另一图示;
图5是根据本发明的一个实施例的用于使用多个致动器来实现纹理的方法的流程图;
图6a是根据本发明的一个实施例的可以使用多个致动器实现的纹理中的一个的图示;
图6b是根据本发明的一个实施例的可以使用多个致动器实现的纹理中的一个的图示;
图6c是根据本发明的一个实施例的可以使用多个致动器实现的纹理中的一个的另一图示;
图6d是根据本发明的一个实施例的可以使用多个致动器实现的纹理中的一个的另一图示;
图6e是根据本发明的一个实施例的可以使用多个致动器实现的纹理中的一个的另一图示;以及
图6f是根据本发明的一个实施例的可以使用多个致动器实现的纹理中的一个的另一图示。
具体实施方式
本发明的实施例提供了用于使用多个致动器来实现纹理的系统和方法。
使用多个致动器来实现纹理的说明性实施例
本发明的一个说明性实施例包括消息发送设备,诸如移动电话。在说明性实施例中,消息发送设备包括装配有Immersion公司的3000、4000、或5000振动触觉反馈系统(先前已知为Immersion公司的振动触觉反馈系统)的三星触摸电话(SCH-W420)。在其他实施例中,可以利用不同消息发送设备和触觉反馈系统。
说明性消息发送设备包括显示器、扬声器、网络接口、存储器、以及与这些元件中的每个通信的处理器。该说明性消息发送设备还包括触摸敏感界面和至少两个致动器,其均与处理器通信。触摸敏感界面被配置成感测用户与消息发送设备的交互,并且致动器被配置成输出触觉效果。该说明性消息发送设备可以进一步包括:操纵机构(manipulandum),该操纵机构被配置成检测用户交互并且将与该用户交互相关联的界面信号传送至处理器。
在说明性消息发送设备中,显示器被配置成将图形用户界面显示给用户。图形用户界面可以包括虚拟对象,例如图标、按钮、或虚拟键盘。该说明性消息发送设备进一步包括被装配在显示器的顶部上的触摸敏感界面,诸如触摸屏。触摸敏感界面允许用户与在图形用户界面中显示的虚拟对象交互。例如,在一个实施例中,图形用户界面可以包括虚拟键盘,并且在这样的实施例中,触摸敏感界面允许用户触摸虚拟键盘上的键,以按压该键。该功能性可以被用于键入消息,或者另外与图形用户界面中的对象交互。
在说明性消息发送设备中,处理器被配置成确定第一触觉效果并且将与该第一触觉效果相对应的第一触觉信号传送至被配置成输出第一触觉效果的第一致动器。处理器还被配置成确定第二触觉效果并且将与该第二触觉效果相对应的第二触觉信号传送至被配置成输出第二触觉效果的第二致动器。由每个致动器输出的触觉效果可以包括本领域中已知的多种触觉效果中的一个,例如,振动、敲击、蜂鸣、震击、或扭转消息发设备。在说明性消息发送设备中,这些触觉效果模仿用户在触摸敏感界面的表面上感觉到的纹理。所模仿的纹理可以与在显示器上显示的用户界面相关联。例如,显示器可以示出包括岩石的形状的图标。在这样的实施例中,处理器可以确定被配置成模仿在触摸敏感界面的表面上的岩石的纹理的触觉效果。然后,处理器将第一触觉信号传送至第一致动器。当第一致动器接收到触觉信号时,其将以被配置成使触摸敏感界面的表面接近岩石的纹理的频率输出触觉效果,诸如振动。
在一些实施例中,处理器可以确定要求多个致动器来实现的更复杂的触觉效果。例如,岩石的纹理可以包括当在用户界面上移动他们的手指时用户将感觉到的裂缝和凸纹。在这样的实施例中,处理器可以进一步确定被配置成模仿裂缝和凸纹的第二触觉效果。然后,处理器将与第二触觉效果相关联的第二触觉信号传送至第二致动器。当第二致动器接收第二触觉信号时,其将输出第二触觉效果。
在一些实施例中,当被组合时,第一触觉效果和第二触觉效果被配置以形成单一触觉效果。例如,第一触觉效果和第二触觉效果可以包括当被组合形成模仿触摸敏感界面的表面上的纹理的谐波时的两种振动。在其他实施例中,两种触觉效果可以分别被感觉到。例如,一种触觉效果可以包括被配置成模仿在触摸敏感界面的表面上的沙子的纹理的振动。并且第二种触觉效果可以包括被配置成模仿在沙子中的石子或其他材料的纹理的脉冲振动。
在说明性实施例中,处理器可以实现触觉映射以确定第一触觉效果和第二触觉效果。例如,在说明性实施例中,处理器可以接收包括多个像素的显示信号,每个像素均与颜色相关联。例如,在说明性实施例中,显示信号中的每个像素都可以与红、绿或蓝颜色相关联,并且可以进一步与用于该颜色的强度相关联。在说明性实施例中,处理器将触觉值指配给每种颜色,并且进一步指配与每种颜色的强度相关联的触觉强度。然后,处理器将包括一些触觉值和触觉强度的第一触觉信号传送至第一致动器。处理器还可以将包括附加触觉值和触觉强度的第二触觉信号传送至第二致动器。在说明性实施例中,处理器可以将与一种颜色(例如,红颜色)相关联的所有触觉值传送至第一致动器,并且将与其他颜色相关联的所有触觉值传送至第二致动器。
在一些实施例中,处理器110可以利用触觉映射来确定触觉效果,并且然后将显示信号输出至显示器116。在其他实施例中,处理器110可以使用触觉映射来确定触觉效果,并且然后不将显示信号传送至显示器116。在这样的实施例中,显示器116可以保持黑暗或关闭,同时致动器118和124输出触觉效果。例如,在这样的实施例中,处理器110可以从与消息发送设备102相关联的数字相机接收显示信号。在一些实施例中,为了保存电池功率,用户可以禁用显示器116。在这样的实施例中,处理器可以利用触觉映射给用户提供模仿显示器的表面上的纹理的触觉效果。该纹理可以用于当相机聚焦或者当一些其他事件已经发生时警告用户。例如,处理器110可以使用面部识别软件来确定模仿在显示器116上的多个位置处的纹理的触觉效果,其中,如果显示器116被激活,则该纹理将与脸部相关联。
在说明性实施例中,处理器可以基于外部触发进一步确定第一触觉效果和第二触觉效果。例如,在说明性实施例中,处理器被配置成从被配置成检测用户交互的触摸敏感界面接收界面信号。然后,在说明性实施例中,处理器将至少部分地基于该界面信号来确定第一触觉效果和第二触觉效果。例如,处理器可以至少部分地基于该界面信号来修改每种触觉效果的触觉值或强度。在说明性实施例中,如果触摸敏感界面检测到高速度或高压力用户界面,则处理器将确定较高强度触觉效果。
该说明性消息发送设备可以输出触觉效果用于多种目的。例如,在一个实施例中,触觉效果可以充当处理器已经接收到与用户交互相关联的界面信号的确认。例如,图形用户界面可以包括按钮。当触摸敏感界面检测到与按压按钮相关联的用户交互时,其将界面信号传送至处理器。作为响应,处理器可以确定触觉效果来确认接收界面信号。在这样的实施例中,触觉效果可以被配置成模仿在触摸敏感界面的表面上的纹理。在该说明性实施例中,处理器可以进一步确定触觉效果用于其它目的。例如,该说明性消息发送设备可以模仿触摸敏感界面的表面上的纹理,以警告用户在显示器的边界上或者作为诸如显示器的表面上的图标的对象的标识。
该说明性示例被给出,以给读者介绍在此论述的一般主题。本发明不限于该示例。以下部分描述用于使用多个致动器来实现纹理的系统和方法的附加非限制性实施例和示例。
用于使用多个致动器来实现纹理的说明性系统
现在参考附图,其中,相同的数字贯穿多个附图指示相同的元件,图1是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的框图。如图1所示,系统100包括消息发送设备102,诸如,移动电话、便携式数字助理(PDA)、便携式媒体播放器、便携式计算机、便携式游戏设备、或一些其他移动设备。在一些实施例中,消息发送设备102可以包括全部计算机,诸如,膝上型电脑、写字板、桌上型电脑PC。在还有的其他实施例中,消息发送设备可以包括用于与PC或一些其他设备一起使用的外部监视器。消息发送设备102包括与网络接口112通信的处理器110、触摸敏感界面114、显示器116、致动器118和124、扬声器120、以及存储器122。
处理器110被配置成执行在存储器122中存储的计算机可执行程序指令。例如,处理器110可以执行用于消息发送或用于生成触觉反馈的一个或多个计算机程序。处理器110可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、一个或多个场可编程门阵列(FPGA)、或状态机。处理器110可以进一步包括可编程电子器件,诸如,可编程逻辑控制器(PLC)、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电可编程只读存储器(EPROM或EEPROM)、或其他类似设备。
存储器122包括存储指令的计算机可读介质,当指令由处理器110执行时,使处理器110执行多个步骤,诸如,在此描述的那些步骤。计算机可读媒体的实施例可以包括但不限于电子、光学、磁性或其他储存器或者能够给处理器110提供计算机可读指令的传送设备。介质的其他示例包括但不限于软盘、CD-ROM、磁盘、存储芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其他磁性介质、或计算机处理器可以从其读取的任何其他介质。另外,多种其他设备可以包括计算机可读介质,诸如,路由器、专用或公共网络、或其他传送设备。处理器110和所描述的处理可以处于一个或多个结构中,并且可以遍及一个或多个结构散布。
处理器110与网络接口112通信。网络接口112可以包括移动通信的一种或多种方法,诸如,红外线、无线电、Wi-Fi、或蜂窝网络通信。在其他变体中,网络接口112包括有线网络接口,诸如,以太网。消息发送设备102可以被配置成在诸如蜂窝网络和/或互联网的网络上与其他设备(未示出)交换消息或虚拟消息对象。在设备之间交换的消息的实施例可以包括语音消息、文本消息、数据消息、或其他形式的数字消息。
处理器110还与一个或多个触摸敏感界面114通信。在一些实施例中,触摸敏感界面114可以包括触摸屏或触控板。例如,在一些实施例中,触摸敏感界面114可以包括触摸屏,其被装配在被配置成接收显示信号并且将图像输出至用户的显示器的顶部上。在其他实施例中,触摸敏感界面114可以包括光学传感器或另一种类型的传感器。在一个实施例中,触摸敏感界面可以包括LED检测器。例如,在一个实施例中,触摸敏感界面114可以包括装配在显示器116的一侧上的LED手指检测器。在其他实施例中,触摸敏感界面114可以包括按钮、开关、滚轮、滚动球、或本领域中已知的某种其他类型的物理设备接口。在一些实施例中,处理器与单个触摸敏感界面114通信,在其他实施例中,处理器与例如触摸屏和滚动球的多个触摸敏感界面通信。触摸敏感界面114被配置成检测用户交互,并且基于用户交互,将信号传送至处理器110。在一些实施例中,触摸敏感界面114可以被配置成检测用户交互的多个方面。例如,触摸敏感界面114可以检测用户交互的速度和压力,并且将该信息合并到界面信号中。
在图1中所示的实施例中,处理器110还与显示器116通信。处理器110可以被配置成生成要在显示器116上显示的用户界面的图形表示,然后将包括该图形表示的显示信号传送至显示器116。在其他实施例中,显示器116被配置成从另一设备接收显示信号。例如,在一些实施例中,显示器116可以包括外部显示器,诸如计算机监视器。显示器116被配置成接收显示信号,并且输出与该显示信号相关联的图像。在一些实施例中,显示信号可以包括视频图形阵列(vga)、高清晰度多媒体接口(hdmi)、高级视频图形阵列(svga)、视频、二分量视频(s-video)、或本领域中已知的其他类型显示信号。在一些实施例中,显示器116包括平板屏幕显示器,诸如,液晶显示器(LCD)或等离子体屏幕显示器。在其他实施例中,显示器116包括阴极射线管(CRT)或本领域中已知的其他类型显示器。在还有的其他实施例中,显示器116可以包括触摸敏感界面114,例如,显示器116可以包括触摸屏LCD。在还有的其他实施例中,显示器116可以包括柔性屏幕或柔性显示器。例如,在一些实施例中,显示器116可以包括装配在其表面之下的触觉基板。在这样的实施例中,显示器116由柔性材料制成,并且响应于从处理器110接收到的信号,触觉基板弯曲,在显示器116的表面上形成桥、槽、或其他特征。在一些实施例中,触觉基板可以包括等离子体致动器、压电致动器、电活性聚合物、微机电系统、形状记忆合金、充液或充气单元的栅格。
在一些实施例中,处理器110从触摸敏感界面114接收同与显示器116上显示的图形用户界面交互相关联的信号。例如,在一个实施例中,触摸敏感界面114可以包括触摸屏,并且显示器116上的图形用户界面可以包括虚拟键盘。在这样的实施例中,当用户与覆盖虚拟键盘的键中的一个的触摸屏的一部分交互时,触摸屏将与该用户交互相对应的界面信号发送至处理器110。基于该界面信号,处理器110将确定用户按压了虚拟键盘上的一个键。该功能性允许用户与显示器116上的其他图标和虚拟对象交互。例如,在一些实施例中,用户可以轻触触摸屏,以移动虚拟球状物或旋转虚拟旋钮。在另一实施例中,消息发送设备102可以包括另一触摸敏感界面114,诸如,滚轮、滚动球、或按钮。在这样的实施例中,附加触摸敏感界面114可以促进用户和图形用户界面之间的类似交互。
如图1中所示,处理器110还与致动系统通信,该致动系统包括至少两个致动器118和124、用于每个致动器的悬挂系统、以及用于每个致动器的电功率和控制布线。在一些实施例中,消息发送设备102包括多于一个致动系统。处理器110被配置成确定第一触觉效果,并且将与第一触觉效果相对应的第一触觉信号传送至致动器118。处理器110还被配置成确定第二触觉效果,并且将与该第二触觉效果相对应的第二触觉信号传送至致动器124。在一些实施例中,触觉效果模仿在显示器116的表面、触摸敏感界面114、或消息发送设备102的壳体上感觉到的振动触觉纹理。在一些实施例中,确定每种触觉效果可以包括执行一系列计算。在其他实施例中,确定每种触觉效果可以包括访问查找表。在还有的其他实施例中,确定每种触觉效果可以包括查找表和计算的组合。
在一些实施例中,确定触觉效果可以包括触觉映射。在这样的实施例中,确定触觉效果可以包括将显示信号映射至致动器118和124。例如,显示信号可以包括多个像素,每个像素与一种颜色相关联。在这样的实施例中,每个像素都可以与红、绿或蓝颜色相关联;该颜色可以进一步与强度相关联,例如,强度1-8。在这样的实施例中,确定触觉效果可以包括将触觉效果指配给每种颜色。在一些实施例中,触觉效果可以包括操作的方向和强度,例如,在一个实施例中,触觉信号可以被配置成使旋转致动器以一半功率顺时针旋转。在一些实施例中,操作的强度可以与颜色的强度相关联。一旦处理器110确定了触觉效果,其就将包括该触觉效果的触觉信号传送至致动器。在一些实施例中,处理器110可以将触觉效果仅指配给显示信号中的一些像素。例如,在这样的实施例中,触觉效果可以仅与显示信号的一部分相关联。在其他实施例中,处理器110被配置成将显示信号的一部分映射至一个致动器,并且将其余显示信号映射至另一致动器。例如,在这样的实施例中,处理器110可以被配置成将与红颜色相关联的触觉效果映射至致动器118,并且将所有其他触觉效果映射至致动器124。
在一些实施例中,处理器110可以至少部分地基于用户交互或触发来确定第一触觉效果和第二触觉效果。在这样的实施例中,处理器110从触摸敏感界面114接收界面信号,并且至少部分地基于该界面信号来确定第一触觉效果和第二触觉效果。例如,在一些实施例中,处理器110可以基于由触摸敏感界面114检测到的用户交互的位置来确定第一触觉效果和第二触觉效果。例如,在这样的实施例中,处理器110可以确定触觉效果,以模仿显示器116上的虚拟对象的纹理。在其他实施例中,处理器110可以至少部分地基于界面信号来确定每种触觉效果的强度。例如,如果触摸敏感界面114检测到高压力用户交互,则处理器110可以确定高强度触觉效果。在另一实施例中,如果触摸敏感界面114检测到低压力用户交互,则处理器110可以确定低强度触觉效果。在还有的其他实施例中,处理器110可以确定要由第一致动器输出的第一触觉效果,也就是,模仿第一纹理的恒定振动。在这样的实施例中,处理器可以确定要由第二致动器输出的第二触觉效果,其包括短脉冲振动,以模仿第一纹理内的纹理。例如,在一个实施例中,第一触觉效果可以被配置成模仿沙子的纹理,并且第二触觉效果可以被配置成模仿沙子中的岩石的纹理。
一旦处理器110确定第一和第二触觉效果,其就将与第一触觉效果相关联的第一触觉信号传送至致动器118,并且将与第二触觉效果相关联的第二触觉信号传送至致动器124。致动器118和124被配置成从处理器110接收第一触觉信号和第二触觉信号,并且输出相应触觉效果。致动器118和124可以例如是压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心转动惯量电动机(ERM)、固定压电致动器(FPA)、线性谐振致动器(LRA)、或线性谐振致动器(LRA)。在一些实施例中,致动器118和124可以包括不同类型的致动器,例如,致动器118可以包括偏心转动惯量电动机,并且致动器124可以包括线性谐振致动器。
由致动器118和124输出的触觉效果可以包括本领域中已知的多种触觉效果中的任何一种,例如,振动、敲击、蜂鸣、震击、或扭转消息发送设备。在一些实施例中,触觉效果被配置成模仿用户在触摸敏感界面114或显示器116的表面上感觉到的纹理。该纹理可以与显示器116上显示的图形用户界面相关联。例如,显示器116可以显示皮包。在这样的实施例中,处理器110可以将触觉信号传送至致动器118和124,其被配置成使致动器118和124输出模仿皮革的纹理的触觉效果。在其他实施例中,致动器118和124可以被配置成输出模仿以下纹理的触觉效果:水、冰、沙子、砂砾、雪、皮肤、皮毛、或另一表面。在一些实施例中,触觉效果可以被输出至消息发送设备102的不同部分上,例如,输出至其壳体上。
在一些实施例中,致动器118和124被配置成当被组合形成单个触觉效果时,输出独立振动。例如,致动器118和124可以每个均以不同频率输出触觉效果。在一些实施例中,当这两种触觉效果被组合时,它们形成用户感觉到的谐波作为触觉效果。例如,在一些实施例中,这些谐波可以模仿用户在触摸敏感界面114的表面上感觉到的纹理。在其他实施例中,致动器118和124中的一个被配置成输出模仿纹理的恒定触觉效果。在这样的实施例中,另一致动器可以被配置成输出模仿该纹理中的干扰的第二触觉效果。例如,在这样的实施例中,致动器118可以被配置成输出模仿水的纹理的触觉效果。在这样的实施例中,致动器124可以被配置成定期性地输出表示水中的对象(例如,鱼、海草、或浮木)的纹理的触觉效果。在还有的其他实施例中,致动器118和124可以被配置成输出相同触觉效果,但是可以被配置成当用户在触摸敏感界面114的表面之上移动时,增加触觉效果的频率响应。例如,在一个实施例中,显示器116可以包括虚拟键盘。在这样的实施例中,用户可以与触摸敏感界面114交互,以在键盘上键入。当用户触摸每个键时,处理器110可以确定触觉效果,以确认用户的输入的接收。在这样的实施例中,处理器可以利用两个致动器118和124,以便减少在触觉效果之间的延迟时间。例如,当用户在键盘上键入时,处理器可以在致动器118和124之间交替。这允许每个致动器输出触觉效果,并且在其接收到另一触觉信号并且输出另一触觉效果之前被重置。
处理器110可以确定触觉效果用于多种原因。在一些实施例中,触觉效果可以充当处理器110已经从触摸敏感界面114接收到与用户交互相关联的信号的确认。例如,在一个实施例中,图形用户界面可以包括按钮,并且触摸敏感界面114可以检测与按压按钮相关联的用户交互。当触摸敏感界面114将与用户交互相关联的界面信号传送至处理器110时,处理器110可以确定触觉效果,以确认界面信号的接收。在这样的实施例中,触觉效果可以使用户感觉到在触摸敏感界面114的表面上的纹理。例如,沙子的纹理可以被用于确认处理器110已经接收到用户输入。在其他实施例中,不同纹理可以被使用,例如,水、冰、油、岩石或皮肤的纹理。在一些实施例中,触觉效果可以用于不同目的,例如,警告用户在显示器116的边界上,或者给用户提供关于显示器116上的图像的触觉信息。例如,显示器116上的每个图标可以包括不同纹理。例如,在一个实施例中,显示器116可以包括多个图标。在这样的实施例中,当用户触摸每个图标时,处理器110可以确定不同触觉效果。例如,当用户触摸一个图标时,处理器110可以确定包括皮肤的纹理的触觉效果,并且当用户触摸另一图标时,处理器110可以确定包括水的纹理的触觉效果。在进一步的实施例中,当用户的手指从与图标的接触移动至与显示器的背景的接触时,处理器可以改变纹理,从而警告用户他/她不再触摸图标。
如图1所示,处理器110还与扬声器120通信。扬声器120被配置成从处理器110接收音频信号,并且将它们输出至用户。在一些实施例中,音频信号可以与由致动器118输出的触觉效果或者由显示器116输出的图像相关联。在其他实施例中,音频信号可以不对应于触觉效果或者图像。
在一些实施例中,处理器110可以进一步包括一个或多个传感器,例如,GPS传感器、成像传感器、加速计、位置传感器、旋转速度传感器、光传感器、相机、麦克风、或一些其他类型的传感器。传感器可以被配置成检测加速度、倾斜度、惯性或位置的改变。例如,消息发送设备102可以包括加速计,其被配置成测量消息发送设备的加速度。传感器被配置成将传感器信号传送至处理器110。
传感器信号可以包括与消息发送设备102的位置、运动、加速度、或“跃度”(即,加速度的导数)相关联的一个或多个参数。例如,在一个实施例中,传感器可以生成并且传送包括多个参数的传感器信号,每个参数都与沿着或者关于所测量的平移或旋转轴的运动相关联。在一些实施例中,传感器输出处理器110被编程以解释指示沿着一个或多个轴的运动的电压或电流。
在一些实施例中,处理器110将接收传感器信号并且确定其应当激活虚拟工作空间,并且当对应于虚拟工作空间“内”的虚拟运动时,解释感测到的消息发送设备102在X、Y或Z方向上的运动。然后,用户可以在虚拟工作空间内移动设备102,以通过在虚拟空间内做手势来选择功能或文件。例如,通过在Z轴上移动消息发送设备102来选出虚拟工作空间内的功能。在一些实施例中,用户可以使用虚拟工作空间内的手势来修改由消息发送设备102输出的触觉效果。
图2是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的图示。图2包括消息发送设备200,诸如,移动电话、PDA、便携式媒体播放器、便携式游戏设备、或移动计算机。消息发送设备200被配置成在诸如蜂窝网络或互联网的网络上发送和接收信号,诸如语音邮件、文本消息、以及其他数据消息。消息发送设备200可以包括无线网络接口和/或有线网络接口(在图2中未示出)。虽然设备200在图2中被示出为手持消息发送设备,但是其他实施例可以包括不同设备,诸如,视频游戏系统和/或个人计算机。
如图2所示,消息发送设备200包括壳体202和显示器216。在一些实施例中,显示器216可以包括LCD显示器。在其他实施例中,显示器216可以包括等离子体显示器、或本领域中已知的其他类型的显示器。显示器216被配置成接收显示信号并且输出与该显示信号相关联的图像。在一些实施例中,显示信号可以包括视频图形阵列(vga)、高清晰度多媒体接口(hdmi)、高级视频图形阵列(svga)、视频、二分量视频(s-video)、或本领域中已知的其他类型显示信号。在图2中所示的实施例中,显示器216包括有纹理的球状物204。
还参考图2,消息发送设备200进一步包括操纵机构214。在图2中所示的实施例中,操纵机构214包括滚动球和按钮。消息发送设备200还包括触摸敏感界面218。在图2中所示的实施例中,触摸敏感界面218包括位于显示器216的顶部上的触摸屏。在一些实施例中,显示器216和触摸屏可以包括单个集成组件,诸如,触摸屏显示器。
操纵机构214和触摸敏感界面218被配置成检测用户交互,并且将与用户交互相对应的界面信号传送至处理器。在一些实施例中,用户交互与在显示器216上显示的图形用户界面相关联。在这样的实施例中,处理器110接收界面信号,并且至少部分地基于界面信号来操纵图形用户界面上显示的图像。例如,在图2中所示的实施例中,用户可以使用操纵机构214或触摸敏感界面218来与有纹理的球状物204交互。当用户与有纹理的球状物204交互时,处理器将确定被配置成模仿在有纹理的球状物204的表面上的纹理的触觉效果。该纹理可以包括本领域中已知的多种纹理中的一个,例如,沙子、岩石、玻璃、水或皮革的纹理。
消息发送设备200进一步包括被配置成接收触觉信号并且输出触觉效果的至少两个致动器(在图2中未示出)。在一些实施例中,由每个致动器输出的触觉效果被配置成模仿由消息发送设备200的用户感觉到的振动触觉纹理。处理器110被配置成确定第一触觉效果,并且将与该第一触觉效果相对应的第一触觉信号传送至第一致动器。处理器110被进一步配置成确定第二触觉效果,并且将与第二触觉效果相对应的第二触觉信号传送至第二致动器。当第一致动器和第二致动器接收它们各自的触觉信号时,它们被配置成输出所确定的触觉效果。用户可以经由显示器216的表面、或者通过消息发送设备200的一些其他部分(例如,经由操纵机构214或壳体202)来感觉每个致动器的触觉效果。
在图2中所示的实施例中,显示器216包括有纹理的球状物204,其可以包括篮球。篮球包括均匀崎岖不平纹理(uniform bumpytexuture),贯穿篮球的外部具有形成接缝的浅沟槽。当用户与有纹理的球状物204交互时,处理器110可以确定包括平缓振动的第一触觉效果,以模仿篮球的均匀崎岖不平纹理。然后,处理器110可以将第一触觉信号输出至第一致动器。处理器110可以进一步确定包括尖脉冲的第二触觉效果,以模仿篮球上的沟槽。在这样的实施例中,当用户与篮球的与接缝相关联的一部分交互时,处理器110可以输出包括第二触觉效果的第二触觉信号。在其他实施例中,处理器可以确定不同触觉效果,以模仿显示器216的表面上的不同纹理。
用于使用多个致动器来实现纹理的系统的说明
图3a是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的说明。图3a包括消息发送设备,诸如,移动电话、PDA、便携式媒体播放器、便携式游戏设备、或移动计算机。消息发送设备300被配置成在诸如蜂窝网络或互联网的网络上发送和接收包括诸如语音邮件、文本消息的消息和其他数据消息的信号。消息发送设备300可以包括无线网络接口和/或有线网络接口(在图3a中未示出)。虽然设备300在图3a中被示出为手持消息发送设备,但是其他实施例可以包括不同的设备,诸如,视频游戏系统和/或个人计算机。
如图3a中所示,消息发送设备300包括显示器316。显示器316被配置成接收显示信号,并且至少部分地基于该显示信号来输出图像。消息发送设备300进一步包括被配置成将显示信号传送至显示器316的处理器(在图3a中未示出)。消息发送设备300进一步包括装配在显示器316的顶部上的触摸敏感界面314。触摸敏感界面314被配置成检测用户交互,并且将与该用户交互相对应的界面信号传送至处理器。显示器316包括两个图标302和304。当用户与图标302和304中的一个交互时,触摸敏感界面314将检测用户交互,并且将相应界面信号传送至处理器。基于该界面信号,处理器可以确定用户已经打开链接至图标之一的文件或者已经执行本领域中已知的一些其他动作。
如图3a中所示,图标302和304中的每个都包括纹理。在所示的实施例中,图标302包括砖块的纹理,并且图标304包括岩石的纹理。在其他实施例中,可以使用不同纹理,例如,沙子、水、油、草、皮毛、皮肤、皮革、冰、木头的纹理、或本领域中已知的一些其他纹理。当用户同显示器316与每个图标相关联的部分交互时,如图3a中所示的手指306,处理器将确定被配置成模仿该图标的纹理的触觉效果。然后,处理器将与触觉效果相关联的信号输出至被配置成输出触觉效果的至少两个致动器(在图3a中未示出)。
例如,在图3a中所示的实施例中,当用户与显示器同图标302相关联的部分交互时,处理器可以确定被配置成模仿砖块的粗糙纹理的第一触觉效果。在这样的实施例中,处理器可以进一步确定被配置成模仿砖块之间的粗糙灰浆的第二触觉效果。然后,当用户与图标302交互时,处理器将第一触觉信号输出至第一致动器,模仿在显示器316的表面上的砖块的纹理。而且,当用户在图标302之上移动他/她的手指时,处理器可以将第二触觉信号定期性地传送至第二致动器,以模仿灰浆的纹理。
在其他实施例中,处理器可以确定相互不相关的触觉效果。例如,如图3a中所示,显示器316还包括第二图标304,其包括岩石的纹理。在这样的实施例中,处理器可以确定被配置成模仿图标302的纹理的第一触觉效果和被配置成模仿图标304的纹理的第二触觉效果。然后,当用户与图标302交互时,处理器可以将第一触觉信号输出至第一致动器。并且当用户与图标304交互时,处理器可以将第二触觉信号输出至第二致动器。这样的实施例可以允许致动器输出更多强制性触觉效果,这是因为每个致动器都具有在其他致动器操作的同时减缓并且重置的时间。
图3b是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的图示。在图3b中所示的实施例中,确定触觉效果包括:将显示信号映射到至少两个致动器。图3b中所示的实施例包括显示器350的放大部分。显示器350被配置成从处理器接收显示信号。显示信号包括多个像素,每个像素都与颜色和该颜色的强度相关联。显示器350接收该显示信号,并且输出与该显示信号相关联的图像。在图3b中所示的实施例中,显示器350的放大部分包括六个像素:351、352、353、354、355和356。每个像素都与颜色和用于在从1-10范围内的颜色的强度相关联。例如,像素355与绿颜色相关联,并且颜色强度是10中的3。因此,显示器350在像素355的位置以强度3输出绿颜色。
在图3b中所示的实施例中,处理器将至少部分地基于显示信号和从装配在显示器350的顶部上的触摸敏感界面(在图3b中未示出)接收到的界面信号来确定触觉效果。例如,在图3b中所示的实施例中,处理器使用显示信号,以使触觉效果与每个像素相关联或者“映射”触觉效果与每个像素。在图3b中所示的实施例中,处理器可以确定用于每种颜色的不同频率触觉效果。处理器可以进一步使每个像素处的触觉效果的强度与每个像素处的颜色的强度相关联。例如,处理器可以确定具有颜色强度8的像素将还具有触觉强度8。当处理器接收与显示器上的像素的顶部上的用户交互相关联的界面信号时,处理器将输出与用户正在交互的像素相关联的触觉信号。该触觉效果被配置成使用户感觉到在显示器的表面上的纹理。
例如,在图3b中所示的实施例中,处理器可以确定蓝色像素与敲击触觉效果相关联,红色像素与脉冲振动相关联,并且绿色像素与点击触觉效果相关联。在这样的实施例中,当触摸敏感界面检测到用户的手指在像素351上经过时,处理器将确定具有强度1的敲击。然后,当用户的手指在像素352上移动时,处理器将确定具有强度5的脉冲振动。并且,当用户的手指继续跨过显示器305移动至像素353时,处理器可以确定具有强度3的点击效果。
当用户在显示器350的表面之上移动他/她的手指时,这些触觉效果被配置成使用户感觉到在显示器350的表面上的纹理。在一些实施例中,处理器可以被配置成确定向哪个致动器输出触觉信号。例如,在一个实施例中,消息发送设备可以包括被配置成输出不同强度触觉效果的两个致动器。在这样的实施例中,处理器可以确定强度小于3的所有触觉效果都应当由第一致动器输出,并且强度大于或等于3的所有触觉效果都应当由第二致动器输出。在其他实施例中,每种颜色都可以被映射至特定致动器。例如,在这样的实施例中,与蓝颜色相关联的所有触觉效果可以由第一致动器输出,并且与红颜色相关联的所有触觉效果可以由第二致动器输出,并且与绿颜色相关联的所有触觉效果可以由第三致动器输出。在其他实施例中,消息发送设备可以实现颜色、强度、触觉效果、以及致动器的不同组合,以模仿显示器的表面上的多种纹理。
图4是根据本发明的一个实施例的用于使用多个致动器来实现纹理的系统的另一图示。图4包括消息发送设备400,其包括显示器416。显示器416位于触摸敏感界面之下,其被配置成检测用户交互,并且将与用户交互相关联的界面信号传送至处理器(在图4中未示出)。如图4中所示,显示器416包括虚拟QWERTY键盘402。用户可以使用虚拟QWERTY键盘402将文本信息输入到消息发送设备400中。
当用户与虚拟QWERTY键盘402的键交互时,消息发送设备400被配置成输出触觉效果,以警告用户处理器已经从触摸敏感界面接收到界面信号。例如,当处理器从触摸敏感界面接收到指示用户已经按压了在虚拟QWERTY键盘上的键的界面信号时,处理器可以确定第一触觉效果,并且然后将与该第一触觉效果相对应的信号传送至第一致动器。然后,第一致动器输出第一触觉效果。当处理器接收到指示用户已经按压了虚拟QWERTY键盘上的另一键的界面信号时,处理器确定第二触觉效果,并且将与该第二触觉效果相对应的第二信号传送至第二致动器。然后,第二致动器输出第二触觉效果。
在一些实施例中,第一触觉效果和第二触觉效果可以被配置成包括相同触觉效果。例如,在一些实施例中,第一触觉效果和第二触觉效果都可以被配置成模仿在触摸敏感界面的表面上的沙子的纹理。在其他实施例中,第一触觉效果和第二触觉效果可以不同。例如,第一触觉效果可以被配置成模仿沙子的纹理,并且第二触觉效果可以被配置成模仿草的纹理。在这样的实施例中,触摸敏感界面的一部分可以与第一触觉效果相关联,并且触摸敏感界面的其余部分可以与第二触觉效果相关联。
在前述段落中论述的功能性可以使用单个致动器来实现;然而,图4图示了使用两个或更多致动器的优点。图4中所示的实施例包括消息发送设备400,其包括手持设备。用户可以通过他们的拇指和手指与虚拟QWERTY键盘402交互。在图4中所示的实施例中,虚拟QWERTY键盘402的键为约6mm的正方形。在其他实施例中,虚拟QWERTY键盘402的键可以比6mm正方形更大或更小。在图4中所示的实施例中,假定用户可能以每秒七个键的速率来探索(explore)虚拟键盘。这样的假定用户的手指以每秒约42mm移动(7个键*每个键6mm)。在一些实施例中,触觉效果可以被配置成模仿每个键上的两个不同边缘。例如,触觉效果可以用于模仿用于每个键的左边缘和右边缘的纹理。因此,为了将包括不同边缘的纹理应用至每个键,单个致动器必须在一秒内产生高达十四个边缘(每秒7个键*每个键两个边缘),其对应于每个边缘约71毫秒(1秒/14个边缘)。
在一些实施例中,单个高频致动器以能够模仿每秒十四个键边缘的响应速率来输出触觉效果。另一实施例可以实现两个或更多致动器,以减少每个致动器所要求的响应时间。包括两个或更多致动器的实施例给每个致动器提供更多时间,以在每个触觉效果之间掉电和重置,并且因此减小由一个致动器输出的触觉效果将混合到一起的风险。这通过图表404和图表406来演示,图表404示出用于两个致动器系统的第一致动器的定时图表,并且图表406示出用于两个致动器系统中的第二致动器的定时图表。如图表404和406中所示,在两个致动器系统中,处理器可以输出两个不同触觉信号,其不相互重叠。因此,第一致动器可以在第二致动器输出触觉效果的同时掉电并且重置。并且第二致动器可以在第一致动器输出触觉效果的同时掉电并且重置。这减小了由致动器中的一个输出的触觉效果将混合到其刚刚输出的触觉效果中的风险。在一些实施例中,该功能性可以用于以更快响应速率来输出相同触觉效果。在其他实施例中,该功能性可以用于相互紧接着输出不同触觉效果。
在包括两个或更多致动器的实施例中,每个致动器都可以同时输出不同触觉效果,因此增加可用触觉效果的丰富度。例如,每个致动器都可以输出不同频率或类型的触觉效果,其被配置成模仿不同纹理。在一些实施例中,用户可以同时感觉到这些纹理,但是在消息发送设备400的不同位置上。例如,在一个实施例中,第一致动器可以输出被配置成模仿在第一图标上的纹理的第一触觉效果,同时,第二致动器可以输出被配置成模仿在第二图标上的第二纹理的第二触觉效果。在这样的实施例中,用户可以感觉到第一图标上的第一纹理,同时,感觉到第二图标上的第二纹理。在其他实施例中,两个致动器都可以被配置成输出当被组合时被配置成模仿单个纹理的单独触觉效果。
用于使用多个致动器来实现纹理的方法的说明
图5是根据本发明的一个实施例的用于使用多个致动器来实现纹理的方法的流程图,其参考图1中所示的设备论述。如图5中所示,当处理器110接收包括多个像素502的显示信号时,方法500开始。显示信号可以包括视频图形阵列(vga)、高清晰度多媒体接口(hdmi)、高级视频图形阵列(svga)、视频、二分量视频(s-video)、或本领域中已知的其他类型显示信号。显示信号可以包括图形用户界面,或者消息发送设备经由显示器116显示给用户的其他图像。
然后,触摸敏感界面114将界面信号传送至处理器110,其接收界面信号504。在一些实施例中,触摸敏感界面114可以包括触摸屏或触摸板。例如,在一些实施例中,触摸敏感界面114可以包括装配在显示器116的顶部上的触摸屏,其被配置成接收显示信号并且将图像输出至用户。在其他实施例中,触摸敏感界面114可以包括按钮、开关、滚轮、滚动球、或本领域中已知的某种其他类型的物理设备界面。在一些实施例中,处理器110与单个触摸敏感界面114通信。在其他实施例中,处理器110与多个触摸敏感界面114通信,例如,触摸屏和滚动球。触摸敏感界面114被配置成检测用户交互,并且基于用户交互将信号传送至处理器110。在一些实施例中,触摸敏感界面114可以被配置成检测用户交互的多个方面。例如,触摸敏感界面114可以检测用户交互的速度和压力,并且将该信息合并到界面信号中。
接下来,处理器110确定第一触觉效果和第二触觉效果,当被组合时,第一触觉效果和第二触觉效果被配置成模仿纹理506。第一触觉效果和第二触觉效果可以包括用户通过触摸敏感界面114的表面或操纵机构感觉到的振动。在一些实施例中,这些振动可以使用户感觉到触摸敏感界面114的表面上的纹理。例如,皮革、雪、沙子、冰、皮肤或某种其他表面的纹理。在一些实施例中,处理器110可以使用算法来确定触觉效果。在其他实施例中,处理器110可以访问查找表以确定合适的触觉效果。在还有的其他实施例中,处理器110可以访问查找表,并且实现算法以确定触觉效果。
在一些实施例中,处理器110可以实现触觉映射,以确定每种触觉效果。在这样的实施例中,处理器110可以将显示信号映射至两个或更多致动器。例如,显示信号可以包括多个像素,每个像素都与颜色相关联。在这样的实施例中,处理器110可以通过将触觉值指配给显示信号中的每种颜色来确定触觉效果。然后,处理器110将输出包括触觉值的触觉信号。在一些实施例中,处理器110可以将触觉值仅指配给显示信号中的一些像素。例如,在这样的实施例中,触觉效果可以仅与显示信号的一部分相关联。
在一些实施例中,处理器110可以至少部分地基于用户交互或触发来确定触觉效果。在这样的实施例中,处理器110从触摸敏感界面114接收界面信号,并且至少部分地基于界面信号来确定触觉效果。例如,在一些实施例中,处理器110可以基于从触摸敏感界面114接收到的界面信号来确定不同强度的触觉效果。例如,如果触摸敏感界面114检测到高压力用户界面,则处理器110可以确定高强度触觉效果。在另一实施例中,如果触摸敏感界面114检测到低压力用户交互,则处理器110可以确定低强度触觉效果。
然后,处理器110将与第一触觉效果相关联的第一触觉信号传送至第一致动器118,其被配置成接收触觉信号并且输出第一触觉效果508。致动器118被配置成从处理器110接收触觉信号并且输出触觉效果。致动器118可以例如是压电致动器、电动机、电磁致动器、音圈、线性谐振致动器、形状记忆合金、电活性聚合物、螺线管、偏心转动惯量电动机(ERM)、或线性谐振致动器(LRA)。触觉效果可以包括本领域中已知的多种触觉效果中的一个,例如,振动、敲击、蜂鸣、震击、或扭转消息发送设备。
最后,处理器110将与第二触觉效果相关联的第二触觉信号传送至第二致动器124,其被配置成接收触觉信号并且输出第二触觉效果510。致动器124被配置成从处理器110接收触觉信号并且输出触觉效果。致动器124可以例如是压电致动器、电动机、电磁致动器、音圈、线性谐振致动器、形状记忆合金、电活性聚合物、螺线管、偏心转动惯量电动机、或线性谐振致动器。触觉效果可以包括本领域中已知的多种触觉效果中的一个,例如,振动、敲击、蜂鸣、震击、或扭转消息发送设备。在一些实施例中,致动器124可以包括与致动器118相同类型的致动器。例如,每个致动器都可以包括偏心转动惯量电动机。在其他实施例中,致动器118和致动器124可以包括两种不同类型的致动器。例如,致动器118可以包括线性谐振致动器,并且致动器124可以包括偏心转动惯量电动机。
在一些实施例中,由致动器118输出的第一触觉效果和由致动器124输出的第二触觉效果可以被配置成当被组合时形成单一触觉效果。例如,每种触觉效果都可以包括当被组合时形成模仿在触摸敏感界面114的表面上的纹理的谐波的振动。在其他实施例中,可以分别感觉到两种触觉效果。例如,触觉效果中的一个可以包括被配置成模仿在触摸敏感界面114的表面上的草的纹理的振动。并且,第二触觉效果可以包括被配置成模仿在草中的石子或其他材料的纹理的脉冲振动。
图6a是根据本发明的一个实施例的消息发送设备可以模仿的纹理中的一个的图示。如6a中所示的实施例包括砖块。砖块的纹理的特征在于砖块的粗糙不规则纹理,通过来自灰浆(mortar)的砂质凹部感觉介入。在一些实施例中,当用户的手指正在移动时,用于使用多个致动器来实现纹理的系统可以通过用具有到高最大方差的均值(medium)的随机信号驱动诸如线性谐振致动器、线性压电致动器、或固定压电致动器的第一致动器来模仿砖块的纹理。在一些实施例中,该方差可以被调节用于不同粗糙度。在这样的实施例中,从砖块到灰浆的过渡可以由第二致动器模仿。例如,高持续时间弹出由偏心转动惯量电动机创建。另外,如果灰浆足够厚,则可以通过用具有比用于驱动输出砖块的纹理的致动器更高的方差的较低幅度信号驱动第一致动器来在显示器与灰浆相关联的部分中提供精细纹理。
图6b是根据本发明的一个实施例的消息发送设备可以模仿的纹理中的一个的图示。图6b中所示的实施例包括岩石。岩石的纹理的特征在于,当用户从岩石移动到岩石时通过过渡(transition)介入的光滑表面。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过用被配置成在显示器上创建低摩擦的斑片的触觉信号驱动诸如固定压电致动器的第一致动器来模仿岩石的纹理。在这样的实施例中,当触摸敏感界面检测到用户的移动时,可以通过所显示的图像的非虚拟边缘图并且通过将高幅度触觉信号输出至诸如线性压电致动器或偏心转动惯量电动机的第二致动器来提供各个岩石。例如,无论触摸敏感界面何时检测到用户的手指从一个岩石过渡到另一个岩石,都输出触觉效果。
图6c是根据本发明的一个实施例的消息发送设备可以模仿的纹理中的一个的图示。图6c中所示的实施例包括沙子或沙纸。沙子的特征在于,粗糙有砂砾的感觉以及在用户的手指前建立一堆沙粒的感觉。在一些实施例中,当用户的手指移动时,用于使用多个致动器来实现纹理的系统可以通过用具有高最大方差的随机信号驱动诸如线性谐振致动器、线性压电致动器、或固定压电致动器的第一致动器来模仿沙子的纹理。在一些实施例中,处理器可以调节信号的方差,以创建不同程度的粗糙度。为了模仿沙子堆积的感觉,系统可以使用第二致动器,诸如,固定压电致动器。在这样的实施例中,当用户跨过触摸屏移动他们的手指时,处理器通过信号来驱动致动器,该信号以低强度开始并且当用户在一个方向上移动他/她的手指时逐渐增加(build)。
在另一个实施例中,图6c中所示的纹理可以包括沙纸。沙纸的特征在于,具有粗糙有砂砾的感觉。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过将具有高最大方差的第一触觉信号传送至诸如,线性谐振致动器、线性压电致动器、或固定压电致动器的第一致动器来模仿粗糙有砂砾的感觉。在一些实施例中,可以仅在用户的手指跨过触摸敏感界面的表面移动时输出该信号。在一些实施例中,处理器可以调节信号的方差来改变粗糙度的级别。
图6d是根据本发明的一个实施例的消息发送设备可以模仿的纹理中的一个的图示。在图6d中所示的实施例中,纹理包括草的纹理。草的特征在于,几乎使用户的手指觉得痒的周期性轻感觉(periodic lightsensation)。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过将第一触觉信号传送至被配置成创建叠加有草的斑片的低摩擦斑片的第一致动器(诸如,固定压电致动器)来模仿草的纹理。在一些实施例中,处理器可以通过用所显示的图像的非虚拟边缘图驱动诸如线性压电致动器或LRM的第二致动器来提供各个草叶。
图6e是根据本发明的一个实施例的消息发送设备可以模仿的纹理中的一个的图示。在图6e中所示的实施例中,纹理包括皮革的纹理。皮革的特征在于,包括皮革的表面的凸起和凹部的总体光滑感觉。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过将第一触觉信号传送至被配置成当用户的手指跨过触摸敏感界面的表面移动时输出减小摩擦的触觉效果的第一致动器(诸如,固定压电致动器)来模仿该纹理。处理器可以通过用当触摸敏感界面检测到用户的手指正跨过皮革移动时的非常短的低幅度触觉信号驱动第二致动器来模仿在皮革的表面中的裂纹和凸起。
图6f是根据本发明的一个实施例的消息发送设备可以模仿的纹理中的一个的图示。在图6f中所示的实施例中,纹理包括木头的纹理。木头的特征在于,当用户从木板(board)移动到木板时,通过尖锐过渡(sharp transition)介入的不规则崎岖不平纹理。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过用所显示的图像的非虚拟边缘图驱动诸如线性谐振致动器、线性压电致动器、或固定压电致动器的第一致动器来模仿不规则崎岖不平纹理,并且当用户的手指移动时,多次用非常短的低幅度信号驱动第一致动器。为了输出从厚木板到厚木板的过渡,处理器可以输出被配置成使第二致动器输出高幅度短持续时间弹出(pop)的第二触觉信号。
在其他实施例中,可以输出与不同纹理相关联的触觉效果。例如,在一个实施例中,处理器可以传送被配置成使致动器输出被配置成模拟与冰的纹理相关联的纹理的触觉效果的触觉信号。冰的特征在于低摩擦,在一些实施例中,冰具有完全光滑的纹理。在其他实施例中,冰包括精细低幅度砂质纹理。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过用被配置成尽可能多地减小在显示器的表面上的摩擦的触觉信号驱动第一致动器来模仿冰的纹理。处理器可以通过被配置成在用户移动他们的手指的同时使第二致动器输出低幅度效果的第二触觉信号驱动诸如,线性压电致动器或线性谐振致动器的第二致动器来模仿冰中的不完整性或粗砂。这些低幅度效果可以与冰的表面上的不完整性或粗砂(grit)相关联。
在另一实施例中,处理器可以用被配置成使致动器输出接近蜥蜴皮肤的纹理的触觉效果的触觉信号来驱动致动器。蜥蜴皮肤的特征在于,通过从皮肤上的凸起到凸起的过渡介入的整体光滑感觉。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过用被配置成使致动器模仿触摸敏感界面上的低摩擦斑片的触觉信号驱动第一致动器来模仿蜥蜴皮肤的纹理。处理器可以通过当触摸敏感界面检测到用户的手指跨过其表面移动时用第二触觉信号定期性地驱动第二致动器来提供皮肤的表面上的裂纹。
在又一实施例中,处理器可以通过被配置成使致动器输出接近皮毛的纹理的触觉效果的触觉信号来驱动致动器。皮毛的特征在于触摸起来非常柔软的周期性轻感觉。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过用被配置成使第一致动器输出被配置成减小用户在触摸敏感界面的表面上感觉到的摩擦的触觉效果的第一触觉信号驱动第一致动器来模仿皮毛的纹理。处理器可以进一步通过用包括低幅度脉冲信号的第二触觉信号驱动致动器来提供各个毛发。在一些实施例中,处理器将仅在触摸敏感界面检测到用户的移动时才输出第二触觉信号。
在又一实施例中,处理器可以通过被配置成模仿金属的纹理的触觉信号来驱动致动器。金属的特征在于光滑低摩擦表面,在一些实施例中,包括轻粗砂。在一些实施例中,用于使用多个致动器来实现纹理的系统可以通过用被配置成降低用户在触摸敏感界面的表面上感觉到的摩擦的信号驱动第一致动器来模仿金属的纹理。在一些实施例中,处理器可以通过用包括简短高幅度触觉信号的第二触觉信号驱动第二致动器来提供各个凸起。在一些实施例中,处理器将仅当触摸敏感界面检测到用户正在其表面上移动时才输出第二触觉信号。
用于使用多个致动器来实现纹理的系统和方法的优点
用于使用多个致动器来实现纹理的系统和方法存在多个优点。例如,用于使用多个致动器来实现纹理的系统和方法将先前未使用的触觉效果添加至移动设备。该新效果为用户提供从消息发送设备接收信息的新途径,而用户不必注视消息发送设备的显示器。例如,用于使用多个致动器来实现纹理的系统和方法可以允许用户将不同纹理指配给不同图标、按钮、或它们的显示器的其他组件。因此,用户能够确定它们正在触摸哪个图标,而不必注视该图标。这可以增加设备的可使用性,并且可以使设备对视觉受损更加有用。
而且,用于使用多个致动器来实现纹理的系统和方法能够使设备通过低速度和可能更便宜的致动器来提供纹理。例如,如果两个致动器同时通过相同触觉信号驱动,则使用多个致动器允许处理器输出更多强烈效果。而且,可能改变触觉效果的频率增加,这是因为致动器中的一个可以通过触觉效果来驱动,而其余致动器被重置。这减小了由致动器输出的触觉效果将一起运行的可能性。另外,多个致动器可以被装配至消息发送设备上的多个位置,从而允许触觉效果被输出在消息发送设备上的多个位置上。
而且,用于使用多个致动器来实现纹理的系统和方法可以给用户提供更多信息,而不使用户从其他任务分心。因此,可以减少用户错误的可能性。例如,如果用户正在利用用于使用多个致动器来实现纹理的系统和方法,则用户不太可能击中错误图标或者按压错误键。该功能性可以用于增加用户满足和增加用于合并了用于使用多个致动器来实现纹理的系统和方法的技术的采用率两者。
总体考虑
在此的“适于”或“配置成”的使用意味着不阻止适于或被配置成执行附加任务或步骤的开放式和包含语言。另外,“基于”的使用意味着开放式和包含,这是因为“基于”一个或多个记载的条件或值的处理、步骤、计算或其他动作实际上可以基于超过所记载的那些的附加条件或值。在此包括的标题、列表和编号仅用于更容易地解释,并且不意味着是限制性的。
根据本主题的多个方面的实施例可以在数字电子电路中、在计算机硬件、固件、软件中或者在前述结合中实现。在一个实施例中,计算机可以包括一个或多个处理器。处理器包括或能够对计算机可读介质进行访问,计算机可读介质诸如耦合至处理器的随机存取存储器(RAM)。处理器执行在存储器中存储的计算机可执行程序指令,诸如执行包括传感器采样例程、触觉效果选择例程、以及产生信号以生成上述所选择的触觉效果的合适程序设计的一个或多个计算机程序。
这样的处理器可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、以及状态机。这样的处理器可以进一步包括可编程电子器件,诸如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电可编程只读存储器(EPROM或EEPROM)、或其他类似设备。
这样的处理器可以包括或可以与可以存储指令的介质(例如,有形计算机可读介质)通信,当由处理器执行指令时,可以使处理器执行如由处理器执行或辅助的在此所述的步骤。计算机可读介质的实施例可以包括但不限于能够向诸如网络服务器中的处理器的处理器提供计算机可读指令的所有电子、光学、磁性或其他存储设备。介质的其他示例包括但不限于软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其他磁性介质、或计算机处理器可以从其读取的任何其他介质。而且,多种其他设备可以包括计算机可读介质,诸如路由器、专用或公共网络、或其他传输设备。处理器和描述的处理可以是一个或多个指令,并且可以通过一个或多个指令来散布。处理器可以包括用于执行在此所述的一种或多种方法(或方法的多个部分)的代码。
虽然已经关于其特定实施例详细地描述了本主题,但是将理解,本领域技术人员在获得前述理解时可以容易地产生对这样的实施例的替换、变化以及等同物。因此,应当理解,本公开被呈现用于举例而不是限制的目的,并且不排除对本主题的这样的修改、变化和/或添加的包含,这对于本领域普通技术人员来说将很容易是显而易见的。
Claims (27)
1.一种系统,包括:
网络接口,所述网络接口被配置成接收消息;
处理器,所述处理器耦合至所述网络接口并且被配置成:
确定第一触觉效果,所述第一触觉效果被配置成模仿与所述消息相关联的第一纹理;以及
确定第二触觉效果,所述第二触觉效果被配置成模仿与所述消息相关联的第二纹理,其中,所述第一触觉效果和所述第二触觉效果被配置成当被组合时模仿形成谐波的纹理。
2.根据权利要求1所述的系统,其中,所述消息包括以下中的一个或多个:语音邮件、文本消息、或数据消息。
3.根据权利要求1所述的系统,进一步包括:
第一致动器,所述第一致动器被配置成接收第一触觉信号并且输出所述第一触觉效果;
第二致动器,所述第二致动器被配置成接收第二触觉信号并且输出所述第二触觉效果;以及
其中,所述处理器进一步被配置成:
确定所述第一触觉信号和所述第二触觉信号,以及
将所述第一触觉信号传送至所述第一致动器和将所述第二触觉信号传送至所述第二致动器。
4.根据权利要求3所述的系统,其中,所述第一致动器和所述第二致动器包括不同类型的致动器。
5.根据权利要求1所述的系统,其中,所述第一触觉效果和所述第二触觉效果包括不同的触觉效果。
6.根据权利要求3所述的系统,其中,所述第一致动器包括偏心旋转质量致动器。
7.根据权利要求6所述的系统,其中,所述第一致动器被配置成基于低幅度触觉信号输出触觉效果。
8.根据权利要求3所述的系统,其中,所述第二致动器包括线性谐振致动器。
9.根据权利要求8所述的系统,其中,所述第二致动器被配置成基于高幅度触觉信号输出高频触觉效果。
10.根据权利要求3所述的系统,其中,所述第一致动器包括以下中的一个:横向压电致动器、电活性聚合物、或形状记忆合金。
11.根据权利要求3所述的系统,进一步包括壳体。
12.根据权利要求11所述的系统,其中,所述壳体包括移动设备壳体。
13.根据权利要求11所述的系统,其中,所述壳体包括计算机监视器壳体。
14.根据权利要求11所述的系统,其中,所述第一致动器和所述第二致动器中的至少一个耦合至所述壳体。
15.根据权利要求3所述的系统,其中,所述处理器进一步被配置成:
接收包括多个像素的显示信号;以及
至少部分地基于所述显示信号确定所述第一触觉效果和所述第二触觉效果。
16.根据权利要求15所述的系统,进一步包括:
显示器,所述显示器被配置成接收所述显示信号,并且至少部分地基于所述显示信号来输出图像。
17.根据权利要求16所述的系统,其中,所述纹理被配置成在所述显示器的表面上被感觉到
18.根据权利要求16所述的系统,其中,所述第一致动器或所述第二致动器中的至少一个耦合至所述显示器。
19.根据权利要求1所述的系统,进一步包括:
触摸敏感界面,所述触摸敏感界面与所述处理器通信,所述触摸敏感界面被配置成检测用户交互,并且将与所述用户交互相关联的界面信号传送至所述处理器。
20.根据权利要求19所述的系统,其中,所述触觉效果至少部分地基于所述界面信号。
21.一种用于输出触觉纹理的方法,包括:
接收消息;
确定第一触觉效果,所述第一触觉效果被配置成模仿与所述消息相关联的第一纹理;
确定第二触觉效果,所述第二触觉效果被配置成模仿与所述消息相关联的第二纹理,其中,所述第一触觉效果和所述第二触觉效果被配置成当被组合时模仿形成谐波的纹理。
22.根据权利要求21所述的方法,其中,所述消息包括以下中的一个或多个:语音邮件、文本消息、或数据消息。
23.根据权利要求21所述的方法,进一步包括:
将与所述第一触觉效果相关联的第一触觉信号传送至第一致动器,所述第一致动器被配置成接收所述第一触觉信号并且输出所述第一触觉效果;以及
将与所述第二触觉效果相关联的第二触觉信号传送至第二致动器,所述第二致动器被配置成接收所述第二触觉信号并且输出所述第二触觉效果。
24.根据权利要求21所述的方法,其中,所述纹理被配置成在触摸敏感界面的表面上被感觉到。
25.根据权利要求21所述的方法,进一步包括:
接收包括多个像素的显示信号,并且其中,确定所述第一触觉效果和所述第二触觉效果是至少部分地基于所述显示信号。
26.根据权利要求21所述的方法,进一步包括:
从被配置成检测用户交互的触摸敏感界面接收界面信号,并且其中,确定所述第一触觉效果和所述第二触觉效果是至少部分地基于所述界面信号。
27.一种系统,包括:
网络接口,所述网络接口被配置成接收消息;
第一致动器,所述第一致动器被配置成接收第一触觉信号,并且至少部分地基于所述第一触觉信号来输出模仿第一纹理的第一触觉效果;
第二致动器,所述第二致动器被配置成接收第二触觉信号,并且至少部分地基于所述第二触觉信号来输出第二触觉效果,所述第二触觉效果模仿不同于所述第一纹理的第二纹理;
处理器,所述处理器耦合至所述网络接口、所述第一致动器、和所述第二致动器,所述处理器被配置成:
接收包括多个像素的显示信号;
至少部分地基于所述消息确定所述第一触觉效果和所述第二触觉效果,所述第一触觉效果和所述第二触觉效果被配置成当被组合时模仿形成谐波的纹理;以及
将所述第一触觉信号传送至所述第一致动器,并且将所述第二触觉信号传送至所述第二致动器;
显示器,所述显示器被配置成接收所述显示信号,并且至少部分地基于所述显示信号输出图像,所述纹理被配置成在所述显示器的所述表面上被感觉到;以及
移动设备壳体,所述移动设备壳体被配置成包含所述第一致动器、所述第二致动器、所述处理器、和所述显示器。
Applications Claiming Priority (19)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15948209P | 2009-03-12 | 2009-03-12 | |
US61/159,482 | 2009-03-12 | ||
US26203809P | 2009-11-17 | 2009-11-17 | |
US26204109P | 2009-11-17 | 2009-11-17 | |
US61/262,038 | 2009-11-17 | ||
US61/262,041 | 2009-11-17 | ||
US12/697,010 | 2010-01-29 | ||
US12/697,037 US9927873B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for using textures in graphical user interface widgets |
US12/697,042 | 2010-01-29 | ||
US12/696,908 US10007340B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for interfaces featuring surface-based haptic effects |
US12/696,893 | 2010-01-29 | ||
US12/696,893 US9746923B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction |
US12/697,010 US9874935B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for a texture engine |
US12/697,042 US10564721B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for using multiple actuators to realize textures |
US12/696,900 | 2010-01-29 | ||
US12/697,037 | 2010-01-29 | ||
US12/696,908 | 2010-01-29 | ||
US12/696,900 US9696803B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for friction displays and additional haptic effects |
CN201080011708.7A CN102362246B (zh) | 2009-03-12 | 2010-03-11 | 用于使用多个致动器实现纹理的系统和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080011708.7A Division CN102362246B (zh) | 2009-03-12 | 2010-03-11 | 用于使用多个致动器实现纹理的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105892921A true CN105892921A (zh) | 2016-08-24 |
CN105892921B CN105892921B (zh) | 2019-12-10 |
Family
ID=73451290
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510760216.2A Expired - Fee Related CN105353877B (zh) | 2009-03-12 | 2010-03-11 | 用于摩擦显示和附加触觉效果的系统和方法 |
CN201610196586.2A Expired - Fee Related CN105892921B (zh) | 2009-03-12 | 2010-03-11 | 用于使用多个致动器实现纹理的系统和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510760216.2A Expired - Fee Related CN105353877B (zh) | 2009-03-12 | 2010-03-11 | 用于摩擦显示和附加触觉效果的系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (3) | US9696803B2 (zh) |
JP (2) | JP6220800B2 (zh) |
KR (1) | KR101653330B1 (zh) |
CN (2) | CN105353877B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10073527B2 (en) | 2009-03-12 | 2018-09-11 | Immersion Corporation | Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading |
CN109326221A (zh) * | 2018-09-25 | 2019-02-12 | 上海天马微电子有限公司 | 显示装置和显示装置的触觉反馈显示方法 |
Families Citing this family (157)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0804355A2 (pt) * | 2008-03-10 | 2009-11-03 | Lg Electronics Inc | terminal e método de controle do mesmo |
US8805517B2 (en) * | 2008-12-11 | 2014-08-12 | Nokia Corporation | Apparatus for providing nerve stimulation and related methods |
US10007340B2 (en) | 2009-03-12 | 2018-06-26 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
US10564721B2 (en) | 2009-03-12 | 2020-02-18 | Immersion Corporation | Systems and methods for using multiple actuators to realize textures |
JP2012014375A (ja) * | 2010-06-30 | 2012-01-19 | Kyocera Corp | 触感呈示装置および触感呈示装置の制御方法 |
US10191547B2 (en) * | 2009-08-27 | 2019-01-29 | Kyocera Corporation | Tactile sensation providing apparatus and control method for tactile sensation providing apparatus |
US8487759B2 (en) | 2009-09-30 | 2013-07-16 | Apple Inc. | Self adapting haptic device |
US8779307B2 (en) * | 2009-10-05 | 2014-07-15 | Nokia Corporation | Generating perceptible touch stimulus |
US8692815B2 (en) * | 2009-11-06 | 2014-04-08 | Bose Corporation | Touch-based user interface user selection accuracy enhancement |
US9201584B2 (en) | 2009-11-06 | 2015-12-01 | Bose Corporation | Audio/visual device user interface with tactile feedback |
US8638306B2 (en) * | 2009-11-06 | 2014-01-28 | Bose Corporation | Touch-based user interface corner conductive pad |
US20110113371A1 (en) * | 2009-11-06 | 2011-05-12 | Robert Preston Parker | Touch-Based User Interface User Error Handling |
US8686957B2 (en) * | 2009-11-06 | 2014-04-01 | Bose Corporation | Touch-based user interface conductive rings |
US20110109560A1 (en) | 2009-11-06 | 2011-05-12 | Santiago Carvajal | Audio/Visual Device Touch-Based User Interface |
US8350820B2 (en) * | 2009-11-06 | 2013-01-08 | Bose Corporation | Touch-based user interface user operation accuracy enhancement |
US8669949B2 (en) * | 2009-11-06 | 2014-03-11 | Bose Corporation | Touch-based user interface touch sensor power |
US20110260988A1 (en) * | 2010-01-20 | 2011-10-27 | Northwestern University | Method and apparatus for increasing magnitude and frequency of forces applied to a bare finger on a haptic surface |
US9417695B2 (en) * | 2010-04-08 | 2016-08-16 | Blackberry Limited | Tactile feedback method and apparatus |
US8791800B2 (en) | 2010-05-12 | 2014-07-29 | Nokia Corporation | Detecting touch input and generating perceptible touch stimulus |
US9579690B2 (en) | 2010-05-20 | 2017-02-28 | Nokia Technologies Oy | Generating perceptible touch stimulus |
US9367150B2 (en) * | 2010-05-20 | 2016-06-14 | Nokia Technologies Oy | Apparatus and associated methods |
US20110285666A1 (en) * | 2010-05-21 | 2011-11-24 | Ivan Poupyrev | Electrovibration for touch surfaces |
US20120327006A1 (en) * | 2010-05-21 | 2012-12-27 | Disney Enterprises, Inc. | Using tactile feedback to provide spatial awareness |
US8836643B2 (en) * | 2010-06-10 | 2014-09-16 | Qualcomm Incorporated | Auto-morphing adaptive user interface device and methods |
US8451240B2 (en) * | 2010-06-11 | 2013-05-28 | Research In Motion Limited | Electronic device and method of providing tactile feedback |
US8576171B2 (en) * | 2010-08-13 | 2013-11-05 | Immersion Corporation | Systems and methods for providing haptic feedback to touch-sensitive input devices |
US9110507B2 (en) * | 2010-08-13 | 2015-08-18 | Nokia Technologies Oy | Generating perceptible touch stimulus |
US10013058B2 (en) | 2010-09-21 | 2018-07-03 | Apple Inc. | Touch-based user interface with haptic feedback |
US8710968B2 (en) | 2010-10-07 | 2014-04-29 | Motorola Mobility Llc | System and method for outputting virtual textures in electronic devices |
EP2630554B1 (en) * | 2010-10-19 | 2020-01-08 | Nokia Technologies Oy | A display apparatus |
BR112013022916A2 (pt) * | 2011-03-09 | 2016-12-06 | Bayer Ip Gmbh | reação do atuador de polímero eletroativo, aparelho, sistema, e método |
JP5597583B2 (ja) * | 2011-03-28 | 2014-10-01 | 太陽誘電株式会社 | タッチパネル装置及び電子機器 |
US9448713B2 (en) * | 2011-04-22 | 2016-09-20 | Immersion Corporation | Electro-vibrotactile display |
US20120274545A1 (en) * | 2011-04-28 | 2012-11-01 | Research In Motion Limited | Portable electronic device and method of controlling same |
US10108288B2 (en) | 2011-05-10 | 2018-10-23 | Northwestern University | Touch interface device and method for applying controllable shear forces to a human appendage |
US9122325B2 (en) * | 2011-05-10 | 2015-09-01 | Northwestern University | Touch interface device and method for applying controllable shear forces to a human appendage |
US10007341B2 (en) * | 2011-06-21 | 2018-06-26 | Northwestern University | Touch interface device and method for applying lateral forces on a human appendage |
JP5755050B2 (ja) * | 2011-06-28 | 2015-07-29 | 京セラ株式会社 | 電子機器 |
US20130016042A1 (en) * | 2011-07-12 | 2013-01-17 | Ville Makinen | Haptic device with touch gesture interface |
US8754756B2 (en) | 2011-10-14 | 2014-06-17 | Blackberry Limited | Tactile indicator which changes the texture of a surface for a portable electronic device |
US9594504B2 (en) | 2011-11-08 | 2017-03-14 | Microsoft Technology Licensing, Llc | User interface indirect interaction |
US9823781B2 (en) | 2011-12-06 | 2017-11-21 | Nri R&D Patent Licensing, Llc | Heterogeneous tactile sensing via multiple sensor types |
US20130227411A1 (en) * | 2011-12-07 | 2013-08-29 | Qualcomm Incorporated | Sensation enhanced messaging |
KR20130063871A (ko) | 2011-12-07 | 2013-06-17 | 삼성전자주식회사 | 자기 소자 및 그 제조 방법 |
JP5413448B2 (ja) * | 2011-12-23 | 2014-02-12 | 株式会社デンソー | 表示システム、表示装置、及び操作装置 |
US8493354B1 (en) | 2012-08-23 | 2013-07-23 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
JP5857781B2 (ja) * | 2012-02-15 | 2016-02-10 | 日産自動車株式会社 | 電動モータを用いた車両の制振制御装置 |
US9208662B2 (en) * | 2012-03-16 | 2015-12-08 | Qualcomm Incorporated | Methods and devices for selectively controlling and varying surface texture and/or force levels on a mobile device using haptic feedback |
GB201205765D0 (en) * | 2012-03-30 | 2012-05-16 | Hiwave Technologies Uk Ltd | Touch and haptics device |
KR20130114336A (ko) * | 2012-04-09 | 2013-10-17 | 삼성전자주식회사 | 단말기에서 페이지 표시 방법 및 장치 |
JP5790578B2 (ja) * | 2012-04-10 | 2015-10-07 | 株式会社デンソー | 表示システム、表示装置、及び操作装置 |
CN103649885B (zh) * | 2012-04-27 | 2017-03-01 | 松下知识产权经营株式会社 | 触觉提示装置、触觉提示方法、驱动信号生成装置以及驱动信号生成方法 |
US8570296B2 (en) * | 2012-05-16 | 2013-10-29 | Immersion Corporation | System and method for display of multiple data channels on a single haptic display |
US20140002376A1 (en) * | 2012-06-29 | 2014-01-02 | Immersion Corporation | Method and apparatus for providing shortcut touch gestures with haptic feedback |
US9792038B2 (en) * | 2012-08-17 | 2017-10-17 | Microsoft Technology Licensing, Llc | Feedback via an input device and scribble recognition |
KR101946365B1 (ko) * | 2012-08-20 | 2019-02-11 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US9280206B2 (en) * | 2012-08-20 | 2016-03-08 | Samsung Electronics Co., Ltd. | System and method for perceiving images with multimodal feedback |
US9046925B2 (en) * | 2012-09-11 | 2015-06-02 | Dell Products L.P. | Method for using the GPU to create haptic friction maps |
KR102091597B1 (ko) * | 2012-09-24 | 2020-03-20 | 엘지전자 주식회사 | 포터블 디바이스 및 그 제어 방법 |
US9178509B2 (en) | 2012-09-28 | 2015-11-03 | Apple Inc. | Ultra low travel keyboard |
US20140098038A1 (en) * | 2012-10-10 | 2014-04-10 | Microsoft Corporation | Multi-function configurable haptic device |
US9196134B2 (en) | 2012-10-31 | 2015-11-24 | Immersion Corporation | Method and apparatus for simulating surface features on a user interface with haptic effects |
US9330544B2 (en) | 2012-11-20 | 2016-05-03 | Immersion Corporation | System and method for simulated physical interactions with haptic effects |
US9836150B2 (en) | 2012-11-20 | 2017-12-05 | Immersion Corporation | System and method for feedforward and feedback with haptic effects |
US9335822B2 (en) * | 2012-12-12 | 2016-05-10 | Immersion Corporation | Method and system for providing haptic effects based on haptic context information |
US9202350B2 (en) | 2012-12-19 | 2015-12-01 | Nokia Technologies Oy | User interfaces and associated methods |
CN103902030B (zh) * | 2012-12-26 | 2017-07-21 | 联想(北京)有限公司 | 一种触觉反馈方法、触觉反馈装置、电子设备及触控笔 |
US9880623B2 (en) | 2013-01-24 | 2018-01-30 | Immersion Corporation | Friction modulation for three dimensional relief in a haptic device |
KR102178845B1 (ko) | 2013-01-29 | 2020-11-13 | 삼성전자주식회사 | 햅틱을 제어하는 휴대 단말 및 방법 |
KR102048015B1 (ko) * | 2013-02-22 | 2019-11-25 | 삼성전자주식회사 | 배경 이미지의 질감을 반영하여 사용자 입력을 표시하는 방법 및 장치 |
US9489047B2 (en) | 2013-03-01 | 2016-11-08 | Immersion Corporation | Haptic device with linear resonant actuator |
US9189098B2 (en) | 2013-03-14 | 2015-11-17 | Immersion Corporation | Systems and methods for syncing haptic feedback calls |
US9547366B2 (en) * | 2013-03-14 | 2017-01-17 | Immersion Corporation | Systems and methods for haptic and gesture-driven paper simulation |
US20140274372A1 (en) * | 2013-03-14 | 2014-09-18 | Igt | Touch button with tactile elements |
US9939900B2 (en) * | 2013-04-26 | 2018-04-10 | Immersion Corporation | System and method for a haptically-enabled deformable surface |
US9405369B2 (en) | 2013-04-26 | 2016-08-02 | Immersion Corporation, Inc. | Simulation of tangible user interface interactions and gestures using array of haptic cells |
US20140340316A1 (en) * | 2013-05-14 | 2014-11-20 | Microsoft Corporation | Feedback for Gestures |
EP3008550A1 (en) | 2013-06-11 | 2016-04-20 | Immersion Corporation | Systems and methods for pressure-based haptic effects |
US10120447B2 (en) | 2013-06-24 | 2018-11-06 | Northwestern University | Haptic display with simultaneous sensing and actuation |
US8766953B1 (en) | 2013-06-27 | 2014-07-01 | Elwha Llc | Tactile display driven by surface acoustic waves |
US8884927B1 (en) | 2013-06-27 | 2014-11-11 | Elwha Llc | Tactile feedback generated by phase conjugation of ultrasound surface acoustic waves |
US9804675B2 (en) | 2013-06-27 | 2017-10-31 | Elwha Llc | Tactile feedback generated by non-linear interaction of surface acoustic waves |
US9729730B2 (en) * | 2013-07-02 | 2017-08-08 | Immersion Corporation | Systems and methods for perceptual normalization of haptic effects |
DE102013214148A1 (de) * | 2013-07-18 | 2015-01-22 | Technische Universität Dresden | Verfahren und Vorrichtung zur haptischen Interaktion mit visualisierten Daten |
US9652040B2 (en) | 2013-08-08 | 2017-05-16 | Apple Inc. | Sculpted waveforms with no or reduced unforced response |
US9779592B1 (en) | 2013-09-26 | 2017-10-03 | Apple Inc. | Geared haptic feedback element |
US9886093B2 (en) | 2013-09-27 | 2018-02-06 | Apple Inc. | Band with haptic actuators |
US9928950B2 (en) | 2013-09-27 | 2018-03-27 | Apple Inc. | Polarized magnetic actuators for haptic response |
US10126817B2 (en) | 2013-09-29 | 2018-11-13 | Apple Inc. | Devices and methods for creating haptic effects |
WO2015047372A1 (en) | 2013-09-30 | 2015-04-02 | Pearl Capital Developments Llc | Magnetic actuators for haptic response |
US9317118B2 (en) | 2013-10-22 | 2016-04-19 | Apple Inc. | Touch surface for simulating materials |
US9639158B2 (en) * | 2013-11-26 | 2017-05-02 | Immersion Corporation | Systems and methods for generating friction and vibrotactile effects |
TWI502474B (zh) * | 2013-11-28 | 2015-10-01 | Acer Inc | 使用者介面的操作方法與電子裝置 |
WO2015088491A1 (en) | 2013-12-10 | 2015-06-18 | Bodhi Technology Ventures Llc | Band attachment mechanism with haptic response |
US9965034B2 (en) * | 2013-12-30 | 2018-05-08 | Immersion Corporation | Systems and methods for a haptically-enabled projected user interface |
JP2015130168A (ja) * | 2013-12-31 | 2015-07-16 | イマージョン コーポレーションImmersion Corporation | 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法 |
US9244532B2 (en) | 2013-12-31 | 2016-01-26 | Immersion Corporation | Systems and methods for controlling multiple displays with single controller and haptic enabled user interface |
US9501912B1 (en) | 2014-01-27 | 2016-11-22 | Apple Inc. | Haptic feedback device with a rotating mass of variable eccentricity |
EP3108344A4 (en) | 2014-02-21 | 2017-11-22 | Northwestern University | Haptic display with simultaneous sensing and actuation |
FR3018122A1 (fr) * | 2014-02-28 | 2015-09-04 | Orange | Procede de controle d'acces par retour haptique |
EP3120223A1 (en) * | 2014-03-21 | 2017-01-25 | Immersion Corporation | System, method and computer-readable medium for force-based object manipulation and haptic sensations |
CN106489116B (zh) | 2014-04-21 | 2019-08-16 | 苹果公司 | 用于电子设备的多触摸输入设备的力的分配 |
KR20150135820A (ko) * | 2014-05-26 | 2015-12-04 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
DE102015209639A1 (de) | 2014-06-03 | 2015-12-03 | Apple Inc. | Linearer Aktuator |
JP6294170B2 (ja) | 2014-06-26 | 2018-03-14 | 京セラ株式会社 | 触感呈示装置 |
KR102161745B1 (ko) * | 2014-07-01 | 2020-10-06 | 삼성디스플레이 주식회사 | 터치 입력에 시각적 피드백을 제공하는 가속기, 터치 입력에 시각적 피드백을 제공하는 터치 입력 프로세싱 디바이스 및 방법 |
US9690381B2 (en) | 2014-08-21 | 2017-06-27 | Immersion Corporation | Systems and methods for shape input and output for a haptically-enabled deformable surface |
EP3195088A2 (en) | 2014-09-02 | 2017-07-26 | Apple Inc. | Haptic notifications |
DE102014014498A1 (de) * | 2014-09-25 | 2016-03-31 | Wavelight Gmbh | Mit einem Touchscreen ausgestattetes Gerät sowie Verfahren zur Steuerung eines derartigen Geräts |
CN105589594B (zh) * | 2014-11-06 | 2019-12-31 | 天马微电子股份有限公司 | 电子装置和电子装置的操作控制方法 |
JP6654743B2 (ja) * | 2014-11-06 | 2020-02-26 | 天馬微電子有限公司 | 電子機器、電子機器の操作制御方法および操作制御プログラム |
US10353469B2 (en) * | 2014-11-12 | 2019-07-16 | Kyocera Corporation | Tactile sensation providing device |
US9535550B2 (en) | 2014-11-25 | 2017-01-03 | Immersion Corporation | Systems and methods for deformation-based haptic effects |
JP6332476B2 (ja) | 2015-01-26 | 2018-05-30 | 富士通株式会社 | 駆動制御装置、電子機器、駆動制御プログラム、及び駆動制御方法 |
KR20170108046A (ko) | 2015-01-30 | 2017-09-26 | 임머숀 코퍼레이션 | 정전 햅틱 액추에이터, 및 정전 햅틱 액추에이터를 갖는 사용자 인터페이스 |
US10353467B2 (en) | 2015-03-06 | 2019-07-16 | Apple Inc. | Calibration of haptic devices |
AU2016100399B4 (en) | 2015-04-17 | 2017-02-02 | Apple Inc. | Contracting and elongating materials for providing input and output for an electronic device |
WO2016172209A1 (en) | 2015-04-21 | 2016-10-27 | Immersion Corporation | Dynamic rendering of etching input |
US10664052B2 (en) | 2015-07-01 | 2020-05-26 | Samsung Electronics Co., Ltd. | Method for providing feedback and an electronic device thereof |
WO2017044618A1 (en) | 2015-09-08 | 2017-03-16 | Apple Inc. | Linear actuators for use in electronic devices |
CN106371574B (zh) * | 2015-12-04 | 2019-03-12 | 北京智谷睿拓技术服务有限公司 | 触觉反馈的方法、装置和虚拟现实交互系统 |
US9875625B2 (en) | 2015-12-18 | 2018-01-23 | Immersion Corporation | Systems and methods for multifunction haptic output devices |
KR102462941B1 (ko) * | 2016-01-26 | 2022-11-03 | 삼성디스플레이 주식회사 | 표시 장치 |
US10039080B2 (en) | 2016-03-04 | 2018-07-31 | Apple Inc. | Situationally-aware alerts |
US9898903B2 (en) | 2016-03-07 | 2018-02-20 | Immersion Corporation | Systems and methods for haptic surface elements |
US10268272B2 (en) | 2016-03-31 | 2019-04-23 | Apple Inc. | Dampening mechanical modes of a haptic actuator using a delay |
CN109074162A (zh) * | 2016-04-21 | 2018-12-21 | 苹果公司 | 电子设备的触觉用户界面 |
US9983675B2 (en) | 2016-06-10 | 2018-05-29 | Immersion Corporation | Systems and methods for monitoring insulation integrity for electrostatic friction |
US10401962B2 (en) | 2016-06-21 | 2019-09-03 | Immersion Corporation | Haptically enabled overlay for a pressure sensitive surface |
WO2018017212A1 (en) * | 2016-07-22 | 2018-01-25 | Harman International Industries, Incorporated | Haptic driving guidance system |
US9898904B1 (en) | 2016-08-17 | 2018-02-20 | Immersion Corporation | Selective control of an electric field to deliver a touchless haptic effect |
US10234945B2 (en) | 2016-09-09 | 2019-03-19 | Immersion Corporation | Compensated haptic rendering for flexible electronic devices |
JP7043166B2 (ja) * | 2016-09-21 | 2022-03-29 | 株式会社デンソーテン | 表示制御装置、表示制御システム及び表示制御方法 |
US10261586B2 (en) | 2016-10-11 | 2019-04-16 | Immersion Corporation | Systems and methods for providing electrostatic haptic effects via a wearable or handheld device |
US10416768B2 (en) | 2016-12-28 | 2019-09-17 | Immersion Corporation | Unitary sensor and haptic actuator |
US10413817B2 (en) * | 2017-02-10 | 2019-09-17 | Immersion Corporation | Method and apparatus for determining energy availability for a haptic-enabled device and for conserving energy by selecting between a braking and non-braking mode |
DE102017204351A1 (de) * | 2017-03-15 | 2018-09-20 | Technische Universität München | Manuell betätigbare taktile Ein-/Ausgabeeinrichtung und deren Betriebsverfahren sowie Datenverarbeitungsanlage |
US10564725B2 (en) * | 2017-03-23 | 2020-02-18 | Immerson Corporation | Haptic effects using a high bandwidth thin actuation system |
US10622538B2 (en) | 2017-07-18 | 2020-04-14 | Apple Inc. | Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body |
US10768747B2 (en) * | 2017-08-31 | 2020-09-08 | Apple Inc. | Haptic realignment cues for touch-input displays |
US11435829B2 (en) | 2017-10-26 | 2022-09-06 | Weft Co. | Communication device and method using haptic actuator |
US10440848B2 (en) | 2017-12-20 | 2019-10-08 | Immersion Corporation | Conformable display with linear actuator |
US10504342B1 (en) * | 2018-06-12 | 2019-12-10 | Immersion Corporation | Devices and methods for providing localized haptic effects to a display screen |
US11016568B2 (en) * | 2018-07-24 | 2021-05-25 | The Nielsen Company (Us), Llc | Methods and apparatus to monitor haptic vibrations of touchscreens |
WO2020044621A1 (ja) | 2018-08-29 | 2020-03-05 | アルプスアルパイン株式会社 | 入力装置、制御方法及びプログラム |
US10599223B1 (en) | 2018-09-28 | 2020-03-24 | Apple Inc. | Button providing force sensing and/or haptic output |
US10691211B2 (en) | 2018-09-28 | 2020-06-23 | Apple Inc. | Button providing force sensing and/or haptic output |
US11157765B2 (en) | 2018-11-21 | 2021-10-26 | Samsung Electronics Co., Ltd. | Method and system for determining physical characteristics of objects |
US11380470B2 (en) | 2019-09-24 | 2022-07-05 | Apple Inc. | Methods to control force in reluctance actuators based on flux related parameters |
US11467668B2 (en) | 2019-10-21 | 2022-10-11 | Neosensory, Inc. | System and method for representing virtual object information with haptic stimulation |
KR20210077813A (ko) | 2019-12-17 | 2021-06-28 | 삼성디스플레이 주식회사 | 표시 장치와 그의 햅틱 피드백 방법 |
US10955943B1 (en) | 2020-02-28 | 2021-03-23 | Microsoft Technology Licensing, Llc | Touch screen panel with surface friction modification |
US11977683B2 (en) | 2021-03-12 | 2024-05-07 | Apple Inc. | Modular systems configured to provide localized haptic feedback using inertial actuators |
US11797091B2 (en) | 2021-06-24 | 2023-10-24 | Microsoft Technology Licensing, Llc | Computing device with haptic trackpad |
US11809631B2 (en) | 2021-09-21 | 2023-11-07 | Apple Inc. | Reluctance haptic engine for an electronic device |
WO2023076246A1 (en) * | 2021-10-26 | 2023-05-04 | Strattec Security Corporation | Automotive user interface |
US11995240B2 (en) * | 2021-11-16 | 2024-05-28 | Neosensory, Inc. | Method and system for conveying digital texture information to a user |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1496549A (zh) * | 2001-03-09 | 2004-05-12 | ��÷ɭ��˾ | 用于笔记本电脑和其它便携设备的触觉接口 |
CN1646833A (zh) * | 2002-04-03 | 2005-07-27 | 伊梅森公司 | 触觉变速装置 |
EP1748350A2 (en) * | 2005-07-28 | 2007-01-31 | Avago Technologies General IP (Singapore) Pte. Ltd | Touch device and method for providing tactile feedback |
US20080068348A1 (en) * | 1998-06-23 | 2008-03-20 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
Family Cites Families (172)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2258094B1 (de) | 1972-11-27 | 1974-05-30 | Fa. Carl Zeiss, 7920 Heidenheim | Verfahren und Vorrichtung zur photometrischen Bestimmung der Extinktion einer Probe |
JPS6224187A (ja) | 1985-07-24 | 1987-02-02 | 三菱原子力工業株式会社 | 燃料集合体 |
US4928030A (en) | 1988-09-30 | 1990-05-22 | Rockwell International Corporation | Piezoelectric actuator |
ES2074185T3 (es) | 1990-03-23 | 1995-09-01 | Rockwell International Corp | Motor piezoelectrico. |
EP0791969A1 (en) | 1991-08-22 | 1997-08-27 | Mitsubishi Jukogyo Kabushiki Kaisha | Control system for ultrasonic motor |
JP3085481B2 (ja) | 1991-09-28 | 2000-09-11 | 株式会社ニコン | 反射屈折縮小投影光学系、及び該光学系を備えた露光装置 |
US5629594A (en) | 1992-12-02 | 1997-05-13 | Cybernet Systems Corporation | Force feedback system |
US6131097A (en) | 1992-12-02 | 2000-10-10 | Immersion Corporation | Haptic authoring |
JP3343156B2 (ja) | 1993-07-14 | 2002-11-11 | アークレイ株式会社 | 光学式成分濃度測定装置および方法 |
US5734373A (en) | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
US5767839A (en) | 1995-01-18 | 1998-06-16 | Immersion Human Interface Corporation | Method and apparatus for providing passive force feedback to human-computer interface systems |
WO1995020787A1 (en) | 1994-01-27 | 1995-08-03 | Exos, Inc. | Multimode feedback display technology |
JP3225477B2 (ja) | 1994-06-23 | 2001-11-05 | 日本電信電話株式会社 | 触覚刺激表出方法及び装置と触覚刺激ディスプレイ |
US6850222B1 (en) | 1995-01-18 | 2005-02-01 | Immersion Corporation | Passive force feedback for computer interface devices |
US5691898A (en) | 1995-09-27 | 1997-11-25 | Immersion Human Interface Corp. | Safe and low cost computer peripherals with force feedback for consumer applications |
US5959613A (en) | 1995-12-01 | 1999-09-28 | Immersion Corporation | Method and apparatus for shaping force signals for a force feedback device |
JP2000501033A (ja) | 1995-11-30 | 2000-02-02 | ヴァーチャル テクノロジーズ インコーポレイテッド | 触覚をフィードバックする人間/機械インターフェース |
US6169540B1 (en) | 1995-12-01 | 2001-01-02 | Immersion Corporation | Method and apparatus for designing force sensations in force feedback applications |
US6147674A (en) | 1995-12-01 | 2000-11-14 | Immersion Corporation | Method and apparatus for designing force sensations in force feedback computer applications |
US6219032B1 (en) | 1995-12-01 | 2001-04-17 | Immersion Corporation | Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface |
US7027032B2 (en) | 1995-12-01 | 2006-04-11 | Immersion Corporation | Designing force sensations for force feedback computer applications |
US5956484A (en) | 1995-12-13 | 1999-09-21 | Immersion Corporation | Method and apparatus for providing force feedback over a computer network |
US6028593A (en) | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
US6859819B1 (en) | 1995-12-13 | 2005-02-22 | Immersion Corporation | Force feedback enabled over a computer network |
US6046730A (en) | 1996-03-15 | 2000-04-04 | At&T Corp | Backlighting scheme for a multimedia terminal keypad |
US6046527A (en) | 1996-07-05 | 2000-04-04 | Honeybee Robotics, Inc. | Ultrasonic positioner with multiple degrees of freedom of movement |
US6084587A (en) | 1996-08-02 | 2000-07-04 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with a haptic virtual reality environment |
US7815436B2 (en) | 1996-09-04 | 2010-10-19 | Immersion Corporation | Surgical simulation interface device and method |
JP4354540B2 (ja) | 1996-10-18 | 2009-10-28 | ヤマハ株式会社 | 力覚駆動装置、力覚付与方法および記録媒体 |
US6285351B1 (en) | 1997-04-25 | 2001-09-04 | Immersion Corporation | Designing force sensations for computer applications including sounds |
US6292170B1 (en) | 1997-04-25 | 2001-09-18 | Immersion Corporation | Designing compound force sensations for computer applications |
US6252579B1 (en) | 1997-08-23 | 2001-06-26 | Immersion Corporation | Interface device and method for providing enhanced cursor control with force feedback |
JP4149574B2 (ja) | 1997-08-29 | 2008-09-10 | ゼロックス コーポレイション | ユーザインターフェースサポートデバイス、及び情報入力方法 |
US6448977B1 (en) | 1997-11-14 | 2002-09-10 | Immersion Corporation | Textures and other spatial sensations for a relative haptic interface device |
US6088019A (en) | 1998-06-23 | 2000-07-11 | Immersion Corporation | Low cost force feedback device with actuator for non-primary axis |
JP3987182B2 (ja) | 1998-01-26 | 2007-10-03 | Idec株式会社 | 情報表示装置および操作入力装置 |
EP1717678B1 (en) | 1998-01-26 | 2017-11-22 | Apple Inc. | Method for integrating manual input |
US6693622B1 (en) | 1999-07-01 | 2004-02-17 | Immersion Corporation | Vibrotactile haptic feedback devices |
US6433711B1 (en) | 1999-12-14 | 2002-08-13 | Texas Instruments Incorporated | System and method for offset error compensation in comparators |
AT408488B (de) | 1999-12-22 | 2001-12-27 | Scan Messtechnik Gmbh | Miniaturisiertes spektrometer |
JP3929672B2 (ja) | 2000-03-10 | 2007-06-13 | 独立行政法人科学技術振興機構 | 弾性波を用いたコンピュータ入出力装置 |
JP2001290572A (ja) | 2000-04-05 | 2001-10-19 | Fuji Xerox Co Ltd | 情報処理装置 |
JP3515042B2 (ja) | 2000-04-13 | 2004-04-05 | シャープ株式会社 | 画像表示装置および画像信号補正装置 |
JP3949912B2 (ja) | 2000-08-08 | 2007-07-25 | 株式会社エヌ・ティ・ティ・ドコモ | 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法 |
US6963762B2 (en) | 2001-05-23 | 2005-11-08 | Nokia Corporation | Mobile phone using tactile icons |
JP2003091233A (ja) | 2001-09-17 | 2003-03-28 | Toru Saito | 画像表示装置および画像入力装置 |
JP2003099177A (ja) | 2001-09-21 | 2003-04-04 | Fuji Xerox Co Ltd | 触覚情報作成方法、触覚情報提示方法および触覚情報提示装置 |
US7032188B2 (en) | 2001-09-28 | 2006-04-18 | Nokia Corporation | Multilevel sorting and displaying of contextual objects |
KR20040065242A (ko) | 2001-12-12 | 2004-07-21 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 촉각 지시부를 구비한 디스플레이 시스템 |
EP1456742B1 (de) | 2001-12-18 | 2006-08-09 | Océ Printing Systems GmbH | Verfahren, gerätesystem und computerprogramm zum speichern und abrufen von druckdaten in einem netzwerk |
US6703924B2 (en) | 2001-12-20 | 2004-03-09 | Hewlett-Packard Development Company, L.P. | Tactile display apparatus |
JP2003256105A (ja) | 2002-03-01 | 2003-09-10 | Nippon Telegr & Teleph Corp <Ntt> | 力覚提示装置および力覚提示方法 |
KR100769783B1 (ko) | 2002-03-29 | 2007-10-24 | 가부시끼가이샤 도시바 | 표시 입력 장치 및 표시 입력 시스템 |
JP4061105B2 (ja) | 2002-03-29 | 2008-03-12 | アルプス電気株式会社 | 力覚付与装置 |
JP4434609B2 (ja) | 2002-03-29 | 2010-03-17 | 株式会社東芝 | 表示入力システム |
US7161580B2 (en) | 2002-04-25 | 2007-01-09 | Immersion Corporation | Haptic feedback using rotary harmonic moving mass |
JP3852368B2 (ja) | 2002-05-16 | 2006-11-29 | ソニー株式会社 | 入力方法及びデータ処理装置 |
JP3937982B2 (ja) | 2002-08-29 | 2007-06-27 | ソニー株式会社 | 入出力装置および入出力装置を有する電子機器 |
KR20040025398A (ko) | 2002-09-19 | 2004-03-24 | 삼성전자주식회사 | 이동 통신 단말의 호착신 알림 방법 |
JP4117352B2 (ja) | 2002-11-12 | 2008-07-16 | 株式会社ソニー・コンピュータエンタテインメント | ファイル処理方法とこの方法を利用可能な装置 |
US7278119B2 (en) | 2002-11-29 | 2007-10-02 | Sigmatel, Inc. | Battery-optimized system-on-a-chip and applications thereof |
AU2003279475A1 (en) | 2002-12-04 | 2004-06-23 | Koninklijke Philips Electronics N.V. | Graphic user interface having touch detectability |
FI20022282A0 (fi) | 2002-12-30 | 2002-12-30 | Nokia Corp | Menetelmä vuorovaikutuksen mahdollistamiseksi elektronisessa laitteessa ja elektroninen laite |
WO2004075169A2 (en) | 2003-02-19 | 2004-09-02 | Koninklijke Philips Electronics, N.V. | System for ad hoc sharing of content items between portable devices and interaction methods therefor |
JP2004265281A (ja) | 2003-03-04 | 2004-09-24 | Univ Nihon | 振動応答型タッチパネル |
JP2004310518A (ja) | 2003-04-08 | 2004-11-04 | Fuji Xerox Co Ltd | 画像情報処理装置 |
US20040218910A1 (en) | 2003-04-30 | 2004-11-04 | Chang Nelson L. | Enabling a three-dimensional simulation of a trip through a region |
WO2004103014A2 (en) | 2003-05-09 | 2004-11-25 | The Crest Group, Inc. | Advanced ceramics in ultrasonic transducerized devices |
JP2004342018A (ja) | 2003-05-19 | 2004-12-02 | Alps Electric Co Ltd | 力覚付与型入力装置 |
JP4713070B2 (ja) | 2003-08-26 | 2011-06-29 | ヤマハ株式会社 | ポインティングデバイス |
JP3830476B2 (ja) | 2003-08-29 | 2006-10-04 | ファナック株式会社 | 教示操作盤 |
JP3856774B2 (ja) | 2003-08-29 | 2006-12-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声出力装置、情報入力装置、ファイル選択装置、電話機、及びそのプログラムと記録媒体 |
DE10340188A1 (de) | 2003-09-01 | 2005-04-07 | Siemens Ag | Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe |
JP2005128891A (ja) | 2003-10-24 | 2005-05-19 | Canon Inc | 視触覚情報呈示装置 |
US7667687B2 (en) | 2003-12-30 | 2010-02-23 | Immersion Corporation | Resistive and hybrid control schemes for haptic feedback interface devices |
US7112737B2 (en) | 2003-12-31 | 2006-09-26 | Immersion Corporation | System and method for providing a haptic effect to a musical instrument |
JP2005258666A (ja) | 2004-03-10 | 2005-09-22 | Sony Corp | 入力装置および電子機器並びに電子機器の感触フィードバック入力方法 |
US20060209037A1 (en) | 2004-03-15 | 2006-09-21 | David Wang | Method and system for providing haptic effects |
EP1728142B1 (en) | 2004-03-23 | 2010-08-04 | Fujitsu Ltd. | Distinguishing tilt and translation motion components in handheld devices |
JP4046095B2 (ja) | 2004-03-26 | 2008-02-13 | ソニー株式会社 | 触覚機能付き入力装置、情報入力方法及び電子機器 |
US20060061545A1 (en) | 2004-04-02 | 2006-03-23 | Media Lab Europe Limited ( In Voluntary Liquidation). | Motion-activated control with haptic feedback |
US7796517B2 (en) | 2004-06-28 | 2010-09-14 | Minghua Chen | Optimization of streaming data throughput in unreliable networks |
US20060024647A1 (en) | 2004-07-30 | 2006-02-02 | France Telecom | Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback |
GB2416962B (en) | 2004-08-05 | 2009-04-01 | Vodafone Plc | New communication type for mobile telecommunications networks |
US9046922B2 (en) | 2004-09-20 | 2015-06-02 | Immersion Corporation | Products and processes for providing multimodal feedback in a user interface device |
US7545550B2 (en) * | 2004-09-27 | 2009-06-09 | Idc, Llc | Systems and methods of actuating MEMS display elements |
WO2006042309A1 (en) | 2004-10-08 | 2006-04-20 | Immersion Corporation | Haptic feedback for button and scrolling action simulation in touch input devices |
US8677274B2 (en) | 2004-11-10 | 2014-03-18 | Apple Inc. | Highlighting items for search results |
US7440947B2 (en) | 2004-11-12 | 2008-10-21 | Fuji Xerox Co., Ltd. | System and method for identifying query-relevant keywords in documents with latent semantic analysis |
JP4892829B2 (ja) | 2004-11-15 | 2012-03-07 | ソニー株式会社 | 振動発生装置、触覚機能付きの入出力装置及びその電子機器 |
KR100883010B1 (ko) | 2004-11-30 | 2009-02-12 | 임머숀 코퍼레이션 | 진동촉각 햅틱 효과를 발생시키는 공진 디바이스를제어하기 위한 시스템 및 방법 |
JP2006163206A (ja) * | 2004-12-09 | 2006-06-22 | Ntt Docomo Inc | 触覚提示装置 |
GB0503253D0 (en) | 2005-02-17 | 2005-03-23 | Univ Northumbria Newcastle | User control of a hand-held device |
JP2006228151A (ja) | 2005-02-21 | 2006-08-31 | Tokai Rika Co Ltd | タッチ式入力装置 |
US8122354B1 (en) | 2005-02-25 | 2012-02-21 | The Mathworks, Inc. | Systems and methods for providing an indicator of detection of input related to an element of a user interface |
JP2006268068A (ja) | 2005-03-22 | 2006-10-05 | Fujitsu Ten Ltd | タッチパネル装置 |
US20060226298A1 (en) | 2005-03-30 | 2006-10-12 | Lionel L.L.C. | Graphical method and system for model vehicle and accessory control |
JP4675152B2 (ja) | 2005-05-16 | 2011-04-20 | 株式会社ワコム | 可搬性を備えるコンピュータ |
JP4756916B2 (ja) | 2005-05-31 | 2011-08-24 | キヤノン株式会社 | 振動波モータ |
WO2007002775A2 (en) | 2005-06-27 | 2007-01-04 | Coactive Drive Corporation | Synchronized vibration device for haptic feedback |
KR100739723B1 (ko) | 2005-07-19 | 2007-07-13 | 삼성전자주식회사 | 오디오 썸네일 기능을 지원하는 오디오 재생 방법 및 장치 |
CN101278360B (zh) | 2005-08-04 | 2011-07-27 | X射线光学系统公司 | 用于痕量元素制图的单色x射线微束 |
US8116740B2 (en) | 2005-09-21 | 2012-02-14 | Nokia Corporation | Mobile communication terminal and method |
JP2007133698A (ja) | 2005-11-10 | 2007-05-31 | Sony Ericsson Mobilecommunications Japan Inc | 携帯端末 |
WO2007059172A2 (en) | 2005-11-14 | 2007-05-24 | Immersion Corporation | Systems and methods for editing a model of a physical system for a simulation |
KR100877067B1 (ko) | 2006-01-03 | 2009-01-07 | 삼성전자주식회사 | 햅틱 버튼 및 이를 이용한 햅틱 기기 |
GB2434877A (en) * | 2006-02-06 | 2007-08-08 | Qinetiq Ltd | MOEMS optical modulator |
US8525778B2 (en) | 2007-03-21 | 2013-09-03 | Northwestern University | Haptic device with controlled traction forces |
US8405618B2 (en) | 2006-03-24 | 2013-03-26 | Northwestern University | Haptic device with indirect haptic feedback |
US8780053B2 (en) | 2007-03-21 | 2014-07-15 | Northwestern University | Vibrating substrate for haptic interface |
WO2007117418A2 (en) | 2006-03-31 | 2007-10-18 | Wms Gaming Inc. | Portable wagering game with vibrational cues and feedback mechanism |
US20070236474A1 (en) | 2006-04-10 | 2007-10-11 | Immersion Corporation | Touch Panel with a Haptically Generated Reference Key |
WO2007135888A1 (ja) | 2006-05-18 | 2007-11-29 | Alps Electric Co., Ltd. | 静電アクチュエータ |
US8174512B2 (en) | 2006-06-02 | 2012-05-08 | Immersion Corporation | Hybrid haptic device utilizing mechanical and programmable haptic effects |
US7516406B1 (en) | 2006-06-06 | 2009-04-07 | Adobe Systems Incorporated | Partial functionality indicator |
JP2007331066A (ja) | 2006-06-15 | 2007-12-27 | Canon Inc | 接触提示装置及び方法 |
JP4634975B2 (ja) | 2006-07-21 | 2011-02-16 | 日本電信電話株式会社 | 視触覚融合提示装置 |
US7920124B2 (en) | 2006-08-29 | 2011-04-05 | Canon Kabushiki Kaisha | Force sense presentation device, mixed reality system, information processing method, and information processing apparatus |
WO2008033493A2 (en) | 2006-09-13 | 2008-03-20 | Immersion Corporation | Systems and methods for casino gaming haptics |
JP4225337B2 (ja) | 2006-09-26 | 2009-02-18 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理装置及び画像処理方法 |
BRPI0622003A2 (pt) * | 2006-09-27 | 2012-10-16 | Nokia Corp | tela sensìvel ao toque, dispositivo eletrÈnico, método para operar tela sensìvel ao toque de dispositivo eletrÈnico e produto de software |
US7890863B2 (en) | 2006-10-04 | 2011-02-15 | Immersion Corporation | Haptic effects with proximity sensing |
CN101523329A (zh) * | 2006-10-05 | 2009-09-02 | 英默森公司 | 多模触觉反馈系统 |
US20080122589A1 (en) | 2006-11-28 | 2008-05-29 | Ivanov Yuri A | Tactile Output Device |
US20080218488A1 (en) | 2006-11-30 | 2008-09-11 | Electronics And Telecommunications Research Institute | Active driving type visual-tactile display device |
KR101515767B1 (ko) | 2006-12-27 | 2015-04-28 | 임머숀 코퍼레이션 | 진동 촉각 피드백을 통한 가상 디텐트 |
US8098234B2 (en) | 2007-02-20 | 2012-01-17 | Immersion Corporation | Haptic feedback system with stored effects |
JP4930100B2 (ja) | 2007-02-27 | 2012-05-09 | ソニー株式会社 | 力触覚ディスプレイ、力触覚ディスプレイの制御方法、並びにコンピュータ・プログラム |
JP2008225690A (ja) | 2007-03-09 | 2008-09-25 | Sony Corp | 振動体、触覚機能付きの入力装置及び電子機器 |
WO2008112519A1 (en) | 2007-03-12 | 2008-09-18 | University Of Pittsburgh - Of The Commonwealth System Of Higher Education | Fingertip visual haptic sensor controller |
WO2008132540A1 (en) | 2007-04-26 | 2008-11-06 | Nokia Corporation | Method and mobile terminal with user input based on movement of the terminal detected by a sensor |
JP2008287402A (ja) | 2007-05-16 | 2008-11-27 | Sony Corp | タッチパネルディスプレイ装置およびタッチパッド並びに電子機器 |
US8315652B2 (en) | 2007-05-18 | 2012-11-20 | Immersion Corporation | Haptically enabled messaging |
JP4960156B2 (ja) | 2007-06-22 | 2012-06-27 | 株式会社東芝 | 加熱調理器 |
JP2009003867A (ja) | 2007-06-25 | 2009-01-08 | Panasonic Electric Works Co Ltd | 表示装置およびコンピュータ・プログラム |
US20090002328A1 (en) | 2007-06-26 | 2009-01-01 | Immersion Corporation, A Delaware Corporation | Method and apparatus for multi-touch tactile touch panel actuator mechanisms |
US8154537B2 (en) * | 2007-08-16 | 2012-04-10 | Immersion Corporation | Resistive actuator with dynamic variations of frictional forces |
JP5406188B2 (ja) | 2007-08-20 | 2014-02-05 | クアルコム,インコーポレイテッド | 高度な語彙外単語の拒否 |
US8639708B2 (en) | 2007-08-31 | 2014-01-28 | Microsoft Corporation | Fact-based indexing for natural language search |
KR101348721B1 (ko) | 2007-09-03 | 2014-01-08 | 엘지전자 주식회사 | 휴대 단말기 및 그 휴대 단말기의 터치 인식 방법 |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US8098235B2 (en) * | 2007-09-28 | 2012-01-17 | Immersion Corporation | Multi-touch device having dynamic haptic effects |
US20090102805A1 (en) | 2007-10-18 | 2009-04-23 | Microsoft Corporation | Three-dimensional object simulation using audio, visual, and tactile feedback |
US8004498B1 (en) | 2007-10-22 | 2011-08-23 | Adobe Systems Incorporated | Systems and methods for multipoint temporary anchoring |
US20090112572A1 (en) | 2007-10-30 | 2009-04-30 | Karl Ola Thorn | System and method for input of text to an application operating on a device |
KR100954529B1 (ko) | 2007-11-27 | 2010-04-23 | 한국과학기술연구원 | 원환형 압전 초음파 공진기 및 그를 이용한 압전 초음파회전모터 |
US9569086B2 (en) | 2007-12-12 | 2017-02-14 | Nokia Technologies Oy | User interface having realistic physical effects |
US9170649B2 (en) | 2007-12-28 | 2015-10-27 | Nokia Technologies Oy | Audio and tactile feedback based on visual environment |
EP2245612B1 (en) | 2008-02-04 | 2013-07-17 | Nokia Corporation | Device and method for providing tactile information |
US20090207129A1 (en) | 2008-02-15 | 2009-08-20 | Immersion Corporation | Providing Haptic Feedback To User-Operated Switch |
BRPI0804355A2 (pt) | 2008-03-10 | 2009-11-03 | Lg Electronics Inc | terminal e método de controle do mesmo |
KR101498622B1 (ko) * | 2008-06-25 | 2015-03-04 | 엘지전자 주식회사 | 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법 |
US20100020036A1 (en) | 2008-07-23 | 2010-01-28 | Edward Hui | Portable electronic device and method of controlling same |
NL2003141A1 (nl) | 2008-07-30 | 2010-02-02 | Asml Holding Nv | Actuator system using multiple piezoelectric actuators. |
US8676738B2 (en) | 2008-09-03 | 2014-03-18 | Nec Corporation | Relationship detector, relationship detection method, and recording medium |
US8749495B2 (en) | 2008-09-24 | 2014-06-10 | Immersion Corporation | Multiple actuation handheld device |
US10289199B2 (en) | 2008-09-29 | 2019-05-14 | Apple Inc. | Haptic feedback system |
CA2741580C (en) | 2008-11-26 | 2016-10-18 | Research In Motion Limited | Touch-sensitive display method and apparatus |
US8484179B2 (en) | 2008-12-08 | 2013-07-09 | Microsoft Corporation | On-demand search result details |
US8378979B2 (en) | 2009-01-27 | 2013-02-19 | Amazon Technologies, Inc. | Electronic device with haptic feedback |
US10007340B2 (en) | 2009-03-12 | 2018-06-26 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
US10564721B2 (en) | 2009-03-12 | 2020-02-18 | Immersion Corporation | Systems and methods for using multiple actuators to realize textures |
US9874935B2 (en) | 2009-03-12 | 2018-01-23 | Immersion Corporation | Systems and methods for a texture engine |
EP2406701B1 (en) | 2009-03-12 | 2018-08-22 | Immersion Corporation | System and method for using multiple actuators to realize textures |
JP4778591B2 (ja) | 2009-05-21 | 2011-09-21 | パナソニック株式会社 | 触感処理装置 |
US8294557B1 (en) | 2009-06-09 | 2012-10-23 | University Of Ottawa | Synchronous interpersonal haptic communication system |
WO2011062895A2 (en) | 2009-11-17 | 2011-05-26 | Immersion Corporation | Systems and methods for increasing haptic bandwidth in an electronic device |
WO2011080872A1 (ja) | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 表示する文章に応じた触覚を提示する文章表示装置、文章表示プログラム、及び文章表示方法 |
US8551576B2 (en) | 2010-05-20 | 2013-10-08 | GM Global Technology Operations LLC | Method for controlling a coefficient of friction |
US8704647B2 (en) | 2010-12-21 | 2014-04-22 | Electronics And Telecommunications Research Institute | Haptic feedback case for electronic equipment |
WO2012125924A2 (en) | 2011-03-17 | 2012-09-20 | Coactive Drive Corporation | Asymmetric and general vibration waveforms from multiple synchronized vibration actuators |
US9448713B2 (en) | 2011-04-22 | 2016-09-20 | Immersion Corporation | Electro-vibrotactile display |
-
2010
- 2010-01-29 US US12/696,900 patent/US9696803B2/en active Active
- 2010-03-11 CN CN201510760216.2A patent/CN105353877B/zh not_active Expired - Fee Related
- 2010-03-11 KR KR1020117023988A patent/KR101653330B1/ko active IP Right Grant
- 2010-03-11 CN CN201610196586.2A patent/CN105892921B/zh not_active Expired - Fee Related
-
2015
- 2015-02-04 JP JP2015020413A patent/JP6220800B2/ja not_active Expired - Fee Related
-
2017
- 2017-05-22 US US15/601,580 patent/US10073526B2/en not_active Expired - Fee Related
- 2017-08-02 JP JP2017149800A patent/JP6563983B2/ja not_active Expired - Fee Related
-
2018
- 2018-08-06 US US16/056,004 patent/US10466792B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080068348A1 (en) * | 1998-06-23 | 2008-03-20 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
CN1496549A (zh) * | 2001-03-09 | 2004-05-12 | ��÷ɭ��˾ | 用于笔记本电脑和其它便携设备的触觉接口 |
CN1646833A (zh) * | 2002-04-03 | 2005-07-27 | 伊梅森公司 | 触觉变速装置 |
EP1748350A2 (en) * | 2005-07-28 | 2007-01-31 | Avago Technologies General IP (Singapore) Pte. Ltd | Touch device and method for providing tactile feedback |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10073527B2 (en) | 2009-03-12 | 2018-09-11 | Immersion Corporation | Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading |
US10747322B2 (en) | 2009-03-12 | 2020-08-18 | Immersion Corporation | Systems and methods for providing features in a friction display |
CN109326221A (zh) * | 2018-09-25 | 2019-02-12 | 上海天马微电子有限公司 | 显示装置和显示装置的触觉反馈显示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2017224324A (ja) | 2017-12-21 |
US10073526B2 (en) | 2018-09-11 |
US20180373336A1 (en) | 2018-12-27 |
US9696803B2 (en) | 2017-07-04 |
JP6220800B2 (ja) | 2017-10-25 |
CN105353877B (zh) | 2019-02-05 |
KR101653330B1 (ko) | 2016-09-01 |
US20100231550A1 (en) | 2010-09-16 |
JP2015130187A (ja) | 2015-07-16 |
KR20110130474A (ko) | 2011-12-05 |
JP6563983B2 (ja) | 2019-08-21 |
US20170255268A1 (en) | 2017-09-07 |
CN105892921B (zh) | 2019-12-10 |
US10466792B2 (en) | 2019-11-05 |
CN105353877A (zh) | 2016-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6588951B2 (ja) | テクスチャを実現するために複数のアクチュエータを用いるシステム及び方法 | |
CN105892921A (zh) | 用于使用多个致动器实现纹理的系统和方法 | |
CN102362246B (zh) | 用于使用多个致动器实现纹理的系统和方法 | |
CN102349038B (zh) | 用于纹理引擎的系统和方法 | |
JP6410860B2 (ja) | テクスチャエンジン用のシステム及び方法 | |
JP6463795B2 (ja) | グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法 | |
JP6121102B2 (ja) | 近接感知による触覚的効果 | |
US20170108931A1 (en) | Multiple mode haptic feedback system | |
JP5694204B2 (ja) | グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法 | |
KR101992070B1 (ko) | 텍스처 엔진에 대한 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191210 |