CN103869969A - 增强的动态触觉效果 - Google Patents
增强的动态触觉效果 Download PDFInfo
- Publication number
- CN103869969A CN103869969A CN201310632077.6A CN201310632077A CN103869969A CN 103869969 A CN103869969 A CN 103869969A CN 201310632077 A CN201310632077 A CN 201310632077A CN 103869969 A CN103869969 A CN 103869969A
- Authority
- CN
- China
- Prior art keywords
- haptic effect
- topworks
- value
- key frame
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 title claims abstract description 623
- 238000000034 method Methods 0.000 claims description 23
- 238000003860 storage Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 40
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000014759 maintenance of location Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000003155 kinesthetic effect Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 229920001746 electroactive polymer Polymers 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/80—Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
- Y02T10/82—Elements for improving aerodynamics
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
一种增强的动态触觉效果。提供的系统产生动态触觉效果,它包括一个或多个关键帧,其中每个关键帧都包括第一内插值和第一触觉效果。所述系统进一步接收内插值,其中所述内插值在至少两个关键帧的至少两个内插值之间。所述系统进一步按照所述内插值确定所述动态触觉效果。所述系统进一步在多个执行机构当中分配所述动态触觉效果。
Description
技术领域
一个实施例一般针对触觉效果。更确切地说,针对产生动态触觉效果。
背景技术
电子设备制造商努力为用户产生丰富的界面。常规设备使用视觉和听觉提示向用户提供反馈。在某些接口设备中,还向用户提供了动觉反馈(比如主动和阻抗力反馈)以及/或者触觉反馈(比如振动、纹理和热量),更一般地统称为“触觉反馈”或“触觉效果”。触觉反馈提供的提示能够增强和简化用户界面。尤其是,振动效果或振动的触觉效果可以用于向电子设备的用户提供提示,向用户报警特定事件或提供逼真反馈,在模拟或虚拟环境内产生更强烈的感官沉浸。
触觉反馈也已经越来越多地被加入到便携式电子设备中,称为“手持设备”或“便携式设备”,比如蜂窝电话、个人数字助理(“PDA”)、智能电话和便携式游戏设备。例如,某些便携式游戏应用的振动方式能够类似于被设置为提供触觉反馈的更大型游戏系统所用的控制设备(如游戏杆等)。此外,诸如蜂窝电话和智能电话的设备能够利用振动向用户提供多种警报。例如,蜂窝电话能够通过振动向用户报警某拨入的电话呼叫。同样,智能电话能够提示用户计划的日程表项或提供给用户“要做”列表项或日程表预约的提醒。另外,触觉效果可以用于仿真“真实世界”的动态事件,比如视频游戏中球跳动的感觉。
发明内容
一个实施例是产生动态触觉效果的系统。所述系统接收第一关键帧,包括第一内插值和第一触觉效果。所述系统进一步接收第二关键帧,包括第二内插值和第二触觉效果。所述系统进一步接收内插值,其中所述内插值在所述第一内插值与所述第二内插值之间(或者等于不是所述第一内插值即是所述第二内插值)。所述系统进一步按照所述内插值、所述第一关键帧和所述第二关键帧确定所述动态触觉效果。所述系统进一步在多个执行机构当中分配所述动态触觉效果。
另一个实施例是产生所述动态触觉效果的系统。所述系统接收多个关键帧,其中每个关键帧都包括关键帧内插值、触觉效果和方向值。所述系统进一步接收内插值,其中所述内插值在至少两个关键帧内插值之间(或者等于所述至少两个关键帧内插值之一)。所述系统进一步确定所述动态触觉效果的方向。所述系统进一步从所述多个关键帧中选择一个或多个关键帧,其中每个选择的关键帧都包括等于所述方向的方向值。所述系统进一步按照所述内插值和所述方向确定所述动态触觉效果,其中确定包括对来自至少两个选择的关键帧的至少两个触觉效果插值得出所述动态触觉效果。
附图说明
从优选实施例的以下详细说明连同附图,进一步的实施例、细节、优点和修改将变得显而易见。
图1展示了根据本发明一个实施例的系统框图;
图2展示了根据本发明实施例的实例动态触觉效果定义;
图3展示了根据本发明实施例的实例关键帧定义;
图4展示了根据本发明实施例的实例基本触觉效果存储块;
图5展示了根据本发明实施例的实例帧列表块;
图6展示了根据本发明实施例,在多个执行机构产生动态触觉效果的实例实施的框图;
图7展示了根据本发明另一个实施例,在多个执行机构产生动态触觉效果的实例实施的框图;
图8展示了根据本发明另一个实施例,在多个执行机构产生动态触觉效果的实例实施的框图;
图9展示了根据本发明实施例,包括方向性质的实例关键帧定义;
图10展示了根据本发明实施例的触觉效果发生模块的功能流程图;
图11展示了根据本发明另一个实施例的触觉效果发生模块的功能流程图。
具体实施方式
正如以下说明,“动态触觉效果”是指当其响应一个或多个输入参数时随着时间流逝而进展的触觉效果。动态触觉效果是在触觉设备上显示的触觉的或振动的效果,以表示给定输入信号的状态改变。该输入信号可以是由带有触觉反馈的设备上传感器所俘获的信号,比如位置、加速度、压力、朝向或接近度,或者由其他设备俘获并为了影响触觉效果的产生而发送给触觉设备的信号。
动态效果信号可以是任何类型的信号,但是不一定必须复杂。例如,动态效果信号可以是简单的正弦波,它具有某种性质比如相位、频率或振幅,随时间改变或根据把输入参数映射到效果信号的性质改变的映射模式实时反应。输入参数可以是能够由某设备提供的任何类型的输入,典型情况下,可以是任何类型的信号,比如设备传感器信号。设备传感器信号可以由任何装置产生,典型情况下可以通过以设备俘获用户姿态而产生。动态效果对姿态界面可以非常有用,但是为了产生动态信号不一定要求姿态或传感器的使用。
不直接涉及姿态的一个普通情景是定义动画小部件的动态触觉行为。例如,当用户滚动某列表时,典型情况下不是姿态的触觉将感觉最直观,而是小部件响应该姿态的动作。在滚动列表实例中,轻轻地滑动该列表可以产生根据该滚动速度而改变的动态触觉反馈,但是猛然移动滚动条即使该姿态已经结束也可以产生动态触觉。这就产生了小部件具有某些物理性质的错觉,并且它提供给用户有关小部件状态的信息,比如其速度或者它是否在运动。
姿态是身体传达意图即用户目的的任何动作。应当理解,简单的姿态可以组合以形成更复杂的姿态。例如,让手指与触敏表面接触可以称为“手指靠近”姿态,而让手指从触敏表面移开可以称为分开的“手指离去”姿态。如果“手指靠近”与“手指离去”姿态之间的时间相对短,该组合姿态可以称为“轻击”;如果“手指靠近”与“手指离去”姿态之间的时间相对长,该组合姿态可以称为“长轻击”;如果“手指靠近”与“手指离去”姿态的二维(x,y)位置之间的距离相对大,该组合姿态可以称为“挥击”;如果“手指靠近”与“手指离去”姿态的二维(x,y)位置之间的距离相对小,该组合姿态可以称为“涂抹”、“涂去”、“轻弹”。任何数量的二维或三维简单或复杂的姿态都可以以任何方式组合以形成任何数量的其他姿态,包括但是不限于多个手指接触,手掌和拳头接触,或者接近该设备。姿态还可以是由具有加速计、回转仪或其他运动传感器的设备识别出并转换为电子信号的任何形式的手移动。这样的电子信号能够触发动态效果,比如摇动虚拟骰子,其中传感器俘获用户想产生动态效果的意图。
一个实施例是在多个执行机构能够产生一个或多个动态触觉效果的系统,其中这一个或多个动态触觉效果可以分布在多个执行机构当中。系统可以为某动态触觉效果定义两个或三个关键帧。在一个实施例中,系统能够允许每个关键帧使用某执行机构值瞄准这多个执行机构中特定的执行机构、对分开的执行机构值插值、通过对两个或多个关键帧内存储的两个或多个触觉效果插值而产生动态触觉效果,然后根据执行机构值插值结果在目标执行机构当中分配动态触觉效果。在另一个实施例中,系统能够允许每个关键帧瞄准这多个执行机构中特定的执行机构、把瞄准同一执行机构的关键帧分组在一起,并且通过对在每个执行机构的分组后关键帧内存储的触觉效果独立地插值而产生动态触觉效果。在另一个实施例中,系统能够确定执行机构分配信息,它指明如何在多个执行机构当中分配动态触觉效果。然后系统能够通过对在两个或多个关键帧内存储的两个或多个触觉效果插值而产生动态触觉效果,然后使用执行机构分配信息在多个执行机构当中分配动态触觉效果。
另一个实施例是使用一个或多个关键帧能够产生动态触觉效果的系统,其中每个关键帧包括方向性质。方向性质可以指明此关键帧要用于动态触觉效果的特定方向。根据确定的动态触觉效果的方向,带有方向性质等于所确定方向的一个或多个关键帧能够用于产生动态触觉效果。
一种类型的动态触觉效果是根据动态值是在第一内插值与第二内插值之间的值,通过第一触觉效果和第二触觉效果插值能够产生的触觉效果。等于或者第一内插值或者第二内插值的动态值被视为“在第一内插值与第二内插值之间”。更确切地说,计算对于动态触觉效果每个参数值的方式为使用插值函数,对第一触觉效果的参数值与第二触觉效果的参数值插值。动态触觉效果的每个参数值的插值可以基于动态值落入在第一内插值和第二内插值之间的情况。在2012年7月11日提交的标题为“GENERATING HAPTIC EFFECTS FORDYNAMIC EVENTS”的美国专利申请序列号13/546,351(其内容在此引用作为参考)中,以及在2012年11月2日提交的标题为“ENCODING DYNAMIC HAPTIC EFFECTS”的美国专利申请序列号13/667,003(其内容在此引用作为参考)中,进一步介绍了动态触觉效果。动态触觉效果能够使用触觉效果信号编码,其中触觉效果信号是动态触觉效果的表达。在磁盘、存储器或任何计算机可读存储介质上触觉效果信号可以是永久的。在上述实施例中,与动态触觉效果相关联的两个或多个关键帧能够包括由触觉效果信号所产生的动态触觉效果的一个或多个输入参数。
图1展示了根据本发明一个实施例的系统10的框图。在一个实施例中,系统10是设备的一部分,并且系统10为该设备提供了触觉效果产生功能。尽管显示为单一系统,但是系统10的功能也能够被实施为分布式系统。系统10包括总线12或其他通信机构用于传播信息,以及连接到总线12用于处理信息的处理器22。处理器22可以是任何类型的通用或专用处理器。系统10进一步包括存储器14用于存储信息和要由处理器22执行的指令。存储器14可以包括随机存取存储器(“RAM”)、只读存储器(“ROM”)、静态存储器比如磁盘或光盘,或者任何其他类型的计算机可读介质的任何组合。
计算机可读介质可以是由处理器22能够访问的任何可用介质,并且可以包括易失性和非易失性介质、可移动或不可移动介质、通信介质以及存储器介质。通信介质可以包括以调制后数据信号比如载波或其他传输机制形式的计算机可读指令、数据结构、程序模块或其他数据,并且可以包括业内公知的任何其他形式的信息传递介质。存储器介质可以包括RAM、闪存、ROM、可擦除可编程只读存储器(“EPROM”)、可电擦除可编程只读存储器(“EEPROM”)、寄存器、硬盘、可移动磁盘、光盘只读存储器(“CD-ROM”),或者业内公知的任何其他形式的存储器介质。
在一个实施例中,存储器14存储着由处理器22执行时提供功能的若干软件模块。这些模块包括操作系统15,它为系统10提供操作系统功能以及在一个实施例中的移动设备的其他功能。这些模块进一步包括触觉效果发生模块16,它产生动态触觉效果,正如以下更详细地公开。在某实施例中,触觉效果发生模块16可以包括多个模块,其中每个单独的模块都为产生动态触觉效果提供了特定的单项功能。典型情况下系统10将包括一个或多个附加应用模块18以包括附加功能,例如Immersion公司的IntegratorTM应用程序。
系统10在从远程来源发送和/接收数据的实施例中进一步包括通信设备20,比如网络接口卡,提供移动无线网络通信,比如红外线、无线电、Wi-Fi或蜂窝网通信。在其他实施例中,通信设备20提供了有线网络连接,比如以太网连接或调制解调器。
处理器22进一步经由总线12连接到显示器24,比如液晶显示器(“LCD”),向用户显示图形表达或用户界面。显示器24可以是触敏输入设备,比如触摸屏,被配置为从处理器22发送和接收信号,并且可以是多点触摸的触摸屏。处理器22可以进一步连接到键盘或允许用户与系统10互动的光标控制28,比如鼠标或指示笔。
在一个实施例中,系统10进一步包括执行机构26A。处理器22可以把与产生的触觉效果相关联的触觉信号发送到执行机构26A,它又输出触觉效果比如震动触觉的触觉效果。执行机构26A包括执行机构驱动电路。例如,执行机构26A可以是电动机、电磁执行机构、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量马达(“ERM”)、线性共振执行机构(“LRA”)、压电执行机构、高带宽执行机构、电活性聚合物(“EAP”)执行机构、静电摩擦显示器,或者超声振动发生器。在替代实施例中,除执行机构26A外系统10还可以包括一个或多个附加执行机构。在展示的实施例中,除执行机构26A外系统10还包括执行机构26B。不过,这仅仅是实例实施例而在其他实施例中,系统10可以包括图1中未展示的附加执行机构,也能够仅仅包括执行机构26A。在其他实施例中,与系统10分离的设备包括产生触觉效果的执行机构,并且系统10通过通信设备20向该设备发送已产生的触觉效果信号。执行机构26A和26B是触觉输出设备的实例,其中触觉输出设备是被配置为响应驱动信号输出触觉效果的设备,比如震动触觉的触觉效果。
图2展示了根据本发明实施例的实例动态触觉效果定义200。根据实施例,动态触觉效果能够被定义为包括一个或多个关键帧。关键帧是能够用于定义动态触觉效果的基本触觉效果的表达。也根据实施例,使用一个或多个关键帧能够产生触觉效果信号,其中所述触觉效果信号是能够存储一个或多个关键帧的信号。通过使用一个或多个关键帧产生触觉效果信号,产生了这一个或多个关键帧,并且随后存储在触觉效果信号之内。触觉效果信号能够存储在触觉效果文件之内并能够从中检索。
关键帧可以包括基本触觉效果定义。基本触觉效果是能够包括定义了触觉效果的特征(更确切地说,由触觉效果产生的动觉反馈和/或有触觉反馈)的一个或多个参数的触觉效果,其中触觉效果可以是例如振动的触觉效果。一个或多个参数的实例可以包括幅度参数、频率参数、周期参数和持续时间参数。基本触觉效果的实例可以包括“连续一段时间触觉效果”和“周期触觉效果”。连续一段时间触觉效果是产生动觉反馈和/或有触觉反馈(比如振动)的触觉效果。周期触觉效果是产生重复的动觉反馈和/或有触觉反馈(比如振动模式)的触觉效果。重复模式的实例包括重复一定形状的脉冲,比如正弦曲线、矩形、三角形、向上锯齿和向下锯齿。
关键帧可以包括内插值。内插值是指定当前插值正在何处发生的值。在某实施例中,内插值可以是从最小值到最大值的整数值。例如内插值可以从0到10,000。在其他实施例中,内插值可以是定点或浮点数值。内插值可以被存储在一位或多位之内。
关键帧还能够可选地包括重复间隔值。重复间隔值是指明相继地运行基本触觉效果时基本触觉效果的两个相继事例之间时段的值。在一个实施例中,重复间隔可以指明基本触觉效果的两个相继事例之间的毫秒数。
在展示的实施例中,动态触觉效果定义200包括四个关键帧,关键帧210、220、230和240。不过,这仅仅是实例实施例,而在替代实施例中,动态触觉效果定义能够包括任何数量的关键帧。关键帧210包括基本触觉效果引用“周期1”、内插值“0”和重复间隔值“10ms”。基本触觉效果引用“周期1”指基本触觉效果260,它也包括在动态触觉效果定义200之内。因此,关键帧210定义基本触觉效果260作为内插值“0”的基本触觉效果。关键帧210进一步指明了相继地运行基本触觉效果260时,在基本触觉效果260的每个相继事例之间存在着10ms的时段。同样,关键帧220包括基本触觉效果引用“周期3”、内插值“10”和重复间隔值“15ms”。基本触觉效果引用“周期3”指基本触觉效果270,它也包括在动态触觉效果定义200之内。因此,关键帧220定义基本触觉效果270作为内插值“10”的基本触觉效果。关键帧220进一步指明了相继地运行基本触觉效果270时,在基本触觉效果270的每个相继事例之间存在着15ms的时段。
同样,关键帧230包括基本触觉效果引用“周期1”、内插值“20”和重复间隔值“5ms”。正如先前介绍,基本触觉效果引用“周期1”指基本触觉效果260,它也包括在动态触觉效果定义200之内。因此,关键帧230定义了基本触觉效果260作为内插值“20”的基本触觉效果。这展示了基本触觉效果能够被定义为用于不止一个内插值的基本触觉效果。关键帧230进一步指明了相继地运行基本触觉效果260时,在基本触觉效果260的每个相继事例之间存在着5ms的时段。同样,关键帧240包括基本触觉效果引用“周期2”、内插值“30”和重复间隔值“20ms”。基本触觉效果引用“周期2”指基本触觉效果280,它也包括在动态触觉效果定义200之内。因此,关键帧240定义了基本触觉效果280作为内插值“30”的基本触觉效果。关键帧240进一步指明了相继运行基本触觉效果280时,在基本触觉效果280的每个相继事例之间存在着20ms的时段。
根据某实施例,动态触觉效果能够定义也包括动态触觉效果结束的指示。动态触觉效果结束的指示指明了动态触觉效果不包括任何另外的关键帧。正如以下更详细的介绍,解释动态触觉效果定义的设备能够被配置为顺序地解释动态触觉效果定义的内容。因此,该指示能够向设备指明动态触觉效果定义的结束。在一个实施例中,动态触觉效果结束的指示能够被视为附加关键帧。在展示的实施例中,动态触觉效果定义200包括动态触觉效果定义结束250,它指明了动态触觉效果定义200的结束。
图3展示了根据本发明实施例的实例关键帧定义300。正如先前介绍,动态触觉效果定义包括一个或多个关键帧。根据此实施例,关键帧定义可以包括一个或多个性质。这一个或多个性质的每个性质都可以包括值。
关键帧定义可以包括类型性质。在一个实施例中,类型性质是关键帧定义的第一个性质。类型性质能够指明该关键帧是包含用于动态触觉效果定义的基本触觉效果的关键帧,还是指明动态触觉效果定义结束的关键帧。在展示的实施例中,关键帧定义300包括类型性质310,它指明了由关键帧定义300定义的关键帧的类型。
关键帧定义还能够包括基本触觉效果性质。基本触觉效果性质能够为关键帧存储对基本触觉效果的引用。在展示的实施例中,关键帧定义300包括基本触觉效果性质320(图3中标识为“效果名称”),它包括由关键帧定义300定义的关键帧的基本触觉效果。
关键帧定义还能够包括内插性质。内插性质能够存储内插值,其中该内插值指定当前插值正在何处发生。在某实施例中,内插值可以是从最小值到最大值的整数值。例如内插值可以从0到10,000。内插值可以被存储在一位或多位中。在展示的实施例中,关键帧定义300包括内插性质330,它包括由关键帧定义300定义的关键帧的内插值。
关键帧定义还能够可选地包括重复间隔性质(图3未展示)。重复间隔性质能够存储重复间隔值,它指明了相继地运行基本触觉效果时,关键帧的基本触觉效果的两个相继事例之间的时段。在一个实施例中,重复间隔可以指明关键帧的基本触觉效果的两个相继事例之间的毫秒数。
在一个实施例中,触觉效果文件是计算机文件,被配置为存储一个或多个动态触觉效果,其中在磁盘、存储器或任何计算机可读存储介质上触觉效果文件可以是永久的。根据此实施例,触觉效果文件能够使用基本触觉效果存储块和帧列表块存储一个或多个动态触觉效果定义。基本触觉效果存储块能够用于存储动态触觉效果能够引用的一个或多个基本触觉效果。帧列表块能够用于存储动态触觉效果定义对应的一个或多个关键帧定义。现在更详细地介绍基本触觉效果存储块和帧列表块。
图4展示了根据本发明实施例的实例基本触觉效果存储块400。正如先前介绍,动态触觉效果定义能够包括一个或多个基本触觉效果,其中至少一个存储的基本触觉效果由动态触觉定义的至少一个关键帧所引用。在一个实施例中,一个或多个基本触觉效果能够存储在基本触觉效果存储块内,比如基本触觉效果存储块400,其中基本触觉效果存储块被存储在动态触觉效果定义之内。
根据此实施例,一个或多个基本触觉效果能够被存储为基本触觉效果存储块400内的消息流。实例消息接发格式是“codename z2”协议消息接发格式。在展示的实施例中,基本触觉效果由SetPeriodic消息定义,SetPeriodicModifier消息可选地在前。因此,当基本触觉效果具有相关联的包层时,SetPeriodicModifier消息可以出现在块中SetPeriodic消息之前。否则,只有SetPeriodic消息能够出现在块中。因此,根据此实施例,作为存储在基本触觉效果存储块(比如图4的基本触觉效果存储块400)中的基本触觉效果能够或者占据:(a)单一SetPeriodic消息中存储器的8字节(假设默认包层);或者占据:(b)后面的SetPeriodic消息跟随的第一SetPeriodicModifier消息中存储器的16字节。
根据此实施例,基本触觉效果存储块(比如图4的基本触觉效果存储块400)能够包括一个或多个基本触觉效果定义,其中每个基本触觉效果定义都对应于某基本触觉效果。这一个或多个基本触觉效果定义能够在基本触觉效果存储块内排序,并且能够使每一个都与索引相关联。
在展示的实施例中,基本触觉效果存储块400包括五个基本触觉效果:Effect0、Effect1、Effect2、Effect3和Effect4。Effect0是位于基本触觉效果存储块400中的第一基本触觉效果,Effect1是位于基本触觉效果存储块400中的第二基本触觉效果,Effect2是位于基本触觉效果存储块400中的第三基本触觉效果,Effect3是位于基本触觉效果存储块400中的第四基本触觉效果,而Effect4是位于基本触觉效果存储块400中的第五基本触觉效果。这五个基本触觉效果(即Effect0、Effect1、Effect2、Effect3和Effect4)的每一个都包括基本触觉定义,它或者包括单一SetPeriodic消息或者包括SetPeriodicModifier消息与SetPeriodic消息的组合。
图5展示了根据本发明实施例的实例帧列表块500。正如先前介绍,动态触觉效果定义能够包括一个或多个关键帧,其中每个关键帧都能够引用某基本触觉效果。在一个实施例中,这一个或多个关键帧能够被存储在帧列表块内,比如帧列表块500,其中帧列表块被存储在动态触觉效果定义之内。
根据此实施例,帧列表块比如帧列表块500包括用于第一关键帧定义的类型性质。取决于类型性质,帧列表块进一步包括与第一关键帧定义相关联的一个或多个性质,比如基本触觉效果性质、内插性质、重复间隔性质或其组合。帧列表块进一步包括用于第二关键帧定义的类型性质,它指明了第一关键帧定义的结束。取决于类型性质,帧列表块进一步包括与第二关键帧定义相关联的一个或多个性质,比如基本触觉效果性质、内插性质、重复间隔性质或其组合。对于帧列表块的每个关键帧定义这种情况继续。帧列表块进一步包括指明动态触觉效果结束的类型性质。根据此实施例,帧列表块的关键帧定义以顺序的次序。换言之,帧列表块的事件以其位于帧列表块内的次序被处理。
根据此实施例,帧列表块的一个或多个性质能够使用单一数据头字节编码,继之以可选的数据字节。帧列表块的一个或多个性质的实例编码模式如下:
关键帧类型性质
字节号 | 位7-0 | 意义 |
0 | 0xCF | 类型=关键帧,没有数据与这个性质相关联 |
动态触觉效果结束类型性质
EffectNameAsOffSetU8性质
InterpolantU16性质
字节号 | 位7-0 | 意义 |
0 | 0xE6 | 内插被存储为16位的无符号整数 |
1 | TIME15_8 | TimeOffset值的高字节 |
2 | TIME7_0 | TimeOffset值的低字节 |
RepeatGapU16性质
根据此实施例,关键帧类型性质和动态触觉效果结束的类型性质对应于关键帧定义的类型性质,EffectNameAsOffSetU8性质对应于关键帧定义的基本触觉效果性质,InterpolantU16性质对应于关键帧定义的内插性质,而RepeatGapU16性质对应于关键帧定义的重复间隔性质。
在展示的实施例中,帧列表块500包括关键帧定义510、520和530。关键帧定义510和520的每个都是用于基本触觉效果关键帧的定义。关键帧定义530是帧列表块内存储的动态触觉效果结束的指示。帧列表块500的左列指明了在每个关键帧定义510、520和530的存储器中找到的字节流。帧列表块500的右列指明了每个关键帧定义510、520和530的每个性质的意义。
根据展示的实施例,关键帧定义510包括关键帧类型性质(如图5展示的“KeyFrame Event”),它指明关键帧定义510的起始。关键帧定义510进一步包括基本触觉效果性质(如图5展示的“EffectNameAsOffSetU8”),它存储着对关键帧定义510的基本触觉效果的引用,其中基本触觉效果性质包括数据头字节和偏移量字节。关键帧定义510进一步包括内插性质(如图5展示的“InterpolantU16”),它存储着指定当前插值正在何处发生的内插值,其中内插性质包括数据头字节、最高位(“MSB”)和最低位(“LSB”)。关键帧定义510进一步包括重复间隔性质(如图5展示的“RepeatGapU16”),它存储着重复间隔值,它指明了关键帧的基本触觉效果的两个相继事例之间的时段,其中所述重复间隔性质包括数据头字节、MSB和LSB。
另外,关键帧定义520也包括关键帧类型性质(如图5展示的“KeyFrame Event”),它指明关键帧定义520的起始。关键帧定义520进一步包括基本触觉效果性质(如图5展示的“EffectNameAsOffSetU16”),它存储着对关键帧定义520的基本触觉效果的引用,其中基本触觉效果性质包括数据头字节、基本触觉效果定义MSB和基本触觉效果定义LSB。关键帧定义520进一步包括内插性质(如图5展示的“InterpolantU16”),它存储着指定当前插值正在何处发生的内插值,其中内插性质包括数据头字节、MSB和LSB。正如图5展示,与关键帧定义510相反,关键帧定义520不包括重复间隔性质。最后,关键帧定义530包括动态触觉效果结束类型性质(如图5展示的“EndofDynamicHapticEffect”),它指明动态触觉效果定义的结束。
根据某实施例,动态触觉效果定义(比如图2的动态触觉效果定义200)能够存储在触觉效果文件之内。正如先前介绍,触觉效果文件是计算机文件,被配置为存储一个或多个动态触觉效果。此动态触觉效果定义能够存储在此触觉效果文件之内,并且在计算机可读存储介质比如磁盘或存储器内此触觉效果文件可以是永久的。动态触觉效果定义能够随后从触觉效果中检索出并被解释。根据动态触觉效果定义的解释,能够产生动态触觉效果,方式为根据第一内插值与第二内插值之间的动态值,对第一触觉效果与第二触觉效果插值。更确切地说,计算动态触觉效果的每个参数的值的方式能够为使用插值函数,对第一触觉效果的参数值与第二触觉效果的参数值插值。动态触觉效果的每个参数值的插值可以基于动态值落入在第一内插值与第二内插值之间的位置。例如,在第一内插值是“0”而第二内插值是“100”时,“50”的动态值能够引起对与第一内插值“0”相关联的第一触觉效果和与第二内插值“100”相关联的第二触觉效果进行插值,以产生动态触觉效果。根据插值函数,第一触觉效果的每个参数值都能够与第二值的参数值进行插值,所以动态触觉效果的参数值基于第一触觉效果的参数值和第二触觉效果的参数值双方。同样根据某实施例,动态触觉效果定义(比如图2的动态触觉效果定义200)能够用于产生触觉效果信号,其中触觉效果信号能够存储在触觉效果文件之内。触觉效果信号能够随后从触觉效果文件中检索出。另外,根据触觉效果信号能够把驱动信号应用到触觉输出设备。使用该触觉输出设备能够进一步产生驱动信号。
正如先前介绍,系统能够产生动态触觉效果并在多个执行机构当中分配动态触觉效果。动态触觉效果的产生和分配能够使用不同的技术实施。以下介绍若干实例实施。
图6展示了根据本发明实施例,在多个执行机构产生动态触觉效果的实例实施的框图。根据此实施例,动态触觉效果可以包括一个或多个关键帧,并且每个关键帧都能够包括标识执行机构的执行机构值。由执行机构值标识的执行机构是关键帧瞄准的执行机构。当系统对在两个或更多关键帧中存储的每个触觉效果进行插值以产生动态触觉效果时,系统也能够对在两个或更多关键帧中存储的每个执行机构值进行插值以产生插值后的执行机构值。然后系统能够使用插值后的执行机构值把产生的动态触觉效果分配在由两个或更多执行机构值所标识的两个或更多执行机构当中。
例如,正如图6展示,动态触觉效果610包括关键帧611和612。关键帧611包括内插值“40%”、幅度值“20%”、持续时间值“100ms”以及执行机构值(图6中标识为“执行机构索引”)“1”。根据此实施例,幅度值“20%”和持续时间值“100ms”共同表示在关键帧611内存储的基本触觉效果。当然,所展示的实施例仅仅是实例实施例,并且在替代实施例中,基本触觉效果可以包括在关键帧内存储的其他参数(比如频率参数和周期参数)。关键帧612包括内插值“80%”、幅度值“100%”、持续时间值“200ms”以及执行机构值“2”。根据此实施例,幅度值100%”和持续时间值“200ms”共同表示在关键帧612内存储的基本触觉效果。
根据此实施例,系统能够在效果插值器620处接收内插值“70%”,并且对关键帧611的基本触觉效果(即幅度值“20%”和持续时间值“100ms”)与关键帧612的基本触觉效果(即幅度值“100%”和持续时间值“200ms”)进行插值。本系统能够进一步对关键帧611的执行机构值(即执行机构值“1”)与关键帧612的执行机构值(即执行机构值“2”)进行插值。这两个插值的结果是插值后参数630,其中插值后参数630表示动态触觉效果610。根据展示的实施例,插值后参数630包括插值后幅度值“80%”、插值后持续时间值“175ms”以及插值后执行机构值(图6标识为“执行机构索引”)“1.75”。根据此实施例,插值后幅度值“80%”根据插值函数从“20%”和“100%”两个幅度值插值得到。另外,插值后持续时间值“175ms”同样根据插值函数从“100ms”和“200ms”两个持续时间值插值得到。此外,插值后执行机构值“1.75”也根据插值函数从“1”和“2”的两个执行机构值插值得到。
另外,根据此实施例,在效果分配器640,系统能够根据插值后执行机构值,把表示动态触觉效果610的插值后参数630分配到多个执行机构当中,其中本系统根据插值后执行机构值产生了用于这多个执行机构中每个执行机构的目标参数。用于每个执行机构的目标参数表示动态触觉效果610中分配给该执行机构的一部分。在展示的实施例中,在效果分配器640,本系统产生了目标参数650和目标参数660。目标参数650包括幅度值“20%”、持续时间值“175ms”以及执行机构值“1”。目标参数660包括幅度值“60%”、持续时间值“175ms”以及执行机构值“2”。根据此实施例,本系统可以使用插值后参数630的插值后执行机构值“1.75”把动态触觉效果610的25%分配给执行机构“1”,以及把动态触觉效果610的75%分配给执行机构“2”。在一个实施例中,动态触觉效果610的强度参数,比如幅度参数和周期参数在这多个执行机构当中分配。根据此实施例,基于时间的参数,比如频率参数和持续时间参数,对于这多个执行机构保持不变。
因此,在展示的实施例中,插值后参数630的插值后幅度值“80%”被分配到目标参数650的幅度值“20%”中,以及目标参数660的幅度值“60%”中。另外,在展示的实施例中,在目标参数650和目标参数660中都包括插值后参数630的持续时间值“175ms”。虽然展示的实施例涉及两个关键帧,其中每个关键帧都包括执行机构值,从而,涉及两个执行机构,但是本领域的普通技术人员将不难认识到,在替代实施例中,以上实施可以涉及任何数量的关键帧,其中每个关键帧都包括执行机构值,从而能够包括任何数量的执行机构。
因此,在另一个实例中,第一执行机构可以在设备的左侧,而第二执行机构可以在设备的右侧。动态触觉效果的第一关键帧能够在第一执行机构运行。动态触觉效果的第二关键帧能够在第二执行机构运行。随着系统从第一关键帧到第二关键帧插值而产生动态触觉效果,设备的用户能够感觉到动态触觉效果从左执行机构移动到右执行机构。
图7展示了根据本发明的另一个实施例,在多个执行机构产生动态触觉效果的实例实施的框图。根据此实施例,动态触觉效果可以包括一个或多个关键帧,并且每个关键帧都能够包括标识执行机构的执行机构值。由执行机构值标识的执行机构是关键帧瞄准的执行机构。然后系统能够按照由每个执行机构值所标识的每个执行机构对这一个或多个关键帧分组。更确切地说,本系统能够创建一组或多组关键帧,其中某组的每个关键帧都瞄准同一执行机构。对于每个执行机构,本系统能够对与该执行机构相关联的组的一个或多个关键帧中存储的每个触觉效果独立地插值,以便产生动态触觉效果。
例如,如图7展示,动态触觉效果710包括关键帧711、712、713和714。关键帧711包括内插值“40%”、幅度值“20%”、持续时间值“100ms”以及执行机构值(图7标识为“执行机构索引”)“1”。幅度值“20%”和持续时间值“100ms”共同表示在关键帧711内存储的基本触觉效果。当然,所展示的实施例仅仅是实例实施例,并且在替代实施例中,基本触觉效果可以包括在关键帧内存储的其他参数(比如频率参数和周期参数)。关键帧712包括内插值“30%”、幅度值“80%”、持续时间值“200ms”以及执行机构值“2”。幅度值“80%”和持续时间值“200ms”共同表示在关键帧712内存储的基本触觉效果。关键帧713包括内插值“80%”、幅度值“100%”、持续时间值“200ms”以及执行机构值“1”。幅度值“100%”和持续时间值“200ms”共同表示在关键帧713内存储的基本触觉效果。关键帧714包括内插值“90%”、幅度值“50%”、持续时间值“50ms”以及执行机构值“2”。幅度值“50%”和持续时间值“50ms”共同表示在关键帧714内存储的基本触觉效果。
根据此实施例,在效果分组器720,系统能够根据在关键帧711和713内存储的执行机构值“1”,把关键帧711和713分组在一起并且把该组与执行机构721(即执行机构1)相关联。另外,在效果分组器720,系统能够根据在关键帧712和7134内存储的执行机构值“2”,把关键帧712和714分组在一起并且把该组与执行机构722(即执行机构2)相关联。
另外,根据此实施例,系统能够在效果插值器730接收内插值“70%”,并且对关键帧711的基本触觉效果(即幅度值“20%”和持续时间值“100ms”)与关键帧713的基本触觉效果(即幅度值“100%”和持续时间值“200ms”)进行插值。这个插值的结果是插值后参数750,其中插值后参数750表示动态触觉效果710能够在执行机构721输出的一部分。根据展示的实施例,插值后参数750包括插值后幅度值“80%”和插值后持续时间值“175ms”。根据此实施例,插值后幅度值“80%”根据插值函数从“20%”和“100%”两个幅度值插值得到。另外,插值后持续时间值“175ms”同样根据插值函数从“100ms”和“200ms”两个持续时间值插值得到。
同样根据此实施例,系统能够在效果插值器740独立地接收内插值“70%”,并且对关键帧712的基本触觉效果(即幅度值“80%”和持续时间值“200ms”)与关键帧714的基本触觉效果(即幅度值“50%”和持续时间值“50ms”)独立地插值。这个插值的结果是插值后参数760,其中插值后参数760表示动态触觉效果710能够在执行机构722输出的一部分。根据展示的实施例,插值后参数760包括插值后幅度值“60%”和插值后持续时间值“100ms”。根据此实施例,插值后幅度值“60%”根据插值函数从“80%”和“50%”两个幅度值插值得到。另外,插值后持续时间值“100ms”同样根据插值函数从“200ms”和“50ms”两个持续时间值插值得到。虽然展示的实施例涉及四个关键帧,以及涉及两个执行机构,但是本领域的普通技术人员将不难认识到,在替代实施例中,以上实施可以涉及任何数量的关键帧,并且能够包括任何数量的执行机构。
根据此实施例,虽然关键帧711和713的基本触觉效果的插值以及关键帧712和714的基本触觉效果的插值被独立地执行,但是独立的插值也能够被同步以便在执行机构721和722输出动态触觉效果710。因此,执行机构721和722的每个都能够以同步的方式输出动态触觉效果710的各自部分。在展示的实施例中,向效果插值器730和740提供了相同的内插值。不过,在替代实施例中,能够向效果插值器730和740的每一个提供不同的内插值。
图8展示了根据本发明另一个实施例,在多个执行机构产生动态触觉效果的实例实施的框图。根据此实施例,动态触觉效果能够包括一个或多个关键帧。当系统对在两个或更多关键帧中存储的每个触觉效果进行插值以产生动态触觉效果时,本系统还能够确定执行机构的分配信息,它指明如何在多个执行机构当中分配动态触觉效果。然后本系统能够对在这两个或更多关键帧中存储的每个触觉效果进行插值以产生动态触觉效果,然后能够使用执行机构分配信息在这多个执行机构当中分配所产生的动态触觉效果。
例如,正如图8展示,动态触觉效果810包括关键帧811和812。关键帧811包括内插值“40%”、幅度值“20%”和持续时间值“100ms”。根据此实施例,幅度值“20%”和持续时间值“100ms”共同表示在关键帧811内存储的基本触觉效果。当然,所展示的实施例仅仅是实例实施例,并且在替代实施例中,基本触觉效果可以包括在关键帧内存储的其他参数(比如频率参数和周期参数)。关键帧812包括内插值“80%”、幅度值“100%”和持续时间值“200ms”。根据此实施例,幅度值“100%”和持续时间值“200ms”共同表示在关键帧812内存储的基本触觉效果。动态触觉效果810进一步包括执行机构分配信息813(在图8中标识为“执行机构分配813”)。执行机构分配信息813指明如何在多个执行机构当中分配动态触觉效果810。在展示的实施例中,分配信息813指明动态触觉效果810的25%要分配给第一执行机构(即执行机构1),以及动态触觉效果810的75%要分配给第二执行机构(即执行机构2)。
根据此实施例,系统能够在效果插值器820处接收内插值“70%”,并且对关键帧811的基本触觉效果(即幅度值“20%”和持续时间值“100ms”)与关键帧812的基本触觉效果(即幅度值“100%”和持续时间值“100ms”)进行插值。这个插值的结果是插值后参数830,其中插值后参数830表示动态触觉效果810。根据展示的实施例,插值后参数830包括插值后幅度值“80%”和插值后持续时间值“175ms”。根据此实施例,插值后幅度值“80%”根据插值函数从“20%”和“100%”两个幅度值插值得到。另外,插值后持续时间值“175ms”同样根据插值函数从“100ms”和“200ms”两个持续时间值插值得到。
另外,根据此实施例,在效果分配器840,系统能够根据执行机构分配信息813,把表示动态触觉效果810的插值后参数830分配到多个执行机构当中,其中本系统根据执行机构分配信息813产生了用于这多个执行机构中每个执行机构的目标参数。用于每个执行机构的目标参数表示动态触觉效果810中分配给该执行机构的一部分。在展示的实施例中,在效果分配器840,本系统产生了目标参数850和目标参数860。目标参数850包括幅度值“20%”、持续时间值“175ms”以及执行机构值(在图8中标识为“执行机构索引”)“1”。目标参数860包括幅度值“60%”、持续时间值“175ms”以及执行机构值“2”。根据此实施例,本系统可以使用执行机构分配信息813把动态触觉效果810的25%分配给执行机构“1”,以及把动态触觉效果810的75%分配给执行机构“2”。在一个实施例中,动态触觉效果810的强度参数,比如幅度参数和周期参数在这多个执行机构当中分配。根据此实施例,基于时间的参数,比如频率参数和持续时间参数,对于这多个执行机构保持不变。
因此,在展示的实施例中,插值后参数830的插值后幅度值“80%”被分配到目标参数850的幅度值“20%”中,以及目标参数860的幅度值“60%”中。另外,在展示的实施例中,在目标参数850和目标参数860中都包括插值后参数630的持续时间值“175ms”。虽然展示的实施例涉及两个关键帧,以及涉及两个执行机构,但是本领域的普通技术人员将不难认识到,在替代实施例中,以上实施可以涉及任何数量的关键帧,以及能够包括任何数量的执行机构。
在一个实施例中,执行机构分配信息813能够存储在其中存储着动态触觉效果810的触觉效果文件内。在另一个实施例中,执行机构分配信息813能够存储在动态触觉效果810的一个或多个关键帧内。在又一个实施例中,执行机构分配信息813能够存储在由动态触觉效果810的一个或多个关键帧引用的基本触觉效果内。在又一个实施例中,执行机构分配信息813能够由本系统在运行时确定。
在一个实施例中,即使动态触觉效果810的一个或多个关键帧包括执行机构值,本系统也能够忽视在动态触觉效果810的一个或多个关键帧内存储的一个或多个执行机构值,并且能够根据执行机构分配信息813在多个执行机构当中分配动态触觉效果810。
图9展示了根据本发明实施例,包括方向性质的实例关键帧定义900。根据某实施例,正如先前介绍,动态触觉效果可以定义为包括一个或多个关键帧。同样正如先前介绍,关键帧能够包括基本触觉效果定义、内插值以及可选地重复间隔值。
根据此实施例,关键帧还能够包括方向值。方向值是指定动态触觉效果方向的值。与先前接收的动态触觉效果的内插值相比,动态触觉效果的方向是接收的动态触觉效果的内插值的次序方向。例如,假若接收的动态触觉效果的内插值是值“100”,而先前接收的动态触觉效果的内插值是“50”,动态触觉效果的方向就能够被分类为“向上”,因为接收的内插值大于先前接收的内插值。因此例如,方向值“UP”能够指定动态触觉效果的“向上”方向。作为另一个实例,如果接收的动态触觉效果的内插值是值“100”,而先前接收的动态触觉效果的内插值是“200”,动态触觉效果的方向就能够被分类为“向下”,因为接收的内插值小于先前接收的内插值。因此例如,方向值“DOWN”能够指定动态触觉效果的“向下”方向。在某实施例中,方向值可以是字符串值。在另一个实施例中,方向值可以是定点或浮点数值。方向值能够存储在一位或多位内。
同样根据此实施例,关键帧也能够可选地包括类别值。类别值是指定动态触觉效果类别的值。动态触觉效果的类别是动态触觉效果的分类。在一个实施例中,动态触觉效果的类别能够由连同内插值一起接收的类别值确定。在另一个实施例中,动态触觉效果的类别能够根据接收的内插值确定。在某实施例中,类别值可以是字符串值。在另一个实施例中,类别值可以是定点或浮点数值。类别值能够存储在一位或多位内。
在展示的实施例中,动态触觉效果定义900包括四个关键帧,关键帧910、920、930和940。不过,这仅仅是实例实施例,而在替代实施例中,动态触觉效果定义能够包括任何数量的关键帧。关键帧910包括基本触觉效果引用“周期1”、内插值“0”和重复间隔值“10ms”。基本触觉效果引用“周期1”指基本触觉效果960,它也包括在动态触觉效果定义900之内。因此,关键帧910定义基本触觉效果960作为内插值“0”的基本触觉效果。关键帧910进一步指明了相继地运行基本触觉效果960时,在基本触觉效果960的每个相继事例之间存在着10ms的时段。同样,关键帧920包括基本触觉效果引用“周期2”、内插值“80”和重复间隔值“15ms”。基本触觉效果引用“周期2”指基本触觉效果970,它也包括在动态触觉效果定义900之内。因此,关键帧920定义基本触觉效果970作为内插值“80”的基本触觉效果。关键帧920进一步指明了相继地运行基本触觉效果970时,在基本触觉效果970的每个相继事例之间存在着15ms的时段。
同样,关键帧930包括基本触觉效果引用“周期3”、内插值“90”和重复间隔值“5ms”。基本触觉效果引用“周期3”指基本触觉效果980,它也包括在动态触觉效果定义900之内。因此,关键帧930定义基本触觉效果980作为内插值“90”的基本触觉效果。关键帧930进一步指明了相继地运行基本触觉效果980时,在基本触觉效果980的每个相继事例之间存在着5ms的时段。同样,关键帧940包括基本触觉效果引用“周期3”、内插值“100”和重复间隔值“20ms”。正如先前介绍,基本触觉效果引用“周期3”指基本触觉效果980,它也包括在动态触觉效果定义200之内。因此,关键帧940定义基本触觉效果980作为内插值“100”的基本触觉效果。关键帧940进一步指明了相继运行基本触觉效果980时,在基本触觉效果980的每个相继事例之间存在着20ms的时段。
根据展示的实施例,关键帧910、920、930和940的每一个都还包括方向值。更确切地说,关键帧910和930的每一个都包括方向值“UP”,而关键帧920和940的每一个都包括方向值“DOWN”。因此,关键帧910和930指明它们是当动态触觉效果定义900的方向是“向上”方向时要被使用的关键帧(从而要使用它们各自的基本触觉效果)。另外,关键帧920和940指明它们是当动态触觉效果定义900的方向是“向下”方向时要被使用的关键帧(从而要使用它们各自的基本触觉效果)。在替代实施例中,关键帧910、920、930和940能够可选地每一个也包括类别值(图9未展示)。在这个替代实施例中,关键帧910、920、930和940进一步指明当动态触觉效果定义900的类别是等于各自关键帧的类别值的类别时,要使用每个各自的关键帧(从而每个各自的基本触觉效果)。
根据某实施例,动态触觉效果能够定义为也包括动态触觉效果结束的指示。动态触觉效果结束的指示指明了动态触觉效果不包括任何另外的关键帧。正如先前介绍,解释动态触觉效果定义的设备能够被配置为顺序地解释动态触觉效果定义的内容。因此,该指示能够向设备指明动态触觉效果定义的结束。在一个实施例中,动态触觉效果结束的指示能够被视为附加关键帧。在展示的实施例中,动态触觉效果定义900包括动态触觉效果定义结束950,它指明了动态触觉效果定义900的结束。
在一个实例实施例中,对于沿着设备的用户界面边缘显示发光的用户界面软件模块,能够设计动态触觉效果。动态触觉效果能够包括多个关键帧,其中每个关键帧都包括内插值。根据此实施例,与沿着用户界面边缘发光增强相关联的内插值相比,与发光减弱相关联的内插值可能多得多。通过在每个关键帧内存储方向值,其中每个方向值都包括非“GROW”即“DECAY”的值,每个关键帧(从而此值的每个内插值)就能够与动态触觉效果的特定方向(即动态触觉效果的“增长”方向或动态触觉效果的“衰减”方向)相关联。
图10展示了根据本发明的一个实施例的触觉效果发生模块(比如图1的触觉效果发生模块16)的功能流程图。在一个实施例中,图10的功能以及图11的功能每个都由存储器或者另一种计算机可读的或有形的介质中存储的软件实施。在其他实施例中,每个功能都可以由硬件(如通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)等)或者硬件与软件的任何结合执行。不仅如此,在替代实施例中,每个功能都可以由使用模拟组件的硬件执行。
流程开始并进至1010。在1010,接收第一关键帧,其中第一关键帧包括第一内插值和第一触觉效果。第一内插值可以是指定对于第一触觉效果,插值发生之处的值。第一关键帧能够包括重复间隔值。第一触觉效果能够为振动触觉效果,并且能够包括多个参数。这多个参数能够包括幅度参数、频率参数、周期参数和持续时间参数。此流程然后进至1020。
在1020,接收第二关键帧,其中第二关键帧包括第二内插值和第二触觉效果。第二内插值可以是指定对于第二触觉效果,插值发生之处的值。第二关键帧能够包括重复间隔值。第二触觉效果能够为振动触觉效果,并且能够包括多个参数。这多个参数能够包括幅度参数、频率参数、周期参数和持续时间参数。在展示的实施例中,动态触觉效果能够被定义为包括两个关键帧,其中每个关键帧都包括触觉效果。不过,动态触觉效果能够替代地被定义为包括三个或更多关键帧,其中每个关键帧都包括触觉效果。此流程然后进至1030。
在1030,接收内插值,其中内插值在第一内插值与第二内插值之间。此流程然后进至1040。在1040,按照内插值确定动态触觉效果。根据不同的实施例更详细地进一步介绍动态触觉效果的确定。此流程然后进至1050。在1050,在多个执行机构当中分配动态触觉效果。也根据不同的实施例更详细地进一步介绍动态触觉效果的分配。此流程然后结束。
在一个实施例中,根据以下功能能够执行动态触觉效果的分配。动态触觉效果能够从第一触觉效果与第二触觉效果插值得到。根据此实施例,动态触觉效果的每个参数的值都能够使用插值函数通过第一触觉效果的参数值与第二触觉效果的参数值插值而计算。动态触觉效果的每个参数值的插值都能够根据接收的内插值落在第一触觉效果对应的第一内插值与第二触觉效果对应的第二内插值之间的位置。在展示的实施例中,通过两个基本触觉效果的插值能够产生动态触觉效果。这样的插值能够为线性插值。不过,产生动态触觉效果能够替代地根据上述功能通过三个或更多触觉效果插值。这样的插值能够为样条插值,其中样条插值是一种形式的插值,其中插值函数是特殊类型的分段多项式,称为样条,并且插值函数是能够使用两个或更多关键帧把内插值映射到动态触觉效果的函数。
另外,根据此实施例,分配动态触觉效果能够根据以下功能。第一执行机构值能够被接收。第一执行机构值能够对应于这多个执行机构的第一执行机构,并且第一执行机构值能够存储在第一关键帧之内。第二执行机构值也能够被接收。第二执行机构值能够对应于这多个执行机构的第二执行机构,并且第二执行机构值能够存储在第二关键帧之内。在替代实施例中,一个或多个另外的执行机构值能够被接收。插值后执行机构值能够从第一执行机构值与第二执行机构值插值得到。根据此实施例,能够计算插值后执行机构值的方式为使用插值函数,对第一执行机构值与第二执行机构值插值。不过,产生插值后执行机构值能够替代地根据上述功能通过三个或更多执行机构值插值。动态触觉效果然后能够根据插值后执行机构值在第一执行机构与第二执行机构之间分配。不过,动态触觉效果也能够替代地根据上述功能在三个或更多执行机构当中分配。
在另一个实施例中,第三关键帧和第四关键帧被接收,其中第三关键帧包括第三内插值和第三触觉效果,而第四关键帧包括第四内插值和第四触觉效果。在这个实施例中,分配动态触觉效果能够根据以下功能。第一执行机构值能够被接收。第一执行机构值能够对应于这多个执行机构的第一执行机构,并且第一执行机构值能够存储在第一关键帧和第三关键帧之内。第二执行机构值能够被接收。第二执行机构值能够对应于这多个执行机构的第二执行机构,并且第二执行机构值能够存储在第二关键帧和第四关键帧之内。第一关键帧和第三关键帧能够分组在一起。第二关键帧和第四关键帧能够分组在一起。不过,动态触觉效果也能够替代地根据上述功能在三个或更多执行机构当中分配。
另外,根据此实施例,根据以下功能能够执行动态触觉效果的确定。从第一触觉效果与第三触觉效果的插值能够得到第一执行机构的第一动态触觉效果。从第二触觉效果与第四触觉效果的插值能够得到第二执行机构的第二动态触觉效果。不过,每个动态触觉效果也能够替代地根据上述功能由三个或更多触觉效果插值而产生。
在另一个实施例中,根据以下功能能够执行动态触觉效果的确定。从第一触觉效果与第二触觉效果的插值能够得到动态触觉效果,正如先前介绍。不过,动态触觉效果也能够替代地根据上述功能由三个或更多触觉效果插值而产生。
另外,根据此实施例,根据以下功能能够执行动态触觉效果的确定。执行机构分配信息能够被接收,其中执行机构分配信息指明如何在多个执行机构当中分配动态触觉效果。动态触觉效果然后能够根据执行机构分配信息在多个执行机构当中分配。在一个实施例中,执行机构分配信息能够存储在其中存储着动态触觉效果的触觉效果文件内。在另一个实施例中,执行机构分配信息能够存储在动态触觉效果的一个或多个关键帧内。在又一个实施例中,执行机构分配信息能够存储在由动态触觉效果的一个或多个关键帧引用的触觉效果内。在又一个实施例中,执行机构分配信息能够在运行时确定。
图11展示了根据本发明的另一个实施例的触觉效果发生模块(比如图1的触觉效果发生模块16)的功能流程图。流程开始并进至1110。在1110,接收多个关键帧。每个关键帧都包括关键帧内插值、触觉效果和方向值。此流程然后进至1120。在1120,接收内插值。内插值在至少两个关键帧的内插值之间。此流程然后进至1130。在1130,确定动态触觉效果的方向。此流程然后进至1140。在1140,从多个关键帧中选择一个或多个关键帧。每个选择的关键帧都包括等于该方向的方向值。此流程然后进至1150。在1150,按照内插值和方向确定动态触觉效果。根据此实施例,此确定能够包括从至少两个选择的关键帧的至少两个触觉效果插值得到动态触觉效果。此流程然后结束。
在替代实施例中,每个关键帧都能够也包括类别值。对动态触觉效果能够确定类别。从选择的一个或多个关键帧能够进一步选择一个或多个关键帧。每个进一步选择的关键帧都能够包括等于该类别的类别值。按照内插值、方向和类别能够确定动态触觉效果。根据此替代实施例,此确定能够包括从至少两个进一步选择的关键帧的至少两个触觉效果插值得到动态触觉效果。
因此,根据某实施例,能够提供的系统在多个执行机构产生一个或多个动态触觉效果,其中这一个或多个动态触觉效果能够被分配到这多个执行机构当中。因此,本系统能够激发动态触觉效果的空间特征,方式为在不同的执行机构当中移动此动态触觉效果。这就能够允许本系统增加空间位置作为动态触觉效果的参数,并且能够提供更稳健的触觉体验。另外,根据另一个实施例,能够提供的系统使用一个或多个关键帧产生动态触觉效果,其中每个关键帧都包括方向性质。这就允许动态触觉效果根据方向有差异地变化,从而能够进一步增强触觉体验。
本说明书自始至终介绍的本发明的特点、结构或特征可以在一个或多个实施例中以任何适宜的方式组合。例如,本说明书自始至终对“一个实施例”、“某些实施例”、“一定的实施例”或其他类似语言的使用是指如下事实:连同此实施例介绍的某具体特点、结构或特征可以被包括在本发明的至少一个实施例中。因此,本说明书自始至终短语“一个实施例”、“某些实施例”、“一定的实施例”或其他类似语言的出现不一定全都指同一组的实施例,所介绍的特点、结构或特征可以在一个或多个实施例中以任何适宜的方式组合。
本领域的普通技术人员将不难理解,以上讨论的本发明能够以不同次序的步骤以及/或者以与所公开的配置不同的配置中的要素实行。所以,尽管已经根据这些优选实施例介绍了本发明,但是对本领域的技术人员显而易见,一定的修改、变化和替代构建会是显然的,同时保留在本发明的精神和范围内。所以为了确定本发明的边界和限度,应当对附带的权利要求书进行参考。
Claims (15)
1.一种计算机实施的方法,用于产生动态触觉效果,所述计算机实施的方法包括:
接收第一关键帧,包括第一内插值和第一触觉效果;
接收第二关键帧,包括第二内插值和第二触觉效果;
接收内插值,其中,所述内插值在所述第一内插值与所述第二内插值之间;
按照所述内插值确定所述动态触觉效果;以及
在多个执行机构当中分配所述动态触觉效果。
2.根据权利要求1的计算机实施的方法,其中,从所述内插值确定所述动态触觉效果进一步包括从所述第一触觉效果与所述第二触觉效果插值得到所述动态触觉效果;
其中,分配所述动态触觉效果进一步包括:
接收第一执行机构值,其中所述第一执行机构值对应于所述多个执行机构的第一执行机构,以及所述第一执行机构值被存储在所述第一关键帧之内;
接收第二执行机构值,其中所述第二执行机构值对应于所述多个执行机构的第二执行机构,以及所述第二执行机构值被存储在所述第二关键帧之内;
从所述第一执行机构值与所述第二执行机构值插值得到插值后执行机构值;以及
根据插值后执行机构值在所述第一执行机构与所述第二执行机构之间分配动态触觉效果。
3.根据权利要求2的计算机实施的方法,产生所述动态触觉效果进一步包括:
接收一个或多个另外的关键帧,其中每个另外的关键帧都包括另外的内插值和另外的触觉效果;
接收一个或多个另外的执行机构值,其中每个另外的执行机构值都对应于所述多个执行机构的某个另外的执行机构,以及每个另外的执行机构值都被存储在一个或多个另外的关键帧的某个另外的关键帧之内;
其中,从所述内插值确定所述动态触觉效果进一步包括从所述第一触觉效果、所述第二触觉效果以及所述一个或多个另外的触觉效果插值得到所述动态触觉效果;
其中,分配所述动态触觉效果进一步包括:
从所述第一执行机构值、所述第二执行机构值以及一个或多个另外的执行机构值插值得到插值后执行机构值;
根据插值后执行机构值在所述第一执行机构、所述第二执行机构以及一个或多个另外的执行机构当中分配所述动态触觉效果。
4.根据权利要求1的计算机实施的方法,产生所述动态触觉效果进一步包括:
接收第三关键帧,包括第三内插值和第三触觉效果;
接收第四关键帧,包括第四内插值和第四触觉效果;
其中,分配所述动态触觉效果进一步包括:
接收第一执行机构值,其中所述第一执行机构值对应于所述多个执行机构的第一执行机构,以及所述第一执行机构值被存储在所述第一关键帧和所述第三关键帧之内;
接收第二执行机构值,其中所述第二执行机构值对应于所述多个执行机构的第二执行机构,以及所述第二执行机构值被存储在所述第二关键帧和所述第四关键帧之内;
把包括所述第一执行机构值的所述第一关键帧和所述第三关键帧分组在一起;
把包括所述第二执行机构值的所述第二关键帧和所述第四关键帧分组在一起;
其中,从所述内插值确定所述动态触觉效果进一步包括:
从所述第一触觉效果与所述第三触觉效果插值得到所述第一执行机构的第一动态触觉效果;以及
从所述第二触觉效果与所述第四触觉效果插值得到所述第二执行机构的第二动态触觉效果。
5.根据权利要求4的计算机实施的方法,产生所述动态触觉效果进一步包括:
接收一个或多个另外的关键帧,其中每个另外的关键帧都包括另外的内插值和另外的触觉效果;
把一个或多个另外的关键帧分组在或者第一组关键帧或者第二组关键帧之内;
其中,从所述内插值确定所述动态触觉效果进一步包括:
从所述第一触觉效果、所述第三触觉效果以及所述第一组内的任何另外的触觉效果插值得到所述第一执行机构的所述第一动态触觉效果;以及
从所述第二触觉效果、所述第四触觉效果以及所述第二组内的任何另外的触觉效果插值得到所述第二执行机构的所述第二动态触觉效果。
6.根据权利要求5的计算机实施的方法,其中,分配所述动态触觉效果进一步包括:
接收一个或多个另外的执行机构值,其中所述一个或多个另外的执行机构值对应于所述多个执行机构的一个或多个另外的执行机构,以及每个另外的执行机构值都被存储在一个或多个另外的关键帧的至少一个另外的关键帧之内;
对于每个另外的执行机构值,把包括所述另外的执行机构值的所述一个或多个另外的关键帧的至少一个另外的关键帧分组在一起;
对于每个另外的组,从另外的组内一个或多个另外的触觉效果插值得到所述另外的执行机构的另外的动态触觉效果。
7.根据权利要求1的计算机实施的方法,其中,从所述内插值确定所述动态触觉效果进一步包括从所述第一触觉效果与所述第二触觉效果插值得到动态触觉效果;
其中,分配所述动态触觉效果进一步包括:
接收执行机构分配信息,它指明如何在所述多个执行机构当中分配所述动态触觉效果;以及
根据所述执行机构分配信息在所述多个执行机构当中分配所述动态触觉效果。
8.根据权利要求1的计算机实施的方法,其中,所述动态触觉效果是振动触觉效果以及包括多个参数。
9.根据权利要求8的计算机实施的方法,其中,所述多个参数包括持续时间参数、幅度参数、周期参数以及频率参数。
10.一种用于产生动态触觉效果的系统,所述系统包括:
存储器,被配置为存储触觉效果发生模块;
处理器,被配置为执行所述存储器上存储的所述触觉效果发生模块;以及
多个执行机构,被配置为输出一个或多个动态触觉效果;
其中,所述触觉效果发生模块被配置为接收第一关键帧,其包括第一内插值和第一触觉效果;
所述触觉效果发生模块进一步被配置为接收第二关键帧,其包括第二内插值和第二触觉效果;
所述触觉效果发生模块进一步被配置为接收内插值,其中,所述内插值在所述第一内插值与所述第二内插值之间;
所述触觉效果发生模块进一步被配置为从所述内插值确定所述动态触觉效果;
所述触觉效果发生模块进一步被配置为在多个执行机构当中分配所述动态触觉效果。
11.根据权利要求10的系统,其中,
所述触觉效果发生模块进一步被配置为从所述第一触觉效果与所述第二触觉效果插值得到所述动态触觉效果;
所述触觉效果发生模块进一步被配置为接收第一执行机构值,其中所述第一执行机构值对应于所述多个执行机构的第一执行机构,以及所述第一执行机构值被存储在所述第一关键帧之内;
所述触觉效果发生模块进一步被配置为接收第二执行机构值,其中所述第二执行机构值对应于所述多个执行机构的第二执行机构,以及所述第二执行机构值被存储在所述第二关键帧之内;
所述触觉效果发生模块进一步被配置为从所述第一执行机构值与所述第二执行机构值插值得到插值后执行机构值;以及
所述触觉效果发生模块进一步被配置为根据所述插值后执行机构值在所述第一执行机构与所述第二执行机构之间分配所述动态触觉效果。
12.根据权利要求10的系统,其中,
所述触觉效果发生模块进一步被配置为接收第三关键帧,其包括第三内插值和第三触觉效果;
所述触觉效果发生模块进一步被配置为接收第四关键帧,其包括第四内插值和第四触觉效果;
所述触觉效果发生模块进一步被配置为接收第一执行机构值,其中所述第一执行机构值对应于所述多个执行机构的第一执行机构,以及所述第一执行机构值被存储在所述第一关键帧和所述第三关键帧之内;
所述触觉效果发生模块进一步被配置为接收第二执行机构值,其中所述第二执行机构值对应于所述多个执行机构的第二执行机构,以及所述第二执行机构值被存储在所述第二关键帧和所述第四关键帧之内;
所述触觉效果发生模块进一步被配置为把包括所述第一执行机构值的所述第一关键帧和所述第三关键帧分组在一起;
所述触觉效果发生模块进一步被配置为把包括所述第二执行机构值的所述第二关键帧和所述第四关键帧分组在一起;
所述触觉效果发生模块进一步被配置为从所述第一触觉效果与所述第三触觉效果插值得到所述第一执行机构的第一动态触觉效果;以及
所述触觉效果发生模块进一步被配置为从所述第二触觉效果与所述第四触觉效果插值得到所述第二执行机构的第二动态触觉效果。
13.根据权利要求10的系统,其中,
所述触觉效果发生模块进一步被配置为从所述第一触觉效果与所述第二触觉效果插值得到所述动态触觉效果;
所述触觉效果发生模块进一步被配置为接收执行机构分配信息,它指明如何在所述多个执行机构当中分配所述动态触觉效果;以及
所述触觉效果发生模块进一步被配置为根据所述执行机构分配信息在所述多个执行机构当中分配所述动态触觉效果。
14.根据权利要求10的系统,其中,所述动态触觉效果是振动触觉效果以及包括持续时间参数、幅度参数、周期参数和频率参数。
15.一种计算机可读介质,有若干指令存储其上,所述指令由处理器执行时,使所述处理器实施根据权利要求1-9之一的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810604125.3A CN108803878A (zh) | 2012-12-10 | 2013-12-02 | 增强的动态触觉效果 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/709,157 | 2012-12-10 | ||
US13/709,157 US9898084B2 (en) | 2012-12-10 | 2012-12-10 | Enhanced dynamic haptic effects |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810604125.3A Division CN108803878A (zh) | 2012-12-10 | 2013-12-02 | 增强的动态触觉效果 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103869969A true CN103869969A (zh) | 2014-06-18 |
CN103869969B CN103869969B (zh) | 2018-06-29 |
Family
ID=49552214
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810604125.3A Pending CN108803878A (zh) | 2012-12-10 | 2013-12-02 | 增强的动态触觉效果 |
CN201310632077.6A Expired - Fee Related CN103869969B (zh) | 2012-12-10 | 2013-12-02 | 增强的动态触觉效果 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810604125.3A Pending CN108803878A (zh) | 2012-12-10 | 2013-12-02 | 增强的动态触觉效果 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9898084B2 (zh) |
EP (1) | EP2741174A3 (zh) |
JP (2) | JP6258023B2 (zh) |
KR (1) | KR102207669B1 (zh) |
CN (2) | CN108803878A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107924238A (zh) * | 2015-09-08 | 2018-04-17 | 朴栽成 | 根据频率变化提供实时振动的振动提供系统及其振动提供方法 |
CN107924235A (zh) * | 2015-09-25 | 2018-04-17 | 意美森公司 | 触觉效果设计系统 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8947216B2 (en) | 2012-11-02 | 2015-02-03 | Immersion Corporation | Encoding dynamic haptic effects |
US9898084B2 (en) * | 2012-12-10 | 2018-02-20 | Immersion Corporation | Enhanced dynamic haptic effects |
US9645646B2 (en) * | 2014-09-04 | 2017-05-09 | Intel Corporation | Three dimensional contextual feedback wristband device |
KR102188157B1 (ko) * | 2015-12-11 | 2020-12-07 | 코오롱인더스트리 주식회사 | 촉각자극 제공 장치 및 그 구동 방법 |
JP6383765B2 (ja) * | 2016-08-25 | 2018-08-29 | 株式会社ファセテラピー | 触覚コンテンツ生成装置、触覚コンテンツ生成方法および触覚コンテンツ利用機器 |
DK201670728A1 (en) | 2016-09-06 | 2018-03-19 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button |
US10684689B2 (en) | 2018-04-20 | 2020-06-16 | Immersion Corporation | Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020163498A1 (en) * | 1997-04-25 | 2002-11-07 | Chang Dean C. | Design of force sensations for haptic feedback computer interfaces |
CN101027631A (zh) * | 2004-09-24 | 2007-08-29 | 苹果电脑有限公司 | 原始数据跟踪板设备和系统 |
US20100156818A1 (en) * | 2008-12-23 | 2010-06-24 | Apple Inc. | Multi touch with multi haptics |
US20110115734A1 (en) * | 2009-11-18 | 2011-05-19 | Harashima Seigo | Touch panel device, touch panel device control method, and storage medium |
WO2012063165A1 (en) * | 2010-11-09 | 2012-05-18 | Koninklijke Philips Electronics N.V. | User interface with haptic feedback |
Family Cites Families (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0559708A1 (en) | 1990-11-30 | 1993-09-15 | Cambridge Animation Systems Limited | Image synthesis and processing |
JPH0816820A (ja) | 1994-04-25 | 1996-01-19 | Fujitsu Ltd | 3次元アニメーション作成装置 |
US5774386A (en) | 1995-09-08 | 1998-06-30 | Eastman Kodak Company | Method and apparatus for performing function evaluation using a cache |
JP4131278B2 (ja) | 1996-10-18 | 2008-08-13 | ヤマハ株式会社 | 鍵盤楽器用力覚制御装置 |
US6108011A (en) | 1996-10-28 | 2000-08-22 | Pacific Data Images, Inc. | Shape interpolation for computer-generated geometric models using independent shape parameters for parametric shape interpolation curves |
US6337678B1 (en) * | 1999-07-21 | 2002-01-08 | Tactiva Incorporated | Force feedback computer input and output device with coordinated haptic elements |
US6449019B1 (en) | 2000-04-07 | 2002-09-10 | Avid Technology, Inc. | Real-time key frame effects using tracking information |
JP3949912B2 (ja) | 2000-08-08 | 2007-07-25 | 株式会社エヌ・ティ・ティ・ドコモ | 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法 |
US6864877B2 (en) | 2000-09-28 | 2005-03-08 | Immersion Corporation | Directional tactile feedback for haptic feedback interface devices |
US7623114B2 (en) | 2001-10-09 | 2009-11-24 | Immersion Corporation | Haptic feedback sensations based on audio output from computer devices |
US7199805B1 (en) | 2002-05-28 | 2007-04-03 | Apple Computer, Inc. | Method and apparatus for titling |
JP2004310518A (ja) | 2003-04-08 | 2004-11-04 | Fuji Xerox Co Ltd | 画像情報処理装置 |
KR20050054731A (ko) | 2003-12-05 | 2005-06-10 | 한국전자통신연구원 | 햅틱 시뮬레이션 시스템 및 그 시스템에서의 실시간 촉감지원 방법 |
US9948885B2 (en) | 2003-12-12 | 2018-04-17 | Kurzweil Technologies, Inc. | Virtual encounters |
WO2005085981A1 (en) | 2004-02-03 | 2005-09-15 | Nokia Corporation | Method and device for implementing vibration output commands in mobile terminal devices |
JP2005332063A (ja) * | 2004-05-18 | 2005-12-02 | Sony Corp | 触覚機能付き入力装置、情報入力方法及び電子機器 |
US7765333B2 (en) | 2004-07-15 | 2010-07-27 | Immersion Corporation | System and method for ordering haptic effects |
JP2006058973A (ja) | 2004-08-17 | 2006-03-02 | Sony Corp | 触覚情報作成装置及び触覚情報作成方法 |
US7728823B2 (en) * | 2004-09-24 | 2010-06-01 | Apple Inc. | System and method for processing raw data of track pad device |
JP4617893B2 (ja) | 2005-01-18 | 2011-01-26 | ソニー株式会社 | 振動伝達構造、触覚機能付きの入出力装置及び電子機器 |
US7919945B2 (en) | 2005-06-27 | 2011-04-05 | Coactive Drive Corporation | Synchronized vibration device for haptic feedback |
US8700791B2 (en) | 2005-10-19 | 2014-04-15 | Immersion Corporation | Synchronization of haptic effect data in a media transport stream |
US9370704B2 (en) | 2006-08-21 | 2016-06-21 | Pillar Vision, Inc. | Trajectory detection and feedback system for tennis |
JP2008123429A (ja) | 2006-11-15 | 2008-05-29 | Sony Corp | タッチパネルディスプレイ装置および電子機器並びに遊技機器 |
US8098234B2 (en) | 2007-02-20 | 2012-01-17 | Immersion Corporation | Haptic feedback system with stored effects |
JP2008257295A (ja) | 2007-03-30 | 2008-10-23 | Tokyo Institute Of Technology | 触覚刺激提示方法 |
US8621348B2 (en) | 2007-05-25 | 2013-12-31 | Immersion Corporation | Customizing haptic effects on an end user device |
CN101355746B (zh) | 2007-07-27 | 2012-05-16 | 深圳富泰宏精密工业有限公司 | 无线通信装置 |
US7911328B2 (en) | 2007-11-21 | 2011-03-22 | The Guitammer Company | Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events |
US8035535B2 (en) | 2007-11-21 | 2011-10-11 | Nokia Corporation | Apparatus and method providing transformation for human touch force measurements |
GB2468811B (en) | 2008-01-17 | 2012-12-19 | Articulate Technologies Inc | Methods and devices for intraoral tactile feedback |
JP2009181261A (ja) | 2008-01-30 | 2009-08-13 | Panasonic Corp | 双方向通信システム |
KR100927009B1 (ko) | 2008-02-04 | 2009-11-16 | 광주과학기술원 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
US9513704B2 (en) | 2008-03-12 | 2016-12-06 | Immersion Corporation | Haptically enabled user interface |
US20090303175A1 (en) * | 2008-06-05 | 2009-12-10 | Nokia Corporation | Haptic user interface |
JP2010015514A (ja) | 2008-07-07 | 2010-01-21 | Sony Corp | 入力装置、その制御方法及び電子機器 |
KR20100066036A (ko) | 2008-12-09 | 2010-06-17 | 삼성전자주식회사 | 휴대 단말기 운용 방법 및 장치 |
KR101114603B1 (ko) | 2008-12-12 | 2012-03-05 | 삼성전자주식회사 | 휴대용 단말기의 햅틱 장치 |
US8077021B2 (en) | 2009-03-03 | 2011-12-13 | Empire Technology Development Llc | Dynamic tactile interface |
US10564721B2 (en) * | 2009-03-12 | 2020-02-18 | Immersion Corporation | Systems and methods for using multiple actuators to realize textures |
KR101628782B1 (ko) * | 2009-03-20 | 2016-06-09 | 삼성전자주식회사 | 휴대용 단말기에서 복수의 진동자를 이용한 햅틱 기능 제공방법 및 장치 |
JP2010278727A (ja) | 2009-05-28 | 2010-12-09 | Kddi Corp | 振動機能付き携帯端末 |
US9370459B2 (en) | 2009-06-19 | 2016-06-21 | Andrew Mahoney | System and method for alerting visually impaired users of nearby objects |
JP4633183B1 (ja) | 2009-07-29 | 2011-02-23 | 京セラ株式会社 | 入力装置および入力装置の制御方法 |
JP5197521B2 (ja) | 2009-07-29 | 2013-05-15 | 京セラ株式会社 | 入力装置 |
JP4942801B2 (ja) | 2009-08-27 | 2012-05-30 | 京セラ株式会社 | 入力装置 |
US8451238B2 (en) | 2009-09-02 | 2013-05-28 | Amazon Technologies, Inc. | Touch-screen user interface |
US8619044B2 (en) | 2009-09-30 | 2013-12-31 | Blackberry Limited | Electronic device including tactile touch-sensitive display and method of controlling same |
JP5635274B2 (ja) | 2010-01-27 | 2014-12-03 | 京セラ株式会社 | 触感呈示装置および触感呈示方法 |
JP5360499B2 (ja) | 2010-02-01 | 2013-12-04 | 国立大学法人東北大学 | 力覚提示方法および力覚提示装置 |
CA2731708A1 (en) | 2010-02-15 | 2011-08-15 | Research In Motion Limited | Electronic device including touch-sensitive display and actuator for providing tactile feedback |
US9417695B2 (en) | 2010-04-08 | 2016-08-16 | Blackberry Limited | Tactile feedback method and apparatus |
US9251721B2 (en) | 2010-04-09 | 2016-02-02 | University Of Florida Research Foundation, Inc. | Interactive mixed reality system and uses thereof |
US8736559B2 (en) | 2010-04-23 | 2014-05-27 | Blackberry Limited | Portable electronic device and method of controlling same |
US8451255B2 (en) | 2010-05-14 | 2013-05-28 | Arnett Ryan Weber | Method of providing tactile feedback and electronic device |
DE112010005736B4 (de) | 2010-07-13 | 2020-03-26 | Lg Electronics Inc. | Mobiles Endgerät und Konfigurationsverfahren für einen Ruhebildschirm desselben |
US8352643B2 (en) | 2010-09-30 | 2013-01-08 | Immersion Corporation | Haptically enhanced interactivity with interactive content |
US20120081337A1 (en) | 2010-10-04 | 2012-04-05 | Sony Ericsson Mobile Communications Ab | Active Acoustic Multi-Touch and Swipe Detection for Electronic Devices |
JP5587759B2 (ja) | 2010-12-24 | 2014-09-10 | 京セラ株式会社 | 触感呈示装置、当該装置に用いるプログラムおよび触感呈示方法 |
US8624857B2 (en) | 2011-02-09 | 2014-01-07 | Texas Instruments Incorporated | Haptics effect controller architecture and instruction set |
WO2012121961A1 (en) * | 2011-03-04 | 2012-09-13 | Apple Inc. | Linear vibrator providing localized and generalized haptic feedback |
US9483085B2 (en) | 2011-06-01 | 2016-11-01 | Blackberry Limited | Portable electronic device including touch-sensitive display and method of controlling same |
KR20130007738A (ko) | 2011-07-11 | 2013-01-21 | 삼성전자주식회사 | 키 입력장치 |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9462262B1 (en) | 2011-08-29 | 2016-10-04 | Amazon Technologies, Inc. | Augmented reality environment with environmental condition control |
US8711118B2 (en) | 2012-02-15 | 2014-04-29 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
US10852093B2 (en) | 2012-05-22 | 2020-12-01 | Haptech, Inc. | Methods and apparatuses for haptic systems |
JP5831635B2 (ja) | 2012-06-11 | 2015-12-09 | 富士通株式会社 | 駆動装置、電子機器、及び駆動制御プログラム |
US8860563B2 (en) * | 2012-06-14 | 2014-10-14 | Immersion Corporation | Haptic effect conversion system using granular synthesis |
US9030428B2 (en) | 2012-07-11 | 2015-05-12 | Immersion Corporation | Generating haptic effects for dynamic events |
US8947216B2 (en) * | 2012-11-02 | 2015-02-03 | Immersion Corporation | Encoding dynamic haptic effects |
US9898084B2 (en) | 2012-12-10 | 2018-02-20 | Immersion Corporation | Enhanced dynamic haptic effects |
FR2999741B1 (fr) | 2012-12-17 | 2015-02-06 | Centre Nat Rech Scient | Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel |
US9367136B2 (en) | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
US9908048B2 (en) | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
US9811854B2 (en) | 2013-07-02 | 2017-11-07 | John A. Lucido | 3-D immersion technology in a virtual store |
EP4083758A1 (en) | 2013-07-05 | 2022-11-02 | Rubin, Jacob A. | Whole-body human-computer interface |
US9630105B2 (en) | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
WO2015107386A1 (en) | 2014-01-15 | 2015-07-23 | Sony Corporation | Haptic notification on wearables |
US9551873B2 (en) | 2014-05-30 | 2017-01-24 | Sony Interactive Entertainment America Llc | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content |
CN106796451B (zh) | 2014-07-28 | 2020-07-21 | Ck高新材料有限公司 | 触觉信息提供模块 |
US9645646B2 (en) | 2014-09-04 | 2017-05-09 | Intel Corporation | Three dimensional contextual feedback wristband device |
US9799177B2 (en) | 2014-09-23 | 2017-10-24 | Intel Corporation | Apparatus and methods for haptic covert communication |
US20160170508A1 (en) | 2014-12-11 | 2016-06-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Tactile display devices |
US10166466B2 (en) | 2014-12-11 | 2019-01-01 | Elwha Llc | Feedback for enhanced situational awareness |
US9870718B2 (en) | 2014-12-11 | 2018-01-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Imaging devices including spacing members and imaging devices including tactile feedback devices |
US9922518B2 (en) | 2014-12-11 | 2018-03-20 | Elwha Llc | Notification of incoming projectiles |
US10073516B2 (en) | 2014-12-29 | 2018-09-11 | Sony Interactive Entertainment Inc. | Methods and systems for user interaction within virtual reality scene using head mounted display |
US9746921B2 (en) | 2014-12-31 | 2017-08-29 | Sony Interactive Entertainment Inc. | Signal generation and detector systems and methods for determining positions of fingers of a user |
US9843744B2 (en) | 2015-01-13 | 2017-12-12 | Disney Enterprises, Inc. | Audience interaction projection system |
US10322203B2 (en) | 2015-06-26 | 2019-06-18 | Intel Corporation | Air flow generation for scent output |
US9778746B2 (en) | 2015-09-25 | 2017-10-03 | Oculus Vr, Llc | Transversal actuator for haptic feedback |
US20170103574A1 (en) | 2015-10-13 | 2017-04-13 | Google Inc. | System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience |
US20170131775A1 (en) | 2015-11-10 | 2017-05-11 | Castar, Inc. | System and method of haptic feedback by referral of sensation |
US10055948B2 (en) | 2015-11-30 | 2018-08-21 | Nike, Inc. | Apparel with ultrasonic position sensing and haptic feedback for activities |
US10310804B2 (en) | 2015-12-11 | 2019-06-04 | Facebook Technologies, Llc | Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback |
US10324530B2 (en) | 2015-12-14 | 2019-06-18 | Facebook Technologies, Llc | Haptic devices that simulate rigidity of virtual objects |
US10096163B2 (en) | 2015-12-22 | 2018-10-09 | Intel Corporation | Haptic augmented reality to reduce noxious stimuli |
US10065124B2 (en) | 2016-01-15 | 2018-09-04 | Disney Enterprises, Inc. | Interacting with a remote participant through control of the voice of a toy device |
US11351472B2 (en) | 2016-01-19 | 2022-06-07 | Disney Enterprises, Inc. | Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon |
US9846971B2 (en) | 2016-01-19 | 2017-12-19 | Disney Enterprises, Inc. | Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon |
TWI688879B (zh) | 2016-01-22 | 2020-03-21 | 宏達國際電子股份有限公司 | 虛擬實境環境中與真實世界互動的方法、系統與記錄媒體 |
US9933851B2 (en) | 2016-02-22 | 2018-04-03 | Disney Enterprises, Inc. | Systems and methods for interacting with virtual objects using sensory feedback |
US10555153B2 (en) | 2016-03-01 | 2020-02-04 | Disney Enterprises, Inc. | Systems and methods for making non-smart objects smart for internet of things |
US20170352185A1 (en) | 2016-06-02 | 2017-12-07 | Dennis Rommel BONILLA ACEVEDO | System and method for facilitating a vehicle-related virtual reality and/or augmented reality presentation |
US10155159B2 (en) | 2016-08-18 | 2018-12-18 | Activision Publishing, Inc. | Tactile feedback systems and methods for augmented reality and virtual reality systems |
US20180053351A1 (en) | 2016-08-19 | 2018-02-22 | Intel Corporation | Augmented reality experience enhancement method and apparatus |
US10372213B2 (en) | 2016-09-20 | 2019-08-06 | Facebook Technologies, Llc | Composite ribbon in a virtual reality device |
US10779583B2 (en) | 2016-09-20 | 2020-09-22 | Facebook Technologies, Llc | Actuated tendon pairs in a virtual reality device |
US10300372B2 (en) | 2016-09-30 | 2019-05-28 | Disney Enterprises, Inc. | Virtual blaster |
US10281982B2 (en) | 2016-10-17 | 2019-05-07 | Facebook Technologies, Llc | Inflatable actuators in virtual reality |
US10088902B2 (en) | 2016-11-01 | 2018-10-02 | Oculus Vr, Llc | Fiducial rings in virtual reality |
US20170102771A1 (en) | 2016-12-12 | 2017-04-13 | Leibs Technology Limited | Wearable ultrasonic haptic feedback system |
-
2012
- 2012-12-10 US US13/709,157 patent/US9898084B2/en active Active
-
2013
- 2013-11-07 EP EP13191929.2A patent/EP2741174A3/en not_active Ceased
- 2013-12-02 JP JP2013249262A patent/JP6258023B2/ja active Active
- 2013-12-02 CN CN201810604125.3A patent/CN108803878A/zh active Pending
- 2013-12-02 CN CN201310632077.6A patent/CN103869969B/zh not_active Expired - Fee Related
- 2013-12-04 KR KR1020130150104A patent/KR102207669B1/ko active IP Right Grant
-
2017
- 2017-10-24 US US15/791,862 patent/US10359851B2/en active Active
- 2017-12-06 JP JP2017234056A patent/JP6479148B2/ja active Active
-
2019
- 2019-05-22 US US16/419,603 patent/US20190272039A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020163498A1 (en) * | 1997-04-25 | 2002-11-07 | Chang Dean C. | Design of force sensations for haptic feedback computer interfaces |
CN101027631A (zh) * | 2004-09-24 | 2007-08-29 | 苹果电脑有限公司 | 原始数据跟踪板设备和系统 |
US20100156818A1 (en) * | 2008-12-23 | 2010-06-24 | Apple Inc. | Multi touch with multi haptics |
US20110115734A1 (en) * | 2009-11-18 | 2011-05-19 | Harashima Seigo | Touch panel device, touch panel device control method, and storage medium |
WO2012063165A1 (en) * | 2010-11-09 | 2012-05-18 | Koninklijke Philips Electronics N.V. | User interface with haptic feedback |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107924238A (zh) * | 2015-09-08 | 2018-04-17 | 朴栽成 | 根据频率变化提供实时振动的振动提供系统及其振动提供方法 |
CN107924238B (zh) * | 2015-09-08 | 2021-02-09 | 朴栽成 | 根据频率变化提供实时振动的振动提供系统及其振动提供方法 |
CN107924235A (zh) * | 2015-09-25 | 2018-04-17 | 意美森公司 | 触觉效果设计系统 |
Also Published As
Publication number | Publication date |
---|---|
EP2741174A2 (en) | 2014-06-11 |
EP2741174A3 (en) | 2016-05-18 |
US20180046252A1 (en) | 2018-02-15 |
CN108803878A (zh) | 2018-11-13 |
JP6479148B2 (ja) | 2019-03-06 |
JP6258023B2 (ja) | 2018-01-10 |
US9898084B2 (en) | 2018-02-20 |
CN103869969B (zh) | 2018-06-29 |
US10359851B2 (en) | 2019-07-23 |
JP2014115999A (ja) | 2014-06-26 |
JP2018037112A (ja) | 2018-03-08 |
KR102207669B1 (ko) | 2021-01-25 |
US20140160034A1 (en) | 2014-06-12 |
KR20140074833A (ko) | 2014-06-18 |
US20190272039A1 (en) | 2019-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10248212B2 (en) | Encoding dynamic haptic effects | |
CN103869969A (zh) | 增强的动态触觉效果 | |
CN103544002B (zh) | 对于动态事件产生触觉效果 | |
EP2680107B1 (en) | Haptic feedback control system | |
EP2701037B1 (en) | Context-dependent haptic confirmation system | |
CN102736288A (zh) | 一种压电式触摸显示屏 | |
CN202102397U (zh) | 一种压电式触摸显示屏 | |
JP2019192238A (ja) | 拡張現実環境又は仮想現実環境のためのクロスプラットフォーム動的触覚効果設計ツール |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C53 | Correction of patent of invention or patent application | ||
CB02 | Change of applicant information |
Address after: California, USA Applicant after: Immersion Corp. Address before: California, USA Applicant before: Immersion Corp. |
|
COR | Change of bibliographic data |
Free format text: CORRECT: APPLICANT; FROM: IMMERSION CORP. TO: YIMEISEN COMPANY |
|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180629 |