CN103809960A - 编码动态触觉效应 - Google Patents
编码动态触觉效应 Download PDFInfo
- Publication number
- CN103809960A CN103809960A CN201310471458.0A CN201310471458A CN103809960A CN 103809960 A CN103809960 A CN 103809960A CN 201310471458 A CN201310471458 A CN 201310471458A CN 103809960 A CN103809960 A CN 103809960A
- Authority
- CN
- China
- Prior art keywords
- haptic effect
- key frame
- haptic
- dynamic
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Complex Calculations (AREA)
Abstract
本公开涉及编码动态触觉效应。提供了编码一种或多种动态触觉效应的系统。该系统把动态触觉效应定义为包括多个关键帧,其中每个关键帧都包括一个插入值和对应的触觉效应。插入值是规定插入在哪里发生的值。该系统生成触觉效应文件,并且把动态触觉效应存储在该触觉效应文件中。
Description
技术领域
一种实施例一般针对触觉效应,而且更具体地,针对编码动态触觉效应。
背景技术
电子设备制造商努力为用户产生丰富的接口。传统设备使用视觉与听觉线索来向用户提供反馈。在有些接口设备中,动觉反馈(例如主动和被动的力反馈)和/或触感反馈(例如振动、纹理和热量)也向用户提供,更一般地称为“触觉反馈”或“触觉效应”。触觉反馈可以提供增强并简化用户接口的线索。具体而言,振动效应,或振动触感触觉效应,在向电子设备的用户提供提醒用户特殊事件的线索时可能是有用的,或者提供逼真的反馈,在模拟或虚拟环境中产生更大的感官沉浸。
触觉反馈越来越多地结合到称为“手持式设备”或“便携式设备”的便携式电子设备中,例如蜂窝电话、个人数字助理(“PDA”)、智能电话和便携式游戏设备。例如,有些便携式游戏应用能够以类似于供更大规模游戏系统使用的、配置成提供触觉反馈的控制设备(例如,操纵杆等)的方式振动。此外,例如蜂窝电话和智能电话的设备能够通过振动向用户提供各种提醒。例如,蜂窝电话可以通过振动提醒用户进入的电话呼叫。类似地,智能电话可以提醒用户计划好的日历项或者为用户提供“要做的工作”列表项或日历约会的提醒。另外,触觉效应可以用于模拟“现实世界”动态事件,例如视频游戏中弹球的感觉。
发明内容
一种实施例是编码触觉信号的系统。该系统接收一个或多个关键帧。每个关键帧都具有一个插入值和一个触觉效应。该系统进一步利用所述一个或多个关键帧生成触觉效应信号。该系统进一步在触觉效应文件中存储触觉效应信号。
另一种实施例是编码动态触觉效应的系统。该系统把动态触觉效应定义为包括一个或多个关键帧。每个关键帧都包括一个插入值和对应的触觉效应,其中该插入值是规定,对于对应的触觉效应,在哪里发生插入的值。该系统进一步生成触觉效应文件。该系统进一步在触觉效应文件中存储动态触觉效应。
附图说明
根据以下对优选实施例的具体描述,进一步的实施例、细节、优点和修改将变得显然,其中优选实施例要结合附图来理解。
图1说明了根据本发明一种实施例的系统的框图。
图2根据本发明一种实施例说明了示例动态触觉效应定义。
图3根据本发明一种实施例说明了示例关键帧定义。
图4根据本发明一种实施例说明了示例基础触觉效应存储块。
图5根据本发明一种实施例说明了示例帧列表块。
图6根据本发明一种实施例说明了触觉编码模块功能性的流程图。
图7根据本发明另一种实施例说明了触觉编码模块功能性的流程图。
具体实施方式
如下所述,“动态触觉效应”指当其对一个或多个输入参数响应时随时间演化的触觉效应。动态触觉效应是在触觉设备上显示的触觉或振动触感效应,代表给定输入信号的状态变化。输入信号可以是由设备上的传感器利用具有触觉反馈捕捉到的信号,例如位置、加速度、压力、定向或接近性,或者由其它设备捕捉并发送到触觉设备以便影响触觉效应生成的信号。
动态效应信号可以是任何类型的信号,但不一定要复杂。例如,动态效应信号可以是简单的正弦波,具有随时间变化或者根据映射策略实时反应的某个属性,例如相位、频率或幅值,其中的映射策略把输入参数映射到效应信号变化的属性上。输入参数可以是能够由设备提供的任何类型的输入,而且一般来说可以是例如设备传感器信号的任何类型的信号。设备传感器信号可以通过任何方式生成,而且一般可以通过利用设备捕捉用户手势生成。动态效应对于手势接口可能是非常有用的,但是手势或传感器的使用对于产生动态信号不是必需的。
不直接涉及手势的一种常见场景是定义动画小部件的动态触觉行为。例如,当用户滚动一个列表时,一般不是手势的触觉生成(haptification)将感觉更直观,而是小部件响应该手势的运动感觉更直观。在滚动列表例子中,轻柔地滑动列表将生成根据滚动速度改变的动态触觉反馈,但是猛推滚动条甚至在该手势结束之后还可能产生动态触觉。这产生了小部件具有某种物理属性的错觉并且为用户提供了关于小部件状态的信息,例如其速度或者它是否在运动。
手势是传达含义或用户意图的任何身体运动。将认识到,简单的手势可以结合,形成更复杂的手势。例如,让一根手指与触摸敏感表面接触可以被称为“手指放上”手势,而从触摸敏感表面移开手指可以被称为“手指拿开”手势。如果“手指放上”和“手指拿开”手势之间的时间相对短,则该组合手势可以被称为“轻击”;如果“手指放上”和“手指拿开”手势之间的时间相对长,则该组合手势可以被称为“长轻击”;如果“手指放上”和“手指拿开”手势的两维(x,y)位置之间的距离相对大,则该组合手势可以被称为“轻扫”;如果“手指放上”和“手指拿开”手势的两维(x,y)位置之间的距离相对小,则该组合手势可以被称为“拖尾”、“涂污”或“轻弹”。任意数量的两维或三维简单或复杂手势可以按任何方式组合,形成任意数量的其它手势,包括,但不限于,多指接触、手掌或拳头接触,或者与设备的接近性。手势还可以是通过具有加速计、陀螺仪或其它运动传感器的设备识别出并且转换成电信号的任何形式的手的运动。这种电信号可以激活动态效应,例如摇晃虚拟骰子,其中传感器捕捉生成动态效应的用户意图。
一种实施例是可以在盘、存储器或任何计算机可读存储介质上编码一个或多个动态触觉效应的系统。一种类型的动态触觉效应是可以通过基于作为第一插入值与第二插入值之间的一个值的动态值插入第一触觉效应和第二触觉效应来生成的触觉效应。等于第一插入值或第二插入值的动态值被认为“在第一插入值与第二插入值之间”。更具体地,用于动态触觉效应的每个参数的值是通过利用插值函数用第二触觉效应的参数的值插入第一触觉效应的参数的值来计算的。动态触觉效应的每个参数值的插入可以基于该动态值落在第一插入值与第二插入值之间什么位置。动态触觉效应进一步在于2012年7月11日提交且标题为“GENERATING HAPTIC EFFECTS FOR DYNAMICEVENTS”的美国专利申请序列号13/546,351中描述(其内容在此引入作为参考)。动态触觉效应可以利用触觉效应信号来编码,其中触觉效应信号是动态触觉效应的表示。触觉效应信号可以在盘、存储器或任何计算机可读存储介质上持久化。
根据该实施例,该系统可以把每个动态触觉效应定义为一个或多个关键帧,其中每个关键帧都可以包括一个触觉效应和对应的值。因而,该系统可以产生一个或多个动态触觉效应定义。该系统可以在触觉效应文件中存储一个或多个动态触觉效应定义。该系统可以进一步从触觉效应文件检索一个或多个动态触觉效应定义。该系统可以进一步接收动态值并且,基于所接收到的动态值,解释一个或多个动态触觉效应定义,以便生成一个或多个动态触觉效应。
根据另一种实施例,系统可以接收一个或多个关键帧,其中每个关键帧都可以包括一个触觉效应和一个值。该系统可以利用该一个或多个关键帧生成触觉效应信号。该系统可以进一步在触觉效应文件中存储触觉效应信号。该系统可以进一步从触觉效应文件检索触觉效应信号。该系统可以进一步根据触觉效应信号对触觉输出设备施加驱动信号。该系统可以进一步利用触觉输出设备生成驱动信号。在这种实施例中,一个或多个关键帧可以包括由触觉效应信号产生的动态触觉效应的一个或多个输入参数。
图1说明了根据本发明一种实施例的系统10的框图。在一种实施例中,系统10是设备的一部分,而且系统10为该设备提供触觉编码功能性。尽管示为单个系统,但系统10的功能性可以实现为分布式系统。系统10包括用于传送信息的总线12或者其它通信介质,及耦合到总线12用于处理信息的处理器22。处理器22可以是任何类型的通用或专用处理器。系统10进一步包括用于存储信息和要由处理器22执行的指令的存储器14。存储器14可以由随机存取存储器(“RAM”)、只读存储器(“ROM”)、例如磁或光盘的静态储存器或任何其它类型的计算机可读介质的任意组合构成。
计算机可读介质可以是可以被处理器22访问的任何可用介质,而且可以既包括易失性又包括非易失性介质、既包括可移动的又包括不可移动的介质、通信介质及存储介质。通信介质可以包括在例如载波或其它传输机制的调制数据信号中的计算机可读指令、数据结构、程序模块或者其它数据,而且可以包括本领域中已知的任何其它形式的信息输送介质。存储介质可以包括RAM、闪存存储器、ROM、可擦可编程只读存储器(“EPROM”)、电可擦除可编程只读存储器(“EEPROM”)、寄存器、硬盘、移动盘、光盘只读存储器(“CD-ROM”)或者本领域中已知的任何其它形式的存储介质。
在一种实施例中,存储器14存储当被处理器22执行时提供功能性的软件模块。在一种实施例中,这些模块包括为系统10及移动设备的剩余部分提供操作系统功能性的操作系统15。这些模块进一步包括编码动态触觉效应的触觉编码模块16,如以下更具体地公开的。在某些实施例中,触觉编码模块16可以包括多个模块,其中每个单独的模块都提供用于编码动态触觉效应的具体个别功能性。系统10一般将包括一个或多个附加的应用模块18,来包括附加地功能性,例如来自Immersion公司的IntegratorTM应用。
在从远端源发送和/或接收数据的实施例中,系统10进一步包括通信设备20,例如网络接口卡,以便提供移动无线网络通信,例如红外线、无线电、Wi-Fi或蜂窝网络通信。在其它实施例中,通信设备20提供有线网络连接,例如以太网连接或调制解调器。
处理器22进一步经总线12耦合到显示器24,例如液晶显示器(“LCD”),用于向用户显示图形表示或用户接口。显示器24可以是配置成从处理器22发送和接收信号的触摸敏感输入设备,例如触摸屏,而且可以是多触摸触摸屏。处理器22可以进一步耦合到允许用户与系统10交互的键盘或光标控制28,例如鼠标或触控笔。
在一种实施例中,系统10进一步包括致动器26。处理器22可以向致动器26发送与所生成的触觉效应关联的触觉信号,然后致动器26又输出例如振动触感触觉效应的触觉效应。致动器26包括致动器驱动电路。致动器26可以是例如电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量电机(“ERM”)、线性共振致动器(“LRA”)、压电致动器、高带宽致动器、电活性聚合物(“EAP”)致动器、静电摩擦显示器或者超声波振动发生器。在备选实施例中,除了致动器26,系统10还可以包括一个或多个附加的致动器(在图1中未说明)。在其它实施例中,与系统10分离的设备包括生成触觉效应的致动器,而且系统10通过通信设备20把所生成的触觉效应信号发送到那个设备。致动器26是触觉输出设备的一个例子,其中触觉输出设备是配置成响应驱动信号而输出触觉效应(例如振动触感触觉效应)的设备。
系统10可以进一步操作性耦合到数据库30,其中数据库30可以配置成存储由模块16和18所使用的数据。数据库30可以是操作数据库、分析数据库、数据仓库、分布式数据库、终端用户数据库、外部数据库、导航数据库、存储器内的数据库、面向文档的数据库、实时数据库、关系数据库、面向对象的数据库或者本领域中已知的任何其它数据库。
图2根据本发明一种实施例说明了示例动态触觉效应定义200。根据一种实施例,动态触觉效应可以定义成包括一个或多个关键帧。关键帧是可以用于定义动态触觉效应的基本触觉效应的表示。而且,根据一种实施例,触觉效应信号可以利用一个或多个关键帧生成,其中触觉效应信号是可以存储一个或多个关键帧的信号。通过利用一个或多个关键帧生成触觉效应信号,该一个或多个关键帧被生成并且随后存储在该触觉效应信号中。触觉效应信号可以存储在触觉效应文件中并且从中检索。
关键帧可以包括基本触觉效应定义。基本触觉效应是可以包括定义触觉效应特性(更具体地,是由触觉效应产生的动觉反馈和/或触感反馈的特性)的一个或多个参数的触觉效应,其中触觉效应可以是例如振动触觉效应。这一个或多个参数的例子可以包括量值参数、频率参数和持续时间参数。基本触觉效应的例子可以包括“MagSweep触觉效应”和“周期性触觉效应”。MagSweep触觉效应是产生动觉反馈和/或触感反馈的触觉效应(例如一次振动)。周期性触觉效应是产生重复的动觉反馈和/或触感反馈的触觉效应(例如振动模式)。重复模式的例子包括某种形状的重复脉冲,例如正弦、矩形、三角形、锯齿向上和锯齿向下。
一个关键帧可以包括一个插入值。插入值是规定当前插值在哪里发生的值。在一种实施例中,插入值可以是从最小值到最大值的整数值。作为一个例子,插入值可以从0到10000。但是,这仅仅是一个例子,而且插入值可以是从任何最小值到任何最大值的任意值。例如,在其它实施例中,插入值可以是定点或浮点数值。插入值可以存储在一个或多个位中。
关键帧可选地还包括重复间隙值。重复间隙值是指示,当一个基本触觉效应连续播放时,该基本触觉效应的两个连续实例之间的时间周期的值。在一种实施例中,重复间隙可以指示基本触觉效应的两个连续实例之间的数毫秒。
在所说明的实施例中,动态触觉效应定义200包括四个关键帧,关键帧210、220、230和240。但是,这仅仅是一个示例实施例,而且在备选实施例中,动态触觉效应定义可以包括任意数量的关键帧。关键帧210包括基本触觉效应参考“周期(Periodic)1”,插入值“0”和重复间隙值“10ms”。基本触觉效应参考“周期1”指也包括在动态触觉效应定义200中的基本触觉效应260。因而,关键帧210把基本触觉效应260定义为插入值为“0”的基本触觉效应。关键帧210进一步指示,当基本触觉效应260重复播放时,在基本触觉效应260的每个连续实例之间有10ms的时间周期。类似地,关键帧220包括基本触觉效应参考“周期3”,插入值“10”和重复间隙值“15ms”。基本触觉效应参考“周期3”指也包括在动态触觉效应定义200中的基本触觉效应270。因而,关键帧220把基本触觉效应270定义为插入值为“10”的基本触觉效应。关键帧220进一步指示,当基本触觉效应270重复播放时,在基本触觉效应270的每个连续实例之间有15ms的时间周期。
同样,关键帧230包括基本触觉效应参考“周期1”,插入值“20”和重复间隙值“5ms”。如前所述,基本触觉效应参考“周期1”指也包括在动态触觉效应定义200中的基本触觉效应260。因而,关键帧230把基本触觉效应260定义为插入值为“20”的基本触觉效应。这说明一个基本触觉效应可以定义为多于一个插入值的基本触觉效应。关键帧230进一步指示,当基本触觉效应260重复播放时,在基本触觉效应260的每个连续实例之间有5ms的时间周期。类似地,关键帧240包括基本触觉效应参考“周期2”,插入值“30”和重复间隙值“20ms”。基本触觉效应参考“周期2”指也包括在动态触觉效应定义200中的基本触觉效应280。因而,关键帧240把基本触觉效应280定义为插入值为“30”的基本触觉效应。关键帧240进一步指示,当基本触觉效应280重复播放时,在基本触觉效应280的每个连续实例之间有20ms的时间周期。
根据一种实施例,动态触觉效应可以定义为还包括该动态触觉效应结束的指示。动态触觉效应结束的指示指出该动态触觉效应不包括任何附加的关键帧。如以下更具体地描述的,解释动态触觉效应定义的设备可以配置成顺序地解释动态触觉效应定义的内容。因而,该指示可以向设备指出动态触觉效应定义的结束。在一种实施例中,动态触觉效应结束的指示可以被认为是一个附加的关键帧。在所说明的实施例中,动态触觉效应定义200包括动态触觉效应定义的结束250,其指示动态触觉效应定义200的结束。
图3根据本发明一种实施例说明了示例关键帧定义300。如前所述,动态触觉效应定义包括一个或多个关键帧。根据该实施例,一个关键帧定义可以包括一个或多个属性。该一个或多个属性中的每个属性都可以包括一个值。
关键帧定义可以包括类型属性。在一种实施例中,类型属性是关键帧定义的第一属性。类型属性可以指示该关键帧是包含用于动态触觉效应定义的基本触觉效应的关键帧,还是指示动态触觉效应定义结束的关键帧。在所说明的实施例中,关键帧定义300包括类型属性310,它指示由关键帧定义300定义的关键帧的类型。
关键帧定义还可以包括基本触觉效应属性。基本触觉效应属性可以存储对用于该关键帧的基本触觉效应的参考。在所说明的实施例中,关键帧定义300包括基本触觉效应属性320(在图3中定义为“效应名称”),其包括对用于由关键帧定义300定义的关键帧的基本触觉效应的参考。
关键帧定义还可以包括插值属性。插值属性可以存储插入值,该插入值规定当前的插入在哪里发生。在一种实施例中,插入值可以是从最小值到最大值的整数值。作为一个例子,插入值可以从0到10000。插入值可以存储在一个或多个位中。在所说明的实施例中,关键帧定义300包括插值属性330,这包括用于由关键帧定义300定义的关键帧的插入值。
关键帧定义还可以可选地包括重复间隙属性(在图3中未说明)。该重复间隙属性可以存储重复间隙值,该值指示,当一个基本触觉效应连续播放时,该基本触觉效应的两个连续实例之间的时间周期。在一种实施例中,重复间隙可以指示用于该关键帧的基本触觉效应的两个连续实例之间的数毫秒。
在一种实施例中,触觉效应文件是配置成存储一个或多个动态触觉效应的计算机文件,其中触觉效应文件可以在盘、存储器或任何计算机可读存储介质上持久化。根据该实施例,触觉效应文件可以利用基本触觉效应存储块和帧列表块存储一个或多个动态触觉效应定义。基本触觉效应存储块可以用于存储动态触觉效应可以参考的一个或多个基本触觉效应。帧列表块可以用于存储对应于动态触觉效应定义的一个或多个关键帧定义。现在更具体地描述基本触觉效应存储块与帧列表块。
图4根据本发明一种实施例说明了示例基本触觉效应存储块400。如前所述,动态触觉效应定义可以包括一个或多个基本触觉效应,其中至少一个所存储的基本触觉效应被动态触觉定义的至少一个关键帧参考。在一种实施例中,这一个或多个基本触觉效应可以存储在基本触觉效应存储块中,例如基本触觉效应存储块400中,其中该基本触觉效应存储块存储在动态触觉效应定义中。
根据该实施例,一个或多个基本触觉效应可以作为消息流存储在基本触觉效应存储块400中。一种示例发消息格式是“codename z2”协议发消息格式。在所说明的实施例中,基本触觉效应是由设置(Set)周期消息定义的,可选地加前缀Set周期修改器(Modifier)消息。因而,当基本触觉效应具有关联的包络线(envelope)时,在该块中Set周期Modifier消息可以出现在Set周期消息前面。否则,在该块中只有Set周期消息会出现。因而,根据该实施例,当存储在基本触觉效应存储块(例如图4的基本触觉效应存储块400)中时,基本触觉效应或者可以占据(a)单个Set周期消息中8个字节的存储器(假定缺省包络线);或者(b)后面跟着后续Set周期消息的第一Set周期Modifier消息中16个字节的存储器。
根据该实施例,基本触觉效应存储块(例如图4的基本触觉效应存储块400)可以包括一个或多个基本触觉效应定义,其中每个基本触觉效应定义对应于一个基本触觉效应。这一个或多个基本触觉效应定义在基本触觉效应存储块中可以是顺序的,而且可以每个都与一个索引关联。
在所说明的实施例中,基本触觉效应存储块400包括五个基本触觉效应:Effect0、Effect1、Effect2、Effect3和Effect4。Effect0是位于基本触觉效应存储块400中的第一个基本触觉效应,Effect1是位于基本触觉效应存储块400中的第二个基本触觉效应,Effect2是位于基本触觉效应存储块400中的第三个基本触觉效应,Effect3是位于基本触觉效应存储块400中的第四个基本触觉效应,而Effect4是位于基本触觉效应存储块400中的第五个基本触觉效应。这五个基本触觉效应(即,Effect0、Effect1、Effect2、Effect3和Effect4)中的每一个都包括或者包括单个Set周期消息或者包括Set周期Modifier消息与Set周期消息的组合的基本触觉定义。
图5根据本发明的一种实施例说明了示例帧列表块500。如前所述,动态触觉效应定义可以包括一个或多个关键帧,其中每个关键帧可以参考一个基本触觉效应。在一种实施例中,这一个或多个关键帧可以存储在帧列表块中,例如帧列表块500中,其中帧列表块存储在动态触觉效应定义中。
根据该实施例,帧列表块,例如帧列表块500,包括用于第一关键帧定义的类型属性。依赖于该类型属性,帧列表块进一步包括与所述第一关键帧定义关联的一个或多个属性,例如基本触觉效应属性、插值属性、重复间隙属性或其中的组合。帧列表块进一步包括用于第二关键帧定义的类型属性,它指示第一关键帧定义的结束。依赖于类型属性,帧列表块进一步包括与第二关键帧定义关联的一个或多个属性,例如基本触觉效应属性、插值属性、重复间隙属性或其中的组合。这对帧列表块的每个关键帧定义继续。帧列表块进一步包括指示动态触觉效应结束的类型属性。根据该实施例,帧列表块的关键帧定义是按顺序次序。换句话说,帧列表块的事件是按它们在帧列表块定位的次序进行处理的。
根据该实施例,帧列表块的一个或多个属性可以利用单个头部字节,后面跟着可选地数据字节来编码,帧列表块的一个或多个属性的示例编码策略如下:
关键帧类型属性
字节# | 位7-0 | 含义 |
0 | 0xC1 | 类型=关键帧。没有数据与这个属性关联。 |
动态触觉效应类型的结束属性
EffectNameAsOffSetU8属性
InterpolantU16属性
字节# | 位7-0 | 含义 |
0 | 0xE6 | 插值作为16位的无符号整数存储 |
1 | TIME15_8 | 时间偏移量值(TimeOffset)的MSByte |
2 | TIME7_0 | 时间偏移量值(TimeOffset)的LSByte |
RepeatGapU16属性
根据该实施例,关键帧类型属性和动态触觉效应类型结束属性对应于关键帧定义的类型属性,EffectNameAsOffSetU8属性对应于关键帧定义的基本触觉效应属性,InterpolantU16属性对应于关键帧定义的插值属性,而RepeatGapU16属性对应于关键帧的重复间隙属性。
在所说明的实施例中,帧列表块500包括关键帧定义510、520和530。关键帧定义510和520每个都是用于基本触觉效应关键帧的定义。关键帧定义530是存储在帧列表块中的动态触觉效应结束的指示。帧列表块500的左列指示在用于关键帧定义510、520和530中每一个的存储器中找到的字节流。帧列表块的右列指示用于关键帧定义510、520和530中每一个的每个属性的含义。
根据所说明的实施例,关键帧定义510包括指示关键帧定义510起始的关键帧属性(如图5中所说明的“关键帧事件”)。关键帧定义510进一步包括存储对用于关键帧定义510的基本触觉效应的参考的基本触觉效应属性(如图5中所说明的“EffectNameAsOffSetU8”),其中基本触觉效应属性包括头部字节和偏移量字节。关键帧定义510进一步包括存储规定当前插入在哪里发生的插入值的插值属性(如图5中所说明的“InterpolantU16”),其中插值属性包括头部字节、最重要的位(“MSB”)和最不重要的位(“LSB”)。关键帧定义510进一步包括存储重复间隙值的重复间隙属性(如图5中所说明的“RepeatGapU16”),该重复间隙值指示用于关键帧的基本触觉效应的两个连续实例之间的时间周期,其中重复间隙属性包括头部字节、MSB和LSB。
另外,关键帧定义520也包括指示关键帧定义520起始的关键帧类型属性(如图5中所说明的“关键帧事件”)。关键帧定义520进一步包括存储对用于关键帧定义520的基本触觉效应的参考的基本触觉效应属性(如图5中所说明的“EffectNameAsOffSetU16”),其中基本触觉效应属性包括头部字节、基本触觉效应定义MSB和基本触觉效应定义LSB。关键帧定义520进一步包括存储规定当前插入在哪里发生的插入值的插值属性(如图5中所说明的“InterpolantU16”),其中插值属性包括头部字节、MSB和LSB。如图5中所说明的,与关键帧定义510形成对比,关键帧520不包括重复间隙属性。最后,关键帧定义530包括指示动态触觉效应定义结束的动态触觉效应类型结束属性(如图5中所说明的“EndofDynamicHapticEffect”)。
根据一种实施例,动态触觉效应定义(例如,图2的动态触觉效应定义200)可以存储在触觉效应文件中。如前所述,触觉效应文件是配置成存储一个或多个动态触觉效应的计算机文件。动态触觉效应定义可以存储在触觉效应文件中,而且触觉效应文件可以在计算机可读介质,例如盘或存储器,中持久化。随后,动态触觉效应定义可以从触觉效应文件检索并被解释。基于对动态触觉效应定义的解释,动态触觉效应可以通过基于一个动态值插入第一触觉效应和第二触觉效应来生成,其中该动态值是位于第一插入值与第二插入值之间的一个值。更具体地,用于动态触觉效应的每个参数的值可以通过利用插值函数用第二触觉效应的参数值插入第一触觉效应的参数值来计算。动态触觉效应的每个参数值的插入可以基于该动态值落在第一插入值与第二插入值之间什么地方。例如,当第一插入值是“0”而第二插入值是“100”时,动态值“50”会使得与第一插入值“0”关联的第一触觉效应被与第二插入值“100”关联的第二触觉效应插入,产生动态触觉效应。第一触觉效应的每个参数值都可以基于插值函数利用第二个值的参数值插入,使得动态触觉效应的参数值既基于第一触觉效应的参数值又基于第二触觉效应的参数值。关于生成动态触觉效应的附加细节进一步在于2012年7月11日提交并且标题为“GENERATING HAPTICEFFECTS FOR DYNAMIC EVENTS”的美国专利申请序列号13/546,351中描述。
而且,根据一种实施例,动态触觉效应定义(例如,图2的动态触觉效应定义200)可以用于生成触觉效应信号,其中触觉效应信号可以存储在触觉效应文件中。该触觉效应信号随后可以从触觉效应文件检索。另外,驱动信号可以根据触觉效应信号施加到触觉输出设备。驱动信号可以进一步利用触觉输出设备生成。
触觉效应文件可以具有许多不同格式中的一种。在某些实施例中,触觉效应文件可以具有可扩展标记语言(“XML”)格式。在某些其它实施例中,触觉效应文件可以具有二进制格式。
具有XML格式的触觉效应文件的一个例子是沉浸振动源(“IVS”)触觉效应文件。包括动态触觉效应定义的一个示例IVS触觉效应文件在下面提供:
在以上提供的示例IVS触觉效应文件中,第一个标签<interpolated-effect name>识别存储在IVS触觉效应文件中的动态触觉效应的名称。该示例IVS触觉效应文件中接下来的三个标签代表该动态触觉效应的关键帧。每个关键帧都可以包括两个参数,关键帧插值参数与效应参数。关键帧插值参数代表用于该关键帧的插入值。效应参数代表用于该关键帧的基本触觉效应的名称。另外,每个关键帧标签都可以可选地包括第三个参数,重复间隙参数。重复间隙参数代表用于关键帧的重复间隙。如果关键帧标签不包括重复间隙参数,则关键帧不包括重复间隙,这意味着用于该关键帧的基本触觉效应不重复。在该示例IVS触觉效应文件中,第一个关键帧标签包括值为“0”的关键帧插值参数,值为“基本效应-0-名称”的效应参数及值为“0”的重复间隙参数。第二个关键帧标签包括值为“0.5”的关键帧插值参数,值为“基本效应-1-名称”的效应参数及值为“15”的重复间隙参数。第三个关键帧标签包括值为“1”的关键帧插值参数和值为“基本效应-2-名称”的效应参数而且不包括重复间隙参数。后续的标签“</interpolated-effect>”识别存储在IVS触觉效应文件中的动态触觉效应的结束。
根据一种实施例,设备可以读IVS触觉效应文件,例如以上提供的示例IVS触觉效应文件,解释存储在该IVS触觉效应文件中的动态触觉效应定义,并且使用存储在IVS触觉效应文件中的值来生成动态触觉效应。例如,设备可以在运行时提供插入值,而且设备可以解释存储在IVS触觉效应文件中的动态触觉效应定义,并且确定插入值位于哪些关键帧之间。然后,设备可以在这两个关键帧的基本触觉效应之间插入,生成动态触觉效应。
具有二进制格式的触觉效应文件的另一个例子是沉浸振动目标(“IVT”)触觉效应文件。包括动态触觉效应定义的示例IVT触觉效应文件在下面提供。
0xC1,//用于关键帧0的关键帧事件
0xE0,//EffectIndexU8事件属性
0,//使用基本效应0
0xE6,//InterpolantU8事件属性
0,//关键帧0的插入值
0xE2,//TimeOffsetMs16事件属性。注意:这是可选的
50,//关键帧0的重复间隙,LSB
0,//关键帧0的重复间隙,MSB
0xC1,//关键帧1的关键帧事件
0xE0,//EffectIndexU8事件属性
1,//使用基本效应1
0xE6,//InterpolantU8事件属性
100,//关键帧1的插入值。
0xE2,//TimeOffsetMs16事件属性。注意:这是可选的
150,//关键帧1的重复间隙,LSB
0,//关键帧1的重复间隙,MSB
0xCF//LERP效应的结束事件
以上提供的示例IVT触觉效应文件包括两个关键帧定义,其中每个关键帧定义都是由十六进制数“0xC1”识别的。根据一种实施例,例如“0xCy”的十六进制值可以识别存储在IVT触觉效应文件中的关键帧的起始,其中y是任何非零的十六进制数字。另外,根据该实施例,如果十六进制值“0xCy”是IVT触觉效应文件中的第一个这种十六进制值,则该十六进制值也可以指示存储在IVT触觉效应文件中的动态触觉效应的起始,其中该动态触觉效应包括一个或多个关键帧。在以上提供的示例IVT触觉效应文件中,“0xC1”的第一个实例指示所存储的动态触觉效应的起始,而且还指示所存储的动态触觉效应中第一个关键帧“关键帧1”的起始。而且,在该示例IVT触觉效应文件中,“0xC1”的第二个实例指示所存储的动态触觉效应中第二个关键帧“关键帧2”的起始。
对于每个关键帧,示例IVT触觉效应文件进一步包括定义关键帧的数据。例如,根据一种实施例,该示例IVT触觉效应文件进一步包括识别用于该关键帧的基本触觉效应属性的十六进制值,例如“0xE0”或“0xE1”,及用于该基本触觉效应属性的值。在该示例IVT触觉效应文件中,对于第一个关键帧,“0xE0”的实例识别用于第一个关键帧的基本触觉效应属性,而值“0”识别用于第一个关键帧的基本触觉效应属性的第一个基本触觉效应。同样,对于第二个关键帧,“0xE0”的实例识别用于第二个关键帧的基本触觉效应属性,而值“1”识别用于第二个关键帧的基本触觉效应属性的第二个基本触觉效应。
作为定义关键帧的数据的一部分,根据该实施例,示例IVT触觉效应文件进一步包括识别用于关键帧的插值属性的十六进制值,例如“0xE6”,及用于该插值属性的值。在该示例IVT触觉效应文件中,对于第一个关键帧,“0xE6”的实例识别用于第一个关键帧的插值属性,而值“0”识别用于第一个关键帧的插值属性的插入值。同样,对于第二个关键帧,“0xE6”的实例识别用于第二个关键帧的插值属性,而值“100”识别用于第二个关键帧的插值属性的插入值。
作为定义关键帧的数据的一部分,根据该实施例,示例IVT触觉效应文件进一步包括识别用于关键帧的重复间隙属性的十六进制值,例如“0xE2”,及用于该重复间隙属性的一个或多个值。在该示例IVT触觉效应文件中,对于第一个关键帧,“0xE2”的实例识别用于第一个关键帧的重复间隙属性,值“50”识别用于第一个关键帧的重复间隙属性的“LSB”重复间隙值,而值“0”识别用于第一个关键帧的重复间隙属性的“MSB”重复间隙值。同样,对于第二个关键帧,“0xE2”的实例识别用于第二个关键帧的重复间隙属性,值“150”识别用于第二个关键帧的重复间隙属性的LSB重复间隙值,而值“0”识别用于第二个关键帧的重复间隙属性的MSB重复间隙值。
该示例IVT触觉效应文件进一步包括识别存储在IVT触觉效应文件中的动态触觉效应结束的十六进制值,例如“0xCF”。在该示例IVT触觉效应文件中,“0xCF”的实例识别所存储的动态触觉效应的结束。
根据一种实施例,设备可以读IVT触觉效应文件,例如以上提供的示例IVT触觉效应文件,解释存储在该IVT触觉效应文件中的动态触觉效应定义,并且使用该IVT触觉效应文件中所存储的值生成动态触觉效应。例如,设备可以在运行时提供插入值,而且设备可以解释存储在该IVT触觉效应文件中的动态触觉效应定义,并且确定插入值位于哪些关键帧之间。然后,设备可以在这两个关键帧的基本触觉效应之间插入,生成动态触觉效应。
在一种实施例中,除了动态触觉效应的定义,IVT触觉效应文件还可以包括其它触觉效应的定义,例如基本触觉效应。例如,IVT触觉效应文件可以包括MagSweep触觉效应定义、周期性触觉效应定义或者其它类型的基本触觉效应定义,例如“波形触觉效应”定义。“波形触觉效应”是基于导致更精确控制的反馈的具体信号产生反馈的触觉效应。根据该实施例,当与基本触觉效应的起始比较时,一个十六进制值可以识别动态触觉效应的起始。因而,当设备读IVT触觉效应文件时,设备可以区分动态触觉效应定义与基本触觉效应定义。
在示例实施例中,十六进制值,例如“0xF1”、“0xF2”或“0xFF”可以识别“时间线触觉效应”的起始。“时间线触觉效应”可以包括随时间计划好的一个或多个基本触觉效应。另外,十六进制值,例如“0x20”、“0x30”、“0x40”和“0x50”可以识别基本触觉效应的起始,例如像MagSweep触觉效应、周期性触觉效应或者波形触觉效应。而且,另外,如前所述,例如“0xCy”的十六进制值可以识别动态触觉效应的起始,其中y是非零的十六进制数字。因而,当一个设备读取IVT触觉效应文件时,该设备可以读存储在该IVT触觉效应文件中的十六进制值,并且确定所定义的触觉效应是动态触觉效应还是某种其它触觉效应。用于确定所定义的触觉效应是动态触觉效应还是某种其它触觉效应的示例伪代码在下面提供。
但是,这个示例伪代码仅仅是可以实现上述功能性的代码的例子,而且实现该功能性的代码可以是其它格式,并且仍然在本发明的范围之内。另外,尽管已经描述了触觉效应的两种示例格式(即,IVS触觉效应文件和IVT触觉效应文件),但是触觉效应还可以是不同的格式,而且仍然在本发明的范围之内。
图6根据本发明的一种实施例说明了触觉编码模块(例如,图1的触觉编码模块16)的功能性的流程图。在一种实施例中,图6的功能性,及图7的功能性。每个都是由存储在存储器或别的计算机可读或有形介质中并且由处理器执行的软件实现的。在其它实施例中,每个功能性都可以由硬件(例如,通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)等)或者硬件与软件的任意组合执行。此外,在备选实施例中,每个功能性都可以由硬件利用模拟部件执行。
流程开始并前进到610。在610,动态触觉效应被定义为包括第一关键帧和第二关键帧。第一关键帧包括第一插入值和对应的第一触觉效应。第二关键帧包括第二插入值和对应的第二触觉效应。第一插入值可以是规定对于对应的第一触觉效应在哪里发生插入的值,而第二插入值可以是规定对于对应的第二触觉效应在哪里发生插入的值。第一关键帧和第二关键帧每个都可以包括重复的间隙值。第一触觉效应和第二触觉效应每个都可以是振动触觉效应,而且每个都可以包括多个参数。这多个参数可以包括量值参数、频率参数和持续时间参数。动态触觉效应可以进一步定义成包括动态触觉效应结束的指示。动态触觉效应可以进一步定义成包括触觉效应存储块,其中第一触觉效应和第二触觉效应可以存储在该触觉效应存储块中。动态触觉效应可以包括附加的关键帧。在所说明的实施例中,动态触觉效应可以定义为包括两个关键帧,其中每个关键帧都包括触觉效应。但是,这仅仅是一个示例实施例,而且在备选实施例中,动态触觉效应可以定义为包括三个或多个关键帧,其中每个关键帧包括一个触觉效应。流程前进到620。
在620,生成触觉效应。触觉效应文件的格式可以是二进制格式。作为替代,触觉效应文件的格式可以是XML格式。流程前进到630。
在630,动态触觉效应存储在触觉效应文件中。动态触觉效应可以连同一个或多个其它触觉效应一起存储在触觉效应文件中。其它触觉效应中的至少一个可以是另一个动态触觉效应。流程前进到640。
在640,从触觉效应文件检索动态触觉效应。设备可以读触觉效应文件并检索动态触觉效应。在触觉效应文件包括一个或多个其它触觉效应的时候,设备可以基于包括在动态触觉效应中的值识别动态触觉效应。流程前进到650。
在650,解释动态触觉效应。设备可以通过顺序地读取包括在动态触觉效应中的第一关键帧和第二关键帧来解释该动态触觉效应。在动态触觉效应包括附加关键帧的时候,设备可以通过顺序读取附加的关键帧进一步解释该动态触觉效应。设备可以通过接收动态值并且基于所接收到的动态值选择存储在动态触觉效应中的两个基本触觉效应进一步解释动态触觉效应。设备可以进一步基于所接收到的动态值落在动态触觉效应中所存储的两个插入值中的事实来选择存储在该动态触觉效应中的两个基本触觉效应,其中两个插入值对应于两个基本触觉效应。流程前进到660。
在660,生成动态触觉效应。动态触觉效应可以基于两个选定的基本触觉效应生成。更具体地,动态触觉效应可以通过基于所接收到的动态值插入两个选定的基本触觉效应来生成。在某些实施例中,用于动态触觉效应的每个参数的值可以通过利用插值函数用第二个被选基本触觉效应的参数值插入第一个被选基本触觉效应的参数值来计算。动态触觉效应的每个参数值的插入可以基于所接收到的动态值落在对应于第一个被选基本触觉效应的第一插入值与对应于第二被选基本触觉效应的第二插入值之间的什么位置。在所说明的实施例中,动态触觉效应可以通过插入两个基本触觉效应来生成。这种插入可以是线性插入。但是,这仅仅是个示例实施例,而且在备选实施例中,动态触觉效应可以通过插入三个或更多个基本触觉效应来生成。这种插入可以是样条插入,其中样条插入是一种插入形式,其中插入函数是称为样条的特殊类型的分段多项式,而且其中插入函数是可以利用两个或更多个关键帧把插入值映射到动态触觉效应的函数。动态触觉效应可以进一步由致动器生成。然后,流程结束。
图7根据本发明另一种实施例说明了触觉编码模块的功能性的流程图。流程开始并且前进到710。在710,接收第一关键帧,其中该第一关键帧具有第一插入值和第一触觉效应。第一插入值可以是规定对于第一触觉效应在哪里发生插入的值。该第一个关键帧可以包括重复间隙值。第一触觉效应可以是振动触觉效应,而且可以包括多个参数。该多个参数可以包括量值参数、频率参数和持续时间参数。流程前进到720。
在720,接收第二关键帧,其中该第二关键帧具有第二插入值和第二触觉效应。第二插入值可以是规定对于第二触觉效应在哪里发生插入的值。这第二个关键帧可以包括重复间隙值。第二触觉效应可以是振动触觉效应,而且可以包括多个参数。这多个参数可以包括量值参数、频率参数和持续时间参数。流程前进到730。
在730,利用第一关键帧和第二关键帧生成触觉效应信号。该触觉效应信号可以进一步包括触觉效应信号结束的指示。触觉效应信号可以进一步包括触觉效应存储块,其中第一触觉效应和第二触觉效应可以存储在该触觉效应存储块中。触觉效应信号可以进一步包括附加的关键帧。在所说明的实施例中,触觉效应信号可以利用两个关键帧生成,其中每个关键帧包括一个触觉效应。但是,这只是个示例实施例,而且在备选实施例中,触觉效应可以利用三个或更多个关键帧生成,其中每个关键帧包括一个触觉效应。流程前进到740。
在740,触觉效应信号存储在触觉效应文件中。触觉效应文件的格式可以是二进制格式。作为替代,触觉效应文件的格式可以是XML格式。触觉效应信号可以连同一个或多个其它触觉效应信号一起存储在触觉效应文件中。至少一个其它触觉效应信号可以包括两个或更多个关键帧。流程前进到750。
在750,从触觉效应文件检索触觉效应信号。设备可以读触觉效应文件并且检索触觉效应信号。在触觉效应文件包括一个或多个其它触觉效应信号的时候,设备可以基于包括在触觉效应信号中的值识别触觉效应信号。流程前进到760。
在760,驱动信号根据触觉效应信号施加到触觉输出设备。这会使触觉输出设备产生与触觉效应信号一致的动态触觉效应。流程前进到770。
在770,利用触觉输出设备生成驱动信号。然后,流程结束。
因而,在一种实施例中,可以提供可以在盘、存储器或任何计算机可读存储介质上存储一个或多个动态触觉效应的系统。该系统可以进一步检索一个或多个动态触觉效应并且输出一个或多个动态触觉效应。动态触觉效应可以基于多个触觉效应。因而,本系统可以存储关于少量触觉效应的信息,但是本系统可以基于这少量的触觉效应输出数百或数千动态触觉效应。这可以节省存储空间,并且允许存储和检索动态触觉效应的更有效机制。另外,存储一个或多个动态触觉效应的触觉效应文件的格式可以是灵活的,使得触觉效应设计人员不限于少量的文件格式。这允许效应设计人员更加灵活地创建动态触觉效应。
贯穿本说明书描述的本发明的特征、结构或特性可以在一种或多种实施例中按照任何合适的方式组合。例如,贯穿本说明书,“一种实施例”、“一些实施例”、“某个实施例”、“某些实施例”及其它相似语言的使用都指联系该实施例所述的特定特征、结构或特性可以包括在本发明的至少一种实施例中的事实。因而,贯穿本说明书,短语“一种实施例”、“一些实施例”、“某个实施例”、“某些实施例”或者其它相似语言的出现不一定全都指相同的一组实施例,而且所描述的特征、结构或特性可以在一种或多种实施例中按照任何合适的方式组合。
本领域普通技术人员将很容易理解,如上讨论的本发明可以利用不同次序的步骤和/或利用在与所公开那些不同的配置中的元件来实践。因此,尽管本发明已经基于这些优选实施例进行了描述,但是对本领域技术人员来说,很显然,某些修改、变化和备选构造将是显然的,同时仍然在本发明的主旨与范围内。为了确定本发明的界限与范围,应当参考所附权利要求。
Claims (15)
1.一种编码触觉效应信号的方法,包括:
接收具有第一插入值和第一触觉效应的第一关键帧;
接收具有第二插入值和第二触觉效应的第二关键帧;
利用第一关键帧和第二关键帧生成触觉效应信号;及
把触觉效应信号存储在触觉效应文件中。
2.如权利要求1所述的方法,进一步包括:
从触觉效应文件检索触觉效应信号;及
根据该触觉效应信号把驱动信号施加到触觉输出设备。
3.如权利要求2所述的方法,进一步包括利用触觉输出设备生成驱动信号。
4.如权利要求3所述的方法,其中第一触觉效应和第二触觉效应各自都是振动触觉效应而且各自都包括多个参数。
5.如权利要求4所述的方法,其中所述多个参数包括量值参数、频率参数和持续时间参数。
6.如权利要求1所述的方法,其中第一关键帧和第二关键帧各自都包括重复间隙值。
7.如权利要求1所述的方法,其中触觉效应信号进一步包括该触觉效应信号结束的指示。
8.如权利要求1所述的方法,其中触觉效应信号进一步包括触觉效应存储块,及
其中,第一触觉效应和第二触觉效应存储在该触觉效应存储块中。
9.如权利要求1所述的方法,其中触觉效应文件的格式是二进制格式或者可扩展标记语言格式中的至少一种。
10.一种用于编码触觉效应信号的系统,该系统包括:
存储器,配置成存储触觉编码模块;及
处理器,配置成执行存储在该存储器上的触觉编码模块;
其中触觉编码模块配置成接收具有第一插入值和第一触觉效应的第一关键帧;
其中触觉编码模块进一步配置成接收具有第二插入值和第二触觉效应的第二关键帧;
其中触觉编码模块进一步配置成利用第一关键帧和第二关键帧生成触觉效应信号;及
其中触觉编码模块进一步配置成把触觉效应信号存储在触觉效应文件中。
11.如权利要求10所述的系统,进一步包括:
触觉输出设备,配置成输出一个或多个动态触觉效应;
其中触觉编码模块配置成从触觉效应文件检索触觉效应信号;及
其中触觉编码模块配置成根据该触觉效应信号把驱动信号施加到触觉输出设备。
12.如权利要求10所述的系统,其中第一关键帧和第二关键帧各自都包括重复间隙值。
13.如权利要求10所述的系统,其中触觉效应信号进一步包括该触觉效应信号结束的指示。
14.如权利要求10所述的系统,其中触觉效应信号进一步包括基本触觉效应存储块,及
其中,第一触觉效应和第二触觉效应存储在该基本触觉效应存储块中。
15.一种具有存储在其上的指令的计算机可读介质,当所述指令被处理器执行时,使得该处理器实施如权利要求1-9中之一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810371898.1A CN108803869A (zh) | 2012-11-02 | 2013-10-11 | 编码动态触觉效应 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/667,003 US8947216B2 (en) | 2012-11-02 | 2012-11-02 | Encoding dynamic haptic effects |
US13/667,003 | 2012-11-02 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810371898.1A Division CN108803869A (zh) | 2012-11-02 | 2013-10-11 | 编码动态触觉效应 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103809960A true CN103809960A (zh) | 2014-05-21 |
CN103809960B CN103809960B (zh) | 2018-05-25 |
Family
ID=49162024
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310471458.0A Active CN103809960B (zh) | 2012-11-02 | 2013-10-11 | 编码动态触觉效应 |
CN201810371898.1A Pending CN108803869A (zh) | 2012-11-02 | 2013-10-11 | 编码动态触觉效应 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810371898.1A Pending CN108803869A (zh) | 2012-11-02 | 2013-10-11 | 编码动态触觉效应 |
Country Status (5)
Country | Link |
---|---|
US (4) | US8947216B2 (zh) |
EP (2) | EP3495924B1 (zh) |
JP (2) | JP6359820B2 (zh) |
KR (1) | KR102161541B1 (zh) |
CN (2) | CN103809960B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107566847A (zh) * | 2017-09-18 | 2018-01-09 | 浙江大学 | 一种将触感数据编码为视频流进行保存和传输的方法 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7765333B2 (en) | 2004-07-15 | 2010-07-27 | Immersion Corporation | System and method for ordering haptic effects |
US9898084B2 (en) * | 2012-12-10 | 2018-02-20 | Immersion Corporation | Enhanced dynamic haptic effects |
JP6351964B2 (ja) * | 2013-12-11 | 2018-07-04 | 株式会社東海理化電機製作所 | 入力装置 |
EP3099030A1 (en) * | 2015-05-26 | 2016-11-30 | Thomson Licensing | Method and device for encoding/decoding a packet comprising data representative of a haptic effect |
US10140822B2 (en) * | 2015-08-05 | 2018-11-27 | Dolby Laboratories Licensing Corporation | Low bit rate parametric encoding and transport of haptic-tactile signals |
JP2018531442A (ja) * | 2015-09-22 | 2018-10-25 | イマージョン コーポレーションImmersion Corporation | 圧力ベースのハプティクス |
US9947187B2 (en) | 2016-01-07 | 2018-04-17 | International Business Machines Corporation | Haptic notification system with rules for notification that can be altered to increase effectiveness |
US10732714B2 (en) | 2017-05-08 | 2020-08-04 | Cirrus Logic, Inc. | Integrated haptic system |
US11259121B2 (en) | 2017-07-21 | 2022-02-22 | Cirrus Logic, Inc. | Surface speaker |
US10620704B2 (en) | 2018-01-19 | 2020-04-14 | Cirrus Logic, Inc. | Haptic output systems |
US10455339B2 (en) | 2018-01-19 | 2019-10-22 | Cirrus Logic, Inc. | Always-on detection systems |
US11139767B2 (en) | 2018-03-22 | 2021-10-05 | Cirrus Logic, Inc. | Methods and apparatus for driving a transducer |
US10795443B2 (en) | 2018-03-23 | 2020-10-06 | Cirrus Logic, Inc. | Methods and apparatus for driving a transducer |
US10667051B2 (en) | 2018-03-26 | 2020-05-26 | Cirrus Logic, Inc. | Methods and apparatus for limiting the excursion of a transducer |
US10820100B2 (en) | 2018-03-26 | 2020-10-27 | Cirrus Logic, Inc. | Methods and apparatus for limiting the excursion of a transducer |
US10832537B2 (en) | 2018-04-04 | 2020-11-10 | Cirrus Logic, Inc. | Methods and apparatus for outputting a haptic signal to a haptic transducer |
US10684689B2 (en) | 2018-04-20 | 2020-06-16 | Immersion Corporation | Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments |
US10572017B2 (en) | 2018-04-20 | 2020-02-25 | Immersion Corporation | Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments |
US11069206B2 (en) | 2018-05-04 | 2021-07-20 | Cirrus Logic, Inc. | Methods and apparatus for outputting a haptic signal to a haptic transducer |
US11269415B2 (en) | 2018-08-14 | 2022-03-08 | Cirrus Logic, Inc. | Haptic output systems |
EP3629128A1 (en) * | 2018-09-25 | 2020-04-01 | Vestel Elektronik Sanayi ve Ticaret A.S. | User device and method for generating haptic feedback in a user device |
GB201817495D0 (en) | 2018-10-26 | 2018-12-12 | Cirrus Logic Int Semiconductor Ltd | A force sensing system and method |
CN109947244B (zh) * | 2019-03-12 | 2022-11-04 | 上海天马微电子有限公司 | 一种显示装置及触觉反馈方法、装置和设备 |
US10955955B2 (en) | 2019-03-29 | 2021-03-23 | Cirrus Logic, Inc. | Controller for use in a device comprising force sensors |
US11283337B2 (en) | 2019-03-29 | 2022-03-22 | Cirrus Logic, Inc. | Methods and systems for improving transducer dynamics |
US11644370B2 (en) | 2019-03-29 | 2023-05-09 | Cirrus Logic, Inc. | Force sensing with an electromagnetic load |
US10828672B2 (en) | 2019-03-29 | 2020-11-10 | Cirrus Logic, Inc. | Driver circuitry |
US12035445B2 (en) | 2019-03-29 | 2024-07-09 | Cirrus Logic Inc. | Resonant tracking of an electromagnetic load |
US10726683B1 (en) | 2019-03-29 | 2020-07-28 | Cirrus Logic, Inc. | Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus |
US11509292B2 (en) | 2019-03-29 | 2022-11-22 | Cirrus Logic, Inc. | Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter |
US10992297B2 (en) | 2019-03-29 | 2021-04-27 | Cirrus Logic, Inc. | Device comprising force sensors |
US10976825B2 (en) | 2019-06-07 | 2021-04-13 | Cirrus Logic, Inc. | Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system |
US11150733B2 (en) | 2019-06-07 | 2021-10-19 | Cirrus Logic, Inc. | Methods and apparatuses for providing a haptic output signal to a haptic actuator |
WO2020254788A1 (en) | 2019-06-21 | 2020-12-24 | Cirrus Logic International Semiconductor Limited | A method and apparatus for configuring a plurality of virtual buttons on a device |
US11408787B2 (en) | 2019-10-15 | 2022-08-09 | Cirrus Logic, Inc. | Control methods for a force sensor system |
US10984638B1 (en) * | 2019-10-17 | 2021-04-20 | Immersion Corporation | Systems, devices, and methods for encoding haptic tracks |
US11380175B2 (en) | 2019-10-24 | 2022-07-05 | Cirrus Logic, Inc. | Reproducibility of haptic waveform |
US11545951B2 (en) | 2019-12-06 | 2023-01-03 | Cirrus Logic, Inc. | Methods and systems for detecting and managing amplifier instability |
US11662821B2 (en) | 2020-04-16 | 2023-05-30 | Cirrus Logic, Inc. | In-situ monitoring, calibration, and testing of a haptic actuator |
US11933822B2 (en) | 2021-06-16 | 2024-03-19 | Cirrus Logic Inc. | Methods and systems for in-system estimation of actuator parameters |
US11765499B2 (en) | 2021-06-22 | 2023-09-19 | Cirrus Logic Inc. | Methods and systems for managing mixed mode electromechanical actuator drive |
US11908310B2 (en) | 2021-06-22 | 2024-02-20 | Cirrus Logic Inc. | Methods and systems for detecting and managing unexpected spectral content in an amplifier system |
US11552649B1 (en) | 2021-12-03 | 2023-01-10 | Cirrus Logic, Inc. | Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5619628A (en) * | 1994-04-25 | 1997-04-08 | Fujitsu Limited | 3-Dimensional animation generating apparatus |
US5774386A (en) * | 1995-09-08 | 1998-06-30 | Eastman Kodak Company | Method and apparatus for performing function evaluation using a cache |
JP2002149312A (ja) * | 2000-08-08 | 2002-05-24 | Ntt Docomo Inc | 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法 |
US20020163498A1 (en) * | 1997-04-25 | 2002-11-07 | Chang Dean C. | Design of force sensations for haptic feedback computer interfaces |
WO2006019389A2 (en) * | 2004-07-15 | 2006-02-23 | Immersion Corporation | System and method for ordering haptic effects |
JP2006198473A (ja) * | 2005-01-18 | 2006-08-03 | Sony Corp | 振動伝達構造、触覚機能付きの入出力装置及び電子機器 |
Family Cites Families (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0559708A1 (en) * | 1990-11-30 | 1993-09-15 | Cambridge Animation Systems Limited | Image synthesis and processing |
JP4131278B2 (ja) | 1996-10-18 | 2008-08-13 | ヤマハ株式会社 | 鍵盤楽器用力覚制御装置 |
US6108011A (en) * | 1996-10-28 | 2000-08-22 | Pacific Data Images, Inc. | Shape interpolation for computer-generated geometric models using independent shape parameters for parametric shape interpolation curves |
US6337678B1 (en) | 1999-07-21 | 2002-01-08 | Tactiva Incorporated | Force feedback computer input and output device with coordinated haptic elements |
US6449019B1 (en) * | 2000-04-07 | 2002-09-10 | Avid Technology, Inc. | Real-time key frame effects using tracking information |
AU2001294852A1 (en) | 2000-09-28 | 2002-04-08 | Immersion Corporation | Directional tactile feedback for haptic feedback interface devices |
US7623114B2 (en) | 2001-10-09 | 2009-11-24 | Immersion Corporation | Haptic feedback sensations based on audio output from computer devices |
US7199805B1 (en) * | 2002-05-28 | 2007-04-03 | Apple Computer, Inc. | Method and apparatus for titling |
JP2004310518A (ja) * | 2003-04-08 | 2004-11-04 | Fuji Xerox Co Ltd | 画像情報処理装置 |
KR20050054731A (ko) | 2003-12-05 | 2005-06-10 | 한국전자통신연구원 | 햅틱 시뮬레이션 시스템 및 그 시스템에서의 실시간 촉감지원 방법 |
US9948885B2 (en) | 2003-12-12 | 2018-04-17 | Kurzweil Technologies, Inc. | Virtual encounters |
US7742036B2 (en) * | 2003-12-22 | 2010-06-22 | Immersion Corporation | System and method for controlling haptic devices having multiple operational modes |
US20080204266A1 (en) * | 2004-02-03 | 2008-08-28 | Jussi Malmberg | Method and Device For Implementing Vibration Output Commands in Mobile Terminal Devices |
JP2005332063A (ja) | 2004-05-18 | 2005-12-02 | Sony Corp | 触覚機能付き入力装置、情報入力方法及び電子機器 |
JP2006058973A (ja) * | 2004-08-17 | 2006-03-02 | Sony Corp | 触覚情報作成装置及び触覚情報作成方法 |
JP2008515052A (ja) | 2004-09-24 | 2008-05-08 | アップル インコーポレイテッド | 生データ・トラック・パッド・デバイスおよびシステム |
US7728823B2 (en) | 2004-09-24 | 2010-06-01 | Apple Inc. | System and method for processing raw data of track pad device |
EP1907086B1 (en) * | 2005-06-27 | 2011-07-20 | Coactive Drive Corporation | Synchronized vibration device for haptic feedback |
US8700791B2 (en) * | 2005-10-19 | 2014-04-15 | Immersion Corporation | Synchronization of haptic effect data in a media transport stream |
JP4795091B2 (ja) * | 2006-04-21 | 2011-10-19 | キヤノン株式会社 | 情報処理方法および装置 |
US9370704B2 (en) | 2006-08-21 | 2016-06-21 | Pillar Vision, Inc. | Trajectory detection and feedback system for tennis |
JP2008123429A (ja) * | 2006-11-15 | 2008-05-29 | Sony Corp | タッチパネルディスプレイ装置および電子機器並びに遊技機器 |
US8098234B2 (en) * | 2007-02-20 | 2012-01-17 | Immersion Corporation | Haptic feedback system with stored effects |
JP2008257295A (ja) * | 2007-03-30 | 2008-10-23 | Tokyo Institute Of Technology | 触覚刺激提示方法 |
US8621348B2 (en) * | 2007-05-25 | 2013-12-31 | Immersion Corporation | Customizing haptic effects on an end user device |
CN101355746B (zh) * | 2007-07-27 | 2012-05-16 | 深圳富泰宏精密工业有限公司 | 无线通信装置 |
US7911328B2 (en) * | 2007-11-21 | 2011-03-22 | The Guitammer Company | Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events |
US8035535B2 (en) * | 2007-11-21 | 2011-10-11 | Nokia Corporation | Apparatus and method providing transformation for human touch force measurements |
US8138896B2 (en) * | 2007-12-31 | 2012-03-20 | Apple Inc. | Tactile feedback in an electronic device |
WO2009092107A2 (en) | 2008-01-17 | 2009-07-23 | Articulate Technologies, Inc. | Methods and devices for intraoral tactile feedback |
JP2009181261A (ja) | 2008-01-30 | 2009-08-13 | Panasonic Corp | 双方向通信システム |
KR100927009B1 (ko) * | 2008-02-04 | 2009-11-16 | 광주과학기술원 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
US9513704B2 (en) | 2008-03-12 | 2016-12-06 | Immersion Corporation | Haptically enabled user interface |
US20090303175A1 (en) * | 2008-06-05 | 2009-12-10 | Nokia Corporation | Haptic user interface |
JP2010015514A (ja) | 2008-07-07 | 2010-01-21 | Sony Corp | 入力装置、その制御方法及び電子機器 |
SE533704C2 (sv) * | 2008-12-05 | 2010-12-07 | Flatfrog Lab Ab | Pekkänslig apparat och förfarande för drivning av densamma |
KR20100066036A (ko) * | 2008-12-09 | 2010-06-17 | 삼성전자주식회사 | 휴대 단말기 운용 방법 및 장치 |
KR101114603B1 (ko) * | 2008-12-12 | 2012-03-05 | 삼성전자주식회사 | 휴대용 단말기의 햅틱 장치 |
US8686952B2 (en) | 2008-12-23 | 2014-04-01 | Apple Inc. | Multi touch with multi haptics |
US8077021B2 (en) * | 2009-03-03 | 2011-12-13 | Empire Technology Development Llc | Dynamic tactile interface |
US10564721B2 (en) | 2009-03-12 | 2020-02-18 | Immersion Corporation | Systems and methods for using multiple actuators to realize textures |
JP5606462B2 (ja) * | 2009-03-12 | 2014-10-15 | イマージョン コーポレーション | テクスチャを実現するために複数のアクチュエータを用いるシステム及び方法 |
KR101628782B1 (ko) | 2009-03-20 | 2016-06-09 | 삼성전자주식회사 | 휴대용 단말기에서 복수의 진동자를 이용한 햅틱 기능 제공방법 및 장치 |
JP2010278727A (ja) | 2009-05-28 | 2010-12-09 | Kddi Corp | 振動機能付き携帯端末 |
US9370459B2 (en) | 2009-06-19 | 2016-06-21 | Andrew Mahoney | System and method for alerting visually impaired users of nearby objects |
JP5197521B2 (ja) * | 2009-07-29 | 2013-05-15 | 京セラ株式会社 | 入力装置 |
JP4633183B1 (ja) * | 2009-07-29 | 2011-02-23 | 京セラ株式会社 | 入力装置および入力装置の制御方法 |
JP4942801B2 (ja) * | 2009-08-27 | 2012-05-30 | 京セラ株式会社 | 入力装置 |
US8451238B2 (en) * | 2009-09-02 | 2013-05-28 | Amazon Technologies, Inc. | Touch-screen user interface |
US8619044B2 (en) * | 2009-09-30 | 2013-12-31 | Blackberry Limited | Electronic device including tactile touch-sensitive display and method of controlling same |
JP5704428B2 (ja) | 2009-11-18 | 2015-04-22 | 株式会社リコー | タッチパネル装置及びタッチパネル装置の制御方法 |
JP5635274B2 (ja) * | 2010-01-27 | 2014-12-03 | 京セラ株式会社 | 触感呈示装置および触感呈示方法 |
JP5360499B2 (ja) | 2010-02-01 | 2013-12-04 | 国立大学法人東北大学 | 力覚提示方法および力覚提示装置 |
CA2731708A1 (en) * | 2010-02-15 | 2011-08-15 | Research In Motion Limited | Electronic device including touch-sensitive display and actuator for providing tactile feedback |
US9417695B2 (en) * | 2010-04-08 | 2016-08-16 | Blackberry Limited | Tactile feedback method and apparatus |
US9251721B2 (en) | 2010-04-09 | 2016-02-02 | University Of Florida Research Foundation, Inc. | Interactive mixed reality system and uses thereof |
US8736559B2 (en) * | 2010-04-23 | 2014-05-27 | Blackberry Limited | Portable electronic device and method of controlling same |
US8451255B2 (en) * | 2010-05-14 | 2013-05-28 | Arnett Ryan Weber | Method of providing tactile feedback and electronic device |
WO2012008628A1 (ko) * | 2010-07-13 | 2012-01-19 | 엘지전자 주식회사 | 이동단말기 및 그 대기화면 구성방법 |
US8352643B2 (en) * | 2010-09-30 | 2013-01-08 | Immersion Corporation | Haptically enhanced interactivity with interactive content |
US20120081337A1 (en) | 2010-10-04 | 2012-04-05 | Sony Ericsson Mobile Communications Ab | Active Acoustic Multi-Touch and Swipe Detection for Electronic Devices |
US20130215079A1 (en) | 2010-11-09 | 2013-08-22 | Koninklijke Philips Electronics N.V. | User interface with haptic feedback |
JP5587759B2 (ja) * | 2010-12-24 | 2014-09-10 | 京セラ株式会社 | 触感呈示装置、当該装置に用いるプログラムおよび触感呈示方法 |
US8624857B2 (en) | 2011-02-09 | 2014-01-07 | Texas Instruments Incorporated | Haptics effect controller architecture and instruction set |
US9483085B2 (en) * | 2011-06-01 | 2016-11-01 | Blackberry Limited | Portable electronic device including touch-sensitive display and method of controlling same |
KR20130007738A (ko) * | 2011-07-11 | 2013-01-21 | 삼성전자주식회사 | 키 입력장치 |
US9122311B2 (en) * | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9462262B1 (en) | 2011-08-29 | 2016-10-04 | Amazon Technologies, Inc. | Augmented reality environment with environmental condition control |
US8947126B2 (en) | 2011-10-10 | 2015-02-03 | Infineon Technologies Austria Ag | System, drivers for switches and methods for synchronizing measurements of analog-to-digital converters |
US8711118B2 (en) | 2012-02-15 | 2014-04-29 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
US10852093B2 (en) | 2012-05-22 | 2020-12-01 | Haptech, Inc. | Methods and apparatuses for haptic systems |
JP5831635B2 (ja) * | 2012-06-11 | 2015-12-09 | 富士通株式会社 | 駆動装置、電子機器、及び駆動制御プログラム |
US8860563B2 (en) | 2012-06-14 | 2014-10-14 | Immersion Corporation | Haptic effect conversion system using granular synthesis |
US9030428B2 (en) | 2012-07-11 | 2015-05-12 | Immersion Corporation | Generating haptic effects for dynamic events |
US9898084B2 (en) | 2012-12-10 | 2018-02-20 | Immersion Corporation | Enhanced dynamic haptic effects |
FR2999741B1 (fr) | 2012-12-17 | 2015-02-06 | Centre Nat Rech Scient | Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel |
US9367136B2 (en) | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
US9908048B2 (en) | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
US9811854B2 (en) | 2013-07-02 | 2017-11-07 | John A. Lucido | 3-D immersion technology in a virtual store |
EP3014394B1 (en) | 2013-07-05 | 2022-06-22 | Rubin, Jacob A. | Whole-body human-computer interface |
US9630105B2 (en) | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
EP3095023A1 (en) | 2014-01-15 | 2016-11-23 | Sony Corporation | Haptic notification on wearables |
US9551873B2 (en) | 2014-05-30 | 2017-01-24 | Sony Interactive Entertainment America Llc | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content |
CN106796451B (zh) | 2014-07-28 | 2020-07-21 | Ck高新材料有限公司 | 触觉信息提供模块 |
US9645646B2 (en) | 2014-09-04 | 2017-05-09 | Intel Corporation | Three dimensional contextual feedback wristband device |
US9799177B2 (en) | 2014-09-23 | 2017-10-24 | Intel Corporation | Apparatus and methods for haptic covert communication |
US10166466B2 (en) | 2014-12-11 | 2019-01-01 | Elwha Llc | Feedback for enhanced situational awareness |
US9870718B2 (en) | 2014-12-11 | 2018-01-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Imaging devices including spacing members and imaging devices including tactile feedback devices |
US20160170508A1 (en) | 2014-12-11 | 2016-06-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Tactile display devices |
US9922518B2 (en) | 2014-12-11 | 2018-03-20 | Elwha Llc | Notification of incoming projectiles |
US10073516B2 (en) | 2014-12-29 | 2018-09-11 | Sony Interactive Entertainment Inc. | Methods and systems for user interaction within virtual reality scene using head mounted display |
US9746921B2 (en) | 2014-12-31 | 2017-08-29 | Sony Interactive Entertainment Inc. | Signal generation and detector systems and methods for determining positions of fingers of a user |
US9843744B2 (en) | 2015-01-13 | 2017-12-12 | Disney Enterprises, Inc. | Audience interaction projection system |
US10322203B2 (en) | 2015-06-26 | 2019-06-18 | Intel Corporation | Air flow generation for scent output |
WO2017053878A1 (en) | 2015-09-25 | 2017-03-30 | Oculus Vr, Llc | Haptic surface with damping apparatus |
US20170103574A1 (en) | 2015-10-13 | 2017-04-13 | Google Inc. | System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience |
US20170131775A1 (en) | 2015-11-10 | 2017-05-11 | Castar, Inc. | System and method of haptic feedback by referral of sensation |
WO2017095951A1 (en) | 2015-11-30 | 2017-06-08 | Nike Innovate C.V. | Apparel with ultrasonic position sensing and haptic feedback for activities |
US10310804B2 (en) | 2015-12-11 | 2019-06-04 | Facebook Technologies, Llc | Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback |
US10324530B2 (en) | 2015-12-14 | 2019-06-18 | Facebook Technologies, Llc | Haptic devices that simulate rigidity of virtual objects |
US10096163B2 (en) | 2015-12-22 | 2018-10-09 | Intel Corporation | Haptic augmented reality to reduce noxious stimuli |
US10065124B2 (en) | 2016-01-15 | 2018-09-04 | Disney Enterprises, Inc. | Interacting with a remote participant through control of the voice of a toy device |
US9846971B2 (en) | 2016-01-19 | 2017-12-19 | Disney Enterprises, Inc. | Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon |
US11351472B2 (en) | 2016-01-19 | 2022-06-07 | Disney Enterprises, Inc. | Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon |
US10477006B2 (en) | 2016-01-22 | 2019-11-12 | Htc Corporation | Method, virtual reality system, and computer-readable recording medium for real-world interaction in virtual reality environment |
US9933851B2 (en) | 2016-02-22 | 2018-04-03 | Disney Enterprises, Inc. | Systems and methods for interacting with virtual objects using sensory feedback |
US10555153B2 (en) | 2016-03-01 | 2020-02-04 | Disney Enterprises, Inc. | Systems and methods for making non-smart objects smart for internet of things |
US20170352185A1 (en) | 2016-06-02 | 2017-12-07 | Dennis Rommel BONILLA ACEVEDO | System and method for facilitating a vehicle-related virtual reality and/or augmented reality presentation |
US10155159B2 (en) | 2016-08-18 | 2018-12-18 | Activision Publishing, Inc. | Tactile feedback systems and methods for augmented reality and virtual reality systems |
US20180053351A1 (en) | 2016-08-19 | 2018-02-22 | Intel Corporation | Augmented reality experience enhancement method and apparatus |
US10372213B2 (en) | 2016-09-20 | 2019-08-06 | Facebook Technologies, Llc | Composite ribbon in a virtual reality device |
US10779583B2 (en) | 2016-09-20 | 2020-09-22 | Facebook Technologies, Llc | Actuated tendon pairs in a virtual reality device |
US10300372B2 (en) | 2016-09-30 | 2019-05-28 | Disney Enterprises, Inc. | Virtual blaster |
US10281982B2 (en) | 2016-10-17 | 2019-05-07 | Facebook Technologies, Llc | Inflatable actuators in virtual reality |
US10088902B2 (en) | 2016-11-01 | 2018-10-02 | Oculus Vr, Llc | Fiducial rings in virtual reality |
US20170102771A1 (en) | 2016-12-12 | 2017-04-13 | Leibs Technology Limited | Wearable ultrasonic haptic feedback system |
-
2012
- 2012-11-02 US US13/667,003 patent/US8947216B2/en active Active
-
2013
- 2013-09-12 EP EP18208324.6A patent/EP3495924B1/en active Active
- 2013-09-12 EP EP13184109.0A patent/EP2728443A3/en not_active Ceased
- 2013-10-11 CN CN201310471458.0A patent/CN103809960B/zh active Active
- 2013-10-11 CN CN201810371898.1A patent/CN108803869A/zh active Pending
- 2013-10-28 KR KR1020130128528A patent/KR102161541B1/ko active IP Right Grant
- 2013-10-31 JP JP2013226909A patent/JP6359820B2/ja active Active
-
2014
- 2014-12-18 US US14/574,957 patent/US9396630B2/en active Active
-
2016
- 2016-07-15 US US15/211,463 patent/US9958944B2/en active Active
-
2018
- 2018-03-15 US US15/922,257 patent/US10248212B2/en active Active
- 2018-06-21 JP JP2018117601A patent/JP6734325B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5619628A (en) * | 1994-04-25 | 1997-04-08 | Fujitsu Limited | 3-Dimensional animation generating apparatus |
US5774386A (en) * | 1995-09-08 | 1998-06-30 | Eastman Kodak Company | Method and apparatus for performing function evaluation using a cache |
US20020163498A1 (en) * | 1997-04-25 | 2002-11-07 | Chang Dean C. | Design of force sensations for haptic feedback computer interfaces |
JP2002149312A (ja) * | 2000-08-08 | 2002-05-24 | Ntt Docomo Inc | 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法 |
WO2006019389A2 (en) * | 2004-07-15 | 2006-02-23 | Immersion Corporation | System and method for ordering haptic effects |
JP2006198473A (ja) * | 2005-01-18 | 2006-08-03 | Sony Corp | 振動伝達構造、触覚機能付きの入出力装置及び電子機器 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107566847A (zh) * | 2017-09-18 | 2018-01-09 | 浙江大学 | 一种将触感数据编码为视频流进行保存和传输的方法 |
CN107566847B (zh) * | 2017-09-18 | 2020-02-14 | 浙江大学 | 一种将触感数据编码为视频流进行保存和传输的方法 |
Also Published As
Publication number | Publication date |
---|---|
US9958944B2 (en) | 2018-05-01 |
US10248212B2 (en) | 2019-04-02 |
EP2728443A3 (en) | 2016-06-08 |
KR102161541B1 (ko) | 2020-10-05 |
US20160320845A1 (en) | 2016-11-03 |
JP6734325B2 (ja) | 2020-08-05 |
EP2728443A2 (en) | 2014-05-07 |
US20150102918A1 (en) | 2015-04-16 |
JP6359820B2 (ja) | 2018-07-18 |
EP3495924B1 (en) | 2023-06-07 |
EP3495924A1 (en) | 2019-06-12 |
US9396630B2 (en) | 2016-07-19 |
JP2014093091A (ja) | 2014-05-19 |
KR20140057160A (ko) | 2014-05-12 |
CN103809960B (zh) | 2018-05-25 |
US20180267610A1 (en) | 2018-09-20 |
US20140125467A1 (en) | 2014-05-08 |
CN108803869A (zh) | 2018-11-13 |
JP2018163691A (ja) | 2018-10-18 |
US8947216B2 (en) | 2015-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103809960A (zh) | 编码动态触觉效应 | |
JP6598915B2 (ja) | コンテキスト依存ハプティック確認システム | |
JP6479148B2 (ja) | 強化された動的ハプティック効果 | |
CN103544002A (zh) | 对于动态事件产生触觉效果 | |
CN103513767A (zh) | 触觉反馈控制系统 | |
CN103970409A (zh) | 产生增强现实内容的方法和使用所述增强现实内容的终端 | |
CN102016758A (zh) | 触觉使能用户接口 | |
CN104102417A (zh) | 电子装置及其显示播放列表的方法 | |
CN102736288A (zh) | 一种压电式触摸显示屏 | |
CN202102397U (zh) | 一种压电式触摸显示屏 | |
CN102324216A (zh) | 互动式销售点显示设备 | |
CN103869937A (zh) | 一种触控反馈方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C53 | Correction of patent of invention or patent application | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: IMMERSION CORPORATION Address before: American California Applicant before: Immersion Corp. |
|
COR | Change of bibliographic data |
Free format text: CORRECT: APPLICANT; FROM: IMMERSION CORP. TO: YIMEISEN COMPANY |
|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |