CN104049733A - 自动触觉效果调节系统 - Google Patents

自动触觉效果调节系统 Download PDF

Info

Publication number
CN104049733A
CN104049733A CN201410086794.8A CN201410086794A CN104049733A CN 104049733 A CN104049733 A CN 104049733A CN 201410086794 A CN201410086794 A CN 201410086794A CN 104049733 A CN104049733 A CN 104049733A
Authority
CN
China
Prior art keywords
haptic effect
sense
affective state
user
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410086794.8A
Other languages
English (en)
Other versions
CN104049733B (zh
Inventor
V·利沃斯克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Priority to CN201810254920.4A priority Critical patent/CN108388349A/zh
Publication of CN104049733A publication Critical patent/CN104049733A/zh
Application granted granted Critical
Publication of CN104049733B publication Critical patent/CN104049733B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本公开提供了自动调节触觉效果的系统。该系统基于一个或多个触觉参数生成触觉效果。该系统测量体验该触觉效果的用户的情感状态。该系统基于测出的情感状态调节所述一个或多个触觉参数中的至少一个触觉参数。该系统基于所述一个或多个触觉参数生成新触觉效果,其中至少一个触觉参数使新触觉效果与所述触觉效果不同。

Description

自动触觉效果调节系统
技术领域
一种实施例一般涉及触觉效果,并尤其涉及生成触觉效果的设备。
背景技术
触觉是通过向用户施加触觉反馈效果(即,“触觉效果”)利用用户触摸感测的触感与力反馈技术,其中的触觉反馈效果诸如力、振动和运动。诸如移动设备、触摸屏设备和个人计算机的设备可以配置为生成触觉效果。一般地,对能够生成触觉效果的嵌入式硬件(诸如致动器)的调用可以在设备的操作系统(“OS”)中编程。这些调用规定要播放的触觉效果。例如,当用户利用例如按钮、触摸屏、控制杆、操纵杆、轮子或者某种其它控制与设备交互时,设备的OS可以通过控制电路系统向嵌入式硬件发送播放命令。然后,嵌入式硬件产生适当的触觉效果。
触觉效果常常设计成带有在用户中产生具体情感(affective)状态的意图,其中情感状态是情绪状态的表示,诸如高兴、悲伤、烦恼或生气。例如,充当警报的触觉效果可以设计成在不造成烦恼的情况下吸引对一个事件的注意。类似地,依赖于情境(context),触觉效果可以设计成产生愉快的或者不愉快的感觉。设计这种触觉效果一般需要手动地,并且迭代地,精炼(refine)触觉效果并且利用终端用户评估触觉效果,通过诸如涉及问卷调查或性能数据的用户评估工具,这是个耗时的过程。
发明内容
一种实施例是自动调节触觉效果的系统。该系统基于一个或多个触觉参数生成触觉效果。该系统还测量体验触觉效果的用户的情感状态。该系统还基于测出的用户的情感状态调节一个或多个触觉参数的至少一个触觉参数。该系统还基于所述一个或多个触觉参数生成新触觉效果,其中至少一个调节过的触觉参数使新触觉效果与触觉效果不同。
附图说明
更多的实施例、细节、优点和修改将从以下对优选实施例的具体描述变得清楚,实施例可以结合附图来理解。
图1说明了根据本发明一种实施例的系统的框图。
图2说明了根据本发明一种实施例的触觉效果的自动调节的框图。
图3说明了根据本发明一种实施例的大规模部署的环境的框图。
图4说明了根据本发明一种实施例的个别部署的环境的框图。
图5说明了根据本发明一种实施例的实验室环境的框图。
图6说明了根据本发明一种实施例的包括对触觉效果的实时持续调节的个别部署环境的框图。
图7说明了根据本发明一种实施例的自动触觉效果调节模块的功能性的流程图。
具体实施方式
一种实施例是可以通过测量体验触觉效果的用户的情感状态来自动调节触觉效果的系统。测量可以由测量情感数据的一个或多个情感传感器来执行,其中的情感数据诸如可以指示用户情绪状态的用户的心率、用户的生物信号或者用户的面部特征。该系统可以分析测出的情感状态并且可以自动地调节用于生成触觉效果的一个或多个触觉参数。通过自动地调节一个或多个触觉参数,该系统可以生成新触觉效果,以便产生来自用户的期望的情感状态。该系统可以在闭环中持续地执行触觉效果的生成、用户情感状态的测量、测出的情感状态的分析以及一个或多个触觉参数的自动调节,直到触觉效果产生期望的情感状态,或者情感状态的期望变化。例如,诸如移动设备、触摸屏设备、个人计算机或智能电话的设备可以自动地调节它用于确认的触觉效果,并且也可以使用情感传感器,诸如生物传感器,来确定用于愉悦和引人注目(noticeability)之间平衡的最优触觉参数。作为另一个例子,设备制造商可以通过实现为每个设备自动调节触觉效果的中央服务器来跨显著数量的设备调节触觉效果。
图1说明了根据本发明一种实施例的系统10的框图。在一种实施例中,系统10是设备的一部分,而且系统10为设备提供自动触觉效果调节功能性。在另一种实施例中,系统10与设备分离,并且远程地为设备提供自动触觉效果调节。虽然示为单个系统,但是系统10的功能性可以实现为分布式系统,其中系统10的一个或多个组件物理上与系统10的其它组件分离,但是操作耦合到其它组件。系统10包括用于传送信息的总线12或者其它通信机制,以及耦合到总线12的用于处理信息的处理器22。处理器22可以是任何类型的通用或专用处理器。系统10还包括用于存储信息和要由处理器22执行的指令的存储器14。存储器14可以包括随机存取存储器(“RAM”)、只读存储器(“ROM”)、诸如磁或光盘的静态储存器或者任何其它类型的计算机可读介质的任意组合。
计算机可读介质可以是可以被处理器22访问的任何可用介质并且包括易失性和非易失性介质、可移动和不可移动介质、通信介质以及存储介质。通信介质可以包括计算机可读指令、数据结构、程序模块及诸如载波或其它传输机制的调制数据信号中的其它数据,并且可以包括本领域中已知的任何其它形式的信息交付介质。存储介质可以包括RAM、闪存存储器、ROM、可擦除可编程只读存储器(“EPROM”)、电可擦除可编程只读存储器(“EEPROM”)、寄存器、硬盘、可移动盘、光盘只读存储器(“CD-ROM”),或者本领域中已知的任何其它形式的存储介质。
在一种实施例中,存储器14存储在被处理器22执行时提供功能性的软件模块。在一种实施例中,模块包括为系统10以及设备的剩余部分提供操作系统功能性的操作系统15。模块还包括自动调节触觉效果的自动触觉效果调节模块16,如以下更具体公开的。在某些实施例中,自动触觉效果调节模块16可以包括多个模块,其中每个个别(individual)模块提供用于自动调节触觉效果的具体个别功能性。系统10一般将包括一个或多个附加的应用模块18,以包括附加的功能性,诸如由Immersion公司提供的IntegratorTM应用。
在从远端源发送和/或接收数据的实施例中,系统10还包括通信设备20,诸如网络接口卡,以提供移动无线网络通信,诸如红外线、无线电、Wi-Fi或者蜂窝网络通信。在其它实施例中,通信设备20提供有线网络连接,诸如以太网连接或调制解调器。
处理器22还经总线12耦合到显示器24,诸如液晶显示器(“LCD”),用于向用户显示图形表示或用户界面。显示器24可以是配置为从处理器22发送和接收信号的触摸敏感输入设备,诸如触摸屏,并且可以是多点触摸触摸屏。处理器22还可以耦合到允许用户与系统10交互的键盘或光标控制装置28,诸如鼠标或触控笔。
在一种实施例中,系统10还包括致动器26。处理器22可以把与所生成的触觉效果关联的触觉信号发送到致动器26,致动器26又输出诸如振动触感触觉效果、静电摩擦触觉效果或者变形触觉效果的触觉效果。致动器26包括致动器驱动电路。致动器26可以是例如电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质块电动机(“ERM”)、线性共振致动器(“LRA”)、压电致动器、高带宽致动器、电活性聚合物(“EAP”)致动器、静电摩擦显示器或者超声振动发生器。在备选的实施例中,除致动器26之外,系统10还可以包括一个或多个附加的致动器(在图1中未说明)。致动器26是触觉输出设备的一个例子,其中触觉输出设备是配置为响应于驱动信号而输出触觉效果的设备,其中的触觉效果诸如振动触感触觉效果、静电摩擦触觉效果或者变形触觉效果。在备选实施例中,致动器26可以被某种其它类型的触觉输出设备代替。另外,在其它备选的实施例中,系统10可以不包括致动器26,而与系统10分离的一个设备包括生成触觉效果的致动器,或者其它触觉输出设备,而且系统10通过通信设备20把生成的触觉效果信号发送到那个设备。
在一种实施例中,系统10还包括传感器30。传感器30可以配置为检测一种形式的能量,或者其它的物理属性,诸如但不限于加速度、生物信号、距离、流量、力/压力/应变/弯曲、湿度、线性位置、朝向/倾度、射频、旋转位置、旋转速度、开关的操纵、温度、振动或者可见光强度。传感器30还可以配置为把检测到的能量,或者其它物理属性,转换成电信号,或者代表虚拟传感器信息的信号。传感器30可以是任何设备,诸如但不限于加速计、心电图、脑电图、肌电描记器、眼电图、腭电图仪、红外光体积描记器、呼吸描记器、皮肤电反应传感器、皮肤电导仪、电容传感器、霍尔效应传感器、红外线传感器、超声传感器、压力传感器、光纤传感器、挠曲传感器(或者弯曲传感器)、力敏感电阻器、称重传感器、LuSense CPS2155、微型压力换能器、压电传感器、应变计、湿度计、线性位置触摸传感器、线性电位计(或者滑动触头)、线性可变差分变压器、指南针、测斜器、磁性标签(或者射频标识标签)、旋转编码器、旋转电位计、陀螺仪、通断开关、温度传感器(诸如温度计、热电偶、电阻温度检测器、热敏电阻或者温度-换能集成电路)、麦克风、照相机、眼动仪、光度计、高度计、生物检测器、光相依电阻器、文字分析器或者模式分析器。
在备选实施例中,除了传感器30之外,系统10还可以包括一个或多个附加的传感器(图1中未说明)。在这些备选实施例的一些中,附加传感器中至少一个可以是可配置为检测情境数据的情境传感器。情境数据的一个例子是识别设备的一个或多个物理属性的数据。情境数据的另一个例子是识别设备功能性的数据。情境数据还有另一个例子是识别与设备的交互的数据。情境数据的进一步的例子是识别和与设备的交互关联的一个或多个特性的数据,诸如压力、加速据、声音或者通过与设备交互产生的数据。情境数据还有更进一步的例子是识别用户和/或用户所处环境的状态的数据。在某些实施例中,情境传感器可以是以上在前一段落中描述过的设备之一。
图2说明了根据本发明一种实施例的触觉效果的自动调节的框图。图2包括用户210。用户210代表可以生成触觉效果的设备或系统的用户。如以下更具体描述的,作为体验触觉效果的结果,用户210会体验触觉效果并且产生情感状态,或者情感状态的变化。
图2还包括触觉效果发生器220,它可以由图1的系统10实现。触觉效果发生器220包括可以基于一个或多个触觉参数生成触觉效果的硬件组件和/或软件组件,其中触觉效果可以被用户210体验。根据该实施例,触觉效果发生器220可以生成可以被用户210体验的一系列触觉效果。可以被用户210体验的触觉效果的例子包括振动触感触觉效果、静电摩擦触觉效果或者变形触觉效果。更具体地,在某些实施例中,触觉效果发生器220的软件组件可以生成触觉信号,并且把触觉信号发送到触觉效果发生器220的硬件组件,其中硬件组件可以基于触觉信号生成触觉效果。在这些实施例的一些中,触觉效果发生器220的硬件组件是致动器。在其它实施例中,触觉效果发生器220的软件组件可以生成触觉信号并把触觉信号发送到外部设备(在图2中未说明),其中该外部设备可以基于触觉信号生成触觉效果。在某些实施例中,触觉效果发生器220可以跨网络分布,诸如在服务器与可操作耦合到该服务器的一个或多个远程设备之间。
根据该实施例,触觉参数是可以定义用于生成触觉效果的触觉信号而且因此还可以定义要生成的触觉效果的参数。更具体地,触觉参数是触觉效果质量的量,诸如量级、频率、持续时间、振幅、强度、包络、密度,或者任何其它类型可量化的触觉参数。根据该实施例,触觉效果可以至少部分地由一个或多个触觉参数来定义,其中所述一个或多个触觉参数可以定义触觉效果的特性。触觉参数可以包括数值,其中该数值可以定义触觉信号的特性,并且因此还可以定义由触觉信号生成的触觉效果的特性。触觉参数的例子可以包括:振幅触觉参数、频率触觉参数、持续时间触觉参数、包络触觉参数、密度触觉参数、量级触觉参数及强度触觉参数。
根据该实施例,振幅触觉参数可以定义用于生成触觉效果的触觉信号的振幅并且因此可以定义触觉效果的振幅。频率触觉参数可以定义用于生成触觉效果的触觉信号的频率并且因此可以定义触觉效果的频率。持续时间触觉参数可以定义用于生成触觉效果的触觉信号的持续时间并且因此可以定义触觉效果的持续时间。包络触觉参数可以定义用于生成触觉效果的触觉信号的包络并且因此可以定义触觉效果的包络。密度触觉参数可以定义用于生成触觉效果的触觉信号的密度并且因此可以定义触觉效果的密度。量级触觉参数可以定义用于生成触觉效果的触觉信号的量级并且因此可以定义触觉效果的量级。强度触觉参数可以定义用于生成触觉效果的触觉信号的强度并且因此可以定义触觉效果的强度。
在备选实施例中,触觉参数的另一个例子是致动器触觉参数,该参数可以用于配置要发送到一个或多个规定的致动器的触觉信号。例如,致动器触觉参数可以配置要发送到LRA致动器、ERM致动器或者这二者的触觉信号。在某些实施例中,致动器触觉参数可以与一个规定的致动器关联。在其它实施例中,致动器触觉参数可以与多个规定的致动器关联。
图2还包括自动触觉效果调节模块221,该模块可以配置为自动调节触觉效果。在某些实施例中,自动触觉效果调节模块221与图1的自动触觉效果调节模块16相同。更具体地,自动触觉效果调节模块221可以自动地调节先前由触觉效果发生器220生成的触觉效果的一个或多个触觉参数。通过自动调节一个或多个触觉参数,自动触觉效果调节模块221可以自动调节所述一个或多个触觉参数的值。如以下更具体描述的,自动触觉效果调节模块221可以基于从一个或多个传感器测出的输入自动调节所述一个或多个触觉参数。这种输入可以包括测出的用户210的情感状态。这种输入还可以可选地包括测出的用户210的情境。
一旦自动触觉效果调节模块221已经调节了一个或多个触觉参数,触觉效果发生器220的软件组件就可以基于所述一个或多个触觉参数生成新的触觉信号。在某些实施例中,触觉效果发生器220的软件组件可以把新的触觉信号发送到触觉效果发生器220的硬件组件,其中该硬件组件可以基于新的触觉信号生成新触觉效果。在其它实施例中,触觉效果发生器220的软件组件可以把新的触觉信号发送到外部设备(在图2中未说明),其中外部设备可以基于新的触觉信号生成新触觉效果。在所说明的实施例中,自动触觉效果调节模块221是触觉效果发生器220的一个组件。但是,在备选实施例中,自动触觉效果调节模块221可以与触觉效果发生器220分离。
在一个例子中,触觉效果发生器220可以生成一组十个原始触觉效果。自动触觉效果调节模块221可以调节该组十个原始触觉效果中每个原始触觉效果的触觉参数。然后,自动触觉效果调节模块221可以使触觉效果发生器220生成一组十个新触觉效果。对于每个新触觉效果,所述一个或多个调节后的触觉参数使新触觉效果与原始触觉效果不同。
图2还包括情感传感器230。在某些实施例中,情感传感器230与图1的传感器30相同。情感传感器230可以在用户210体验由触觉效果发生器220生成的触觉效果的时候测量用户210的情感状态。更具体地,情感传感器230可以检测情感数据,其中情感数据包括用户210的一个或多个特性。作为一个例子,情感传感器230可以是生物传感器,并且可以检测用户210的特性,诸如心率、血压、皮肤电反应或者肌肉收缩。作为另一个例子,情感传感器230可以是照相机或者其它类型的传感器,而且可以检测用户210的特性,诸如面部表情或者视线方向。作为一个附加的例子,情感传感器230可以是脑成像设备,并且可以检测用户210的特性,诸如大脑的电活动。
根据该实施例,情感传感器230可以检测情感数据并且产生输入,诸如电信号,或者代表情感数据的任何信号。情感传感器230还可以把该输入发送到自动触觉效果调节模块221,在图2所说明的实施例中,自动触觉效果调节模块221是触觉效果发生器220的一个组件。自动触觉效果调节模块221可以分析由情感传感器230发送的输入并且可以确定用户210的情感状态。用户210的情感状态代表用户210的情绪状态。因而,通过在用户210体验触觉效果的时候确定用户210的情感状态,可以估计用户210在体验触觉效果时的情绪状态。在某些实施例中,用户210的情感状态可以通过效价值(valence value)和激发值(arousal value)来表示。如在心理学中所使用的,尤其是与情绪状态相关,效价是事件、目标或情形的内在吸引力(即,正价)或令人厌恶(即,负价)。因而,正价值可以代表正效价,这可以指示诸如高兴、满足或欢乐的情绪状态。另外,负价值可以代表负效价,这可以指示诸如悲伤、生气或烦恼的情绪状态。激发是意识到刺激并且其起反应的状态。高激发值可以指示与参与并对刺激起反应一致的情绪状态。低激发值可以指示与不参与并且不对刺激起反应一致的情绪状态。效价值和激发值一起可以代表用户210的情感状态。
在某些实施例中,如前面所描述的,情感传感器230可以检测情感数据并且可以产生一个输入,而且自动触觉效果调节模块221可以分析由情感传感器230发送的该输入并且可以直接确定用户210的情感状态,其中用户210的情感状态可以由效价值和激发值表示。但是,在备选实施例中,情感状态可以相对于一个基线来测量。例如,生物信号从一个用户到另一个用户会有变化。因而,为了确定绝对情感状态,会需要与处于已知情绪状态的那个用户的基线情感状态的比较。例如,绝对效价值和激发值可以通过比较测出的效价值和测出的激发值与基线效价值和基线激发值来确定。因而,在这些备选实施例中,为了确定情感状态,自动触觉效果调节模块221可以基于基线情感状态(例如,基线效价值和基线激发值)正规化测出的情感状态(例如,测出的效价值和测出的激发值)。
根据该实施例,一旦自动触觉效果调节模块221确定了用户210的情感状态,自动触觉效果调节模块221就可以比较测出的情感状态与预定义的情感状态。预定义的情感状态可以代表期望的用户210的情绪状态或者期望的情绪状态的变化。换句话说,会期望生成使用户210在体验触觉效果的时候产生期望情绪状态或者期望的情绪状态变化的触觉效果,其中期望的情绪状态或者期望的情绪状态变化由预定义的情感状态表示。在某些实施例中,预定义的情感状态可以包括预定义的效价值和预定义的激发值。通过比较测出的情感状态与预定义的情感状态,自动触觉效果调节模块221可以识别出在测出的情感状态与预定义的情感状态之间是否存在差异。在某些实施例中,测出的情感状态与预定义的情感状态之间的差异可以包括:(1)测出的情感状态的效价值与预定义的情感状态的效价值之间的差异;(2)测出的情感状态的激发值与预定义的情感状态的激发值之间的差异;或者(3)测出的情感状态的效价值和激发值与预定义的情感状态的效价值和激发值之间的差异。这种差异可以指示由触觉效果发生器220生成的触觉效果不使用户210产生期望的情绪状态。
在自动触觉效果调节模块221识别出测出的情感状态与预定义的情感状态之间的差异时,自动触觉效果调节模块221可以使用识别出的差异来自动调节先前由触觉效果发生器220生成的触觉效果的一个或多个触觉参数。更具体地,自动触觉效果调节模块221可以识别对将产生新触觉效果的一个或多个触觉参数的调节,其中新触觉效果将产生用户210的新情感状态。另外,自动触觉效果调节模块221可以识别出新的情感状态与预定义的情感状态更相似。通过与预定义的情感状态“更相似”,新情感状态与预定义情感状态之间的差异会小于原始情感状态与预定义情感状态之间的差异。在某些实施例中,通过与预定义的情感状态“更相似”:(1)新情感状态的效价值与预定义的情感状态的效价值更相似;(2)新情感状态的激发值与预定义的情感状态的激发值更相似;或者(3)新情感状态的效价值和激发值都与预定义的情感状态的效价值和激发值更相似。随后,如前面所描述的,自动触觉效果调节模块221可以使触觉效果发生器220生成新触觉效果,其中该新触觉效果使用户210产生新情感状态。在备选的实施例中,自动触觉效果调节模块221可以识别对一个或多个触觉参数的随机调节。自动触觉效果调节模块221可以使触觉效果发生器220基于对一个或多个触觉参数的随机调节生成新触觉效果。新触觉效果可以(但不必需)使用户210产生新的触觉状态。
在某些实施例中,以上提到的功能性可以持续地执行,直到触觉效果发生器220生成产生与预定义情感状态相似的用户210的新情感状态的新触觉效果。当情感状态与预定义情感状态之间的差异小于预定义的阈值时,一个情感状态可以与预定义的情感状态“相似”。在某些实施例中,通过与预定义的情感状态“相似”:(1)情感状态的效价值与预定义的情感状态的效价值之间的差异小于预定义的阈值;(2)情感状态的激发值与预定义的情感状态的激发值之间的差异小于预定义的阈值;或者(3)情感状态的效价值与预定义的情感状态的效价值之间的差异以及情感状态的激发值与预定义的情感状态的激发值之间的差异都小于预定义的阈值。
图2还包括情境传感器240。在某些实施例中,情境传感器240与图1的传感器30相同。情境传感器240是可选的传感器,它可以在用户210体验由触觉效果发生器220生成的触觉效果时测量用户210的情境。更具体地,情境传感器240是可以检测情境数据的传感器,其中情境数据包括识别设备的一个或多个物理属性的数据、识别设备功能性的数据、识别与设备的交互的数据或者识别和与设备的交互关联的一个或多个特性的数据,诸如压力、加速度、声音或者通过与设备交互产生的数据。可以检测情境数据的传感器的一个例子可以是情感传感器,类似于情感传感器230。可以检测情境数据的传感器的其它例子可以包括照相机、麦克风、加速计和软件代理。
根据该实施例,情境传感器240可以检测情境数据并产生输入,诸如电信号,或者代表情境数据的任何信号。情境传感器240还可以把输入发送到自动触觉效果调节模块221,在图2所说明的实施例中,自动触觉效果调节模块221是触觉效果发生器220的一个组件。自动触觉效果调节模块221可以分析由情境传感器240发送的输入并且可以确定用户210的情境。情境可以代表在用户210体验由触觉效果发生器220生成的触觉效果时用户210执行的动作(诸如与设备的交互)并且产生被情感传感器230测量的情感状态。
然后,自动触觉效果调节模块221可以使用用户210的情境结合测出的用户210的情感状态来自动调节先前由触觉效果发生器220生成的触觉效果的一个或多个触觉参数。例如,可以假设触觉效果可以基于用户210的情境被用户210不同地感知。在这个例子中,与在用户210睡觉时相比,触觉效果可以在用户210处于嘈杂环境中时,诸如处于挤满人的房间中时,被用户不同地感知。更具体地,当在嘈杂环境中体验大声的触觉效果时,用户210可以产生具有更高效价值的情感状态(例如,由于用户210可能不能感知到降低音量的触觉效果,因此用户210更认可触觉效果的增加的音量)。相反,当在用户210睡觉时体验大声的触觉效果时,用户210可能产生具有更低效价值的情感状态(例如,因为触觉效果打扰了他睡觉,所以用户210被惹恼了)。因而,在确定如何调节先前由触觉效果发生器220生成的触觉效果的一个或多个触觉参数时,自动触觉效果调节模块221可以考虑用户210的情境结合用户210的情感状态。在某些实施例中,情境传感器240及关联的功能性可以被略去。
图3说明了根据本发明一种实施例的大规模部署环境的框图。图3包括服务器310。服务器310是物理设备,诸如计算机,它可以包括存储提供功能性的一个或多个模块的存储器,并且还可以包括执行存储在存储器中的一个或多个模块的处理器。在图3所说明的实施例中,服务器310还包括自动触觉效果调节模块311,它可以配置为自动调节触觉效果。在某些实施例中,自动触觉效果调节模块311与图1的自动触觉效果调节模块16和图2的自动触觉效果调节模块221相同。
图3还包括网络320。网络320是多个设备的集合,诸如移动设备、触摸屏设备、个人计算机或者智能电话,这些设备通过方便设备之间通信与数据传输的通信通道操作互连。在某些实施例中,网络320可以是内联网。在备选实施例中,网络320可以是互联网,其中互联网是使用标准互联网协议套件(即,TCP/IP)的互连网络的全球系统,如本领域普通技术人员理解的。
图3还包括设备330、340、350和360。设备330、340、350和360是可以生成触觉效果并且可以操作耦合到网络320的设备的例子。例如,设备330、340、350和360可以是移动设备、触摸屏设备、个人计算机或智能电话中的一种。虽然在所说明的实施例中网络320包括四个设备,但这仅仅是个示例实施例,而且在其它备选实施例中,网络320可以包括任何数量的设备。
根据该实施例,设备330包括触觉效果发生器331和传感器332,设备340包括触觉效果发生器341和传感器342,设备350包括触觉效果发生器351和传感器352,而设备360包括触觉效果发生器361和传感器362。触觉效果发生器331、341、351和361每个都包括可以基于一个或多个触觉参数生成触觉效果的硬件组件和/或软件组件。在某些实施例中,触觉效果发生器331、341、351和361每个都与图2的触觉效果发生器220相同。但是,在这些实施例的一些中,触觉效果发生器331、341、351和361不包括自动触觉效果调节模块。在备选实施例中,设备330、340、350和360中至少一个可以包括未在图3中说明的附加触觉效果发生器。
另外,传感器332、342、352和362可以每个都配置为在用户体验触觉效果的时候测量用户的情感状态。在某些实施例中,传感器332、342、352和362每个都与图2的情感传感器230相同。在备选实施例中,设备330、340、350和360中至少一个可以包括未在图3中说明的附加传感器。在这些实施例的一些中,附加传感器中至少一个可以是可以在用户体验触觉效果的时候测量用户情境的传感器。在这些实施例中,至少一个附加传感器可以与图2的情境传感器240相同。
根据该实施例,设备330利用触觉效果发生器331生成触觉效果,并且设备330利用传感器332测量体验触觉效果的用户的情感状态。类似地,设备340利用触觉效果发生器341生成触觉效果并且利用传感器342测量体验触觉效果的用户的情感状态,设备350利用触觉效果发生器351生成触觉效果并且利用传感器352测量体验触觉效果的用户的情感状态,而设备360利用触觉效果发生器361生成触觉效果并且利用传感器362测量体验触觉效果的用户的情感状态。另外,设备330、340、350和360中每一个都向服务器310发送其各自测出的情感状态。在某些实施例中,设备330、340、350和360中至少一个设备还可以测量体验触觉效果的用户的情境。在这些实施例中,设备330、340、350和360中至少一个设备还可以把测出的情境发送到服务器310。
在从设备330、340、350和360接收到测出的情感状态后,根据该实施例,服务器310利用自动触觉效果调节模块311基于测出的情感状态调节一个或多个触觉参数。在某些实施例中,服务器310总起来为设备330、340、350和360调节单组一个或多个触觉参数。在其它实施例中,服务器310个别地为设备330、340、350和360中每个设备调节一个或多个触觉参数的单独集合。服务器310随后把一个或多个触觉参数发送到设备330、340、350和360。在某些实施例中,服务器把单组一个或多个触觉参数发送到设备330、340、350和360。在其它实施例中,服务器310单独地把第一组一个或多个触觉参数发送到设备330,把第二组一个或多个触觉参数发送到设备340,把第三组一个或多个触觉参数发送到设备350,把第四组一个或多个触觉参数发送到设备360。根据该实施例,设备330基于接收到的一个或多个触觉参数利用触觉效果发生器331生成新触觉效果。类似地,设备340基于接收到的一个或多个触觉参数利用触觉效果发生器341生成新触觉效果,设备350基于接收到的一个或多个触觉参数利用触觉效果发生器351生成新触觉效果,而设备360基于接收到的一个或多个触觉参数利用触觉效果发生器361生成新触觉效果。
因而,在一个例子中,设备制造商或服务提供商可以通过跨整个用户群或者跨用户群的一个子集测试变化来优化一组一个或多个触觉效果。作为一个例子,设备制造商可以随机地选择用于创建一个或多个触觉效果的触觉主题,其中触觉主题在设备卖给消费者时预先装载到每个设备上。然后,设备可以测量由触觉效果产生的情感状态(例如,效价或激发),并可选地测量其中生成一个或多个触觉效果的情境(例如,环境噪音或者当前任务)。然后,设备制造商可以通过网络收集每个测出的情感状态,以及可选地每个测出的情境,并且可选地在服务器(诸如在存储在服务器上的数据库中)存储情境。然后,设备制造商可以进一步分析收集到的情感状态,并可选地分析收集到的情境,并且选择最有可能导致不同情境中预定义情感状态的新触觉效果。然后,新触觉效果可以发送到设备。新触觉效果可以是最有可能导致预定义情感状态的识别出的触觉效果,或者可以是用于测量更进一步的情感状态(以及可选地,进一步的情境)的另一组触觉效果。
图4说明了根据本发明一种实施例、个别部署环境的框图。图4包括用户410。用户410代表可以生成触觉效果的设备或系统的用户。如前面所描述的,作为体验触觉效果的结果,用户410可以体验触觉效果并且产生情感状态。
图4还包括设备420。设备420是可以生成触觉效果的设备的例子。例如,设备420可以是移动设备、触摸屏设备、个人计算机或智能电话中的一种。根据该实施例,设备420包括触觉效果发生器421、传感器422以及自动触觉效果调节模块423。触觉效果发生器421包括可以基于一个或多个触觉参数生成触觉效果的硬件组件和/或软件组件。在某些实施例中,触觉效果发生器421与图2的触觉效果发生器220和图3的触觉效果发生器331、341、351及361相同。但是,在这些实施例的一些中,触觉效果发生器421不包括自动触觉效果调节模块。在备选实施例中,设备420可以包括未在图4中说明的附加的触觉效果发生器。
传感器422可以配置为在用户体验触觉效果的时候测量用户的情感状态。在某些实施例中,传感器422与图2的情感传感器230和图3的传感器332、342、352及362相同。在备选实施例中,设备420可以包括未在图4中说明的附加传感器。在这些实施例的一些中,附加传感器中至少一个可以是可以在用户体验触觉效果的时候测量用户情境的传感器。在这些实施例中,至少一个附加传感器可以与图2的情境传感器240相同。
自动触觉效果调节模块423可以配置为自动调节触觉效果。在某些实施例中,自动触觉效果调节模块423与图1的自动触觉效果调节模块16、图2的自动触觉效果调节模块221及图3的自动触觉效果调节模块311相同。
根据该实施例,设备420利用触觉效果发生器421生成触觉效果,并且设备420利用传感器422在用户410体验触觉效果的时候测量用户410的情感状态。基于测出的用户410的情感状态,设备420利用自动触觉效果调节模块423调节一个或多个触觉参数。设备420还利用触觉效果发生器421基于所述一个或多个触觉参数生成新触觉效果。
在一种实施例中,设备420还可以利用传感器422在用户410体验新触觉效果的时候测量用户410的新情感状态。基于新测出的用户410的情感状态,设备420还可以利用自动触觉效果调节模块423调节一个或多个触觉参数,并且还可以利用触觉效果发生器421基于所述一个或多个触觉参数生成新触觉效果。在这种实施例中,设备420可以持续地执行以上提到的功能性,直到新触觉效果产生与预定义情感状态相似的用户410的情感状态。
因而,在一个例子中,设备可以基于其用户的情感状态自动地调节一组一个或多个触觉效果。该设备可以自动地引起该组一个或多个触觉效果的一个或多个触觉参数的变化,诸如频率的强度,并且可以利用一个或多个情感传感器测量用户的情感状态。因而,设备可以逐步了解用于具体用户的一个或多个触觉效果的最优集合,并且可以适应用户的个人偏好。调节可以是持续的,由此随时间适应用户变化的偏好。另外,调节结果可以可选地通过网络传送到设备制造商,以允许设备制造商选择用于为该设备制造商的所有设备生成一个或多个触觉效果的缺省触觉主题。
图5说明了根据本发明一种实施例的实验室环境的框图。图5包括用户510,其与图4的用户410相同,因此在这里不再进一步描述。图5还包括设备520,其中设备520包括高保真触觉效果发生器521、高保真传感器522和自动触觉效果调节模块523。自动触觉效果调节模块523与图4的自动触觉效果调节模块423相同,并且在这里也不再进一步描述。
高保真触觉效果发生器521包括可以基于一个或多个触觉参数生成触觉效果的硬件组件和/或软件组件。在这种实施例中,高保真触觉效果发生器521的硬件组件是高保真致动器。根据该实施例,高保真致动器是配置为只生成具有预定义分辨率或更高的触觉效果的致动器。在备选实施例中,设备520可以包括未在图5中说明的高保真触觉效果发生器。在其它备选实施例中,高保真触觉效果发生器521可以被触觉效果发生器(诸如图4的触觉效果发生器421)代替。
高保真传感器522配置为在用户体验触觉效果时测量用户的情感状态。根据该实施例,高保真传感器522只利用预定义的分辨率或者更高的分辨率测量情感状态。在某些实施例中,高保真传感器522是高保真情感传感器522。在备选实施例中,设备520可以包括未在图5中说明的附加高保真传感器。在这些实施例的一些中,至少一个附加传感器可以是可以在用户体验触觉效果时测量用户的情境的高保真传感器。在这些实施例中,该至少一个附加高保真传感器可以是高保真情境传感器。根据该实施例中,保真情境传感器只利用预定义的分辨率或者更高的分辨率测量情境。
根据该实施例,设备520利用高保真触觉效果发生器521生成触觉效果,并且设备520利用高保真传感器522在用户510体验触觉效果时测量用户510的情感状态。基于测出的用户510的情感状态,设备520利用自动触觉效果调节模块523调节一个或多个触觉参数。设备520还利用高保真触觉效果发生器521基于所述一个或多个触觉参数生成新触觉效果。
在一种实施例中,设备520还可以利用高保真传感器522在用户510体验新触觉效果时测量用户的情感状态。基于新测出的用户510的情感状态,设备520还可以利用自动触觉效果调节模块523调节所述一个或多个触觉参数,并且还可以利用高保真触觉效果发生器521基于所述一个或多个触觉参数生成新触觉效果。在这种实施例中,设备520可以持续地执行以上提到的功能性,直到新触觉效果产生与预定义的情感状态相似的用户510的新情感状态。
因而,在一个例子中,触觉效果可以在实验环境中而不是包括部署的设备的环境中被自动调节。在这个例子中,用户可以使用利用高保真触觉发生器生成一组一个或多个触觉效果以及利用一个或多个高保真传感器,诸如脑成像设备,测量情感状态的设备。一组一个或多个触觉效果可以被迭代尝试,每次迭代都由测出的情感状态指引。这在市场营销场景下会特别有价值。例如,作为在线广告的触觉效果的结果产生的情感状态可以被调节,以产生预定义的情感状态。
图6说明了根据本发明一种实施例的包括触觉效果的实时持续调节的个别部署环境的框图。图6包括用户610,这与图4的用户410相同,因此在这里不再进一步描述。图6还包括设备620,该设备620包括触觉效果发生器621、传感器622和自动触觉效果调节模块623。触觉效果发生器621与图4的触觉效果发生器421相同,传感器622与图4的传感器422相同,而自动触觉效果调节模块623与自动触觉效果调节模块423相同。因而,触觉效果发生器621、传感器622和自动触觉效果调节模块623在这里不再进一步描述。
根据该实施例,设备620利用触觉效果发生器621生成触觉效果,而且设备620在用户610体验触觉效果的时候利用传感器622测量用户610的情感状态。基于测出的用户610的情感状态,设备620利用自动触觉效果调节模块623调节一个或多个触觉参数。设备620还利用触觉效果发生器621基于所述一个或多个触觉参数生成新触觉效果。在这种实施例中,设备620实时地执行以上提供的功能性。如本领域普通技术人员理解的,“实时”意味着(例如,在五毫秒内)立即或者基本上立即发生。
在一种实施例中,设备620还可以在用户610体验新触觉效果时利用传感器622测量用户610的新情感状态。基于新测出的用户610的情感状态,设备620还可以利用自动触觉效果调节模块623调节一个或多个触觉参数,并且还可以利用触觉效果发生器621基于所述一个或多个触觉参数生成新触觉效果。在这种实施例中,设备620可以持续地,并且实时地,执行以上提供的功能性,直到新触觉效果产生与预定义的情感状态相似的用户610的新情感状态。
因而,在一个例子中,触觉效果可以被持续地实时调节,直到产生期望的情感状态或者期望的情感状态变化,如由一个或多个传感器测出的。例如,通知触觉效果可以逐步增加强度,直到一个或多个情感传感器指示用户已经注意到该触觉效果。类似地,基于测出的用户的情感状态,持续触觉效果的强度可以减小,直到确定触觉效果不再让用户觉得不愉快。
图7说明了根据本发明一种实施例的自动触觉效果调节模块(诸如图1的自动触觉效果调节模块16)的功能性的流程图。在一种实施例中,图7的功能性是由存储在存储器或者其它计算机可读或有形介质中并且被处理器执行的软件实现的。在其它实施例中,功能性可以由硬件(例如,通过使用专用集成电路(“ASCI”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)等)或者硬件与软件的任意组合执行。此外,在备选实施例中,功能性可以由硬件利用模拟组件执行。
流程开始并前进到710。在710,生成基于一个或多个触觉参数的触觉效果。在某些实施例中,所述一个或多个触觉参数包括以下至少一个:振幅触觉参数、频率触觉参数、持续时间触觉参数、包络触觉参数、密度触觉参数、量级触觉参数、强度触觉参数或者致动器触觉参数。在某些实施例中,触觉效果是如下生成的。触觉信号是基于一个或多个触觉参数生成的。触觉信号随后发送到致动器,以生成触觉效果。流程前进到720。
在720,测量体验触觉效果的用户的情感状态。在某些实施例中,用户的情感状态可以包括效价值和激发值。效价值可以包括与触觉效果关联的正价或负价。激发值可以指示触觉效果的意识状态。在某些实施例中,情感状态是如下测量的。测量由配置为检测情感数据的情感传感器产生的输入。情感数据可以包括用户的一个或多个特性。随后对输入进行分析,以确定用户的情感状态。流程前进到730。
在730,测量体验触觉效果的用户的情境。在某些实施例中,用户的情境可以代表在用户体验触觉效果时用户执行的动作(诸如与设备的交互)。在某些实施例中,情境是如下测量的。可以测量由配置为检测情境数据的情境传感器产生的输入。情境数据可以包括设备的一个或多个物理属性、识别设备功能性的数据、识别与设备的交互的数据,或者和与设备的交互关联的一个或多个特性,诸如压力、加速度、声音或者通过与设备交互产生的数据。随后对输入进行分析,以确定用户的情境。在某些实施例中,730可以被略去。流程前进到740。
在740,基于测出的用户的情感状态调节一个或多个触觉参数中的至少一个触觉参数。在某些实施例中,至少一个触觉参数是如下调节的。识别测出的情感状态与预定义的情感状态之间的差异。随后调节这至少一个触觉参数的至少一个值,以减小识别出的差异。在其中用户的情境也被测量的某些实施例中,所述至少一个触觉参数可以还基于所测出的用户的情境来调节。流程前进到750。
在750,基于一个或多个触觉参数生成新触觉效果,其中至少一个调节过的触觉参数使得新触觉效果与所述触觉效果不同。新触觉效果可以产生新的用户的情感状态,其中新情感状态与预定义的情感状态更相似。在某些实施例中,新触觉效果是如下生成的。新触觉信号是基于包括至少一个调节过的触觉参数的一个或多个触觉参数生成的。新触觉信号随后发送到致动器,以生成新触觉效果。然后,流程结束。
在某些实施例中,触觉效果在710的生成、情感状态在720的测量、情境在730的测量以及新触觉效果在750的生成中每个都是在一个设备执行的。在这些实施例中,至少一个触觉参数在740的调节是在服务器执行的。而且,在这些实施例中,设备把测出的情感状态与测出的情境发送到服务器,并且服务器把一个或多个触觉参数发送到设备。在这些实施例的一些中,服务器自动地为多个设备调节触觉效果。
在备选实施例中,触觉效果在710的生成、情感状态在720的测量、情境在730的测量、至少一个触觉参数在740的调节以及新触觉效果在750的生成中每个都是在一个设备执行的。在这些实施例的一些中,触觉效果在710的生成、情感状态在720的测量、情境在730的测量、至少一个触觉参数在740的调节以及新触觉效果在750的生成持续地执行,直到新触觉效果产生与预定义情感状态相似的用户的新情感状态。另外,在这些实施例的一些中,触觉效果在710的生成、情感状态在720的测量、情境在730的测量、至少一个触觉参数在740的调节以及新触觉效果在750的生成是实时地执行的。另外,在这些实施例的一些中,触觉效果在710的生成是由高保真致动器执行的。最后,在这些实施例的一些中,情感状态在720的测量是由高保真情感传感器执行的。
因而,根据一种实施例,提供了可以生成触觉效果、测量体验触觉效果的用户的情感状态并且基于情感状态自动调节触觉效果的系统。该系统可以可选地测量体验触觉效果的用户的情境,并且还基于该情境自动调节触觉效果。通过闭合生成触觉效果和测量体验触觉效果的用户的情感状态(及可选地体验触觉效果的用户的情境)之间的环,该系统可以减少调节触觉效果所需的时间,并且增加可用于调节触觉效果的数据量。该系统还可以随时间增加用于测量用户情感状态的测试条件的真实性与多样化,并且可以允许触觉效果的个性化以及触觉效果的调节。
贯穿本说明书描述的本发明的特征、结构或特性可以在一种或多种实施例中以任何合适的方式组合。例如,贯穿本说明书,“一种实施例”、“一些实施例”、“某个实施例”、“某些实施例”或者其它类似语言的使用指关联该实施例所述的特定特征、结构、特性可以包括在本发明的至少一种实施例中。因而,贯穿本说明书,短语“一种实施例”、“一些实施例”、“某个实施例”、“某些实施例”或者其它类似语言的出现不一定全都指相同的实施例组,而且所描述的特征、结构或特性可以在一种或多种实施例中以任何合适的方式组合。
本领域普通技术人员将容易地理解,如上讨论的本发明可以利用不同次序的步骤和/或利用配置中与所公开那些不同的元素来实践。因此,虽然本发明已经对这些优选实施例进行了描述,但是对本领域技术人员来说很显然,某些修改、变化和备选构造将是显而易见的,而仍然属于本发明主旨与范围。因此,为了确定本发明的界限与范围,应当参考所附权利要求。

Claims (15)

1.一种用于自动调节触觉效果的方法,该方法包括:
基于一个或多个触觉参数生成触觉效果;
测量体验该触觉效果的用户的情感状态;
基于测出的用户的情感状态调节所述一个或多个触觉参数中的至少一个触觉参数;以及
基于所述一个或多个触觉参数生成新触觉效果,其中至少一个调节过的触觉参数使新触觉效果与所述触觉效果不同。
2.如权利要求1所述的方法,还包括测量体验触觉效果的用户的情境;
其中调节所述至少一个触觉参数进一步基于测出的用户的情境。
3.如权利要求1所述的方法,其中测量情感状态进一步包括:
测量由配置为检测情感数据的情感传感器产生的输入,其中情感数据包括用户的一个或多个特性;以及
分析该输入,以确定用户的情感状态;
其中情感状态包括效价值和激发值。
4.如权利要求1所述的方法,其中调节所述至少一个触觉参数进一步包括:
识别测出的情感状态与预定义的情感状态之间的差异;以及
调节所述至少一个触觉参数的至少一个值,以减小识别出的差异;
其中新触觉效果产生用户的新情感状态;以及
其中新情感状态与预定义的情感状态更相似。
5.如权利要求1所述的方法,其中所述一个或多个触觉参数包括以下至少一个:振幅触觉参数、频率触觉参数、持续时间触觉参数、包络触觉参数、密度触觉参数、量级触觉参数、强度触觉参数或者致动器触觉参数。
6.如权利要求1所述的方法,
其中调节所述至少一个触觉参数是在服务器执行的;
其中生成触觉效果、测量情感状态及生成新触觉效果是在一个设备执行的;
其中该设备把测出的情感状态发送到服务器;
其中服务器把所述一个或多个触觉参数发送到该设备;以及
其中服务器为多个设备自动地调节触觉效果。
7.如权利要求1所述的方法,其中生成触觉效果、测量情感状态、调节所述至少一个触觉参数及生成新触觉效果是在一个设备执行的。
8.如权利要求7所述的方法,其中测量情感状态、调节所述至少一个触觉参数以及生成新触觉效果持续地执行,直到新触觉效果产生与预定义的情感状态相似的用户的新情感状态;以及
其中测量情感状态、调节所述至少一个触觉参数以及生成新触觉效果是实时地执行的。
9.如权利要求7所述的方法,
其中测量情感状态进一步包括测量由检测用户的一个或多个特性的高保真情感传感器产生的输入;以及
其中生成触觉效果进一步包括把所生成的触觉信号发送到高保真致动器,以生成触觉效果。
10.如权利要求1所述的方法,其中生成触觉效果进一步包括:
基于所述一个或多个触觉参数生成触觉信号;以及
把该触觉信号发送到致动器,以生成触觉效果;以及
其中生成新触觉效果进一步包括:
基于包括至少一个调节过的触觉参数的所述一个或多个触觉参数生成新触觉信号;以及
把新触觉信号发送到致动器,以生成新触觉效果。
11.一种用于自动调节触觉效果的系统,该系统包括:
存储器,配置为存储自动触觉效果调节模块;以及
处理器,配置为执行存储在存储器上的自动触觉效果调节模块;
其中自动触觉效果调节模块配置为基于一个或多个触觉参数生成触觉效果;
其中自动触觉效果调节模块进一步配置为测量体验该触觉效果的用户的情感状态;
其中自动触觉效果调节模块进一步配置为基于测出的用户的情感状态调节所述一个或多个触觉参数中的至少一个触觉参数;
其中自动触觉效果调节模块进一步配置为基于所述一个或多个触觉参数生成新触觉效果;以及
其中至少一个调节过的触觉参数使新触觉效果与所述触觉效果不同。
12.如权利要求11所述的系统,
其中自动触觉效果调节模块进一步配置为测量体验触觉效果的用户的情境;以及
其中自动触觉效果调节模块进一步配置为基于测出的用户的情境调节所述至少一个触觉参数。
13.如权利要求11所述的系统,
其中自动触觉效果调节模块进一步配置为测量由配置为检测情感数据的情感传感器产生的输入,其中情感数据包括用户的一个或多个特性;以及
其中自动触觉效果调节模块进一步配置为分析该输入,以确定用户的情感状态。
14.如权利要求11所述的系统,
其中自动触觉效果调节模块进一步配置为识别测出的情感状态与预定义的情感状态之间的差异;以及
其中自动触觉效果调节模块进一步配置为基于识别出的差异调节所述至少一个触觉参数的值。
15.一种用于自动调节触觉效果的设备,该设备包括:
基于一个或多个触觉参数生成触觉效果的装置;
测量体验该触觉效果的用户的情感状态的装置;
基于测出的用户的情感状态调节所述一个或多个触觉参数中的至少一个触觉参数的装置;以及
基于所述一个或多个触觉参数生成新触觉效果的装置,其中至少一个调节过的触觉参数使新触觉效果与所述触觉效果不同。
CN201410086794.8A 2013-03-11 2014-03-11 自动触觉效果调节系统 Expired - Fee Related CN104049733B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810254920.4A CN108388349A (zh) 2013-03-11 2014-03-11 自动触觉效果调节系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/792,754 2013-03-11
US13/792,754 US9202352B2 (en) 2013-03-11 2013-03-11 Automatic haptic effect adjustment system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201810254920.4A Division CN108388349A (zh) 2013-03-11 2014-03-11 自动触觉效果调节系统

Publications (2)

Publication Number Publication Date
CN104049733A true CN104049733A (zh) 2014-09-17
CN104049733B CN104049733B (zh) 2018-04-20

Family

ID=50230903

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810254920.4A Pending CN108388349A (zh) 2013-03-11 2014-03-11 自动触觉效果调节系统
CN201410086794.8A Expired - Fee Related CN104049733B (zh) 2013-03-11 2014-03-11 自动触觉效果调节系统

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201810254920.4A Pending CN108388349A (zh) 2013-03-11 2014-03-11 自动触觉效果调节系统

Country Status (5)

Country Link
US (3) US9202352B2 (zh)
EP (2) EP3614237A1 (zh)
JP (3) JP6328954B2 (zh)
KR (1) KR20140111959A (zh)
CN (2) CN108388349A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107807733A (zh) * 2016-09-09 2018-03-16 意美森公司 用于柔性电子设备的经补偿触觉呈现

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9274603B2 (en) * 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US9691238B2 (en) * 2015-07-29 2017-06-27 Immersion Corporation Crowd-based haptics
US9990040B2 (en) 2015-09-25 2018-06-05 Immersion Corporation Haptic CAPTCHA
DE102015016152A1 (de) * 2015-12-12 2017-06-14 Daimler Ag Haptische Rückmeldung bei einer Nutzerschnittstelle
US10200332B2 (en) * 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
JP6952762B2 (ja) 2016-04-01 2021-10-20 ユニバーシティ オブ ピッツバーグ −オブ ザ コモンウェルス システム オブ ハイヤー エデュケイション 調節デバイス及び記憶媒体
US9886829B2 (en) 2016-06-20 2018-02-06 Immersion Corporation Systems and methods for closed-loop control for haptic feedback
US9756604B1 (en) * 2016-07-21 2017-09-05 Immersion Corporation Haptic functionality for network connected devices
US10078370B2 (en) * 2016-11-23 2018-09-18 Immersion Corporation Devices and methods for modifying haptic effects
US10696249B2 (en) * 2017-02-10 2020-06-30 Koninklijke Philips N.V. Automatic car setting adjustments by identifying driver with health watch wearable or in-car sensors
JP7227955B2 (ja) * 2017-07-31 2023-02-22 ケバ インダストリアル オートメーション ゲゼルシャフト ミット ベシュレンクテル ハフツング 工業用操作パネル
WO2019072389A1 (en) * 2017-10-12 2019-04-18 Telefonaktiebolaget Lm Ericsson (Publ) EXTENDING A HAPTICAL SIGNAL
WO2019144542A1 (en) * 2018-01-26 2019-08-01 Institute Of Software Chinese Academy Of Sciences Affective interaction systems, devices, and methods based on affective computing user interface
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
WO2020008862A1 (ja) * 2018-07-02 2020-01-09 ソニー株式会社 情報処理装置、情報処理方法及び情報処理装置可読記録媒体
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
CN117065177A (zh) 2019-01-04 2023-11-17 阿波罗神经科学公司 用于经皮振动的造波的系统和方法
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
GB2584167B (en) 2019-05-24 2023-06-28 Sensae Aps User interface, user interface system and method
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
GB2604215B (en) 2019-06-21 2024-01-31 Cirrus Logic Int Semiconductor Ltd A method and apparatus for configuring a plurality of virtual buttons on a device
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
JPWO2022196051A1 (zh) * 2021-03-18 2022-09-22
TW202248394A (zh) 2021-05-31 2022-12-16 日商陶氏東麗股份有限公司 顯示裝置、尤其是觸覺顯示裝置及其設計方法
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
CN114035686B (zh) * 2021-11-10 2024-04-16 浙江大学 融合触觉的多模态微动效广告情境构建方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101711121A (zh) * 2007-06-21 2010-05-19 英默森公司 触觉健康反馈监测
US20110009193A1 (en) * 2009-07-10 2011-01-13 Valve Corporation Player biofeedback for dynamically controlling a video game state
CN102216876A (zh) * 2008-11-19 2011-10-12 英默森公司 用于生成基于心情的触觉反馈的方法和装置
US20110300847A1 (en) * 2010-06-02 2011-12-08 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US20120124122A1 (en) * 2010-11-17 2012-05-17 El Kaliouby Rana Sharing affect across a social network

Family Cites Families (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
WO2003073175A2 (en) * 2002-02-26 2003-09-04 Zybernetix, Inc. Method and system for an intelligent supervisory control system
JP4111278B2 (ja) * 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
US20070063849A1 (en) * 2005-09-02 2007-03-22 Francesca Rosella Wearable haptic telecommunication device and system
EP1924941A2 (en) * 2005-09-16 2008-05-28 Imotions-Emotion Technology APS System and method for determining human emotion by analyzing eye properties
WO2007072295A2 (en) * 2005-12-22 2007-06-28 Koninklijke Philips Electronics N.V. Valentine pillow
JP2009530071A (ja) * 2006-03-13 2009-08-27 アイモーションズ−エモーション テクノロジー エー/エス 視覚的注意および感情反応の検出表示システム
US9370704B2 (en) 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
EP2121094B1 (en) * 2007-03-19 2018-04-25 Maquet Critical Care AB Device for manual input and haptic output of patient critical operating parameters in a breathing apparatus
US8392253B2 (en) * 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US8683378B2 (en) * 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US20090088659A1 (en) * 2007-09-27 2009-04-02 Immersion Corporation Biological Sensing With Haptic Feedback
US9418368B2 (en) * 2007-12-20 2016-08-16 Invention Science Fund I, Llc Methods and systems for determining interest in a cohort-linked avatar
US8123660B2 (en) * 2007-12-28 2012-02-28 Immersion Corporation Method and apparatus for providing communications with haptic cues
GB2468811B (en) 2008-01-17 2012-12-19 Articulate Technologies Inc Methods and devices for intraoral tactile feedback
CN102099766B (zh) * 2008-07-15 2015-01-14 意美森公司 用于在无源和有源模式之间变换触觉反馈功能的系统和方法
US9612654B2 (en) * 2008-10-20 2017-04-04 Koninklijke Philips N.V. Controlling an influence on a user in a rendering environment
JP5011266B2 (ja) 2008-11-19 2012-08-29 パナソニック株式会社 快適性評価モデル作成装置、快適性評価装置および快適環境提供装置
US9727139B2 (en) * 2008-12-12 2017-08-08 Immersion Corporation Method and apparatus for providing a haptic monitoring system using multiple sensors
US20100152620A1 (en) * 2008-12-12 2010-06-17 Immersion Corporation Method and Apparatus for Providing A Haptic Monitoring System Using Multiple Sensors
US20120123232A1 (en) * 2008-12-16 2012-05-17 Kayvan Najarian Method and apparatus for determining heart rate variability using wavelet transformation
US20100167820A1 (en) * 2008-12-29 2010-07-01 Houssam Barakat Human interface device
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
US8655437B2 (en) * 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
JP5859512B2 (ja) * 2010-03-16 2016-02-10 イマージョン コーポレーションImmersion Corporation 触覚情報プリビューのためのシステムと方法
WO2011127379A2 (en) 2010-04-09 2011-10-13 University Of Florida Research Foundation Inc. Interactive mixed reality system and uses thereof
US9335181B2 (en) * 2010-11-10 2016-05-10 Qualcomm Incorporated Haptic based personal navigation
KR101154306B1 (ko) * 2010-11-22 2012-06-13 기아자동차주식회사 로터리 스위치의 선택 메뉴별 햅틱 필링 차별화 방법
WO2012138761A1 (en) * 2011-04-04 2012-10-11 Sheepdog Sciences, Inc. Apparatus, system, and method for modulating consolidation of memory during sleep
US8573980B2 (en) * 2011-04-04 2013-11-05 Sheepdog Sciences, Inc. Apparatus, system, and method for modulating consolidation of memory during sleep
JP5828111B2 (ja) * 2011-07-28 2015-12-02 パナソニックIpマネジメント株式会社 心理状態評価装置、心理状態評価システムおよびプログラム
US9462262B1 (en) 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
US9762719B2 (en) * 2011-09-09 2017-09-12 Qualcomm Incorporated Systems and methods to enhance electronic communications with emotional context
US20130100008A1 (en) * 2011-10-19 2013-04-25 Stefan J. Marti Haptic Response Module
US9015084B2 (en) * 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
US10852093B2 (en) 2012-05-22 2020-12-01 Haptech, Inc. Methods and apparatuses for haptic systems
US8896524B2 (en) 2012-08-24 2014-11-25 Immersion Corporation Context-dependent haptic confirmation system
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
US10671165B2 (en) * 2012-09-25 2020-06-02 Nokia Technologies Oy Method and display device with tactile feedback
US9007198B2 (en) * 2012-11-02 2015-04-14 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive Actuator interface for active driver warning
FR2999741B1 (fr) 2012-12-17 2015-02-06 Centre Nat Rech Scient Systeme haptique pour faire interagir sans contact au moins une partie du corps d'un utilisateur avec un environnement virtuel
US20130123570A1 (en) * 2012-12-18 2013-05-16 Design Poetry Llc Haptic Communicator and Sensor Device
US10504339B2 (en) * 2013-02-21 2019-12-10 Immersion Corporation Mobile device with instinctive alerts
US9550105B2 (en) * 2013-03-07 2017-01-24 Immersion Corporation Pacing system with feedback based adjustments
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9811854B2 (en) 2013-07-02 2017-11-07 John A. Lucido 3-D immersion technology in a virtual store
DK3014394T3 (da) 2013-07-05 2022-07-11 Jacob A Rubin Helkrops-menneske-computer-grænseflade
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
EP3095023A1 (en) 2014-01-15 2016-11-23 Sony Corporation Haptic notification on wearables
US10251552B2 (en) * 2014-03-21 2019-04-09 University Of Massachusetts Medical School Methods and systems for reducing irritability in infants
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
EP3176676B1 (en) 2014-07-28 2020-01-08 CK Materials Lab Co., Ltd. Haptic information providing module
US9645646B2 (en) 2014-09-04 2017-05-09 Intel Corporation Three dimensional contextual feedback wristband device
US9173806B1 (en) * 2014-09-11 2015-11-03 Vibease Pte. Ltd. Systems and methods for a stimulation device
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US9799177B2 (en) 2014-09-23 2017-10-24 Intel Corporation Apparatus and methods for haptic covert communication
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US9870718B2 (en) 2014-12-11 2018-01-16 Toyota Motor Engineering & Manufacturing North America, Inc. Imaging devices including spacing members and imaging devices including tactile feedback devices
US20160170508A1 (en) 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US9922518B2 (en) 2014-12-11 2018-03-20 Elwha Llc Notification of incoming projectiles
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US9746921B2 (en) 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9843744B2 (en) 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US10322203B2 (en) 2015-06-26 2019-06-18 Intel Corporation Air flow generation for scent output
US9851799B2 (en) 2015-09-25 2017-12-26 Oculus Vr, Llc Haptic surface with damping apparatus
US9990040B2 (en) * 2015-09-25 2018-06-05 Immersion Corporation Haptic CAPTCHA
US20170103574A1 (en) 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
US20170131775A1 (en) 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
US10055948B2 (en) 2015-11-30 2018-08-21 Nike, Inc. Apparel with ultrasonic position sensing and haptic feedback for activities
US10310804B2 (en) 2015-12-11 2019-06-04 Facebook Technologies, Llc Modifying haptic feedback provided to a user to account for changes in user perception of haptic feedback
US10324530B2 (en) 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects
US10096163B2 (en) 2015-12-22 2018-10-09 Intel Corporation Haptic augmented reality to reduce noxious stimuli
US10065124B2 (en) 2016-01-15 2018-09-04 Disney Enterprises, Inc. Interacting with a remote participant through control of the voice of a toy device
US11351472B2 (en) 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US9846971B2 (en) 2016-01-19 2017-12-19 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of a hilt to simulate a bladed weapon
TWI688879B (zh) 2016-01-22 2020-03-21 宏達國際電子股份有限公司 虛擬實境環境中與真實世界互動的方法、系統與記錄媒體
US9933851B2 (en) 2016-02-22 2018-04-03 Disney Enterprises, Inc. Systems and methods for interacting with virtual objects using sensory feedback
US10555153B2 (en) 2016-03-01 2020-02-04 Disney Enterprises, Inc. Systems and methods for making non-smart objects smart for internet of things
US20170352185A1 (en) 2016-06-02 2017-12-07 Dennis Rommel BONILLA ACEVEDO System and method for facilitating a vehicle-related virtual reality and/or augmented reality presentation
US10155159B2 (en) 2016-08-18 2018-12-18 Activision Publishing, Inc. Tactile feedback systems and methods for augmented reality and virtual reality systems
US20180053351A1 (en) 2016-08-19 2018-02-22 Intel Corporation Augmented reality experience enhancement method and apparatus
US10372213B2 (en) 2016-09-20 2019-08-06 Facebook Technologies, Llc Composite ribbon in a virtual reality device
US10779583B2 (en) 2016-09-20 2020-09-22 Facebook Technologies, Llc Actuated tendon pairs in a virtual reality device
US10300372B2 (en) 2016-09-30 2019-05-28 Disney Enterprises, Inc. Virtual blaster
US10281982B2 (en) 2016-10-17 2019-05-07 Facebook Technologies, Llc Inflatable actuators in virtual reality
US10088902B2 (en) 2016-11-01 2018-10-02 Oculus Vr, Llc Fiducial rings in virtual reality
US20170102771A1 (en) 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101711121A (zh) * 2007-06-21 2010-05-19 英默森公司 触觉健康反馈监测
CN102216876A (zh) * 2008-11-19 2011-10-12 英默森公司 用于生成基于心情的触觉反馈的方法和装置
US20110009193A1 (en) * 2009-07-10 2011-01-13 Valve Corporation Player biofeedback for dynamically controlling a video game state
US20110300847A1 (en) * 2010-06-02 2011-12-08 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US20120124122A1 (en) * 2010-11-17 2012-05-17 El Kaliouby Rana Sharing affect across a social network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107807733A (zh) * 2016-09-09 2018-03-16 意美森公司 用于柔性电子设备的经补偿触觉呈现

Also Published As

Publication number Publication date
JP6328954B2 (ja) 2018-05-23
EP2778843A2 (en) 2014-09-17
US10228764B2 (en) 2019-03-12
EP2778843A3 (en) 2014-10-01
US20140253303A1 (en) 2014-09-11
US9202352B2 (en) 2015-12-01
US20160139670A1 (en) 2016-05-19
CN104049733B (zh) 2018-04-20
US20190171292A1 (en) 2019-06-06
JP6526284B2 (ja) 2019-06-05
EP3614237A1 (en) 2020-02-26
KR20140111959A (ko) 2014-09-22
CN108388349A (zh) 2018-08-10
JP2014174988A (ja) 2014-09-22
JP2018116744A (ja) 2018-07-26
JP2019125400A (ja) 2019-07-25
EP2778843B1 (en) 2019-09-18

Similar Documents

Publication Publication Date Title
CN104049733A (zh) 自动触觉效果调节系统
US10416774B2 (en) Automatic remote sensing and haptic conversion system
US10748391B2 (en) Haptic signal conversion system
US9454881B2 (en) Haptic warping system
CN106255942B (zh) 用于优化触觉反馈的系统和方法
EP3147753A1 (en) Haptic captcha
EP2937863B1 (en) Automatic tuning of haptic effects
US10146314B2 (en) Automated haptic setting generation
CN104182036A (zh) 基于媒体内容和一个或多个外部参数提供触觉反馈的方法及装置
JP6939797B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20170140089A (ko) 정전기 마찰에 대한 절연 무결성을 모니터링하기 위한 시스템 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: American California

Applicant after: IMMERSION CORPORATION

Address before: American California

Applicant before: Immersion Corp.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: IMMERSION CORP. TO: YIMEISEN COMPANY

C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180420

Termination date: 20210311