CN105278680A - 产生用于皮肤介导交互的触觉反馈的系统和方法 - Google Patents

产生用于皮肤介导交互的触觉反馈的系统和方法 Download PDF

Info

Publication number
CN105278680A
CN105278680A CN201510411540.3A CN201510411540A CN105278680A CN 105278680 A CN105278680 A CN 105278680A CN 201510411540 A CN201510411540 A CN 201510411540A CN 105278680 A CN105278680 A CN 105278680A
Authority
CN
China
Prior art keywords
output devices
skin
haptic
haptic effect
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510411540.3A
Other languages
English (en)
Inventor
V·利沃斯克
J·M·克鲁兹-埃尔南德斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN105278680A publication Critical patent/CN105278680A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/0404Electrodes for external use
    • A61N1/0408Use-related aspects
    • A61N1/0452Specially adapted for transcutaneous muscle stimulation [TMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本公开的一个方面涉及产生用于皮肤介导交互的触觉反馈的系统和方法。具体公开了一种系统,包括:传感器,配置为感测皮肤表面处的输入,处理器,配置为接收来自传感器的输出信号,并且基于输出信号产生触觉控制信号,和触觉输出设备,配置为基于触觉控制信号产生触觉效果。

Description

产生用于皮肤介导交互的触觉反馈的系统和方法
技术领域
本发明涉及产生用于皮肤介导交互的触觉反馈的系统和方法。
背景技术
已经提出了使用人的皮肤作为用于给电子设备提供输入的交互表面的几个研究项目。例如,如2010年4月10日-15日在乔治亚,亚特兰大举行的关于计算系统中的人为因素的计算机协会(“ACM”)会议(“CHI2010”)中报告的,介绍了一种被称为“皮肤输入(Skinput)”的技术,其使用不同的身体位置(例如,手指、手臂和前臂)作为交互表面。通过测量皮肤上由人的手指在皮肤表面上的移动所引起的振动的传播,检测身体位置的皮肤表面上的触摸输入。如2011年10月16日-19日在加利福尼亚,圣芭芭拉举行的关于用户界面软件和技术的ACM研讨会(“UIST’11”)上报告的,可以使用用户的手的手掌作为交互表面,并且使用深度照相机和图像处理技术检测用户手掌上的触摸输入。
如2013年10月8日-11日在英国圣安德鲁举行的关于用户界面软件和技术的计算机协会(“ACM”)研讨会(“UIST’13”)上报告的,一种被称为“指腹(FingerPad)”的技术使得可以使用用户食指的指腹的皮肤作为触摸表面,大拇指可以在该触摸表面上移动,并且通过捏的手势提供输入。以附接到食指和大拇指的磁跟踪器执行对输入的跟踪。如在UIST’13上报告的,一种被称为“SenSkin”的技术类似地使用用户前臂的皮肤表面作为交互表面,并且使用检测缠绕在前臂上的两个臂带附近的皮肤的变形的红外传感器执行对前臂皮肤上的触摸输入的跟踪。
发明内容
希望给这种皮肤介导交互添加触觉反馈,从而用户知道电子设备接收到给皮肤表面提供的输入。
根据本发明的一个方面,提供了一种系统,该系统包括传感器,配置为感测皮肤表面处的输入;处理器,配置为接收来自传感器的输出信号,并且基于输出信号产生触觉控制信号;和触觉输出设备,配置为基于触觉控制信号产生触觉效果。
在一个实施例中,所述传感器配置为感测系统的用户的皮肤表面处的输入,并且所述触觉输出设备配置为给系统的用户产生触觉效果。
在一个实施例中,所述触觉输出设备配置为被可佩带设备携带。在一个实施例中,所述可佩带设备包括戒指。在一个实施例中,所述可佩戴设备包括腕带或者手镯。
在一个实施例中,所述触觉输出设备包括激励器,并且所述触觉效果包括振动。
在一个实施例中,所述触觉输出设备包括连接到电源的至少一个电极。
在一个实施例中,所述触觉效果包括电触觉刺激。
在一个实施例中,所述触觉效果包括肌肉刺激。
在一个实施例中,所述触觉输出设备包括配置为伸展或者拉紧皮肤的机械装置。
在一个实施例中,所述触觉输出设备包括一对电磁体,配置为产生用户的两个交互皮肤表面的吸引或者排斥。
在一个实施例中,触觉输出设备配置为产生空气涡流。
根据本发明的一个方面,提供了一种方法,包括在用户的皮肤表面处感测来自用户的输入;基于感测的输入产生触觉控制信号;和基于所述触觉控制信号,利用触觉输出设备向用户产生触觉效果。
在一个实施例中,所述触觉效果包括振动。
在一个实施例中,所述触觉效果包括电触觉刺激。
在一个实施例中,所述触觉效果包括肌肉刺激。
在一个实施例中,所述触觉效果包括伸展或者拉紧皮肤。
在一个实施例中,所述触觉效果包括产生用户的两个交互皮肤表面的吸引或者排斥。
在一个实施例中,所述触觉效果包括超声或者空气涡流。
在一个实施例中,所述方法包括减小皮肤表面对触觉效果的敏感度。
在一个实施例中,通过在感测来自用户的输入之前,给皮肤表面应用表面麻醉剂,减小皮肤表面的敏感度。
在一个实施例中,通过降低皮肤表面的温度,减小皮肤表面的敏感度。
在一个实施例中,通过在感测来自用户的输入之前,给皮肤表面应用振动,减小皮肤表面的敏感度。
在参考附图考虑下面的描述和所附权利要求之后,将更加明了本发明的这些以及其它方面、特征和特性以及结构的相关元件的操作方法和功能和部件的组合与制造经济性,所有附图构成本说明书的一部分。然而,应当清楚地理解,附图仅仅出于图示和描述的目的,并且不旨在作为对本发明的限制的定义。如本说明书和权利要求中使用的,除非上下文另外清楚地规定,单数形式“一个”和“该”包括多个指示物。
附图说明
示出下面的附图中的组件,以便强调本公开的一般原理,并且不必然按比例绘制。在所有附图中,出于一致性和清楚起见,在必要时重复指示对应组件的参考字符。
图1示意地示出了根据本发明的实施例的系统;
图2示意地示出了图1的系统的处理器;
图3示意地示出了图1的系统的触觉输出设备的实施例;
图4示意地示出了图1的系统的触觉输出设备的实施例;
图5示意地示出了图1的系统的触觉输出设备的实施例;
图6示意地示出了图1的系统的触觉输出设备的实施例;
图7示意地示出了图1的系统的触觉输出设备的实施例;
图8示意地示出了图1的系统的触觉输出设备的实施例;
图9示意地示出了图1的系统的触觉输出设备的实施例;
图10示意地示出了图1的系统的触觉输出设备的实施例;
图11示意地示出了图1的系统的触觉输出设备的实施例;
图12示意地示出了图1的系统的触觉输出设备的实施例;
图13示意地示出了图1的系统的触觉输出设备的实施例;
图14示意地示出了图1的系统的触觉输出设备的实施例;
图15示意地示出了图1的系统的触觉输出设备的实施例;
图16示意地示出了图1的系统的触觉输出设备的实施例;和
图17是示出了根据本发明的实施例的方法的流程图。
具体实施方式
图1是根据本发明的实施例的系统100的示意图。系统100可以是电子设备的一部分,诸如台式计算机、膝上型计算机、电子工作簿、电子手持设备(诸如移动电话、智能电话、游戏设备、个人数字助理(“PDA”)、便携电子邮件设备、便携互联网接入装置、计算器等等),游戏控制器、或者可佩戴设备(例如,诸如头戴式显示器,戒指或者腕带)。如图所示,系统100包括通过总线140互连的处理器110,存储器设备120和输入/输出设备130。在一个实施例中,输入/输出设备130可以包括至少一个传感器150和至少一个触觉输出设备160和/或其它人机接口设备。
处理器110可以是用于管理或者控制系统100的操作与功能的通用或者专用处理器或者微控制器。例如,处理器110可以特别地被设计为控制到输入/输出设备130的驱动器的输出信号以便提供触觉效果的专用集成电路(“ASIC”)。处理器110可以配置为,基于预定因素,决定基于由处理器110接收或者确定的触觉信号产生什么触觉效果,以什么顺序产生触觉效果,以及触觉效果的大小、频率、持续时间和/或其它参数。处理器110还可以配置为提供可用于驱动触觉输出设备160以便提供特定触觉效果的流命令。在某些实施例中,处理设备110可以实际包括多个处理器,每一个处理器配置为执行电子设备100内的某些功能。下面更详细地描述处理器110。
存储器设备120可以包括一个或多个内部的固定存储单元、可移动存储单元、和/或远程可访问的存储单元。各种存储单元可以包括易失存储器和非易失存储器的任何组合。存储单元可以配置为存储信息、数据、指令、软件代码等等的任何组合。更具体地,存储单元可以包括触觉效果简档,用于将如何驱动输入/输出设备130的触觉输出设备160的指令,或者用于产生触觉效果的其它信息。
总线140可以配置为允许系统100的各种组件之间的信号通信,并且还允许通过例如网络从远程计算机或者服务器访问信息。网络可以包括例如互联网、内联网、PAN(个人区域网)、LAN(局域网)、WAN(广域网)、SAN(存储区域网)、MAN(城域网)、无线网络、蜂窝式通信网络、公用交换电话网和/或其它网络中的任何一个或多个。
传感器150可以被配置成任何适合的输入设备,如下面更详细地描述的,所述输入设备配置为感测例如用户的指头(即,手指)在用户的皮肤表面上的移动。传感器150可以通过电容、电阻、或者电感耦合感测人的皮肤的存在,但是并不限于这些技术。在一个实施例中,传感器150可以包括电磁传感器、电容传感器和/或生物声学传感器。在一个实施例中,传感器150可以包括深度照相机和用于对以深度照相机捕捉的图像进行图像处理的处理器。下面描述传感器150的其它实施例。
触觉输出设备160配置为向系统100的用户提供触觉反馈。具体地,如下面更详细描述的,触觉输出设备160可以向用户的指头提供触觉反馈,以便利用触觉效果作为输入的确认。当与系统100交互时,可以使用触觉效果增强用户体验。
可以用创建触觉的任何方法(诸如静电或者超声摩擦、变形、振动、动觉等等)创建触觉效果。在一个实施例中,触觉输出设备160可以包括非机械或者非振动设备,诸如使用静电摩擦(“ESF”)、超声表面摩擦(“USF”)的设备,或者以超声触觉换能器感应声辐射压力的设备,或者使用触觉衬底和柔软的或者可变形表面的设备,或者提供投射触觉输出(诸如使用空气喷射吹气)的设备等等。在一个实施例中,触觉输出设备160可以包括激励器,例如,电磁激励器(诸如以电机移动偏心质量的偏心旋转质量(“ERM”)、前后驱动附接到弹簧的质量的线性谐振激励器(“LRA”)),或者“智能材料”(诸如压电材料、电活性聚合物或者形状记忆合金),宏复合纤维激励器,静电激励器,电触觉激励器,和/或提供物理反馈(诸如触觉(例如,振动触觉)反馈)的另一类型的激励器。可以使用多个触觉输出设备160产生不同的触觉效果,所述触觉输出设备可被用于创建各种各样的效果,诸如纹理、按钮点击、状态改变等等。
图2更详细地示出了处理器110的实施例。处理器110可以配置为执行一个或多个计算机程序模块。一个或多个计算机程序模块可以包括传感器模块112、判断模块114、触觉输出设备控制模块116和/或其它模块中的一个或多个。处理器110还可以包括电子存储设备118,其可以与存储器设备120相同,或是存储器设备120之外的设备。处理器110可以配置为以软件,硬件,固件,软件、硬件和/或固件的某种组合,和/或用于配置处理器110上的处理能力的其它机制执行模块112、114和/或116。
应当理解,虽然模块112、114和116被在图2中示出为共同位于单个处理单元内,但在处理器110包括多个处理单元的实施例中,模块112、114和/或116中的一个或多个可被与其它模块远离地定位。由下面所述的不同模块112、114和/或116提供的功能的描述是出于说明性的目的,并且不旨在作为限制,因为模块112、114和/或116中的任何一个可以提供比描述的更多或更少的功能。例如,可以去除模块112、114和/或116中的一个或多个,并且可以由模块112、114和/或116中的其它模块提供其某些或所有功能。作为另一个例子,处理器110可以配置为执行一个或多个附加模块,该附加模块可以执行属于模块112、114和/或116中的一个的某种或者所有功能。
传感器模块112配置为接收来自传感器150的输入信号,当传感器150检测到系统的用户的皮肤表面处的用户输入时,产生该输入信号。在一个实施例中,所述皮肤表面可以是提供用户输入的相同用户。在一个实施例中,所述皮肤表面可以是系统的与提供用户输入的用户不同的用户。用户输入可以是单触摸(如同按压交互表面上的虚拟按钮)、多触摸和/或触摸手势(一个或多个)的形式。传感器模块112还配置为向判断模块114发送信号,以便进行其它处理。
判断模块114配置为确定用户想要什么类型的输入,系统100根据该输入将要采取什么类型的动作,和触觉输出设备160将要产生什么类型的触觉反馈。在一个实施例中,用户可以向交互皮肤表面提供特定手势,指出用户想要系统100执行特定的动作,诸如例如发起电话呼叫。判断模块114可被以预定手势的库编程,从而当用户触摸所述表面上的特定位置或者在该表面上提供手势时,判断模块114可以确定对应的输出。另外,判断模块114还可以向触觉输出设备控制模块116输出信号,从而可向用户提供适合的触觉效果。
触觉输出设备控制模块116配置为基于判断模块114产生的信号,确定将由触觉输出设备160产生的触觉效果。确定触觉效果可以包括确定一个或多个参数,包括给用户提供所希望的效果的触觉效果的幅值、频率、持续时间等等。
返回图1,在一个实施例中,传感器150可以配置为安装在用户的手指和大拇指上,从而用户手指的皮肤表面作为触控板,并且用户大拇指作为触摸输入笔。在LiweiChan等人的论文“FingerPad:PrivateandSubtleInteractionUsingFingertips”,UIST’13,2013年10月6日-9日,第255-260页中提供了传感器150的这种实施例的细节,通过引用将其完全结合在此。
在一个实施例中,传感器150可以配置为安装到用户的前臂并且包括彼此间隔开的两个臂带,从而可以使用臂带之间的皮肤表面作为触摸输入表面。在MasaOgata等人的论文“SenSkin:AdaptingSkinasaSoftInterface”,UIST’13,2013年10月8日-11日第539-543页中提供了传感器150的这种实施例的细节,通过引用将其完整结合在此。
在一个实施例中,传感器150可以配置为安装到用户的手臂上,诸如用户的前臂,或者安装到一个或多个手指上,并且包括附接到可佩戴设备,诸如臂带、腕带、或者戒指的多个振动传感器。在ChrisHarrison等人的论文“Skinput:AppropriatingtheBodyasanInputSurface”,CHI2010,2010年4月10日-15日,第453-462页中提供了传感器150的这种实施例的细节,通过引用将其完整结合在此。
在一个实施例中,传感器150可以包括照相机,诸如深度照相机,其配置为,例如当用户的手的手掌是交互表面时,捕捉手掌上的触摸输入。在SeanGustafson等人的论文“ImaginaryPhone:LearningImaginaryInterfacesbyTransferringSpatialMemoryfromaFamiliarDevice”,UIST’11,2011年10月16日-19日,第283-292页中提供了传感器150的这种实施例的细节,通过引用将其完整结合在此。
上面所述的传感器不旨在以任何方式作为限制。还可以在本发明的实施例中使用配置为感测用户在皮肤表面上的输入的其它类型的传感器。
图3示出了可佩戴设备300的实施例,可佩戴设备300包括可被用作图1的系统的触觉输出设备160的触觉输出设备310。在一个实施例中,可佩戴设备300可以为戒指的形式,戒指配置为被用户佩戴在与用作交互板的皮肤表面交互以便给系统100提供输入的手指上。当用户的手指触摸皮肤表面时,可佩戴设备300可以给用户提供触觉反馈或者触觉效果。可以由可佩戴设备300携带的触觉输出设备310产生振动或者挤压运动形式的触觉效果。在一个实施例中,触觉输出设备310可以包括激励器,或者是激励器的形式,所述激励器是诸如上面所述的激励器之一。
触觉反馈可被施加在用户的手指与所述皮肤表面的接触点附近。例如,如图3所示,可佩戴设备300可被佩戴在用户的交互手指的指甲附近或者之上,或者交互手指的另一部分上。在一个实施例中,可佩戴设备300可以是腕带或者手镯的形式,该腕带或者手镯被佩戴在承载用作交互板的皮肤表面的手臂或者与交互手指相连的手臂的手腕上。所述腕带或者手镯可以配置为振动或者挤压该手腕,以便给用户提供触觉效果。
图4示出了可被用作图1的系统中的触觉输出设备160的触觉输出设备400。触觉输出设备400包括与用户的手指电连接的电源410。用作交互表面的皮肤表面420连接到地,用户在该交互表面上提供手势作为系统100的输入。当交互手指被电连接到电源410,并且用作交互表面的皮肤表面420被连接到地时,电流可以穿过皮肤,并且产生触感。
在一个实施例中,给交互指腹和所述皮肤表面施加不同的电压,从而可以在接触之后施加电触觉刺激。例如,可佩带贴片形式的第一电极420可被应用于用户的前臂,并且可佩带贴片形式的第二电极430可被应用于用户的指腹,从而两个电极420,430保持不同的电压。当用户的指腹接触用户的前臂时,电路闭合,从而电流流动并且刺激用户的皮肤内的机械性刺激感受器。在一个实施例中,可以通过仅仅给一个表面充电,而不将另一个表面接地产生电触觉刺激。
在本发明的实施例中,触觉输出设备160可以包括配置为电刺激肌肉(一个或多个)并且导致肌肉收缩的电极。例如,当指腹被用作触摸面时,可以刺激手指的肌肉,以便向着或者远离交互手指推动指腹。当前臂被用作触摸表面时,前臂中的肌肉收缩可以改变触摸表面的硬度或者导致触摸表面振动。
电极可被附接到身体的特定位置,以便刺激一个或多个肌肉并且导致它们收缩。可以使用肌肉的收缩提高交互表面的硬度。例如,当指腹被按压在前臂上时,可以使得前臂变硬,因此产生触觉反馈形式的触觉效果。还可以动态地改变硬度以便创建更复杂的效果,诸如模拟按钮的物理运动,或者创建类似于振动的效果。还可以随着位置改变硬度,以便指示虚拟控制器诸如按钮和滑块的存在,或者它们的状态(例如,开或关,灵敏或不灵敏)。
还可以使用由电极所引起的肌肉收缩来引起运动。例如,收缩可以引起用作交互表面的指腹弯曲,并且推靠在交互手指上。例如,一旦动作已被处理器记录,推靠着指腹的虚拟按钮可以使得手指推回,并且给连接到电极的电源施加触觉控制信号。
肌肉收缩还可以使得皮肤伸展,并且因此间接地改变交互表面的硬度。例如,拉动大拇指远离手可以引起手掌隆起或者大拇指和食指之间的织层(webbing)变硬。类似地,肌肉收缩可以引起交互表面上的皮肤被在一个方向上拉紧。例如,通过弯曲手腕,手腕的皮肤可被侧向拉紧。
用于通过电刺激引起肌肉的无意识收缩的技术在文献中是公知的,并且被一般地称为“电肌肉刺激”或者“功能性电刺激”。例如,通过引用将其完整结合在此的EmiTamaki,TakashiMiyaki和JunRekimoto的“PossessedHand:techniquesforcontrollinghumanhandsusingelectricalmusclesstimuli”,关于计算系统中的人为因素的SIGCHI会议(CHI'11)的会议论文集,ACM,美国纽约,2011,第543-552页,和通过引用将其完整结合在此的PedroLopes和PatrickBaudisch的“Muscle-propelledforcefeedback:bringingforcefeedbacktomobiledevices”,关于计算系统中的人为因素的SIGCHI会议(CHI'13)的会议论文集,ACM,美国纽约,2013,第2577-2580页,公开了使用肌肉刺激触发手和手指移动以便进行人机交互。这种技术通常涉及在身体的特定位置应用电极,从而当施加电流时,使得肌肉收缩。可以使用粘合剂将电极施加到皮肤上,并且可以使用导电凝胶改善与皮肤的接触。
图5示出了可被用作图1的系统100的触觉输出设备160的触觉输出设备500的实施例。触觉输出设备500包括第一电极510和第二电极520、以及连接到第一电极510和第二电极520的电源530。如图所示,第一电极510和第二电极520被附接到用户的前臂的皮肤表面。当用户在前臂上的虚拟按钮540的位置处轻拍时,如上所述,传感器150感测该输入,并且向处理器110发送输入信号。处理器110基于该输入确定将被产生的触觉效果,并且向电源530发送触觉控制信号,该触觉控制信号使得附接到皮肤上的两个电极510,520向前臂的肌肉发送电脉冲,使得肌肉变硬。收缩形式的触觉效果向用户提供处理器110接收到按钮按压输入的确认。
图6示出了可被用作图1的系统100的触觉输出设备160的触觉输出设备600的实施例。如图所示,触觉输出设备600包括连接到电源630的第一电极610和第二电极620。如图所示,第一电极610和第二电极620被靠近大拇指底部定位在用户的手上。传感器150可被配置为确定,例如,位于用户的大拇指处的两个虚拟按钮640、650中的哪一个被以用户相对手的食指按压。当虚拟按钮640、650中的一个被以用户的食指按压时,电极610、620使得电流以使得大拇指向内移动的方式通过手掌,因此向用户给出处理器110接收到输入的触觉确认反馈。
图7示出了可被用作图1的系统100的触觉输出设备160的触觉输出设备700的实施例。如图所示,触觉输出设备700包括连接到电源730的第一电极710和第二电极720。如图所示,第一电极710和第二电极720被定位在用户的手掌上。在这个实施例中,用户可以按压大拇指和食指之间的皮肤,以便例如激活用户的电话的功能。当用户按压该皮肤时,在电极710、720之间流动的电流可以刺激迫使用户的大拇指拉离手的肌肉,因此使得用户的大拇指和食指之间的皮肤的织层伸展,以便确认用户的输入。
图8示出了可被用作图1的系统100的触觉输出设备160的触觉输出设备800的实施例。如图所示,触觉输出设备800包括连接到电源830的第一电极810和第二电极820。如图所示,第一电极810和第二电极820被定位在用户的手臂上。在这个实施例中,用户可以触摸前臂靠近手腕的内侧皮肤。当用户按压该皮肤时,提供给电极810、820的电脉冲可以刺激使得手略微向后弯曲的肌肉。该运动可以向着手牵拉手腕的皮肤,以便给用户提供方向性线索。
如本领域的技术人员理解的,附图5-8提供了本发明的实施例的示意表示,并且示出的电极的位置可能不是在实现过程中使用的精确位置。以为了获得所希望的效果,凭借哪个肌肉要以电极刺激来确定电极的精确位置。
根据本发明的实施例,可以使用不同的机制伸展或者牵拉被用作触摸或者交互表面的皮肤,这可以改变所述表面的硬度,并且响应于与皮肤的交互产生触觉效果。例如,增加皮肤的硬度可以使得皮肤推靠交互手指。还可以在一个方向上牵拉皮肤以便创建可察觉的触觉反馈或者方向效果。例如,在一个实施例中,附接到前臂的皮带可被拉开以便伸展皮肤。这些实施例可以使用配置为使得皮肤和/或其它组织变形并且引起交互表面的改变的机械装置。
例如,如图9所示,触觉输出设备900包括可被例如以紧的带子附接到前臂的第一辊910和第二辊920,并且配置为在接收到来自处理器110的触觉控制信号时,抓住皮肤并且在相反的方向上在皮肤上牵拉。辊910、920的这种运动可以使得辊910、920之间的一片皮肤更硬。图10示出了包括臂带1010的触觉输出设备1000的实施例,臂带1010配置为挤压前臂的侧部,从而使得前臂中的组织膨出或者变硬。图11示出了包括智能材料激励器(“SMAs”)1110的网格的触觉输出设备1100,智能材料激励器1110附接到前臂的皮肤上,并且用于在激励时伸展或者挤压前臂的皮肤。SMA1110的网格可以为触觉文身的形式,其被以适合的粘接剂施加到皮肤表面或以其它方式附接到皮肤表面。在附图9-11所示的实施例中,不仅可以在交互手指上,而且可以在用作交互表面的皮肤上察觉到由触觉输出设备900、1000、1100产生的刺激。在某些实施例中,用户对交互的关注可能足以给出反馈主要在交互手指上的错觉。
在本发明的实施例中,可以在用作触摸表面的皮肤上传播振动。振动激励器可以,例如,被直接附接到皮肤上,或甚至靠近具有更好传导属性的骨头。图12示出了包括配置为产生振动的第一激励器1210和配置为产生振动的第二激励器1220的触觉输出设备1200的实施例。每一个激励器1210、1220在交互表面周围附接到用户的手臂。当用户触摸激励器1210、1220之间的交互表面时,可以激活激励器1210、1220,以便在交互表面上的接触点向交互手指传播振动。这种振动理想地不应该被交互表面的皮肤感觉到。振动的属性可被设置为主要以交互手指而不是由交互表面察觉到振动。例如,可以调整振动的频率和幅值,从而使得由于触觉敏感性的差异,振动在前臂上几乎不可觉察,但是对于交互手指是明显的。然而,在大多数情况下,很可能在交互表面的皮肤和指腹上都感觉到振动,但是用户对交互的关注可以仍然使得感觉主要与交互手指相关联。
在本发明的实施例中,触觉输出设备160可以配置为产生磁力,当交互手指触摸触敏皮肤表面时,可以使用该磁力吸引或者排斥交互手指。例如,触觉输出设备160可以包括配置为产生吸引或者排斥的电磁体。在传感器150包括上面所述的指腹的实施例中,可以给附接到两个手指上的装置增加电磁体,从而使得交互表面可以吸引或者排斥交互手指。图13示出了包括配置为附接在用作交互表面的大拇指后面的第一电磁体1310、以及具有与第一电磁体1310相反的极性并且附接到相同或者另一只手的食指的第二电磁体1320的触觉输出设备1300的实施例。当食指接近大拇指时,电磁体1310、1320可被激活,从而使得用户感觉到吸引力。
如上所述,触敏皮肤表面可以感觉到旨在针对交互手指的触觉反馈。在本发明的实施例中,皮肤表面可被麻痹,从而触觉反馈被衰减,并且作为触控板的皮肤表面不会感觉到旨在针对交互手指的触觉反馈。例如,可以通过产生振动,前臂随着时间的过去适应该振动,并且不再能够感觉到该振动,来掩盖振动反馈。这可以通过在触摸输入之前刺激皮肤,并且产生对刺激的适应来实现。在一个实施例中,可以采用例如珀尔帖单体降低皮肤的温度,以便降低皮肤对触觉效果的敏感性。在一个实施例中,可以使用化学物品麻痹皮肤或者降低皮肤对触觉效果的敏感性,虽然用户可以感觉到皮肤的麻痹作为触觉效果。除非麻痹是预期的触觉效果,否则麻痹的感觉应当被维持,并且因此迅速地渐退为背景。
图14示出了一个实施例,其中腕带1400配置为在交互开始之前喷涂表面麻醉剂1410。然后皮肤被麻痹,并且不会感觉到旨在针对交互手指的触觉反馈。图15示出了包括激励器1510的腕带1500,激励器1510配置为产生振动,从而使得腕带在交互之前的一个时刻振动一个时间段,从而使得皮肤适应振动。
在本发明的实施例中,触觉输出设备160可被配置为向着交互手指投射超声或者空气涡流。在传感器150包括上面所述的SenSkin实施例中,至少一个臂带可被配置为在用于捕捉触摸输入的两个臂带之间投射空气涡流,因此引起手指上的触觉反馈。图16示出了包括腕带1610的触觉输出设备1600,腕带1610包括空气炮1620,其配置为产生可被远离腕带1610投射的空气涡流。当用户按下交互表面上的虚拟按钮时,例如,空气涡流可被投射向手指,以便产生确认反馈。在一个实施例中,触觉输出设备1600可以包括配置为产生超声波的超声波设备。
图17示出了根据本发明的实施例的方法1700。如图所示,方法1700在1710开始。在1720,上面所述的系统100的用户可以使用指尖轻敲,抚摸或以其它方式使得皮肤表面(例如诸如另一个指腹、前臂、或者手的手掌)变形,以便提供触摸输入,并且以传感器(诸如上面所述的一个传感器)捕捉或者感测该触摸输入。在一个实施例中,提供输入的用户带有变形的皮肤表面。在一个实施例中,系统的与提供输入的用户不同的第二用户带有变形的皮肤表面。传感器向处理器(诸如上面所述的处理器110)输出信号,以便进行处理。在1730,处理器确定触觉输出设备(诸如上面所述的一个触觉输出设备)应当输出什么触觉反馈,并且基于以传感器捕捉的感测到的触摸输入产生触觉控制信号。处理器向触觉输出设备输出触觉控制信号。在1740,触觉输出设备基于触觉控制信号产生触觉效果。在一个实施例中,产生的触觉效果被提供给承载针对输入变形的皮肤表面的用户。在一个实施例中,向提供输入的用户产生触觉效果。根据上面所述的至少一个实施例,可以向指尖或者另一个身体位置产生触觉效果。方法1700在1750结束。
此处描述的实施例代表若干可能的实现和例子,并且不旨在必然地将本公开限制为任何特定的实施例。虽然上面所述的实施例一般适用于使用,例如,用户前臂,大拇指,手指,或者手的手掌的皮肤作为交互表面,可以使用其它皮肤表面,诸如耳朵和耳垂(如通过引用将其完整结合在此的RomanLisserman等人的论文"EarPut:AugmentingBehind-the-EarDevicesforEar-basedInteraction",CHI2013ExtendedAbstracts,2013年4月27日-5月2日,法国巴黎,第pp.1323-1328页描述的),脸诸的一部分,如前额和颊等等(如通过引用将其完整结合在此的MarcosSerrano等人的论文“ExploringtheUseofHand-to-FaceInputforInteractingwithHead-WornDisplays”,CHI2014,2014年4月26日-5月1日,加拿大多伦多,第3181-3190页描述的)。
另外,如上所述,该系统可由单个用户或者多个用户使用。例如,在一个实施例中,上面所述的系统的实施例的用户可以使用他/她自己的皮肤表面提供输入,或者用户可以使用另一个人的皮肤表面提供输入。类似地,产生的触觉效果可被提供给提供输入的用户或者另一个人。例如,在一个实施例中,医生或者外科医生可以使用病人身体的皮肤表面提供输入,以便与计算机系统(例如,直接在病人身体上投射信息的计算机系统)交互。触觉效果可以被提供给医生和/或病人。
本领域的技术人员将理解,可以对这些实施例进行各种修改。任何这种修改旨在包括在本公开的精神和范围内,并且受下面的权利要求的保护。

Claims (23)

1.一种系统,包括:
传感器,被配置为感测皮肤表面处的输入;
处理器,被配置为接收来自所述传感器的输出信号,并且基于所述输出信号产生触觉控制信号;和
触觉输出设备,被配置为基于所述触觉控制信号产生触觉效果。
2.根据权利要求1所述的系统,其中所述传感器被配置为感测所述系统的用户的皮肤表面处的输入,并且其中所述触觉输出设备被配置为向所述系统的用户产生触觉效果。
3.根据权利要求1所述的系统,其中所述触觉输出设备被配置为由可佩戴设备携带。
4.根据权利要求3所述的系统,其中所述可佩戴设备包括戒指。
5.根据权利要求3所述的系统,其中所述可佩戴设备包括腕带或者手镯。
6.根据权利要求1所述的系统,其中所述触觉输出设备包括激励器,并且所述触觉效果包括振动。
7.根据权利要求1所述的系统,其中所述触觉输出设备包括连接到电源的至少一个电极。
8.根据权利要求7所述的系统,其中所述触觉效果包括电触觉刺激。
9.根据权利要求7所述的系统,其中所述触觉效果包括肌肉刺激。
10.根据权利要求1所述的系统,其中所述触觉输出设备包括被配置为伸展或者牵拉皮肤的机械装置。
11.根据权利要求1所述的系统,其中所述触觉输出设备包括被配置为引起两个交互皮肤表面的吸引或者排斥的一对电磁体。
12.根据权利要求1所述的系统,其中所述触觉输出设备被配置为产生超声波或者空气涡流。
13.一种方法,包括:
感测皮肤表面处的输入;
基于所感测到的输入产生触觉控制信号;和
基于所述触觉控制信号,利用触觉输出设备产生触觉效果。
14.根据权利要求13所述的方法,其中所述触觉效果包括振动。
15.根据权利要求13所述的方法,其中所述触觉效果包括电触觉刺激。
16.根据权利要求13所述的方法,其中所述触觉效果包括肌肉刺激。
17.根据权利要求13所述的方法,其中所述触觉效果包括伸展或者牵拉皮肤。
18.根据权利要求13所述的方法,其中所述触觉效果包括引起两个交互皮肤表面的吸引或者排斥。
19.根据权利要求13所述的方法,其中所述触觉效果包括超声波或者空气涡流。
20.根据权利要求13所述的方法,还包括减小皮肤表面对触觉效果的敏感度。
21.根据权利要求20所述的方法,其中通过在感测输入之前给皮肤表面施加表面麻醉剂,减小皮肤表面的敏感度。
22.根据权利要求20所述的方法,其中通过降低皮肤表面的温度减小皮肤表面的敏感度。
23.根据权利要求20所述的方法,其中通过在感测输入之前给皮肤表面施加振动,减小皮肤表面的敏感度。
CN201510411540.3A 2014-07-15 2015-07-14 产生用于皮肤介导交互的触觉反馈的系统和方法 Pending CN105278680A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/331,592 US9600083B2 (en) 2014-07-15 2014-07-15 Systems and methods to generate haptic feedback for skin-mediated interactions
US14/331,592 2014-07-15

Publications (1)

Publication Number Publication Date
CN105278680A true CN105278680A (zh) 2016-01-27

Family

ID=53682530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510411540.3A Pending CN105278680A (zh) 2014-07-15 2015-07-14 产生用于皮肤介导交互的触觉反馈的系统和方法

Country Status (5)

Country Link
US (3) US9600083B2 (zh)
EP (2) EP3413171A1 (zh)
JP (1) JP6712843B2 (zh)
KR (1) KR20160008978A (zh)
CN (1) CN105278680A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108780354A (zh) * 2016-06-23 2018-11-09 卡内基·梅隆大学 用于与可穿戴电子设备交互的方法和系统
CN109901706A (zh) * 2017-12-07 2019-06-18 意美森公司 用于无线地实现触觉效果的系统、设备和方法
CN113941091A (zh) * 2021-11-01 2022-01-18 叶王昊 一种人机交互的触觉恢复系统及其方法

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007111909A2 (en) * 2006-03-24 2007-10-04 Northwestern University Haptic device with indirect haptic feedback
GB2513884B (en) 2013-05-08 2015-06-17 Univ Bristol Method and apparatus for producing an acoustic field
US9612658B2 (en) 2014-01-07 2017-04-04 Ultrahaptics Ip Ltd Method and apparatus for providing tactile sensations
US10031582B2 (en) 2014-06-05 2018-07-24 Immersion Corporation Systems and methods for induced electrostatic haptic effects
US9600083B2 (en) * 2014-07-15 2017-03-21 Immersion Corporation Systems and methods to generate haptic feedback for skin-mediated interactions
GB2530036A (en) 2014-09-09 2016-03-16 Ultrahaptics Ltd Method and apparatus for modulating haptic feedback
US10635171B2 (en) * 2014-09-10 2020-04-28 Sony Corporation Detection device, detection method, control device, and control method
US20180101277A9 (en) * 2014-09-24 2018-04-12 Evan John Kaye Skin Touchpad
AU2016221500B2 (en) 2015-02-20 2021-06-10 Ultrahaptics Ip Limited Perceptions in a haptic system
EP3259654B1 (en) 2015-02-20 2021-12-29 Ultrahaptics Ip Ltd Algorithm improvements in a haptic system
JP6445921B2 (ja) * 2015-04-21 2018-12-26 任天堂株式会社 振動信号生成プログラム、振動信号生成システム、振動信号生成装置、振動信号生成方法、およびデータ出力プログラム
EP3112987A1 (en) * 2015-06-29 2017-01-04 Thomson Licensing Method and schemes for perceptually driven encoding of haptic effects
US10818162B2 (en) 2015-07-16 2020-10-27 Ultrahaptics Ip Ltd Calibration techniques in haptic systems
US9928696B2 (en) 2015-12-30 2018-03-27 Immersion Corporation Externally-activated haptic devices and systems
US11189140B2 (en) 2016-01-05 2021-11-30 Ultrahaptics Ip Ltd Calibration and detection techniques in haptic systems
US10556175B2 (en) * 2016-06-10 2020-02-11 Immersion Corporation Rendering a haptic effect with intra-device mixing
US10268275B2 (en) 2016-08-03 2019-04-23 Ultrahaptics Ip Ltd Three-dimensional perceptions in haptic systems
US10943578B2 (en) 2016-12-13 2021-03-09 Ultrahaptics Ip Ltd Driving techniques for phased-array systems
US11531395B2 (en) 2017-11-26 2022-12-20 Ultrahaptics Ip Ltd Haptic effects from focused acoustic fields
EP3729418A1 (en) 2017-12-22 2020-10-28 Ultrahaptics Ip Ltd Minimizing unwanted responses in haptic systems
EP3729417A1 (en) 2017-12-22 2020-10-28 Ultrahaptics Ip Ltd Tracking in haptic systems
EP3729234B1 (en) * 2017-12-22 2023-06-07 Ultrahaptics IP Ltd Human interactions with mid-air haptic systems
US10684690B2 (en) 2018-01-08 2020-06-16 Facebook Technologies, Llc Methods, devices, and systems for creating localized haptic stimulations on a user
CN111936959A (zh) 2018-03-23 2020-11-13 脸谱科技有限责任公司 用于在用户身上显示用户界面并检测触摸手势的方法、设备和系统
EP4414556A2 (en) 2018-05-02 2024-08-14 Ultrahaptics IP Limited Blocking plate structure for improved acoustic transmission efficiency
US10564841B2 (en) 2018-05-03 2020-02-18 International Business Machines Corporation Enhancing interaction with a wearable device
US11353967B2 (en) 2018-05-31 2022-06-07 Arkh Litho Holdings, LLC Interacting with a virtual environment using a pointing controller
US10831316B2 (en) * 2018-07-26 2020-11-10 At&T Intellectual Property I, L.P. Surface interface
US11098951B2 (en) 2018-09-09 2021-08-24 Ultrahaptics Ip Ltd Ultrasonic-assisted liquid manipulation
US11378997B2 (en) 2018-10-12 2022-07-05 Ultrahaptics Ip Ltd Variable phase and frequency pulse-width modulation technique
KR102188851B1 (ko) * 2018-10-31 2020-12-11 한국과학기술연구원 가상 객체와의 상호작용에 따른 손등 촉감 피드백 전달 장치
EP3906462A2 (en) 2019-01-04 2021-11-10 Ultrahaptics IP Ltd Mid-air haptic textures
EP3928187A1 (en) 2019-02-18 2021-12-29 Arkh Litho Holdings, LLC Interacting with a smart device using a pointing controller
US11842517B2 (en) 2019-04-12 2023-12-12 Ultrahaptics Ip Ltd Using iterative 3D-model fitting for domain adaptation of a hand-pose-estimation neural network
US11067687B2 (en) 2019-04-25 2021-07-20 Elwha, Llc Multipath acoustic holography and virtual haptics
US11009959B1 (en) * 2019-05-09 2021-05-18 Facebook Technologies, Llc Haptic vibrotactile actuators on inflatable bladders and related systems and methods
US10916107B1 (en) * 2019-07-29 2021-02-09 Elwha Llc Time-domain and frequency-domain enhancements for acoustic haptography
CA3152444A1 (en) 2019-09-24 2021-04-01 Landon NICKERSON Smart ring
US11374586B2 (en) 2019-10-13 2022-06-28 Ultraleap Limited Reducing harmonic distortion by dithering
AU2020368678A1 (en) 2019-10-13 2022-05-19 Ultraleap Limited Dynamic capping with virtual microphones
WO2021090028A1 (en) 2019-11-08 2021-05-14 Ultraleap Limited Tracking techniques in haptics systems
US11715453B2 (en) 2019-12-25 2023-08-01 Ultraleap Limited Acoustic transducer structures
US11755111B2 (en) 2020-03-16 2023-09-12 Arkh, Inc. Spatially aware computing hub and environment
FR3110006B1 (fr) * 2020-04-27 2024-03-29 Actronika Dispositif haptique auto-adhésif
FR3109649B1 (fr) * 2020-04-27 2024-08-16 Actronika Dispositif haptique auto-adhésif
US11816267B2 (en) 2020-06-23 2023-11-14 Ultraleap Limited Features of airborne ultrasonic fields
JP2022022568A (ja) * 2020-06-26 2022-02-07 沖電気工業株式会社 表示操作部および装置
US11886639B2 (en) 2020-09-17 2024-01-30 Ultraleap Limited Ultrahapticons
USD1009861S1 (en) 2020-09-25 2024-01-02 Arkh, Inc. Smart ring
KR102436938B1 (ko) * 2021-01-29 2022-08-29 한국과학기술연구원 사용자에게 3차원 햅틱 피드백을 제공하는 햅틱 시스템
US11763647B2 (en) 2021-08-16 2023-09-19 City University Of Hong Kong Multimode haptic patch and multimodal haptic feedback interface
DE102023001175A1 (de) 2023-03-27 2023-06-07 Mercedes-Benz Group AG Vorrichtung zur Erzeugung haptischer Rückmeldungen einer berührungssensitiven Benutzerschnittstelle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819463A (zh) * 2009-02-27 2010-09-01 株式会社电装 输入系统及用于该系统的可佩戴电气设备
EP2256592A1 (en) * 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
CN101964133A (zh) * 2010-09-21 2011-02-02 东南大学 触觉酒驾控制器
CN102665552A (zh) * 2009-11-09 2012-09-12 欧文蒙福德有限公司 皮肤刺激装置
CN102805900A (zh) * 2012-08-30 2012-12-05 上海交通大学 用于产生人工电触觉的电刺激系统
US20130016042A1 (en) * 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
CN102946942A (zh) * 2010-06-22 2013-02-27 皇家飞利浦电子股份有限公司 给送对于个体对象可定制的前庭刺激的系统和方法
US20130257757A1 (en) * 2012-04-02 2013-10-03 Jonghwan KIM Mobile terminal and control method based on body part signals

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4655673A (en) * 1983-05-10 1987-04-07 Graham S. Hawkes Apparatus providing tactile feedback to operators of remotely controlled manipulators
JP2010528267A (ja) * 2007-05-18 2010-08-19 ユニバーシティ オブ サザン カリフォルニア グリップ制御のための生体模倣触覚センサ
US20110155044A1 (en) * 2007-12-21 2011-06-30 David Burch Kinesthetically concordant optical, haptic image sensing device
KR101690469B1 (ko) * 2008-07-15 2016-12-27 임머숀 코퍼레이션 메시지 콘텐츠를 진동촉각 메시징을 위한 가상 물리적 속성들로 맵핑하기 위한 시스템 및 방법, 및 비일시적인 컴퓨터 판독가능 매체
US8780054B2 (en) * 2008-09-26 2014-07-15 Lg Electronics Inc. Mobile terminal and control method thereof
JP5847407B2 (ja) * 2010-03-16 2016-01-20 イマージョン コーポレーションImmersion Corporation プレタッチ及びトゥルータッチのためのシステム及び方法
FR2964761B1 (fr) * 2010-09-14 2012-08-31 Thales Sa Dispositif d'interaction haptique et procede de generation d'effets haptiques et sonores
US9733746B2 (en) * 2011-05-10 2017-08-15 Northwestern University Touch interface device having an electrostatic multitouch surface and method for controlling the device
CA2852707A1 (en) * 2011-10-19 2013-04-25 Sympara Medical Inc. Methods and devices for treating hypertension
US9827420B2 (en) * 2013-03-29 2017-11-28 Neurometrix, Inc. Transcutaneous electrical nerve stimulator with user gesture detector and electrode-skin contact detector, with transient motion detector for increasing the accuracy of the same
US8988373B2 (en) * 2012-04-09 2015-03-24 Sony Corporation Skin input via tactile tags
US8994672B2 (en) * 2012-04-09 2015-03-31 Sony Corporation Content transfer via skin input
US9317123B2 (en) * 2012-06-13 2016-04-19 University Of Utah Research Foundation Skin stretch feedback devices, systems, and methods
US9244549B2 (en) * 2012-06-28 2016-01-26 Samsung Electronics Co., Ltd. Apparatus and method for user input
KR101978206B1 (ko) * 2012-06-29 2019-05-14 엘지전자 주식회사 이동 단말기
EP2703947B1 (de) * 2012-08-27 2019-02-27 Siemens Aktiengesellschaft Bedieneinrichtung für ein technisches System
JP2014081716A (ja) * 2012-10-15 2014-05-08 Denso Corp フォースフィードバック装置およびユーザインターフェースシステム
US9030446B2 (en) * 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US9836150B2 (en) * 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
KR101933637B1 (ko) * 2012-12-20 2018-12-28 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
JP2016507851A (ja) * 2013-02-22 2016-03-10 サルミック ラブス インコーポレイテッド ジェスチャに基づいて制御するための筋活動センサ信号と慣性センサ信号とを結合する方法および装置
JP6644466B2 (ja) * 2013-12-31 2020-02-12 イマージョン コーポレーションImmersion Corporation 触覚通知を提供するシステム及び方法
US9600083B2 (en) * 2014-07-15 2017-03-21 Immersion Corporation Systems and methods to generate haptic feedback for skin-mediated interactions

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819463A (zh) * 2009-02-27 2010-09-01 株式会社电装 输入系统及用于该系统的可佩戴电气设备
EP2256592A1 (en) * 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
CN102665552A (zh) * 2009-11-09 2012-09-12 欧文蒙福德有限公司 皮肤刺激装置
CN102946942A (zh) * 2010-06-22 2013-02-27 皇家飞利浦电子股份有限公司 给送对于个体对象可定制的前庭刺激的系统和方法
CN101964133A (zh) * 2010-09-21 2011-02-02 东南大学 触觉酒驾控制器
US20130016042A1 (en) * 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
US20130257757A1 (en) * 2012-04-02 2013-10-03 Jonghwan KIM Mobile terminal and control method based on body part signals
CN102805900A (zh) * 2012-08-30 2012-12-05 上海交通大学 用于产生人工电触觉的电刺激系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108780354A (zh) * 2016-06-23 2018-11-09 卡内基·梅隆大学 用于与可穿戴电子设备交互的方法和系统
CN109901706A (zh) * 2017-12-07 2019-06-18 意美森公司 用于无线地实现触觉效果的系统、设备和方法
CN113941091A (zh) * 2021-11-01 2022-01-18 叶王昊 一种人机交互的触觉恢复系统及其方法

Also Published As

Publication number Publication date
EP3413171A1 (en) 2018-12-12
US20190172326A1 (en) 2019-06-06
US20160019762A1 (en) 2016-01-21
US10176679B2 (en) 2019-01-08
KR20160008978A (ko) 2016-01-25
US9600083B2 (en) 2017-03-21
JP6712843B2 (ja) 2020-06-24
EP2975495A1 (en) 2016-01-20
EP2975495B1 (en) 2018-09-12
US20170186286A1 (en) 2017-06-29
JP2016021234A (ja) 2016-02-04

Similar Documents

Publication Publication Date Title
CN105278680A (zh) 产生用于皮肤介导交互的触觉反馈的系统和方法
US10466791B2 (en) Interactivity model for shared feedback on mobile devices
CN104679233B (zh) 用于生成摩擦和振动触感效果的系统和方法
CN103257783B (zh) 用于在移动设备上共享反馈的交互模型
US8847741B2 (en) System and method for display of multiple data channels on a single haptic display
CN105045381B (zh) 带有柔性地衬托的触觉输出设备的可穿戴设备
US8624864B2 (en) System and method for display of multiple data channels on a single haptic display
US20120223880A1 (en) Method and apparatus for producing a dynamic haptic effect
CN105739682A (zh) 用于提供增强的触觉反馈的系统和方法
KR102549404B1 (ko) 손가락 누르기 입력 이벤트들 동안 손가락 감각들을 수정하기 위한 시스템들
JP2016219002A (ja) 予測される接触に基づく触覚効果
Li et al. Skin-Integrated Devices and Systems for Haptic Interactions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20210409