CN102262476B - 传输触觉信息的系统和方法 - Google Patents

传输触觉信息的系统和方法 Download PDF

Info

Publication number
CN102262476B
CN102262476B CN201110060433.2A CN201110060433A CN102262476B CN 102262476 B CN102262476 B CN 102262476B CN 201110060433 A CN201110060433 A CN 201110060433A CN 102262476 B CN102262476 B CN 102262476B
Authority
CN
China
Prior art keywords
touch
input
user
information
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110060433.2A
Other languages
English (en)
Other versions
CN102262476A (zh
Inventor
吉汉·卡若古
罗伯特·兰戈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avago Technologies General IP Singapore Pte Ltd
Original Assignee
Zyray Wireless Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zyray Wireless Inc filed Critical Zyray Wireless Inc
Publication of CN102262476A publication Critical patent/CN102262476A/zh
Application granted granted Critical
Publication of CN102262476B publication Critical patent/CN102262476B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

本发明涉及一种传输触觉信息的系统和方法,所述方法包括在所述第一系统中:从用户接收触摸输入;分析所述触摸输入以确定所述接收的触摸输入的输入触摸特征;至少部分基于所述确定的输入触摸特征确定触摸输出信息,所述触摸输出信息包括特征以使得所述第二系统提供表示所述接收的触摸输入的触摸输出;将所述确定的触摸输出信息传输至所述第二系统。

Description

传输触觉信息的系统和方法
技术领域
本发明涉及通信网络,更具体地说,涉及一种传输触觉信息的系统和方法。
背景技术
目前的系统一般设计用于音频和/或视频信息的传输。该系统一般无法充分地传输触觉信息(tactile)。通过将该系统与本申请后续将要结合附图介绍的发明进行比较,现有和传统方法的其它局限性和弊端对于本领域的普通技术人员来说是显而易见的。
发明内容
本发明的各方面提供了一种用于传输触觉信息的系统和方法。
依据本发明的一方面,提供了一种用于将触觉信息从第一系统传输至第二系统的方法,所述方法包括:
在所述第一系统中:
从用户接收触摸输入;
分析所述触摸输入以确定所述接收的触摸输入的输入触摸特征;
至少部分基于所述确定的输入触摸特征确定触摸输出信息,所述触摸输出信息包括特征以使得所述第二系统提供表示所述接收的触摸输入的触摸输出;
将所述确定的触摸输出信息传输至所述第二系统。
优选地,所述从用户接收触摸输入包括接收指示用户触摸显示屏上呈现的二维解剖模型的输入。
优选地,所述从用户接收触摸输入包括接收指示用户触摸通过三维显示系统呈现的三维解剖模型的输入。
优选地,所述从用户接收触摸输入包括接收指示用户触摸物理解剖模型的输入。
优选地,所述分析包括分析所述接收的触摸输入以确定表征所述接收的触摸输入的时间(timing)的时间信息。
优选地,所述分析包括分析所述接收的触摸输入以确定表征所述接收的触摸输入的位置的位置信息。
优选地,所述分析包括分析所述接收的触摸输入以确定表征所述接收的触摸输入的力的量值(magnitude)的量值信息。
优选地,所述确定触摸输出信息包括至少部分基于所述第二系统的触觉输出性能确定所述触摸输出信息。
优选地,所述方法另外包括确定音频信息以与所述确定的触摸输出信息进行通信。
优选地,所述将所述确定的触摸输出信息传输至所述第二系统,包括通过通信网络将所述确定的触摸输出信息传输至所述第二系统,所述通信网络包括用于所述传输的可变通信带宽。
优选地,所述方法另外包括在所述第二系统中:
从所述第一系统接收所述传输的触摸输出信息;和
处理从所述第一系统接收的所述触摸信息以确定提供触摸输出的方式。
优选地,所述处理从所述第一系统接收的所述触摸信息,包括识别一个或多个触觉输出设备以采用所述触觉输出设备提供所述触摸输出。
优选地,所述处理从所述第一系统接收的所述触摸信息,包括确定一个或多个输出信号以使得一个或多个触觉输出设备输出触摸输出,所述触摸输出表示通过从所述第一系统接收的所述触摸信息表征的触摸。
优选地,所述确定一个或多个输出信号包括至少部分基于触摸时间信息确定所述一个或多个输出信号的时间,所述触摸时间信息与从所述第一系统接收的所述触摸信息包含在一起。
优选地,所述方法另外包括在所述第二系统中将所述确定的一个或多个输出信号提供给一个或多个触觉输出设备。
依据一方面,一种用于将触觉信息从第一系统传输至第二系统的系统包括:
第一系统,所述第一系统包括至少一个模块用于至少:
从用户接收触摸输入;
分析所述触摸输入以确定所述接收的触摸输入的输入触摸特征;
至少部分基于所述确定的输入触摸特征确定触摸输出信息,所述触摸输出信息包括特征,所述特征使得所述第二系统提供表示所述接收的触摸输入的触摸输出;和
将所述确定的触摸输出信息传输至所述第二系统。
优选地,所述至少一个模块用于至少部分通过接收指示用户触摸显示屏上呈现的二维解剖模型的输入来从用户接收触摸输入。
优选地,所述至少一个模块用于至少部分通过接收指示用户触摸通过三维显示系统呈现的三维解剖模型的输入来从用户接收触摸输入。
优选地,所述至少一个模块用于至少部分通过接收指示用户触摸物理解剖模型的输入来从用户接收触摸输入。
优选地,所述至少一个模块用于至少部分通过分析所述接收的触摸输入以确定表征所述接收的触摸输入的时间的时间信息来分析所述接收的触摸输入以确定所述接收的触摸输入的输入触摸特征。
优选地,所述至少一个模块用于至少部分通过分析所述接收的触摸输入以确定表征所述接收的触摸输入的位置的位置信息来分析所述接收的触摸输入以确定所述接收的触摸输入的输入触摸特征。
优选地,所述至少一个模块用于至少部分通过分析所述接收的触摸输入以确定表征所述接收的触摸输入的力的量值的量值信息来分析所述接收的触摸输入以确定所述接收的触摸输入的输入触摸特征。
优选地,所述至少一个模块用于至少部分通过至少部分基于所述第二系统的触觉输出性能确定所述触摸输出信息来确定触摸输出信息。
优选地,所述至少一个模块用于确定音频信息以与所述确定的触摸输出信息进行通信。
优选地,所述至少一个模块用于至少部分通过经由通信网络将所述确定的触摸输出信息传输至所述第二系统以将所述确定的触摸输出信息传输至所述第二系统,其中所述通信网络包括用于所述传输的可变通信带宽。
优选地,所述第二系统包括:
至少一个第二模块,用于至少:
从所述第一系统接收所述传输的触摸输出信息;和
处理从所述第一系统接收的所述触摸信息以确定提供触摸输出的方式。
优选地,所述至少一个第二模块用于至少部分通过识别一个或多个触觉输出设备以采用所述触觉输出设备提供所述触摸输出来处理从所述第一系统接收的所述触摸信息以确定提供触摸输出的方式。
优选地,所述至少一个第二模块用于至少部分通过确定一个或多个输出信号以使得一个或多个触觉输出设备输出触摸输出,来处理从所述第一系统接收的所述触摸信息以确定提供触摸输出的方式,其中所述触摸输出表示通过从所述第一系统接收的所述触摸信息表征的触摸。
优选地,所述至少一个第二模块用于至少部分通过至少部分基于与从所述第一系统接收的所述触摸信息包含在一起的触摸时间信息确定所述一个或多个输出信号的时间来确定一个或多个输出信号以使得一个或多个触觉输出设备输出触摸输出,其中所述触摸输出表示通过从所述第一系统接收的所述触摸信息表征的触摸。
优选地,所述至少一个第二模块用于将所述确定的一个或多个输出信号提供给一个或多个触觉输出设备。
本发明的各种优点、各个方面和创新特征,以及其中所示例的实施例的细节,将在以下的描述和附图中进行详细介绍。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是依据本发明各方面的用于传输触觉信息的方法的非限制性示范流程图;
图2是依据本发明各方面的用于传输触觉信息的系统的非限制性示范框图;
图3是依据本发明各方面的用于传输触觉信息的系统的非限制性示范框图。
具体实施方式
以下讨论将涉及各种通信模块、组件或电路。该模块、组件或电路一般可包括硬件和/或硬件和软件的结合(例如,包括固件)。该模块还可例如包括含有指令(例如,软件指令)的计算机可读介质(例如非暂时性的介质),当处理器执行该指令时使得处理器执行本发明的各个功能方面。相应地,本发明各个方面的范围不应受到模块、组件或电路的特定硬件和/或软件实施的特征的限制,除非有明确声明。非限制性地例如,可通过一个或多个处理器(例如,微处理器、数字信号处理器、微控制器等)执行软件指令(例如,存储在挥发和/或非挥发存储器中)来实施本发明的各个方面。还例如,可通过专用集成电路(“ASIC”)和/或其它硬件组件实施本发明的各个方面。
另外,以下讨论将涉及各种系统模块(例如,计算系统和/或设备模块)。应注意的是,为了阐述清晰,以下将拆分成单个模块进行讨论。然而,在实际实施中,各个模块间的界限可以是模糊的。例如,此处所讨论的任意或全部功能模块可共享各个硬件和/或软件组件。例如,可通过共享的处理器执行软件指令来全部或部分实施此处所讨论的任意或全部功能模块。另外,各个软件模块之间可共享通过一个或多个处理器执行的各个软件子模块。相应地,本发明各方面的范围不应受到各个硬件和/或软件组件之间任意界限的限制。
以下讨论还可涉及通信网络及其各个方面。对于以下讨论,通信网络一般指的是通信基础设施,通过该通信基础设施,通信设备(例如,具有通信能力的计算机系统、具有通信能力的个人计算机、具有通信能力的膝上计算机、具有通信能力的手持计算机或个人数字助理、蜂窝电话、具有通信能力的游戏系统、一般便携式通信设备、网络服务器、网络防火墙、网络控制器等)可与其它通信系统进行通信。非限制性地例如,通信网络可包括有线和/或卫星电视通信网络、蜂窝通信网络、电信网络、一般数字通信网络(例如,互联网)、城域网(WMAN)、无线局域网(WLAN)、无线个域网(WPAN)、任意的家庭或建筑物通信网络等。特定的通信网络一般可例如具有相应的通信协议,依据该协议设备(例如,计算系统和/或设备)可与通信网络进行通信。除非如此声称,本发明各方面的范围不应受到通信网络的特定类型和/或通信协议的特征的限制。
本发明的各方面可例如在计算系统(例如,个人计算机系统、企业计算系统、医疗设施计算系统等)中包括从用户接收触摸输入,并分析所接收的触摸输入以确定接收的触摸输入的输入触摸特征。各个方面还可包括至少部分基于确定的输入触摸特征来确定触摸输出信息,所述触摸输出信息包括特征以使得第二系统提供触摸输出,所述触摸输出表示接收的触摸输入,并将确定的触摸输出信息传输至第二系统。该第二系统则可例如包括从第一系统接收触摸输出信息,并对接收的触摸信息进行处理以确定提供触摸输出的方式。现将通过对附图的讨论以非限制性的方式阐述本发明的各方面。
图1是依据本发明各方面的用于传输触觉信息的方法100的非限制性示范流程图。可例如在计算机系统中实施示范方法100的任意或全部方面。非限制性地例如,可在第一地理位置处的第一计算机系统中执行步骤110-150,并可在不同于第一地理位置的第二地理位置处的第二计算机系统中执行步骤160-170。第一和/或第二计算机系统可例如包括个人计算机系统(例如,桌上计算机、膝上计算机、笔记本计算机、记事本计算机(notepad computer)、手持计算机、部署在单个房屋或多个房屋内的计算系统等)。第一和/或第二计算机系统可例如包括任意的各种具有计算能力的个人电子设备(例如,个人数字助理、智能电话、蜂窝电话、个人电子邮件设备、个人媒体设备、游戏设备、媒体接收器、机顶盒、个人录像机等)。所述第一和/或第二计算机系统可包括例如企业计算机系统、保健计算机系统、分布式计算机系统、云计算机系统等等。因此,除特别声明外,本发明的各个方面的范围不受执行系统的任何特定类型的特征的限制。
示范方法100从步骤105开始执行。可响应任意的各种原因和/或条件而开始执行方法100,现将提供其非限制性的范例。例如,可响应用户输入(例如,指示开始执行的用户输入命令)而开始执行示范方法100。还例如,可响应定时器而开始执行示范方法100。另外例如,可响应检测到的事件或系统条件而开始执行示范方法100。例如,每当检测和/或预知(例如,基于当前系统的使用)到触摸输入时可开始执行示范方法100。还例如,可响应从第二系统接收的命令而开始在第一系统中执行方法100,其中第二系统从第一系统接收触摸输入信息。进一步例如,可响应确定特定的用户是采用第一系统来呈现解剖图像或其它一般与输入用户触摸信息相关的图像而开始执行方法100。还例如,可响应复位或上电条件(例如,针对用于触觉信息通信的系统的)而开始执行方法100。另外例如,可响应同意建立触觉通信会话的各方(例如,第一系统和第二系统的各个用户)而开始执行方法100。例如,医生和/或病人都可明确同意建立触觉通信会话。一般而言,可响应任意的各种原因和/或条件而开始执行方法100。相应地,本发明的各方面的范围不应受到任意特定原因或条件的特征的限制,除非有明确声明。
示范方法100可例如在步骤110处包括从用户接收触摸输入(例如,一个或多个触摸输入)。现将呈现该接收的各种非限制性的范例。
可在步骤110处采用任意的各种传感器设备接受该触摸(或触觉)输入。例如,步骤110可包括通过触摸屏接收该触摸输入。例如,步骤110可包括采用以下所列的任意一个或多个:触摸屏、热传感器、电容、声传感器、双金属传感器、静电传感器、电磁传感器、按钮矩阵、压电传感器/换能器等。该传感器可安装到和/或形成具有任意的各种主设备(例如,服装、西装、帽子、手套、护腕、人体模型、身体部分的实物模型、解剖图表、人体雕塑等)。
另外例如,步骤110可包括采用位置传感确定触摸输入。例如,以下将更详细地对其进行讨论,可采用与模型(物理模型、3D投影图像、2D平面模型图像等)相关的触摸点的空间位置检测和/或表征触摸输入。
步骤110可包括接收任意的各种不同的触摸输入。例如,步骤110可包括在特定点(或位置)接收触摸。例如,可通过任意的各种不同类型的位置信息(例如,地图坐标、模型坐标、传感器识别、解剖位置、局域或全球2D和/或3D空间中的位置等)表征该触摸位置。
还例如,步骤110可包括接收具有特定量值和/或方向的力的触摸输入。例如,可通过标量量值和/或矢量力参数组(例如,各个力方向上的各个力分量、特定方向上的单个力的量值等)表征该触摸力。例如,可通过力传感器(双金属传感器、嵌入在柔性材料中的压电传感器、装载弹簧的力传感器、电磁传感器(例如音圈式传感器)、热传感器、电容传感器)传感该触摸力量值。
另外例如,步骤110可包括接收具有特定速度(或锐度)的触摸输入。可例如通过标量和/或矢量速度参数表征该速度。例如,可通过柔性触摸表面的位置中的变化率传感该触摸速度,该柔性触摸表面响应于该触摸而移动。还例如,可通过检测来自应变的压电换能器的电压输出的变化率来传感触摸速度。另外例如,可通过检测来自电磁换能器的电压输出来传感该触摸速度,所述电压输出由触摸表面的运动导致的电磁场特征的变化所导致。另外例如,可通过检测在多个传感器(例如,部署在触摸传感器阵列中)之间的表面上移动的触摸来传感触摸速度。该场景中,可通过确定在多个传感器之间移动的检测到的触摸的速率来传感触摸速度。步骤110中接收该触摸输入的方式与所采用的触摸传感技术的特征有关(例如,其中可通过传感器信号量值、传感器信号量值的变化率、传感器信号曲线的形状、随时间变化的位置信息等确定速度)。
进一步例如,步骤110可包括接收具有特定触摸图案(或级数)的触摸输入。例如,步骤110可包括接收具有移动模式的触摸输入,通过追踪触摸点坐标与时间的关系,该移动模式是可检测的。可例如通过对触摸点相对于时间进行采样、追踪相对于时间的多个传感器的每个之间的触摸移动、追踪正被触摸的触摸屏的坐标等来追踪该坐标。该触摸图案接收还可包括识别特定的触摸图案(例如,通过将检测到的模式与已知预设触摸图案组中的一个进行匹配,所述预设模式例如圆形、直线等)。
仍进一步例如,步骤110可包括接收对应于触摸区域或范围的触摸输入。例如,步骤110可包括接收对应于指纹区域、手掌区域、指关节区域、手区域、探针区域、带区域、身体部分区域等的触摸。可以各种方式输入该触摸区域。例如,可采用传感器矩阵,其中每个传感器对应于一点(或小区域)。该场景中,传感器的合集接收的触摸输入(例如,即时或时间窗口中的一点处)可认为是触摸区域的表示。例如在采用电容矩阵连接矩阵的行或列的另一个场景中,可合计每个触摸的行/列结合指示以表示触摸的区域。
第一示范场景中,触摸屏上可呈现图像。该图像可例如包括通用解剖图像、第二(或目标)用户(例如,记录的非实时图像或实时图像)的指定解剖图像、通用身体部分的图像或图表或者触摸目标用户的身体部分的精确图像。
该第一示范场景中,步骤110可例如包括接收指示所述第一用户触摸呈现在显示屏上的二维图像(例如,二维解剖模型)的输入。例如,步骤110可包括以特定的方式(即,采用的触摸类型需要第一用户将触摸传输至第二用户或其它触摸目标),在特定位置(即,位于该位置处的第一用户需要将触摸传输至第二用户或其它触摸目标)从第一用户接收触摸输入,所述第一用户触摸触摸屏上呈现的图像。
应注意的是可采用2D屏幕(例如,不需要3D眼镜)通过合并2D转动特征(例如,滚动、斜度和/或侧转(yaw))来仿真三维成像。该输入场景中,用户可能够指示(例如,通过追踪2D屏幕上的转动)要求系统给3D图像呈现不同的2D面。该场景中,例如,用户可指示前、后或侧视图(或相互之间任意的角度视图)。应注意的是在特定视图中,位于特定位置处的触摸可以是触摸位置和/或触摸深度(或强度)的指示,这与场景(例如,如用户所指示的)的性质有关。
第二示范场景中,步骤110可例如包括接收指示用户触摸对象的物理模型的输入(例如,将被远程触摸的另一个生命或非生命对象的解剖模型或物理模型)。例如,人体模型可包括嵌入式的触摸传感器,以用于检测人体模型身体上的触摸。在需要相对高的位置分辨率时(例如,近关节端和/或神经中枢),例如触摸传感器的面积上的间隔相对紧密。在一般不需要相对高的位置分辨率时可面积上的间隔相对较远。该含传感器的人体模型可例如是实施步骤110的计算系统的一部分或通信连接至该计算系统。该示范场景中,步骤110可例如包括从第一用户接收触摸输入,所述第一用户在特定位置处触摸人体模型,且包括以对应特定位置的方式和其中第一用户需要使得触摸将呈现给第二用户的方式(例如,在步骤170处)。
第三示范场景中,步骤110可例如包括向用户呈现三维图像。可例如采用任意的各种3D成像技术呈现该图像。该图像可例如包括通用解剖图像、第二(或目标)用户(例如,存储的非实时图像或实施图像)的指定解剖图像、通用身体部分的图像或图表或者触摸目标用户的身体部分的精确图像、将被远程触摸的另一个非生命和/或生命对象的图像等。该第一示范场景中,步骤110可例如包括接收用户的输入指示,所述用户触摸通过三维显示系统呈现的三维解剖模型。
例如,该第三示范场景中,步骤110可包括监控相对于投影3D图像的第一用户的触摸位置。例如,对于佩戴3D光学实现设备(例如,3D眼镜、护目镜、头盔等)的用户,可在空间中特定的位置处向用户呈现预期的3D对象。该场景中,可监控和追踪用户的一个或多个触摸点的位置(例如,在三维空间中)或者用户持有的触摸设备。在一个手指的范例中,可追踪用户食指尖端的位置(例如,使用附着在用户指尖、手和/或关节上的定位设备、使用位置传感手套、采用红外信号追踪等)。如后续将要讨论的,该空间中的3D位置可与呈现的3D模型(例如,位于3D图像表面的表面上和/或3D图像表面的表面下的一定深度处、3D图像体或体积内的特定位置处等)的3D位置相匹配。
步骤110的各个方面可包括确定何时注册或捕捉触摸输入。步骤110包括以任意的各种方式触发触摸输入的注册(或捕捉),现将提供其非限制性的范例。例如,步骤110可包括响应第一用户明确地指示触摸输入而确定注册触摸输入。例如,第一用户可按下按键、输入语音命令等,以表示需要注册触摸输入。
还例如,步骤110可包括自动地(例如,不需要与用户进行明确的相互作用)检测用户输入,所述用户输入与符合用户输入资格的触摸输入相关。可例如通过相对于激活包络结构(activation envelope)的用户触摸位置确定该资格,所述激活包络结构与注册用户输入过程有关。例如,在将图像(例如,2D或3D图像)向用户呈现的情形中,用户输入定位在空间包络结构以内(例如,位于触摸屏上呈现的2D图像的边界处或边界以内,和/或位于3D空间中呈现的3D图像的3D表面或体区的边界处或边界以内)。例如,实施步骤110的系统可在2D或3D图像的边界处或边界以内检测用户输入(或手的位置)并触发触摸的注册。
另一个示范场景中,步骤110可包括周期性地注册用户输入(例如,以固定周期(例如,每1/100秒、每1/10秒、每秒等))。仍在另一个示范场景中,用户输入(例如,触摸屏上的用户触摸)可触发用户输入的注册。
通常而言,步骤110可包括从用户接收触摸输入(例如,一个或多个触摸输入)。相应地,本发明各方面的范围不应受到接收触摸输入过程的特定方式的特征的限制,和/或不应受到特定的接收的触摸输入的特征的限制,除非有明确声明。
示范方法100可例如在步骤120处包括分析从用户接收的触摸输入(例如,如在步骤110处所接收的),以确定输入触摸的特征。以上提供了触摸输入和/或其特征的各个非限制的范例(例如,触摸时间、触摸位置、触摸形状、触摸图案、触摸力的量值、触摸纹理识别(例如,相对于摩擦的划痕))。步骤120可包括以任意的各种方式执行该分析,现将提供其非限制性的范例。
例如,步骤120可包括分析接收的触摸输入以确定时间信息,所述时间信息表征接收的触摸输入的时间(或时间方面)。例如,可通过当时特征(temporalcharacteristics)部分地识别触摸输入。例如,触摸输入可与触摸发生的时间和/或该触摸发生持续的时间有关。另外,触摸图案可对应触摸的顺序和/或时间周期内的触摸变化。
可例如采用该瞬时特征来在第二系统处组织触觉刺激信号输出(例如,步骤170处)。例如,当在通信网络上传输触觉刺激信号(例如,触摸特征信息)而所述通信网络是不可靠的和/或暂时不稳定时(例如,不具有更高级数的带宽来保障固定机制的分组交换网络),可采用时间指示来重建接收系统处的触摸,以用于向该接收系统的用户进行呈现。例如,该实施中,数据包中的触摸特征信息到达接收系统时的时间可能不是关键的,因为在该数据包内携带的触摸特征信息包括时间信息,可采用所述时间信息来重新生成接收系统处传输的触摸。
还例如,步骤120可包括分析接收的触摸输入,以确定表征接收的触摸输入的位置的位置(或空间)信息。可通过2D和/或3D空间位置识别触摸。
例如,第一示范场景中,第一用户可触摸2D图像(例如,位于触摸屏上向用户呈现)或其它2D对象(例如,图表、物理模型等)上的位置。步骤120则可包括识别触摸屏或其它2D对象上的触摸位置。例如,可识别和记录相对于屏幕上呈现图像的触摸的精确位置。还例如,可识别和记录最接近确定的触摸位置的呈现图像上的位置(例如,最近似的触摸位置)。另外例如,可识别和记录物理模型上的触摸位置。
第二示范场景中,第一用户可采用触摸屏(或其它2D对象)来记录3D触摸输入。例如,第一用户可将图像的转动信息(例如,侧转(yaw)、斜度和/或滚动)输入到第一系统(例如,在步骤110处),所述第一系统则可相应地旋转向用户呈现的2D图像(例如,位于触摸屏上)。例如,需要触摸人物侧边点的用户可提供通知第一系统的输入,以将人物的前视图旋转成侧视图。方法100(例如,在步骤110处)则可旋转提供给第一用户的目标图像(例如,使用一个或多个图形转换矩阵、使用不同的照相机角度、使用不同的图像投影平面等),然后第一用户可触摸新图像上所需的侧边位置。该场景中,步骤120则可包括识别向第一用户呈现的图像(或平面)上触摸的位置,然后识别图像上触摸的3D位置。例如,在给第一用户提供转动的目标图像的过程中,步骤110可采用一个或多个转换矩阵(例如,包含转动单元和/或转换单元)。该场景中,步骤120则可采用该转换矩阵(或其对应的逆转换矩阵)来识别第一用户触摸的3D位置。如以上所讨论的,可例如根据目标图像的本地坐标系统确定该位置识别。该方式中,2D输入/输出用户接口可用于输入3D触摸信息给第一系统。
第三示范场景中,可向用户呈现3D图像(例如,在步骤110处)。在图像呈现处理的过程中,方法100可包括追踪正向用户呈现的3D图像的空间特征(例如,图像的3D空间分辨率和空间中图像的3D位置)。方法100(例如,在步骤110处)则可例如包括追踪相对于呈现的3D图像的第一用户(例如,一个或多个手指、手等)的空间位置,以确定何时对该呈现的图像做出虚拟接触(virtual contact)。作为非限制性的范例,方法100可包括呈现3D空间中人物腹部的3D图像。方法100则可(例如,在步骤110处)包括追踪3D空间中第一用户的食指的位置,以确定第一用户的食指何时和在哪一点处接触呈现的3D图像。该场景中,步骤120可包括确定和注册相对于正向用户呈现的腹部图像的触摸位置。
应注意的是,可通过放大(或取消放大)向用户呈现的图像(2D或3D图像)来操纵触摸检测的分辨率。例如,如果第一人物需要高触摸分辨率,第一人物可指令第一系统放大正向用户(例如,在步骤110处的呈现)呈现的图像的特定部分。方法100可追踪该呈现和触摸,如以上在转换矩阵的讨论中所描述的,还可包括放大/取消放大(或放大/缩小)参数。非限制性的范例中,第一用户可(例如,在步骤110处)指令第一系统放大正向用户呈现的身体图像的特定关节的部分。该放大的图像可向第一用户提供相对增加了触摸分辨率的关节。另一个示范情形中(例如,远程针压法场景),第一用户可指令第一系统放大特定的按压点,以向第一用户提供相对高的分辨率,采用该高分辨率可准确定义特定触摸的位置和/或其它特征。
如以上所讨论的,可例如在触摸输入系统本地(例如,呈现图像本地、人体模型本地、3D投影图像本地)的坐标系统上识别空间位置,或可例如在通用坐标系统(例如,世界坐标等)上识别空间位置,所述通用坐标系统对于本地触摸输入系统和远程触摸输出系统是公共的。
还例如,步骤120可包括分析接收的触摸输入以确定接收的触摸输入的形状。可例如通过单点识别触摸,但是还可通过触摸区域表征该触摸。
例如,指尖触摸可通常对应于指尖区域(例如,与单点相反)。类似地,探针做出的触摸输入可通常对应于探针的接触区域。包含触摸屏输入(例如,在步骤110处)的示范场景中,步骤120可包括采用触摸屏而不是单点来识别触摸区域。例如,当步骤110包括接收触摸屏上第一用户指尖的触摸时,步骤120可包括注册与触摸屏接触的指尖的表面区域。步骤120则可例如包括通过位置和区域表征该触摸输入。如以下更加详细的讨论,触摸区域可另外通过触摸力的大小(例如,整个触摸区域上单个触摸力的大小、不同的单个触摸力的大小所划分的子区域)进行资格验证。
另一示范场景中,手掌按压可类似地通过区域表征和注册。第一用户可例如采用手掌与触摸屏(或投影的3D图像)接触。该场景中,步骤120可包括通过位置和手掌的表面区域来表征触摸。
步骤120可例如包括通过点的集合来表征触摸输入。例如,可通过两个触摸点表示捏,可通过五个触摸点表示一手指尖推,颞部按摩可表示为两个触摸点,可通过两个触摸区域表示挤压等。因此,第一系统可识别和表征合计的多个触摸。
在包括采用具有整个触摸区域识别性能的触摸传感器的场景中,步骤120可包括识别和表征规则或非规则形状的触摸区域。还例如,步骤120可包括将检测的触摸区域与触摸相关的各种预定义形状进行比较。例如,该预定义的形状可包含该形状的各种预定形状(例如,圆形、椭圆形、正方形、针尖等)和尺寸。
应注意的是,可例如通过2D传感(即平面区域)和/或3D传感(即,作为3D表面)中的区域来表征检测的触摸。作为非限制性示例,在第一用户采用手指触摸穿透3D图像的表面的场景中,可通过空间中的3D表面表征第一用户的手指穿透表面的部分。另外,还可通过触摸的轮廓(与表面相反)来表示触摸。
步骤120还可例如包括通过触摸图案表征输入触摸。如以上所提及的,可追踪触摸(例如,位置和/或时间的函数)。例如,可通过运动路径(例如,2D和/或3D空间中的触摸位置对时间)表征划痕、摩擦、按摩或推动。
示范场景中,第一用户(例如,至少实施步骤110和120的第一系统的第一用户)可采用移动触摸来触摸正在触摸屏上呈现的图像,其中触摸屏上的触摸位置随时间变化。该场景中,步骤120可包括随时间追踪触摸屏上的触摸位置(例如,以固定的时间周期周期性地确定该位置、以与触摸位置的变化率相关(例如,成比例)的变化的时间分辨率来采样该位置)。如以上所讨论的,平面触摸屏的2D触摸可转换成其它维度。同样的持有2D触摸图案追踪的真实性。
另一个示范场景中,第一用户(例如,至少实施步骤110和120的第一系统的第一用户)可触摸正在虚拟3D观看环境中投影的图像,其中触摸位置随时间变化。该场景中,步骤120可包括随时间追踪三维的触摸位置(例如,以固定的时间周期周期性地确定该位置、以与触摸位置的变化率相关(例如,成比例)的变化的时间分辨率来采样该位置)。
仍在另一个示范场景中,第一用户(例如,至少实施步骤110和120的第一系统的第一用户)可触摸包括触摸传感器(例如,嵌入在对象材料中、附着在对象上、放置在对象上或附近等)的物理对象(塑造的对象、人体模型、模型等)。该场景中,步骤120可包括随时间追踪第一用户与该传感器的接触。
步骤120可例如包括以任意的各种方式表征监控的触摸图案。例如,步骤120可包括将监控的触摸图案表征为位置(2D、3D等)的阵列(或其它数据结构)与时间的关系。还例如,步骤120可包括对监控触摸图案随时间的变化进行曲线拟合(例如,采用任意的各种维度的线性和/或非线性样条函数拟合,包含2D、3D等)。
步骤120可另外例如包括通过触摸力的方向和/或量值表征输入触摸。例如,步骤120可包括分析接收的触摸输入,以确定表征输入触摸的力的量值的触摸力量值信息。该触摸力量值信息可例如用于医生远程触摸具有变化力度的点或区域。
步骤120可包括以任意的各种方式识别触摸力的方向和/或量值。例如,在包含采用热传感确定触摸位置的触摸屏的示范场景中,可校准触摸的温度以对应触摸的特定的力的量值。该示例中,步骤120(或方法100的另一个步骤)可包括由用户执行校准程序,以确定特定的热特征和特定的触摸力量值之间的关联。另一个示范场景中,步骤120可包括分析触摸屏或其它触摸传感设备的触摸区域,以确定触摸的力的量值(例如,触摸屏上相对有力的食指触摸可通常比触摸屏上相对轻的食指触摸对应更大的区域)。仍在另一个示范场景中,其中触摸屏或其它触摸表面采用电容(或电阻)传感器,步骤120可包括分析变化的电容的区域,以确定触摸的量值。该场景中,步骤120(或方法100的另一个步骤)可包括由用户执行校准程序,以确定特定电容(或电阻)特征和特定触摸量值之间的关联。
另一个示范场景中,步骤120可包括从用户接收指示触摸力方向和/或量值的第二输入(例如,在从用户接收指示触摸位置的第一输入之后)。例如,第一用户可触摸特定位置处的图像以特定位置处的触摸,且第一用户还可提供第二输入(例如,具有第二手指),以向系统输入所需的触摸力方向和/或量值。该第二输入还可例如包括数值输入、触摸图形量值条(graphical magnitude bar)或在特定位置通过表盘控制或选择(dial)等。
仍在另一个示范场景中,其中相对于3D投影图像确定触摸,穿透进入图像边界的量可指示所需的触摸力量值。例如,步骤120可包括确定仅接触投影图像外部层面的触摸是相对轻的触摸,而延伸至投影图像边界内部的触摸是相对重(或有力)的触摸。该场景中,步骤120(或方法100的另一个步骤)可包括由用户执行校准程序,以确定特定触摸深度和特定触摸力量值之间的关联。
仍在另一个示范场景中,其中采用力传感器测量触摸力量值,步骤120可包括分析来自该力传感器的信号以确定触摸量值(和/或矢量力传感器情况中的方向)。
触摸力识别可例如以时间为函数发生。因此,触摸力特征可例如与前面讨论的触摸图案特征和/或触摸瞬时特征相结合。例如,沿触摸图案的各个点可对应不同的单个触摸力。
可例如在多个触摸点或触摸区域的多个触摸点处执行触摸力方向和/或量值的识别。作为非限制性的示例,可通过相对中等的触摸力的区域环绕的主要(最有力)触摸位置表征手指按压,所述相对中等的触摸力的区域反过来由相对轻的触摸力区域(例如,对应仅轻微接触图像的指尖部分)环绕。该力的方向可例如垂直于触摸表面。该示例中,触摸力特征可至少与以上讨论的触摸区域识别相结合。可例如以以上讨论的任意的各种方式(例如,基于点对点,其中由多个点表示整个触摸)在触摸区域的多个点处识别该触摸力。
步骤120可另外例如包括通过触摸深度表征输入触摸。例如,步骤120可包括确定输入触摸的深度(例如,目标表面以下的穿透距离)。该触摸的深度方面可以是独立的,或可作为参数来确定其它触摸相关的特征。例如,如以上所讨论的,可采用该触摸深度来确定触摸力的量值。还例如可识别和传输和采用触摸深度本身(例如,作为触摸穿透距离的指示)。例如,需要传输触摸的第一系统处的医生可提供该穿透触摸作为第一系统处的输入,所述传输的触摸在第二系统的病人的皮肤下穿透了特定的距离。因为具有以上所讨论的所有其它触摸特征,步骤120可包括追踪和/或表征为时间函数的触摸深度。
步骤120仍可另外例如包括通过触摸方向表征输入触摸。例如,触摸可对应特定方向上的力,其中该方向不需要垂直于触摸表面。可在按摩应用中发现该触摸方向的非限制性示例,其中可在任意的各种方向上作为单个触摸点或区域加载触摸力和/或深度。该场景中,步骤120可包括采用测量力量值和方向的矢量力传感器(例如,位于探针或其它触摸设备中、部署在触摸的解剖模型中等)。作为另一个示例,3D应用中例如,步骤120可包括分析触摸行进的方向,其中已确定该触摸已穿透呈现的3D图像的表面边界(例如,表皮层)。因为具有以上所讨论的所有其它触摸特征,步骤120可包括追踪和/或表征为时间函数的触摸或触摸力方向。
通常而言,步骤120可包括分析从用户接收(例如,如步骤110处的接收)的触摸输入,以确定输入触摸的特征。相应地,本发明各方面的范围既不应受到执行该分析的任意特定方式的特征的限制,也不应受到表征触摸输入的任意特定方式的特征的限制,除非有明确声明。
示范方法100可例如在步骤130处向提供触摸输入的用户(例如,关注步骤110处接收的和步骤120处分析的触摸输入)提供反馈。现将提供该反馈的各个非限制性示例。
步骤130可例如包括向关注第一用户触摸输入的第一用户提供反馈。该方式中,可告知第一用户输入触摸的系统的特征。第一用户则可获得对将要传输至另一个系统的触摸特征的认识(例如,知晓将传输至第二系统的触摸特征是否是如预期的)。例如,因为第一用户在第一系统处加载触摸力,该触摸力则可反馈至连接第一用户的触觉输出设备,这样第一用户可经历正在输入的触摸的特征。作为非限制性示例,第一用户可佩戴具有手指定位传感器的手套,所述手指定位传感器确定第一用户何时与正向用户呈现的三维图像接触。该示例中,手套可包括物理换能器(例如,气压换能器、电磁或螺线管换能器、收缩膜换能器(contracting membrane transducer)等),步骤130可采用所述物理换能器向第一用户加载指示步骤110处从第一用户输入的和步骤120处表征的触摸的压力。还在该示例中,第一用户可连接到给第一用户加载力(例如,加载到第一用户的手上)的机器人执行器上,所述第一用户通常与来自用户的计算触摸输入力相反。该配置中,当输入过程中没有做出物理接触时(与采用物理模型用于触摸输入的场景相反),可给触摸虚拟图像的用户提供物理触摸反馈。
另一个示范场景中,步骤130可包括向用户提供注册的触摸输入的可视指示。例如,在用户采用触摸屏输入触摸输入的场景中,步骤130可包括在触摸屏上生成可视(例如,图形的)指示,指示正在注册触摸输入、指示输入触摸的各个特征(例如,位置、时间、量值、方向、区域等)。
另外,如以上所提及的,第一系统和第二系统(或其它系统)之间的通信链接可以是双向通信链接(例如,对于触摸信息以及其它类型的信息)。该场景中,步骤130可包括接收从第二系统返回的返回触觉信息,并将该触觉信息向第一用户呈现(例如,采用与以下关于步骤170讨论的方式通常类似的方式)。该示范场景中,第一用户可类似地接收感官信号(例如,对应于第二用户对第二系统的触摸输入)。
第二系统(例如,第二系统从关注触摸输出的第一系统接收触觉输入信息,以提供给第二系统的用户)还可向第一系统提供非触觉形式的反馈信息。例如,在医学场景中,其中用户医生采用第一系统将触摸信息传输至第二系统的用户病人,第二系统可确定(例如,采用连接到第二用户的传感器)心跳、血压、体温、反射反应(例如,响应于特定的触摸)、神经活动、眼睛反应、听觉/视觉反馈、大脑活动等。第二系统则可将该累积的信息传输返回给第一系统(例如,用于向用户医生呈现)。
通常而言,步骤130可包括向提供触摸输入的用户(例如,提供步骤110处接收的和步骤120处分析的触摸输入)提供反馈。相应地,本发明各方面的范围既不应受到提供该反馈的任意特定方式的特定特征的限制,也不应受到触摸反馈的任意特定类型或反馈信息的任意其它类型的限制,除非有明确声明。
示范方法100可例如在步骤140处包括确定信息以传输至一个或多个其它系统(例如,第二系统)。该信息可例如包括步骤130处确定的触摸特征的信息。该信息还可包括非触觉信息(例如,音频、文本和/或视频信息等)。现将提供该信息的各个非限制性的示例。
步骤140可例如包括至少部分基于步骤120处确定的输入触摸特征,确定包括特征的触摸输出信息以使得第二系统提供步骤110处接收的触摸输入的触摸输出表示。例如,确定触摸输入的特征之后(如以上所讨论的),第一系统(例如,实施步骤140)可确定将被传输第二系统的触摸信息。
第一示范场景中,步骤140可包括将所有确定的触摸特征信息传输至第二系统(或多个其它系统),其中第二系统则可例如确定由该传输的触摸特征信息表征的触摸将是否和/或如何呈现给第二系统的用户。例如,步骤130可包括尽可能精确地表征触摸输入,且步骤140可包括将该特征的信息传输至第二系统(或任意标号的系统)。第二(或接收)系统则可例如处理该触摸信息,以用于按照该第二系统的性能向该第二系统的用户呈现。该示范场景中,第一系统(例如,实施步骤110-150)本身不需要关心接收系统的性能。例如,当第二系统接收的触摸特征信息所描述的触摸特征是第二系统不能输出至用户的时,第二系统可简单地忽略该触摸特征(或,例如返回消息至第一系统,指示第二系统不能输出该触摸特征)。
另一个示范场景中,步骤140可包括(例如,在由第一用户操作的第一系统处)至少部分基于第二系统的触觉输出性能确定触摸输出信息。该实施可例如在系统复杂度(和成本)的大部分是并入第一系统的场景中是有利的。该实施可例如顾及了相对成本节省的第二系统。例如,医学场景中,第一系统可包括相对复杂和高成本的医院系统,而第二系统可包括相对简单和低成本的终端用户系统,可在与医院相关的大量终端用户之间复制所述终端用户系统。
该示范场景中,步骤140(或方法100的另一个步骤)可例如包括与第二系统进行通信(或访问数据库等),以确定触摸换能器配置和/或相关的处理和/或第二系统的触摸输出性能。该场景中,步骤140则可例如包括根据第二系统的该性能的任意或全部来加工传输至第二系统的触摸特征信息。该实施还可例如减少了不需要的触摸特征信息的传输。
还在该实施中,方法100可包括(例如,在步骤110和120处)基于第二系统的性能确定到监控器的输入触摸特征。例如,可在示范配置中跳过监控触摸图案、分析接收的触摸图案和传输表征第一(或发射)系统中触摸图案的信息,其中第二(或接收)系统能够输出具有特定触摸图案的触摸至第二系统的用户。还例如,在实施配置中可跳过监控触摸区域、分析区域上的输入触摸和传输表征第一(或发射)系统中触摸区域的信息,其中第二(或接收)系统仅能输出具有特定触摸区域的触摸至第二系统的用户。该实施中,方法100可只能有效地收集、分析和传输当前有关给定的触摸特征和当前系统配置。
步骤140还可包括确定非触觉信息,以随着确定的触摸信息与一个或多个系统进行通信。例如,步骤140可包括确定将随着触摸特征信息传输至第二系统的音频和/或视频信息。另外例如,该另外的信息可包括温度信息(例如,传输至第二系统的用户和/或来自第二系统用户的传输)。例如,医学场景中,第一系统的用户医生可与第二系统的远程用户病人进行音频信息传输,该音频信息例如对应于正传输至第二系统或其用户的触摸信息。该场景中,医生可传输音频信息至远程用户病人,所述远程用户病人解释触摸发生和从远程用户医生索取反馈(例如,音频反馈)。
通常而言,步骤140可包括确定信息(例如,触摸特征信息和其它随附的信息),以从第一系统传输至第二系统。相应地,本发明各方面的范围不应受到触摸信息的任意特定类型的特征或随附的信息的限制,也不能受到确定该信息的任意特定方式的限制,除非有明确声明。
示范方法100可例如在步骤150处包括将信息(例如,触摸特征信息和/或任意其它相关的信息)传输至该信息的一个或多个接收系统。步骤150可包括以任意的各种方式执行该传输,现将提供其非限制性的示例。
例如,步骤150可包括采用特定的通信协议进行传输。作为非限制性的示例,该通信协议可主要位于分层通信协议架构的应用层。该应用层可例如位于各个更低级的协议层(例如,网络层、传输层、数据链接层、物理层等)以上。该实施中,步骤150可包括采用任意的各种不同的通信网络或其类型传输信息。换句话说,通信网络栈的相对更低的层(例如,应用层以下)可以是灵活和多样的。
例如,示范场景中,步骤150可包括通过通信网络传输信息,所述通信网络对通信分配指定量的带宽(例如,特定信道、频率、时隙、代码等)。还例如,另一个示范场景中,步骤150可包括通过可变带宽的通信网络传输信息,所述可变带宽的通信网络不能对通信链接保障(或分配)通信带宽(例如,不对整个网络使用进行控制的通常基于数据包的数据传输网络、互联网等)。
示范场景中,第一和第二系统可包括通信模块以通过互联网、有线电视网络、局域网、卫星通信网络、蜂窝通信网络、有线电信网络、个域网、校园网等进行通信。可采用任意的各种通信协议和介质执行该通信。
本发明的各个方面可包括通信协议(例如,步骤150处所采用的),所述通信协议包括对系统间触摸信息的传输进行加工的各方面。该协议可例如包括特定的数据包格式(例如,数据场)以用于以上所讨论的任意的一个或多个触摸特征、任意的触摸瞬时特征等。该协议可例如包括用于在单个方向和/或多个方向上(例如,2向、N向等)传输触摸信息的特征。例如,尽管前面呈现的示范阐述通常关注触摸特征信息从第一系统传输至第二系统(例如,通过通信网络至远程第二系统),但是该通信协议可包括在两个方向上都适于传输该触摸特征信息的特征(例如,从第一系统至第二系统和/或其它系统、以及从第二系统和/或其它系统至第一系统)。
通常而言,步骤150可包括将信息(例如,触摸特征信息和/或任意其它相关的信息)传输至该系信息的一个或多个接收系统。相应地,本发明各方面的范围不应受到执行该传输的任意特定方式的特征的限制,除非有明确声明。
示范方法100可例如在步骤160处包括接收触摸(或触觉)信息(例如,触觉特征信息和/或在步骤150处传输的相关信息)。步骤160可例如表示通过由第一系统在步骤150处传输的信息的接收系统所执行的接收,和/或还可包括接收从另一个系统传输返回至第一系统的触觉信息(和/或其它信息)。步骤160可包括以任意的各种方式执行该接收。例如,步骤160可包括以与另一个系统发射(例如,在步骤150处)信息的方式对应的方式接收该信息。以上已讨论了触摸信息传输的许多示例和/或相关的信息。
示范方法100可例如在步骤165处包括处理在步骤160处接收的触摸信息(例如,以确定接收触摸信息的系统处的触摸输出)。步骤165可包括以任意的各种方式执行该处理,现将提供其非限制性的示例。
例如,步骤165可包括确定一个或多个输出信号,以使得一个或多个触觉输出设备输出表示由第一系统接收的触摸输入的触摸输出。如以上所讨论的,第一系统(例如,执行步骤110-150)可将触摸特征信息传输至第二系统(和/或一个或多个其它系统)。
第二(或接收)系统则可接收该触摸特征信息(在步骤160处),并处理该接收的触摸特征信息以确定用于第二系统的触觉输出设备(换能器等)的驱动器信号,其中确定该驱动器信号以将触摸输出传输至第二系统的用户。步骤165可例如包括将第一系统处表征特定输入触摸的信息转换成适于向第二系统的用户呈现输出触摸的输出信号。
第二系统可例如包括触觉输出设备(例如,换能器),以用于向第二系统的用户输出触摸传感。该触觉输出的非限制性示例可例如包括可连接到用户的机电设备(例如,转动和/或转换机器人、螺线管、转动和/或线性发动机等)、静电输出设备(例如,静电刺激设备、或者与第二用户的身体接近和/或接触的垫片)、泵/真空设备(例如,气压带等)、服装中的收缩纤维或丝(例如,静电的、基于纳米结构的等)。
另外,第二系统可输出非触觉形式的信息至用户,以通过用户与触觉信息相关。例如,第二系统可输出图形图像,所述图形图像包括来自第一系统的第一用户的触摸输入的图形指示。第二用户则可观看可视的指示并将该可视指示解释为触觉指示。例如,第二系统可在屏幕上向第二用户输出解剖图像,其中映射在视觉上指示第一用户已触摸特定的区域。
可配置第二系统的每一个触觉输出设备以输出触觉(或触摸)输出的范围至第二用户。每一个该触觉输出设备可对应操作的轮廓,所述操作的轮廓将所需的触觉输出与一个或多个特定的输入(或其序列)相关联。相应地,步骤165(例如,如第二(或接收)系统中的实施、当步骤160处接收表征触摸的信息以提供第二用户时)可包括确定触觉输出设备驱动器信号,所述驱动器信号对应于与接收的触摸特征信息对应的所需触摸输出。可例如在查找和/或公式中定义该驱动器的信号与输出的关系,其中接收所需的触摸输出作为输入并提供对应的触觉换能器驱动器信号。作为包含电磁触摸输出换能器的非限制性示例,该表格可指定电流的单个量,以使得该输出换能器输出以单个力量值表示的触摸力。
示范场景中,其中第二系统包括多个触觉输出换能器以生成触摸输出,步骤165可包括识别将采用的一个或多个特定的触觉输出换能器。例如,步骤165可包括识别一个或多个特定的对应于所需触摸输出的触觉输出设备(例如,定位用于在对应于区域和/或沿着特定触摸图案的特定位置和/或位置组处输出所需触觉输出的触觉输出设备)。
第一系统处的触摸输入传感器和第二系统处的触摸输出换能器之间可例如有一对一的关系,在所述第一系统处提供触摸输入,在所述第二系统处提供触摸输出。可类似有N对1的关系。示范的一对一场景中,单个设备既可作为触摸输入传感器,也可作为触摸输出换能器。非限制性地例如,可采用压电单元、音圈结构或螺线管、充气气囊和类似物既作为触摸输入也作为触摸输出设备,与该设备现在是否是电传感(或按压)或电驱动(或按压)有关。
如前面所讨论的,触摸输入可包括瞬时特征(例如,与单个触摸、触摸序列、触摸移动等有关),且包括可传输至接收系统的该瞬时特征的信息。该场景中,步骤165可包括至少部分基于步骤160处接收的触摸时间信息确定一个或多个触摸输出信号的时间。如前面解释的,因为可在不可预测的网络上执行从第一系统至第二系统的触摸信息的传输(例如,在步骤150处),触摸时间信息的传输提供不规则的接收信息(甚至是违反规程接收的信息),所述不规则的接收信息表征将以时间方式重建忠于步骤110处原始触摸输入的触摸。
示范场景中,其中传输的触摸特征包括触摸图案,步骤165可包括连续地确定和随着所需的触摸图案输出触觉输出信号(例如,至触摸输出换能器的驱动器信号)。该确定和输出可例如在时间上与第一系统处的第一用户的触摸同步(例如,在步骤110处)。
通常而言,步骤165可包括处理在步骤160处接收的触摸信息(例如,以确定接收触摸信息的系统处的触摸输出)。相应地,本发明各方面的范围不应受到执行该处理的任意特定方式的特征的限制,除非明确声明。
示范方法100可例如在步骤170处包括以人类可感知的方式输出触觉信息(例如,触摸)至用户。步骤170可包括以任意的各种方式执行该输出,现将提供其非限制性的示例。
例如,确定输出至一个或多个触觉输出设备的信号之后(例如,在步骤165处),步骤170可包括输出该信号(例如,至一个或多个触摸输出换能器)。响应于接收该输出信号,各种的一个或多个触觉输出设备(或换能器)则将用于提供传输的触摸(例如,之接收系统的用户或至另一个目标)。该触觉输出设备可非限制性地例如包括一下所列的任意一个或多个:双金属运动换能器、静电运动换能器、电磁运动换能器(例如,螺线管换能器、音圈换能器等)、压电换能器等。该换能器可例如安装在任意的各种主设备上和/或形成具有任意的各种主设备(例如,服装、西装、帽子、手套、护腕等),可例如由第二用户佩戴所述主设备或所述主设备连接至所述第二用户,且需要将触摸传输之第二用户。
应注意的是,在步骤170处执行的输出可包括输出对应于所需触摸输出的信息(或数据),或可例如包括输出触摸换能器驱动器信号至该换能器。
示范方法100可例如在步骤195出包括执行持续操作。该持续操作可包括任意的各种特征。非限制性地例如,步骤195可包括将示范方法100的执行流程返回至前面任意的步骤。还例如,步骤195可包括另外与第一系统和/或其用户、第二系统和/或其用户或者任意用户和单个系统(例如,在组播和广播场景中)进行相互作用,以用于在各个系统处用户之间的触摸的持续传输。
如前面所提及的,可在第一系统和/或第二系统中执行示范方法100的各个步骤。非限制性地例如,可在第一图形位置处的第一计算机系统中执行步骤110-150,可在不同于第一图形位置的第二图形位置处的第二计算机系统中执行步骤160-170。第一和/或第二计算机系统可例如包括个人计算机系统(例如,桌上计算机、膝上计算机、笔记本计算机、记事本计算机、手持计算机、部署在单个房屋或多个房屋内的计算系统等)。第一和/或第二计算机系统可例如包括任意的各种具有计算能力的个人电子设备(例如,个人数字助理、智能电话、蜂窝电话、个人电子邮件设备、个人媒体设备、游戏设备、媒体接收器、机顶盒、个人录像机等)。第一和/或第二计算机系统可例如包括企业计算机系统、保健计算机系统、分布计算机系统、云计算机系统。现将呈现该系统和/或设备的非限制性示范框图。
图2示出了用于根据本发明的各个方面传输触觉信息的系统200的非限制性示范框图。该系统200可例如表示以上所讨论的第一系统(或触摸输入系统)和/或以上所讨论的第二系统(或触摸输出系统)。可例如在任意的一个或多个以上所提及的系统和/或设备中实施系统200。示范系统200(或其模块)可用于执行前面讨论的任意的或全部功能,所述功能与图1中阐述的方法100有关。
系统200可例如包括一个或多个通信接口模块259和260,以用于执行此处任意的或全部通信接口功能。通信接口模块259和260可例如用于在任意的各种通信介质上进行通信并采用任意的各种通信协议(例如,包含根据各种单个协议层的操作,例如,PHY、MAC、网络、传输等)。例如,通信接口模块259和260可用于通过一个或多个有线的和/或无线的通信端口进行通信(例如,通过无线RF端口258和261、无限光端口(non-tethered optical port)262、有限光端口(tethered optical port)263、有线端口264等)。通信接口模块259和260可例如用于与一个或多个通信网络进行通信(例如,有线电视网络、局域网、卫星电视网络、电信网络、互联网、局域网、个域网、城域网等),通过所述通信网络传输信息(例如,触摸信息和/或与触摸信息有关的信息)。还例如,通信接口模块259和260可用于与触觉信息的本地来源(例如,各种触摸输入传感器、各种触摸输出换能器等)进行通信,所述本地来源可例如位于系统200的外部但与之通信连接。
示范系统200还可包括另外的通信接口模块,此处没有对其进行阐述。该另外的通信接口模块可例如与以上所讨论的通信接口模块256和260共享任意的或全部方面。
示范系统200可例如包括一个或多个用户接口模块210。如前面所讨论的,该用户接口模块210可包括任意的各种用户接口模块。
例如,用户接口模块210可包括触觉输入模块211以用于管理进入系统200的触觉(或触摸)信息的用户输入。以上已呈现该触觉输入和/或对应输入设备的多个示例。例如,触觉输入模块211可用于实施前面所讨论的任意或全部触觉输入功能(例如,与图1中阐述的示范方法100的步骤110有关)。例如,触觉输入模块211可用于采用视频输出模块以在屏幕上向用户提供图像,所述用户则可通过触摸相对于提供的图像的触摸屏来提供触摸输入。
用户接口模块210可例如包括触觉输出模块212以用于管理系统200的用户的触摸(或触摸信息)输出。以上已呈现该触觉输出和/或对应输出设备的多个示例。例如,触觉输出模块212可用于实施前面所讨论的任意或全部触觉输出功能(例如,与图1中阐述的示范方法100的步骤170和步骤130有关)。
用户接口模块210可例如包括对应于任意的各种非触觉用户接口信息的用户I/O模块(例如,一个或多个音频I/O模块213、视频I/O模块214、文本I/O模块215等)。前面已呈现该非触觉I/O的多个示例。例如,该其它I/O可用于实施前面讨论的任意或全部非触觉I/O功能(例如,与图1中阐述的示范方法100的步骤170和步骤130有关)。
系统200可例如包括触觉输入特征模块220以用于执行前面讨论的任意或全部触觉输入识别/表征功能(例如,瞬时特征、空间位置特征、触摸形状特征、触摸图案识别/表征、触摸力方向/量值特征、触摸方向特征等)。例如,触觉输入特征模块220可用于实施前面讨论的任意或全部触觉输入分析和/或表征功能(例如,与图1中阐述的示范方法100的步骤120有关)。
系统200还可例如包括通信信息确定模块230。该模块可例如用于执行前面讨论与确定信息以传输至第二系统有关的任意或全部功能(例如,触觉特征信息、与触觉通信有关的非触觉信息等)。该模块230可例如用于实施前面讨论的与图1中阐述的示范方法100的步骤140有关的任意或全部功能。
系统200可另外例如包括触觉信息通信模块240。该模块240可例如用于执行前面讨论的与触觉特征信息的通信有关的任意或全部功能(例如,采用一个或多个其它系统,例如远程系统)。该模块240可例如用于执行前面讨论的与图1中阐述的示范方法100的步骤150有关的任意或全部功能。作为示例,触觉信息通信模块240可采用系统200的一个或多个通信接口模块159-260,其中这些模块反过来用于采用任意的各种通信协议和/或介质(例如,通过无线RF端口258和261、无限光端口(non-tethered optical port)262、有限光端口(tethered optical port)263、有线端口264等)在任意的各种通信网络上与任意的各种其它系统进行通信。前面已提供该网络、协议和/或其它系统的多个非限制性的示例。
系统200可另外例如包括触摸输出特征模块250。该模块250可用于执行前面讨论的任意或全部触觉输出功能(例如,与图1中阐述的示范方法100的步骤170有关),和/或执行前面讨论的任意或全部触觉信息处理功能(例如,与图1中阐述的示范方法100的步骤165有关)。该模块可例如用于采用一个或多个触觉输出模块212,通过采用任意的各种触觉输出设备以人类感知的形式输出触觉信息(例如,输出触觉数据至触摸输出设备、输出触觉换能器驱动器信号等),前面已提供其多个示例。
系统200还可例如包括一个或多个处理器270以用于执行系统200的任意或全部功能(例如,通过执行系统200的存储器280中存储的指令)。处理器模块270可包括任意的各种处理器的特征(例如,通用微处理器、微控制器、数字信号处理器、专用集成电路等)。
系统200可另外例如包括一个或多个存储器(或存储模块)280。如以上所讨论的,可通过一个或多个处理器(例如,处理器270)执行指令来执行此处讨论的任意或全部功能方面。该指令可例如存储在一个或多个存储器280中。该存储器280可例如包括任意的各种类型存储器的特征。非限制性地例如,该存储器280可包括一个或多个存储器芯片(例如,ROM、RAM、EPROM、EEPROM、闪存、一次性编程OTP存储器等)、硬驱动存储器、CD存储器、DVD存储器等。
为阐述清晰,采用分立的功能模块阐述系统200。实践中该模块不需要很清楚。例如,可通过处理器执行软件指令和/或通过各种硬件和/或软件组件实施各种模块的任意或全部功能。该模块还可例如共享各种硬件和/或软件组件。
转至图3,该图示出了依据本发明各方面的系统300的非限制性框图。示范系统可非限制性地例如与前面讨论的和图2中阐述的系统200共享任意的或全部特征。例如,示范系统300(或示范系统300的任意或全部组件)可用于执行图1中阐述的和前面讨论的任意或全部步骤。因为采用图2中阐述的系统200,示范系统300的组件可部署在单个计算机系统或设备中,以上已提供了其多个非限制性示例。
例如,系统300包括一个或多个处理器370。该处理器370可例如与关于图2讨论的处理器270共享任意的或全部特征。还例如,系统300包括一个或多个存储器380。该存储器380可例如与关于图2讨论的存储器280共享任意的或全部特征。
还例如,系统200可包括任意的各种用户接口模块310。该用户接口模块310可例如与关于图2讨论的用户接口210共享任意的或全部特征。非限制性地例如,用户接口模块310可包括:显示设备、照相机(用于静态或移动照片获取)、扬声器、耳机(例如,有线的或无线的)、麦克风、视频显示屏(例如,触摸屏)、振动机制、键盘、输入触摸传感器和/或触摸输出换能器的一个或多个阵列、气动控制器和/或压力传感器、和/或任意的各种其它用户接口设备(例如,鼠标、滚轮、触摸板、触摸屏、光笔、游戏控制设备等)。
示范系统200还可例如包括任意的各种通信模块(305、306和360)。该通信模块可例如与前面关于图2讨论的通信接口模块(259和260)共享任意的或全部特征。非限制性地例如,通信接口模块360可包括:蓝牙接口模块;IEEE 802.11、802.15、802.16和/或802.20模块;任意的各种蜂窝电信接口模块(例如,GSM/GPRS/EDGE、CDMA/CDMA2000/1x-EV-DO、WCDMA/HSDPA/HSUPA、TDMA/PDC、WiMAX等);任意的各种与位置相关的通信接口模块(例如,GPS、A-GPS等);任意的各种有线/线通信接口模块(例如,USB、火线、RS-232、HDMI、以太网、有线调制解调器等);与外部存储设备进行通讯有关的任意的各种通信接口模块等。还可将示范系统200阐述为包括各种有线306和/或无线305前端模块,通信接口模块可例如包含和/或采用所述前端模块。
示范系统200还可包括任意的各种信号处理模块381。该信号处理模块381可与执行信号处理的示范系统200的模块共享任意或全部特征。可例如采用该信号处理模块381来辅助处理前面所讨论的各种类型的信息(例如,关于触摸传感器输入处理、触摸换能器输出处理、定位确定、视频处理、图像处理、音频处理、通常用户接口信息数据处理等)。非限制性地例如,信号处理模块381可包括:视频/图形处理模块(例如,MPEG-2、MPEG-4、H.263、H.264、JPEG、TIFF、3-D、2-D、MDDI等);音频处理模块(例如,MP3、AAC、MIDI、QCELP、AMR、CMX等);和/或触觉处理模块(例如,键盘I/O、触摸屏处理、监控器控制等)。
总而言之,本发明的各方面提供了一种用于传输触觉信息(触摸)的系统和方法。因已参考确定的方面和实施例描述了本发明,本领域的技术人员应理解只要不脱离本发明的范围,可对本发明做出各种改变和等效替代。另外,只要不脱离本发明的范围,可依据本发明的教导做出多种改动以适应特定的形势或材料。因此,本发明不应受到公开的特定实施例的限制,但是本发明将包含落入权利要求范围的所有实施例。

Claims (10)

1.一种用于将触觉信息从第一地理位置传输至第二地理位置的方法,其特征在于,所述方法包括:
在位于所述第一地理位置的第一系统中:
接收以与模型相关的触摸点的空间位置表征的触摸输入;
分析所述接收的触摸输入以确定所述接收的触摸输入的输入触摸特征;
至少部分基于所述确定的输入触摸特征确定触摸输出信息,所述触摸输出信息包括用以使位于所述第二地理位置处的第二系统提供表示所述接收的触摸输入的触摸输出的特征;
将所述确定的触摸输出信息传输至所述第二系统。
2.根据权利要求1所述的方法,其特征在于,接收所述触摸输入包括接收指示用户触摸显示屏上呈现的二维解剖模型的输入。
3.根据权利要求1所述的方法,其特征在于,接收所述触摸输入包括接收指示用户触摸通过三维显示系统呈现的三维解剖模型的输入。
4.根据权利要求1所述的方法,其特征在于,接收所述触摸输入包括接收指示用户触摸物理解剖模型的输入。
5.根据权利要求1所述的方法,其特征在于,所述分析包括分析所述接收的触摸输入以确定表征所述接收的触摸输入的时间的时间信息。
6.根据权利要求1所述的方法,其特征在于,所述分析包括分析所述接收的触摸输入以确定表征所述接收的触摸输入的位置的位置信息。
7.根据权利要求1所述的方法,其特征在于,其中所述分析包括分析所述接收的触摸输入以确定表征所述接收的触摸输入的力的量值的量值信息。
8.根据权利要求1所述的方法,其特征在于,所述确定触摸输出信息包括至少部分基于所述第二系统的触觉输出性能确定所述触摸输出信息。
9.根据权利要求1所述的方法,其特征在于,包括确定音频信息以与所述确定的触摸输出信息进行通信。
10.一种用于传输触觉信息的系统,其特征在于,所述系统包括:
位于第一地理位置的第一系统,所述第一系统包括至少一个模块用于:
接收以与模型相关的触摸点的空间位置表征的触摸输入;
分析所述接收的触摸输入以确定所述接收的触摸输入的输入触摸特征;
至少部分基于所述确定的输入触摸特征确定触摸输出信息,所述触摸输出信息包括特征,所述特征使位于第二地理位置处的第二系统提供表示所述接收的触摸输入的触摸输出;和
将所述确定的触摸输出信息传输至所述第二系统。
CN201110060433.2A 2010-03-12 2011-03-14 传输触觉信息的系统和方法 Active CN102262476B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US31335210P 2010-03-12 2010-03-12
US61/313,352 2010-03-12
US13/043,829 US9298260B2 (en) 2010-03-12 2011-03-09 Tactile communication system with communications based on capabilities of a remote system
US13/043,829 2011-03-09

Publications (2)

Publication Number Publication Date
CN102262476A CN102262476A (zh) 2011-11-30
CN102262476B true CN102262476B (zh) 2014-04-23

Family

ID=44063916

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110060433.2A Active CN102262476B (zh) 2010-03-12 2011-03-14 传输触觉信息的系统和方法

Country Status (5)

Country Link
US (1) US9298260B2 (zh)
EP (1) EP2365421B1 (zh)
CN (1) CN102262476B (zh)
HK (1) HK1164497A1 (zh)
TW (1) TWI476633B (zh)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009045972A1 (en) 2007-09-30 2009-04-09 Wms Gaming, Inc. Distributing information in a wagering game system
CN102053757B (zh) * 2009-11-05 2012-12-19 上海精研电子科技有限公司 一种红外触摸屏装置及其多点定位方法
US9007190B2 (en) 2010-03-31 2015-04-14 Tk Holdings Inc. Steering wheel sensors
DE102011006344B4 (de) 2010-03-31 2020-03-12 Joyson Safety Systems Acquisition Llc Insassenmesssystem
DE102011006649B4 (de) 2010-04-02 2018-05-03 Tk Holdings Inc. Lenkrad mit Handsensoren
US9345973B1 (en) 2010-08-06 2016-05-24 Bally Gaming, Inc. Controlling wagering game system browser areas
US8911294B2 (en) 2010-08-06 2014-12-16 Wms Gaming, Inc. Browser based heterogenous technology ecosystem
US9760241B1 (en) * 2010-11-05 2017-09-12 Amazon Technologies, Inc. Tactile interaction with content
JP5920343B2 (ja) * 2011-06-10 2016-05-18 日本電気株式会社 入力装置およびタッチパネルの制御方法
JP2013206180A (ja) * 2012-03-28 2013-10-07 Kyocera Corp 電子機器および表示方法
GB201205765D0 (en) * 2012-03-30 2012-05-16 Hiwave Technologies Uk Ltd Touch and haptics device
US8344862B1 (en) 2012-04-09 2013-01-01 John Donham Tactile messaging system
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
US10108265B2 (en) 2012-05-09 2018-10-23 Apple Inc. Calibration of haptic feedback systems for input devices
WO2013169300A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Thresholds for determining feedback in computing devices
WO2013188307A2 (en) 2012-06-12 2013-12-19 Yknots Industries Llc Haptic electromagnetic actuator
US9886116B2 (en) 2012-07-26 2018-02-06 Apple Inc. Gesture and touch input detection through force sensing
WO2014043664A1 (en) 2012-09-17 2014-03-20 Tk Holdings Inc. Single layer force sensor
JP5850168B2 (ja) * 2012-09-17 2016-02-03 株式会社村田製作所 タッチ式入力装置
US10470971B2 (en) * 2013-03-15 2019-11-12 Sambhu Choudhury Garment with remote controlled vibration array
US10744060B2 (en) * 2013-03-15 2020-08-18 Sambhu Choudhury Garment with remote controlled vibration array
US9949890B2 (en) * 2013-03-15 2018-04-24 Sambhu Choudhury Garment with remote controlled vibration array
WO2015137997A1 (en) 2013-03-15 2015-09-17 Compology, Inc. System and method for waste management
WO2015015428A1 (en) * 2013-08-01 2015-02-05 Woodroffe Mark Touch communications device and method
CN114237485A (zh) * 2013-12-11 2022-03-25 北京三星通信技术研究有限公司 触控操作的方法及装置
US20150242037A1 (en) 2014-01-13 2015-08-27 Apple Inc. Transparent force sensor with strain relief
EP3133481B1 (en) * 2014-05-30 2018-10-31 Huawei Technologies Co., Ltd. Terminal device display method and terminal device
AU2014210579B2 (en) * 2014-07-09 2019-10-10 Baylor College Of Medicine Providing information to a user through somatosensory feedback
SG11201701255VA (en) * 2014-08-20 2017-03-30 Touchgram Pty Ltd A system and a method for sending a touch message
US10297119B1 (en) 2014-09-02 2019-05-21 Apple Inc. Feedback device in an electronic device
JP6417797B2 (ja) * 2014-09-03 2018-11-07 株式会社リコー 情報端末装置、情報処理方法、システムおよびプログラム
US9939901B2 (en) 2014-09-30 2018-04-10 Apple Inc. Haptic feedback assembly
TWI612654B (zh) 2014-10-03 2018-01-21 財團法人工業技術研究院 壓力陣列感測模組及其製造方法及應用其之監測系統及方法
CN107209582A (zh) * 2014-12-16 2017-09-26 肖泉 高直观性人机界面的方法和装置
KR102377277B1 (ko) 2015-02-27 2022-03-23 삼성전자주식회사 전자 장치에서 커뮤니케이션 지원 방법 및 장치
US9798409B1 (en) 2015-03-04 2017-10-24 Apple Inc. Multi-force input device
US20160349127A1 (en) * 2015-06-01 2016-12-01 Kiban Labs, Inc. System and method for using internet of things (iot) devices to capture and play back a massage
US10382073B2 (en) * 2015-11-03 2019-08-13 Infineon Technologies Ag Analog RF pre-distorter and non-linear splitter
US10325134B2 (en) * 2015-11-13 2019-06-18 Fingerprint Cards Ab Method and system for calibration of an optical fingerprint sensing device
US20170140233A1 (en) * 2015-11-13 2017-05-18 Fingerprint Cards Ab Method and system for calibration of a fingerprint sensing device
KR101928550B1 (ko) * 2016-04-21 2018-12-12 주식회사 씨케이머티리얼즈랩 촉각 메시지 제공 방법 및 촉각 메시지 제공 장치
CN105892690B (zh) * 2016-05-17 2019-09-06 京东方科技集团股份有限公司 动作获取装置及方法、动作仿真装置及方法、触觉通信系统
US10699538B2 (en) 2016-07-27 2020-06-30 Neosensory, Inc. Method and system for determining and providing sensory experiences
CN109688990A (zh) * 2016-09-06 2019-04-26 新感知公司 用于向用户提供附属感觉信息的方法和系统
US11126264B2 (en) * 2017-01-19 2021-09-21 Telefonaktiebolaget Lm Ericsson (Publ) Transmission of haptic input
US10181331B2 (en) 2017-02-16 2019-01-15 Neosensory, Inc. Method and system for transforming language inputs into haptic outputs
EP3378405A1 (en) * 2017-03-20 2018-09-26 Koninklijke Philips N.V. Volume rendered ultrasound imaging
US10744058B2 (en) 2017-04-20 2020-08-18 Neosensory, Inc. Method and system for providing information to a user
CN107370660B (zh) * 2017-06-07 2020-09-01 维沃移动通信有限公司 一种信息感知的方法及移动终端
TWI710963B (zh) * 2019-01-31 2020-11-21 大陸商北京集創北方科技股份有限公司 指紋圖像歸一化方法、指紋圖像歸一化裝置及資訊處理裝置
US11561018B2 (en) * 2019-02-22 2023-01-24 Johnson Controls Tyco IP Holdings LLP Central plant control system with control region detection based on control envelope ray-casting
US10798522B1 (en) 2019-04-11 2020-10-06 Compology, Inc. Method and system for container location analysis
WO2021062276A1 (en) 2019-09-25 2021-04-01 Neosensory, Inc. System and method for haptic stimulation
US11467668B2 (en) 2019-10-21 2022-10-11 Neosensory, Inc. System and method for representing virtual object information with haptic stimulation
WO2021142162A1 (en) 2020-01-07 2021-07-15 Neosensory, Inc. Method and system for haptic stimulation
WO2021145026A1 (ja) 2020-01-17 2021-07-22 ソニーグループ株式会社 情報処理装置及び情報処理端末
US11497675B2 (en) 2020-10-23 2022-11-15 Neosensory, Inc. Method and system for multimodal stimulation
US11989348B2 (en) 2020-12-31 2024-05-21 Snap Inc. Media content items with haptic feedback augmentations
KR20230128063A (ko) 2020-12-31 2023-09-01 스냅 인코포레이티드 햅틱 피드백을 갖는 실시간 비디오 통신 인터페이스
WO2022147449A1 (en) 2020-12-31 2022-07-07 Snap Inc. Electronic communication interface with haptic feedback response
WO2022212177A1 (en) * 2021-03-31 2022-10-06 Snap Inc. Virtual reality interface with haptic feedback response
US11749075B2 (en) 2021-04-07 2023-09-05 Electronics And Telecommunications Research Institute Telehaptic device
US11862147B2 (en) 2021-08-13 2024-01-02 Neosensory, Inc. Method and system for enhancing the intelligibility of information for a user
US11995240B2 (en) 2021-11-16 2024-05-28 Neosensory, Inc. Method and system for conveying digital texture information to a user

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101291635A (zh) * 2005-10-20 2008-10-22 直观外科手术公司 医用机器人系统中的计算机显示屏上的辅助图像显示和操纵

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US7236618B1 (en) 2000-07-07 2007-06-26 Chee-Kong Chui Virtual surgery system with force feedback
US7202851B2 (en) * 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US7831292B2 (en) * 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
GB0322875D0 (en) 2003-09-30 2003-10-29 British Telecomm Haptics transmission systems
US7289106B2 (en) * 2004-04-01 2007-10-30 Immersion Medical, Inc. Methods and apparatus for palpation simulation
US20070043725A1 (en) * 2005-08-16 2007-02-22 Steve Hotelling Feedback responsive input arrangements
US20070191056A1 (en) 2006-02-13 2007-08-16 Jeyhan Karaoguz Controlling alternative communication pathway utilization in a mobile communication device
US8138896B2 (en) * 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
KR100952698B1 (ko) 2008-03-10 2010-04-13 한국표준과학연구원 촉감 피드백장치를 이용한 촉감전달방법 및 그 시스템
TWM363640U (en) * 2009-04-13 2009-08-21 Emerging Display Tech Corp Touch input device having tactile sensory feedback function
US20100305448A1 (en) * 2009-05-26 2010-12-02 Anne Cecile Dagonneau Apparatus and method for indicating ultrasound probe orientation and activation status

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101291635A (zh) * 2005-10-20 2008-10-22 直观外科手术公司 医用机器人系统中的计算机显示屏上的辅助图像显示和操纵

Also Published As

Publication number Publication date
TWI476633B (zh) 2015-03-11
TW201209639A (en) 2012-03-01
EP2365421A2 (en) 2011-09-14
US20110221694A1 (en) 2011-09-15
EP2365421A3 (en) 2015-04-15
CN102262476A (zh) 2011-11-30
US9298260B2 (en) 2016-03-29
HK1164497A1 (zh) 2012-09-21
EP2365421B1 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
CN102262476B (zh) 传输触觉信息的系统和方法
US11360558B2 (en) Computer systems with finger devices
KR102160767B1 (ko) 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법
CN107977110A (zh) 用于获取指纹信息的电子装置和方法
US20210089131A1 (en) Finger-Mounted Input Devices
CN106797672B (zh) 移动终端及其控制方法
KR20160133514A (ko) 지문 센서
KR20150128377A (ko) 지문 처리 방법 및 그 전자 장치
KR20150088599A (ko) 이동 단말기 및 이의 제어방법
KR20160076264A (ko) 이동 단말기 및 그것의 제어방법
KR102055677B1 (ko) 이동 로봇 및 그 제어방법
KR20160142128A (ko) 와치형 단말기 및 그 제어방법
CN105814511B (zh) 偏差平面手腕输入装置、方法和计算机可读介质
WO2021073743A1 (en) Determining user input based on hand gestures and eye tracking
KR20190056132A (ko) 웨어러블 기기
CN109800045A (zh) 一种显示方法及终端
CN110036363A (zh) 调整屏幕尺寸的方法及用于其的电子装置
KR102546498B1 (ko) 피부 측정 장치 및 그 제어방법
CN106227375A (zh) 用于控制电子装置的显示器的方法及其电子装置
KR102067058B1 (ko) 휴대 단말기 및 그 제어 방법
KR101830739B1 (ko) 터치 패널, 이동 단말기 그리고 무선 입력장치
KR20150145729A (ko) 지문 입력을 통한 화면 이동 및 서비스 선택 방법, 지문 센서를 구비한 착용형 전자 장치 및 컴퓨터 프로그램
CN107358083A (zh) 一种信息处理方法、终端及计算机可读存储介质
KR20150077360A (ko) 차량 사고 녹화 장치 및 그것의 방법
KR20180013246A (ko) 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1164492

Country of ref document: HK

Ref country code: HK

Ref legal event code: DE

Ref document number: 1164497

Country of ref document: HK

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1164497

Country of ref document: HK

TR01 Transfer of patent right

Effective date of registration: 20170307

Address after: Singapore Singapore

Patentee after: Avago Technologies Fiber IP Singapore Pte. Ltd.

Address before: Alton Park Road, Irvine, California, 16215, 92618-7013

Patentee before: Zyray Wireless Inc.

TR01 Transfer of patent right
REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1164492

Country of ref document: HK

TR01 Transfer of patent right

Effective date of registration: 20181019

Address after: Singapore Singapore

Patentee after: Annwa high tech Limited by Share Ltd

Address before: Singapore Singapore

Patentee before: Avago Technologies Fiber IP Singapore Pte. Ltd.

TR01 Transfer of patent right