CN110389657A - 用于增强或虚拟现实环境的跨平台动态触觉效果设计工具 - Google Patents

用于增强或虚拟现实环境的跨平台动态触觉效果设计工具 Download PDF

Info

Publication number
CN110389657A
CN110389657A CN201910317154.6A CN201910317154A CN110389657A CN 110389657 A CN110389657 A CN 110389657A CN 201910317154 A CN201910317154 A CN 201910317154A CN 110389657 A CN110389657 A CN 110389657A
Authority
CN
China
Prior art keywords
haptic
processor
parameters
haptic effect
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201910317154.6A
Other languages
English (en)
Inventor
伍黎雯
威廉·S·瑞恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN110389657A publication Critical patent/CN110389657A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及用于增强或虚拟现实环境的跨平台动态触觉效果设计工具。本文公开的一个说明性系统包括计算设备,该计算设备包括存储器和与存储器通信的处理器。处理器生成交互式用户界面,并通过交互式用户界面获得输入参数和触觉参数。处理器使用映射算法将输入参数映射到触觉参数,并且至少部分地基于将输入参数映射到触觉参数来设计动态触觉效果。然后,处理器可以至少部分地基于所设计的动态触觉效果生成用于多个用户设备的多个动态触觉效果。

Description

用于增强或虚拟现实环境的跨平台动态触觉效果设计工具
技术领域
本公开总体涉及用户界面设备。更具体地,但不作为限制,本公开涉及用于设计用于增强或虚拟现实环境的跨平台动态触觉效果的工具。
背景技术
增强现实(“AR”)设备提供增强现实环境,在增强现实环境中,物理对象或“现实世界”对象与虚拟空间中的虚拟对象同时显示。类似地,虚拟现实(“VR”)设备可用于创建可以模拟用户在VR环境中的物理存在的VR环境。AR或VR设备的用户可以观察AR或VR环境并查看AR或VR环境中的虚拟对象或与之交互。然而,某些AR或VR设备可能缺乏触觉反馈能力。此外,一些AR或VR设备可能不提供动态触觉反馈或回放(例如,当用户与AR或VR环境交互时随时间改变的一个或多个触觉效果)。此外,用于开发或设计触觉效果的传统系统和方法可能限于设计静态触觉效果(例如,预定的触觉效果)并且可能不允许动态触觉效果的设计。此外,用于开发或设计用AR或VR环境的触觉效果的传统系统和方法可能限制用户设计仅用于特定设备(例如,移动电话)的触觉效果,因此使用这种传统系统和方法设计的触觉效果可能不适用于其他设备(例如,可穿戴设备)。
发明内容
本公开的各种实施例提供用于设计用于增强或虚拟现实环境的跨平台动态触觉的系统和方法。
在一个实施例中,一种系统包括计算设备,该计算设备包括处理设备和通信地耦合到该处理设备的非暂态计算机可读介质。该处理设备被配置为执行包括生成交互式用户界面来获得用于设计针对模拟现实环境的动态触觉效果的数据的操作。该处理设备还被配置为经由交互式用户界面获得指示与模拟现实环境或用户与模拟现实环境的交互相关联的输入参数的数据。该处理设备还被配置为经由交互式用户界面获得指示触觉参数的数据。该处理设备还被配置为使用映射算法将输入参数映射到触觉参数。该处理设备还被配置为至少部分地基于将输入参数映射到触觉参数来设计动态触觉效果。该处理设备还被配置为至少部分地基于所设计的动态触觉效果来生成用于多个用户设备的多个动态触觉效果。
提及这些说明性实施例不是为了限制或规定本主题的限制条件,而是为了提供示例以帮助理解本主题。在具体实施方式中讨论了说明性实施例,并且在那里提供了进一步的描述。通过检查本说明书和/或通过实践所要求保护的主题的一个或多个实施例,可以进一步理解各种实施例提供的优点。
附图说明
在本说明书的其余部分中更具体地阐述了完整且可行的公开内容。说明书参考以下附图。
图1是示出根据一个实施例的用于设计用于增强或虚拟现实环境的跨平台动态触觉的系统的框图。
图2是根据一个实施例的用于执行如下方法的步骤的流程图,所述方法用于设计用于增强或虚拟现实环境的跨平台动态触觉。
图3是根据一个实施例的可以被生成以用于设计用于增强或虚拟现实环境的跨平台动态触觉的交互式用户界面的示例。
图4是根据另一实施例的可以被生成以用于设计用于增强或虚拟现实环境的跨平台动态触觉的交互式用户界面的示例。
图5A-图5B是根据另一实施例的可以被生成以用于设计用于增强或虚拟现实环境的跨平台动态触觉的交互式用户界面的示例。
图6是根据一个实施例的用于执行如下方法的步骤的流程图,所述方法用于设计用于增强或虚拟现实环境的跨平台动态触觉。
具体实施方式
现在将详细参考各种的和替代的说明性实施例以及附图。每个示例是以解释的方式被提供的,而不是作为限制被提供。对于本领域技术人员而言明显的是,可以进行修改和变化。例如,作为一个实施例的一部分示出或描述的特征可以用在另一实施例中以产生又一实施例。因此,本公开旨在包括落入所附权利要求及其等同物的范围内的修改和变化。
用于设计用于增强或虚拟现实环境的跨平台动态触觉的工具的说明性示例
本公开的一个说明性实施例包括计算设备,该计算设备包括存储器、显示器和与这些元件中的每一个通信的处理器。在一些示例中,处理器可以基于所接收的或所获得的数据(例如,经由用户输入接收的数据)自动地设计或生成用于模拟现实环境(例如,增强或虚拟现实环境)的跨平台动态触觉效果。在一些示例中,动态触觉效果可以包括可以基于关于模拟现实环境或用户与模拟现实环境的交互捕获的数据而改变或变化的一个或多个触觉效果。在一些示例中,设计或生成跨平台动态触觉效果包括基于第一设计或生成的动态触觉效果生成或设计适用于各种用户设备的一个或多个其他动态触觉效果。
例如,计算设备的处理器可以生成一个或多个交互式用户界面,处理器可以经由此交互式用户界面接收数据(例如,经由用户输入)以设计(例如,生成)用于模拟现实环境的动态触觉效果。例如,处理器可以生成交互式用户界面,处理器可以通过该交互式用户界面接收用户输入,其中该用户输入指示与模拟现实环境或用户与模拟现实环境的交互相关联的一个或多个输入参数(例如,模拟现实环境中的虚拟对象的速度)。处理器还可以接收指示输入参数的值的范围的用户输入。作为示例,处理器接收指示虚拟对象的速度范围在每小时零英里到每小时六十英里之间的用户输入。在该示例中,处理器还可以接收指示可以与输入参数相关联(例如,被映射到输入参数)的动态触觉效果的一个或多个触觉参数的用户输入。在一些示例中,触觉参数是可以被映射到一个或多个输入参数或与一个或多个输入参数相关(反之亦然)的动态触觉效果的特征(例如,幅度、持续时间、位置、类型、音调、频率、一个或多个触觉效果之间的间隔、波形、周期性触觉效果的参数等)。在该示例中,处理器还可以接收指示与输入参数的一个或多个值相对应的触觉参数的一个或多个值的用户输入。作为示例,处理器接收如下用户输入:该用户输入指示虚拟对象的每小时零英里的速度对应于百分之零的动态触觉效果的最大幅度,并且每小时六十英里的速度对应于百分之百的动态触觉效果的最大幅度。
继续此示例,处理器可将一个或多个映射算法应用于输入参数和触觉参数以将输入参数映射到触觉参数(例如,确定输入参数与触觉参数之间的关联或关系)。例如,处理器可以接收指示可以应用于输入参数(该输入参数是模拟现实环境中的对象的速度)和触觉参数(该触觉参数是动态触觉效果的幅度)以将输入参数映射到触觉参数的映射算法(例如,线性模型)的数据。在该示例中,处理器可以将线性模型应用于输入参数和触觉参数,以确定在接收到的虚拟对象的速度值的范围内的值(例如,在每小时零英里和每小时六十英里之间)和动态触觉效果的幅度(例如,在百分之零的动态触觉效果的幅度和百分之百的动态触觉效果的幅度之间)之间的映射或关联。作为示例,处理器可以基于线性模型确定速度和动态触觉效果的幅度的值具有映射或关系,从而使得动态触觉效果的幅度随着速度的值线性地增大或减小。在该示例中,处理器然后可以基于映射自动地设计一个或多个动态触觉效果。例如,处理器可以通过插入在每小时零英里到六十英里之间的各种速度值和在百分之零到百分之百之间的相应幅度值,并且通过映射各种速度值和相应的用于动态触觉效果的幅度值之间的关系来设计一个或多个动态触觉效果。在该示例中,可以(例如,经由用户设备的触觉输出设备)将一个或多个动态触觉效果输出给用户,使得当用户与模拟现实环境交互时用户可以感知动态触觉效果的幅度随着虚拟对象的速度线性地增大或减小。
在说明性实施例中,处理器可以分析所设计的动态触觉效果并生成类似于所设计的动态触觉效果并且适用于各种设备的一个或多个附加的动态触觉效果。例如,处理器可以(例如,经由用户输入或从另一设备)接收或获得指示所设计的动态触觉效果旨在用于(例如,适用于)特定用户设备或触觉输出设备的数据。在该示例中,处理器可以自动地转换所设计的动态触觉效果以生成可以类似于所设计的动态触觉效果并且适用于各种其他用户设备或触觉输出设备的一个或多个动态触觉效果。
作为示例,处理器可以接收指示所设计的动态触觉效果适用于如下用户设备的数据:该用户设备包括支持宽范围频率值的高清晰度触觉输出设备。在该示例中,处理器可以(例如,通过修改映射到输入参数的一个或多个频率值)转换所设计的动态触觉效果以生成一个或多个类似的动态触觉效果,该一个或多个类似的动态触觉效果可以适用于包括支持较窄范围的频率值的触觉输出设备的各种用户设备。
在一些示例中,处理器可以将一个或多个映射算法单独地或组合地应用于任何输入参数和任何触觉参数,以将各种输入参数映射到各种触觉参数。例如,处理器可以将映射算法应用于模拟现实环境中的对象的速度和动态触觉效果的频率以将速度映射到频率。作为另一示例,处理器可以将映射算法应用于对象的速度和动态触觉效果的幅度以将速度映射到幅度。在又一示例中,处理器可以将映射算法应用于对象的速度以及动态触觉效果的幅度和频率两者,以将速度映射到动态触觉效果的幅度和频率。
以此方式,本文描述的系统和方法可以设计用于模拟现实环境的跨平台动态触觉效果。
给出这些说明性示例以向读者介绍这里讨论的一般主题,并且不旨在限制所公开的概念的范围。以下部分参考附图描述了各种附加特征和示例,其中相同的数字表示相同的元件,并且定向描述用于描述说明性示例,但与说明性示例一样,不应该用于限制本公开。
用于设计用于增强或虚拟现实环境的跨平台动态触觉的系统的说明性示例
图1是示出根据一个实施例的用于设计用于模拟现实环境(例如,增强或虚拟现实环境)的跨平台动态触觉效果的系统100的框图。在图1所示的实施例中,系统100包括计算设备101,其具有处理器102,处理器102经由总线106与其他硬件通信。计算设备101可以包括例如个人计算机、移动设备(智能电话)、平板电脑等。在一些实施例中,计算设备101可以包括图1中描绘的所有或一些组件。
存储器104(可以包括任何合适的有形(和非暂态)计算机可读介质(诸如随机存取存储器(“RAM”)、只读存储器(“ROM”)、可擦除可编程只读存储器(“EEPROM”)等)包含配置计算设备101的操作的程序组件。在所示的实施例中,计算设备101还包括一个或多个网络接口设备108、输入/输出(I/O)接口组件110和存储装置112。
网络接口设备108可以表示促进网络连接的任何组件中的一个或多个。示例包括但不限于诸如以太网、USB、IEEE 1394之类的有线接口,和/或诸如IEEE 802.11、蓝牙之类的无线接口,或用于接入蜂窝电话网络的无线电接口(例如,用于接入CDMA、GSM、UMTS或其他移动通信网络的收发器/天线)。
I/O组件110可用于促进到诸如一个或多个显示器114、游戏控制器、键盘、鼠标、操纵杆、相机、按钮、扬声器、麦克风和/或用于输入或输出数据的其他硬件的设备的有线或无线连接。存储装置112表示非易失性存储装置,诸如包括在计算设备101中的或耦合到处理器102的磁、光、或其他存储介质。
在一些实施例中,系统100可以包括用户设备120,用户设备120可以是例如移动设备(例如,智能手机)、平板电脑、电子阅读器、智能手表、头戴式显示器、眼镜、可穿戴设备、手持设备(例如,视频游戏控制器)或任何其他类型的用户接口设备。在一些示例中,用户设备120可以是可以用于与模拟现实环境(例如,增强或虚拟现实环境)交互的任何类型的用户界面设备。
用户设备120可以包括处理器122,处理器122经由总线124与其他硬件通信。用户设备120还可以包括存储器126、网络接口设备128、I/O组件130和显示器132,其中的每个元件可以以与存储器104、网络接口设备108、I/O组件110和显示器114基本相同的方式配置,尽管它们不是必须这样。
在一些实施例中,用户设备120包括触摸表面134(例如,触摸板或触敏表面),该触摸表面134可以通信地连接到总线124并且被配置为感测用户的触觉输入。虽然在该示例中,用户设备120包括被描述为被配置为感测用户的触觉输入的触摸表面134,但是本公开不限于这样的配置。而是,在其他示例中,用户设备120可以包括触摸表面134和/或可以不被配置为感测触觉输入的任何表面。
在一些示例中,用户设备120包括组合用户设备120的触摸表面134和显示器132的支持触摸的显示器。触摸表面134可以覆盖在显示器132上,可以在显示器132外部,或者可以是显示器132的组件上方的一个或多个材料层。在其他实施例中,用户设备120可以在支持触摸的显示器上显示包括一个或多个虚拟用户界面组件(例如,按钮)的图形用户界面(“GUI”),并且触摸表面134可以允许与虚拟用户界面组件交互。
在一些实施例中,用户设备120包括一个或多个传感器136。在一些实施例中,传感器136可包括例如陀螺仪、加速度计、成像传感器、相机、麦克风、力传感器、压力传感器、和/或可以检测、监测或以其他方式捕获关于用户设备的用户与模拟现实环境(例如,虚拟或增强现实环境)的交互的信息的其他传感器。例如,传感器136可以是当用户与模拟现实环境交互时可以捕获关于用户的运动或用户设备120的运动的信息的任何传感器。作为另一示例,传感器136可以是压力传感器,其捕获关于用户与模拟现实环境中的虚拟对象的接触的压力量或用户接触的压力量的变化的信息。
用户设备120还包括与处理器122通信的触觉输出设备138。触觉输出设备138被配置为响应于触觉信号而输出触觉效果。例如,触觉输出设备138可以响应于来自计算设备101的处理器102的触觉信号而输出触觉效果。作为另一示例,用户设备120的处理器122可以从计算设备101的处理器102接收触觉信号,并且处理器122可以向触觉输出设备138发送触觉信号。在一些实施例中,触觉输出设备118被配置为输出触觉效果,包括例如振动、挤压、戳、感知的摩擦系数的变化、模拟纹理、抚摸感觉、电触觉效果、表面变形(例如,与用户设备120相关联的表面的变形)、和/或固体、液体或气体的膨胀。此外,一些触觉效果可以按顺序和/或一致地使用相同或不同类型的多个触觉输出设备138。
尽管图1中示出了单个触觉输出设备138,但是一些实施例可以使用相同或不同类型的多个触觉输出设备138来产生触觉效果。在一些实施例中,触觉输出设备138在用户设备120内部并且与计算设备101通信(例如,经由诸如以太网、USB、IEEE 1394之类的有线接口,和/或诸如IEEE 802.11、蓝牙之类的无线接口,或无线电接口)。例如,触觉输出设备138可以与用户设备120相关联(例如,与之耦合到或在其内),并且被配置为从处理器102或处理器122接收触觉信号。
触觉输出设备138可包括例如压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量电动机(ERM)、线性共振致动器(LRA)、旋转或可伸缩旋转致动器(SRA)、超声波致动器、压电材料、变形装置、静电致动器、形状记忆材料(其包括金属、聚合物或复合材料)、或电磁共振致动器中的一个或多个。在一些实施例中,触觉输出设备138包括被配置用于输出变形触觉效果(例如,用于弯曲或变形与用户设备120相关联的表面)的流体。在一些实施例中,触觉输出设备138包括机械变形设备。例如,在一些实施例中,触觉输出设备138可包括耦合到旋转变形部件的臂的致动器。致动器可包括压电致动器、旋转/线性致动器、螺线管、电活性聚合物致动器、宏观纤维复合(MFC)致动器、形状记忆合金(SMA)致动器和/或其他致动器。如本文所用,术语“MFC元件”用于指代用作致动器和传感器的部件或元件。在一些示例中,术语“MFC元件”可用于指代使用能量输出触觉效果或接收能量作为输入的换能器。例如,当MFC元件被按压、触摸、弯曲等时,MFC元件可以用作传感器。在该示例中,当MFC元件被按压、触摸、弯曲等时,MFC元件的一个或多个致动器引线或端子的电压可以承载可以由微控制器进行检测、放大、分析等的电压。
转向计算设备101的存储器104,描绘了模块140、142、144、146和148以示出在一些实施例中如何配置设备以设计用于模拟现实环境的跨平台动态触觉效果。在一些实施例中,模块140、142、144、146和148可以包括处理器可执行指令,这些指令可以将处理器102配置为执行一个或多个操作。
例如,参数模块140包括可由处理器102执行以向用户(例如,向计算设备101或用户设备120的用户)提供内容(例如,文本、图像、声音、视频等)的指令。
作为示例,参数模块140可以包括指令,所述指令当由处理器102执行时,使得处理器102生成并输出(例如,经由显示器114)一个或多个交互式用户界面,处理器102经由该交互式用户界面可以接收或获得用于设计用于模拟现实环境的动态触觉效果的数据(例如,通过用户输入)。例如,参数模块140可以包括指令,所述指令当由处理器102执行时,使得处理器102生成交互式用户界面,处理器102可以通过该交互式用户界面接收指示与模拟现实环境或用户与模拟现实环境的交互相关联的一个或多个输入参数的数据。输入参数的示例包括但不限于模拟现实环境中的虚拟对象的或者用户与模拟现实环境的交互(例如,当用户与模拟现实环境交互时用户的运动或用户设备120的运动)的路径、速度、加速度、力等、用户与模拟现实环境中的虚拟对象的接触的压力量、虚拟环境中的对象的模拟的特征(例如,纹理、刚度等)、模拟现实环境中的对象之间的虚拟距离、或与模拟现实环境相关联的任何其他参数。在一些实施例中,处理器102可以经由交互式用户界面接收指示输入参数的值的范围的数据。作为示例,处理器102接收指示模拟现实环境中虚拟对象的速度的值的范围在每小时零英里到每小时一百英里之间的数据。在一些实施例中,输入参数或输入参数的值(例如,输入参数的值的范围)可以由处理器102基于从被配置为捕获关于一个或多个输入参数的信息的传感器获得或收集的传感器数据来确定或计算。在又一示例中,处理器102可以从存储器104、存储装置112或其他数据库或其他设备获得输入参数的值或输入参数的值的范围。
在一些实施例中,处理器102可以经由交互式用户界面接收指示可以由处理器102设计的动态触觉效果的一个或多个触觉参数的数据。在一些实施例中,触觉参数是可以被映射到一个或多个输入参数(例如,与一个或多个输入参数相关,反之亦然)的动态触觉效果的特征(例如,幅度、持续时间、位置、类型、音调、频率、一个或多个触觉效果之间的间隔、波形、周期性触觉效果的参数等)。在一些示例中,处理器102可以经由交互式用户界面接收指示与输入参数的一个或多个值相对应的触觉参数的一个或多个值的数据。作为示例,处理器102接收如下数据:该数据指示模拟现实环境中虚拟对象的每小时零英里的速度对应于百分之零的动态触觉效果的最大幅度,并且每小时一百英里的速度对应于百分之百的动态触觉效果的最大幅度。
在一些实施例中,参数映射模块142可以包括指令,所述指令当由处理器102执行时,使得处理器102将一个或多个映射算法应用于所接收的输入参数和触觉参数以将输入参数映射到触觉参数(例如,确定输入参数和触觉参数之间的关联或关系)。在一些实例中,处理器102可以将映射算法应用于输入参数和触觉参数,以定义或确定如何基于输入参数来调制触觉参数。在一些示例中,参数映射模块142可以包括指令,所述指令当由处理器102执行时,使得处理器102单独地或组合地将映射算法应用于任何输入参数和任何触觉参数,以将各种输入参数映射到各种触觉参数。例如,处理器102可以将映射算法应用于模拟现实环境中的对象的速度和动态触觉效果的频率以将速度映射到频率。作为另一示例,处理器102可以将映射算法应用于对象的速度和动态触觉效果的幅度以将速度映射到幅度。在又一示例中,处理器102可以将映射算法应用于对象的速度以及动态触觉效果的幅度和频率两者,以将速度映射到动态触觉效果的幅度和频率。
在一些实施例中,参数映射模块142可以包括指令,所述指令当由处理器102执行时,使得处理器102将一个或多个映射算法(例如,线性模型、指数模型、对数模型、自定义模型(例如,由处理器102经由用户输入从数据库或其他设备获得的模型)或任何其他合适的模型)应用于输入参数和触觉参数以将输入参数映射到触觉参数。
例如,处理器102可以接收指示映射算法(例如,线性模型)可以应用于输入参数和触觉参数以将输入参数映射到触觉参数的数据,其中输入参数是模拟现实环境中的对象的速度,而触觉参数是动态触觉效果的音调(例如,声调或频率)。在该示例中,处理器102可以将线性模型应用于输入参数和触觉参数,以确定所接收的对象的速度的值的范围内的值(例如,在每小时零英里和每小时一百英里之间的速度值)和动态触觉效果的音调(例如,在百分之零的最大音调和百分之百的最大音调之间)之间的映射或关联。作为示例,处理器102可以基于线性模型确定速度值和音调值具有映射或关系,使得动态触觉效果的音调值随着速度值线性地增大或减小。
在一些示例中,参数映射模块142可以包括指令,所述指令当由处理器102执行时,使得处理器102基于所确定的映射自动地设计一个或多个动态触觉效果。例如,处理器102可以通过如下操作来设计一个或多个动态触觉效果:插入在每小时零英里到一百英里之间的各种速度值以及在百分之零到百分之百的最大音调值之间的相应音调值,并且映射各种速度值和相应的用于动态触觉效果的音调值之间的关系。在该示例中,可以(例如,经由用户设备120的触觉输出设备138)将一个或多个动态触觉效果输出给用户,使得当用户与模拟现实环境交互时用户可以感知动态触觉效果的音调随着虚拟对象的速度线性地增大或减小。
作为另一示例,处理器102可以接收指示映射算法(例如,线性模型或不同的映射算法)可以应用于模拟现实环境中的对象的速度和作为动态触觉效果的频率的触觉参数以将速度映射到频率的数据。在该示例中,处理器102可以以与上文所述基本相同的方式将映射算法应用于速度和频率,以确定在接收到的对象的速度的值的范围内的值(在每小时零英里和每小时一百英里之间的速度值)和动态触觉效果的频率(例如,在百分之零的最大频率和百分之百的最大频率之间)之间的映射或关联。
在一些实例中,参数映射模块142可以包括指令,所述指令当由处理器102执行时,使得处理器102使用一个或多个映射算法将在针对输入参数接收的值的范围内的一个或多个子集的值映射到触觉参数。
例如,处理器102可以接收指示模拟现实环境中的虚拟对象的速度的值的范围在每小时零英里到每小时一百英里之间的数据。处理器102可以接收指示第一子集的速度值在每小时零英里到每小时六十英里之间并且第一子集的速度值与在百分之零到百分之八十的动态触觉效果的最大幅度值之间的第一触觉参数范围相对应的数据。在该示例中,处理器102可以使用任何合适的映射算法以与上文所述基本相同的方式将在第一子集的速度值中的速度值映射到第一触觉参数范围。继续该示例,处理器102可以接收指示第二子集的速度值在每小时六十英里到每小时一百英里之间并且第二子集的速度值与在百分之八十到百分之百的动态触觉效果的最大幅度值之间的第二触觉参数范围相对应的数据。在该示例中,处理器102可以使用任何合适的映射算法以与上文所述基本相同的方式将在第二子集的速度值中的速度值映射到第二触觉参数范围。
在该示例中,处理器102可以使用相同的映射算法或不同的映射算法将在第一子集的速度值中的速度值映射到第一触觉参数范围,并将在第二子集的速度值中的速度值映射到第二触觉参数范围。在一些示例中,处理器102然后可以基于与上文所述基本相同的方式进行的映射(例如,通过插入在第一子集或第二子集的速度值内的各种速度值和在第一或第二触觉参数范围内的相应的用于动态触觉效果的幅度值)生成或设计一个或多个触觉效果。作为示例,处理器102可以通过插入在每小时零英里到六十英里之间的各种速度值以及在百分之零到百分之八十的最大幅度值之间的相应幅度值来设计一个或多个动态触觉效果。
以这种方式,处理器102可以通过使用输入参数、触觉参数、输入参数范围、触觉参数范围或映射算法的各种组合将各种触觉参数映射到输入参数并且使用所映射的触觉参数设计动态触觉效果来设计或生成各种动态触觉效果。
在一些实施例中,触觉效果确定模块144包括指令,所述指令当由处理器102执行时,使得处理器102确定要生成的动态触觉效果。触觉效果确定模块144可以包括指令,所述指令当由处理器102执行时使得处理器102使用一个或多个算法或查找表来选择用于输出的一个或多个动态触觉效果。在一些实施例中,触觉效果确定模块144包括一个或多个算法或查找表,其包括与各种触觉效果相对应并且可由处理器102使用以确定动态触觉效果的数据。
具体地,在一些实施例中,触觉效果确定模块160可以包括指令,所述指令当由处理器102执行时,使得处理器102至少部分地基于模拟现实环境或用户与模拟现实环境的交互(例如,处理器102从用户设备的传感器136接收的传感器信号)确定动态触觉效果。
例如,传感器136可以在用户与模拟现实环境交互时检测用户的运动(例如,持有或佩戴用户设备120的用户)或用户设备120的用户运动,并且向处理器102发送传感器信号。处理器102可以接收传感器信号并确定用户或用户设备120的运动和/或用户或用户设备120的运动的特征。触觉效果确定模块160可以使得处理器102确定与所确定的运动或运动的特征相关联的输入参数。例如,处理器102可以确定用户正在以特定速度移动用户设备120并且确定速度是该特定速度值的速度输入参数。在该示例中,处理器102可以至少部分地基于所确定的用户运动、用户设备120的运动和/或运动的特征来确定动态触觉效果。例如,参数映射模块142可以使得处理器102以与上文所述基本相同的方式将映射算法应用于速度值以确定与速度值相关联的触觉参数。在该示例中,触觉效果确定模块160可以使得处理器102确定具有所确定的触觉参数的动态触觉效果(例如,具有与速度值相对应的幅度的动态触觉效果)。
作为另一示例,传感器136可以捕获关于用户与模拟现实环境中的虚拟对象的接触的压力量或者用户的接触的压力量的变化的信息,并且将传感器信号发送到处理器102。处理器102可以接收传感器信号并确定压力量或压力的变化。参数映射模块142可以使得处理器102以与上文所述基本相同的方式将映射算法应用于压力量或压力变化以确定与压力量或压力变化相关联的触觉参数。在该示例中,触觉效果确定模块160可以使得处理器102确定具有所确定的触觉参数的动态触觉效果(例如,具有与压力量或压力变化相对应的频率和/或持续时间的动态触觉效果)。
在一些实例中,跨平台模块146可以包括指令,所述指令当由处理器102执行时,使得处理器102分析所设计的动态触觉效果(例如,分析使用参数映射模块142设计的动态触觉效果的触觉参数)并生成可以类似于所设计的动态效果并且适用于各种设备或平台的一个或多个附加的动态触觉效果。
例如,处理器102可以(例如,经由用户输入或从另一设备)接收或获得如下数据:该数据指示所设计的动态触觉效果(例如,由处理器102执行包括在参数映射模块142中的指令而生成的动态触觉效果)旨在用于(例如,适用于)特定用户设备或触觉输出设备。在该示例中,跨平台模块146可以包括指令,所述指令当由处理器102执行时,使得处理器102自动转换所设计的动态触觉效果以生成可以类似于所设计的动态触觉效果并且适用于各种其他用户设备或触觉输出设备的一个或多个动态触觉效果。
作为示例,处理器102可以接收指示所设计的动态触觉效果适用于如下用户设备120的数据:该用户设备120包括支持宽范围频率值的高清晰度触觉输出设备138。在该示例中,跨平台模块146可以包括指令,所述指令当由处理器102执行时,使得处理器102自动转换所设计的触觉效果(例如,通过修改映射到输入参数的一个或多个频率值)以生成一个或多个类似的动态触觉效果,该一个或多个类似的动态触觉效果可适用于包括支持较窄范围的频率值的触觉输出设备的各种用户设备(例如,线性谐振致动器或旋转或可伸缩旋转致动器)。
作为另一示例,处理器102可以接收指示用户可以用来与模拟现实环境交互的各种用户设备120的类型或其他特征(例如,用户设备120的触觉输出设备138的类型)的数据。
在该示例中,处理器102可以基于用户设备120的类型或特征将所设计的动态触觉效果转换为一个或多个动态触觉效果。作为示例,处理器102基于虚拟对象的速度到动态触觉效果的频率的映射设计动态触觉效果。在该示例中,处理器102可以接收指示用户设备120或触觉输出设备138的类型的数据,并且处理器102可以确定用户设备120不能够修改或配置将要经由触觉输出设备138输出的动态触觉效果的频率。在该示例中,处理器102可以确定可以被映射到虚拟对象的速度以生成与最初设计的动态触觉效果相对应(相类似)并且适用于用户设备120和触觉输出设备138的动态触觉效果的一个或多个其他触觉参数(例如,幅度)。
在一些实施例中,触觉效果生成模块148表示使得处理器102生成触觉信号并将触觉信号发送到触觉输出设备(例如,用户设备120的触觉输出设备138或另一触觉输出设备)以生成设计的动态触觉效果的程序编制。在一些实施例中,处理器102可以向触觉输出设备发送触觉信号以使得触觉输出设备生成由处理器102执行包括在参数映射模块142、触觉效果确定模块144、或者跨平台模块146中的指令而设计或生成的动态触觉效果。在一些示例中,触觉效果生成模块148可以包括指令,所述指令当由处理器102执行时,使得处理器102访问存储的波形或命令以发送到触觉输出设备,从而创建选定的动态触觉效果。例如,触觉效果生成模块148可以使得处理器102访问包括指示与一个或多个设计的动态触觉效果相关联的一个或多个触觉信号的数据的查找表,并且确定要发送到触觉输出设备以生成一种特殊的动态触觉效果的波形。在一些实施例中,触觉效果生成模块148可以包括用于确定触觉信号的算法。在一些实施例中,触觉效果生成模块148可以包括指令,所述指令当由处理器102执行时,使得处理器102确定触觉效果的目标坐标(例如,输出触觉效果的位置的坐标)。在一些实施例中,处理器102可以将触觉信号发送到包括一个或多个触觉输出设备的触觉输出设备。在这样的实施例中,触觉效果生成模块148可以使得处理器102将触觉信号发送到一个或多个触觉输出设备以生成选定的动态触觉效果。
尽管图1的示例性系统100被描绘为具有一定数量的组件,但在其他实施例中,示例性系统100具有任何数量的附加或替代组件。此外,虽然在上面描述的一些示例中,处理器102可以基于所接收的数据将输入参数映射到触觉参数,该接收的数据指示要应用于输入参数和触觉参数的映射算法,但是本公开不限于这样的配置。而是,在其他示例中,处理器102可以(例如,基于输入参数的值的范围和相应的触觉参数的一个或多个值)确定或预测将应用于输入参数和触觉参数以将输入参数映射到触觉参数的映射算法。
用于设计用于增强或虚拟现实环境的跨平台动态触觉的说明性方法
图2是根据一个实施例的用于执行用于设计增强或虚拟现实环境的跨平台动态触觉的方法200的步骤的流程图。在一些实施例中,图2中的步骤可以用处理器(例如,通用计算机、移动设备或服务器中的处理器)可执行的程序代码实现。在一些实施例中,这些步骤可以由一组处理器实现。在一些实施例中,图2中所示的一个或多个步骤可以被省略或者以不同的顺序执行。类似地,在一些实施例中,还可以执行图2中未示出的附加步骤。出于说明的目的,下面参考上面关于图1所示的系统描述的组件来描述方法200的步骤,但是其他实现方式也是可能的。
方法200在步骤202处开始,此时用于获得或接收用于设计模拟现实环境的动态触觉效果的数据的交互式用户界面被生成。
在一些实施例中,计算设备101的参数模块140使得计算设备101的处理器102生成并输出(例如,经由计算设备101的显示器114)一个或多个交互式用户界面,处理器102可以经由此交互式用户界面接收或获得用于设计用于模拟现实环境的动态触觉效果的数据(例如,通过用户输入)。
方法200在步骤204处继续,此时经由交互式用户界面获得指示与模拟现实环境或用户与模拟现实环境的交互相关联的输入参数的数据。
在一些实施例中,处理器102可以生成交互式用户界面(例如,在步骤202中),处理器102可以经由该交互式用户界面接收指示与模拟现实环境或者用户与模拟现实环境的交互相关联的一个或多个输入参数的数据(例如,经由用户输入)。作为示例,模拟现实环境可以包括模拟绘制环境,在模拟绘制环境中,用户可以使用虚拟画笔与环境交互。在该示例中,可由处理器102在步骤204中接收的输入参数的示例可包括但不限于用户可在模拟现实环境中进行绘制的速度(例如,虚拟画笔的速度)、虚拟画笔的行进距离或路径、虚拟画笔的大小、与用户的运动相关联的参数(例如,用户的头部安装的显示器的移动或旋转)、用户与模拟现实环境中的虚拟对象的接触的压力的量、虚拟环境中对象的模拟特征(例如,纹理、刚度等)、模拟现实环境中的对象之间的虚拟距离、或者模拟现实环境或用户与模拟现实环境的交互的任何其他参数。在一些示例中,在步骤204中,处理器102可以经由交互式用户界面接收指示输入参数的值的范围的数据。作为示例,处理器102可以接收指示模拟现实环境中的虚拟汽车的速度的值的范围在每小时零英里到每小时六十英里之间的数据。
方法200在步骤206处继续,此时经由交互式用户界面获得指示触觉参数的数据。在一些实施例中,处理器102可以经由用户界面接收指示可以由处理器102设计的动态触觉效果的一个或多个触觉参数的数据。
在一些实施例中,触觉参数可以是周期性动态触觉效果(例如,可以基于周期性波形生成的动态触觉效果)的参数或特征,包括例如波形的形状(例如,正弦波形、方波波形、三角波形、方波波形、锯齿波形等)。在另一示例中,触觉参数可以是可以被映射到一个或多个输入参数(例如,与一个或多个输入参数相关,反之亦然)的动态触觉效果的任何特征(例如,幅度、持续时间、位置、类型、音调、频率、一个或多个触觉效果之间的间隔、波形等)。
在一些示例中,处理器102可以经由交互式用户界面接收指示与输入参数的一个或多个值相对应的触觉参数的一个或多个值的数据。作为示例,处理器102接收指示虚拟汽车的每小时零英里的速度对应于百分之零的动态触觉效果的最大幅度并且每小时六十英里的速度对应于百分之百的动态触觉效果的最大幅度的用户输入。
例如,图3是根据一个实施例的可以被生成(例如,在图2的步骤202中)以用于设计用于增强或虚拟现实环境的跨平台动态触觉的交互式用户界面300的示例。在该示例中,图1的计算设备101的处理器102可以生成交互式用户界面300并经由显示器(例如,显示器114)显示交互式用户界面300。
在图3所示的示例中,处理器102可以经由交互式用户界面300接收指示输入参数包括虚拟车辆的速度并且速度可以具有在每小时零英里和每小时三百英里之间的范围的数据。在该示例中,处理器102还可以接收指示第一触觉参数包括动态触觉效果的强度(例如,幅度)并且第二触觉参数包括动态触觉效果的音调(例如,可以是基于频率的声调或其他声音特征)的数据。在该示例中,处理器102可以接收指示虚拟车辆的每小时零英里的速度对应于百分之零的动态触觉效果的最大强度并且每小时三百英里的速度对应于百分之百的动态触觉效果的最大强度的数据。在该示例中,处理器102还可以接收指示每小时零英里的速度对应于动态触觉效果的音调的最大值(例如,值为1)并且每小时三百英里的速度对应于动态触觉效果的音调的最小值(例如,值为0)的数据。
返回图2,方法200在步骤208继续,此时使用映射算法将输入参数映射到触觉参数。例如,处理器102可以使用映射算法将输入参数(例如,在步骤204中获得的输入参数)映射到触觉参数(例如,在步骤206中获得的触觉参数)。
例如,参数映射模块142可以使得处理器102将一个或多个映射算法应用于所接收的输入参数和触觉参数,以将输入参数映射到触觉参数(例如,确定输入参数和触觉参数之间的关联或关系)。在一些实例中,处理器102可以将映射算法应用于输入参数和触觉参数,以定义或确定如何基于输入参数来调制触觉参数。在一些实例中,处理器102可以单独地或组合地将映射算法应用于任何输入参数和任何触觉参数以将各种输入参数映射到各种触觉参数。
在一些实施例中,处理器102可以将一个或多个映射算法(例如,线性模型、指数模型、对数模型、自定义模型(例如,由处理器102经由用户输入从数据库或其他设备获得的模型)或任何其他合适的模型)应用于输入参数和触觉参数以将输入参数映射到触觉参数。
例如并且参考图3,处理器102可以将映射算法应用于虚拟车辆的速度和动态触觉效果的强度以将速度映射到强度。在该示例中,处理器102还可以将映射算法应用于车辆的速度和动态触觉效果的音调以将速度映射到音调。在该示例中,处理器102可以确定速度和动态触觉效果的强度之间的单独映射以及速度和动态触觉效果的音调之间的另一映射。
在一些实例中,处理器102可以生成并输出映射曲线,该映射曲线指示一个或多个输入参数到一个或多个触觉参数的映射。例如,在图3所示的示例中,处理器102可以生成指示速度到动态触觉效果的强度的映射的映射曲线302以及指示速度到动态触觉效果的音调的映射的映射曲线304。在该示例中,处理器102可以将线性模型应用于速度值和强度值以将速度映射到强度,并且映射曲线302指示速度和强度之间的线性关系或映射。处理器102还可以将线性模型应用于速度值和音调值以将速度映射到音调,并且映射曲线302指示速度和音调之间的线性关系或映射。
在该示例中,处理器102可以确定速度和强度的值具有映射或关系,使得动态触觉效果的强度随着速度的值的增加而线性地增加。处理器102还可以确定速度和音调的值具有映射或关系,使得动态触觉效果的音调随着速度的值的增加而线性地减小。
虽然在上述示例中,处理器102应用相同的映射算法来将速度映射到强度并将速度映射到音调,但是本公开不限于这样的配置。而是,在其他示例中,处理器102可以将相同或不同的映射算法应用于输入参数和触觉参数的任何组合。作为示例,处理器102可以将线性模型应用于速度和强度值以将速度映射到强度,并将指数模型应用于速度和音调值以将速度映射到音调。
返回图2,在一些示例中,在步骤208中,处理器102可以使用一个或多个映射算法将在接收到的输入参数的值的范围内的一个或多个子集的值映射到触觉参数。
例如并且参考图4,在步骤208中,处理器102可以使用线性模型将虚拟对象的速度映射到触觉参数,并生成描绘速度到触觉参数的线性映射的交互式用户界面400。
在另一示例中并且参考图5A,在步骤208中,处理器102可以使用一个或多个映射算法将针对虚拟对象的速度(或其他输入参数)接收的值的范围内的各种子集的值映射到触觉参数。
例如,在该示例中,处理器102可以接收指示在模拟现实环境中的虚拟对象的速度的值的范围在每小时零英里到每小时一英里之间的数据。处理器102可以接收指示虚拟对象的第一子集的速度值在每小时0.3英里到每小时0.7英里之间并且与在百分之零和百分之百的动态效果的触觉参数的最大值之间的触觉参数范围相对应的数据。在该示例中,处理器102可以使用线性模型将虚拟对象的速度映射到触觉参数,并生成描绘速度到触觉参数的线性映射的交互式用户界面500。在图5所示的示例中,处理器102可以基于映射确定没有触觉参数值对应于在每小时0英里和每小时0.3英里之间以及在每小时0.7英里和每小时1英里之间的速度范围。
在图5B中描绘的示例中,处理器可以应用另一映射算法以使用包括例如指数模型的另一模型将虚拟对象的速度的第一子集范围映射到触觉参数范围。
返回到图2,方法200在步骤210继续,此时至少部分地基于将输入参数映射到触觉参数来设计动态效果。在一些实施例中,处理器102可以设计或生成动态触觉效果。
例如,参数映射模块142可以使得处理器102自动地设计一个或多个动态触觉效果。
例如,处理器可以通过插入输入参数(例如,虚拟对象的速度)的各种值和触觉参数的相应值并且映射各种输入参数值和动态触觉效果的相应触觉参数值之间的关系来设计一个或多个动态触觉效果。
方法200在步骤212处继续,此时至少部分地基于所设计的动态触觉效果(例如,由处理器102在步骤210中设计的动态触觉效果)生成用于多个用户设备的多个动态触觉效果。在一些实施例中,处理器102至少部分地基于所设计的动态触觉效果生成用于多个用户设备的多个动态触觉效果。
例如,跨平台模块146可以使得处理器102分析所设计的动态触觉效果(例如,在步骤210中使用参数映射模块142设计的动态触觉效果的触觉参数),并且生成可以类似于所设计的动态触觉效果并适用于各种设备或平台的一个或多个附加的动态触觉效果。
例如,处理器102可以(例如,经由用户输入或从另一设备)接收或获得指示所设计的动态触觉效果(例如,由处理器102执行包括在参数映射模块142中的指令而生成的动态触觉效果)旨在用于(例如,适用于)特定用户设备或触觉输出设备的数据。在该示例中,跨平台模块146可以包括指令,所述指令当由处理器102执行时,使得处理器102自动转换所设计的动态触觉效果以生成可以类似于所设计的动态触觉效果并且适用于各种其他用户设备、触觉输出设备或平台的一个或多个动态触觉效果。
作为示例,处理器102可以接收指示所设计的动态触觉效果适用于如下用户设备的数据:该用户设备包括支持宽范围频率值的高清晰度触觉输出设备。在该示例中,跨平台模块146可以包括指令,所述指令当由处理器102执行时,使得处理器102(例如,通过修改映射到输入参数的一个或多个频率值)转换所设计的动态触觉效果以产生一个或多个类似的动态触觉效果,该一个或多个类似的动态触觉效果可以适用于包括支持较窄范围的频率值的触觉输出设备的各种用户设备(例如,线性谐振致动器或旋转或可伸缩旋转致动器)。
图6是根据一个实施例的用于执行方法600的步骤的流程图,方法600用于设计用于增强或虚拟现实环境的跨平台动态触觉。在一些实施例中,图6中的步骤可以用处理器(例如,通用计算机、移动设备或服务器中的处理器)可执行的程序代码实现。在一些实施例中,这些步骤可以由一组处理器实现。在一些实施例中,图6中所示的一个或多个步骤可以被省略或者以不同的顺序执行。类似地,在一些实施例中,还可以执行图6中未示出的附加步骤。出于说明的目的,下面参考上面关于图1所示的系统描述的组件来描述方法600的步骤,但是其他实现方式也是可能的。
方法600开始于步骤602,此时经由交互式用户界面获得指示与模拟现实环境或用户与虚拟现实环境的交互相关联的输入参数的数据。
在一些实施例中,计算设备的处理器102可以生成交互式用户界面,处理器102可以经由该交互式用户界面接收指示与模拟现实环境或用户与模拟现实环境的交互相关联的一个或多个输入参数的数据(例如,经由用户输入)。在图6所示的示例中,输入参数可以包括但不限于模拟现实环境中的虚拟对象的速度、虚拟对象的行进距离、用户与虚拟对象的接触的压力量、用户对虚拟对象的挤压等
在一些实施例中,在步骤602中,处理器102可以将一个或多个算法应用于所接收的输入参数。在一些示例中,处理器102可以基于参数的类型或特征来确定要应用于所接收的输入参数的算法。例如,在图6中描绘的示例中,处理器102可以将速度算法应用于作为模拟现实环境中的虚拟对象的速度的输入参数。在一些示例中,处理器102可以将空间算法应用于作为虚拟对象的行进距离的输入参数。在另一示例中,处理器102可以将压力算法应用于作为用户与虚拟对象的接触的压力量的输入参数。在又一示例中,处理器102可以将挤压算法应用于与用户对虚拟对象的挤压相对应的输入参数。
在一些示例中,在步骤602中,处理器102可以将特定算法应用于所接收的输入参数,以确定是否应该播放或生成与输入参数相关联的动态触觉效果。
例如,方法600在步骤604继续,此时处理器102基于应用于所接收的输入参数的特定算法确定是否应该播放或生成与输入参数相关联的动态触觉效果。
如果处理器102在步骤604确定不应播放或生成与所接收的输入参数相关联的动态触觉效果,则方法600返回到步骤602,并且处理器102可以接收一个或多个附加输入参数,并且在步骤604确定是否应该播放或生成与输入参数相关联的动态触觉效果。
如果处理器102在步骤604确定应当播放或生成与所接收的输入参数相关联的动态触觉效果,那么方法600继续到步骤606,此时处理器102对所接收的输入参数进行归一化。
方法600在步骤608继续,此时处理器102将输入参数映射到触觉参数时(例如,在图2的步骤208中)。例如,处理器102可以使用映射算法将输入参数映射到触觉参数。在一些示例中,触觉参数可以是可以由处理器102设计的动态触觉效果的任何特征。例如,在图6中描绘的示例中,触觉参数可以包括强度(例如,幅度)、音调(例如,可以基于频率的声调或其他声音特征)、或动态触觉效果的任何其他触觉参数(例如,持续时间、位置、类型、频率等)。
例如,在步骤608中,参数映射模块142可以使得处理器102将一个或多个映射算法应用于所接收的输入参数和触觉参数,以将输入参数映射到触觉参数(例如,确定输入参数和触觉参数之间的关联或关系)。在一些实例中,处理器102可以将映射算法应用于输入参数和触觉参数以定义或确定如何基于输入参数来调制触觉参数。在一些实例中,处理器102可以单独地或组合地将映射算法应用于任何输入参数和任何触觉参数以将各种输入参数映射到各种触觉参数。
在一些实施例中,处理器102可以将一个或多个映射算法(例如,线性模型、指数模型、对数模型、自定义模型(例如,由处理器102经由用户输入从数据库或其他设备获得的模型)或任何其他合适的模型)应用于输入参数和触觉参数以将输入参数映射到触觉参数。
在图6所示的示例中,在步骤608中,处理器102可以单独地或组合地将映射算法应用于任何输入参数(例如,模拟现实环境中的虚拟对象的速度、虚拟对象的行进距离、用户与虚拟对象的接触的压力量或用户对虚拟对象的挤压)和动态触觉效果的任何触觉参数(例如,动态触觉效果的强度、音调等)以将各种输入参数映射到各种触觉参数。
作为示例,在步骤608中,处理器102可以以与上文所述基本相同的方式将映射算法应用于虚拟对象的速度和动态触觉效果的强度以确定虚拟对象的速度与动态触觉效果的强度之间的关联或关系。作为另一示例,处理器102可以以与上文所述基本相同的方式将映射算法应用于虚拟对象的行进距离和动态触觉效果的音调以确定虚拟对象的行进距离与动态触觉效果的音调之间的关联或关系。
方法600在步骤610继续,此时至少部分地基于将输入参数映射到触觉参数来设计或生成动态效果(例如,在步骤608中)。在一些实施例中,处理器102可以设计或生成动态触觉效果。
例如,参数映射模块142可以使得处理器102自动地设计或生成一个或多个动态触觉效果。例如,处理器102可以通过插入输入参数(例如,虚拟对象的速度)的各种值和触觉参数(例如,触觉效果的强度)的相应值并且映射输入参数的各种值和用于设计一个或多个动态触觉效果的触觉参数的各种值之间的关系来设计或生成一个或多个动态触觉效果。
虽然在上面描述的一些示例中,处理器102可以基于指示映射算法的用户输入将输入参数映射到触觉参数,但是本公开不限于这样的配置。而是,在其他示例中,处理器102可以确定或预测将应用于输入参数和触觉参数的映射算法。作为示例,处理器可以通过基于接收到的输入参数的值的范围和触觉参数的相应值执行一个或多个曲线拟合操作来确定映射算法。
一般考虑因素
以上讨论的方法、系统和设备是示例。各种配置可以适当地省略、替换或添加各种过程或组件。例如,在替代配置中,可以以与所描述的顺序不同的顺序执行方法,和/或可以添加、省略和/或组合各种阶段。而且,关于某些配置描述的特征可以在各种其他配置中组合。可以以类似的方式组合配置的不同方面和元素。此外,技术在发展,因此许多元素是示例,并不限制本公开或权利要求的范围。
在说明书中给出了具体细节以提供对示例配置(包括实现方式)的透彻理解。然而,可以在没有这些具体细节的情况下实践配置。例如,众所周知的电路、过程、算法、结构和技术被示出而没有不必要的细节,以避免模糊配置。说明书仅提供示例配置,并且不限制权利要求的范围、适用性或配置。相反,前面对配置的描述将为本领域技术人员提供用于实现所描述的技术的使能描述。在不脱离本公开的精神或范围的情况下,可以对元件的功能和布置进行各种改变。
此外,配置可被描述为被描绘为流程图或框图的过程。尽管每个过程可以将操作描述为顺序过程,但是许多操作可以并行或同时执行。另外,可以重新排列操作的顺序。过程可能包含图中未包含的其他步骤。此外,方法的示例可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或其任何组合来实现。当在软件、固件、中间件或微代码中实现时,用于执行必要任务的程序代码或代码段可以存储在诸如存储介质的非暂态计算机可读介质中。处理器可以执行所描述的任务。
已经描述了若干示例配置,在不脱离本公开的精神的情况下可以使用各种修改、替代构造和等同物。例如,上述元素可以是更大系统的组件,其中其他规则可以优先于本发明的应用或以其他方式修改本发明的应用。而且,可以在考虑上述元件之前、期间或之后进行许多步骤。因此,以上描述不限制权利要求的范围。
本文中对“被适配为”或“被配置为”的使用意味着开放性且包容性的语言,其不排除被适配为或被配置为执行附加任务或步骤的设备。另外,对“基于”的使用意味着开放性和包容性,因为“基于”一个或多个所述的条件或值的过程、步骤、计算或其他动作在实践中可以基于附加条件或超出所述的值。本文包括的标题、列表和编号仅是为了便于解释而不是限制性的。
根据本主题的方面的实施例可以在数字电子电路、计算机硬件、固件、软件或前述各项的组合中实现。在一个实施例中,计算机可包括一个或多个处理器。处理器包括或可访问计算机可读介质,例如耦合到处理器的随机存取存储器(RAM)。处理器执行存储在存储器中的计算机可执行程序指令,例如执行包括传感器采样例程、选择例程和其他例程的一个或多个计算机程序以执行上述方法。
这样的处理器可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和状态机。这种处理器还可以包括可编程电子设备,例如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电子可编程只读存储器(EPROM或EEPROM)或其他类似设备。
这样的处理器可以包括介质(例如有形计算机可读介质)或可以与介质通信,该介质可以存储指令,该指令当由处理器执行时可以使得处理器执行本文所述的步骤,如由处理器执行或辅助的那样。计算机可读介质的实施例可以包括但不限于能够向处理器(例如web服务器中的处理器)提供计算机可读指令的所有电、光、磁或其他存储设备。介质的其他示例包括但不限于软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其他磁性介质、或任何其他计算机处理器可以读取的介质。而且,各种其他设备可以包括计算机可读介质,诸如路由器、私有或公共网络、或其他传输设备。所描述的处理器和处理可以在一个或多个结构中,并且可以通过一个或多个结构被分散。处理器可以包括用于执行本文描述的方法中的一个或多个(或方法的一部分)的代码。
虽然已经关于本主题的具体实施例详细描述了本主题,但是应当理解,本领域技术人员在理解前述内容后可以容易地产生针对这类实施例的替代、变化和等同物。因此,应该理解的是,本公开内容是出于示例而非限制的目的而给出的,并且不排除包括对本主题的这些修改、变化和/或添加,因为对于本领域普通技术人员来说是明显的。

Claims (20)

1.一种计算设备,包括:
处理器和通信地耦合到所述处理器的非暂态计算机可读介质,其中所述处理器被配置为执行存储在所述非暂态计算机可读介质中的处理器可执行指令以:
从传感器接收传感器信号,所述传感器是用户设备的一部分并被配置为捕获关于用户的信息;
基于所述传感器信号确定所述用户的运动;
确定与所述用户的运动相关联的输入参数;
使用映射技术将所述输入参数映射到触觉参数;
设计用于多个用户设备中的至少一个用户设备的包括所述触觉参数的触觉效果;
生成与所述触觉效果相关联的触觉信号;和
将与所述触觉效果相关联的所述触觉信号发送到触觉输出设备。
2.根据权利要求1所述的计算设备,其中,所述处理器还被配置为执行存储在所述非暂态计算机可读介质中的处理器可执行指令以:
至少部分地基于将所述输入参数映射到所述触觉参数来设计所述触觉效果,其中所述触觉效果包括动态触觉效果;和
至少部分地基于所设计的触觉效果和所述多个用户设备的特征,生成用于所述多个用户设备的多个动态触觉效果。
3.根据权利要求1所述的计算设备,其中,所述处理器还被配置为执行存储在所述非暂态计算机可读介质中的处理器可执行指令以:
使用所述映射技术将多个输入参数映射到多个触觉参数;和
确定包括所述多个触觉参数的所述触觉效果。
4.根据权利要求1所述的计算设备,其中,所述处理器还被配置为执行存储在所述非暂态计算机可读介质中的处理器可执行指令以:
获得指示所述输入参数的第一子集的值和所述输入参数的第二子集的值的数据;
使用所述映射技术将所述输入参数的第一子集的值映射到第一子集的触觉参数;
使用所述映射技术将所述输入参数的第二子集的值映射到第二子集的触觉参数;
确定具有所述第一子集的触觉参数的第一触觉效果和具有所述第二子集的触觉参数的第二触觉效果;
生成与所述第一触觉效果相关联的第一触觉信号和与所述第二触觉效果相关联的第二触觉信号;和
将所述第一触觉信号和所述第二触觉信号发送到所述触觉输出设备。
5.根据权利要求1所述的计算设备,其中,所述触觉效果包括多个触觉效果。
6.根据权利要求5所述的计算设备,其中,所述多个触觉效果包括多个动态触觉效果,其中每个动态触觉效果基于所述传感器信号而变化。
7.根据权利要求1所述的计算设备,其中,所述触觉参数包括所述触觉效果的幅度、持续时间、位置、类型、音调或频率中的至少一者。
8.一种方法,包括:
由处理器接收来自传感器的传感器信号,所述传感器是用户设备的一部分并被配置为捕获关于用户的信息;
由所述处理器基于所述传感器信号确定所述用户的运动;
确定与所述用户的运动相关联的输入参数;
由所述处理器使用映射技术将所述输入参数映射到触觉参数;
由所述处理器设计用于多个用户设备中的至少一个用户设备的包括所述触觉参数的触觉效果;
由所述处理器生成与所述触觉效果相关联的触觉信号;和
由所述处理器将与所述触觉效果相关联的所述触觉信号发送到触觉输出设备。
9.根据权利要求8所述的方法,还包括:
由所述处理器至少部分地基于将所述输入参数映射到所述触觉参数来设计所述触觉效果,其中所述触觉效果包括动态触觉效果;和
由所述处理器至少部分地基于所设计的触觉效果和所述多个用户设备的特征,生成用于所述多个用户设备的多个动态触觉效果。
10.根据权利要求8所述的方法,还包括:
由所述处理器使用所述映射技术将多个输入参数映射到多个触觉参数;和
由所述处理器确定包括所述多个触觉参数的所述触觉效果。
11.根据权利要求8所述的方法,还包括:
由所述处理器获得指示所述输入参数的第一子集的值和所述输入参数的第二子集的值的数据;
由所述处理器使用所述映射技术将所述输入参数的第一子集的值映射到第一子集的触觉参数;
由所述处理器使用所述映射技术将所述输入参数的第二子集的值映射到第二子集的触觉参数;
由所述处理器确定具有所述第一子集的触觉参数的第一触觉效果和具有所述第二子集的触觉参数的第二触觉效果;
由所述处理器生成与所述第一触觉效果相关联的第一触觉信号和与所述第二触觉效果相关联的第二触觉信号;和
由所述处理器将所述第一触觉信号和所述第二触觉信号发送到所述触觉输出设备。
12.根据权利要求8所述的方法,其中,所述触觉效果包括多个触觉效果。
13.根据权利要求12所述的方法,其中,所述多个触觉效果包括多个动态触觉效果,其中每个动态触觉效果基于所述传感器信号而变化。
14.根据权利要求8所述的方法,其中,所述触觉参数包括所述触觉效果的幅度、持续时间、位置、类型、音调或频率中的至少一者。
15.一种非暂态计算机可读介质,包括处理器可执行程序代码,所述处理器可执行程序代码被配置为使得处理器:
从传感器接收传感器信号,所述传感器是用户设备的一部分并被配置为捕获关于用户的信息;
基于所述传感器信号确定所述用户的运动;
确定与所述用户的运动相关联的输入参数;
使用映射技术将所述输入参数映射到触觉参数;
设计用于多个用户设备中的至少一个用户设备的包括所述触觉参数的触觉效果;
生成与所述触觉效果相关联的触觉信号;和
将与所述触觉效果相关联的所述触觉信号发送到触觉输出设备。
16.根据权利要求15所述的非暂态计算机可读介质,还包括被配置为使得处理器执行如下操作的程序代码:
至少部分地基于将所述输入参数映射到所述触觉参数来设计所述触觉效果,其中所述触觉效果包括动态触觉效果;和
至少部分地基于所设计的触觉效果和所述多个用户设备的特征,生成用于所述多个用户设备的多个动态触觉效果。
17.根据权利要求15所述的非暂态计算机可读介质,还包括被配置为使得处理器执行如下操作的程序代码:
使用所述映射技术将多个输入参数映射到多个触觉参数;和
确定包括所述多个触觉参数的所述触觉效果。
18.根据权利要求15所述的非暂态计算机可读介质,还包括被配置为使得处理器执行如下操作的程序代码:
获得指示所述输入参数的第一子集的值和所述输入参数的第二子集的值的数据;
使用所述映射技术将所述输入参数的第一子集的值映射到第一子集的触觉参数;
使用所述映射技术将所述输入参数的第二子集的值映射到第二子集的触觉参数;
确定具有所述第一子集的触觉参数的第一触觉效果和具有所述第二子集的触觉参数的第二触觉效果;
生成与所述第一触觉效果相关联的第一触觉信号和与所述第二触觉效果相关联的第二触觉信号;和
将所述第一触觉信号和所述第二触觉信号发送到所述触觉输出设备。
19.根据权利要求15所述的非暂态计算机可读介质,其中,所述触觉效果包括多个触觉效果。
20.根据权利要求15所述的非暂态计算机可读介质,其中,所述触觉参数包括所述触觉效果的幅度、持续时间、位置、类型、音调或频率中的至少一者。
CN201910317154.6A 2018-04-20 2019-04-19 用于增强或虚拟现实环境的跨平台动态触觉效果设计工具 Withdrawn CN110389657A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/958,988 US10684689B2 (en) 2018-04-20 2018-04-20 Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments
US15/958,988 2018-04-20

Publications (1)

Publication Number Publication Date
CN110389657A true CN110389657A (zh) 2019-10-29

Family

ID=66239911

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910317154.6A Withdrawn CN110389657A (zh) 2018-04-20 2019-04-19 用于增强或虚拟现实环境的跨平台动态触觉效果设计工具

Country Status (5)

Country Link
US (1) US10684689B2 (zh)
EP (1) EP3557385A1 (zh)
JP (1) JP2019192238A (zh)
KR (1) KR20190122570A (zh)
CN (1) CN110389657A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157517A (ja) * 2020-03-27 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150199024A1 (en) * 2014-01-16 2015-07-16 Immersion Corporation Systems and Methods for User Generated Content Authoring
CN105556423A (zh) * 2013-06-11 2016-05-04 意美森公司 用于基于压力的触觉效果的系统和方法
US20160147333A1 (en) * 2014-11-25 2016-05-26 Immerson Corporation Systems and Methods for Deformation-Based Haptic Effects
US20170199569A1 (en) * 2016-01-13 2017-07-13 Immersion Corporation Systems and Methods for Haptically-Enabled Neural Interfaces

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098235B2 (en) 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
EP2350773B1 (en) 2008-10-10 2017-04-19 Internet Services, Llc Haptic otuput device for use with haptic encoded media
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
US8947216B2 (en) 2012-11-02 2015-02-03 Immersion Corporation Encoding dynamic haptic effects
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
US9274603B2 (en) * 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
US10162416B2 (en) * 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
US20150323994A1 (en) 2014-05-07 2015-11-12 Immersion Corporation Dynamic haptic effect modification
US9600076B2 (en) * 2014-12-19 2017-03-21 Immersion Corporation Systems and methods for object manipulation with haptic feedback
US9478109B2 (en) * 2014-12-29 2016-10-25 Immersion Corporation Virtual sensor in a virtual environment
CN109478089A (zh) 2016-07-08 2019-03-15 意美森公司 多模态触觉效果
US10102723B2 (en) 2016-10-31 2018-10-16 Immersion Corporation Dynamic haptic generation based on detected video events

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105556423A (zh) * 2013-06-11 2016-05-04 意美森公司 用于基于压力的触觉效果的系统和方法
US20150199024A1 (en) * 2014-01-16 2015-07-16 Immersion Corporation Systems and Methods for User Generated Content Authoring
US20160147333A1 (en) * 2014-11-25 2016-05-26 Immerson Corporation Systems and Methods for Deformation-Based Haptic Effects
US20170199569A1 (en) * 2016-01-13 2017-07-13 Immersion Corporation Systems and Methods for Haptically-Enabled Neural Interfaces
CN106990834A (zh) * 2016-01-13 2017-07-28 意美森公司 用于触觉使能的神经接口的系统和方法

Also Published As

Publication number Publication date
JP2019192238A (ja) 2019-10-31
US20190324540A1 (en) 2019-10-24
KR20190122570A (ko) 2019-10-30
US10684689B2 (en) 2020-06-16
EP3557385A1 (en) 2019-10-23

Similar Documents

Publication Publication Date Title
CN104122996B (zh) 用于支持触觉的紧贴式和多面显示器的系统和方法
CN110096131B (zh) 触感交互方法、装置、以及触感可穿戴设备
JP6598915B2 (ja) コンテキスト依存ハプティック確認システム
EP2713241B1 (en) Generating Haptic Effects for Dynamic Events
CN104423591B (zh) 用于光谱图的视觉处理以生成触觉效果的系统和方法
JP6541292B2 (ja) プリミティブを用いた高解像度ハプティック効果生成
CN106104434B (zh) 使用触摸屏设备确定用户利手和定向
CN109891491A (zh) 交互式显示器
KR101885740B1 (ko) 마찰 디스플레이에서 특징부를 제공하는 시스템 및 방법
JP6062621B2 (ja) 物理モデルに基づくジェスチャ認識
CN110389659A (zh) 针对增强或虚拟现实环境提供动态触觉回放的系统和方法
KR20170069936A (ko) 위치 기반 햅틱 효과를 위한 시스템 및 방법
CN106547348A (zh) 用于响应电子设备的封壳的变形而提供触觉效果的系统和方法
CN109240594A (zh) 通过触觉反馈提供快捷触摸手势的方法和设备
CN105809102A (zh) 手写轨迹识别方法与系统
US20180011538A1 (en) Multimodal haptic effects
CN106951069A (zh) 一种虚拟现实界面的控制方法及虚拟现实设备
US20190204918A1 (en) Systems and methods for long-range interactions for virtual reality
CN110389657A (zh) 用于增强或虚拟现实环境的跨平台动态触觉效果设计工具
CN116774835B (zh) 基于vr手柄的虚拟环境中交互方法、设备和存储介质
KR101169717B1 (ko) 햅틱으로부터 얻은 오감 컨테츠를 감성정보로 변환시키는 장치 및 방법
KR20150137376A (ko) 스마트폰 사용자의 개인화된 동작인식 방법 및 이를 이용한 게임방법
CN109782908A (zh) 一种在vr场景中模拟测量的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20191029

WW01 Invention patent application withdrawn after publication