CN105278676A - 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法 - Google Patents

基于视角和/或接近度修改触觉强度的可编程触觉设备和方法 Download PDF

Info

Publication number
CN105278676A
CN105278676A CN201510313633.2A CN201510313633A CN105278676A CN 105278676 A CN105278676 A CN 105278676A CN 201510313633 A CN201510313633 A CN 201510313633A CN 105278676 A CN105278676 A CN 105278676A
Authority
CN
China
Prior art keywords
haptic effect
processor
touch
sense
peripherals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510313633.2A
Other languages
English (en)
Inventor
W·瑞恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yi Mosen Co
Immersion Corp
Original Assignee
Yi Mosen Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yi Mosen Co filed Critical Yi Mosen Co
Publication of CN105278676A publication Critical patent/CN105278676A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/015Force feedback applied to a joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

本发明的实施例涉及一种系统,包括:主计算机,其被配置为在显示器上向用户产生虚拟环境;处理器;触觉外围设备和接近度传感器。触觉外围设备包括致动器,其中所述致动器被配置为接收来自处理器的控制信号,并且响应于来自处理器的控制信号而向触觉外围设备输出触觉效果。处理器被配置为根据虚拟环境内在虚拟照相机与虚拟对象之间的虚拟距离来改变用于所述致动器的控制信号。另外地或者可替代地,处理器被配置为根据虚拟环境内虚拟照相机的视角来改变用于致动器的控制信号。

Description

基于视角和/或接近度修改触觉强度的可编程触觉设备和方法
技术领域
本申请要求递交于2014年6月9日的美国临时专利申请序号62/009,898以及2014年11月6日递交的美国专利申请序号14/534,398的权益,该申请的全部内容因所有目的合并于此。
技术领域
本发明的实施例涉及用于提供触觉效果或反馈的系统和方法。
背景技术
由于市场趋向,以及由于偶然游戏者的参与,视频游戏和虚拟现实系统已经变得愈加流行。在典型的实施方案中,计算机系统在显示设备上向用户显示可视或图形环境。用户能够通过从接口设备输入命令或数据来与被显示的环境交互。计算机响应于用户对诸如操纵杆手柄的移动操纵物的操纵而更新环境并且利用显示屏向用户提供可视反馈。
常规的视频游戏设备或控制器使用可视提示和可听提示来向用户提供反馈。在一些接口设备中,还向用户提供动觉反馈(诸如主动和有阻力的触觉反馈)和/或触反馈(诸如振动、纹理和热),更一般地统称为“触觉反馈”或“触觉效果”。触觉反馈能够提供增强并简化用户接口的提示。例如,振动效果或振触触觉效果可用于向电子设备的用户提供提示以针对具体事件警告用户,或者提供现实反馈以在模拟或虚拟环境内产生更大的感觉沉浸感。常规的游戏用触觉反馈系统和其他设备通常包括用于产生触觉反馈的致动器,致动器附接到控制器/外围设备的壳体上。更特别地,接口设备的电动机或其他致动器被容置在控制器内且连接到控制用计算机系统。计算机系统接收来自接口设备的传感器信号且将适当的触觉反馈控制信号发送给致动器。然后,致动器将触觉反馈提供给控制器。计算机系统因此能够与其他可视和可听反馈相结合地将物理感觉传送给用户。
对提供触觉效果变化的触觉反馈系统存在需求,该系统能够提供之前不能为用户提供的更有沉浸感和可享受的体验。
发明概述
本发明的实施例涉及一种系统,包括:主计算机,其被配置为在显示器上向用户产生虚拟环境;处理器;以及触觉外围设备。该触觉外围设备包括致动器,其中所述致动器被配置为接收来自处理器的控制信号且响应于来自处理器的控制信号而向触觉外围设备输出触觉效果。处理器被配置为根据虚拟环境的虚拟照相机的变焦状态来改变用于致动器的控制信号,从而第一变焦状态使得所述致动器产生并施加第一触觉效果,第二变焦状态使得所述致动器产生并施加第二触觉效果。与在第一变焦状态下相比在第二变焦状态下虚拟对象表现为更近,第一触觉效果比第二触觉效果更弱。
本发明的实施例还涉及一种系统,包括主计算机,其被配置在显示器上向用户产生虚拟环境;触觉外围设备;以及处理器。触觉外围设备包括致动器,其中所述致动器被配置为接收来自处理器的控制信号且响应于来自处理器的控制信号而向触觉外围设备输出触觉效果。处理器被配置为根据虚拟环境内虚拟照相机的视角来改变用于致动器的控制信号,从而第一视角使得所述致动器产生并施加第一触觉效果,第二视角使得致动器产生并施加第二触觉效果,第一触觉效果不同于第二触觉效果。
本发明的实施例还涉及一种系统,包括:主计算机,其被配置为在显示器上向用户产生虚拟环境;触觉外围设备;以及处理器。触觉外围设备包括致动器,其中致动器被配置为接收来自处理器的控制信号且响应于来自处理器的控制信号而向触觉外围设备输出触觉效果。处理器被配置为根据虚拟环境的虚拟照相机的变焦状态来改变用于致动器的控制信号,从而第一变焦状态使得致动器产生并施加第一触觉效果,第二变焦状态使得致动器产生并施加第二触觉效果。与第一变焦状态相比,在第二变焦状态下虚拟对象表现为更近。处理器还被配置为根据虚拟环境内虚拟照相机的视角来改变用于致动器的控制信号,从而第一视角使得致动器产生并施加第三触觉效果,第二视角使得所述致动器产生并视角第四触觉效果。第一触觉效果、第二触觉效果、第三触觉效果和第四触觉效果彼此不同。
附图说明
通过如附图所示的本发明实施例的详细说明,本公开的前述特征和优点以及其它特征和优点将变得更加清晰。并入说明书并构成本发明的一部分的附图用于解释本发明的原理且使所属领域技术人员能够实现和利用本发明。附图不是按比例绘制的。
图1是根据其实施例的用于向触觉外围设备提供触觉反馈的系统的框图。
图2是图1的系统的示意图,其中触觉外围设备是触觉操纵杆。
图3和图4是根据其实施例的触觉外围设备的立体图,其中触觉外围设备是手持式游戏控制器。
图5示出了图3和图4的游戏控制器的框图。
图6是根据其实施例的用于向触觉外围设备提供触觉反馈的系统的立体图,其中触觉外围设备是可与平板式计算机一起使用的游戏平板式控制器。
图7示出了图6的系统的框图。
图8是图1的系统的显示器的图示,其中显示器上显示虚拟对象。
图9是图1的系统的虚拟照相机与图8的虚拟对象之间的虚拟距离的示意图。
图10是图1的系统的显示器的图示,其中显示器上显示虚拟对象。
图11是图1的系统的虚拟照相机与图10的虚拟对象之间的虚拟距离的示意图。
图12是示出根据其实施例的用于向触觉外围设备的用户提供触觉效果的方法的流程图,其中所提供的触觉效果根据虚拟照相机相对于作为触觉效果的源头或原因的虚拟对象的位置或距离而变化。
图13是图示出根据其实施例的用于确定和从主设备发送触觉信号的方法的流程图,其中所提供的触觉效果根据虚拟照相机相对于作为触觉效果的源头或原因的虚拟对象的位置或距离而变化。
图14是在视频游戏实施例中第三人虚拟照相机视角的图示。
图15是根据其实施例的触觉外围设备的图示,其中触觉外围设备是手持式游戏控制器,当用户处于如图14所示的第三人虚拟照相机视角时向触觉外围设备提供弱的和/或环境触觉反馈。
图16是在视频游戏实施例中第一人虚拟照相机视角的图示。
图17是根据其实施例的触觉外围设备的图示,其中触觉外围设备是手持式游戏控制器,当用户处于如图16所示的第一人虚拟照相机视角时向触觉外围设备提供强的和/或触发触觉反馈。
图18是图示出根据其实施例的用于向触觉外围设备的用户提供触觉效果的方法的流程图,其中所提供的触觉效果根据虚拟照相机视角而变化。
图19是图示出根据其实施例的确定和从主设备发送触觉信号的方法的流程图,其中所提供的触觉效果根据虚拟照相机视角而变化。
图20是根据其实施例的用于向触觉外围设备的用户提供触觉效果的方法的流程图,其中所提供的触觉效果根据虚拟照相机位置以及虚拟照相机视角而变化。
图21是如果同时存在用于图20的流程图的两种不同状态的相关触觉效果所产生的触觉效果的示意图,其中当虚拟照相机远离虚拟对象且处于第三人视角时提供弱的环境触觉效果。
图22是如果同时存在用于图20的流程图的两种不同状态的相关触觉效果所产生的触觉效果的示意图,其中当虚拟照相机远离虚拟对象且处于第一人视角时提供弱的触发触觉效果。
图23是如果同时存在用于图20的流程图的两种不同状态的相关触觉效果所产生的触觉效果的示意图,其中当虚拟照相机靠近或接近虚拟对象且处于第三人视角时提供强的环境触觉效果。
图24是如果停止存在用于图20的流程图的两种不同状态的相关触觉效果所产生的触觉效果的示意图,其中当虚拟照相机靠近或接近虚拟对象且处于第一人视角时提供强的触发触觉效果。
发明详述
现在将参考图来说明本发明的具体实施例,其中相似的附图标记指示相同或功能上相似的元件。下面的详细说明本质上仅为示例性的,不意在限制本发明或者本发明的应用和使用。此外,不意在受在前面的技术领域、背景技术、发明概述或下面的发明详述中所提供的任何明示或暗示理论限制。此外,虽然下面的说明主要涉及游戏设备和用于游戏设备的控制器,但是本领域技术人员将认识到说明同样适用于其他虚拟现实系统以及用于虚拟现实系统的外围设备。
本发明的实施例涉及一种系统,该系统包括被配置为在显示器上向用户产生虚拟环境的主计算机、处理器和触觉外围设备。触觉外围设备包括致动器,其中所述致动器被配置为接收来自处理器的控制信号且响应于来自处理器的控制信号而向触觉外围设备输出触觉效果。根据下面参考图更详细说明的其实施例,处理器被配置为根据虚拟环境内虚拟照相机与作为触觉效果的源头或原因的虚拟对象之间的虚拟距离来改变用于致动器的控制信号。换言之,处理器被配置为根据虚拟照相机的变焦状态来改变用于致动器的控制信号。例如,第一虚拟距离(或第一变焦状态)使得致动器产生并施加第一触觉效果,第二虚拟距离(或第二变焦状态)使得致动器产生并视角第二触觉效果。第一虚拟距离大于第二虚拟距离(或者与在第一变焦状态下相比,在第二变焦状态下虚拟对象表现为更靠近用户),第一触觉效果比第二触觉效果弱。根据下面将参考图更详细说明的其另一实施例,处理器被配置为根据虚拟环境内虚拟照相机的视角来改变用于致动器的控制信号,从而第一视角使得致动器产生并施加第一触觉效果,第二视角使得所述致动器产生并施加第二触觉效果,第一视角是第一人视点,第二视角是第三人视点。第一触觉效果不同于第二触觉效果。例如,第一触觉效果涉及触发效果,第二触觉效果涉及环境效果。根据下面将参考图更详细说明的其又一实施例,处理器可被配置为根据虚拟环境内虚拟照相机位置来改变用于致动器的控制信号,而且处理器可被配置为根据虚拟环境内虚拟照相机视角来改变用于致动器的控制信号。
更具体地,图1是根据其实施例的用于向触觉外围设备102提供触觉反馈的系统100的框图,图2是图1的系统的示意图。在图1-2的实施例中,触觉外围设备102是仅具有单个操纵物122的触觉操纵杆。但是,本领域技术人员将理解的是,触觉操纵杆仅是触觉外围设备的示例性实施例,可以使用具有其他构造、形状和尺寸的触觉外围设备。例如,如本文更详细说明的,触觉外围设备可以是与当前可用于视频游戏控制台系统的许多“游戏手柄”具有相似形这尺寸的、如图3-5所示的用于游戏系统的手持式游戏控制器302、可与如图6-7所示的平板式计算机604一起使用的触觉外围设备602、或者具有用户输入(UI)元件的其他控制器,诸如但不限于电话、个人数字助理(PDA)、平板电脑、计算机、游戏外围设备以及本领域技术人员所知的其他用于虚拟现实系统的控制器。
参考图1-2的实施例,触觉外围设备102与被配置为在显示器106上向用户产生虚拟环境的主计算机或计算机系统104通信。主计算机104可以包括视频游戏控制台、移动设备、或者包含被配置为在显示器上向用户产生虚拟环境的处理器的任何其他类型的计算机系统。如图2的框图所示,主计算机104包括主处理器108、存储器110和显示器106。主计算机104执行软件应用,软件应用存储在存储器110中且由主处理器108来执行。主处理器108可以是任意类型的通用处理器,或者可以是专门设计以便提供触觉效果信号的处理器。主处理器108可以是操作整个主计算机104的同一处理器,或者可以是单独的处理器。主处理器108能够确定要将何种触觉效果发送到触觉外围设备102以及按何种顺序发送触觉效果。存储器110可以是任意类型的存储设备或计算机可读介质,诸如但不限于随机存取存储器(RAM)或只读存储器(ROM)。存储器110还可以位于主处理器的内部或者是内部和外部存储器的任意组合。
主计算机104通过有线或无线方式与显示器106耦合。显示器106可以是向用户提供图形信息的任意类型的介质;这包括但不限于监控器、电视屏幕、等离子体设备、LCD、投影仪或任何其他显示设备。在实施例中,主计算机104是游戏设备控制台,显示器106是与本领域公知的游戏设备控制台耦合的监控器。在另一实施例中,如本领域技术人员公知的,主计算机104和显示器106可结合成单个设备。
在图1-2所示的实施例中,主计算机104通过有线或USB连接103与触觉外围设备102通信。然而,在其他实施例中,触觉外围设备102可以利用本领域公知的其他有线通信或无线通信方式与主计算机104通信。这可以包括但不限于串行连接或蓝牙连接。
如图2最佳显示,触觉外围设备102包括壳体或底座120以及能够以一个或多个自由度移动的操纵物或其他用户输入设备122。操纵物122从壳体102延伸出。虽然图2图示出操纵杆作为触觉外围设备的操纵物,本领域普通技术人员将理解的是本公开不限于操纵杆操纵物,而且包括任何能够整体地或者部分地以一个或多个自由度移动的设备。本领域技术人员将理解的是,操纵杆仅仅是控制器的操纵物的示例性实施例,可以使用具有其他构造的操纵物,诸如触发器、按钮或其他用户输入元件,如本文更详细说明的。
另外参考图1,触觉外围设备102包括本地处理器112、本地存储器114、操纵物传感器123和至少一个致动器118。触觉外围设备102还可以包括接近度传感器116和视角传感器117,但是并不是在所有实施例中都需要这些传感器,如本文更详细说明的。触觉外围设备102可以可替代地配置为不包括本地处理器112,由此通过主计算机104来处置和处理所有来自触觉外围设备102的输入/输出信号。如本文更详细说明的,本地处理器112与致动器118耦合以基于来自主计算机104的高级监督或流送命令来向其提供触觉效果。类似于主处理器108,本地处理器112还能够确定发送何种触觉效果以及以何种顺序发送触觉效果。另外,如果触觉外围设备102包括多于一个的致动器,本地处理器112能够确定哪个致动器将接收到触觉效果信号。另外,类似于主计算机104的存储器110,本地存储器114可以是任意类型的存储设备或计算机可读介质,诸如但不限于随机存取存储器(RAM)或只读存储器(ROM)。本地存储器114还可以位于本地处理器的内部,或者是内部和外部存储器的任意组合。
如上所述,触觉外围设备102的操纵物122可以在一个或多个自由度内实际地移动。例如,用户可以将操纵物122向前、向后、向左或向右移动。当用户移动操纵物122时,操纵物传感器123检测操纵物的移动和/或位置并且将传感器信号发送到本地处理器112。然后,本地处理器112将传感器信号传送或发送给主计算机104。基于接收到的传感器信号,主计算机104执行视频游戏内的动作且更新虚拟环境。换言之,触觉外围设备102的操纵物122的移动代表了来自用户的输入,这允许用户与在主计算机104上运行的软件应用交互,包括但不限于涉及第一人射击的视频游戏、第三人人物交互、车辆相关游戏或计算机仿真。操纵物122的移动可以为主计算机104提供与计算机产生的图形对象的移动对应的输入,诸如光标或其他图像,或者主计算机104经由显示器106显示的某种其他图形对象,或者控制虚拟人物或游戏化身,如人、车辆、或者可见于游戏或计算机仿真中的某其他实体。
除了从操纵物传感器123接收传感器信号之外,本地处理器112还从主计算机104接收与待从致动器118输出的触觉效果有关的高级监督或流送命令。然后,本地处理器112基于来自主计算机104的高级监督或流送命令来将控制信号或驱动信号提供给致动器118。例如,当运行时,电压量值和持续时间从主计算机104流送给触觉外围设备102,在触觉外围设备102中信息通过本地处理器112提供给致动器118。主计算机104将诸如待通过致动器118输出效果的类型(例如,振动、颠簸、制动、弹起等)的高级命令提供给本地处理器112,由此本地处理器112就将待输出的触觉效果的特定特性(例如,量值、频率、持续时间等)指示给致动器118。本地处理器112可以从与其耦合的本地存储器114取回触觉效果的类型、量值、频率、持续时间或其他特性。根据从主计算机104接收到的游戏动作和控制信号,本地处理器112可以将控制或驱动信号发送给致动器118以便输出各种触觉效果或感觉中的一种,包括振动、制动、纹理、颠簸或弹起。
致动器118可以是虚拟现实系统领域的普通技术人员所知的惯性或动觉致动器。可能的致动器包括但不限于:偏心旋转质量块(“ERM”)致动器,其中通过电动机来移动偏心质量块;线性共振致动器(“LRA”),其中与弹簧附接的质量块被前后移动;压电致动器;电磁电动机,其中通过电动机来移动偏心质量块;振触致动器;惯性致动器;形状记忆合金;响应于信号而变形的电活性聚合物;用于改变硬度的机构;静电摩擦(ESF);超声表面摩擦(USF)或其他适当类型的执行设备。在另一实施例中,致动器可以使用动觉触觉反馈,包括例如改变操纵物122和/或壳体120的硬度/阻尼的螺线管、在操纵物122和/或壳体120中改变尺寸的小气囊或者形状改变材料。
如之前所述,触觉外围设备102仅是触觉外围设备的示例性实施例,可以使用具有其他构造、形状和尺寸的触觉外围设备。例如,图3-5图示出可以在其实施例中使用的触觉外围设备302的另一实施例。图3和图4是触觉外围设备302的不同的立体图,其中触觉外围设备是手持式游戏控制器,而图5图示出在还包括主计算机104和显示器106的游戏系统300中使用的触觉外围设备302的框图。触觉外围设备302的壳体324被定形成容易地容纳左撇子用户或右撇子用户抓握设备的两只手。本领域技术人员将理解的是,触觉外围设备302仅是与当前可用于视频游戏控制台系统的许多“游戏手柄”具有类似形状和尺寸的控制器的示例性实施例,可以使用具有其他用户输入元件构造、形状和尺寸的控制器,包括但不限于,诸如WiiTM远程或WiiTMU控制器、SixAxisTM控制器或Wand控制器、XboxTM控制器或类似控制器以及定形为实际物体(诸如网球拍、高尔夫球棒、垒球拍等)以及其他形状的控制器的控制器。
触觉外围设备302包括多个用户输入元件或操纵物,包括操纵杆322、按钮330和触发器332。如本文所使用的,用户输入元件是指由与主计算机104交互的用户操纵的如触发器、按钮、操纵杆等接口设备。从图3-4中能够看出,如本领域技术人员公知的,可以在触觉外围设备302上包含多于一个的每个用户输入元件和附加用户输入元件。因此,例如触发器332的当前说明不将触觉外围设备302限于单个触发器。此外,图5的框图仅示出了一个操纵杆322、按钮330和触发器332。但是,本领域技术人员将理解的是,可以使用多个操纵杆、按钮和触发器以及其他用户输入元件,如上所述。
从图5的框图中能够看出,触觉外围设备302包括直接驱动其各个用户输入元件的定标致动器或电动机以及在用户的手通常所在的位置与壳体324耦合的一个或多个普通的或发出隆隆声(rumbling)的致动器326、328。更特别地,操纵杆322包括与其耦合的定标致动器或电动机318A,按钮330包括与其耦合的定标致动器或电动机318B,触发器332包括与其耦合的定标致动器或电动机318C。除了多个定标致动器之外,触觉外围设备302包括与其各个用户输入元件耦合的位置传感器。更特别地,操纵杆322包括与其耦合的位置传感器323,按钮330包括与其耦合的位置传感器331,触发器332包括与其耦合的位置传感器333。本地处理器312与定标致动器318A、318B、318C以及操纵杆322、按钮330和触发器332的各自的位置传感器323、331、333耦合。响应于从位置传感器323、331、333接收到的信号,本地处理器312指示定标致动器318A、318B、318C分别直接向操纵杆322、按钮330和触发器332来提供定向或定标效果。这种定标效果能够与普通致动器326、328沿着控制器整体产生的普通的或发隆隆声的触觉效果区分开或区别开。由于多个模态同时参与,例如,视频、音频和触觉,所以集合触觉效果为用户提供更强的游戏沉浸感。类似于触觉外围设备102和主计算机104,触觉外围设备302与具有显示器106的主计算机104耦合和通信。触觉外围设备302的本地处理器312与每个致动器耦合以基于来自主计算机104的高级监督或流送命令而向其提供触觉效果。触觉外围设备302的致动器可以是用于触觉外围设备102的致动器118的本文所列的任意类型的致动器。触觉外围设备302还可以包括类似于接近度传感器116的接近度传感器(未示出)、和/或类似于视角传感器117的视角传感器(未示出),但是如本文更详细说明的并不是所有实施例都需要传感器。
图6-7图示出根据其另一实施例的触觉外围设备602,其中触觉外围设备602是可与平板式计算机604一起使用的游戏平板式控制器。平板式计算机604设计成专门用于游戏活动,诸如可从RazerInc.获得的,或者可以是公知的且可从市场获得的平板式计算机,诸如 Galaxy触觉外围设备602包括被配置为接收平板式计算机604的对接部640以及其上布置有操纵物以便用户在平板式计算机604上控制游戏的手柄642、644。对接部640将触觉外围设备602与平板式计算机604连接以使用户在手柄642、644上的动作,诸如按下按钮、移动操纵杆、按下触发器等,引起在平板式计算机604上所玩的游戏上的动作。
手柄642、644包括可见于控制器上的典型操纵物或用户输入元件。将参考手柄644来描述操纵物。然而,本领域技术人员将理解的是可以在手柄642上使用相同的或相似的操纵物。特别地,手柄644包括操纵杆622、按钮630和触发器632。如图6所示以及本领域技术人员所公知的,可以在每个手柄642、644上包含多于一个的这些用户输入元件中的每一个。此外,手柄642、644包括在用户的手通常所在的位置上与其附接的普通的或发隆隆声的致动器626、628,用于向手柄642、644提供普通的或发隆隆声的触觉效果,如上文参考普通的或发隆隆声的致动器326、328所描述的。
如图7的框图所示,触觉外围设备602包括本地处理器612,其经由对接部640与平板式计算机604通信。图7的框图仅示出了一个操纵杆622、按钮630和触发器632。但是,本领域技术人员将理解的是,如上所述,可以使用多个操纵杆、按钮和触发器以及其他用户输入元件。本地处理器612与定标致动器618A、618B、618C以及操纵杆622、按钮630和触发器632的各自的位置传感器623、631、633耦合。响应于从位置传感器623、631、633接收到的信号,本地处理器612指示定标致动器618A、618B、618C分别向操纵杆622、按钮630和触发器632直接提供定向或定标效果。触觉外围设备602的本地处理器612与每个致动器耦合以便基于来自主计算机604的高级监督或流送命令来向其提供触觉效果。触觉外围设备602的致动器可以是本文列出的用于触觉外围设备102的致动器118的任意类型的致动器。触觉外围设备602还可以包括类似于接近度传感器116的接近度传感器(未示出),但是不是所有实施例都需要该传感器,如本文更详细说明的。
无论使用哪种触觉外围设备构造,主处理器108和/或本地处理器112都配置为根据虚拟照相机的变焦状态来改变用于致动器的控制信号。换言之,处理器108和/或本地处理器112被配置为根据虚拟环境内虚拟照相机与作为触觉效果源头或原因的虚拟对象之间的虚拟距离来改变或修改用于致动器118的控制信号。例如,当虚拟对象更远离虚拟照相机,即处于第一变焦状态,播放或输出较弱的触觉效果,当虚拟对象更接近虚拟照相机时,即处于第二变焦状态,播放或输出较强的触觉效果,在第二变焦状态下虚拟对象出现得更大和/或更近,或者用户觉察到虚拟对象更大和/或更近。为了图示说明的原因,本文结合虚拟环境内虚拟照相机与虚拟对象之间的虚拟距离描述了虚拟照相机的示例性的变焦状态。但是,如虚拟环境领域的普通技术人员所理解的,虚拟距离的变化被仿真或通过计算机生成且不包括虚拟照相机的物理移动(因为是虚拟照相机本身被仿真或者通过计算机生成,而不是物理照相机)。此外,虽然参考系统100和触觉外围设备102描述,本领域普通技术人员将理解的是,图3-5的主处理器和/或本地处理器以及图6-7的实施例还被配置为根据虚拟环境内虚拟照相机与虚拟对象之间的虚拟距离来改变用于各致动器的控制信号。
将参考图8-11来更详细地说明虚拟距离。图8是显示器106的图示,其中显示器上显示虚拟对象852。图8还可以被视为图示出虚拟照相机850的第一变焦状态。在该示例中,虚拟对象852是汽车,本领域普通技术人员将理解的是,虚拟对象可以是虚拟现实环境中显示的任何对象或事件。虚拟对象是触觉效果的源头或原因,使得与向用户产生并播放与虚拟对象有关的触觉效果。此外,虚拟对象可以包括一个或多个触觉效果的源头或原因。例如,如果虚拟对象是汽车,则汽车整体可以产生第一触觉效果,而汽车上的具体点如轮胎可以产生第二或不同的触觉效果。图9是系统100的虚拟照相机850与虚拟对象852之间的第一虚拟距离D1的示意图。如本文所使用的“虚拟照相机”是指处理器软件内捕获用于虚拟环境的视野的机构。虚拟照相机是按与实际情形的照相机或数码照相机相同的方式工作和表现的处理器软件的功能。在软件中,虚拟照相机由确定如何基于虚拟照相机在计算机程序中的位置和角度来渲染虚拟对象的数学计算来构成。如同实际的照相机,当操作虚拟现实程序中的虚拟照相机时,用户可以使用类似于摇镜、变焦或者改变焦距和焦点的功能。
图10还是显示器106的图示,其中显示器上显示虚拟对象852,图11是系统100的虚拟照相机850与虚拟对象852之间的第二虚拟距离D2的示意图。图10还可被视为图示出虚拟照相机850的第二变焦状态,与图8所示的虚拟照相机850的第一变焦状态相比,在第二变焦状态下虚拟对象852表现得更大和/或更接近用户。从第一虚拟距离D1和第二虚拟距离D2的比较能够看出,第一虚拟距离D1比第二虚拟距离D2更大或更长,与图10相比,在图8中虚拟对象852表现得更小且更远。虚拟照相机850与虚拟对象852之间的第一虚拟距离D1使得致动器118产生并施加第一触觉效果,虚拟照相机850与虚拟对象852之间的第二虚拟距离D2使得致动器118产生并施加第二触觉效果。在实施例中,第一触觉效果比第二触觉效果弱。换言之,当虚拟照相机850与虚拟对象852之间的距离相对长时,输出相对较弱的触觉效果,而当虚拟照相机850与虚拟对象852之间的距离相对较短时,输出相对较强的触觉效果。基于虚拟对象852的接近度来修改触觉效果为用户提供了更大的游戏沉浸感。例如,随着虚拟对象852从如图8所示的远离位置移动到从如图10所示的靠近或接近位置,相关的触觉效果可逐渐增强以模拟虚拟对象852朝向观看者移动的感觉。在另一示例中,虚拟对象852可以包括在虚拟环境内发生的事件,诸如爆炸,相关的触觉效果可以包括振动。如果在诸如图8所示的远离位置发生爆炸,则这种相关的振动相对较弱以模拟从远离或远处位置体验爆炸的感觉。如果在诸如图10所示的接近或靠近位置发生爆炸,则该相关的振动相对强以模拟从接近或靠近位置体验爆炸的感觉。
诸如第一虚拟距离D1和第二虚拟距离D2的虚拟距离可以通过多种方式之一来检测或计算。在其一些实施例中,可以通过接近度传感器116来检测虚拟距离。接近度传感器116通过检测触觉外围设备102与主计算机104之间的距离变化来检测用户的动作。更特别地,在实施例中,接近度传感器116被配置为检测触觉外围设备102与主计算机104之间的实际距离并且还配置为将实际距离发送到主处理器108和/或本地处理器112。基于触觉外围设备102与主计算机104之间的检测到的实际距离的变化,主处理器108和/或本地处理器112产生虚拟照相机850与虚拟对象852之间的移动,从而改变虚拟照相机850与虚拟对象852之间的虚拟距离。当触觉外围设备102与主计算机104之间的实际距离变化时,虚拟照相机850与虚拟对象852之间的虚拟距离存在相关联的或相关的变化。例如,如果用户(以及因此由用户握持或与用户耦合的触觉外围设备102)移动而更靠近主计算机104,则接近度传感器116将该移动检测为触觉外围设备102与主计算机104之间实际距离减小,其结果是,主处理器108和/或本地处理器112减小虚拟照相机850与虚拟对象852之间的虚拟距离。另外,接近度传感器116可配置为确定对象的实体的和虚拟的边缘以及它们可能彼此接触的点。接近度传感器116的示例包括但不限于激光传感器、超声传感器、光传感器、深度传感器、用于近场通信(NFC)或蓝牙4.0的传感器(在此情况下设备彼此之间具有有限区域的识别度)、以及本领域公知的其他距离或测量传感器。例如,在实施例中,接近度传感器116可以位于两个单独的或独立的手持式触觉外围设备中,诸如两个Wii控制器或者两个RazorHydra/SixenseSTEM设备,触觉效果可以基于用户握持两个手持式触觉外围设备分开多远以及手持式触觉外围设备与诸如安装在显示设备或其他例如充电站的相关外围设备上的传感器的系统上安装的接近度传感器之间的距离而变化。因此,接近度传感器116可以位于如图1所示的触觉外围设备102内或者与其物理地耦合。可替代地,接近度传感器可以位于主计算机104内或者可以是远离主计算机104和触觉外围设备102的单独的/独立的传感器设备。在其实施例中,接近度传感器116是被配置为与用户优化的可佩戴传感器设备或者是附接到可佩戴触觉外围设备的传感器设备。此外,在其实施例中,接近度传感器116是配置为与用户耦合的安装在头部的传感器设备或者是附接到安装到头部的触觉外围设备的传感器设备。
在其另一实施例中,接近度传感器116被配置为检测用户移动,还被配置为将用户移动发送到主处理器108和/或本地处理器112。基于检测到的或感测到的用户移动,主处理器108和/或本地处理器112产生虚拟照相机850与虚拟对象852之间的移动,从而改变虚拟照相机850与虚拟对象852之间的虚拟距离,如在上文段落所说明的。换言之,通过主处理器108和/或本地处理器112在虚拟现实环境中反映所检测到的或感测到的用户移动。在该实施例中接近度传感器116的示例包括但不限于摄像机设备、网络照相机设备、不经过任何物理接触而检测附近对象的存在的传感器、应用于用户皮肤的、检测肌肉运动以确定用户运动的传感器、红外传感器、超声传感器、近场发送、立体三角测量、编码孔径、干涉量度或诸如类似于XBOXKinect的设备的任何其他测距成像传感器。虽然通过单个接近度传感器进行了描述,本领域普通技术人员将理解的是,可以同时使用多个传感器,或者可以多个传感器可以相结合使用从而确定用户的运动。例如,传感器系统可以位于电视机、监控器或Kinect附件内以利用多个传感器来捕获用户在空间中的实时3D图像。传感器系统还被配置为利用网络照相机来识别面部,以及与用户之间的交互点,诸如用户的手,以及与其他对象的交互点,诸如触觉外围设备。传感器系统利用该信息来确定相对于系统和/或外围设备的用户位置并且确定外围设备相对于用户和/或系统的位置。位于对象内的智能传感器还使能彼此识别,从而在外围设备(诸如陀螺仪、加速度计等)内的传感器将另外地通知这些外围设备的方位和位置。
在又一实施例中,可以不使用接近度传感器116来检测虚拟距离(因此在该实施例中不需要接近度传感器116)。更特别地,通过主处理器108和/或本地处理器112检测虚拟环境内的状态变化来检测虚拟距离。例如,用户可以操作操纵物122来在虚拟环境内移动人物,从而改变人物与虚拟对象852之间的虚拟距离。人物的移动可以主处理器108和/或本地处理器112而被检测为状态的变化,并且可以根据虚拟距离的变化来改变或修改相关联的触觉效果。
虽然图8-11图示出视频游戏的示例,虚拟现实环境可以包括各种内容,包括但不限于直播或广播的连续镜头或预先录制的或授权的内容轨迹。例如,虚拟现实环境可以包括2D或3D内容,并且可以模拟用户或观看者存在于世界的远程位置(例如,用于教育或娱乐的目的),可以模拟用户或观看者存在于某个事件汇总(即,体育比赛、音乐会或剧场演出),或者可以模拟用户或观看者存在于幻想的或历史环境内。如果虚拟现实环境包含3D内容,则模拟是360度的,使得当用户转动或旋转时,他或她看到围绕他们的虚拟环境。从视频和音频的立场看,多频道视频系统可以与由各种环绕的或包围的视图制成胶片或制成的实际照相机连续镜头一起使用,软件将剪辑整合在一起以形成无缝视频/音频虚拟现实体验。在这些非视频游戏实施例中,需要至少一个触觉外围设备来接收触觉反馈。但是,如果不允许与虚拟环境进行交互/互动,则触觉外围设备不需要操纵物或操纵物传感器。实质上,如果不允许或不期望与虚拟进行交互/互动,则仅需要触觉外围设备包括至少一个用于输出触觉效果的致动器并且可以包括如本文所述的本地存储器和/或本地处理器。
在如之前段落中描述的非视频游戏实施例中非常期望基于虚拟照相机关于作为触觉效果的源头或原因的虚拟对象的变焦状态来修改触觉效果。更特别地,在虚拟现实环境模拟用户或观看者存在于事件(即,体育比赛、音乐会或剧场演出)中的示例中,输出到触觉外围设备的触觉效果将基于用户在虚拟现实环境内的位置而变化。当用户或观看者(以及因此虚拟照相机)位于所模拟事件(即,作为触觉效果的源头或原因的虚拟对象)的近处或附近时,与用户或观看者(以及因此寻照相机)位于所模拟事件的远处的情况相比,输出到触觉外围设备的触觉效果将较强。例如,如果所模拟事件是摇滚音乐会,则当用户或观看者(以及因此虚拟照相机)位于靠近舞台的排或分区时,与当用户或观看者(以及因此虚拟照相机)位于距舞台远的排或分区时相比,可以向触觉外围设备输出更强的振动。类似地,如果所模拟事件是诸如篮球比赛的体育事件,则当用户或观看者(以及因此虚拟照相机)位于靠近篮球场的排或分区时,与当用户或观看者(以及因此虚拟照相机)位于远离篮球场的排或分区时相比,可以向触觉外围设备输出更强的振动。
在上述的非视频游戏实施例中,虚拟照相机与虚拟对象(即,作为触觉效果的源头或原因的体育比赛、音乐会或剧场演出)之间的虚拟距离的检测优选地利用多个接近度传感器以及与用户耦合或者由用户佩戴的多个触觉外围设备。如上文结合接近度传感器116所述,这种接近度传感器可以是本领域已知的距离或测量传感器和/或本领域已知的照相机设备或运动传感器。接近度传感器将检测用户的实际运动,使得在虚拟现实环境中反映该运动。随着用户(以及与其相关联的虚拟照相机)运动,由触觉外围设备输出的触觉效果可以根据用户开始的位置变化来自动地更新或者以无缝方式变化。每个触觉外围设备可被视为触觉通道,输出触觉效果到特定的触觉外围设备可以被视为触觉通道选择。主计算机检测用户运动,这因此引起虚拟照相机的位置变化。作为虚拟照相机的位置变化以及与其相关联的触觉效果的变化的结果,主计算机以顺序的和/或同时的方式将各种触觉效果输出给特定的触觉外围设备,从而实现基于姿势的无缝触觉通道选择。这种触觉通道选择可以包括触觉通道选择的内插运算。更特别地,内插运算系统充当触觉混合器。3D环境中的多个对象将充当触觉发射器,类似于实际世界或虚拟世界中多个对象为音频发射器的方式。内插运算系统利用从传感器获得的数据(即,用户位置、方位、交互活动对象、照相机视野)以及环形的属性(即,效果的类型和强度,在视野的同时交互时做什么的参数、在照相机框外的同时交互时做什么的参数、在视野中但是不交互时做什么的参数,等等)来自动地确定哪种触觉感觉优先以及对效果应用何种滤波或调制(如果有)。
图12是图示出根据其实施例的用于向触觉外围设备的用户提供触觉效果的方法的流程图,其中所提供的触觉效果根据如上所述的虚拟照相机850的变焦状态而变化。在实施例中,图12的流程图的功能是通过存储在主组件104的主存储器110中且由主处理器108执行和/或存储在触觉外围设备102的本地存储器114且由本地处理器112执行的软件来实施的。在其他实施例中,可以通过利用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)通过硬件或者通过硬件和软件的任意组合来执行功能。
在步骤1254中,主处理器108和/或本地处理器112确定虚拟照相机850相对于作为触觉效果的源头或原因的虚拟对象852的位置或地点。在确定虚拟照相机850的位置时,主处理器108和/或本地处理器112确定虚拟照相机850与虚拟对象852之间的虚拟距离。在步骤1256中,虚拟照相机850与虚拟对象852之间的第一虚拟距离D1相对较长且在步骤1258中使得致动器118产生并施加较弱的触觉效果。在步骤1260中,虚拟照相机850与虚拟对象852之间的第二虚拟距离D2相对较短且在步骤1262中使得致动器118产生并施加较强的触觉效果。仅为了图示说明的原因,图12的方法描述了作为第一虚拟距离D1(其中虚拟对象852距离虚拟照相机850相对较远)或第二虚拟距离D2(其中虚拟对象852距离虚拟照相机850相对较近或靠近)的虚拟距离。然而,本领域普通技术人员将理解的是,虚拟照相机850与虚拟对象852之间的虚拟距离可以包括任意数量的可能的距离,其中每个都可以具有相关联的触觉效果强度。
由致动器118输出的触觉效果可以包括但不限于变化程度的振动,变换程度的制动或其他类型的触觉效果。作为示例性的例子,如果用户正在虚拟环境中控制一个人物或者某其他图形对象且随后遭遇爆炸,则相关联的触觉效果可能是振动。在该情况下,本地处理器112接收指示触觉外围设备102应当以根据爆炸距游戏中的人物或其他图形对象的接近度而变化的强度振动的信号。结果,本地处理器112将信号发送给致动器118以提供适当的触觉效果,在该示例中触觉效果是具有特定强度的振动,特定强度取决于虚拟照相机850与虚拟对象852之间的虚拟距离。在确定待执行且提供给用户的触觉效果的类型时,高级触觉参数或流送值在软件代码中产生且发送给触觉引擎(未示出),在触觉引擎中高级触觉参数或流送值被处理且产生用于致动器的适当的电压电平。这允许触觉外围设备将适当的触觉反馈提供给用户且通过为致动器产生的不同的电压电平来改变触觉反馈的量或类型。另外,游戏软件和触觉软件可以驻存在同一处理器或多个处理器上。
图13是图示出根据其实施例的用于根据主计算机来确定和发送触觉信号的方法的流程图,其中所提供的触觉效果根据虚拟照相机位置而变化。在实施例中,图13的流程图的功能通过存储在主组件104的存储器110中且由主处理器108执行和/或存储在触觉外围设备102的存储器110中且由本地处理器112执行的软件来实现。在其他实施例中,能够可以通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)用硬件来执行,或者通过硬件和软件的任意组合来执行。
在步骤1354中,主处理器108和/或本地处理器112确定虚拟照相机850相对于作为触觉效果的源头或原因的虚拟对象852的位置或地点。在确定虚拟照相机850的位置时,主处理器108和/或本地处理器112确定虚拟照相机850与虚拟对象852之间的虚拟距离。
在步骤1364中,主处理器108判定是否存在状态变化。在一个实施例中,该变化可以是用于游戏或模拟的虚拟空间的变化。作为示例,用户可以是在虚拟环境中正在移动人物或某其他图形对象,然后遭遇爆炸。人物移动和/或遭遇爆炸(或者作为触觉效果的源头或原因的其他虚拟对象)可以是状态变化。本领域普通技术人员将理解的是状态变化不限于上文所述的示例。
在步骤1366中,主处理器108随后确定与状态变化相关联的触觉效果。例如,在用户控制虚拟人物且该人物遭遇诸如爆炸的虚拟对象的场景中,这种遭遇会具有相关联的触觉效果,诸如振动。如上所述,相关联的触觉效果根据虚拟照相机位置而变化。当虚拟照相机850与虚拟对象852之间的距离相对较长时,输出相对较弱的触觉效果,而当虚拟照相机850与虚拟对象852之间的距离相对较短时,输出较强的触觉效果。如果爆炸发生在远处位置,则这种相关联的振动相对较弱来模拟从远处位置体验爆炸的感觉。如果爆炸发生在接近或附近位置,这种相关联的振动相对较强来模拟在接近或附近位置体验爆炸的感觉。
可以多种方式来完成判定是否存在与状态变化相关联的触觉效果的过程。如果判定出状态变化具有相关联的触觉效果,则将发送触觉信号。如果判定出状态变化不具有相关联的触觉效果,则不发送触觉信号。在一个实施例中,主计算机104存取状态变化和触觉效果的预定义映射。例如,主处理器可以确定存在状态变化(即,虚拟照相机接近虚拟对象),并且相关联的触觉效果是强化与虚拟对象相关联的效果。可以根据主处理器和/或本地处理器所采用的预定义映射系统来确定用于该状态变化的相关联的触觉效果。例如,预定义的映射系统可以规定根据所检测到的虚拟距离来播放授权触觉效果的特定内容轨迹或序列。在另一实施例中,预定义的映射系统可以指定,根据检测到的虚拟距离来修改或改变当前播放的授权触觉效果内容轨迹或序列。例如,根据当前播放的内容轨迹输出的触觉效果可以在预定时间量内逐渐增强或者增强到预定水平。因此,由于所检测到的虚拟照相机与虚拟对象之间的接近度,触觉量增加或者触觉重点放在虚拟对象上。本领域普通技术人员显而易见的是,上述预定义的映射系统的示例本质上仅为示例性的,虚拟环境的开发者可以根据需要来使用任何预定义的映射系统。
在步骤1368中,主计算机104利用带有相关联的触觉信息的触觉或控制信号来将触觉信息发送给触觉外围设备102。触觉信息的发送能够通过有线或无线通信来完成,如之前所述的。因此,触觉外围设备102的本地处理器112接收表明触觉外围设备102应当以根据爆炸距游戏中的人物或其他图形对象的接近度而变化的强度振动的控制信号。
上文所述的实施例涉及基于虚拟照相机相对于作为触觉效果的源头或原因的虚拟对象的变焦状态来修改触觉效果。可替代地和/或另外地,其实施例可以包括基于虚拟照相机的视角来修改触觉效果。在视频游戏实施例中,其中视频游戏或主计算机容许第一人视点或视角和第三人视点或视角,然后触觉效果将根据用户的当前视角或视点而变化。例如,当虚拟照相机处于第一人视点或视角时,输出或加强触发触觉效果,而当虚拟照相机处于第三人视点或视角时,输出或强调环境触觉效果。因此,由于所检测到的虚拟照相机的视角,触觉量增强或者触觉重点放在触发(trigger)效果或环境(ambient)效果上。虽然参考系统300和触发外围设备302进行了描述,本领域普通技术人员将理解的是,图1-2的实施例的主处理器和/或本地处理器和图6-7的实施例还被配置为根据虚拟照相机的视角来改变用于各致动器的控制信号。
图14是显示器106的图示,其中显示器以第三人视点或视角在其上显示战斗战争视频游戏。在该示例中,显示出视频游戏,但是本领域普通技术人员将理解的是,可以显示任何类型的虚拟现实环境。图15是上述系统300的触觉外围设备302的示意图,用户操作触觉外围设备302以与图14的显示器106交互。如本文所使用的,第三人视点或视角是指从用户的虚拟人物后面或略上方的固定距离所渲染的图形视角。用户可以完全的或有限的意识查看整个虚拟环境。另外,在大多数第三人视角视频游戏中,用户看到虚拟人物的整体以及他的周围物或环境,因此第三人视点或视角允许用户看到更强力特征化的虚拟人物。虽然其实施例是参考第一人视点和/或第三人视点来描述的,但是可以根据虚拟照相机的其他视角来改变或修改触觉效果,虚拟照相机的其他视角包括鸟瞰或上下视点、侧滚(2D)视点或视野、等距第三人视点和/或其他虚拟照相机视角。
相反地,图16是显示器106的图示,其中显示器以第一人视点或视角在其上显示战斗战争视频游戏。图17是上述系统300的触觉外围设备302的示意图,用户操作系统300的触觉外围设备302以与图16的显示器106交互。如本文所使用的,第一人视点或视角是指由用户的虚拟人物本身所提供的图形视角。第一人视点或视角显示的是通过虚拟人物的眼睛所看到的虚拟环境。例如,在图16所示的战斗战争视频游戏中,显示器106仅显示虚拟人物的手握持且与显示器106底部的武器交互。在赛车视频游戏中,显示器仅显示虚拟人物的手握持显示器底部的方向盘,而在体育视频游戏中,显示器仅显示虚拟人物的手握持显示器底部的球。
在其实施例中,主处理器和/或本地处理器被配置为根据虚拟环境内虚拟照相机的视角来改变用于致动器318A、318B、318C、326、328的控制信号。致动器318A、318B在图15和图17中未显示,但是在上文参考图5进行了说明,分别用于产生定标触觉效果并向操纵杆322、按钮330和触发器332施加定标触觉效果。图16的第一人视点或视角使得至少一个致动器产生并施加第一触觉效果,而图14的第三人视点或视角使得至少一个致动器产生并施加第二触觉效果,第二触觉效果不同于第一触觉效果。例如,图16的第一人视点或视角使得致动器318A、318B、318C中的至少一个产生定标触觉效果(图17上的1572所表示的)并将定标触觉效果施加到相应的用户输入元件。这种定标触觉效果,即在触觉外围设备的用户输入元件上输出的效果,通过将反馈调整为叙述型的或实际上允许的,为用户产生真实感。在战斗战争视频游戏示例中,通过利用触发致动器强调触发交互来强调虚拟环境的武器。例如,触发效果可以在第三人上不存在或者显著较弱,而在第一人上完全存在。
图14的第三人视点或视角使得通用或发出隆隆声的致动器326、328中的至少一个产生触觉效果(表示为图15的1570)并将触觉效果施加到触觉外围设备302的壳体324以模拟环境效果。这种环境效果,即在触觉外围设备的壳体上输出的效果,允许用户区分多个视角,从而根据当前使用的视角而使得用户感觉到不同的触觉效果。另外,虚拟照相机视角的变化通常表示游戏设置的变化,并且在其实施例中,所提供的触觉效果反映这种游戏设置的变化。因此,在其实施例中,如果所有其他方面都相同而虚拟照相机视角不同,则相同的事件/虚拟对象可以触发不同的触觉效果。基于虚拟照相机的视角来修改触觉效果允许虚拟环境内更有沉浸感的触觉体验并且允许增强对用户从不同虚拟照相机角度觉察到什么的控制。
可以通过主处理器和/或本地处理器检测虚拟环境内的状态变化来检测虚拟照相机视角。换言之,在该实施例中,可以不使用视角传感器117来检测虚拟照相机视角(并且因此在该实施例中不需要视角传感器117)。例如,用户可以操作触觉外围设备来改变虚拟照相机视角,或者可以根据记录的内容轨迹或视频游戏的预定顺序来发生虚拟照相机视角的变化。虚拟照相机视角的变化可被主处理器和/或本地处理器检测为状态变化,可以根据需要来改变或修改相关联的触觉效果。在其另一实施例中,可以通过视角传感器117来检测虚拟照相机视角,视角传感器117被配置为检测用户移动且还被配置为将用户移动发送到主处理器108和/或本地处理器112。基于所检测到的或感测到的用户移动,主处理器108和/或本地处理器112可以改变虚拟照相机的视角且因此与虚拟照相机视角相关联的触觉效果也会变化。在实施例中,视角传感器117附接到安装到头部上的触觉外围设备上。可以附接到安装到头部上的触觉外围设备上的视角传感器117的示例包括但不限于加速度计、IR发射器/接收器组合或陀螺仪。可替代地,在另一实施例中,视角传感器117是能够进行面部/眼睛识别从而记录现实世界中用户的注视/视角的变化的网络照相机设备。
图18是示出根据其实施例的用于向触觉外围设备的用户提供触觉效果的方法的流程图,其中所提供的触觉效果根据虚拟照相机视角而变化,如上所述。在实施例中,图18的流程图的功能通过存储在主组件104的主存储器110中且由主处理器108执行、和/或存储在触觉外围设备302的本地存储器314中且由本地处理器312执行的软件来实施。在其他实施例中,可以通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)以硬件或者硬件和软件的任意组合来实施。
在步骤1854中,主处理器108和/或本地处理器312确定虚拟照相机视角。在步骤1856中,第一人视点或视角使得致动器318A、318B、318C中的至少一个产生定标触觉效果并且在步骤1858中将定标触觉效果施加到触觉外围设备302的相应的用户输入元件。在步骤1860中,第三人视点或视角使得普通的或发出隆隆声的致动器326、328中的至少一个产生触觉效果,并且在步骤1862中将触觉效果施加到触觉外围设备302。
触觉效果可以根据用户输入元件而变化。例如,一些射击游戏包括具有单独的或对应的定标执行的两个触发器。第一触觉效果控制信号可以由第一定标致动器施加到第一触发器,第二触觉效果控制信号可以由第二定标致动器施加到第二触发器。例如,在诸如但不限于Titanfall的一些视频游戏中,用于每个触发器(即,左触发器和右触发器)的触觉效果控制信号对应于由计算机控制的人物或对象的左手和右手握持的不同类型的武器。在另一示例中,用于每个触发器(即,左触发器和右触发器)的触觉效果控制信号对应于在计算机控制人物或对象的左侧和右侧发生的方向性事件(即,视频游戏中的某物撞击或碰撞人物的左侧)。
图19是图示出根据其实施例的通过主计算机来确定和发送触觉信号的方法的流程图,其中所提供的触觉效果根据虚拟照相机位置而变化。在实施例中,图19的流程图的功能由存储在主组件104的存储器110中且由主处理器108执行、和/或存储在触觉外围设备102的存储器110中且由本地处理器312执行的软件来实施。在其他实施例中,可以通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)以硬件或者硬件和软件的任意组合来实施功能。
在步骤1954中,主处理器108和/或本地处理器312确定虚拟照相机视角。在步骤1964中,主处理器108判定是否存在状态变化。在一个实施例中,该变化可以是用于游戏或模拟的虚拟空间的变化。作为示例,用户可以操作触觉外围设备302以改变虚拟照相机视角,或者虚拟照相机视角的变化可以根据记录的内容轨迹或视频游戏的预定序列而变化。虚拟照相机视角的变化是状态的变化。
在步骤1966中,主处理器108随后确定与状态变化相关联的触觉效果。如上所述,第一人视点或视角使得至少一个致动器产生并施加第一触觉效果,而第三人视点或视角使得至少一个致动器产生并施加不同于第一触觉效果的第二触觉效果。例如,第一人视点或视角使得至少一个致动器产生并施加触觉效果以模拟触发效果,而第三人视点或视角使得至少一个致动器产生并施加触觉效果以模拟环境效果。如上文参考图13所述,判定是否存在与状态变化相关联的触觉效果的过程能够以多种方式来完成并且可以包括访问状态变化和触觉效果的预定义映射。
在步骤1968中,主计算机104利用带有相关联的触觉信息的触觉或控制信号将触觉信息发送到触觉外围设备302。触觉信息的发送可以通过有线或无线通信来完成,如之前所描述的。因此,触觉外围设备302的本地处理器312接收表明触觉外围设备302应当输出根据虚拟照相机视角而变化的触觉效果的控制信号。
图20是图示出根据其实施例的用于向触觉外围设备的用户提供触觉效果的方法的流程图,其中所提供的触觉效果根据虚拟照相机位置以及虚拟照相机视角而变化。用户期望玩何种触觉效果的脑力模型最确定地受虚拟照相机位置和虚拟照相机视角影响。因此,根据虚拟照相机位置和虚拟照相机视角来修改或改变触觉效果的系统将为用户提供更有沉浸感的、可享受的体验。由触觉外围设备输出的触觉效果将根据虚拟照相机的位置和/或视角的用户发起变化而自动地更新或变化并且因此可视为动态触觉效果。在实施例中,图20的流程图的功能由存储在主组件的主存储器中且由主处理器108执行和/或存储在触觉外围设备的本地存储器且由本地处理器执行的软件来实施。在其他实施例中,可以通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”以硬件或者以硬件和软件的任意组合来执行功能。
在步骤2080中,主处理器和/或本地处理器确定虚拟照相机相对于作为触觉效果的源头或原因的虚拟对象的位置或地点以及虚拟照相机的视角。在确定虚拟照相机的位置时,主处理器和/或本地处理器确定虚拟照相机与虚拟对象之间的虚拟距离。
在步骤2082中,主处理器和/或本地处理器确定状态1,在该状态下虚拟照相机与虚拟对象之间的虚拟距离处于接近或靠近位置,这使得在步骤2084中致动器产生并施加强的触觉效果。在步骤2086中,主处理器和/或本地处理器确定状态2,在该状态下虚拟照相机与虚拟对象之间的虚拟距离处于远离或远处位置,这使得在步骤2088中致动器产生并施加较弱的触觉效果。在步骤2090中,主处理器和/或本地处理器确定状态3,在该状态下第一人视点或视角使得至少一个致动器产生定标触觉效果并且在步骤2092中向触觉外围设备的用户输入元件施加定标触觉效果。在步骤2094中,主处理器和/或本地处理器确定状态4,在该状态下第三人视点或视角使得至少一个普通的或发出隆隆声的致动器产生触觉效果并且在步骤2096中向触觉外围设备施加触觉效果。
在根据其实施例依照图20的流程图来确定待执行且提供给用户的触觉效果的类型时,优先系统可以被使用以便限制一次播放的触觉效果的数量从而不会使用户不知所措。更特别地,参考图20,主处理器和/或本地处理器可以确定同时存在两种不同的状态。在单屏幕实施例中,两种不同的状态存在于同一屏幕上。在分屏幕显示实施例中,第一状态可以显示在分屏的第一半上,而第二状态可以显示在分屏的第二半上。在图中图显示实施例中,第一状态可以显示在主屏幕上,而第二状态可以显示在辅屏幕上,辅屏幕覆盖主屏幕的一部分。例如,主处理器和/或本地处理器可以确定存在状态2(其中虚拟照相机远离虚拟对象)以及状态3(其中虚拟照相机具有第一人视角或视点)。用于状态2的相关联的触觉效果是削弱与虚拟对象相关联的效果,而用于状态3的相关联的触觉效果是强化或加强触发效果。用于这两种状态的相关联的触觉效果可以根据主处理器和/或本地处理器所采用的预定义优先系统来排序。例如,预定义优先系统可以指定状态3的相关联的触觉效果可优先于状态2的相关联的触觉效果,并且因此在按顺序方式在与虚拟对象相关联的弱化效果之前播放触发效果,或者可选地播放触发效果并且省略与虚拟对象相关联的弱化效果。可替代地,预定义的优先系统可以指定,状态2的相关联触觉效果优先于状态3的相关联触觉效果,但是不优先于状态1的相关联触觉效果,如果且当状态1被确定时。在其另一实施例中,优先系统可以基于用户的注意力或兴趣。例如,在分屏实施例或图中图显示实施例中,照相机可以感测或检测用户的眼睛正盯着哪个屏幕或哪半个屏幕,从而确定哪种状态更相关或者用户更优选。本领域普通技术人员显而易见的是,预定义优先系统的上述示例本质上是示例性的,虚拟环境的开发者可以根据意愿来使用任意预定义优先系统。
根据其另一实施例,在根据图20的流程图来确定要执行且提供给用户的触觉效果的类型时,当判定出两种不同的状态同时存在时,主处理器和/或本地处理器可以将相关联的触觉效果组合或混合。例如,主处理器和/或本地处理器可以确定状态2存在(其中虚拟照相机远离虚拟对象),以及状态4(其中虚拟照相机具有第三人视角或视点)。用于状态2的相关联触觉效果是要削弱与虚拟对象相关联的效果,而用于状态4的相关联触觉效果是输出环境效果。当主处理器和/或本地处理器将状态2和状态4的相关联触觉效果组合或混合时,触觉外围设备输出弱化的环境效果。
图21-24是如果主处理器和/或本地处理器将同时存在的两种不同状态的相关联触觉效果组合或混合则会产生的触觉效果的示意图。本领域普通技术人员显而易见的是,如何组合/混合相关联触觉效果的下面的示例本质上仅为示例性的,虚拟环境的开发者可以根据需要来使用各种组合/混合效果的方法。图21图示出主处理器和/或本地处理器确定状态2存在(其中虚拟照相机2050远离虚拟对象,如相对较长的虚拟距离DL所示)以及状态4(其中虚拟照相机2050具有第三人视角或视点)的场景。第三人视角由坐在后座或者相对于图21和图23的虚拟照相机2050处于略微更远的视点的用户(在图21-24中表示为星形)来图示出,与图22和图24中坐在前座或者相对于虚拟照相机2050处于略微更近的视点的用户形成对比。如上所述,用于状态2的相关联触觉效果是弱化与虚拟对象相关联的效果,而用于状态4的相关联触觉效果是输出环境效果。当主处理器和/或本地处理器将状态2和状态4的相关联触觉效果进行组合或混合时,触觉外围设备输出弱化的环境效果。在另一实施例中,如上所述,预定义优先系统可以指定一种状态的相关联触觉效果优先于另一状态的相关联触觉效果。
图22图示出主处理器和/或本地处理器确定存在状态2(其中虚拟照相机2050远离虚拟对象,如相对较长的虚拟距离DL所示)以及状态3(其中虚拟照相机2050具有第一人视角或视点)的方案。用于状态2的相关联触觉效果是弱化与虚拟对象相关联的效果,而用于状态3的相关联触觉效果是输出触发效果。当主处理器和/或本地处理器将状态2和状态3的相关联触觉效果进行组合或混合时,触觉外围设备输出弱化的触发效果。在另一实施例中,如上所述,预定义的优先系统可以指定一种状态的相关联触觉效果可以优先于另一状态的相关联触觉效果。
图23图示出主处理器和/或本地处理器确定存在状态1(其中虚拟照相机2040靠近或接近虚拟对象,如相对较短的虚拟距离Ds所示)以及状态4(其中虚拟照相机2050具有第三人视角或视点)的方案。如上所述,用于状态1的相关联触觉效果是加强与虚拟对象相关联的效果,而用于状态4的相关联触觉效果是输出环境效果。当主处理器和/或本地处理器将状态1和状态4的相关联触觉效果进行组合或混合时,触觉外围设备输出较强的环境效果。在另一实施例中,如上所述,预定义优先系统可以指定一种状态的相关联触觉效果优先于另一状态的相关联触觉效果。
图24图示出主处理器和/或本地处理器确定存在状态1(其中虚拟照相机2050更靠近或接近虚拟对象,如相对较短的虚拟距离Ds所示)以及状态3(其中虚拟照相机2050具有第一人视角或视点)的方案。如上所述,用于状态1的相关联触觉效果是加强与虚拟对象相关联的效果,而用于状态3的相关联触觉效果是输出触发效果。当主处理器和/或本地处理器将状态1和状态3的相关联触觉效果进行组合或混合时,触觉外围设备输出较强的触发效果。在另一实施例中,如上所述,预定义优先系统可以指定一种状态的相关联触觉效果优先于另一状态的相关联触觉效果。
上述实施例涉及基于虚拟照相机相对于作为触觉效果的源头或原因的虚拟对象的变焦状态来修改触觉效果和/或基于虚拟照相机的视角来修改触觉效果。在其另一实施例中,可以基于虚拟照相机的聚焦度来修改触觉效果。更特别地,如上所述,当在虚拟现实程序中操作虚拟照相机时,用户可以使用类似于摇镜头、变焦或改变焦点和焦距的功能。触觉强度或量可以基于虚拟对象是处于焦距内还是处于焦距外而变化。例如,当虚拟对象相对于虚拟照相机处于焦距之外时,播放或输出较弱的触觉效果,而当虚拟对象相对于虚拟照相机处于焦距内时,播放或输出较强的触觉效果。
另外,虽然上述实施例涉及配置为在显示器上向用户产生虚拟环境的计算机,基于虚拟照相机的变焦状态来修改触觉效果和/或基于虚拟照相机的视角来修改触觉效果可以应用于其他类型的设备,包括未被配置为向用户产生虚拟环境的设备。例如,为了增强用户的观看体验,媒体服务以及诸如DVD或蓝光光盘的存储媒介可以配置有相关联的触觉效果。媒体服务可以是例如广播网络服务、电缆通信服务、卫星通信服务、云视频流服务、游戏控制台或作为音频视频内容或数据以及相关联的触觉内容或数据的源头的任意其他类型的服务。观看媒体服务或存储媒介的用户可以是正握持触觉外围设备或者附接了可佩戴的触觉外围设备。触觉外围设备包括致动器,致动器被配置为接收来自媒体服务或存储媒介的控制信号且将触觉效果输出到触觉外围设备。触觉效果与媒体服务或存储媒介的内容有关或相关联。这些触觉效果可以基于媒体服务或存储媒介的虚拟照相机的变焦状态而被改变或被修改和/或可以基于其虚拟照相机的视角而被改变或被修改。在又一示例中,诸如但不限于照相机或双目镜的现实的观看设备可被配置为相关联的触觉效果,从而增强用户的观看体验。使用照相机/双目镜的用户可以是正在握持触觉外围设备或者已经附接了可佩戴式的触觉外围设备。触觉外围设备包括致动器,致动器被配置为接收来自照相机/双目镜的控制信号且将触觉效果输出到触觉外围设备。可以基于照相机/双目镜的变焦状态来改变或修改这些触觉效果。
虽然上文已经对根据本发明的各个实施例进行了说明,应当理解的是这些实施例是仅通过图示说明和示例的方式而不是通过限制的方式来提供。对于相关领域技术人员而言显而易见的是,可以在不偏离本发明的精神和范围的情况下对这些实施例进行各种形式和细节上的改变。因此,本发明的宽度和范围不应受上述任何示例性实施例限制,而是应当仅根据随附的权利要求书及其等同布置来限定。还将理解的是本文所述的每个实施例的每个特征以及本文所引用的每个参考文献的每个特征能够与任何其他实施例的特征相结合。本文所述的所有的专利和公开物全部内容通过引用合并于此。

Claims (20)

1.一种系统,包括:
主计算机,其被配置为在显示器上向用户产生虚拟环境;
处理器;
包括致动器的触觉外围设备,其中所述致动器被配置为接收来自所述处理器的控制信号且响应于来自所述处理器的控制信号而向所述触觉外围设备输出触觉效果,并且
其中所述处理器被配置为根据所述虚拟环境的虚拟照相机的变焦状态来改变用于所述致动器的控制信号,从而第一变焦状态使得所述致动器产生并施加第一触觉效果,第二变焦状态使得所述致动器产生并施加第二触觉效果,与所述第一变焦状态相比在所述第二变焦状态下虚拟对象表现为更近并且所述第一触觉效果比所述第二触觉效果更弱。
2.如权利要求1所述的系统,其中所述虚拟照相机的变焦状态由接近度传感器来检测,所述接近度传感器被配置为检测所述触觉外围设备与所述主计算机之间的实际距离,所述接近度传感器被配置为将所述实际距离发送到所述处理器。
3.如权利要求2所述的系统,其中所述接近度传感器与所述触觉外围设备耦合或者能够由用户佩戴。
4.如权利要求1所述的系统,其中所述虚拟照相机的变焦状态由接近度传感器检测,所述接近度传感器被配置为检测用户移动,所述接近度传感器被配置为将用户移动发送到所述处理器。
5.如权利要求4所述的系统,其中所述接近度传感器是照相机设备。
6.如权利要求1所述的系统,其中通过所述处理器检测虚拟环境内的状态变化来检测所述虚拟照相机的变焦状态。
7.如权利要求1所述的系统,其中所述处理器被布置在所述主计算机中。
8.如权利要求1所述的系统,其中所述处理器被布置在所述触觉外围设备中。
9.如权利要求1所述的系统,其中所述处理器还被配置为根据所述虚拟环境内虚拟照相机的视角来改变用于所述致动器的控制信号,从而第一视角使得所述致动器产生并施加第三触觉效果,第二视角使得所述致动器产生并施加第四触觉效果,所述第三触觉效果不同于所述第四触觉效果。
10.如权利要求9所述的系统,其中所述第一视角是第一人视点,所述第二视角是第三人视点,所述第三触觉效果涉及触发效果,所述第四触觉效果涉及环境效果。
11.如权利要求1所述的系统,其中所述系统包括多个触觉外围设备,每个所述触觉外围设备都包括致动器,所述致动器被配置为接收来自所述处理器的控制信号且响应于来自所述处理器的控制信号而向所述触觉外围设备输出触觉效果,并且其中由所述致动器输出的触觉效果将根据从所述处理器接收到的控制信号以无缝方式自动更新。
12.一种系统,包括:
主计算机,其被配置为在显示器上向用户产生虚拟环境;
处理器;
包括致动器的触觉外围设备,其中所述致动器被配置为接收来自所述处理器的控制信号并且响应于来自所述处理器的控制信号而向所述触觉外围设备输出触觉效果,并且
其中所述处理器被配置为根据所述虚拟环境内虚拟照相机的视角来改变用于所述致动器的控制信号,从而第一视角使得所述致动器产生并施加第一触觉效果,第二视角使得所述致动器产生并施加第二触觉效果,所述第一触觉效果不同于所述第二触觉效果。
13.如权利要求12所述的系统,其中所述第一视角是第一人视点,所述第二视角是第三人视点,所述第一触觉效果涉及触发效果,所述第二触觉效果涉及环境效果。
14.如权利要求12所述的系统,其中所述虚拟照相机的视角是通过所述处理器检测所述虚拟环境内的状态变化来检测的。
15.如权利要求12所述的系统,其中所述虚拟照相机的视角是通过视角传感器来检测的,所述视角传感器被配置为检测用户移动,所述视角传感器被配置为将所述用户移动发送到所述处理器。
16.如权利要求12所述的系统,其中所述处理器还被配置为根据虚拟环境的虚拟照相机的变焦状态来改变用于所述致动器的控制信号,从而第一变焦状态使得所述致动器产生并施加第三触觉效果,第二变焦状态使得所述致动器产生并施加第四触觉效果,与在所述第一变焦状态下相比在第二变焦状态下虚拟对象表现为更近,所述第三触觉效果比所述第四触觉效果更弱。
17.如权利要求12所述的系统,其中所述处理器被布置在所述主计算机中。
18.如权利要求12所述的系统,其中所述处理器被布置在所述触觉外围设备中。
19.一种系统,包括:
主计算机,其被配置为在显示器上向用户产生虚拟环境;
处理器;
包括致动器的触觉外围设备,其中所述致动器被配置为接收来自所述处理器的控制信号并且响应于来自所述处理器的所述控制信号而向所述触觉外围设备输出触觉效果,并且
其中所述处理器被配置为根据所述虚拟环境的虚拟照相机的变焦状态来改变用于所述致动器的所述控制信号,从而第一变焦状态使得所述致动器产生并施加第一触觉效果,第二变焦状态使得所述致动器产生并施加第二触觉效果,与所述第一变焦状态相比在所述第二变焦状态下虚拟对象表现为更近,并且
其中所述处理器还被配置为根据所述虚拟环境内虚拟照相机的视角来改变用于所述致动器的所述控制信号,从而第一视角使得所述致动器产生并施加第三触觉效果,第二视角使得所述致动器产生并施加第四触觉效果,所述第一视角是第一人视点,所述第二视角是第三人视点,并且
其中所述第一触觉效果、所述第二触觉效果、所述第三触觉效果和所述第四触觉效果彼此不同。
20.如权利要求19所述的系统,其中所述第一触觉效果比所述第二触觉效果更弱,所述第三触觉效果涉及触发效果,第四触觉效果涉及环境效果。
CN201510313633.2A 2014-06-09 2015-06-09 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法 Pending CN105278676A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462009898P 2014-06-09 2014-06-09
US62/009,898 2014-06-09
US14/534,398 US9588586B2 (en) 2014-06-09 2014-11-06 Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US14/534,398 2014-11-06

Publications (1)

Publication Number Publication Date
CN105278676A true CN105278676A (zh) 2016-01-27

Family

ID=53298256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510313633.2A Pending CN105278676A (zh) 2014-06-09 2015-06-09 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法

Country Status (5)

Country Link
US (2) US9588586B2 (zh)
EP (1) EP2955608A1 (zh)
JP (1) JP6576697B2 (zh)
KR (1) KR20150141151A (zh)
CN (1) CN105278676A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107748617A (zh) * 2017-10-24 2018-03-02 广州云友网络科技有限公司 一种虚拟场景与体感、触感同步的方法
CN108700937A (zh) * 2016-02-29 2018-10-23 三星电子株式会社 视频显示设备和用于减轻vr不适的方法
CN108885501A (zh) * 2016-05-12 2018-11-23 西奎公司 使用电容感测的控制器感应
CN109634413A (zh) * 2018-12-05 2019-04-16 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
CN111819520A (zh) * 2018-03-06 2020-10-23 微软技术许可有限责任公司 空间化触觉设备力反馈

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015121963A1 (ja) * 2014-02-14 2015-08-20 富士通株式会社 ゲームコントローラ
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9928878B2 (en) * 2014-08-13 2018-03-27 Intel Corporation Techniques and apparatus for editing video
CN115756154A (zh) 2014-09-02 2023-03-07 苹果公司 用于可变触觉输出的语义框架
FR3025902B1 (fr) * 2014-09-16 2017-12-08 E-Concept Souris vibrante multi-dimensions
FR3026638B1 (fr) * 2014-10-07 2016-12-16 Yannick Vaillant Ensemble environnement et interface de stimulation tactile de guidage sur une trajectoire dans l'environnement
US10449445B2 (en) 2014-12-11 2019-10-22 Elwha Llc Feedback for enhanced situational awareness
US10216277B2 (en) 2015-02-25 2019-02-26 Immersion Corporation Modifying haptic effects for slow motion
CN107249704B (zh) 2015-02-27 2020-09-15 索尼公司 信息处理设备、信息处理方法和信息处理系统
CN106371579B (zh) * 2015-12-24 2019-05-21 北京智谷睿拓技术服务有限公司 控制柔性的虚拟现实交互控制器形变的方法、装置和虚拟现实交互系统
CN105677017B (zh) * 2015-12-28 2019-04-26 联想(北京)有限公司 一种控制方法、键盘、电子设备及电子装置
US11125453B2 (en) 2016-03-10 2021-09-21 Carrier Corporation Calibration of an actuator
US10096158B2 (en) * 2016-03-24 2018-10-09 Ford Global Technologies, Llc Method and system for virtual sensor data generation with depth ground truth annotation
US9919647B2 (en) 2016-05-02 2018-03-20 Ford Global Technologies, Llc Intuitive haptic alerts
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
US10060170B2 (en) 2016-08-15 2018-08-28 Ford Global Technologies, Llc Vehicle with active door zone
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
EP3291054B8 (en) * 2016-09-06 2019-07-24 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
DK179278B1 (en) * 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
WO2018051383A1 (en) * 2016-09-13 2018-03-22 Yanmar Co., Ltd. Haptic device
US10324531B2 (en) * 2016-12-27 2019-06-18 Immersion Corporation Haptic feedback using a field of view
JP6832712B2 (ja) * 2017-01-13 2021-02-24 任天堂株式会社 振動制御システム、振動制御装置、振動制御プログラムおよび振動制御方法
US9928700B1 (en) * 2017-01-25 2018-03-27 Immersion Corporation Method and apparatus for controlling generation of electrostatic friction effects for a plurality of electrodes
US20180232051A1 (en) * 2017-02-16 2018-08-16 Immersion Corporation Automatic localized haptics generation system
US10183640B2 (en) 2017-02-17 2019-01-22 Ford Global Technologies, Llc Systems and methods for door collision avoidance
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
JP6613267B2 (ja) * 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6837921B2 (ja) 2017-06-02 2021-03-03 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6653293B2 (ja) * 2017-06-05 2020-02-26 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6701132B2 (ja) * 2017-07-12 2020-05-27 任天堂株式会社 ゲームシステム、ゲームプログラム、ゲーム装置、およびゲーム処理方法
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US20190105562A1 (en) * 2017-10-11 2019-04-11 Immersion Corporation Haptic effects with multiple peripheral devices
US11182957B2 (en) * 2017-10-26 2021-11-23 Sony Interactive Entertainment Inc. Image processing device, image processing method, and program for suppressing movement of an object in virtual space
US20190163271A1 (en) * 2017-11-27 2019-05-30 Immersion Corporation Systems and methods for providing haptic feedback according to tilt-based inputs
US20190204917A1 (en) * 2017-12-28 2019-07-04 Immersion Corporation Intuitive haptic design
US10455339B2 (en) 2018-01-19 2019-10-22 Cirrus Logic, Inc. Always-on detection systems
US10620704B2 (en) 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10795443B2 (en) 2018-03-23 2020-10-06 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10667051B2 (en) 2018-03-26 2020-05-26 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10820100B2 (en) 2018-03-26 2020-10-27 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10467819B2 (en) * 2018-03-28 2019-11-05 Authanaviz, LLC Real-time spatial authoring in augmented reality using additive and subtractive modeling
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US10775892B2 (en) * 2018-04-20 2020-09-15 Immersion Corporation Systems and methods for multi-user shared virtual and augmented reality-based haptics
US20190324538A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Haptic-enabled wearable device for generating a haptic effect in an immersive reality environment
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US10497161B1 (en) 2018-06-08 2019-12-03 Curious Company, LLC Information display by overlay on an object
US10650600B2 (en) 2018-07-10 2020-05-12 Curious Company, LLC Virtual path display
US10818088B2 (en) 2018-07-10 2020-10-27 Curious Company, LLC Virtual barrier objects
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
US10902678B2 (en) 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US11681415B2 (en) * 2018-10-31 2023-06-20 Apple Inc. Near-viewing notification techniques
US11055913B2 (en) 2018-12-04 2021-07-06 Curious Company, LLC Directional instructions in an hybrid reality system
US11294467B2 (en) * 2018-12-18 2022-04-05 Immersion Corporation Systems and methods for integrating environmental haptics in virtual reality
US10970935B2 (en) 2018-12-21 2021-04-06 Curious Company, LLC Body pose message system
US11740071B2 (en) 2018-12-21 2023-08-29 Apple Inc. Optical interferometry proximity sensor with temperature variation compensation
JP7240180B2 (ja) * 2019-01-10 2023-03-15 東京瓦斯株式会社 設備環境出力システムおよびプログラム
US10872584B2 (en) 2019-03-14 2020-12-22 Curious Company, LLC Providing positional information using beacon devices
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US20200313529A1 (en) 2019-03-29 2020-10-01 Cirrus Logic International Semiconductor Ltd. Methods and systems for estimating transducer parameters
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US11156456B2 (en) * 2019-05-21 2021-10-26 Apple Inc. Optical proximity sensor integrated into a camera module for an electronic device
US11473898B2 (en) 2019-05-24 2022-10-18 Apple Inc. Wearable voice-induced vibration or silent gesture sensor
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
WO2020254788A1 (en) 2019-06-21 2020-12-24 Cirrus Logic International Semiconductor Limited A method and apparatus for configuring a plurality of virtual buttons on a device
WO2021020667A1 (ko) * 2019-07-29 2021-02-04 주식회사 네오펙트 원격 재활 훈련 제공 방법 및 프로그램
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
CN111298440A (zh) * 2020-01-20 2020-06-19 腾讯科技(深圳)有限公司 虚拟环境中的虚拟角色控制方法、装置、设备及介质
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11698680B2 (en) * 2020-06-23 2023-07-11 Immersion Corporation Methods and systems for decoding and rendering a haptic effect associated with a 3D environment
CN111803919A (zh) * 2020-07-16 2020-10-23 上海摩勤智能技术有限公司 游戏手柄装置及游戏系统
CN111773657A (zh) * 2020-08-11 2020-10-16 网易(杭州)网络有限公司 一种游戏中视角切换的方法及装置、电子设备、存储介质
US11874110B2 (en) 2020-09-25 2024-01-16 Apple Inc. Self-mixing interferometry device configured for non-reciprocal sensing
US11571617B2 (en) * 2020-12-18 2023-02-07 Dell Products, Lp System and method for coordinating gaming haptic response across peripheral device ecosystem
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11973734B2 (en) * 2021-06-23 2024-04-30 Microsoft Technology Licensing, Llc Processing electronic communications according to recipient points of view
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038582A1 (en) * 2010-08-13 2012-02-16 Immersion Corporation Systems and Methods for Providing Haptic Feedback to Touch-Sensitive Input Devices
US20130038603A1 (en) * 2011-08-09 2013-02-14 Sungho Bae Apparatus and method for generating sensory vibration
US20130194085A1 (en) * 2012-01-30 2013-08-01 Microsoft Corporation Force feedback triggers
CN103488291A (zh) * 2013-09-09 2014-01-01 北京诺亦腾科技有限公司 一种基于运动捕捉的浸入式虚拟现实系统
CN103533421A (zh) * 2012-07-06 2014-01-22 索尼公司 服务器、客户终端和程序

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6131097A (en) * 1992-12-02 2000-10-10 Immersion Corporation Haptic authoring
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US5389865A (en) * 1992-12-02 1995-02-14 Cybernet Systems Corporation Method and system for providing a tactile virtual reality and manipulator defining an interface device therefor
US5461711A (en) * 1993-12-22 1995-10-24 Interval Research Corporation Method and system for spatial accessing of time-based information
US5684722A (en) * 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5691898A (en) * 1995-09-27 1997-11-25 Immersion Human Interface Corp. Safe and low cost computer peripherals with force feedback for consumer applications
US5694013A (en) * 1996-09-06 1997-12-02 Ford Global Technologies, Inc. Force feedback haptic interface for a three-dimensional CAD surface
JPH10207340A (ja) * 1997-01-24 1998-08-07 Sony Corp 仮想空間生成装置及び仮想空間生成方法
US6005551A (en) 1997-04-25 1999-12-21 Microsoft Corporation Offline force effect rendering
US6002184A (en) * 1997-09-17 1999-12-14 Coactive Drive Corporation Actuator with opposing repulsive magnetic forces
US8020095B2 (en) 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
US6563487B2 (en) * 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
WO2000060571A1 (en) * 1999-04-02 2000-10-12 Massachusetts Institute Of Technology Haptic interface system for collision detection and applications therefore
US6833826B1 (en) * 2000-05-06 2004-12-21 Novint Technologies, Inc. Human-computer interface
AU2001294852A1 (en) * 2000-09-28 2002-04-08 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
US7193629B2 (en) * 2001-05-18 2007-03-20 Sony Computer Entertainment Inc. Display apparatus
US8996169B2 (en) * 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US7643054B2 (en) * 2002-12-09 2010-01-05 Hewlett-Packard Development Company, L.P. Directed guidance of viewing devices
JP4030437B2 (ja) * 2003-01-23 2008-01-09 アルプス電気株式会社 画像情報表示装置
JP4220355B2 (ja) * 2003-11-10 2009-02-04 アルプス電気株式会社 力覚付与型入力装置
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP4798705B2 (ja) * 2006-03-23 2011-10-19 任天堂株式会社 位置算出装置、位置算出プログラム、ゲーム装置、およびゲームプログラム
JP3949701B1 (ja) * 2006-03-27 2007-07-25 株式会社コナミデジタルエンタテインメント 音声処理装置、音声処理方法、ならびに、プログラム
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8508486B2 (en) 2007-10-01 2013-08-13 Immersion Corporation Directional haptic effects for a handheld device
WO2009078740A2 (en) * 2007-12-19 2009-06-25 Air Sports Limited Vehicle competition implementation system
EP2352078B1 (en) * 2008-10-01 2022-09-07 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, information recording medium, and program
KR101628782B1 (ko) 2009-03-20 2016-06-09 삼성전자주식회사 휴대용 단말기에서 복수의 진동자를 이용한 햅틱 기능 제공방법 및 장치
KR101553842B1 (ko) * 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
KR20110005587A (ko) * 2009-07-10 2011-01-18 삼성전자주식회사 휴대 단말의 진동 발생 방법 및 장치
GB2471905B (en) * 2009-07-17 2011-08-31 Sony Comp Entertainment Europe User interface and method of user interaction
KR101713358B1 (ko) 2009-07-22 2017-03-07 임머숀 코퍼레이션 제어 제스처의 입력 동안에 가상 장비의 제어에 관한 복합 햅틱 자극을 제공하기 위한 시스템 및 방법
US20120188279A1 (en) * 2009-09-29 2012-07-26 Kent Demaine Multi-Sensor Proximity-Based Immersion System and Method
US8540571B2 (en) * 2010-03-31 2013-09-24 Immersion Corporation System and method for providing haptic stimulus based on position
US9880621B2 (en) 2010-04-08 2018-01-30 Disney Enterprises, Inc. Generating virtual stimulation devices and illusory sensations using tactile display technology
JP5149337B2 (ja) * 2010-06-11 2013-02-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
JP5541974B2 (ja) * 2010-06-14 2014-07-09 任天堂株式会社 画像表示プログラム、装置、システムおよび方法
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
FR2964761B1 (fr) 2010-09-14 2012-08-31 Thales Sa Dispositif d'interaction haptique et procede de generation d'effets haptiques et sonores
US8670554B2 (en) 2011-04-20 2014-03-11 Aurenta Inc. Method for encoding multiple microphone signals into a source-separable audio signal for network transmission and an apparatus for directed source separation
US20150077234A1 (en) * 2011-07-12 2015-03-19 Aliphcom System of wearable devices with sensors for synchronization of body motions based on haptic prompts
WO2013052883A1 (en) 2011-10-05 2013-04-11 Immerz, Inc. Systems and methods for improved acousto-haptic speakers
US10013857B2 (en) 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
WO2013099742A1 (ja) * 2011-12-27 2013-07-04 株式会社村田製作所 触覚提示装置
US20130178257A1 (en) * 2012-01-06 2013-07-11 Augaroo, Inc. System and method for interacting with virtual objects in augmented realities
EP2821892A4 (en) * 2012-03-02 2015-10-28 Nec Corp DISPLAY DEVICE AND METHOD OF OPERATION
US9715276B2 (en) 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
US20140056461A1 (en) 2012-08-21 2014-02-27 Immerz, Inc. Systems and methods for a vibrating input device
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
US9128523B2 (en) 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US8754757B1 (en) 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9207764B2 (en) 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
US9715863B2 (en) * 2013-09-30 2017-07-25 Microsoft Technology Licensing, Llc Scale factor based on viewing distance
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) * 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
JP6264542B2 (ja) * 2014-01-30 2018-01-24 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
US9338552B2 (en) 2014-05-09 2016-05-10 Trifield Ip, Llc Coinciding low and high frequency localization panning
US10579207B2 (en) * 2014-05-14 2020-03-03 Purdue Research Foundation Manipulating virtual environment using non-instrumented physical object
US9600073B2 (en) * 2014-05-21 2017-03-21 International Business Machines Corporation Automated adjustment of content composition rules based on evaluation of user feedback obtained through haptic interface
US9913033B2 (en) 2014-05-30 2018-03-06 Apple Inc. Synchronization of independent output streams
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
CN115756154A (zh) * 2014-09-02 2023-03-07 苹果公司 用于可变触觉输出的语义框架
DK179278B1 (en) * 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
US10324531B2 (en) * 2016-12-27 2019-06-18 Immersion Corporation Haptic feedback using a field of view

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038582A1 (en) * 2010-08-13 2012-02-16 Immersion Corporation Systems and Methods for Providing Haptic Feedback to Touch-Sensitive Input Devices
US20130038603A1 (en) * 2011-08-09 2013-02-14 Sungho Bae Apparatus and method for generating sensory vibration
US20130194085A1 (en) * 2012-01-30 2013-08-01 Microsoft Corporation Force feedback triggers
CN103533421A (zh) * 2012-07-06 2014-01-22 索尼公司 服务器、客户终端和程序
CN103488291A (zh) * 2013-09-09 2014-01-01 北京诺亦腾科技有限公司 一种基于运动捕捉的浸入式虚拟现实系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108700937A (zh) * 2016-02-29 2018-10-23 三星电子株式会社 视频显示设备和用于减轻vr不适的方法
CN108885501A (zh) * 2016-05-12 2018-11-23 西奎公司 使用电容感测的控制器感应
CN107748617A (zh) * 2017-10-24 2018-03-02 广州云友网络科技有限公司 一种虚拟场景与体感、触感同步的方法
CN111819520A (zh) * 2018-03-06 2020-10-23 微软技术许可有限责任公司 空间化触觉设备力反馈
CN109634413A (zh) * 2018-12-05 2019-04-16 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
WO2020114176A1 (zh) * 2018-12-05 2020-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
CN109634413B (zh) * 2018-12-05 2021-06-11 腾讯科技(深圳)有限公司 对虚拟环境进行观察的方法、设备及存储介质
US11783549B2 (en) 2018-12-05 2023-10-10 Tencent Technology (Shenzhen) Company Limited Method for observing virtual environment, device, and storage medium

Also Published As

Publication number Publication date
JP2015232880A (ja) 2015-12-24
US9588586B2 (en) 2017-03-07
JP6576697B2 (ja) 2019-09-18
US20150355711A1 (en) 2015-12-10
KR20150141151A (ko) 2015-12-17
US20170173457A1 (en) 2017-06-22
EP2955608A1 (en) 2015-12-16

Similar Documents

Publication Publication Date Title
CN105278676A (zh) 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
US11014000B2 (en) Simulation system, processing method, and information storage medium
CN109069934B (zh) 对虚拟现实环境(vr)中的vr用户的观众视图跟踪
US10599286B2 (en) Information processing method and apparatus for executing the information processing method
CN101484933B (zh) 基于一个或多个视觉的、听觉的、惯性的和混合的数据来应用传动效应到输入的方法和设备
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
CN109478345B (zh) 模拟系统、处理方法及信息存储介质
JP5439367B2 (ja) ゲームギアリングを変更するための方法
KR101914423B1 (ko) 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
EP2243526A2 (en) Method and system for controlling movements of objects in a videogame
GB2440993A (en) Providing control using a wide angle image capture means
US20130316820A1 (en) Revolution Take Over 3D
JP6419268B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6392953B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6330072B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019211865A (ja) コンピュータプログラム、情報処理装置および情報処理方法
KR102131614B1 (ko) 대체현실 제공 시스템 및 그 방법
JP6946084B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
KR20110116280A (ko) 좌표와 모션의 복합적 인식 기반 단어 게임 시뮬레이션 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20200828

AD01 Patent right deemed abandoned