CN104679247B - 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法 - Google Patents

用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法 Download PDF

Info

Publication number
CN104679247B
CN104679247B CN201510087459.4A CN201510087459A CN104679247B CN 104679247 B CN104679247 B CN 104679247B CN 201510087459 A CN201510087459 A CN 201510087459A CN 104679247 B CN104679247 B CN 104679247B
Authority
CN
China
Prior art keywords
user
body part
movement
tactile
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510087459.4A
Other languages
English (en)
Other versions
CN104679247A (zh
Inventor
D·格兰特
R·霍贝尔
D·伯恩鲍姆
E·拉姆萨伊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=42931900&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN104679247(B) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN104679247A publication Critical patent/CN104679247A/zh
Application granted granted Critical
Publication of CN104679247B publication Critical patent/CN104679247B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/10
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/48Starting a game, e.g. activating a game device or waiting for other players to join a multiplayer session
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/575Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player for trading virtual items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明涉及用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法。一种配置为向用户提供触觉激励的系统。在一个实施例中,所述触觉激励结合一个或更多个控制手势的执行而被提供到用户,通过所述控制手势,用户控制例如游戏、现实世界的组件或设备块、和/或其他实体。在一个实施例中,所述触觉激励结合用户对虚拟设备的控制而被提供到用户。

Description

用于在输入控制手势以及关于虚拟设备的控制期间提供复杂 触觉激励的系统和方法
本申请是申请日为2010年7月21日、发明名称为“用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法”的中国专利申请201080032035.3的分案申请。
技术领域
本发明涉及在执行复杂的控制手势期间和/或在虚拟设备的控制期间向用户提供触觉激励的系统和方法。
背景技术
向用户提供触觉激励是公知的。触觉激励向用户提供物理的感知。触觉激励用于游戏情境、虚拟世界以及现实世界的控制系统中。这种触觉激励可以被生成以向用户提供已接收到控制输入的反馈、其他用户输入了命令的反馈、虚拟或现实对象碰撞、爆炸或破裂的反馈、存在外界力(例如,仿真或真实的风、雨、磁和/或其他虚拟力)的反馈和/或发生了其他现象的反馈。在传统的系统中,这种激励的参数通常是静态的并且提供简单的机构以向用户指示发生了(或将发生)相应的现象。
使用户能控制虚拟设备的传统的游戏和/或虚拟世界系统是公知的。用于在这些传统的系统中与虚拟设备交互的控制和反馈方案常常是有限的,并且并非与现实世界的控制和/或相应的现实世界的设备的反馈有力地关联。
虽然已在车辆和其他计算装置中使用了基本的触觉作用(例如,振动),但开发者在吸引用户和提供反馈以增强用户体验方面仍存在多种挑战。
发明内容
本发明的一个方面涉及配置为向游戏的用户提供触觉激励的系统。在一个实施例中,所述系统包括用户界面、执行器和配置为执行计算机程序模块的一个或更多个处理器。所述用户界面配置为关于用户的手势生成输出信号。所述执行器配置为生成对用户的触觉激励。所述计算机程序模块包括手势模块、激励模块和执行器控制模块。所述手势模块配置为基于用户界面的输出信号而监控用户的控制手势的执行。所述控制手势是与输入到游戏的命令相关联的手势,并且包括初始部分、第一中间部分和结束部分。所述激励模块配置为接收关于来自手势模块的控制手势的执行的信息,并且确定为与控制手势相关联的用户生成的触觉激励。所述触觉激励包括响应于控制手势的初始部分的执行而确定的第一激励,以及与第一激励不同并且响应于控制手势的第一中间部分的执行而确定的第二激励。所述执行器控制模块配置为控制所述执行器以生成由激励模块确定的激励。
本发明的另一方面涉及向游戏的用户提供触觉激励的方法。在一个实施例中,所述方法包括监控用户的控制手势的执行,其中所述控制手势是与输入到游戏的命令相关联的手势,并且包括初始部分、第一中间部分和结束部分;确定与为用户生成的控制手势的执行相关联的触觉激励,其中所述触觉激励包括响应于控制手势的初始部分的执行而确定的第一激励,以及与第一激励不同并且响应于控制手势的第一中间部分的执行而确定的第二激励;以及在执行控制手势期间生成被确定的激励。
本发明的再一个方面涉及配置为向游戏的用户提供激励的系统。在一个实施例中,所述系统包括触敏型电子显示器、执行器以及配置为执行计算机程序模块的一个或更多个处理器。所述触敏型电子显示器具有界面表面,该界面表面便于用户接合,并且所述触敏型用户界面配置为关于界面表面被接合的位置而生成输出信号,并且通过所述界面表面向用户呈现游戏的视图。通过界面表面呈现的所述视图包括具有用户可选择的区段的虚拟设备的视图,所述用户可选择的区段可由用户选择以通过在虚拟设备的视图的用户可选择的区段处接合所述界面表面而与虚拟设备交互。所述执行器配置为向用户生成触觉激励。所述计算机程序模块包括设备模块、激励模块和执行器控制模块。所述设备模块配置为确定视图中的虚拟设备的工作参数,并且仿真虚拟设备的操作。所述设备模块基于用户对虚拟设备的视图的用户可选择的区段的选择而确定虚拟设备的工作参数和/或仿真虚拟设备的操作。所述激励模块配置为确定为与虚拟设备的工作参数和/或虚拟设备的被仿真的操作相关联的用户生成的触觉激励。所述执行器控制模块配置为控制执行器生成由激励模块确定的激励。
本发明的再一个方面涉及向游戏的用户提供激励的方法。在一个实施例中,所述方法包括通过便于用户接合的触敏型电子显示器的界面表面而呈现游戏的视图,其中通过界面表面呈现的视图包括具有用户可选择区段的虚拟设备的视图,所述用户可选择区段可由用户选择,从而通过在虚拟设备的视图的用户可选择区段处接合所述界面表面而与所述虚拟设备交互;通过界面表面上的被选择的用户可选择区段的用户接合而接收对一个用户可选择区段的选择;基于接收到的选择而确定视图中的虚拟设备的工作参数和/或虚拟设备的仿真操作;响应于接收到的选择而确定为与虚拟设备的工作参数和/或虚拟设备的被仿真的操作相关联的用户生成的触觉激励;以及生成被确定的触觉激励。
本发明的再一个方面涉及在一个或更多个便携式计算装置上提供游戏的系统和方法,其中虚拟对象(例如,球体)行进经过显示在一个或更多个便携式计算装置的界面上的游戏的视图。相应于一个虚拟对象(或多个虚拟对象)经过所述视图的行进的触觉作用被提供在独立的便携式计算装置上。可以基于虚拟对象的行进的一个或更多个参数(例如,速度、方向、加速度等等)、对象的一个或更多个参数和/或虚拟对象用以交互的特征(例如,墙壁、鳍状肢、阻挡物、缓冲器等等)和/或其他参数确定所述触觉作用。所述触觉作用可以包括提供在便携式计算装置上的触觉作用,所述便携式计算装置通常不显示相应于触觉作用的虚拟对象。这可以为在分离的便携式计算装置上一起玩游戏的一组用户增强游戏的交互性。
本发明的这些和其他目的、特征和特性,以及操作方法和结构的相关元件的功能、以及部件的组合和制造的经济性将基于对参考附图的以下的说明书和所附权利要求的考虑而变得更加显然,全部附图构成本说明书的一部分,其中相同参考标记指示各个附图中相应的部件。然而,将清楚理解的是,附图仅用于示例和说明的目的,并且不意图作为对本发明的限制的定义。如在说明书和权利要求中所使用的,除非本文中另有明确的规定,否则单数形式的“一”、“一个”和“所述”包括复数个标识物。
附图说明
图1说明了根据本发明的一个或更多个实施例配置为向用户提供触觉激励的系统。
图2说明了根据本发明的一个或更多个实施例的一块虚拟设备的视图。
图3说明了根据本发明的一个或更多个实施例的一块虚拟设备的视图。
图4说明了根据本发明的一个或更多个实施例的一块虚拟设备的视图。
图5说明了根据本发明的一个或更多个实施例的向用户提供触觉反馈的方法。
图6说明了根据本发明的一个或更多个实施例的向用户提供触觉反馈的方法。
图7说明了根据本发明的一个或更多个实施例的便携式计算装置。
图8A说明了根据本发明的一个或更多个实施例的用以支持多用户参与的游戏的使用的一个示例。
图8B说明了根据本发明的一个或更多个实施例的用以支持多用户游艺的游戏的使用的一个示例。
图9说明了根据本发明的一个或更多个实施例的在多个时间间隔上分别用于两个用户的游艺区域的一个示例。
图10说明了根据本发明的一个或更多个实施例的游艺的一个示例并且描述了弹出游艺区域的边沿的虚拟对象。
图11说明了根据本发明的一个或更多个实施例的用以仿真连续作用的触觉作用的使用。
图12说明了根据本发明的一个或更多个实施例的用于提供游戏的方法。
图13说明了根据本发明的一个或更多个实施例的用于游戏的一个场景的界面的一个示例。
具体实施方式
图1说明了配置为向用户12提供触觉激励的系统10。在一个实施例中,所述触觉激励结合一个或更多个控制手势的执行而提供到用户12,通过所述控制手势,用户12控制例如游戏、现实世界的设备的组件或模块和/或其他实体。所述触觉激励被提供到用户12,从而在给定的控制手势的执行连续进行时,与所述控制手势相关联的触觉激励根据控制手势的行进而改变。在一个实施例中,触觉激励结合用户12对虚拟设备的控制而提供到用户12。所述触觉激励相应于提供到系统10的用于控制虚拟设备的控制输入。在一个实施例中,系统10包括一个或更多个用户界面14、一个或更多个执行器16、电子存储器18、一个或更多个处理器20和/或其他组件。
虽然本公开主要说明了结合被执行以控制游戏的控制手势而提供的触觉激励,但这并不作为限制。根据本文提出的原理的触觉激励的提供可以被扩展到用户以控制手势(例如控制电视机、计算机、车辆、遥控车辆或船只等等)的方式提供输入的其他背景中。在涉及现实世界的组件或系统的控制的实施方式中,触觉激励可以用于增强用户的复杂控制手势的执行、增强用户经验、教导用户执行控制手势和/或提供基于传统的现实世界的控制系统的其他增强。涉及现实世界的组件或系统的控制的实施方式可以包括用户出现在受控的组件(例如车内的控制面板、基于微波等等)处的示例和/或用户与受控组件远程定位的示例。远程的现实世界的组件或系统的控制可以伴随向用户告知受控组件的状态的其他感官激励。所述其他感官激励可以包括例如提供到用户的实时(或近实时)的视频、音频和/或静止图像。
本文说明了一些实施例,其中用户12好像是唯一提供触觉激励的用户。这并不作为限制。本文说明的原理和实施例的扩展在本领域一个普通技术人员的能力范围内,并且单个用户的实施例的说明使本领域普通技术人员能做出和/或使用向多个用户提供相同特征的多用户的实施例。多用户的实施例可以包括关于“主动用户”(例如执行控制手势的用户)的控制手势的执行的“被动用户”(例如不执行控制手势的用户)的触觉激励的提供。所述触觉激励可以进一步提供反馈到存在于多用户环境中的其他现象的被动和/或主动用户。
如本文中使用的,“控制手势”涉及由用户做出的手势,该手势是具有分离部分的单个并且分立的控制输入。所述分离部分必须以特定顺序执行和/或以有效获得与“控制手势”相关联的控制输入的特定时序执行。所述分离部分的执行总体上将不独立地产生与“控制手势”相关联的控制输入(例如“控制手势”不仅仅是其他手势的组合,所述其他手势中的每一个与其自身的控制输入相关联)。在一些示例中,“控制手势”是抽象的手势,该手势与其相应的控制输入的精确度不相关。以下说明“控制手势”的一些非限制性的示例。
用户界面14包括配置为将信息传递到用户12和/或自用户12接收信息的一个或更多个输入和/或输出装置。用户界面14可以包括例如将内容传送到用户12的一个或更多个内容传输装置。这种内容可以包括音频内容、视频内容、静止图像和/或其他内容。所述内容传输装置可以包括例如电子显示器(例如包括触敏型显示器)、音频扬声器和/或其他内容传输装置。用户界面14可以包括一个或更多个控制输入装置,该控制输入装置配置为向系统10生成指示来自用户的输入的输出信号。例如,用户界面14可以包括游戏控制器、远程控制器、键区、按钮、开关、键盘、旋钮、控制杆、麦克风、位置检测装置(例如图像传感器、压力传感器、光学位置检测器、超声位置检测器、触敏型表面和/或其他位置检测装置)、加速计、陀螺仪、数字指南针和/或其他控制输入装置。用户界面14可以被嵌入在计算装置中或与计算装置相关联,和/或可以嵌入在控制外围设备中。计算装置可以包括一个或更多个桌上型计算机、膝上型计算机、手持计算机、个人数字助理、智能电话、个人音乐播放器、便携式游戏控制台、游戏控制台和/或其他计算装置。
将意识到虽然用户界面14在图1中被显示为单个实体,但这仅用于示例性目的。在一个实施例中,用户界面14包括多个执行器。多个用户界面14包括在单个物体或装置中、由单个物体或装置实现和/或与单个物体或装置接触。或者,多个用户界面14可以包括包含在多个分离的物体或装置中的用户界面和/或由多个分离的物体或装置实现的用户界面。
执行器16配置为生成用于用户12的触觉激励。这样,在通过用户界面14向用户传送感官内容期间,至少一些执行器16与用户接触,或与接触用户的物体接触。通过非限制性示例的方式,一个或更多个执行器16可以被定位在支撑用户的地板表面中或该地板表面上(例如安装在地板中、由铺在地板上的垫子实现等等),一个或更多个执行器16可以通过由用户佩戴的背带或其他可佩戴的事物实现,一个或更多个执行器16可以通过由用户携带的物体实现(例如由控制器实现),一个或更多个执行器16可以通过用户所坐或所躺的家具实现,一个或更多个执行器16可以通过用户界面14实现,和/或一个或更多个执行器16可以通过接触用户的其他物体实现或被置于接触用户的其他物体中或其上。
如本文中使用的,术语“触觉激励”涉及施加到用户的触觉反馈。例如,这种反馈可以包括振动、力和/或由执行器16物理地施加到用户和/或用以使执行器16与用户接触的物体的运动中的一个或更多个。执行器16可以包括配置为生成这种应用到用户的反馈的任意装置。例如,执行器16可以包括压电执行器、气动执行器、中央质量执行器、电致动聚合物执行器、静电表面执行器、宏纤维复合执行器(macro-fiber composite actuator)和/或其他执行器中的一个或更多个。例如,触敏型表面(和/或其他表面)可以由静电执行器致动,以相对于用户移动。由执行器16致动的表面可以是刚性的、半刚性的、柔性的和/或可变形的。
将意识到虽然执行器16在图1中被显示为单个实体,但这仅用于示例性目的。在一个实施例中,执行器16包括多个执行器。多个执行器可以包括在单个物体或装置中、由单个物体或装置实现和/或与单个物体或装置接触。或者,多个执行器可以包括包含在多个分离的物体或装置中的执行器、由多个分离的物体或装置实现的执行器和/或与多个分离的物体或装置接触的执行器。
在一个实施例中,电子存储器18包括电子地存储信息的电子存储媒体。电子存储器18的电子存储媒体可以包括与系统10一体地(即基本不可移动)提供的一个或两个系统存储器和/或经由例如端口(例如USB端口、火线端口等等)或驱动(例如硬盘驱动等等)可移动地连接到系统10的可移动的存储器。电子存储器18可以包括光学可读存储媒体(例如光盘等等)、磁性可读存储媒体(例如磁带、磁性硬盘驱动器、软盘驱动器等等)、基于电荷的存储媒体(例如EEPROM、RAM等等)、固态存储媒体(例如闪存驱动器等等)和/或其他电子可读存储媒体中的一个或更多个。电子存储器18可以存储软件算法、由处理器20确定的信息、经由用户界面14接收的信息和/或使系统10能恰当运行的其他信息。电子存储器18可以是系统10内分离的组件,或者电子存储器18可以与系统10的一个或更多个其他组件(例如处理器20)一体地提供。
处理器20配置为在系统10中提供信息处理能力。这样,处理器20可以包括数字处理器、模拟处理器、设计为处理信息的数字电路、设计为处理信息的模拟电路、状态机和/或用于电子地处理信息的其他机构中的一个或更多个。虽然处理器20在图1中被显示为单个实体,但这仅用于示例性目的。在一些实施方式中,处理器20可以包括多个处理单元。这些处理单元可以被物理地定位在相同装置内,或者处理器20可以表示协同工作的多个装置的处理功能。
如图1所示,处理器20可以配置为执行一个或更多个计算机程序模块。所述一个或更多个计算机程序模块可以包括内容模块22、手势模块24、激励模块26、设备模块28、执行器控制模块30和/或其他模块中的一个或更多个。处理器20可以配置为通过软件;硬件;固件;软件、硬件和/或固件的一些组合;和/或用于在处理器20上配置处理能力的其他机构而执行模块22、24、26、28和/或30。
应该意识到虽然模块22、24、26、28和30在图1中被显示为共同定位在单个处理单元内,但在处理器20包括多个处理单元的实施方式中,模块22、24、26、28和/或30中的一个或更多个可以与其他模块远程定位。由于任意的模块22、24、26、28和/或30可以提供比所说明的或多或少的功能,因此,以下描述的由不同模块22、24、26、28和/或30提供的功能的说明用于示例性目的,而不意图作为限制。例如,可以去除模块22、24、26、28和/或30中的一个或更多个,而被去除的模块的一些或全部功能可以由模块22、24、26、28和/或30中的其他模块提供。作为另一个示例,处理器38可以配置为实施一个或更多个额外的模块,所述额外的模块可以执行以下属于模块22、24、26、28和/或30中的一个模块的一些或全部功能。
内容模块22配置为经由用户界面14控制向用户12提供的内容。如果所述内容包括计算机生成的图像(例如在游戏中、虚拟世界中、仿真中等等),则内容模块22配置为生成通过用户界面14向用户12显示的图像和/或视图。如果所述内容包括视频和/或静止图像,则内容模块22配置为存取所述视频和/或静止图像并且生成所述视频和/或静止图像的视图,以便显示在用户界面14上。如果所述内容包括音频内容,则内容模块22配置为生成电子信号,该电子信号将驱动用户界面14输出适当的声音。所述内容或者获取所述内容的信息可以通过内容模块22自电子存储器18获得。
在一个实施例中,由内容模块22提供的内容是与游戏相关联的内容。在本实施例中,内容模块22配置为经由用户界面14呈现用于向用户12显示的游戏的视图。内容模块22进一步根据与所述游戏相关联的机器可读程序代码而提供与所述视图相关联的音频。
手势模块24配置为接收由用户界面14生成的一个或更多个输出信号,所述用户界面14指示自用户12接收的控制输入。基于接收到的一个或更多个输出信号,手势模块24监控用户12的一个或更多个控制手势的执行。在一个实施例中,由手势模块24监控的控制手势包括初始部分、一个或更多个中间部分、以及结束部分。
在用户界面14包括触敏型表面(通过该触敏型表面,接收来自用户12的输入)的一个实施例中,控制手势的初始部分可以包括在一个或更多个位置处开始与触敏型表面的接触。所述控制手势可以指示开始接触的位置(或用于多触点控制手势的位置)、开始接触所用的压力、和/或用户12和触敏型表面之间的初始接触的其他参数。如果用户12已接触所述触敏型表面,则控制手势的初始部分可以包括移动到相应于所述控制手势的一个或更多个位置、(在特定的位置或一般地)维持与触敏型表面的接触、在一个或更多个特定方向上运动、做出一个或更多个特定的形状、在触敏型表面上的一个或更多个位置处结束接触和/或其他动作。控制手势的一个或更多个中间部分可以包括在不移动的情况下维持在一个或更多个点处的接触、在特定的方向上运动、做出特定的形状、暂停运动、在一个或更多个额外的位置处接触所述触敏型表面、在触敏型表面上的一个或更多个位置处结束接触、在触敏型表面上按压得更紧或更松和/或其他动作中的一个或更多个。所述结束部分可以包括在触敏型表面上的一个或更多个位置处结束接触、在一个或更多个位置处暂停运动、在特定的方向上运动、做出特定的形状、在一个或更多个额外的位置处接触所述触敏型表面、在触敏型表面上按压得更紧或更松和/或其他动作中的一个或更多个。
基于位置的由所述初始部分指示的一个或更多个动作、一个或更多个中间部分和/或控制手势的结束部分可以与(例如每次的相同位置处的)静态位置相关联,与在相应的部分期间不改变的动态位置(例如所述位置可以在控制手势的多次执行间移动,但在执行相应于所述位置的部分时保持固定)相关联、与在相应的部分期间改变的动态位置相关联和/或与其他类型的位置相关联。
在用户界面14包括触敏型表面的实施例中,控制手势的一个最简单的示例包括用户12接触所述触敏型表面的初始部分。中间部分可以包括保持在所述控制手势的初始部分期间做出的接触。结束部分可以包括移除在所述控制手势的初始部分期间做出并且在所述控制手势的中间部分期间维持的接触。
在用户界面14包括配置为监控用户12在空间中的运动的一个或更多个传感器(例如成像传感器、压力传感器、加速计和/或其他传感器)的实施例中,控制手势的初始部分可以包括面向特定的方向、在特定的方向上运动或移动、以特定的一个或更多个配件运动、以特定的方式关于彼此定位身体部分(例如以身体部分的预定配置和/或其他配置保持双手)、以特定的形状运动或移动、运动特定的时间量、以特定的速率和/或加速度(或者高于或低于该特定的速率和/或加速度)运动或移动、以特定的方式改变运动或移动的方向和/或其他动作中的一个或更多个。所述一个或更多个中间部分可以包括将头部和/或其他身体部分的取向改变到特定的方向、在特定的方向上运动或移动、以特定的一个或更多个配件运动、运动身体各部分从而以彼此之间特定的关系移动、以特定的形状运动或移动、运动特定的时间量、以特定的速率和/或加速度(或者高于或低于该特定的速率和/或加速度)运动或移动、以特定的方式改变运动或移动的方向、由一个或更多个身体部分暂停运动或移动、和/或其他动作中的一个或更多个。所述控制手势的结束部分可以包括将头部和/或其他身体部分的取向改变到特定的方向、以特定的方向运动或移动、以特定的一个或更多个配件运动、运动身体各部分从而以彼此之间特定的关系移动、以特定的形状运动或移动、运动特定的时间量、以特定的速率和/或加速度(或者高于或低于该特定的速率和/或加速度)运动或移动、以特定的方式改变运动或移动的方向、由一个或更多个身体部分暂停运动或移动、和/或其他动作中的一个或更多个。
所述手势模块24配置为通过获得指示用户12的移动和/或运动的用户界面14的输出信号,以及将用户12的移动和/或运动与控制手势相比较而监控控制手势的执行。所述控制手势中的一个或更多个可以依据通过内容模块22经由用户界面14传送到用户12的内容。例如,所述控制手势中的一个或更多个可以依据经由用户界面14传送到用户12的游戏。所述控制手势中的一个或更多个可以独立于经由用户界面14提供到用户12的内容。例如,所述控制手势中的一个或更多个可以控制用户界面14、处理器20和/或其他组件的功能。
所述激励模块26配置为关于来自手势模块24的控制手势的执行而接收信息,并且确定为用户12生成的与控制手势相关联的触觉激励。由激励模块26确定的触觉激励包括响应于控制手势的执行的触觉激励,所述控制手势与执行所述控制手势的内容相分离。例如,在游戏的内容中,响应于控制手势的执行的触觉激励包括不取决于所述游戏中除所述控制手势的执行以外的其他变量的触觉激励。
由激励模块26确定的触觉激励比通常与控制手势相关联的触觉激励更复杂和丰富。例如,在传统的系统中,与控制手势相关联的触觉激励趋向于包括在控制手势期间和/或之后提供的单个激励。这种触觉激励提供控制手势的确认。相反,由激励模块26确定的触觉激励跟紧密地跟踪控制手势的执行,从而增大由触觉激励提供的令人满意的体验。
在一个实施例中,由激励模块26确定的相应于控制手势的触觉激励包括第一激励、第二激励和/或其他激励。第一激励不同于第二激励。这意味着第一激励的一个或更多个参数不同于第二激励。所述一个或更多个参数可以包括例如周期、力、方向、位置和/或触觉激励的其他参数中的一个或更多个。在第一激励和第二激励(和/或其他激励)之间的一个或更多个参数的变型可以是平滑的,和/或可以是离散的,从而在第一激励和第二激励之间的触觉激励的参数中产生独特的步骤。
所述激励模块26配置为使第一激励和第二激励的提供与所述第一激励和第二激励相应的控制手势的执行相关。在一个实施例中,第一激励由激励模块26响应于控制手势的初始部分的执行而确定,而第二激励由激励模块26响应于控制手势的一个或更多个中间部分的执行而确定。响应于控制手势的结束部分,激励模块26可以确定其他激励(例如第三激励),或者可以停止提供与所述控制手势相关联的触觉激励。
在一个实施例中,激励模块26确定与控制手势相关联的触觉激励,从而使所述激励在所述控制手势的各中间部分之间各不相同。在所述控制手势的执行连续进行时,这可以引起触觉激励中的平滑改变,和/或在所述控制手势的执行在各中间部分之间变换时,这可以引起触觉激励中的离散的改变。
由激励模块26确定的触觉激励可以为指定的用户12提供一些关于控制手势的执行的反馈。这可以包括告知用户12控制手势的一部分已经开始和/或当前正在进行的激励,提示用户12开始控制手势的下一部分的激励,和/或为用户12提供关于控制手势的执行的其他信息的激励。
在一个实施例中,激励模块26向用户12提供触觉激励,该触觉激励向用户12指示控制手势的执行失败。在本实施例中,响应于用户12执行控制手势的一部分的失败,或者响应于从控制手势的一个部分到该控制手势的其他部分的恰当变换的失败,激励模块26确定向用户12提供的指示所述失败的激励。例如,失败激励可以包括嘶嘶声和/或其他激励。
以下将呈现一些控制手势和相应的触觉激励的说明性示例。给出的示例相应于一般出现在游戏中的一些游戏人物的类别,所述游戏包括选手之间和/或选手和非游戏人物之间的格斗。具体地,以下给出的示例相应于“投手”、“近距离格斗的战士”和“远距离格斗的战士”。将意识到这些人物的分类并不作为限制。其他人物的类别,和/或包括多个类别的特性的混合物可以根据本文提出的原理实现。
“投手”是在格斗期间抛出符咒(或其他类似的攻击和/或防御)的人物。投手人物的示例包括术士、牧师、魔术师、工兵和/或其他人物。为了控制投手抛出指定的符咒,用户12可以被要求执行相应于所述指定的符咒的控制手势。当用户12连续进行控制手势的各部分时,由激励模块26确定的相应于控制手势的触觉激励可以告知用户12关于控制手势的进展。与控制手势相关联的触觉激励可以进一步提供关于被抛出的符咒的能量的信息(例如更大的力和/或更快的周期可以指示更有力的符咒)。
在一个实施例中,当控制手势在该控制手势的各部分间进行时,由激励模块26确定的触觉激励的力和/或速度可以增大。这种增大可以是随控制手势连续进行而渐进地发生和/或在分立的步骤中实现(例如在控制手势的各部分之间的变换处)。这并不意图作为限制,因为触觉激励的其他参数可以被改变以指示控制手势的进展。所述触觉激励可以提供关于控制手势的(迄今为止的)成功进行的反馈,和/或提示用户12关于控制手势未来的执行(例如进行到下一部分,维持当前部分等等)。基于执行控制手势的最终部分,激励模块26可以确定指示被成功抛出的符咒的触觉激励。在一个实施例中,用户12可以执行有效“存储”用于释放的符咒的控制手势的各部分。这可以使符咒存储不确定的周期,或者使符咒存储一些预定的最大存储时间。在存储期间,激励模块26可以确定确认正在进行的符咒的存储的触觉激励。如果存储周期具有最大的存储时间,则触觉激励可以指示关于最大存储时间的存储周期的状态。
“近距离的格斗战士”是配置为在近距离的区域与敌人战斗(例如徒手格斗)的人物。这种人物可以装备有挥击武器(例如棍棒、锤矛等等)、捅刺和/或劈砍武器(例如刀、斧、剑等等)、和/或其他近距离区域的武器。当用户12控制人物以例如运用打击时,激励模块26可以确定模仿这些攻击的一些现实世界的属性的触觉激励。例如,当用户12撞击对手或物体时,第一反馈可以模仿撞击和/或切割的感觉。当用户12在这种打击之后撤回武器时,第二反馈可以模仿武器从所述物体或对手的撤回。作为另一个示例,当用户12在已有的位置上挥击武器(例如挥击链球)时,由激励模块26确定的第一反馈可以模仿现实世界的感觉,所述现实世界的感觉是这种活动在现实生活中的结果。自所述已有位置释放所述武器(例如以挥击的球撞击对手或对象)可以导致由激励模块26进行的模仿这种攻击的感觉的第二激励的确定。可以基于控制手势(或其一些部分)执行的时间量、控制手势的运动范围、控制手势期间的运动速度、用户和包括在用户界面14中的触摸屏之间的接触的压力、和/或控制手势(或其一些部分)的其他参数来确定攻击的强度。
在一些实施方式中,用户界面14包括触摸屏,其中由内容模块22呈现与游戏相关联的内容的显示。在这些实施方式中,做出控制手势的位置影响游戏被控制的方式和/或由激励模块26(针对输入所述手势的用户和/或其他用户)确定的触觉激励。例如,在近距离格斗战士的控制中,用户可以输入可以指示攻击应该指向的敌人的特定部分(例如腿、胳膊、头部、躯干等等)的方式输入攻击的控制手势。类似地,在近距离格斗战士的控制中,用户可以指示受控的人物应该被防御或阻挡的特定部分(例如腿、胳膊、头部、躯干等等)的方式输入防御或阻挡的控制手势。控制手势的这种基于位置的方面可以在确定相应控制的成功和/或影响时被考虑,和/或在确定相应于所述控制手势的触觉激励时被考虑。可以通过触摸用户界面14的触摸屏上的多个位置而触发多个攻击。
“远距离格斗战士”是配置为并且装备为攻击远距离的敌人的人物。这可以包括装备为例如释放射弹的人物,所述射弹例如为箭、石头、子弹、火箭和/或其他射弹。通过非限制性示例的方式,用户12可以控制远距离格斗战士发射弓和箭。在本示例中,可以由激励模块26确定不同的触觉激励,以便为箭开槽口、拖曳弓(并且变化触觉激励以指示增大的弦张力)、释放所述弦、基于释放而弓弦撞击人物的前臂、和/或与射箭相关联的控制手势的其他部分。可以基于执行控制手势(或其一些部分)的时间量、控制手势的运动范围、控制手势期间的运动速度、用户和包括在用户界面14中的触摸屏之间的接触的压力、和/或控制手势(或其一些部分)的其他参数来确定攻击或射弹的强度和/或速度。
可以基于控制手势确定远距离攻击指向的目标和/或作为远距离攻击的一部分发射的射弹的路径。例如,如果用户界面包括触摸屏,则执行控制手势的用户可以接触其上显示远距离攻击的目标(例如作为所述控制手势的一部分)的触摸屏的一部分。类似地,用户可以在触摸屏上描绘在远距离攻击期间发射的射弹的路径。射弹的路径的轨迹可以构成开始所述攻击的控制手势的至少一部分。由控制手势指示的目标和/或路径可以影响由激励模块26确定的相应的触觉激励的确定。
游戏内容可以包括箱体、房间、大门、车辆和/或其他被“锁定”的物体或项目,并且必须通过一些控制手势的执行而开启。在一些实施方式中,响应于选择这种物体或项目的用户,激励模块26可以确定向用户指示所选择的物体或项目被锁定的触觉激励。由控制手势的用户执行对物体或项目的解锁可以导致由激励模块26进行的相应于控制手势的触觉激励的确定。
在一个实施例中,由激励模块26针对指定的控制手势确定的触觉激励可以基于在由用户12控制的游戏中的人物特性而变化。例如,触觉激励可以依据人物技能、人物疲劳程度、人物损伤、武器类型、武器破损、和/或其他特性而变化。
基于人物疲劳程度和/或损伤改变触觉激励可以是阻碍用户12作为疲劳或被损伤的人物的一种方式。这可以包括改变力、周期和/或触觉激励的其他参数,从而抑制由用户12(例如通过增大所述力)进行的精确控制,抑制触觉激励中的暗示和提示的感知(例如通过减小力、增大不提供暗示和提示的部分触觉激励的力、减小对暗示和/或提示的响应时间等等),和/或阻碍用户12。
基于人物技能变化触觉激励可以提供技能和能力的渐进的和/或逐步的“解锁”。对于在指定的能力中具有更多训练和/或技能的人物,激励模块26可以确定提供更清楚和/或更容易的遵从指导的触觉激励,从而执行相应于指定能力的控制手势。例如,当任务的技能增大时,由激励模块26确定的用于所述人物的触觉激励可以提供指导用户12的控制手势的更明确的暗示和/或提示(例如见以上关于人物疲劳程度的示例)。这使用户12能利用控制手势,而不需要对相应的能力进行充分训练,但可以影响用于所述用户的控制手势的再现性,除非寻找到进一步的训练和/或其他技能构建。
基于人物的设备改变所确定的用于控制手势的触觉激励可以激励维持设备的修补和/或获得加固的设备,但不使这些活动成为强制性的。代替数字确定用户12是否可用控制手势,激励模块26提供使控制手势更简单和/或更享受“更优”的虚拟设备的触觉激励。
设备模块28配置为基于用于用户12的虚拟设备而提供控制。在由系统10提供到用户12的游戏内容中,用户12可以(例如直接或通过使用所述虚拟设备的人物)控制虚拟设备。在这些情况下,内容模块22经由用户界面14向用户12提供虚拟设备的视图。设备模块28配置为确定虚拟设备的工作参数,并且仿真其操作。
在用户界面14包括触敏型电子显示器的一个实施例中,设备模块28基于由用户12对虚拟设备的视图的用户可选择区段的选择而确定虚拟设备的工作参数和/或仿真虚拟设备的操作。虚拟设备的用户可选择区段可以位于相应于虚拟设备的视图中,所述视图相应于与设备的接合在现实生活中以配置设备的工作参数和/或操作设备的区段类似的虚拟设备的区段。可通过接合虚拟设备的视图的用户可选择区段而配置的虚拟设备的工作参数包括被加载的多发子弹、破损程度、制动能量、发射速度、子弹类型、噪声水平和/或其他工作参数。
以示例的方式,图2示出了虚拟设备32(例如枪支)的一块的视图。在图2中所示的视图中,虚拟设备块32包括多个可选择的区段34(在图2中显示为区段34a、区段34b、区段34c和区段34d)。通过选择区段34a,用户12可以配置虚拟设备块32的手柄/托柄。通过选择区段34b,用户12可以配置虚拟设备块32的子弹。通过选择区段34c,用户12可以配置虚拟设备块32的视野。通过选择区段34d,用户12可以配置虚拟设备块32的枪管/枪口。
选择一个可选择的区段34以配置虚拟设备块32可以包括简单地选择期望的可选择区段34,并且之后选择用于被选择区段34的新的配置。在一个实施例中,通过交互作用的触摸和拖曳类型而进行重构。例如,用户12可以接合用户界面14上相应于子弹的区域并且将子弹“拖曳”到区段34b,从而重新加载虚拟设备块32。类似地,用户12可以选择并拖曳消音器(和/或其他枪口或枪管特征)到虚拟设备块32的区段34d,以改变虚拟设备块32的声音特性(和/或其他特性)。
作为另一个说明性示例,图3示出了具有多个可选择区段38(在图3中显示为区段38a、区段38b、区段38c和区段38d)的虚拟火器36的视图。激励模块26的可选择区段38可以类似于以上关于图2讨论的方式被选择。
作为另一个说明性示例,图4示出了虚拟设备块40的视图,该虚拟设备块40配置为在游戏中向用户(或向由用户控制的人物)显示各个项目的接近度。虚拟设备块40包括多个可选择区段42(在图4中显示为区段42a、区段42b、区段42c、区段42d和区段42e)。可选择区段42中单独的区段相应于虚拟设备块40的单独的模式,使得对可选择区段42中的一个区段的选择引起虚拟设备块40根据被选择的模式而工作。例如,在第一模式中,虚拟设备块40可以提供对其他人物的接近度的指示,在第二模式中,虚拟设备块40可以提供对敌人的接近度的指示,在第三模式中,虚拟设备块40可以提供对一个或更多个资源(例如黄金、食物、子弹、电源(power-ups)等等)的接近度的指示。
现在返回到图1,在一个实施例中,激励模块26配置为确定为用户生成的触觉激励,该触觉激励与虚拟设备的工作参数和/或虚拟设备的仿真操作相关联。这可以包括例如基于虚拟设备块的当前工作参数变化触觉激励;在重构虚拟设备块期间确定触觉激励,以反映在虚拟设备块中进行的改变;和/或虚拟设备的配置和/或操作的其他方面。
以非限制性示例的方式,如果由用户12重新加载虚拟火器,则激励模块26确定指示重新加载的触觉反馈。新的子弹不同于之前使用的子弹,激励模块26基于所述火器的发射而确定触觉反馈,该触觉反馈不同于在之前使用的子弹的发射期间确定的触觉激励。
在一个实施例中,执行器16配置为启动为用户12呈现虚拟设备的视图的触敏型电子显示器。在本实施例中,当用户12接合触敏型电子显示器时,向用户12传输由激励模块26确定的触觉激励引起更令人满意的虚拟设备控制体验。例如,当用户12接合触敏型显示器以重新加载枪支或切断设备块时,触觉激励通过触敏型表面被提供到用户12,所述触觉激励相应于基于枪支施加的控制。
执行器控制模块30配置为控制执行器16生成由激励模块26确定的触觉刺激。这包括将自处理器22生成的触觉刺激传递到执行器16。所生成的触觉刺激可以基于有线通信链路、无线通信链路和/或处理器22和执行器16之间的其他通信链路传递。
图5显示了确定触觉激励和/或向用户提供触觉激励的方法44。所述触觉激励可以结合游戏和/或在其他内容中被确定和/或提供到用户。以下呈现的方法44的操作意图进行说明。在一些实施例中,方法44可以伴随未被说明的一个或更多个额外的操作,和/或不具有所讨论的操作中的一个或更多个。此外,在图5中显示并且在以下说明的方法44的操作顺序并不意图作为限制。
在一些实施例中,方法44可以在一个或更多个处理装置(例如数字处理器、模拟处理器、设计为处理信息的数字电路、设计为处理信息的模拟电路、状态机和/或用于电子地处理信息的其他机构)中实现。所述一个或更多个处理装置可以包括一个或更多个装置,该装置响应于电子地存储在电子存储介质上的指令而执行方法44的一些或全部操作。所述一个或更多个处理装置可以包括一个或更多个装置,该装置通过硬件、固件和/或软件配置为专门设计用于执行方法44的一个或更多个操作。
在操作46处,监控用户的控制手势的初始部分的执行。可以基于与用户界面14(在图1中示出并且在以上进行说明)类似或相同的用户界面的输出信号而监控所述控制手势的初始部分的执行。在一个实施例中,操作46由与手势模块24(在图1中示出并且在以上进行说明)类似或相同的手势模块执行。
在操作48处,响应于控制手势的初始部分的执行,确定第一触觉激励。所述第一触觉激励相应于控制手势的初始部分。在一个实施例中,通过与激励模块26类似或相同的激励模块26(在图1中示出并且在以上进行说明)执行操作48。
在操作50处,生成用于用户的第一触觉激励。在一个实施例中,通过与执行器16(在图1中示出并且在以上进行说明)相似或相同的一个或更多个执行器执行操作50。
在操作52处,做出关于控制手势的第一中间部分是否已由用户执行的确定。响应于已被执行的控制手势的第一中间部分,方法44进行到操作54。在一个实施例中,由与手势模块24(在图1中示出并且在以上进行说明)相似或相同的手势模块执行操作52。
在操作54处,确定第二触觉激励。所述第二触觉激励相应于控制手势的第一中间部分。在一个实施例中,由与激励模块26(在图1中示出并且在以上进行说明)相似或相同的激励模块执行操作54。
在操作56处,生成用于用户的第二触觉激励。在一个实施例中,由与执行器16(在图1中示出并且在以上进行说明)相似或相同的一个或更多个执行器执行操作56。
再次参考操作52,响应于未被执行的控制手势的第一中间部分,方法44进行到做出关于控制手势是否已失败的确定的操作58。这可以基于与用户界面14(在图1中示出并且在以上进行说明)相似或相同的用户界面的输出信号而确定。如果未包括在控制手势中的动作已因执行控制手势的初始部分和/或其他因素而被执行,则可以例如基于自执行控制手势的初始部分逝去的时间量而做出控制手势是否已失败的确定。在一个实施例中,由与手势模块24(在图1中示出并且在以上进行说明)相似或相同的手势模块执行操作58。
响应于在操作58处做出的控制手势未失败的确定,方法44返回到操作52。响应于在操作58处做出的控制手势已失败的确定,方法44进行到操作60。在操作60处,确定指示控制手势的失败的触觉激励。在一个实施例中,由与激励模块26(在图1中示出并且在以上进行说明)相似或相同的激励模块执行操作60。
基于在操作60处做出的触觉激励的确定,在操作62处生成用于用户的被确定的触觉激励。在一个实施例中,由与执行器16(在图1中示出并且在以上进行说明)相似或相同的一个或更多个执行器执行操作62。
再次参考操作52,进一步响应于控制手势的第一中间部分已被执行的确定,方法44进行到操作64。在操作64处,做出关于是否已执行控制手势的结束部分的确定。响应于控制手势已结束的确定,方法44结束与控制手势相关联的触觉激励的供应。在一个实施例中,与控制手势的完成相关联的最终的触觉激励被进一步确定和生成。在一个实施例中,由与手势模块24(在图1中示出并且在以上进行说明)相似或相同的手势模块执行操作64。
响应于在操作64处做出的控制手势的结束部分未被执行的确定,方法44进行到操作66。在操作66处,做出关于控制手势是否已失败的确定。这可以基于与用户界面14(在图1中示出并且在以上进行说明)相似或相同的用户界面的输出信号而确定。如果未包括在控制手势中的动作已因执行控制手势的第一中间部分和/或其他因素而被执行,则可以例如基于自执行控制手势的第一中间部分逝去的时间量而做出控制手势是否已失败的确定。在一个实施例中,由与手势模块24(在图1中示出并且在以上进行说明)相似或相同的手势模块执行操作66。
响应于在操作66处做出的控制手势未失败的确定,方法44返回到操作64。响应于在操作66处做出的控制手势已失败的确定,方法44进行到操作60和62。
在一个实施例中,控制手势包括多于一个的中间部分。在本实施例中,方法44在操作52和64之间扩展,从而监控额外的中间部分并且以与所显示和说明的第一中间部分相似的方式生成相应的触觉激励。
图6显示了确定触觉激励和/或向用户提供触觉激励的方法68。所述触觉激励可以结合游戏和/或在其他内容中被确定和/或提供到用户。以下呈现的方法68的操作意图进行说明。在一些实施例中,方法68可以伴随未被说明的一个或更多个额外的操作,和/或不具有所讨论的操作中的一个或更多个。此外,在图6中显示并且在以下说明的方法68的操作顺序并不意图作为限制。
在一些实施例中,方法68可以在一个或更多个处理装置(例如数字处理器、模拟处理器、设计为处理信息的数字电路、设计为处理信息的模拟电路、状态机和/或用于电子地处理信息的其他机构)中实现。所述一个或更多个处理装置可以包括一个或更多个装置,该装置响应于电子地存储在电子存储介质上的指令而执行方法68的一些或全部操作。所述一个或更多个处理装置可以包括一个或更多个装置,该装置通过硬件、固件和/或软件配置为专门设计用于执行方法68的一个或更多个操作。
在操作70处,虚拟设备的视图经由触敏型电子显示器向用户呈现。所述视图包括可选择区段,该可选择区段可由用户选择,从而与视图中所示的虚拟设备交互。在一个实施例中,所述虚拟设备的视图由与内容模块22(在图1中示出并且在以上进行说明)相似或相同的内容模块确定。
在操作72处,接收对虚拟设备的视图的一个可选择区段的选择。所述选择可以通过呈现所述视图的触敏型电子显示器接收。
在操作74处,基于在操作72处接收的选择而仿真虚拟设备的操作和/或调节虚拟设备的一个或更多个参数。在一个实施例中,操作74由与设备模块28(在图1中示出并且在以上进行说明)相似或相同的设备模块执行。
在操作76处,确定与虚拟设备的操作和/或在操作74处起作用的虚拟设备的工作参数的调节相关联的触觉激励。在一个实施例中,操作76由与激励模块26(在图1中示出并且在以上进行说明)相似或相同的激励模块执行。
在操作78处,生成用于用户的在操作76处确定的触觉激励。在一个实施例中,操作78由与执行器16(在图1中示出并且在以上进行说明)相似或相同的一个或更多个执行器执行。
如上所述,响应于用于单个用户的基于手势的控制的复杂触觉激励的说明并不意图作为限制。响应于在多用户环境中基于手势的控制生成的触觉激励同样是可预期的。向指定的用户提供的触觉激励可以包括触觉反馈,该触觉反馈响应于其他用户的基于手势的控制和/或其他现象。
图7是说明了根据本发明的一个或更多个方面配置的便携式计算装置的示例100的图示。特别地,显示了平板计算机102。平板计算机102包括安装到主体106的屏幕104,其中上表面108表示与用户交互的表面。在本示例中,由主体106作为上表面108的边沿,但屏幕区域能够一路扩展到平板的边缘。平板计算机102能够使用任意数量或类型的触摸传感技术,以确定用户何时在表面106上或表面106附近进行了触摸。例如,表面108可以包括基于电阻或电容的触觉传感系统和/或光学触觉传感系统。
虽然在本示例中示出了平板计算机,但能够理解的是可以使用任意的有效触摸的计算装置。例如,如蜂窝电话或媒体播放器等更小型的装置可以有效触摸的显示器为特色并且能够提供根据本主题的触觉输出。作为另一个示例,可以使用与其他计算装置(例如桌上型计算机或服务器计算机)相关联并且连接到所述其他计算装置的有效触摸的显示器表面。例如,表面108可以表示例如桌面等更大的有效触摸的表面,基于所述表面,屏幕图像自其上或其下投射。本文描述了平面,但本主题能够被应用以用于具有弯曲表面和/或非平滑表面的装置中。经由触摸输入到计算机(或其他计算装置)的手势可以是控制手势。将意识到涉及触摸的手势的说明不意图限制本文讨论的控制手势的范围。控制手势可以包括(具有或不具有触摸手势)组件或主体的操控(例如“倾斜”控制)、一个或更多个棍棒控制的操控、一个或更多个按钮的操控、一个或更多个开关的操控、和/或其他界面特征的操控或与其他界面特征的交互。
图7说明了在110处的计算装置102的构造的一个示例。计算装置102包括配置为执行计算机程序模块的一个或更多个处理器112、例如RAM、ROM或其他存储器技术的存储器114、显示界面116、触觉界面118、I/O接口120和网络接口122。可以使用任意适合的显示技术。在一些实施方式中,使用了LCD显示器。
触觉界面118可以包括用于驱动一个或更多个执行器的适合的组件,所述执行器用于重放触觉作用,从而向装置102的用户提供物理感知。例如,一些或全部显示器104可以包括嵌入的执行器,使得作为目标的物理输出可以被提供到显示器的一部分,以在用户触摸表面108的位置处提供物理作用。额外的执行器可以用于经由平板计算机102的其他表面而提供触觉输出,所述其他表面例如为平板计算机102的侧面以及与表面108相对的表面(即所述装置的背面)。将意识到执行器相对于期望的物理作用的位置可以变化。例如,为了在屏幕的第一部分处产生作用,在屏幕的第二部分(或所述装置中的任意位置)处的执行器可以被驱动,使得所述屏幕和/或装置的介入组件(intervening component)的属性影响在屏幕的第一部分处的感觉。
在一个实施例中,平板计算机包括具有偏心转动质量电机的执行器。所述执行器被直接或间接地耦接到平板计算机外壳的表面。激励所述电机引起用户能感觉到的表面上的振动。通过变化发送到执行器的信号的幅值和频率,各种作用均是可行的。作为另一个示例,执行器可以用于提升或降低屏幕的区段,以产生隆起、凹陷或其他特征。作为进一步的示例,执行器可以包括压电执行器。例如,压电执行器可以被至少部分地嵌入在例如硅等无机聚合物基质中。作为另一个进一步的示例,执行器可以包括宏纤维复合执行器或复合型钹式(piezocomposite)执行器。这些执行器可以形成为悬浮在基质(例如环氧树脂)中的压电纤维的薄层。所述纤维可以与聚酰亚胺电极电通信。可以使用许多其他类型的执行器,并且因此执行器的本示例性说明并非意味着作为限制。
处理器112可以使用I/O接口120,以便使用任意适合的组件接收输入并且提供输出。例如,I/O接口120可以链接到扬声器和/或麦克风,以便接收语音输入并且提供音频输出。作为另一个示例,I/O接口120可以提供与例如用于向所述装置提供输入的鼠标或触针等外围装置的连接,或者提供与用于捕捉静止图像和/或视频的成像传感器的连接。
网络接口122可以用于使用一种或更多种网络技术而将装置102链接到网络。例如,接口122可以提供与适当的组件的连接或使用蓝牙技术的连接,所述组件用于连接到IEEE 802.11(Wi-Fi)或802.16(Wimax)网络。作为另一个示例,接口122可以允许经由电话、以太网或其他有线连接的通信,或者可以支持其他无线技术,例如经由IR端口的通信。
计算装置102可以包括额外的组件,例如,可以包括一个或更多个存储组件(例如磁性或固态硬盘驱动)。如果计算装置102包括蜂窝电话,则同样可以包括适当的RF组件。
存储器114有形地包含一个或更多个程序组件,所述程序组件将计算装置102配置为以意图的方式操作。例如,存储器114可以包括一个或更多个应用软件、操作系统,并且还可以包括被存储的数据。如图所示,存储器114还包括用于根据以下所述的一个或更多个方面提供交互式游戏的程序组件124。
一般地,所述游戏可以将计算装置102配置为经由显示器104呈现游艺区域126、跟踪游艺区域中的虚拟对象128(例如,球体)的移动、以及响应用户的交互作用而在游艺期间使用板状物130起动并偏转所述虚拟对象。此外,当虚拟对象移动经过游艺区域的特征并且遇到所述特征时,所述游戏可以配置为重放触觉作用。可以选择所述触觉作用,以提供基于遇到的特定特征而不同的感知。在本示例中,游艺区域包括顶部T、底部B、左侧L和右侧R。所述游戏可以配置为使得虚拟对象在到达左侧L之前通过板状物130偏转。如果涉及多个选手,则虚拟对象可以在T、B或R中的一侧或更多侧上退出,并且如下所述地进入另一个用户的屏幕。
图8A说明了支持多用户游艺的游戏的应用的示例200A。游戏程序可以支持发送和接收数据,以便于跟踪虚拟对象在包括多个屏幕的游艺区域中的位置。在本示例中,第一装置202经由网络206接合到第二装置204。网络206可以包括局域网、广域网,或者可以表示装置202和204之间的直接连接。通过接合运行游戏的场景的多个装置,当虚拟对象遇到其他用户的屏幕中的特征时,用户可以体验触觉作用。这种触觉作用可以包括根据其他用户的屏幕上的控制手势输入而确定的触觉作用。
例如,如果使用了图7中的游艺区域126,则当虚拟对象128在第一装置的右侧R处退出时,所述虚拟对象可以进入第二装置的右侧R处的屏幕。作为另一个示例,所述装置可以具有镜面成像的布局,也就是,装置202可以特征在于沿左侧L的板状物130,同时装置204包括沿右侧R的板状物130。在此情况下,当虚拟对象达到第一装置的游艺区域的右侧R时,所述虚拟对象可以进入另一个装置的左侧L处的游艺区域,向着另一个装置的游艺区域中的右侧R和板状物130前进。
服务器208被描述为说明在一些实施例中,可以通过服务器促进多用户游艺。然而,如上所述,在一些实施例中,游戏程序被配置为在不需要服务器的情况下直接与其他场景接合。
图8B说明了多用户游艺的另一个示例200B。在本示例中,三个装置202、204和210经由第一网络206接合。第二网络214促进了与第四装置212的交互。例如,网络206可以包括局域网连接,同时网络214可以包括广域网连接。指南针216被说明为示出了在一些实施例中,可以考虑多个选手的相对位置。例如,对于“最西边”的选手,装置202可以包括左侧L处的板状物130。由于装置204在“最北边”,所以装置204可以使其板状物沿顶侧T定位。装置210可以使其板状物沿底侧B定位,同时装置212可以使其板状物沿右侧R定位。可替换地,所述板状物可以保留在屏幕的同侧以用于每个用户,但在各边缘之间具有适当的映射,以维持用户在共享的游艺区域周围的相对位置。
将被理解的是,在多个实施例中,所述游戏可以配置为基于多个因素而动态调节行为和游艺区域之间的连接,所述因素例如为每个装置的取向、选手的相对位置以及其他考虑,例如屏幕区域的相对尺寸。如下所述,虚拟对象能够以除了遇到游艺区域的边界以外的其他方式或者代替遇到游艺区域的边界的其他方式从一个屏幕移动到另一个屏幕。
图9说明了在多个时间间隔(I)、(II)和(III)上用于各自的两个用户A和B的游艺区域302A和302B的示例。每个游艺区域302包括各自的板状物304。在时间间隔(I)处,虚拟对象306自板状物304B向着游艺区域302B的边界起动或偏转。如在时间间隔(II)处所示,自游艺区域302B的退出点308被映射到游艺区域302A中的进入点310。所述映射可以允许虚拟对象在游艺区域之间即时经过或者可以基于选手间的距离而具有延迟(例如,如由GPS和/或其他三角测量或近感技术确定的距离)。在任何情况下,时间间隔(II)均描述了虚拟对象306遇到板状物304A。例如,用户A可以通过沿他的装置的显示器表面滑动他或她的手指而移动板状物304A,以截击虚拟对象306。
当虚拟对象306遇到板状物304A时,触觉作用H1被选择并且重放。如图所示,触觉作用H1被局限到用户A触摸板状物304A(和/或游艺区域302的另一个部分)的点。如上所述,可以通过命令一个或更多个执行器提供运动或其他作用而生成所述感知。所述执行器可以位于所述作用意图被感觉到的点处和/或其他地方。由于所述作用同样为选手B重放并且被局限到选手B的触点,因此图9将作用H1显示为游艺区域302A中的“(((H1)))”以及游艺区域302B中的“(H1)”。然而,如所示,作用H1的强度在选手A和选手B之间有所不同。
可以基于游戏的被仿真的物理属性而选择所述触觉作用。例如,板状物304可以表示坚硬表面,并且因此作用H1可以包括强烈的、锋利的作用。由于偏转意味着表示“撞击”,因此作用H1可以是游戏中最强烈的作用。向用户B重放“撞击”,以警告用户B虚拟对象将返回,并且用户B可以准备偏转到来的虚拟对象。可以适当的方向指示器向用户B重放所述撞击,例如,所述作用可以被设计为使其从感觉上像起源于左侧,而不是顶部或底部。这可能在三个或更多用户一起游艺时非常有益。
通过甚至是为发生在不同选手的屏幕中的碰撞(或其他事件)而重放触觉作用,即便多个选手不能看到彼此的游艺区域,但所述游戏仍可以增强选手共享空间的感受。因此,选手可能变得更沉迷于游戏并且可以具有更使人信服的游戏体验。
图10说明了游艺的另一个示例并且描述了虚拟对象跳弹离开游艺区域的边沿。特别地,再次显示三个时间间隔(I)、(II)和(III)。游艺区域402A和402B相应于选手A和B,同时还说明了板状物404和虚拟对象406。如在时间间隔(I)所示,以向着游艺区域402的顶部边界处的点408的轨线起动虚拟对象406。间隔(II)说明了当虚拟对象406遇到点408时的情况。向选手A和B重放“反弹”触觉作用H2,该触觉作用被局限于所述选手在各自的板状物404A和404B处的触点。
由于“反弹”发生在游艺区域402B中并且与板状物404B的距离比与板状物404A的距离更近,因此其在游艺区域402B中被描述为“((H2))”,而在游艺区域402A中被描述为“(H2)”,这是因为反弹对选手B来说“声音更大”。如在时间间隔(III)所示,在反弹后,虚拟对象到达游艺区域402A。警惕所述反弹,选手A可以试图截击虚拟对象并且阻止其到达板状物404A后面的目标区域。
图11是说明了本主题的另一个方面的图示。除了响应于改变虚拟对象轨线的事件或其他“离散”事件而播放的触觉作用或者代替所述触觉作用的是,触觉作用可以重放以仿真连续的作用。在本示例中,用于两个选手A和B的游艺区域502被显示在时间间隔(I)和时间间隔(II)中。为了说明的目的,游艺区域502被显示为“风景”的取向,而非“肖像”的取向。每个游艺区域的特征还在于各自的板状物504,并且描述了虚拟对象506。
本示例的每个游艺区域还包括由虚线表示的接缝508。例如,接缝508可以表示在游艺区域中描述的木制表面中的铺板之间的边界。为了仿真木板背景,用于关联滚动经过所述表面的虚拟对象的连续的低滚筒作用(rumble effect)可以与点击作用相结合,以关联虚拟对象遇到接缝508。这种作用在图11中被显示为“H3”。在时间间隔(I),由于与板状物504A相比,虚拟对象更靠近板状物504B,因此用于选手B的所述作用被显示为“((H3))”,而用于选手A的所述作用被显示为“(H3)”。在时间间隔(II),由于虚拟对象506向着选手A移动,因此作用H3对于板状物504A来说声音更大。虽然结合接缝508显示了背景作用,但背景作用还可以被包括以仿真单独的表面(即连续的表面),或者可以随被仿真的背景表面的改变(例如从木制区域到金属区域,再到混凝土区域等等)而改变。
图12是说明了用于根据本主题提供游戏的方法600中的说明性步骤的流程图。框602表示建立一个或更多个游艺区域。例如,如果两个用户期望游艺,各自的游艺区域可以被初始化并且可以确定共享边界(和/或其他进入-退出点)之间的映射。
当游艺继续时,框604发生。所述游戏的至少一个场景可以基于与板状物、障碍物和游艺区域的特性的交互作用而跟踪虚拟对象的位置和运动,所述游艺区域的特性基于仿真游戏的物理属性的模型。例如,所述模型可以基于仿真动量、质量和虚拟对象的材料特性以及游艺区域中的其他项目而提供虚拟对象的速度和方向的改变。
在框606处,基于虚拟对象在事件中、事件前和/或事件后的位置和运动,可以确定用于重放的一个或更多个触觉作用。例如,如果虚拟对象遇到边界或游艺区域中的其他对象,则与虚拟对象和边界/对象之间的物理交互相关联的触觉作用可以被选择用于重放。不同的边界/对象可以引起不同的作用。例如,边沿或板状物可以引起“坚硬”的作用,而包括在游艺区域中的障碍物可以具有“柔软”的作用。还可以考虑虚拟对象的被仿真的属性:所述游戏可以通过适当改变触觉输出方案而支持具有坚硬(例如钢)的虚拟对象或柔软(例如橡胶)的虚拟对象的模式。
额外地或可替换地,触觉作用可以涉及背景作用。例如,如上所述,仿真虚拟对象在被仿真的表面上经过的连续触觉作用可以基于该表面的特性而被提供。作为另一个示例,所述表面可以包括针对虚拟对象经过的材料或障碍物,并且适当的触觉作用可以被提供,从而仿真经过所述材料/障碍物。
在框608处,所述游戏确定虚拟对象关于触觉传输点的位置,以调节如何输出所述触觉作用。例如,触觉传输点可以包括用户触摸装置的屏幕的点。触觉作用的“响度”(即强度)可以与所述传输点和虚拟对象之间的距离成反比。还可以应用方向性。例如,如果在另一个屏幕上发生跳弹,则呈现的触觉作用可以包括方向组件,或者可以被呈现以给出对发生跳弹的位置的指示。
在框610处,适当的信号被发送到执行器,以生成具有期望音量的触觉作用。例如,所述游戏可以参考用于生成不同的触觉作用的信号模式库,并且使用所述信号模式来命令嵌入在屏幕和/或所述装置的其他部分中的一个或更多个执行器。所述触觉作用还可以包括声音和/或视觉元素。
对于多用户游艺,所述游戏的各自的场景中的每一个均可以确定虚拟对象在该场景的游艺区域中的位置和运动,并且将该信息传送到其他场景。当虚拟对象退出所述游艺区域时,关于虚拟对象的运动(例如具有方向和速度的向量)的信息可以用于通过游戏的场景的连续跟踪,所述场景的游艺区域用于接收所述虚拟对象。
在一些实施例中,当事件发生时和/或当提供背景作用时,当触觉作用被触发时,所述触觉作用被游戏的场景选择,所述场景的游艺区域包含所述虚拟对象,并且该信息被提供到所述游戏的其他场景。例如,在涉及选手A和选手B的游戏中,如果虚拟对象碰撞障碍物、边沿或选手A的游艺区域中的板状物,则选手A的装置上的游戏的场景可以向选手B的装置提供连同信息的期望的触觉作用,所述信息关于其碰撞和位置,以便由选手B的装置上的游戏的场景使用,来确定所述作用的音量或方向性。
图13是说明了根据本主题的多个方面配置的用于游戏的一个场景的界面700的一个示例的图示。在本示例中,呈现了类似三维弹球的游戏,其中游艺区域702包括自屏幕边缘向内扩展的边沿704、706。所述游戏的目的是通过使用板状物710偏转虚拟对象而阻止例如球体或其他物体等虚拟对象(未示出)到达708。为了开始游艺,虚拟对象可以自板状物710起动或者可以出现在游艺区域702中的任何位置。
界面700包括多个控制按钮712、714、716和718,所述控制按钮可以用于提供输入并且接入菜单。例如,按钮712和714可以包括游艺和暂停按钮,而按钮716提供“起动”命令,并且按钮718退出游戏或者起动菜单,以便配置、存储或退出游戏。在一些实施例中,控制按钮712-718可以提供有适当的触觉作用,以仿真推进物理按钮。
转向游艺区域702,可以提供多个被仿真的灯720,以增强视觉体验。所述灯可以作为障碍物,也可以不作为障碍物。缓冲器722可以响应于碰撞而使虚拟对象“反弹”,所述碰撞具有与自边沿704、706的跳弹不同的方式。例如,边沿704、706可以呈现为仿真的金属边沿,该金属边沿引起强烈的跳弹作用。缓冲器722可以特征在于在以与三维弹球机缓冲器类似的方式在虚拟对象上施加力之前的初始的“弹性”量。因此,当虚拟对象遇到边沿704、706或缓冲器722时,可以在用户接触屏幕以根据边沿/缓冲器的仿真的物理响应而提供不同感知的点处重放各自不同的触觉作用。此外,如上所述,所述作用的强度可以基于与用户接触屏幕的点的距离。
本示例的特征在于金属条状物724、726和728,其可以提供对与虚拟对象的碰撞的更进一步的响应,并且可以被赋予其本身各自的触觉作用。箭头730可以包括视觉作用和/或可以引起虚拟对象进入木琴结构732的加速度。在本示例中,木琴结构732包括多个按键(标识为732A、732B、732C),其中每个上升的按键具有其自身相关联的触觉作用。例如,当虚拟对象自按键732A移动到按键732B,再到按键732C时,触觉作用可以连同相应的木琴声音作用一起提高音调。与此同时,触觉作用可以随虚拟对象的离开而减小强度。
在一些实施例中,点734表示从游艺区域中退出并且进入第二个用户的与游艺区域702等同的游艺区域。当虚拟对象进入游艺区域702时,所述虚拟对象可以经由斜道736连同伴随的表示经过所述斜道的“嘎嘎声”而返回。如上所述,在一个用户的游艺区域中的每个触觉作用还可以在其他一个用户(或者多个用户)的游艺区域中重放,但是具有基于引起触觉作用的所述事件的地点与用户与屏幕接触的点的分离而相应减小的强度。
一些实施例的特征在于如738所示的旋涡的一个或更多个场景。旋涡738可以包括游艺区域702的一部分,其向着开口740吸引虚拟对象。如果虚拟对象到达开口740,则虚拟对象可以进入另一个游艺区域。当虚拟对象最初接触旋涡738时,可以重放表示“拉动”漩涡的第一触觉作用,其中所述作用变得更强烈,直至(以及如果)虚拟对象到达开口740。此刻。“退出”作用可以被重放,以表示虚拟对象从另一个游艺区域中的漩涡的退出。这能够例如警告游艺区域的用户接收虚拟对象,以将他或她的板状物710移动到位。
在一些实施例中,如果虚拟对象未从目标区域708偏转,则呈现表示进入区域708的触觉作用,例如吸收虚拟对象或爆炸。此刻,基于游戏规则,虚拟对象可以被提供为经由板状物710为另一轮而再次起动。在一些实施例中,所述游戏继续进行,直至一个选手达到预定的成绩等级(例如7分)和/或成绩差值(领先3分)。作为另一个示例,点值可以与撞击特定的障碍物(例如缓冲器722、条状物724、726、728、灯720)或经过木琴结构732的全部按键相关联。多个实施例可以在游艺的过程中以适当的触觉作用支持移动或破坏障碍物(例如通过砖块损坏),所述适当的触觉作用基于障碍物的运动或破坏而提供。
在一些实施例中,计算装置可以感测用户的手指或触针与触摸屏和/或触摸压力的距离。这些特征可以在玩游戏和/或配置游戏应用期间使用。例如,如果所述装置指示用户未触摸屏幕或其他触觉使能的区域,则可以关闭触觉作用,以减小能耗。作为另一个示例,用户可能能够悬停以提供输入。例如,呈现按钮712-716的区域通常可以拉丝金属出现,但所述按钮可以响应于悬停或接触所述区域的用户而出现。
在上述一些示例中,游戏玩法基于使用触摸的板状物的移动而继续进行。此外或可替换地,游戏玩法可以基于倾角传感器/或加速计。例如,用户可能能够倾斜或摇摆其装置,以影响虚拟对象和/或板状物位置的移动。可以在用户抓住其各自的装置的点处传输触觉作用。在一些实施例中,所述游戏可以使每个用户使用多个板状物,或者可以不使用任何板状物,其中全部输入基于倾角/加速度。
提供了多用户游艺的一些示例。在一些实施例中,同样支持单个用户游艺。例如,游艺区域可以完全关闭,其中虚拟对象向着板状物和目标区域返回。作为另一个示例,单个用户游艺可以与仿真的一个或更多个其他选手继续进行,其中所述其他选手具有各自的仿真的游艺区域,并且当虚拟对象进入仿真的游艺区域时,具有相应的触觉反馈。
虽然本发明基于目前被视为最实际和优选的实施例以说明性目的进行了详细说明,但应理解这些细节仅用于说明性目的,并且本发明不限于所公开的实施例,而是相反,本发明意图覆盖落入所附权利要求的精神和范围内的修改和等效配置。例如,应理解本发明预期在可行的限度内,任意实施例的一个或更多个特征可以与任意其他实施例的一个或更多个特征相结合。

Claims (19)

1.一种产生触觉作用的方法,包括:
利用传感器监控从用户界面设备接收的用户的身体部分的运动;
利用能由处理器执行的手势模块比较所述身体部分的运动与控制手势;
在所述身体部分的运动对应于所述控制手势的情况下,利用触觉输出设备生成第一触觉作用;以及
在所述身体部分的运动不对应于所述控制手势的情况下,利用所述触觉输出设备生成第二触觉作用,所述第二触觉作用与所述第一触觉作用不同。
2.根据权利要求1所述的方法,其中,所述身体部分是所述用户的配件。
3.根据权利要求1所述的方法,其中,所述身体部分是所述用户的头部。
4.根据权利要求1所述的方法,其中,所述身体部分的运动包括改变所述身体部分的运动方向。
5.根据权利要求1所述的方法,其中,所述身体部分的运动包括改变所述身体部分的取向。
6.根据权利要求1所述的方法,其中,监控所述身体部分的运动包括监控所述身体部分的加速度。
7.根据权利要求1所述的方法,还包括利用能由所述处理器执行的内容模块基于经由所述用户界面设备提供给所述用户的内容来确定要生成的所述第一触觉作用。
8.一种使能触觉作用的系统,包括:
用户界面设备;
被配置为监控从所述用户界面设备接收的用户的身体部分的运动的传感器;
被配置为生成触觉作用的触觉执行器;以及
与所述用户界面、传感器和触觉执行器操作上通信的处理器,所述处理器包括:
与所述传感器电耦合的手势模块,所述手势模块被配置为比较所述身体部分的运动与控制手势,以及
与所述手势模块和触觉设备电耦合的激励模块,所述激励模块被配置为确定在所述身体部分的运动对应于所述控制手势的情况下要由所述触觉执行器生成的第一触觉作用。
9.根据权利要求8所述的系统,其中,所述激励模块还被配置为确定在所述身体部分的运动不对应于所述控制手势的情况下要由所述触觉执行器生成的与所述第一触觉作用不同的第二触觉作用。
10.根据权利要求8所述的系统,其中,所述身体部分是所述用户的配件,并且所述用户界面设备被配置为由所述用户的配件携带。
11.根据权利要求8所述的系统,其中,所述身体部分是所述用户的头部,并且所述用户界面设备被配置为由所述用户的头部携带。
12.根据权利要求8所述的系统,其中,所述身体部分的运动包括改变所述身体部分的运动方向。
13.根据权利要求8所述的系统,其中,所述身体部分的运动包括改变所述身体部分的取向。
14.根据权利要求8所述的系统,其中,所述传感器被配置为监控所述身体部分的加速度。
15.根据权利要求8所述的系统,其中,所述身体部分的运动包括初始部分、中间部分和结束部分,其中在所述运动的初始部分对应于所述控制手势的初始部分的情况下生成所述触觉作用,并且其中在所述运动的中间部分对应于所述控制手势的中间部分的情况下生成与所述第一触觉作用不同的第二触觉作用。
16.根据权利要求15所述的系统,其中,在所述运动的结束部分对应于所述控制手势的结束部分的情况下,生成与所述第一触觉作用和第二触觉作用不同的第三触觉作用。
17.根据权利要求8所述的系统,其中,所述用户界面设备被配置为向所述用户提供内容,并且其中所述激励模块还被配置为基于提供给所述用户的内容来确定要生成的第一触觉作用。
18.一种产生触觉作用的方法,包括:
利用传感器监控从用户界面设备接收的用户的身体部分的运动,其中,所述身体部分的运动包括初始部分、中间部分和结束部分;
利用能由处理器执行的手势模块比较所述身体部分的运动与控制手势;
在所述运动的初始部分对应于所述控制手势的初始部分的情况下生成第一触觉作用;以及
在所述运动的中间部分对应于所述控制手势的中间部分的情况下生成第二触觉作用,其中所述第二触觉作用与所述第一触觉作用不同。
19.根据权利要求18所述的方法,还包括:
在所述运动的结束部分对应于所述控制手势的结束部分的情况下生成第三触觉作用,所述第三触觉作用与所述第一触觉作用和第二触觉作用不同。
CN201510087459.4A 2009-07-22 2010-07-21 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法 Active CN104679247B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US22764509P 2009-07-22 2009-07-22
US61/227,645 2009-07-22
CN201080032035.3A CN102473034B (zh) 2009-07-22 2010-07-21 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201080032035.3A Division CN102473034B (zh) 2009-07-22 2010-07-21 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法

Publications (2)

Publication Number Publication Date
CN104679247A CN104679247A (zh) 2015-06-03
CN104679247B true CN104679247B (zh) 2018-07-24

Family

ID=42931900

Family Applications (4)

Application Number Title Priority Date Filing Date
CN201080032035.3A Active CN102473034B (zh) 2009-07-22 2010-07-21 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
CN201080032051.2A Active CN102473035B (zh) 2009-07-22 2010-07-21 具有横跨平台的触觉反馈的交互式触摸屏游戏象征
CN201510087459.4A Active CN104679247B (zh) 2009-07-22 2010-07-21 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
CN201410816268.2A Active CN104503578B (zh) 2009-07-22 2010-07-21 具有横跨平台的触觉反馈的交互式触摸屏游戏象征

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN201080032035.3A Active CN102473034B (zh) 2009-07-22 2010-07-21 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
CN201080032051.2A Active CN102473035B (zh) 2009-07-22 2010-07-21 具有横跨平台的触觉反馈的交互式触摸屏游戏象征

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201410816268.2A Active CN104503578B (zh) 2009-07-22 2010-07-21 具有横跨平台的触觉反馈的交互式触摸屏游戏象征

Country Status (6)

Country Link
US (8) US8469806B2 (zh)
EP (2) EP2457142B1 (zh)
JP (7) JP5823962B2 (zh)
KR (9) KR101713358B1 (zh)
CN (4) CN102473034B (zh)
WO (2) WO2011011546A1 (zh)

Families Citing this family (165)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
BRPI0804355A2 (pt) * 2008-03-10 2009-11-03 Lg Electronics Inc terminal e método de controle do mesmo
JP4498448B2 (ja) * 2008-08-06 2010-07-07 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4600548B2 (ja) 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US8719714B2 (en) 2009-07-08 2014-05-06 Steelseries Aps Apparatus and method for managing operations of accessories
US9737796B2 (en) 2009-07-08 2017-08-22 Steelseries Aps Apparatus and method for managing operations of accessories in multi-dimensions
KR101713358B1 (ko) 2009-07-22 2017-03-07 임머숀 코퍼레이션 제어 제스처의 입력 동안에 가상 장비의 제어에 관한 복합 햅틱 자극을 제공하기 위한 시스템 및 방법
KR101657963B1 (ko) * 2009-12-08 2016-10-04 삼성전자 주식회사 단말기의 터치 면적 변화율에 따른 운용 방법 및 장치
US20110149042A1 (en) * 2009-12-18 2011-06-23 Electronics And Telecommunications Research Institute Method and apparatus for generating a stereoscopic image
CA2719659C (en) * 2010-11-05 2012-02-07 Ibm Canada Limited - Ibm Canada Limitee Haptic device with multitouch display
CN106943743B (zh) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 一种人机互动控制方法
EP3306449B1 (en) 2011-03-04 2022-03-09 Apple Inc. Linear vibrator providing localized and generalized haptic feedback
US9218727B2 (en) 2011-05-12 2015-12-22 Apple Inc. Vibration in portable devices
US9710061B2 (en) * 2011-06-17 2017-07-18 Apple Inc. Haptic feedback device
US8830188B2 (en) 2011-06-21 2014-09-09 Microsoft Corporation Infrastructural haptics on wall scale interactive displays
US9220977B1 (en) 2011-06-30 2015-12-29 Zynga Inc. Friend recommendation system
DE102011107279B4 (de) * 2011-07-15 2013-10-31 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Hallstadt Fehlervermeidung bei der gestengesteuerten Öffnung eines Kraftfahrzeug-Stellelements
US9778737B1 (en) * 2011-08-31 2017-10-03 Amazon Technologies, Inc. Game recommendations based on gesture type
US10522452B2 (en) * 2011-10-18 2019-12-31 Taiwan Semiconductor Manufacturing Company, Ltd. Packaging methods for semiconductor devices including forming trenches in workpiece to separate adjacent packaging substrates
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US20130124327A1 (en) 2011-11-11 2013-05-16 Jumptap, Inc. Identifying a same user of multiple communication devices based on web page visits
KR102024006B1 (ko) * 2012-02-10 2019-09-24 삼성전자주식회사 진동 장치간 진동 전달을 제어하는 장치 및 방법
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8493354B1 (en) 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
US20140015773A1 (en) * 2012-02-24 2014-01-16 Thomson Licensing Haptic sensation for touch-screen interfaces
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9703378B2 (en) * 2012-06-13 2017-07-11 Immersion Corporation Method and apparatus for representing user interface metaphors as physical changes on a shape-changing device
US9245428B2 (en) * 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US9280206B2 (en) 2012-08-20 2016-03-08 Samsung Electronics Co., Ltd. System and method for perceiving images with multimodal feedback
US9292136B2 (en) * 2012-10-02 2016-03-22 At&T Intellectual Property I, L.P. Notification system for providing awareness of an interactive surface
US9330544B2 (en) * 2012-11-20 2016-05-03 Immersion Corporation System and method for simulated physical interactions with haptic effects
US9836150B2 (en) 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
US9202350B2 (en) * 2012-12-19 2015-12-01 Nokia Technologies Oy User interfaces and associated methods
US9195382B2 (en) * 2013-01-29 2015-11-24 Google Inc. Intelligent window sizing and control
US9884257B2 (en) * 2013-03-06 2018-02-06 Tencent Technology (Shenzhen) Company Limited Method for preventing misoperations of intelligent terminal, and intelligent terminal
US9866924B2 (en) * 2013-03-14 2018-01-09 Immersion Corporation Systems and methods for enhanced television interaction
US9687730B2 (en) 2013-03-15 2017-06-27 Steelseries Aps Gaming device with independent gesture-sensitive areas
US9423874B2 (en) 2013-03-15 2016-08-23 Steelseries Aps Gaming accessory with sensory feedback device
US9415299B2 (en) 2013-03-15 2016-08-16 Steelseries Aps Gaming device
US9557830B2 (en) 2013-03-15 2017-01-31 Immersion Corporation Programmable haptic peripheral
US9409087B2 (en) 2013-03-15 2016-08-09 Steelseries Aps Method and apparatus for processing gestures
US9041647B2 (en) * 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
US9604147B2 (en) 2013-03-15 2017-03-28 Steelseries Aps Method and apparatus for managing use of an accessory
US9939900B2 (en) * 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
US10295823B2 (en) 2013-07-02 2019-05-21 Pine Development Corporation Systems and methods for eliciting cutaneous sensations using electromagnetic radiation
USD723625S1 (en) 2013-08-27 2015-03-03 Steelseries Aps Gaming device
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) * 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
US9639158B2 (en) * 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
FR3015383B1 (fr) * 2013-12-19 2017-01-13 Dav Dispositif de controle pour vehicule automobile et procede de commande
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
US9875019B2 (en) 2013-12-26 2018-01-23 Visteon Global Technologies, Inc. Indicating a transition from gesture based inputs to touch surfaces
US9817489B2 (en) 2014-01-27 2017-11-14 Apple Inc. Texture capture stylus and method
JP6264542B2 (ja) * 2014-01-30 2018-01-24 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
WO2015121970A1 (ja) * 2014-02-14 2015-08-20 富士通株式会社 教育用触感提供装置、及び、システム
US9396629B1 (en) 2014-02-21 2016-07-19 Apple Inc. Haptic modules with independently controllable vertical and horizontal mass movements
CN103885708A (zh) * 2014-02-28 2014-06-25 宇龙计算机通信科技(深圳)有限公司 触觉交互的方法及系统
FR3018122A1 (fr) * 2014-02-28 2015-09-04 Orange Procede de controle d'acces par retour haptique
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
US9594429B2 (en) 2014-03-27 2017-03-14 Apple Inc. Adjusting the level of acoustic and haptic output in haptic devices
US9449477B2 (en) 2014-04-02 2016-09-20 Pine Development Corporation Applications of systems and methods for eliciting cutaneous sensations by electromagnetic radiation
US20170098350A1 (en) * 2015-05-15 2017-04-06 Mick Ebeling Vibrotactile control software systems and methods
US20230351868A1 (en) * 2014-05-16 2023-11-02 Not Impossible, Llc Vibrotactile control systems and methods
US10379614B2 (en) * 2014-05-19 2019-08-13 Immersion Corporation Non-collocated haptic cues in immersive environments
US10133351B2 (en) 2014-05-21 2018-11-20 Apple Inc. Providing haptic output based on a determined orientation of an electronic device
US20160202760A1 (en) * 2014-06-06 2016-07-14 Microsoft Technology Licensing Llc Systems and methods for controlling feedback for multiple haptic zones
US9715279B2 (en) 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
JP6341417B2 (ja) * 2014-06-10 2018-06-13 任天堂株式会社 振動生成システム、振動生成プログラム、および振動生成方法
EP3105669B1 (en) 2014-06-24 2021-05-26 Apple Inc. Application menu for video system
EP2963387B1 (en) * 2014-06-30 2019-07-31 STMicroelectronics Srl Micro-electro-mechanical device with compensation of errors due to disturbance forces, such as quadrature components
US9886090B2 (en) 2014-07-08 2018-02-06 Apple Inc. Haptic notifications utilizing haptic input devices
US10845984B2 (en) * 2014-08-20 2020-11-24 Touchgram Pty Ltd System and a method for sending a touch message
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
FR3025902B1 (fr) * 2014-09-16 2017-12-08 E-Concept Souris vibrante multi-dimensions
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US9400570B2 (en) 2014-11-14 2016-07-26 Apple Inc. Stylus with inertial sensor
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
KR101666532B1 (ko) * 2014-12-01 2016-10-14 김정훈 실시간 진동 피드백을 제공하는 진동 마우스
US9919208B2 (en) * 2014-12-11 2018-03-20 Immersion Corporation Video gameplay haptics
US9575573B2 (en) 2014-12-18 2017-02-21 Apple Inc. Stylus with touch sensor
US9658693B2 (en) 2014-12-19 2017-05-23 Immersion Corporation Systems and methods for haptically-enabled interactions with objects
US9600076B2 (en) 2014-12-19 2017-03-21 Immersion Corporation Systems and methods for object manipulation with haptic feedback
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
WO2016148182A1 (ja) * 2015-03-18 2016-09-22 株式会社ニコン 電子機器、およびプログラム
US10613629B2 (en) 2015-03-27 2020-04-07 Chad Laurendeau System and method for force feedback interface devices
CN107615213A (zh) 2015-04-21 2018-01-19 意美森公司 蚀刻输入的动态呈现
US20160317909A1 (en) * 2015-04-30 2016-11-03 Barry Berman Gesture and audio control of a pinball machine
CN104932691A (zh) * 2015-06-19 2015-09-23 中国航天员科研训练中心 带有触觉感知反馈的手势实时交互系统
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
US20170024010A1 (en) 2015-07-21 2017-01-26 Apple Inc. Guidance device for the sensory impaired
KR102639118B1 (ko) * 2015-09-08 2024-02-22 소니그룹주식회사 정보 처리 장치, 방법 및 컴퓨터 프로그램
US10013060B2 (en) 2015-09-18 2018-07-03 Immersion Corporation Systems and methods for providing haptic effects in response to deformation of a cover for an electronic device
US10776618B2 (en) * 2015-11-19 2020-09-15 Lg Electronics Inc. Mobile terminal and control method therefor
CN105498205B (zh) * 2015-12-10 2020-04-24 联想(北京)有限公司 一种电子游戏控制设备及控制方法
US10200332B2 (en) * 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
US9895607B2 (en) * 2015-12-15 2018-02-20 Igt Canada Solutions Ulc Haptic feedback on a gaming terminal display
US20170232348A1 (en) * 2016-02-05 2017-08-17 Prizm Labs, Inc. Methods for executing an instance of a virtual multiplayer game at multiple local devices
CN105536249B (zh) * 2016-02-18 2023-09-01 高创(苏州)电子有限公司 游戏系统
JP2017134802A (ja) * 2016-03-04 2017-08-03 望月 玲於奈 ユーザーインターフェースプログラム
US10772394B1 (en) 2016-03-08 2020-09-15 Apple Inc. Tactile output for wearable device
JP6591924B2 (ja) * 2016-03-31 2019-10-16 日本電信電話株式会社 皮膚覚提示システム
US9898142B2 (en) * 2016-04-01 2018-02-20 Ford Global Technologies, Llc Touch detection on a curved surface
US10585480B1 (en) 2016-05-10 2020-03-10 Apple Inc. Electronic device with an input device having a haptic engine
US9829981B1 (en) 2016-05-26 2017-11-28 Apple Inc. Haptic output device
US10671186B2 (en) 2016-06-15 2020-06-02 Microsoft Technology Licensing, Llc Autonomous haptic stylus
US10649529B1 (en) 2016-06-28 2020-05-12 Apple Inc. Modification of user-perceived feedback of an input device using acoustic or haptic output
US10845878B1 (en) 2016-07-25 2020-11-24 Apple Inc. Input device with tactile feedback
US10372214B1 (en) 2016-09-07 2019-08-06 Apple Inc. Adaptable user-selectable input area in an electronic device
US11794094B2 (en) * 2016-10-17 2023-10-24 Aquimo Inc. Method and system for using sensors of a control device for control of a game
US10078370B2 (en) * 2016-11-23 2018-09-18 Immersion Corporation Devices and methods for modifying haptic effects
JP2017157195A (ja) * 2016-12-19 2017-09-07 望月 玲於奈 ユーザーインターフェースプログラム
US10437359B1 (en) 2017-02-28 2019-10-08 Apple Inc. Stylus with external magnetic influence
EP3396478B1 (en) * 2017-04-28 2023-06-14 Deere & Company Apparatus, method and computer programme for controlling a machine
KR102389063B1 (ko) 2017-05-11 2022-04-22 삼성전자주식회사 햅틱 피드백을 제공하는 방법 및 이를 수행하는 전자 장치
US10437336B2 (en) 2017-05-15 2019-10-08 Microsoft Technology Licensing, Llc Haptics to identify button regions
US10471347B2 (en) * 2017-05-24 2019-11-12 Nintendo Co., Ltd. Information processing system, information processing apparatus, storage medium storing information processing program, and information processing method
US10743805B2 (en) 2017-06-02 2020-08-18 International Business Machines Corporation Haptic interface for generating preflex stimulation
JP6613267B2 (ja) * 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
WO2019013044A1 (ja) * 2017-07-10 2019-01-17 シャープ株式会社 入力装置
US10915174B1 (en) * 2017-07-20 2021-02-09 Apple Inc. Electronic devices with directional haptic output
US10775889B1 (en) 2017-07-21 2020-09-15 Apple Inc. Enclosure with locally-flexible regions
US10768747B2 (en) 2017-08-31 2020-09-08 Apple Inc. Haptic realignment cues for touch-input displays
TWI651120B (zh) * 2017-09-01 2019-02-21 玩猴遊戲股份有限公司 遊戲控制方法與電子裝置
US11054932B2 (en) 2017-09-06 2021-07-06 Apple Inc. Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module
US10556252B2 (en) 2017-09-20 2020-02-11 Apple Inc. Electronic device having a tuned resonance haptic actuation system
US10768738B1 (en) 2017-09-27 2020-09-08 Apple Inc. Electronic device having a haptic actuator with magnetic augmentation
US10866697B2 (en) * 2017-10-24 2020-12-15 Microchip Technology Incorporated Touch-sensitive user-interface including configurable virtual widgets
GB2568923B (en) * 2017-11-30 2020-09-30 Cyrex Ltd Electrical stimulator apparatus with contactless feedback from a user
JP6888558B2 (ja) 2018-01-19 2021-06-16 豊田合成株式会社 触感提示装置
US10996755B2 (en) * 2018-02-28 2021-05-04 Google Llc Piezoelectric haptic feedback module
US10353579B1 (en) * 2018-03-28 2019-07-16 Disney Enterprises, Inc. Interpreting user touch gestures to generate explicit instructions
JP6548776B1 (ja) * 2018-04-20 2019-07-24 株式会社Cygames プログラム、電子装置、方法、及びシステム
US20190324538A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Haptic-enabled wearable device for generating a haptic effect in an immersive reality environment
JP7155613B2 (ja) * 2018-05-29 2022-10-19 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US10942571B2 (en) 2018-06-29 2021-03-09 Apple Inc. Laptop computing device with discrete haptic regions
US10936071B2 (en) 2018-08-30 2021-03-02 Apple Inc. Wearable electronic device with haptic rotatable input
US10613678B1 (en) 2018-09-17 2020-04-07 Apple Inc. Input device with haptic feedback
US10966007B1 (en) 2018-09-25 2021-03-30 Apple Inc. Haptic output system
US11143523B2 (en) 2018-10-09 2021-10-12 International Business Machines Corporation Providing raised patterns and haptic feedback for mapping applications
US10678264B2 (en) * 2018-10-10 2020-06-09 Midea Group Co., Ltd. Method and system for providing remote robotic control
US20200192480A1 (en) * 2018-12-18 2020-06-18 Immersion Corporation Systems and methods for providing haptic effects based on a user's motion or environment
JP6560840B1 (ja) * 2019-04-19 2019-08-14 株式会社Cygames プログラム、電子装置、方法、及びシステム
CN110109726B (zh) * 2019-04-30 2022-08-23 网易(杭州)网络有限公司 虚拟对象的接收处理方法及传输方法、装置和存储介质
USD913017S1 (en) * 2019-06-03 2021-03-16 Nazar Kamangar Interactive multimedia table
CN111113414B (zh) * 2019-12-19 2022-08-30 长安大学 一种基于屏幕标识的机器人三维空间尺度提示方法及系统
US11024135B1 (en) 2020-06-17 2021-06-01 Apple Inc. Portable electronic device having a haptic button assembly
US20210402292A1 (en) * 2020-06-25 2021-12-30 Sony Interactive Entertainment LLC Method of haptic responses and interacting
CN111782435B (zh) * 2020-07-02 2021-08-06 重庆紫光华山智安科技有限公司 一种视频监控管理平台级联异常恢复处理方法及系统
KR102419901B1 (ko) * 2020-09-16 2022-07-13 주식회사 익센트릭게임그루 이머시브 콘텐츠 제공 시스템
US20220111290A1 (en) * 2020-10-09 2022-04-14 Contact Control Interfaces, LLC Haptic engine for spatial computing
KR20230128063A (ko) * 2020-12-31 2023-09-01 스냅 인코포레이티드 햅틱 피드백을 갖는 실시간 비디오 통신 인터페이스
CN116710885A (zh) * 2020-12-31 2023-09-05 斯纳普公司 具有触觉反馈响应的通信界面
US11531400B2 (en) * 2020-12-31 2022-12-20 Snap Inc. Electronic communication interface with haptic feedback response
US11517812B2 (en) 2021-02-19 2022-12-06 Blok Party, Inc. Application of RFID gamepieces for a gaming console
US11199903B1 (en) * 2021-03-26 2021-12-14 The Florida International University Board Of Trustees Systems and methods for providing haptic feedback when interacting with virtual objects
US20220317773A1 (en) * 2021-03-31 2022-10-06 Snap Inc. Real-time communication interface with haptic and audio feedback response
JP7219862B2 (ja) * 2021-06-02 2023-02-09 株式会社Nttコノキュー 通信システム、通信方法及び通信プログラム
US11567575B2 (en) * 2021-06-14 2023-01-31 Microsoft Technology Licensing, Llc Haptic response control
WO2023215975A1 (en) * 2022-05-09 2023-11-16 D-Box Technologies Inc. Method and system for adaptive motion simulation in gaming

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1539604A (zh) * 2003-11-01 2004-10-27 中国科学院合肥智能机械研究所 一种柔性触觉传感器及触觉信息检测方法
CN101048103A (zh) * 2004-10-25 2007-10-03 韦博辛斯动力公司 振动触觉感知仪
CN101118469A (zh) * 2006-07-31 2008-02-06 索尼株式会社 用于基于触觉反馈和压力测量的触摸屏交互的设备和方法
CN101169683A (zh) * 2007-11-22 2008-04-30 上海交通大学 基于触觉的模拟视幻觉定位系统
WO2009071750A1 (en) * 2007-12-07 2009-06-11 Nokia Corporation A user interface

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3784903T2 (de) * 1986-12-18 1993-06-24 Michael Anthony Smithard Lerngeraet.
JP3537238B2 (ja) 1995-09-22 2004-06-14 株式会社ナムコ ゲーム装置及びゲーム装置の制御方法
JP3514925B2 (ja) * 1995-10-09 2004-04-05 任天堂株式会社 コントローラパック
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
TW404846B (en) 1998-01-23 2000-09-11 Koninkl Philips Electronics Nv Multiperson tactual virtual environment
JP2000005445A (ja) * 1998-06-26 2000-01-11 Sony Corp ネットワークゲーム装置
JP4728595B2 (ja) * 2000-03-16 2011-07-20 株式会社セガ 情報処理方法
JP2001265520A (ja) * 2000-03-17 2001-09-28 Fuji Electric Co Ltd 端末機の入力装置
JP2001352414A (ja) * 2000-06-07 2001-12-21 Toshiba Corp 釣りゲーム機能を備えた無線電話装置とコンピュータ読み取り可能な記録媒体
JP3949912B2 (ja) 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
AU2001294852A1 (en) * 2000-09-28 2002-04-08 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
JP2002123840A (ja) * 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 臨場感型仮想現実提供処理方法および装置
JP3888099B2 (ja) * 2001-08-17 2007-02-28 富士ゼロックス株式会社 タッチパネル装置
AU2002364690A1 (en) * 2001-10-30 2003-06-23 Immersion Corporation Methods and apparatus for providing haptic feedback in interacting with virtual pets
JP2003180896A (ja) * 2001-12-17 2003-07-02 Kazuyoshi Tsukamoto バーチャルスポーツシステム
TW543493U (en) 2002-04-01 2003-07-21 Lite On Technology Corp The game apparatus for a personal digital assistant
JP4447823B2 (ja) * 2002-06-14 2010-04-07 ソニー株式会社 携帯情報機器
JP2005317041A (ja) * 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP4345534B2 (ja) * 2004-03-17 2009-10-14 ソニー株式会社 触覚機能付き入力装置、情報入力方法及び電子機器
WO2005103863A2 (en) 2004-03-23 2005-11-03 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
US7280096B2 (en) * 2004-03-23 2007-10-09 Fujitsu Limited Motion sensor engagement for a handheld device
US20050212760A1 (en) * 2004-03-23 2005-09-29 Marvit David L Gesture based user interface supporting preexisting symbols
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
JP2005332063A (ja) * 2004-05-18 2005-12-02 Sony Corp 触覚機能付き入力装置、情報入力方法及び電子機器
JP4869568B2 (ja) 2004-06-14 2012-02-08 ソニー株式会社 入力装置および電子機器
JP4473685B2 (ja) * 2004-09-01 2010-06-02 任天堂株式会社 ゲーム装置およびゲームプログラム
US20080174550A1 (en) 2005-02-24 2008-07-24 Kari Laurila Motion-Input Device For a Computing Terminal and Method of its Operation
JP4167683B2 (ja) 2005-10-19 2008-10-15 株式会社タイトー ゲーム装置、ゲームサーバ装置
WO2007059172A2 (en) 2005-11-14 2007-05-24 Immersion Corporation Systems and methods for editing a model of a physical system for a simulation
US7480870B2 (en) * 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
JP4119917B2 (ja) * 2005-12-27 2008-07-16 株式会社タイトー 銃型コントローラ、銃型コントローラを用いたゲーム装置
JP2007221413A (ja) * 2006-02-16 2007-08-30 Nagoya Institute Of Technology 触覚メディア転送方式
JP2007301270A (ja) * 2006-05-15 2007-11-22 Sony Computer Entertainment Inc ゲーム制御プログラム、ゲーム制御方法、ゲーム装置
CN104656900A (zh) * 2006-09-13 2015-05-27 意美森公司 用于游戏厅游戏触觉的系统和方法
US7890863B2 (en) * 2006-10-04 2011-02-15 Immersion Corporation Haptic effects with proximity sensing
JP4926799B2 (ja) * 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
US8120584B2 (en) * 2006-12-21 2012-02-21 Cypress Semiconductor Corporation Feedback mechanism for user detection of reference location on a sensing device
JP4925817B2 (ja) * 2006-12-28 2012-05-09 株式会社コナミデジタルエンタテインメント シューティング玩具
US8621348B2 (en) * 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
JP4739302B2 (ja) * 2007-09-14 2011-08-03 独立行政法人科学技術振興機構 貫通触感覚提示装置
KR101580227B1 (ko) * 2007-09-18 2015-12-24 센세그 오와이 감지 자극에 대한 장치 및 방법
JP2009080720A (ja) * 2007-09-27 2009-04-16 Kyocera Mita Corp 情報入力装置
KR101713358B1 (ko) 2009-07-22 2017-03-07 임머숀 코퍼레이션 제어 제스처의 입력 동안에 가상 장비의 제어에 관한 복합 햅틱 자극을 제공하기 위한 시스템 및 방법
KR101623748B1 (ko) * 2009-09-01 2016-05-25 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 이동 단말기 및 이동 단말기의 메시지 작성 방법
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US20150062086A1 (en) * 2013-08-29 2015-03-05 Rohildev Nattukallingal Method and system of a wearable ring device for management of another computing device
US20150070263A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic Displays Based On User Interaction States

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1539604A (zh) * 2003-11-01 2004-10-27 中国科学院合肥智能机械研究所 一种柔性触觉传感器及触觉信息检测方法
CN101048103A (zh) * 2004-10-25 2007-10-03 韦博辛斯动力公司 振动触觉感知仪
CN101118469A (zh) * 2006-07-31 2008-02-06 索尼株式会社 用于基于触觉反馈和压力测量的触摸屏交互的设备和方法
CN101169683A (zh) * 2007-11-22 2008-04-30 上海交通大学 基于触觉的模拟视幻觉定位系统
WO2009071750A1 (en) * 2007-12-07 2009-06-11 Nokia Corporation A user interface

Also Published As

Publication number Publication date
KR101993848B1 (ko) 2019-06-28
WO2011011552A1 (en) 2011-01-27
KR101755051B1 (ko) 2017-07-06
CN102473035B (zh) 2015-01-21
KR101873943B1 (ko) 2018-07-04
KR20170026642A (ko) 2017-03-08
US10139911B2 (en) 2018-11-27
EP2457142A1 (en) 2012-05-30
KR101713358B1 (ko) 2017-03-07
JP6877249B2 (ja) 2021-05-26
CN104503578B (zh) 2018-02-06
US20110018697A1 (en) 2011-01-27
JP7186635B2 (ja) 2022-12-09
US9235969B2 (en) 2016-01-12
JP2021180873A (ja) 2021-11-25
EP2457141A1 (en) 2012-05-30
EP2457142B1 (en) 2019-12-25
KR20120051710A (ko) 2012-05-22
US9373233B2 (en) 2016-06-21
CN104503578A (zh) 2015-04-08
US20160231814A1 (en) 2016-08-11
EP2457141B1 (en) 2020-05-06
KR101962081B1 (ko) 2019-03-25
US20140009273A1 (en) 2014-01-09
KR20120053004A (ko) 2012-05-24
US8502651B2 (en) 2013-08-06
KR101875354B1 (ko) 2018-07-05
US20170168573A1 (en) 2017-06-15
JP2016026361A (ja) 2016-02-12
JP5932917B2 (ja) 2016-06-08
JP7469266B2 (ja) 2024-04-16
US20110021272A1 (en) 2011-01-27
CN102473034A (zh) 2012-05-23
US9921655B2 (en) 2018-03-20
KR20180077309A (ko) 2018-07-06
CN104679247A (zh) 2015-06-03
US20130328814A1 (en) 2013-12-12
JP5823962B2 (ja) 2015-11-25
WO2011011546A1 (en) 2011-01-27
JP6181726B2 (ja) 2017-08-16
KR20170081287A (ko) 2017-07-11
US20190073037A1 (en) 2019-03-07
US20170357323A1 (en) 2017-12-14
CN102473034B (zh) 2015-04-01
KR20190032632A (ko) 2019-03-27
JP2013500517A (ja) 2013-01-07
JP2015018562A (ja) 2015-01-29
KR20190077113A (ko) 2019-07-02
US9671866B2 (en) 2017-06-06
JP2017201533A (ja) 2017-11-09
JP2019096347A (ja) 2019-06-20
US8469806B2 (en) 2013-06-25
CN102473035A (zh) 2012-05-23
KR20170104652A (ko) 2017-09-15
KR20180049186A (ko) 2018-05-10
JP5613236B2 (ja) 2014-10-22
JP2013500516A (ja) 2013-01-07

Similar Documents

Publication Publication Date Title
CN104679247B (zh) 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
US20180341332A1 (en) Systems and Methods for a Shared Haptic Experience
JP5733902B2 (ja) 触覚フィードバックを有する携帯コンピュータインタフェース
JP6450875B1 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2006314763A (ja) 対戦ビデオゲーム制御プログラム
JP2018117647A (ja) コンピュータプログラム、ゲーム装置
CN114225406A (zh) 虚拟道具控制方法、装置、计算机设备及存储介质
JP2020141813A (ja) 配信プログラム、配信方法、コンピュータ、および視聴端末
JP2020166726A (ja) 視聴プログラム、視聴方法、および視聴端末
JP2021051762A (ja) 視聴プログラム、視聴方法、および視聴端末
JP2019150557A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2020058512A (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant